JP6693184B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6693184B2 JP6693184B2 JP2016047315A JP2016047315A JP6693184B2 JP 6693184 B2 JP6693184 B2 JP 6693184B2 JP 2016047315 A JP2016047315 A JP 2016047315A JP 2016047315 A JP2016047315 A JP 2016047315A JP 6693184 B2 JP6693184 B2 JP 6693184B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- area
- unit
- image data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 116
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012937 correction Methods 0.000 claims description 64
- 238000001514 detection method Methods 0.000 claims description 50
- 238000006243 chemical reaction Methods 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 38
- 239000006185 dispersion Substances 0.000 claims description 37
- 239000000284 extract Substances 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 38
- 230000010365 information processing Effects 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 241000255969 Pieris brassicae Species 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 235000013290 Sagittaria latifolia Nutrition 0.000 description 1
- 235000015246 common arrowhead Nutrition 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Facsimile Scanning Arrangements (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Input (AREA)
Description
本発明は、画像処理装置、および画像処理方法に関する。
The present invention relates to an image processing apparatus, and an image processing method.
特許文献1には、「原稿が1枚である場合でも、原稿が複数枚である場合でも、原稿領域を適切に得ることができる画像処理装置、画像処理方法、およびプログラム」が開示されている。
原稿などのスキャン対象物には、例えば、罫線などの線が含まれている場合がある。このような線を含むスキャン対象物の画像データは、スキャンする台に置かれる位置によって、スキャン対象物の部分と、背景の部分(例えば、原稿を押さえるカバー)とに分けることが困難な場合がある。 A scan target such as a document may include lines such as ruled lines. It may be difficult to divide the image data of the scan target including such a line into a part of the scan target and a background part (for example, a cover for pressing the document) depending on the position placed on the scanning table. is there.
なお、特許文献1には、原稿の置き方による、画像データの原稿部分と背景部分との分離については記載がない。
It should be noted that
そこで本発明は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる技術を提供する。 Therefore, the present invention provides a technique capable of appropriately dividing image data into a scan target portion and a background portion.
上記の課題を解決するための本発明の第一の態様は、スキャン対象物をスキャンし、画像データを出力するスキャン部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、を有することを特徴とする画像処理部である。第一の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。 A first aspect of the present invention for solving the above-mentioned problems is to scan a scanning object, a scanning unit that outputs image data, an edge extraction unit that extracts an edge of the image data, and based on the edge. A non-edge area detection unit that detects a non-edge area of the image data, and the non-edge area is an image area of the scan target object or a background image area, based on a predetermined condition. An image processing unit comprising: a provisional determination unit that makes a provisional determination; and a correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region. According to the first aspect, the image processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.
前記所定の条件は、次の2つの条件であり、第1の条件は、前記非エッジ領域が前記画像データの2辺以上のデータ端に接していること、第2の条件は、前記非エッジ領域に前記エッジが含まれていないこと、を特徴としてもよい。これにより、画像処理装置は、非エッジ領域がスキャン対象物の画像領域であるかまたは背景の画像領域であるか、適切に仮判定することができる。 The predetermined condition is the following two conditions, the first condition is that the non-edge region is in contact with two or more data edges of the image data, and the second condition is the non-edge. The region may not include the edge. Accordingly, the image processing apparatus can appropriately provisionally determine whether the non-edge area is the image area of the scan target object or the background image area.
前記仮判定部は、前記非エッジ領域が前記第1の条件および前記第2の条件のいずれか一方を満たさない場合、前記非エッジ領域を前記スキャン対象物の画像領域と仮判定し、前記非エッジ領域が前記第1の条件および前記第2の条件の両方を満たす場合、前記非エッジ領域を前記背景の画像領域と仮判定する、ことを特徴としてもよい。これにより、画像処理装置は、非エッジ領域がスキャン対象物の画像領域であるかまたは背景の画像領域であるか、適切に仮判定することができる。 When the non-edge region does not satisfy one of the first condition and the second condition, the provisional determination unit provisionally determines the non-edge region as an image region of the scan target, When the edge region satisfies both the first condition and the second condition, the non-edge region may be provisionally determined as the image region of the background. Accordingly, the image processing apparatus can appropriately provisionally determine whether the non-edge area is the image area of the scan target object or the background image area.
前記補正部は、前記背景の画像領域と仮判定された第1の非エッジ領域と第2の非エッジ領域とが隣接し、前記第1の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に隣接し、前記第2の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に接していない場合、前記第1の非エッジ領域を前記スキャン対象物の画像領域と補正する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定を適切に補正することができる。 In the correction unit, the first non-edge area and the second non-edge area that are tentatively determined to be the image area of the background are adjacent to each other, and the first non-edge area is tentatively the image area of the scan target. If the second non-edge area is adjacent to the determined non-edge area and is not in contact with the non-edge area tentatively determined to be the image area of the scan target, the first non-edge area is It may be characterized in that it is corrected with the image area of the scan object. Thereby, the image processing apparatus can appropriately correct the temporary determination.
前記仮判定部によって仮判定される前記非エッジ領域の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定された様々な配置の非エッジ領域を補正することができる。 The correction unit further includes a storage unit that stores the non-edge region arrangement combination provisionally determined by the provisional determination unit and the corrected non-edge region arrangement combination in association with each other. The provisional determination of the non-edge region may be corrected with reference to a section. As a result, the image processing apparatus can correct the provisionally determined non-edge regions having various arrangements.
前記仮判定された前記非エッジ領域のレイアウトを、単純化したレイアウトに変換する変換部と、前記仮判定部によって仮判定される前記非エッジ領域のレイアウト変換後の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、ことを特徴としてもよい。これにより、画像処理装置は、記憶部の記憶容量を低減することができる。 A conversion unit that converts the provisionally determined layout of the non-edge region into a simplified layout, a layout combination after layout conversion of the non-edge region that is provisionally determined by the provisional determination unit, and the corrected layout. A storage unit that stores the arrangement combination of the non-edge regions in association with each other, wherein the correction unit corrects the provisional determination of the non-edge regions by referring to the storage unit. Good. As a result, the image processing device can reduce the storage capacity of the storage unit.
前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、ことを特徴としてもよい。これにより、画像処理装置は、エッジを適切に抽出することができる。 The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference, The edge of the image data may be extracted. Thereby, the image processing apparatus can appropriately extract the edge.
上記の課題を解決するための本発明の第二の態様は、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信する受信部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、を有することを特徴とする情報処理装置である。第二の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。 A second aspect of the present invention for solving the above problem is to extract image data of a scan object scanned by an image processing apparatus from a receiving unit that receives the image data from the image processing apparatus, and to extract edges of the image data. An edge extraction unit, a non-edge region detection unit that detects a non-edge region of the image data based on the edge, and the non-edge region is an image region of the scan target object or a background image region. Or a provisional determination unit that makes a provisional determination based on a predetermined condition, and a correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region. Is an information processing device. According to the second aspect, the information processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.
上記の課題を解決するための本発明の第三の態様は、画像処理装置の画像処理方法であって、スキャン対象物をスキャンして画像データを出力するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの非エッジ領域を検出するステップと、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定するステップと、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正するステップと、を含むことを特徴とする画像処理方法である。第三の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。 A third aspect of the present invention for solving the above-mentioned problems is an image processing method of an image processing device, comprising a step of scanning a scan target object and outputting image data, and extracting an edge of the image data. And a step of detecting a non-edge region of the image data based on the edge, the non-edge region being an image region of the scan target object or a background image region, or a predetermined An image processing method comprising: a tentative determination based on a condition; and a step of correcting the tentative determination of the non-edge region based on the provisionally determined placement of the non-edge region. According to the third aspect, the image processing apparatus can appropriately divide the image data into the scan target portion and the background portion.
上記の課題を解決するための本発明の第四の態様は、情報処理装置の画像処理方法であって、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの非エッジ領域を検出するステップと、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定するステップと、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正するステップと、を含むことを特徴とする画像処理方法である。第四の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。 A fourth aspect of the present invention for solving the above-mentioned problems is an image processing method for an information processing apparatus, the step of receiving image data of a scan target scanned by the image processing apparatus from the image processing apparatus. A step of extracting an edge of the image data, a step of detecting a non-edge area of the image data based on the edge, and the non-edge area being an image area of the scan target or a background Of the image area, the step of temporarily determining based on a predetermined condition, and the step of correcting the temporary determination of the non-edge area based on the provisionally determined arrangement of the non-edge area. This is a characteristic image processing method. According to the fourth aspect, the information processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.
以下、本発明の実施の形態を、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
[第1の実施の形態]
図1は、第1の実施の形態に係る画像処理装置1の概略斜視図である。図1に示す画像処理装置1は、例えば、スキャナーであり、台2と、カバー3と、入力装置4と、を有している。
[First Embodiment]
FIG. 1 is a schematic perspective view of an
台2の上部には、画像処理装置1によって画像データが読み込まれるスキャン対象物が置かれる。スキャン対象物は、例えば、原稿である。以下では、スキャン対象物を原稿として説明する。
On the upper part of the table 2, a scan target whose image data is read by the
カバー3は、台2の上部に対し、開閉できるようになっている。カバー3は、台2の上部に対して閉じられることにより、台2の上部に置かれた原稿を押さえる。
The
入力装置4は、例えば、キー装置やタッチパネルである。入力装置4は、ユーザーから所定の操作を受付ける。
The
画像処理装置1は、台2の上部に原稿が置かれて、カバー3が閉じられ、入力装置4がユーザーから所定の操作を受付けると、台2の上部に置かれた原稿の画像データを読み込む。
In the
画像処理装置1は、画像データを読み込むと、読み込んだ画像データのエッジを抽出する(例えば、図7の(A)参照)。以下で詳述するが、画像処理装置1は、抽出したエッジに基づいて、読み込んだ画像データの非エッジ領域を検出し(例えば、図7の(B)のL1〜L3参照)、検出した非エッジ領域が、原稿部分であるか、または背景部分(例えば、原稿とともにスキャンされたカバー3の下側の面の部分)であるか、所定の条件に基づいて仮判定する。
When the
そして、画像処置装置1は、仮判定した非エッジ領域の配置に基づいて、非エッジ領域の仮判定を補正する。例えば、画像処理装置1は、「原稿−背景−背景」や「背景−原稿−背景」といった、仮判定された非エッジ領域L1〜L3(図7の(B)参照)の並び方に基づいて、背景部分と仮判定した非エッジ領域を、原稿部分と補正したり、原稿部分と仮判定した非エッジ領域を背景部分と補正したりする。
Then, the
画像処理装置1は、領域補正した原稿部分および背景部分に基づいて、読み込んだ画像データから、原稿部分を切り出す。
The
画像処理装置1は、切り出した原稿部分の画像データを、例えば、画像処理装置1と接続されたパーソナルコンピュータやタブレット端末等の情報処理装置(図示せず)に送信する。または、画像処理装置1は、切り出した原稿部分の画像データを、例えば、USB(Universal Serial Bus)メモリー等の外部メモリー(図示せず)に記憶する。これにより、ユーザーは、原稿部分のみの画像データを取得することができる。
The
ここで、画像処理装置1とは別の方法による原稿部分と背景部分との分離について説明する。別の方法により原稿部分と背景部分とを分離する画像処理装置は、画像データの端に接している非エッジ領域を背景部分と判定して、画像データを原稿部分と背景部分とに分ける。別の方法による画像処理装置は、画像処理装置1と同様に、台と、カバーと、入力装置とを有しているとする。
Here, the separation of the original portion and the background portion by a method different from that of the
図2は、画像データを原稿部分と背景部分とに分ける方法を説明する図のその1である。図2の(A)には、画像処理装置がスキャンした原稿の画像データの例が示してある。図2の(A)に示すスキャン範囲11は、例えば、画像処理装置の台の、光が出射されるガラス面の端に対応する。すなわち、スキャン範囲11は、画像データの端である。
FIG. 2 is a first diagram illustrating a method of dividing image data into a document portion and a background portion. FIG. 2A shows an example of image data of a document scanned by the image processing apparatus. The
背景12は、原稿とともにスキャンされたカバーに対応している。原稿13は、台の上部に置かれ、スキャンされた原稿に対応している。罫線14は、原稿13に描かれている罫線に対応している。文字15は、原稿13に描かれている文字に対応している。
The
図2の(B)には、図2の(A)の画像データをエッジ処理したエッジデータの例が示してある。図2の(B)の白い部分がエッジ領域であり、黒い部分が非エッジ領域(エッジでない領域)である。図2の(B)の白線に示すように、背景12と原稿13との境界と、罫線14と、文字15とがエッジとして現れる。
FIG. 2B shows an example of edge data obtained by edge-processing the image data of FIG. The white portion in FIG. 2B is an edge area, and the black portion is a non-edge area (non-edge area). As shown by the white line in FIG. 2B, the boundary between the
画像処理装置は、画像データの端に接している非エッジ領域を背景と判定する。例えば、画像処理装置は、図2の(B)に示す大きい白線の四角形外の非エッジ領域を背景と判定する。そして、画像処理装置は、それ以外の領域(図2の(B)に示す大きい白線の四角形内)を原稿と判定する。 The image processing apparatus determines that a non-edge region in contact with an edge of image data is a background. For example, the image processing apparatus determines a non-edge region outside the large white line rectangle shown in FIG. 2B as the background. Then, the image processing apparatus determines the other area (inside the large white square shown in FIG. 2B) as the original.
これにより、画像処理装置は、画像データを、図2の(C)に示すように、背景12の部分(黒く塗りつぶした部分)と、原稿13の部分(白く塗りつぶした部分)とに分けることができる。 As a result, the image processing apparatus can divide the image data into a portion of the background 12 (a portion painted black) and a portion of the document 13 (a portion painted white), as shown in FIG. 2C. it can.
図3は、画像データを原稿部分と背景部分とに分ける方法を説明する図のその2である。図3には、スキャン範囲21と、背景22と、原稿23と、罫線24と、文字25とが示してある。
FIG. 3 is a second diagram for explaining a method of dividing the image data into a document portion and a background portion. In FIG. 3, a
図3の(A)には、原稿23がスキャン範囲21に接してまたは超えて、台に置かれ、スキャンされた場合の画像データの例が示してある。図3の(B)には、図3の(A)の画像データをエッジ処理したエッジデータの例が示してある。
FIG. 3A shows an example of image data when the
画像処理装置は、図2の説明と同様に、画像データの端に接している非エッジ領域を背景と判定する。しかし、図3の(B)に示すように、3つの非エッジ領域26a〜26cは、全て画像データの端に接している。このため、画像処理装置は、原稿23も背景22と判定してしまい、画像データを背景22と原稿23とに適切に区分することは困難である。また、「A」という文字のエッジを含む非エッジ領域26aを原稿と判定しても、非エッジ領域26bは、エッジを含まないため、原稿と判定されない。
The image processing apparatus determines the non-edge region in contact with the edge of the image data as the background, as in the description of FIG. However, as shown in FIG. 3B, the three
すなわち、画像処理装置は、図2に示したように、原稿13がスキャン範囲11内に収まるように、台に置かれれば、適切に原稿部分と背景部分とを分けることができるが、図3に示したように、原稿23がスキャン範囲21に接してまたは超えて、台に置かれ、スキャンされた場合、原稿部分と背景部分とを適切に分けることができない。
That is, as shown in FIG. 2, the image processing apparatus can properly separate the original portion and the background portion if the original 13 is placed on the table so that the original 13 fits within the
そこで、図1の画像処理装置1は、原稿23がスキャン範囲21に接してまたは超えて、台2に置かれても、適切に画像データの原稿部分と背景部分とを分ける。
Therefore, the
図4は、画像処理装置1の機能ブロック構成例を示した図である。図4に示すように、画像処理装置1は、スキャン部31と、制御部32と、通信部33と、入力部34と、記憶部35とを有している。
FIG. 4 is a diagram showing a functional block configuration example of the
スキャン部31は、例えば、イメージセンサー(図示せず)を備え、台2に置かれた原稿を光学的にスキャンし、原稿の画像データを出力する。スキャン部31は、例えば、カラー(RGB)の画像データを出力する。スキャン部31から出力された画像データは、記憶部35に記憶される。
The
制御部32は、画像処理装置1の動作を統合的に制御する。制御部32は、以下で詳述するが、スキャン部31によってスキャンされた原稿の画像データ(記憶部35に記憶された画像データ)を、背景部分と原稿部分とに分け、原稿部分を切り出す。
The control unit 32 integrally controls the operation of the
通信部33は、パーソナルコンピュータやタブレット端末等の情報処理装置と通信を行う。通信部33は、例えば、有線または無線によって、情報処理装置と通信を行う。
The
入力部34は、入力装置4から、ユーザーからの操作データを受信する。
The
記憶部35には、制御部32が計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部35は、制御部32が所定のアプリケーション機能を実現するためのプログラムやデータ等を記憶している。各種のプログラムやデータ等は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部32が通信ネットワークを介してサーバーから受信して記憶部35に記憶させてもよい。記憶部35は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種IC(Integrated Circuit)メモリーやハードディスク、メモリーカードなどの記録媒体等により構成される。
The
制御部32は、エッジ抽出部41と、非エッジ領域検出部42と、仮判定部43と、補正部44と、切り出し部45とを有している。制御部32の各部は、例えば、記憶部35に記憶されたプログラムを実行するCPU(Central Processing Unit)によって、その機能が実現される。なお、制御部32の各部は、ASIC(Application Specific Integrated Circuit)などのカスタムIC(Integrated Circuit)によって、その機能を実現してもよいし、CPUとASICとによって、その機能を実現してもよい。
The control unit 32 includes an
エッジ抽出部41は、スキャン部31によってスキャンされた原稿の画像データのエッジを抽出する。例えば、スキャン部31は、図3の(A)に示すような画像データを出力したとする。この場合、エッジ抽出部41は、図3の(B)に示すようなエッジデータを出力する。
The
エッジ抽出部41のエッジ抽出動作について具体的に説明する。エッジ抽出部41は、スキャン部31によってスキャンされた原稿のRGBの画像データを、輝度の画像データに変換する。エッジ抽出部41は、次の式(1)によって、RGBの画像データを輝度の画像データに変換する。
The edge extracting operation of the
次に、エッジ抽出部41は、式(1)によって算出した輝度の画像データを用いて、注目画素と、その周囲の画素との輝度平均を算出する。そして、エッジ抽出部41は、算出した輝度平均を用いて、注目画素の輝度分散を算出し、注目画素と周囲の画素との輝度分散差を算出する。
Next, the
図5は、エッジ抽出部41の輝度分散差の算出例を説明する図である。図5に示すマス目は、画素を示している。「P0」は、注目画素を示している。「P1〜P8」は、注目画素の周囲の画素(注目画素に隣接している画素)を示している。以下では、注目画素の周囲の画素を、「周囲画素」と呼ぶことがある。
FIG. 5 is a diagram illustrating an example of calculation of the luminance dispersion difference of the
エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度平均を算出する。具体的には、エッジ抽出部41は、次の式(2)によって、注目画素P0と、周囲画素P1〜P8との輝度平均「Yu」を算出する。
The
ここで、式(2)の「xj,yi」は、画素の座標を示している。「Y(xj,yi)」は、座標「xj,yi」における画素の輝度(式(1)によって算出された輝度)を示している。すなわち、エッジ抽出部41は、図5に示している太枠内の画素の輝度平均「Yu」を算出する。
Here, “x j , y i ” in the equation (2) indicates the coordinates of the pixel. “Y (x j , y i )” indicates the brightness of the pixel at the coordinates “x j , y i ” (the brightness calculated by equation (1)). That is, the
エッジ抽出部41は、式(2)によって輝度平均を算出すると、算出した輝度平均を用いて、注目画素P0の輝度分散を算出する。具体的には、エッジ抽出部41は、次の式(3)によって、注目画素P0の輝度分散「Ys」を算出する。
The
エッジ抽出部41は、画像データの全ての画素に対し、輝度分散「Ys」を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素の輝度分散「Ys」を算出する。
The
エッジ抽出部41は、全画素の輝度分散を算出すると、注目画素の輝度分散と、周囲画素の輝度分散との輝度分散差を算出する。例えば、エッジ抽出部41は、図5に示す注目画素P0の輝度分散と、周囲画素P1〜P8のそれぞれの輝度分散との差(輝度分散差)を算出する。より具体的には、エッジ抽出部41は、周囲画素P1と、注目画素P0との輝度分散差を算出し、周囲画素P2と、注目画素P0との輝度分散差を算出し、以下同様にして、周囲画素P8と、注目画素P0との輝度分散差を算出する。
After calculating the luminance dispersion of all pixels, the
エッジ抽出部41は、注目画素と周囲画素との輝度分散差を算出すると、算出した輝度分散差に基づいて、画像データのエッジを判定する。例えば、エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度分散差の絶対値が、少なくとも1つ以上、所定の閾値(以下では、「輝度分散差閾値」と呼ぶことがある)を超えている場合、注目画素P0をエッジ画素と判定する。
After calculating the brightness dispersion difference between the target pixel and the surrounding pixels, the
エッジ抽出部41は、画像データの全ての画素に対し、輝度分散差を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素に対して輝度分散差を算出する。そして、エッジ抽出部41は、画像データの全ての画素についてエッジを判定する。
The
図6は、エッジの判定例を説明する図である。図6には、スキャン部31によってスキャンされた原稿の画像データが示してある。図6において、図3と同じものには同じ符号が付してある。図6に示す輝度分散差D0〜D3のそれぞれは、矢印A0〜A3のそれぞれの矢先が示す画素の輝度分散差(絶対値)を示している。
FIG. 6 is a diagram illustrating an example of edge determination. FIG. 6 shows image data of a document scanned by the
図6に示すように、矢印A1に示す画素の輝度分散差D1は、輝度分散差閾値を超え、矢印A1に示す画素は、エッジと判定される。また、矢印A3に示す画素の輝度分散差D3は、輝度分散差閾値を超え、矢印A3に示す画素は、エッジと判定される。なお、図6には示していないが、文字25の輝度分散差は、輝度分散差閾値を超え、エッジと判定される。これにより、図6に示す画像データのエッジは、例えば、以下の図7の(A)に示すようになる。
As shown in FIG. 6, the luminance dispersion difference D1 of the pixel indicated by the arrow A1 exceeds the luminance dispersion difference threshold, and the pixel indicated by the arrow A1 is determined to be an edge. The luminance dispersion difference D3 of the pixel indicated by the arrow A3 exceeds the luminance dispersion difference threshold, and the pixel indicated by the arrow A3 is determined to be an edge. Although not shown in FIG. 6, the luminance dispersion difference of the
図4の説明に戻る。非エッジ領域検出部42は、エッジ抽出部41によって抽出された画像データのエッジ(エッジデータ)に基づいて、画像データの非エッジ領域を検出する。例えば、非エッジ領域検出部42は、エッジと画像データの端とで閉じられた領域やエッジで閉じられた領域を非エッジ領域として検出する。
Returning to the explanation of FIG. The non-edge
図7は、非エッジ領域検出部42の非エッジ領域の検出例を説明する図である。図7の(A)には、図6に示した画像データのエッジデータが示してある。非エッジ領域検出部42は、図7の(A)に示すエッジデータに基づいて、図6に示した画像データの非エッジ領域L1〜L3(図7の(B))を検出する。
FIG. 7 is a diagram illustrating an example of detection of a non-edge area by the non-edge
非エッジ領域検出部42の動作例について具体的に説明する。まず、注目画素と参照画素の定義について説明する。
An operation example of the non-edge
図8は、注目画素と参照画素とを説明する図である。図8に示す「注」は注目画素を示し、「参」は参照画素を示している。注目画素がエッジ画素の場合、参照画素は、図8の(A)に示すように、注目画素の左隣りの画素、左斜め上の画素、上の画素、および右斜め上の画素となる。注目画素が非エッジ画素の場合、参照画素は、図8の(B)に示すように、注目画素の左隣りの画素および上の画素となる。 FIG. 8 is a diagram illustrating a target pixel and a reference pixel. “Note” shown in FIG. 8 indicates a target pixel, and “reference” indicates a reference pixel. When the target pixel is an edge pixel, the reference pixels are a pixel adjacent to the left of the target pixel, a pixel on the upper left, a pixel on the upper, and a pixel on the upper right, as shown in FIG. 8A. When the pixel of interest is a non-edge pixel, the reference pixels are the pixel to the left of and adjacent to the pixel of interest, as shown in FIG. 8B.
非エッジ領域検出部42は、注目画素に対し、ラベル値を割り当てていく。非エッジ領域検出部42は、注目画素と同じエッジ値(エッジであるか非エッジであるかを示す値)の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる(最初に割り当てるラベル値は「1」とする)。ただし、非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。また、非エッジ領域検出部42は、参照画素の最も小さいラベル値を、注目画素に割り当てた場合、注目画素と同じエッジ値の参照画素のラベル値を、その最も小さいラベル値に補正する。
The non-edge
図9は、非エッジ領域検出部42の非エッジ領域検出動作例を説明する図である。図9に示すマス目は、画像データの画素に対応している。ハッチングされたマス目は、非エッジ画素に対応し、ハッチングされていないマス目は、エッジ画素に対応している。また、図9に示す下線が付されたラベル値の画素は、注目画素を示している。
FIG. 9 is a diagram illustrating an example of the non-edge area detection operation of the non-edge
非エッジ領域検出部42は、図9の(A)に示すように、左上の画素から右の画素へと順に、ラベル値を割り当てる。非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる。また、非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。
As shown in FIG. 9A, the non-edge
例えば、図9の(A)の左上端の画素の下の画素を注目画素とする。この注目画素は、非エッジの画素である。この場合、参照画素は、図8の(B)の参照画素の定義に基づき、左上端の画素のみとなる。左上端の画素は、注目画素と同じエッジ値の非エッジの画素であり、ラベル値は、「1」であるので、注目画素のラベル値は「1」となる。 For example, the pixel below the pixel at the upper left corner of FIG. This pixel of interest is a non-edge pixel. In this case, the reference pixel is only the upper left pixel based on the definition of the reference pixel in FIG. The pixel at the upper left corner is a non-edge pixel having the same edge value as the pixel of interest, and the label value is "1", so the label value of the pixel of interest is "1".
図9の(A)に示すラベル値「7」の右隣に、注目画素が移動したとする。この注目画素は、エッジ画素であるので、図8の(A)の参照画素の定義に基づき、ラベル値は、図9の(B)に示すように「2」となる。また、ラベル値「2」の注目画素の左隣りの参照画素は、注目画素と同じエッジ画素であり、非エッジ領域検出部42は、その参照画素の補正ラベル値「7」を、図9の(B)に示すように、補正ラベル値「2」に変更する。
It is assumed that the pixel of interest has moved to the right of the label value “7” shown in FIG. Since this target pixel is an edge pixel, the label value is “2” as shown in FIG. 9B, based on the definition of the reference pixel in FIG. Further, the reference pixel to the left of the pixel of interest having the label value “2” is the same edge pixel as the pixel of interest, and the non-edge
非エッジ領域検出部42が、上記の動作を繰り返すと、画素には、図9の(C)に示すようなラベル値が割り当てられる。非エッジ領域検出部42は、全ての画素にラベル値を割り当てると、ラベル値を補正ラベル値に補正する。例えば、非エッジ領域検出部42は、ラベル値「7」を補正ラベル値「2」に補正する。これにより、画素に割り当てられたラベル値は、図9の(D)に示すようになる。
When the non-edge
このように、非エッジ領域検出部42は、画像データのエッジ領域と非エッジ領域とにラベル値を割り当てる。これにより、非エッジ領域検出部42は、ラベル値により、画像データの非エッジ領域を区別して検出できる。例えば、非エッジ領域検出部42は、ラベル値「1」が割り当てられた非エッジ領域と、ラベル値「3」が割り当てられた非エッジ領域と、ラベル値「5」が割り当てられた非エッジ領域とを検出することができる。
In this way, the non-edge
なお、非エッジ領域検出部42の非エッジ領域の検出動作は、上記の動作例に限られない。画像データの非エッジ領域の検出には、一般的な画像データ処理技術を用いることができる。
The non-edge area detection operation of the non-edge
図4の説明に戻る。仮判定部43は、非エッジ領域検出部42によって検出された非エッジ領域が、以下に示す2つの条件を両方満たす場合、その非エッジ領域を背景部分(背景領域)と仮判定する。一方、仮判定部43は、非エッジ領域検出部42によって検出された非エッジ領域が、以下に示す2つの条件の少なくとも一方を満たさない場合、その非エッジ領域を原稿部分(原稿領域)と仮判定する。
Returning to the explanation of FIG. When the non-edge region detected by the non-edge
第1の仮判定条件:画像データの2辺以上のデータ端に接していること
第2の仮判定条件:エッジが含まれていないこと
First tentative determination condition: Must be in contact with data edges of two or more sides of image data Second tentative determination condition: No edge is included
例えば、図7の(B)には、上記で説明したように、非エッジ領域検出部42によって検出された非エッジ領域L1〜L3が示してある。非エッジ領域L1には、文字によるエッジが含まれているため、非エッジ領域L1は、第2の仮判定条件を満たさない。従って、仮判定部43は、非エッジ領域L1を原稿領域と仮判定する。これに対し、非エッジ領域L2,L3は、第1の仮判定条件および第2の仮判定条件を満たす。従って、仮判定部43は、非エッジ領域L2,L3を背景領域と仮判定する。
For example, FIG. 7B shows the non-edge regions L1 to L3 detected by the non-edge
なお、非エッジ領域L1,L3は、3辺のデータ端に接している。非エッジ領域L2は、2辺のデータ端に接している。 The non-edge regions L1 and L3 are in contact with the data ends of the three sides. The non-edge region L2 is in contact with the data ends of the two sides.
原稿の中がくり抜かれている場合、くり抜かれた部分の非エッジ領域は、第1の仮判定条件を満たさないため、原稿領域として仮判定される。しかし、後述するように、原稿領域は、矩形で切り出されるため、くり抜かれた部分が原稿として仮判定されても問題はない。 When the original is hollowed out, the non-edge region of the hollowed-out portion does not satisfy the first provisional determination condition, and thus is provisionally determined as the original region. However, as will be described later, since the original area is cut out in a rectangular shape, there is no problem even if the cutout portion is provisionally determined as the original.
また、画像データの1辺だけに接する非エッジ領域としては、原稿の端が欠けたものが考えられる。この場合、非エッジ領域は、第1の仮判定条件を満たさないため、原稿領域として仮判定される。しかし、上記と同様に、原稿領域は、矩形で切り出されるため、欠けた部分が原稿として仮判定されても問題はない。 Further, as the non-edge region which is in contact with only one side of the image data, it is conceivable that the document has a missing edge. In this case, since the non-edge area does not satisfy the first provisional determination condition, it is provisionally determined as the original area. However, similarly to the above, since the original area is cut out in a rectangular shape, there is no problem even if the missing portion is provisionally determined as the original.
仮判定部43は、非エッジ領域にエッジ領域が含まれているか否かについて(第2の仮判定条件を満たすか否かについて)、非エッジ領域検出部42が算出したラベル値に基づいて、判定することができる。
The
図10は、非エッジ領域内のエッジ領域の有無判定例を説明する図である。図10には、図9の(D)に示したラベル値の例が示してある。仮判定部43は、注目画素がエッジの場合、注目画素の周囲8画素のラベル値を参照する。仮判定部43は、周囲8画素が非エッジであり、かつ、そのラベル値が1種類の場合、注目画素は非エッジ領域に含まれていると判定する。
FIG. 10 is a diagram illustrating an example of determining the presence / absence of an edge area in a non-edge area. FIG. 10 shows an example of the label value shown in FIG. 9 (D). If the pixel of interest is an edge, the
例えば、図10に示すラベル値「6」の画素は、エッジである。これを注目画素とすると、周囲8画素は、ラベル値が1種類(ラベル値「1」)の非エッジとなる。従って、この場合、仮判定部43は、ラベル値「1」の非エッジ領域には、ラベル値「6」のエッジ領域が含まれていると判定する。すなわち、仮判定部43は、第2の判定条件を上記のようにして判定することができる。
For example, the pixel having the label value “6” shown in FIG. 10 is an edge. When this is the target pixel, the surrounding 8 pixels are non-edges with one type of label value (label value “1”). Therefore, in this case, the
なお、上記では、仮判定部43は、注目画素の周囲8画素のラベル値を参照するとしたが、これに限られない。例えば、仮判定部43は、n×nの周囲画素のラベル値を参照してもよい。また、非エッジ領域にエッジ領域が含まれているか否かの判定は、非エッジ領域検出部42が実行してもよい。すなわち、仮判定部43は、非エッジ領域検出部42の判定結果を用いて、第2の仮判定条件を判定してもよい。
In the above description, the
図4の説明に戻る。補正部44は、仮判定部43によって仮判定された非エッジ領域の配置に基づいて、非エッジ領域の仮判定結果を補正する。例えば、背景領域と仮判定された2個の非エッジ領域が隣接して存在するとする。そのうちの一方は、原稿領域と仮判定された非エッジ領域に隣接し、他方は、原稿領域と仮判定された非エッジ領域に隣接していないとする。この場合、補正部44は、原稿領域と仮判定された非エッジ領域に隣接している方の、背景領域と仮判定された非エッジ領域を、原稿領域に補正する。また、補正部44は、隣接する2つの背景領域が、両方とも原稿領域に隣接していない場合、両方の背景領域を原稿領域に補正する。
Returning to the explanation of FIG. The
例えば、図7の(B)において、背景領域と仮判定された非エッジ領域L2,L3は、隣接している。隣接する非エッジ領域L2,L3のうち、非エッジ領域L2が原稿領域の非エッジ領域L1に隣接している。従って、補正部44は、非エッジ領域L2の仮判定を原稿領域に補正する。
For example, in FIG. 7B, the non-edge regions L2 and L3 that are provisionally determined to be the background region are adjacent to each other. Of the adjacent non-edge areas L2 and L3, the non-edge area L2 is adjacent to the non-edge area L1 of the original area. Therefore, the
図11は、画像データの補正後の原稿領域および背景領域を説明する図である。図11に示す領域L1’は、画像データの原稿領域を示している。領域L3’は、画像データの背景領域を示している。図7の(B)に示した非エッジ領域L2は、図11に示すように原稿領域に補正されている。 FIG. 11 is a diagram illustrating the original area and the background area after the correction of the image data. An area L1 'shown in FIG. 11 shows an original area of image data. Area L3 'indicates the background area of the image data. The non-edge area L2 shown in FIG. 7B is corrected to the original area as shown in FIG.
なお、補正部44は、非エッジ領域が隣接するか否かについて、非エッジ領域検出部42が算出したラベル値に基づいて、判定することができる。
The
図12は、非エッジ領域の隣接判定例を説明する図である。図12には、図9の(D)に示したラベル値の例が示してある。補正部44は、注目画素がエッジの場合、例えば、注目画素の周囲5×5の範囲の画素のラベル値を参照する。補正部44は、周囲5×5の範囲に非エッジの画素が含まれ、かつ、そのラベル値が2種類以上存在する場合、周囲5×5の範囲にある非エッジ領域は隣接していると判定する。
FIG. 12 is a diagram illustrating an example of determining the adjacency of a non-edge region. FIG. 12 shows an example of the label value shown in FIG. 9 (D). When the target pixel is an edge, the
図12の例の場合、太線で示す周囲5×5の範囲に、ラベル値「1」の非エッジ領域と、ラベル値「3」の非エッジ領域とが含まれている。従って、補正部44は、ラベル値「1」の非エッジ領域と、ラベル値「3」の非エッジ領域は隣接していると判定する。
In the case of the example in FIG. 12, the non-edge area with the label value “1” and the non-edge area with the label value “3” are included in the surrounding 5 × 5 area indicated by the thick line. Therefore, the
なお、上記では、補正部44は、注目画素の周囲5×5画素のラベル値を参照するとしたが、これに限られない。例えば、補正部44は、n×nの周囲画素のラベル値を参照してもよい。また、非エッジ領域が隣接しているか否かの判定は、非エッジ領域検出部42が実行してもよい。すなわち、補正部44は、非エッジ領域検出部42の判定結果を用いて、非エッジ領域が隣接しているか否か判定してもよい。
In the above description, the
図4の説明に戻る。切り出し部45は、補正部44によって補正された画像データの原稿領域と背景領域とに基づいて、スキャン部11から出力された画像データから、原稿部分を切り出す。
Returning to the explanation of FIG. The
図13は、原稿の切り出し例を説明する図のその1である。図13には、補正部44が補正した画像データの原稿領域(白く塗りつぶした部分)と背景領域(黒く塗りつぶした部分)とが示してある。
FIG. 13 is a first diagram illustrating an example of cutting out a document. FIG. 13 shows a document area (white portion) and a background area (black portion) of the image data corrected by the
切り出し部45は、画像データの右端から、左端に向けて(−x軸方向に向けて)、原稿領域を探索する。例えば、切り出し部45は、図13の矢印に示すように、−x軸方向に向けて、原稿領域を探索する。切り出し部45は、最初に探索(発見)した原稿領域の座標(x,y)を、原稿の左端座標として、記憶部35に記憶する。
The
なお、切り出し部45は、y座標を1ずつインクリメントしながら、−x軸方向に向けて、最初の原稿領域を探索する。
The
図14は、原稿の切り出し例を説明する図のその2である。図14に示す黒丸は、切り出し部45が、−x軸方向に向けて最初に探索した原稿領域の座標が示してある。なお、図14には、17個の座標しか示していないが、実際はもっと沢山存在している。
FIG. 14 is a second diagram illustrating an example of cutting out a document. The black circles shown in FIG. 14 indicate the coordinates of the original area first searched by the
切り出し部45は、−x軸方向において探索した最初の原稿領域の座標の中央値を、原稿の右端と判定する。
The
図15は、原稿の切り出し例を説明する図のその3である。図15に示すように、切り出し部45は、−x軸方向に探索した原稿領域の座標を、x座標値に基づいて降順に並べ替える。そして、切り出し部45は、並べ替えたx座標値の中央値の座標を、原稿の右端として判定する。例えば、切り出し部45は、図15に示す矢印A11の座標のx座標値を、原稿の右端の座標値と判定する。
FIG. 15 is a third diagram illustrating an example of cutting out a document. As illustrated in FIG. 15, the
切り出し部45は、画像データの上端から、下端に向けても(+y軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索した最初の原稿領域の中央値のy座標値を、原稿の上端の座標値と判定する。
The
また、切り出し部45は、画像データの下端から、上端に向けても(−y軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索した最初の原稿領域の中央値のy座標値を、原稿の下端の座標値と判定する。
In addition, the
また、切り出し部45は、画像データの左端から、右端に向けても(+x軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索したエッジ画素の中央値のx座標値を、原稿の左端の座標値と判定する。
In addition, the
そして、切り出し部45は、上記のようにして判定した、原稿の上下左右の端を示す座標値(矩形領域)を用いて、スキャン部11から出力された画像データから、原稿部分を切り出す。これにより、例えば、図13に示す白い部分(原稿部分)が切り出される。
Then, the
図16は、画像処理装置1の動作例を示したフローチャートである。画像処理装置1は、例えば、入力装置4がユーザーから所定の操作を受付けると、図16に示すフローチャートの処理を実行する。
FIG. 16 is a flowchart showing an operation example of the
まず、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する(ステップS1)。
First, the
次に、エッジ抽出部41は、ステップS1にて出力された画像データのエッジを抽出する(ステップS2)。
Next, the
次に、非エッジ領域検出部42は、ステップS2にて抽出されたエッジに基づいて、画像データの非エッジ領域を検出する(ステップS3)。
Next, the non-edge
次に、仮判定部43は、第1の仮判定条件および第2の仮判定条件に基づいて、ステップS3にて検出された非エッジ領域が、原稿領域であるかまたは背景領域であるか、仮判定する(ステップS4)。
Next, the
次に、補正部44は、ステップS4にて仮判定された非エッジ領域を、仮判定された原稿領域と背景領域との配置に基づいて補正する(ステップS5)。
Next, the
次に、切り出し部45は、ステップS5にて補正された原稿領域と背景領域とに基づいて、ステップS1にて出力された画像データから、原稿部分を切り出す(ステップS6)。そして、画像処理装置1は、当該フローチャートの処理を終了する。
Next, the
このように、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する。エッジ抽出部41は、スキャン部11から出力された画像データのエッジを抽出し、非エッジ領域検出部42は、抽出されたエッジに基づいて、画像データの非エッジ領域を検出する。そして、仮判定部43は、第1の仮判定条件および第2の仮判定条件に基づいて、検出された非エッジ領域を、原稿領域であるか背景領域であるか仮判定し、補正部44は、仮判定された非エッジ領域の配置に基づいて、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、画像データを原稿部分と背景部分とに適切に分けることができる。例えば、画像処理装置1は、原稿がスキャン範囲に接してまたは超えて、台2に置かれても、画像データを原稿部分と背景部分とに適切に分けることができる。
In this way, the
なお、図4に示した制御部32の機能は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置が有していてもよい。 The function of the control unit 32 illustrated in FIG. 4 may be included in an information processing device such as a personal computer or a tablet terminal.
図17は、情報処理装置50の機能ブロック構成例を示した図である。図17に示すように、情報処理装置50は、制御部32aと、I/F部51と、記憶部52とを有している。
FIG. 17 is a diagram showing a functional block configuration example of the information processing device 50. As shown in FIG. 17, the information processing device 50 includes a control unit 32a, an I /
図17に示す制御部32a、エッジ抽出部41a、非エッジ領域検出部42a、仮判定部43a、補正部44a、および切り出し部45aは、図4に示した制御部32、エッジ抽出部41、非エッジ領域検出部42、仮判定部43、補正部44、および切り出し部45と同様の機能を有し、その説明を省略する。
The control unit 32a, the
I/F部51(本発明の受信部に相当する)は、有線または無線によって、画像処理装置1のスキャン部11がスキャンした原稿の画像データを受信する。受信された画像データは、記憶部52に記憶される。
The I / F unit 51 (corresponding to the receiving unit of the present invention) receives the image data of the document scanned by the
記憶部52には、制御部32aの機能を実現するアプリケーションプログラムが記憶されている。記憶部52は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置である。
The
制御部32aは、記憶部52に記憶されたアプリケーションプログラムを実行するCPUによって、その機能が実現される。制御部32aは、I/F部51によって受信された画像データ(記憶部52に記憶された画像データ)に対し、上記で説明したのと同様にして、非エッジ領域の原稿領域および背景領域を仮判定し、補正する。そして、制御部32aは、補正した画像データの原稿領域および背景領域に基づいて、画像データから原稿部分を切り出す。
The function of the control unit 32a is realized by the CPU that executes the application program stored in the
このように、情報処理装置50が、画像データを、原稿領域と背景領域とに分け、原稿部分を切り出してもよい。 In this way, the information processing device 50 may divide the image data into the original area and the background area and cut out the original portion.
[第2の実施の形態]
第2の実施の形態では、画像処理装置は、仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組合せとを対応付けて記憶した記憶部を備える。画像処理装置は、前記記憶部を参照して、仮判定した原稿領域および背景領域を補正する。
[Second Embodiment]
In the second embodiment, the image processing apparatus includes a storage unit that stores the temporarily determined non-edge area arrangement combination and the corrected non-edge area arrangement combination in association with each other. The image processing apparatus refers to the storage unit and corrects the temporarily determined original area and background area.
図18は、第2の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図18において、図4と同じものには同じ符号が付してある。以下では、図4と異なる部分について説明する。
FIG. 18 is a diagram showing a functional block configuration example of the
図18に示すように、画像処理装置1は、仮判定部61と、補正部62と、記憶部63とを有している。仮判定部61は、仮判定部43と同様の機能を有するが、仮判定した非エッジ領域が、画像データのどの位置に配置されているかの判定も行う。ここで、非エッジ領域の取り得るレイアウトについて説明する。
As shown in FIG. 18, the
図19は、非エッジ領域のレイアウト例を示した図である。非エッジ領域は、第1の仮判定条件より、画像データの2辺以上のデータ端に接していると、背景領域と仮判定される可能性がある。一方、非エッジ領域は、画像データの2辺以上のデータ端に接していないと、原稿領域と仮判定される可能性がある。従って、背景領域および原稿領域と仮判定される非エッジ領域のレイアウトは、図19の(A)〜(C)に示すように、3つのレイアウトA〜Cが考えられる。図19に示す「2A」、「2B」…「3A」、「3B」…「4」は、レイアウトの領域の位置を示すとともに、その数字は、レイアウト端の辺に接している数を示している。 FIG. 19 is a diagram showing a layout example of the non-edge region. If the non-edge region is in contact with two or more data edges of the image data according to the first provisional determination condition, the non-edge region may be provisionally determined as the background region. On the other hand, the non-edge area may be tentatively determined to be the original area unless it contacts two or more data edges of the image data. Therefore, as the layouts of the non-edge areas that are tentatively determined to be the background area and the original area, three layouts A to C can be considered, as shown in FIGS. "2A", "2B" ... "3A", "3B" ... "4" shown in FIG. 19 indicate the position of the layout area, and the number indicates the number of sides in contact with the side of the layout. There is.
図20は、非エッジ領域がレイアウトのどの位置に配置されているかを判定するための判定条件を示した図である。図20に示す表の最左欄には、図19に示したレイアウトA〜Cの領域が示してある。図20に示す表の最上欄には、画像データのデータ端の位置が示している。図20に示す「1」は、最左欄の領域が、最上欄に示すデータ端の位置に接していることを示し、「0」は、最左欄の領域が、最上欄に示すデータ端の位置に接していないことを示している。米印は、「0」,「1」のどちらでもよいことを示している。 FIG. 20 is a diagram showing determination conditions for determining at which position in the layout the non-edge region is arranged. In the leftmost column of the table shown in FIG. 20, the areas of the layouts A to C shown in FIG. 19 are shown. The position of the data end of the image data is shown in the uppermost column of the table shown in FIG. 20, "1" indicates that the leftmost column area is in contact with the position of the data edge shown in the uppermost column, and "0" indicates the leftmost column area is the data edge shown in the uppermost column. It means that it is not in contact with the position of. The US mark indicates that either "0" or "1" may be used.
例えば、非エッジ領域検出部42によって検出された非エッジ領域が、画像データの左上端点と、上辺と、左辺とに接し、右上端点と、左下端点と、右下端点と、下辺と、右辺に接していないとする。この場合、仮判定部61は、図20の判定条件より、その非エッジ領域を、レイアウト(画像データ)の「2A」の位置に配置された非エッジ領域と判定する。
For example, the non-edge region detected by the non-edge
図18の説明に戻る。補正部62は、記憶部63を参照して、仮判定された非エッジ領域を補正する。
Returning to the explanation of FIG. The
記憶部63には予め、仮判定部61によって仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組み合わせとが対応して記憶されている。なお、記憶部63には、図4で説明した記憶部35と同様の情報も記憶されている。
In the
図21は、記憶部63のデータ構成例を示した図である。図21に示すように、記憶部63は、仮判定の欄と、補正後の欄とを有している。仮判定の欄および補正後の欄のそれぞれは、図19に示したレイアウトの領域の欄を有している。
FIG. 21 is a diagram showing a data configuration example of the
なお、レイアウトの領域の欄は、図21では、図示を一部省略しているが、仮判定と補正後とのそれぞれにおいて、15個存在する(図20の最左欄を参照)。また、レイアウトの領域の欄は、「2A」、「2B」、「2C」、「2D」…「3C」、「3D」、「4」と順に並ぶが、紙面の都合上、「2A」、「2B」、「2C」、「2D」…と順に記載することができなかった。そのため、図21に示している2つの仮判定および補正後のレイアウトの領域の列は、その記載がずれている。 Although the layout area column is partially omitted in FIG. 21, there are 15 in each of the provisional determination and the corrected area (see the leftmost column in FIG. 20). Further, the layout area columns are arranged in order of “2A”, “2B”, “2C”, “2D” ... “3C”, “3D”, “4”, but due to space limitations, “2A”, "2B", "2C", "2D" ... could not be described in order. Therefore, the columns of the two areas of the layout after the provisional determination and the correction shown in FIG. 21 are misaligned.
仮判定の欄には、仮判定部61によって仮判定される非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。例えば、図21のデータD1に示すように、仮判定の欄には、「2A」の領域が存在しない場合(NAは非エッジ領域が存在しないことを示す)や、「2I」が背景領域と仮判定される場合など、原稿領域および背景領域の配置組合せが記憶される。なお、仮判定の欄のレイアウトの領域の欄は、非エッジ領域が存在しない場合と、原稿領域と仮判定される場合と、背景領域と仮判定される場合との3つがあるので、仮判定される原稿領域および背景領域の全ての配置組み合わせは、315個存在する。
The provisional determination field stores the arrangement combination of the document area and the background area of the non-edge area that is provisionally determined by the
補正後の欄には、仮判定の欄に対応した、補正後の非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。例えば、図21のデータD1に示すように、「2I」の背景領域と仮判定された非エッジ領域は、補正後の「2I」の欄より、原稿領域に補正されることが分かる。なお、補正後の欄には、仮判定された背景領域が隣接し、そのうちの一方が、原稿領域に隣接している場合、その一方の背景領域が原稿領域に補正されるように、補正後の非エッジ領域の配置組み合わせが記憶されている。 The post-correction column stores the layout combination of the post-correction non-edge region of the original area and the background area, which corresponds to the provisional determination field. For example, as shown in the data D1 in FIG. 21, it can be seen that the non-edge area tentatively determined to be the “2I” background area is corrected to the original area from the corrected “2I” column. In the column after correction, after the temporarily determined background areas are adjacent to each other, and if one of them is adjacent to the original area, the one of the background areas is corrected to the original area. The arrangement combination of the non-edge regions is stored.
以下、図18の画像処理装置1の動作について説明する。
The operation of the
図22は、画像処理装置1の動作例を説明する図のその1である。図22の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図22の(A)には、スキャン範囲71aと、背景72aと、原稿73aと、罫線74aと、文字75aとが示してある。
FIG. 22 is a first diagram illustrating an example of the operation of the
図22の(B)には、図22の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図22の(A)の画像データのエッジを抽出すると、そのエッジは図22の(B)に示すようになる。
In FIG. 22B, the edge (white portion) of the image data of FIG. 22A is shown. When the
図22の(C)には、図22の(B)のエッジに基づいて検出した非エッジ領域L11〜L13が示してある。非エッジ領域検出部42が、図22の(B)のエッジに基づいて、非エッジ領域を検出すると、図22の(C)に示すように、非エッジ領域L11〜L13が検出される。
FIG. 22C shows the non-edge regions L11 to L13 detected based on the edges of FIG. 22B. When the non-edge
図22の(D)には、図22の(C)の非エッジ領域L11〜L13の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図22の(C)の非エッジ領域L11〜L13を仮判定すると、図22の(D)に示すように、非エッジ領域L11が原稿領域と仮判定(白く塗りつぶした部分)され、非エッジ領域L12,L13が背景領域と仮判定(黒く塗りつぶした部分)される。
22D shows the provisional determination of the non-edge regions L11 to L13 of FIG. 22C. When the
また、仮判定部61は、仮判定した非エッジ領域L11〜L13が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L11は、画像データの左上端点、左下端点、上辺、下辺、および左辺に接し、右上端点、右下端点、および右辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L11は「3A」の領域に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L12は「2I」に配置され、非エッジ領域L13は「3B」に配置されていると判定する。すなわち、仮判定部61は、「3A」の領域を原稿領域と仮判定し、「2I」の領域を背景領域と仮判定し、「3B」の領域を背景領域と仮判定する。なお、図22の(D)の非エッジ領域の配置は、図19の(B)のレイアウトBに対応する。
Further, the
図22の(E)には、図22の(D)の仮判定の補正後が示してある。補正部62は、記憶部63を参照して、図22の(D)の仮判定を補正する。図22の(D)の仮判定は、図21に示すデータD1の仮判定の欄に対応し、「2I」の領域は背景領域から原稿領域に補正される。
FIG. 22E shows the image after correction of the provisional determination of FIG. The
図23は、画像処理装置1の動作例を説明する図のその2である。図23の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図23の(A)には、スキャン範囲71bと、背景72bと、原稿73bと、文字74bとが示してある。図23の(A)に示す点線の四角は、台2に置かれた原稿に対応している。
FIG. 23 is the second part of the diagram illustrating the operation example of the
図23の(B)には、図23の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図23の(A)の画像データのエッジを抽出すると、そのエッジは図23の(B)に示すようになる。
In FIG. 23B, the edge (white portion) of the image data of FIG. 23A is shown. When the
図23の(C)には、図23の(B)のエッジに基づいて検出した非エッジ領域L21,L22が示してある。非エッジ領域検出部42が、図23の(B)のエッジに基づいて、非エッジ領域を検出すると、図23の(C)に示すように、非エッジ領域L21,L22が検出される。
In FIG. 23C, the non-edge regions L21 and L22 detected based on the edges in FIG. 23B are shown. When the non-edge
図23の(D)には、図23の(C)の非エッジ領域L21,L22の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図23の(C)の非エッジ領域L21,L22を仮判定すると、図23の(D)に示すように、非エッジ領域L21が背景領域と仮判定(黒く塗りつぶした部分)され、非エッジ領域L22が原稿領域と仮判定(白く塗りつぶした部分)される。
FIG. 23D shows the provisional determination of the non-edge regions L21 and L22 of FIG. 23C. When the
また、仮判定部61は、仮判定した非エッジ領域L21,L22が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L21は、画像データの左上端点、上辺、および左辺に接し、右上端点、左下端点、右下端点、下辺、および右辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L21は「2A」に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L22は「4」に配置されていると判定する。すなわち、仮判定部61は、「2A」の領域を背景領域と仮判定し、「4」の領域を原稿領域と仮判定する。なお、図23の(D)の非エッジ領域の配置は、図19の(A)のレイアウトAに対応する。
Further, the
図23の(E)には、図23の(D)の仮判定の補正後が示してある。補正部62は、記憶部63を参照して、図23の(D)の仮判定を補正する。図23の(D)の仮判定は、図21に示すデータD2の仮判定の欄に対応し、「2A」の領域は背景領域から原稿領域に補正される。
FIG. 23 (E) shows the state after correction of the provisional determination of FIG. 23 (D). The
図24は、画像処理装置1の動作例を説明する図のその3である。図24の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図24の(A)には、スキャン範囲71cと、背景72c,73cと、原稿74cと、文字75cと、下線76cとが示してある。文字75cと下線76cはつながっているとする。図24の(A)に示す点線の四角は、台2に置かれた原稿に対応している。
FIG. 24 is a third part of the diagram illustrating the operation example of the
図24の(B)には、図24の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図24の(A)の画像データのエッジを抽出すると、そのエッジは図24の(B)に示すようになる。
In FIG. 24B, the edge (white portion) of the image data of FIG. 24A is shown. When the
図24の(C)には、図24の(B)のエッジに基づいて検出した非エッジ領域L31〜L34が示してある。非エッジ領域検出部42が、図24の(B)のエッジに基づいて、非エッジ領域を検出すると、図24の(C)に示すように、非エッジ領域L31〜L34が検出される。
In FIG. 24C, the non-edge regions L31 to L34 detected based on the edges in FIG. 24B are shown. When the non-edge
図24の(D)には、図24の(C)の非エッジ領域L31〜L34の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図24の(C)の非エッジ領域L31〜L34を仮判定すると、図24の(D)に示すように、非エッジ領域L31〜L34が背景領域と仮判定(黒く塗りつぶした部分)される。
FIG. 24D shows the provisional determination of the non-edge regions L31 to L34 of FIG. 24C. When the
また、仮判定部61は、仮判定した非エッジ領域L31〜L34が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L33は、画像データの右上端点、上辺、左辺、および右辺に接し、左上端点、左下端点、右下端点、および下辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L33は「3C」に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L31は「2A」に配置されていると判定し、非エッジ領域L32は「2C」に配置されていると判定し、非エッジ領域L34は「3D」に配置されていると判定する。すなわち、仮判定部61は、「2A」、「2C」、「3C」、「3D」の領域を背景領域と判定する。なお、図24の(D)の非エッジ領域の配置は、図19の(C)のレイアウトCに対応する。
Further, the
図24の(E)には、図24の(D)の補正後が示してある。補正部62は、記憶部63を参照して、図24の(D)の仮判定を補正する。図24の(D)の仮判定は、図21に示すデータD3の仮判定の欄に対応し、「2A」、「2C」、「3C」、「3D」の領域は背景領域から原稿領域に補正される。
FIG. 24E shows the corrected image of FIG. 24D. The
図18の画像処理装置1のフローチャートは、図16に示したフローチャートと同様になるが、ステップS4,S5の処理が異なる。図18の画像処理装置1は、図16のステップS4にて、非エッジ領域の仮判定を行うとともに、その非エッジ領域が画像データのどの位置に配置されているか判定する。そして、画像処理装置1は、ステップS5にて、記憶部63を参照し、仮判定を補正する。
The flowchart of the
このように、記憶部63は、仮判定部61によって仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組合せとを対応付けて記憶する。そして、補正部62は、記憶部63を参照して、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、画像データを原稿部分と背景部分とに適切に分けることができる。
In this way, the
[第3の実施の形態]
第3の実施の形態では、画像処理装置は、仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。そして、画像処理装置は、仮判定部によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部を備え、その記憶部を参照して、仮判定した原稿領域および背景領域を補正する。
[Third Embodiment]
In the third embodiment, the image processing apparatus converts the provisionally determined layout of the non-edge region into a simplified layout. Then, the image processing device includes a storage unit that stores the layout combination after layout conversion of the non-edge region temporarily determined by the temporary determination unit and the layout combination after correction of the non-edge region in association with each other. The temporarily determined original area and background area are corrected with reference to the copy.
図25は、第3の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図25において、図18と同じものには同じ符号が付してある。以下では、図18と異なる部分について説明する。
FIG. 25 is a diagram showing a functional block configuration example of the
図25に示すように、画像処理装置1は、変換部81と、補正部82と、記憶部83とを有している。変換部81は、仮判定部61によって仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。
As shown in FIG. 25, the
図26は、レイアウト変換を説明する図である。隣接する非エッジ領域の配置に着目すれば、図19に示したレイアウトは、図26に示すように単純化できる。そこで、変換部81は、以下で説明する変換条件に従って、図19に示したレイアウトA〜Cのそれぞれを、図26に示すレイアウトa〜cのそれぞれに変換する。
FIG. 26 is a diagram for explaining layout conversion. Focusing on the arrangement of adjacent non-edge regions, the layout shown in FIG. 19 can be simplified as shown in FIG. Therefore, the
図27は、レイアウトの変換条件を示した図である。例えば、図27の「レイアウトAの変換条件」の1行目に示すように、図26のレイアウトaの2aが、NAと変換される条件は、図19のレイアウトAの「2A」〜「2D」の領域の全てが「NA」の場合である。また、例えば、図27の「レイアウトBの変換条件」の6行目に示すように、図26のレイアウトbの「3a」の領域は、図19のレイアウトBの「3A」の仮判定に従う。また、例えば、図27の「レイアウトCの変換条件」の2行目に示すように、図26のレイアウトcの「2a」の領域が、原稿領域と変換される条件は、図19のレイアウトCの「2A」、「2B」の中で、背景領域が1個以下の場合である。 FIG. 27 is a diagram showing layout conversion conditions. For example, as shown in the first line of "Conversion conditions for layout A" in FIG. 27, the conditions for converting 2a of layout a in FIG. 26 into NA are "2A" to "2D" in layout A in FIG. This is the case where all of the areas of “” are “NA”. Further, for example, as shown in the sixth line of “Conversion condition of layout B” in FIG. 27, the area “3a” in layout b in FIG. 26 follows the provisional determination of “3A” in layout B in FIG. 19. Further, for example, as shown in the second line of “Conversion condition of layout C” in FIG. 27, the condition for converting the area “2a” of the layout c of FIG. 26 into the original area is the layout C of FIG. In “2A” and “2B”, the number of background areas is one or less.
図25の説明に戻る。補正部82は、記憶部83を参照して、仮判定された非エッジ領域を補正する。
Returning to the explanation of FIG. The
記憶部83には予め、仮判定部61によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとが対応づけて記憶される。なお、記憶部83には、図4で説明した記憶部35と同様の情報も記憶されている。
The
図28は、記憶部83のデータ構成例を示した図のその1である。図28に示すように、記憶部83は、仮判定の欄と、補正後の欄とを有している。仮判定の欄および補正後の欄のそれぞれは、図26に示したレイアウトの領域の欄を有している。
FIG. 28 is a first part of a diagram showing a data configuration example of the
仮判定の欄には、仮判定部61よって仮判定される非エッジ領域の原稿領域および背景領域の、レイアウト変換後の配置組み合わせが記憶されている。補正後の欄には、仮判定の欄に対応した、補正後の非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。なお、図28に示すデータD12,D21は、1回補正された後、その一部(3a’,3b’)がデータD31によってさらに補正される。また、データD13,D22は、1回補正された後、その一部(3a’,3b’)がデータD32によってさらに補正される。
The provisional determination field stores the layout combination after layout conversion of the document area and the background area of the non-edge area that are provisionally determined by the
また、記憶部83にはさらに予め、図26に示したレイアウトを、図19のレイアウトに戻す情報が記憶されている。
Further, the
図29は、記憶部83のデータ構成例を示した図のその2である。図29に示すように、記憶部83には、単純化されたレイアウトの領域と、単純化される前のレイアウトの領域とが対応付けて記憶されている。
FIG. 29 is the second part of the diagram showing the data configuration example of the
以下、図25の画像処理装置1の動作について説明する。
The operation of the
図30は、画像処理装置1の動作例を説明する図のその1である。図30の(A)〜(D)は、図22の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。
FIG. 30 is a first diagram illustrating an example of the operation of the
変換部81は、仮判定部61によって、「3A」の領域が原稿領域と判定され、「2I」の領域が背景領域と判定され、「3B」の領域が背景領域と判定(以下では、「3B:背景」等と簡略して記載することがある)されると、図27に示したレイアウト変換条件に基づき、レイアウト変換を行う。図30の(D)の例の場合、「3A:原稿」、「2I:背景」、「3B:背景」は、図26の(B)のレイアウトbに変換され、「3a:原稿」、「2e:背景」、「3b:背景」に変換される。
In the
補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD12,D21,D31に基づいて、「3a:原稿」、「2e:原稿」、「3b:背景」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトB)に戻す。
When the layout conversion is performed by the
これにより、図30の(D)に示す非エッジ領域の仮判定「3A:原稿」、「2I:背景」、「3B:背景」は、図30の(E)に示すように、「3A:原稿」、「2I:原稿」、「3B:背景」と補正される。すなわち、非エッジ領域L11は原稿に補正され、非エッジ領域L12は原稿に補正され、非エッジ領域L13は背景に補正される。 As a result, the temporary determinations “3A: original”, “2I: background”, and “3B: background” shown in FIG. 30D are “3A: original”, as shown in FIG. The original is corrected to “2I: original” and “3B: background”. That is, the non-edge area L11 is corrected to the original, the non-edge area L12 is corrected to the original, and the non-edge area L13 is corrected to the background.
図31は、画像処理装置1の動作例を説明する図のその2である。図31の(A)〜(D)は、図23の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。
FIG. 31 is the second part of the diagram illustrating the operation example of the
変換部81は、仮判定部61によって、「2A」の領域が背景領域と判定され、「4」の領域が原稿領域と判定されると、図27に示したレイアウト変換条件に基づき、レイアウト変換を行う。図31の(D)の例の場合、「2A:背景」、「4:原稿」は、図26の(A)のレイアウトaに変換され、「2a:原稿」、「4:原稿」に変換される。
When the
補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD11に基づいて、「2a:原稿」、「4:原稿」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトA)に戻す。
When the layout conversion is performed by the
これにより、図31の(D)に示す非エッジ領域の仮判定「2A:背景」、「4原稿」は、図31の(E)に示すように、「2A:原稿」、「4:原稿」と補正される。すなわち、非エッジ領域L21,L22は原稿に補正される。 As a result, the provisional determinations “2A: background” and “4 originals” of the non-edge area shown in FIG. 31D are “2A: original” and “4: original” as shown in FIG. Will be corrected. That is, the non-edge areas L21 and L22 are corrected to the original.
図32は、画像処理装置1の動作例を説明する図のその3である。図32の(A)〜(D)は、図24の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。
FIG. 32 is the third part of the diagram illustrating the operation example of the
変換部81は、仮判定部61によって、「2A」の領域が背景領域と判定され、「2C」の領域が背景領域と判定され、「3C」の領域が背景領域と判定され、「3D」の領域が背景領域と判定されると、図27に示したレイアウトの変換条件に基づき、レイアウト変換を行う。図32の(D)の例の場合、「2A:背景」、「2C:背景」、「3C:背景」、「3D:背景」は、図26の(C)のレイアウトcに変換され、「2a:原稿」、「2c:原稿」、「3a:背景」、「3b:背景」に変換される。
In the
補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD13,D22,D32に基づいて、「2a:原稿」、「2c:原稿」、「3a:原稿」、「3b:原稿」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトC)に戻す。
When the layout conversion is performed by the
これにより、図32の(D)に示す非エッジ領域の仮判定「2A:背景」、「2C:背景」、「3C:背景」、「3D:背景」は、図32の(E)に示すように、「2A:原稿」、「2A:原稿」、「3A:原稿」、「3A:原稿」と補正される。すなわち、非エッジ領域L31〜L34は原稿に補正される。 As a result, the temporary determinations “2A: background”, “2C: background”, “3C: background”, and “3D: background” of the non-edge region shown in (D) of FIG. 32 are shown in (E) of FIG. As described above, “2A: original”, “2A: original”, “3A: original”, and “3A: original” are corrected. That is, the non-edge regions L31 to L34 are corrected as the original.
図33は、画像処理装置1の動作例を示したフローチャートである。図33において、図16と同じ処理には同じ符号が付してある。以下では、図16と異なる処理について説明する。
FIG. 33 is a flowchart showing an operation example of the
ステップS11において、仮判定部61は、第1の仮判定条件および第2の仮判定条件に基づいて、ステップS3にて検出された非エッジ領域を、原稿領域であるかまたは背景領域であるか、仮判定するとともに、仮判定した非エッジ領域が、画像データのどの位置に配置されているか判定する。
In step S11, the
次に、変換部81は、ステップS11にて仮判定された非エッジ領域のレイアウト変換を行う(ステップS12)。
Next, the
次に、補正部82は、記憶部83を参照して、ステップS12にてレイアウト変換された、仮判定された非エッジ領域を補正し、元のレイアウトに戻す(ステップS13)。
Next, the
このように、変換部81は、仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。記憶部83は、仮判定部61によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとを対応付けて記憶する。そして、補正部82は、記憶部83を参照して、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、記憶部83の記憶容量を低減することができる。
In this way, the
以上、本発明について実施形態を用いて説明したが、画像処理装置1および情報処理装置50の機能構成は、その構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。画像処理装置1および情報処理装置50の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
Although the present invention has been described above using the embodiments, the functional configurations of the
また、本発明の技術的範囲は、上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。例えば、各実施の形態を組み合わせてもよい。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。また、本発明は、画像処理装置1および情報処理装置50の機能を実現するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。
Further, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. For example, the embodiments may be combined. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. The present invention can also be provided as a program that realizes the functions of the
1…画像処理装置、2…台、3…カバー、4…入力装置、11…スキャン範囲、12…背景、13…原稿、14…罫線、15…文字、31…スキャン部、32…制御部、33…通信部、34…入力部、35…記憶部、41…エッジ抽出部、42…非エッジ領域検出部、43…仮判定部、44…補正部、45…切り出し部、50…情報処理装置、51…I/F部、52…記憶部、61…仮判定部、62…補正部、63…記憶部、71a…スキャン範囲、72a…背景、73a…原稿、74a…罫線、75a…文字、81…変換部、82…補正部、83…記憶部。
DESCRIPTION OF
Claims (10)
前記画像データのエッジを抽出するエッジ抽出部と、
前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、
前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、
仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、
を有することを特徴とする画像処理装置。 An acquisition unit that acquires image data generated by scanning an object to be scanned ,
An edge extraction unit that extracts an edge of the image data,
A non-edge region detection unit that detects a non-edge region of the image data based on the edge;
The non-edge region is an image region of the scan target object or an image region of the background, a provisional determination unit for provisionally determining based on a predetermined condition,
A correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined placement of the non-edge region;
An image processing apparatus comprising:
前記所定の条件は、次の2つの条件であり、
第1の条件は、前記非エッジ領域が前記画像データの2辺以上のデータ端に接していること、
第2の条件は、前記非エッジ領域によってエッジが囲まれていないこと、
を特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein
The predetermined conditions are the following two conditions,
The first condition is that the non-edge region is in contact with data edges of two or more sides of the image data,
The second condition is the fact thus edge non-edge region is not uncommon circumference,
An image processing device characterized by.
前記仮判定部は、
前記非エッジ領域が前記第1の条件および前記第2の条件の少なくとも一方を満たさない場合、前記非エッジ領域を前記スキャン対象物の画像領域と仮判定し、
前記非エッジ領域が前記第1の条件および前記第2の条件の両方を満たす場合、前記非エッジ領域を前記背景の画像領域と仮判定する、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2, wherein
The provisional determination unit,
When the non-edge region does not satisfy at least one of the first condition and the second condition, the non-edge region is provisionally determined as an image region of the scan target,
If the non-edge region satisfies both the first condition and the second condition, the non-edge region is tentatively determined as the image region of the background,
An image processing device characterized by the above.
前記補正部は、前記背景の画像領域と仮判定された第1の非エッジ領域と第2の非エッジ領域とが隣接し、前記第1の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に隣接し、前記第2の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に接していない場合、前記第1の非エッジ領域の仮判定を前記スキャン対象物の画像領域に補正する、
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
In the correction unit, the first non-edge area and the second non-edge area that are tentatively determined to be the image area of the background are adjacent to each other, and the first non-edge area is tentatively the image area of the scan target. If the second non-edge region is adjacent to the determined non-edge region and is not in contact with the non-edge region tentatively determined to be the image region of the scan target, the first non-edge region is temporarily Correct the determination to the image area of the scan target,
Image processing apparatus characterized by.
前記仮判定部によって仮判定される前記非エッジ領域の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、
前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
A storage unit that stores the combination of the arrangement of the non-edge regions provisionally determined by the provisional determination unit and the arrangement combination of the corrected non-edge regions in association with each other;
The correction unit corrects the temporary determination of the non-edge region with reference to the storage unit,
An image processing device characterized by the above.
前記仮判定された前記非エッジ領域のレイアウトを、単純化したレイアウトに変換する変換部と、
前記仮判定部によって仮判定される前記非エッジ領域のレイアウト変換後の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、
前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
A conversion unit for converting the provisionally determined layout of the non-edge region into a simplified layout;
A storage unit that stores the layout combination after layout conversion of the non-edge region provisionally determined by the provisional determination unit, and the alignment combination of the corrected non-edge region in association with each other;
The correction unit corrects the temporary determination of the non-edge region with reference to the storage unit,
An image processing device characterized by the above.
前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、
ことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference, , Extracting edges of the image data,
An image processing device characterized by the above.
前記画像データのエッジを抽出するエッジ抽出部と、 An edge extraction unit that extracts an edge of the image data,
前記画像データについて、前記スキャン対象物の画像領域と背景の画像領域とを判定する判定部と、 For the image data, a determination unit that determines the image area of the scan target and the image area of the background,
を有し、 Have
前記判定部は、前記画像データの非エッジ領域の配置について、配置についての条件を含む所定の条件に基づいて前記スキャン対象物の画像領域であるかまたは背景の画像領域であるかを判定する、 The determination unit determines whether the non-edge region of the image data is an image region of the scan target object or a background image region based on a predetermined condition including a condition for the arrangement,
ことを特徴とする画像処理装置。 An image processing device characterized by the above.
前記画像データのエッジを抽出する抽出ステップと、
前記エッジに基づいて、前記画像データの非エッジ領域を検出する検出ステップと、
前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定ステップと、
仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正ステップと、
を含むことを特徴とする画像処理方法。 An acquisition step of acquiring image data generated by scanning the scan target object;
An extraction step of extracting an edge of the image data,
A detection step of detecting a non-edge region of the image data based on the edge;
The non-edge region is an image region of the scan target object or a background image region, a provisional determination step of provisionally determining based on a predetermined condition,
A correction step of correcting the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region;
An image processing method comprising:
前記画像データのエッジを抽出する抽出ステップと、 An extraction step of extracting an edge of the image data,
前記画像データについて、前記スキャン対象物の画像領域と背景の画像領域とを判定する判定ステップと、 For the image data, a determination step of determining the image area of the scan target and the image area of the background,
を有し、 Have
前記判定ステップは、前記画像データの非エッジ領域の配置について、配置についての条件を含む所定の条件に基づいて前記スキャン対象物の画像領域であるかまたは背景の画像領域であるかを判定する、 The determination step determines whether the non-edge region of the image data is an image region of the scan target object or a background image region based on a predetermined condition including a condition for the arrangement,
ことを特徴とする画像処理方法。 An image processing method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016047315A JP6693184B2 (en) | 2016-03-10 | 2016-03-10 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016047315A JP6693184B2 (en) | 2016-03-10 | 2016-03-10 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017163411A JP2017163411A (en) | 2017-09-14 |
JP6693184B2 true JP6693184B2 (en) | 2020-05-13 |
Family
ID=59857455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016047315A Active JP6693184B2 (en) | 2016-03-10 | 2016-03-10 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6693184B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023013021A1 (en) * | 2021-08-06 | 2023-02-09 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4777178B2 (en) * | 2006-07-28 | 2011-09-21 | キヤノン株式会社 | Image processing method |
JP5645519B2 (en) * | 2010-07-16 | 2014-12-24 | キヤノン株式会社 | Image processing method, image processing apparatus, and program |
-
2016
- 2016-03-10 JP JP2016047315A patent/JP6693184B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017163411A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543501B (en) | Image processing apparatus, image processing method, and storage medium | |
US8218890B2 (en) | Method and apparatus for cropping images | |
US9712717B2 (en) | Image processing apparatus, region detection method and computer-readable, non-transitory medium | |
JP5826081B2 (en) | Image processing apparatus, character recognition method, and computer program | |
US9092869B2 (en) | Image processing apparatus, region determining method, and computer-readable, non-transitory medium | |
JP4574503B2 (en) | Image processing apparatus, image processing method, and program | |
US20050226510A1 (en) | Boundary extracting method, program, and device using the same | |
JP5766073B2 (en) | Image processing apparatus, image processing method, image processing program, and image processing system | |
KR102090973B1 (en) | Information processing apparatus, information processing method, and storage medium | |
US9661166B2 (en) | Image processing apparatus, region detection method and computer-readable, non-transitory medium | |
JP2018046360A (en) | Image processing device, method and program | |
JP6021665B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6693184B2 (en) | Image processing apparatus and image processing method | |
US10049269B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
JP2017068562A (en) | Information processing device and program | |
JP2007072642A (en) | Image processor and controlling method of image processor | |
JP6693082B2 (en) | Information processing device and program | |
JP2007081882A (en) | Apparatus and method for reading manuscript | |
US10237432B2 (en) | Medium storing program executable by image processing apparatus, image processing apparatus, and image processing method | |
JP6639257B2 (en) | Information processing apparatus and control method therefor | |
JP2013157968A (en) | Image processing apparatus | |
JP2017163407A (en) | Image processing apparatus, information processing apparatus, and image processing method | |
JP6950237B2 (en) | Computer programs and image processing equipment | |
JP7516170B2 (en) | Image processing device, image processing method, and program | |
JP6645143B2 (en) | Image analysis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6693184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |