JP7447472B2 - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP7447472B2
JP7447472B2 JP2019229599A JP2019229599A JP7447472B2 JP 7447472 B2 JP7447472 B2 JP 7447472B2 JP 2019229599 A JP2019229599 A JP 2019229599A JP 2019229599 A JP2019229599 A JP 2019229599A JP 7447472 B2 JP7447472 B2 JP 7447472B2
Authority
JP
Japan
Prior art keywords
region
area
image processing
regions
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019229599A
Other languages
Japanese (ja)
Other versions
JP2021096800A (en
Inventor
正和 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2019229599A priority Critical patent/JP7447472B2/en
Publication of JP2021096800A publication Critical patent/JP2021096800A/en
Application granted granted Critical
Publication of JP7447472B2 publication Critical patent/JP7447472B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing device and an image processing program.

例えば、特許文献1には、1枚以上のレシートや領収書などの原始証憑を、デジタルカメラや携帯端末のカメラで撮像した画像データや、スキャナー装置で取り込んだ画像データを読み取る会計処理システムが記載されている。この会計処理システムは、画像データから証憑部分を抽出する証憑イメージ切り出し手段と、切り出した証憑イメージの傾きや歪みを補正して矩形に整形する整形手段と、整形した証憑イメージを保存する証憑イメージ登録手段と、を具える。また、この証憑イメージ切り出し手段は、通常モードではレシート抽出閾値の第1のセットを用いて画像データから証憑イメージの切り出しを試行し、第1のセットを用いて画像データから証憑イメージを切り出しできない場合に、レシート抽出閾値の変動幅を変えたレシート抽出閾値の第2のセットを用いて画像データから証憑イメージの切り出しを試行する。 For example, Patent Document 1 describes an accounting processing system that reads image data of one or more original documents such as receipts or receipts captured by a digital camera or a camera of a mobile terminal, or image data captured by a scanner device. has been done. This accounting processing system includes a voucher image extraction means for extracting voucher parts from image data, a shaping means for correcting the tilt and distortion of the clipped voucher image and shaping it into a rectangle, and a voucher image registration for saving the shaped voucher image. have the means and. In addition, in the normal mode, this evidence image cutting means attempts to cut out the evidence image from the image data using the first set of receipt extraction threshold values, and when the voucher image cannot be cut out from the image data using the first set, Next, a second set of receipt extraction thresholds in which the variation width of the receipt extraction thresholds is changed is used to try to cut out the evidence image from the image data.

また、特許文献2には、人間の直感に近いクラスタリングを行うクラスタリング装置が記載されている。このクラスタリング装置は、多次元データを入力するデータ入力部と、多次元データを分割して複数のクラスタを生成する初期クラスタ生成部と、生成された各クラスタを記録するクラスタ記録部と、各クラスタのそれぞれについてクラスタに属するデータから、あらかじめ与えられたモデルのパラメータを計算し、各クラスタについて計算されたパラメータの値から統合すべきクラスタを選択するクラスタ選択部と、クラスタ選択部によって選択されたクラスタを統合するクラスタ統合部と、クラスタ記録部内のクラスタ集合の評価値を計算するクラスタ評価部と、を備える。 Further, Patent Document 2 describes a clustering device that performs clustering similar to human intuition. This clustering device includes a data input section that inputs multidimensional data, an initial cluster generation section that divides the multidimensional data and generates a plurality of clusters, a cluster recording section that records each generated cluster, and a cluster recording section that records each cluster. a cluster selection unit that calculates parameters of a model given in advance from data belonging to the cluster for each of the clusters, and selects clusters to be integrated from the parameter values calculated for each cluster; and a cluster evaluation unit that calculates evaluation values of cluster sets in the cluster recording unit.

また、特許文献3には、原稿画像の抽出精度を高める画像処理装置が記載されている。この画像処理装置は、複数の原稿画像が含まれている画像の低周波な特徴を有する第1領域を抽出する第1抽出手段と、画像の高周波な特徴を有する第2領域を抽出する第2抽出手段と、画像の背景が白色であるか否かに応じて、第1領域と第2領域を組み合わせて、原稿画像の領域を抽出する第3抽出手段と、を有する。 Further, Patent Document 3 describes an image processing device that improves the accuracy of extracting a document image. This image processing device includes a first extracting means for extracting a first region having low frequency characteristics of an image including a plurality of original images, and a second extracting means for extracting a second region having high frequency characteristics of the image. The image forming apparatus includes an extraction means and a third extraction means for extracting an area of the document image by combining the first area and the second area depending on whether the background of the image is white or not.

特許第6539844号公報Patent No. 6539844 特開2006-350730号公報Japanese Patent Application Publication No. 2006-350730 特開2018-085676号公報Japanese Patent Application Publication No. 2018-085676

ところで、レシート、領収書等の原稿をプラテンガラス上に配置して読み取った場合に、原稿の読取画像のエッジを抽出できない場合がある。この場合、原稿の種類に合わせて読取画像の複数の領域を統合することは難しい。 By the way, when a document such as a receipt or receipt is placed on a platen glass and read, the edges of the read image of the document may not be extracted. In this case, it is difficult to integrate multiple areas of the read image according to the type of document.

本発明は、原稿の読取画像からエッジが抽出できない場合であっても、原稿の種類に合わせて読取画像の複数の領域を統合することができる画像処理装置及び画像処理プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing device and an image processing program that can integrate multiple areas of a read image according to the type of document even when edges cannot be extracted from the read image of the document. shall be.

上記目的を達成するために、第1態様に係る画像処理装置は、プロセッサを備え、前記プロセッサが、原稿を読み取って得られる読取画像から、前景らしさの特徴を有する複数の領域を検出し、前記複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域の外縁と、他方の領域の外縁との間の直線距離を導出し、前記2つの領域の組み合わせ毎に、前記一方の領域及び前記他方の領域を包含する予め定められた形状の領域である包含領域の面積から、前記一方の領域及び前記他方の領域が存在しない部分である隙間部分の面積を導出し、前記複数の領域の各々について、前記直線距離が予め定められた範囲内で、かつ、前記隙間部分の面積が最小となる組み合わせを選択して統合する。 In order to achieve the above object, an image processing apparatus according to a first aspect includes a processor, the processor detects a plurality of areas having foreground-like features from a read image obtained by reading a document, For each combination of two regions obtained from a plurality of regions, derive the straight-line distance between the outer edge of one region and the outer edge of the other region, and for each combination of the two regions, calculate the distance between the one region and the outer edge of the other region. The area of the gap, which is the part where the one region and the other region do not exist, is derived from the area of the inclusion region, which is a region of a predetermined shape that includes the other region, and For each, a combination in which the linear distance is within a predetermined range and the area of the gap is the smallest is selected and integrated.

また、第2態様に係る画像処理装置は、第1態様に係る画像処理装置において、前記プロセッサが、前記複数の領域の各々について選択して得られた複数の組み合わせに対して、予め定められた原稿の種類毎の特性に基づいて、統合の可否を判定する。 Further, in the image processing device according to the second aspect, in the image processing device according to the first aspect, the processor performs predetermined Based on the characteristics of each type of document, it is determined whether or not the document can be integrated.

また、第3態様に係る画像処理装置は、第2態様に係る画像処理装置において、前記特性が、原稿サイズの許容値として表され、前記プロセッサが、前記複数の組み合わせの各々のサイズと、前記許容値とを比較する場合に、前記許容値の小さい順に比較し、比較結果に基づいて、前記複数の組み合わせの各々について統合の可否を判定する。 Further, in the image processing apparatus according to a third aspect, in the image processing apparatus according to the second aspect, the characteristic is expressed as an allowable value of document size, and the processor is configured to determine the size of each of the plurality of combinations, and the image processing apparatus according to the second aspect. When comparing the allowable values, the allowable values are compared in ascending order, and based on the comparison result, it is determined whether each of the plurality of combinations can be integrated.

また、第4態様に係る画像処理装置は、第2態様又は第3態様に係る画像処理装置において、前記原稿が、複数の原稿であり、前記プロセッサが、前記複数の原稿を配置する際の配置条件が予め定義されている場合、前記配置条件を更に用いて、前記統合の可否を判定する。 Further, in the image processing apparatus according to a fourth aspect, in the image processing apparatus according to the second aspect or the third aspect, the original document is a plurality of original documents, and the processor arranges the plurality of original documents. If the conditions are defined in advance, the placement conditions are further used to determine whether or not the integration is possible.

また、第5態様に係る画像処理装置は、第1態様~第4態様のいずれか1の態様に係る画像処理装置において、前記プロセッサが、前記前景らしさの特徴を検出可能なフィルタを用いて、前記複数の領域を検出する。 Further, in the image processing apparatus according to a fifth aspect, in the image processing apparatus according to any one of the first to fourth aspects, the processor uses a filter capable of detecting the foreground-likeness feature, Detecting the plurality of regions.

また、第6態様に係る画像処理装置は、第5態様に係る画像処理装置において、前記フィルタが、n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最大輝度に置き換える膨張系フィルタと、n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最小輝度に置き換える収縮系フィルタと、を組み合わせたフィルタであるとされている。 In addition, in the image processing device according to a sixth aspect, in the image processing device according to the fifth aspect, the filter converts the brightness of the n×n (n is an odd number of 3 or more) center pixel to the n×n including the center pixel. An expansion filter that replaces the brightness with the maximum brightness among n pixels, and a brightness of the center pixel of n×n (n is an odd number of 3 or more) with the minimum brightness among the n×n pixels including the center pixel. It is said to be a filter that is a combination of a replacement contraction filter and a replacement filter.

また、第7態様に係る画像処理装置は、第1態様~第6態様のいずれか1の態様に係る画像処理装置において、前記直線距離が、前記一方の領域の外縁と、前記他方の領域の外縁との間の最小距離であるとされている。 Further, in the image processing device according to a seventh aspect, in the image processing device according to any one of the first to sixth aspects, the straight line distance is between the outer edge of the one region and the other region. It is said that this is the minimum distance between the outer edge and the outer edge.

また、第8態様に係る画像処理装置は、第1態様~第7態様のいずれか1の態様に係る画像処理装置において、前記包含領域の前記予め定められた形状が、前記一方の領域及び前記他方の領域の各々に外接する外接矩形であるとされている。 Further, in the image processing device according to an eighth aspect, in the image processing device according to any one of the first to seventh aspects, the predetermined shape of the inclusion area is the one area and the one area. It is assumed that the region is a circumscribed rectangle that circumscribes each of the other regions.

更に、上記目的を達成するために、第9態様に係る画像処理プログラムは、原稿を読み取って得られる読取画像から、前景らしさの特徴を有する複数の領域を検出し、前記複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域の外縁と、他方の領域の外縁との間の直線距離を導出し、前記2つの領域の組み合わせ毎に、前記一方の領域及び前記他方の領域を包含する予め定められた形状の領域である包含領域の面積から、前記一方の領域及び前記他方の領域が存在しない部分である隙間部分の面積を導出し、前記複数の領域の各々について、前記直線距離が予め定められた範囲内で、かつ、前記隙間部分の面積が最小となる組み合わせを選択して統合することを、コンピュータに実行させる。 Furthermore, in order to achieve the above object, the image processing program according to the ninth aspect detects a plurality of regions having foreground-like characteristics from a read image obtained by reading a document, and detects a plurality of regions having foreground-like characteristics. For each combination of two regions, derive the straight-line distance between the outer edge of one region and the outer edge of the other region, and for each combination of the two regions, include the one region and the other region. The area of the gap, which is the part where the one region and the other region do not exist, is derived from the area of the inclusion region, which is a region with a predetermined shape, and the linear distance is calculated for each of the plurality of regions. is within a predetermined range and the area of the gap is the smallest, and the computer selects and integrates the combinations.

第1態様及び第9態様によれば、原稿の読取画像からエッジが抽出できない場合であっても、原稿の種類に合わせて読取画像の複数の領域を統合することができる、という効果を有する。 According to the first aspect and the ninth aspect, even if an edge cannot be extracted from a read image of a document, it is possible to integrate a plurality of regions of the read image according to the type of document.

第2態様によれば、原稿の種類毎の特性を考慮しない場合と比較して、原稿の種類に合わせて統合の可否を精度良く判定することができる、という効果を有する。 According to the second aspect, there is an effect that it is possible to accurately determine whether or not to integrate according to the type of document, compared to the case where the characteristics of each type of document are not considered.

第3態様によれば、原稿サイズの許容値の大きい順に比較する場合と比較して、原稿の種類に合わせて統合の可否を精度良く判定することができる、という効果を有する。 According to the third aspect, there is an effect that it is possible to accurately determine whether or not to integrate according to the type of document, compared to the case where the document size is compared in descending order of allowable value.

第4態様によれば、複数の原稿の配置条件を考慮しない場合と比較して、原稿の種類に合わせて統合の可否を精度良く判定することができる、という効果を有する。 According to the fourth aspect, there is an effect that it is possible to accurately determine whether or not to integrate documents according to the type of documents, compared to a case where the arrangement conditions of a plurality of documents are not considered.

第5態様によれば、フィルタを用いない場合と比較して、前景らしさの特徴を有する複数の領域を適切に検出することができる、という効果を有する。 According to the fifth aspect, it is possible to appropriately detect a plurality of regions having foreground-like features compared to the case where no filter is used.

第6態様によれば、膨張系フィルタ及び収縮系フィルタを組み合わせたフィルタを用いない場合と比較して、前景らしさの特徴を有する複数の領域を適切に検出することができる、という効果を有する。 According to the sixth aspect, it is possible to appropriately detect a plurality of regions having foreground-like features compared to a case where a filter that is a combination of an expansion filter and a contraction filter is not used.

第7態様によれば、直線距離を最小距離にしない場合と比較して、読取画像の複数の領域を適切に統合することができる、という効果を有する。 According to the seventh aspect, there is an effect that a plurality of regions of a read image can be appropriately integrated, compared to a case where the straight-line distance is not set to the minimum distance.

第8態様によれば、包含領域の形状を外接矩形にしない場合と比較して、読取画像の複数の領域を適切に統合することができる、という効果を有する。 According to the eighth aspect, there is an effect that a plurality of regions of a read image can be appropriately integrated, compared to a case where the shape of the included region is not a circumscribed rectangle.

実施形態に係る画像処理装置の電気的な構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of an electrical configuration of an image processing device according to an embodiment. 複数枚のレシートの読取画像における複数の領域を統合した状態の説明に供する図である。FIG. 3 is a diagram illustrating a state in which a plurality of areas in read images of a plurality of receipts are integrated. 実施形態に係る画像処理装置の機能的な構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a functional configuration of an image processing device according to an embodiment. 実施形態に係る領域検出処理の説明に供する図である。FIG. 3 is a diagram for explaining area detection processing according to the embodiment. (A)は実施形態に係る直線距離の導出方法の説明に供する図である。(B)は実施形態に係る直線距離行列の一例を示す図である。(A) is a diagram for explaining a method for deriving a straight-line distance according to an embodiment. (B) is a diagram showing an example of a straight-line distance matrix according to the embodiment. (A)は実施形態に係る隙間面積の導出方法の説明に供する図である。(B)は実施形態に係る隙間面積行列の一例を示す図である。(A) is a diagram for explaining a method for deriving a gap area according to an embodiment. (B) is a diagram showing an example of a gap area matrix according to the embodiment. (A)は実施形態に係る直線距離行列と複数の領域との関係を示す図である。(B)は実施形態に係る直線距離行列と隙間面積行列との関係を示す図である。(A) is a diagram showing the relationship between a straight-line distance matrix and a plurality of regions according to the embodiment. (B) is a diagram showing the relationship between the straight-line distance matrix and the gap area matrix according to the embodiment. (A)は実施形態に係る領域の組み合わせと原稿サイズとの関係の一例を示す図である。(B)は実施形態に係る領域の組み合わせと原稿サイズとの関係の他の例を示す図である。(C)は実施形態に係る領域の組み合わせと原稿サイズとの関係の更に他の例を示す図である。(A) is a diagram illustrating an example of the relationship between a combination of areas and document size according to the embodiment. (B) is a diagram showing another example of the relationship between the combination of areas and the document size according to the embodiment. (C) is a diagram showing still another example of the relationship between the combination of areas and the document size according to the embodiment. 実施形態に係る統合処理における再計算の説明に供する図である。FIG. 6 is a diagram illustrating recalculation in the integration process according to the embodiment. 実施形態に係る画像処理プログラムによる処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of the flow of processing by an image processing program according to an embodiment.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。 EMBODIMENT OF THE INVENTION Hereinafter, with reference to drawings, an example of the form for implementing this invention is demonstrated in detail.

図1は、本実施形態に係る画像処理装置10の電気的な構成の一例を示すブロック図である。 FIG. 1 is a block diagram showing an example of the electrical configuration of an image processing apparatus 10 according to this embodiment.

図1に示すように、本実施形態に係る画像処理装置10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、入出力インターフェース(I/O)14と、記憶部15と、表示部16と、操作部17と、原稿読取部18と、通信部19と、を備えている。 As shown in FIG. 1, the image processing device 10 according to the present embodiment includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, and an input/output interface (I/O interface). /O) 14, a storage section 15, a display section 16, an operation section 17, a document reading section 18, and a communication section 19.

本実施形態に係る画像処理装置10には、例えば、原稿読取部18を一体的に備えた原稿読取装置が適用される。また、原稿読取部18を別体としてもよい。この場合、画像処理装置10には、例えば、サーバコンピュータ、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。 For example, a document reading device integrally provided with a document reading section 18 is applied to the image processing device 10 according to the present embodiment. Further, the document reading section 18 may be provided separately. In this case, a general-purpose computer device such as a server computer or a personal computer (PC) is applied to the image processing device 10, for example.

CPU11、ROM12、RAM13、及びI/O14は、バスを介して各々接続されている。I/O14には、記憶部15と、表示部16と、操作部17と、原稿読取部18と、通信部19と、を含む各機能部が接続されている。これらの各機能部は、I/O14を介して、CPU11と相互に通信可能とされる。 The CPU 11, ROM 12, RAM 13, and I/O 14 are each connected via a bus. Each functional section including a storage section 15, a display section 16, an operation section 17, a document reading section 18, and a communication section 19 is connected to the I/O 14. Each of these functional units can communicate with the CPU 11 via the I/O 14.

CPU11、ROM12、RAM13、及びI/O14によって制御部が構成される。制御部は、画像処理装置10の一部の動作を制御するサブ制御部として構成されてもよいし、画像処理装置10の全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。 A control unit is configured by the CPU 11, ROM 12, RAM 13, and I/O 14. The control unit may be configured as a sub-control unit that controls a part of the operation of the image processing device 10, or may be configured as a part of a main control unit that controls the entire operation of the image processing device 10. . For example, an integrated circuit such as an LSI (Large Scale Integration) or an IC (Integrated Circuit) chipset is used for a part or all of each block of the control section. Individual circuits may be used for each of the above blocks, or a part or all of them may be integrated. Each of the blocks described above may be provided integrally, or some blocks may be provided separately. Moreover, in each of the above-mentioned blocks, a part thereof may be provided separately. The integration of the control section is not limited to LSI, but a dedicated circuit or a general-purpose processor may also be used.

記憶部15としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部15には、本実施形態に係る画像処理プログラム15Aが記憶される。なお、この画像処理プログラム15Aは、ROM12に記憶されていてもよい。 As the storage unit 15, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, etc. are used. The storage unit 15 stores an image processing program 15A according to the present embodiment. Note that this image processing program 15A may be stored in the ROM 12.

画像処理プログラム15Aは、例えば、画像処理装置10に予めインストールされていてもよい。画像処理プログラム15Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、画像処理装置10に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。 The image processing program 15A may be installed in the image processing device 10 in advance, for example. The image processing program 15A may be realized by being stored in a nonvolatile storage medium, or distributed via a network, and installed in the image processing apparatus 10 as appropriate. Note that examples of nonvolatile storage media include CD-ROM (Compact Disc Read Only Memory), magneto-optical disk, HDD, DVD-ROM (Digital Versatile Disc Read Only Memory), flash memory, memory card, etc. Ru.

表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有していてもよい。操作部17には、例えば、キーボードやマウス等の操作入力用のデバイスが設けられている。表示部16及び操作部17は、画像処理装置10のユーザから各種の指示を受け付ける。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。 For example, a liquid crystal display (LCD), an organic EL (electro luminescence) display, or the like is used for the display unit 16. The display unit 16 may integrally include a touch panel. The operation unit 17 is provided with an operation input device such as a keyboard and a mouse, for example. The display unit 16 and the operation unit 17 receive various instructions from the user of the image processing device 10. The display unit 16 displays various information such as the results of processing executed in response to instructions received from the user and notifications regarding the processing.

原稿読取部18は、画像処理装置10の上部に設けられた自動原稿送り装置(図示省略)の給紙台に置かれた原稿を1枚ずつ取り込み、取り込んだ原稿を光学的に読み取って画像情報を得る。あるいは、原稿読取部18は、プラテンガラス等の原稿台に置かれた原稿を光学的に読み取って画像情報を得る。 The original reading unit 18 takes in the originals placed on the paper feed tray of an automatic document feeder (not shown) provided at the top of the image processing device 10 one by one, optically reads the taken originals, and obtains image information. get. Alternatively, the document reading unit 18 optically reads a document placed on a document table such as a platen glass to obtain image information.

通信部19は、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続されており、画像形成装置及び他のPC等の外部機器との間でネットワークを介して通信が可能とされる。 The communication unit 19 is connected to a network such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network), and is capable of communicating with external devices such as the image forming apparatus and other PCs via the network. It is considered possible.

ところで、上述したように、レシート、領収書等の原稿をプラテンガラス上に配置して読み取った場合に、原稿の読取画像のエッジを抽出できない場合がある。この場合、原稿の種類に合わせて読取画像の複数の領域を統合することは難しい。これについて、図2を参照して説明する。 By the way, as described above, when a document such as a receipt is placed on a platen glass and read, the edges of the read image of the document may not be extracted. In this case, it is difficult to integrate multiple areas of the read image according to the type of document. This will be explained with reference to FIG.

図2は、複数枚のレシートの読取画像における複数の領域を統合した状態の説明に供する図である。 FIG. 2 is a diagram illustrating a state in which a plurality of areas in read images of a plurality of receipts are integrated.

(S1)では、複数枚のレシートをプラテンガラス上に載置した状態を示している。これら複数枚のレシートには、一例として、白色の感熱紙が用いられている。 (S1) shows a state where a plurality of receipts are placed on the platen glass. For example, white thermal paper is used for these plurality of receipts.

(S2)では、プラテンガラス上に載置された複数枚のレシートを光学的に読み取って得られた読取画像を示している。この読取画像には、各レシートのエッジが欠落していることが分かる。 (S2) shows a read image obtained by optically reading a plurality of receipts placed on the platen glass. It can be seen that the edges of each receipt are missing in this read image.

(S3)では、読取画像に含まれる複数の領域を統合した場合に、理想的な統合結果を示している。一方、(S4)では、読取画像に含まれる複数の領域を統合した場合に、誤った統合結果を示している。(S4)のようになる理由は、レシートのような原稿では、エッジが検出できない上に、単純に距離依存で統合を行うと、近接して配置した場合等に異なるレシートの隣り合う領域が統合されてしまうためである。 (S3) shows an ideal integration result when a plurality of regions included in the read image are integrated. On the other hand, (S4) shows an incorrect integration result when a plurality of regions included in the read image are integrated. (S4) is caused by the fact that edges cannot be detected in originals such as receipts, and if integration is simply performed based on distance, adjacent areas of different receipts will be integrated when they are placed close together. This is because it will be done.

本実施形態に係る原稿は、1枚であってもよいし、複数枚であってもよい。本実施形態においては、一例として、複数枚のレシートをマルチクロップスキャンする場合について説明する。ここでいうマルチクロップスキャンとは、プラテンガラスにセットされた複数枚の原稿を読み取り、読み取って得られた読取画像から個々の原稿画像を自動的に切り出して個別にファイル化する機能のことをいう。 The number of original documents according to this embodiment may be one or more than one. In this embodiment, a case will be described as an example in which a plurality of receipts are multi-crop scanned. Multi-crop scanning here refers to a function that reads multiple originals set on a platen glass, automatically cuts out individual original images from the scanned images, and files them individually. .

本実施形態に係る画像処理装置10のCPU11は、記憶部15に記憶されている画像処理プログラム15AをRAM13に書き込んで実行することにより、図3に示す各部として機能する。 The CPU 11 of the image processing device 10 according to the present embodiment functions as each unit shown in FIG. 3 by writing the image processing program 15A stored in the storage unit 15 into the RAM 13 and executing it.

図3は、本実施形態に係る画像処理装置10の機能的な構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the image processing device 10 according to this embodiment.

図3に示すように、本実施形態に係る画像処理装置10のCPU11は、領域検出部11A、距離導出部11B、面積導出部11C、組み合わせ選択部11D、統合可否判定部11E、及び統合処理部11Fとして機能する。 As shown in FIG. 3, the CPU 11 of the image processing device 10 according to the present embodiment includes an area detection section 11A, a distance derivation section 11B, an area derivation section 11C, a combination selection section 11D, an integration possibility determination section 11E, and an integration processing section. Functions as 11F.

本実施形態に係る記憶部15には、特性情報15Bが記憶されている。この特性情報15Bは、予め定められた原稿の種類毎の特性を示す情報であり、統合の可否を判定する際に用いられる情報である。この特性情報15Bには、原稿の形状を示す情報(例えば、原稿の幅等)が含まれる。 The storage unit 15 according to this embodiment stores characteristic information 15B. This characteristic information 15B is information indicating predetermined characteristics for each type of document, and is information used when determining whether or not integration is possible. This characteristic information 15B includes information indicating the shape of the document (for example, the width of the document, etc.).

領域検出部11Aは、原稿を読み取って得られる読取画像から、前景らしさの特徴を有する複数の領域を検出する。具体的に、領域検出部11Aは、一例として、図4に示すように、読取画像を2値化する。 The area detection unit 11A detects a plurality of areas having foreground-like characteristics from a read image obtained by reading a document. Specifically, the area detection unit 11A binarizes the read image, as shown in FIG. 4, for example.

図4は、本実施形態に係る領域検出処理の説明に供する図である。 FIG. 4 is a diagram for explaining area detection processing according to this embodiment.

図4に示すように、領域検出部11Aは、前景らしさの特徴を検出可能なフィルタを用いて、複数の領域を検出する。このフィルタには、一例として、膨張系フィルタと、収縮系フィルタとを組み合わせたフィルタが適用される。膨張系フィルタとは、n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最大輝度に置き換えるものである。収縮系フィルタとは、n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最小輝度に置き換えるものである。 As shown in FIG. 4, the region detection unit 11A detects a plurality of regions using a filter capable of detecting foreground-like features. For example, a filter that is a combination of an expansion filter and a contraction filter is applied to this filter. The expansion filter replaces the brightness of a central pixel of n×n (n is an odd number of 3 or more) with the maximum brightness among n×n pixels including the central pixel. The contraction type filter replaces the brightness of a central pixel of n×n (n is an odd number of 3 or more) with the minimum brightness among n×n pixels including the central pixel.

距離導出部11Bは、領域検出部11Aにより検出された複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域の外縁と、他方の領域の外縁との間の直線距離を導出する。この直線距離は、例えば、一方の領域の外縁と、他方の領域の外縁との間の最小距離として表される。具体的に、一方の領域をgi(i=1、2、3、・・・、N)、他方の領域をgj(j=1、2、3、・・・、N)、領域giと領域gjとの間の直線距離をda(gi,gj)とした場合、da(gi,gj)は、下記の式(1)のように定義される。なお、直線距離da(gi,gi)は、例えば、ユークリッド距離で表される。 The distance derivation unit 11B derives the straight-line distance between the outer edge of one area and the outer edge of the other area for each combination of two areas obtained from the plurality of areas detected by the area detection unit 11A. This straight-line distance is expressed, for example, as the minimum distance between the outer edge of one region and the outer edge of the other region. Specifically, one region is gi (i = 1, 2, 3, ..., N), the other region is gj (j = 1, 2, 3, ..., N), and the region gi and the region When the straight line distance between gj and da(gi, gj) is defined as the following equation (1), da(gi, gj) is defined as follows. Note that the straight-line distance da (gi, gi) is expressed, for example, as a Euclidean distance.

da(gi,gj)
=if(giとgjの領域が交差)0
else{min(最短距離(E(giの4辺線分),E(gjの4辺線分)))}
・・・(1)
da (gi, gj)
=if (regions of gi and gj intersect) 0
else {min (minimum distance (E (4-side line segment of gi), E (4-side line segment of gj)))}
...(1)

図5(A)は、本実施形態に係る直線距離da(gi,gj)の導出方法の説明に供する図である。図5(B)は、本実施形態に係る直線距離行列Raの一例を示す図である。 FIG. 5A is a diagram for explaining a method for deriving the straight-line distance da (gi, gj) according to the present embodiment. FIG. 5(B) is a diagram showing an example of a straight-line distance matrix Ra according to this embodiment.

図5(A)に示す読取画像では、複数の領域#1~領域#N(ここではN=6)が検出されている。これらの領域#1~領域#6は、ラベリング処理され、領域間の識別が可能な状態とされている。この場合、上記式(1)を用いて、領域#1と領域#2との組み合わせについて直線距離da(g1,g2)が導出される。同様に、領域#1と領域#3との組み合わせについて直線距離da(g1,g3)が導出され、領域#1と領域#4との組み合わせについて直線距離da(g1,g4)が導出される。同様に、領域#1と領域#5との組み合わせについて直線距離da(g1,g5)が導出され、領域#1と領域#6との組み合わせについて直線距離da(g1,g6)が導出される。 In the read image shown in FIG. 5(A), a plurality of regions #1 to #N (here, N=6) are detected. These regions #1 to #6 have been subjected to labeling processing, so that the regions can be identified. In this case, the linear distance da (g1, g2) is derived for the combination of region #1 and region #2 using the above equation (1). Similarly, a straight line distance da (g1, g3) is derived for the combination of area #1 and area #3, and a straight line distance da (g1, g4) is derived for the combination of area #1 and area #4. Similarly, a straight line distance da (g1, g5) is derived for the combination of area #1 and area #5, and a straight line distance da (g1, g6) is derived for the combination of area #1 and area #6.

領域#2~領域#6の各々についても上記と同様に他の領域との間の直線距離da(gi,gj)が導出される。 Similarly to the above, the straight-line distance da (gi, gj) between regions #2 to #6 is derived from the other regions.

図5(A)に示すように、領域同士の外周位置に依存した直線距離が導出される。例えば、各領域の外周点列間で最小距離となる2点を選択すればよい。2つの領域(gi,gj)の全ての組み合わせについて直線距離da(gi,gj)が導出される。そして、この導出結果を用いて、一例として、図5(B)に示す直線距離行列Raが生成される。この直線距離行列Raは、読取画像に対応付けられて記憶部15に記憶される。 As shown in FIG. 5(A), a straight-line distance depending on the outer circumferential position between the regions is derived. For example, it is sufficient to select two points that have the minimum distance between the outer peripheral point sequences of each region. Straight line distance da(gi, gj) is derived for all combinations of two regions (gi, gj). Then, using this derivation result, as an example, a straight-line distance matrix Ra shown in FIG. 5(B) is generated. This straight distance matrix Ra is stored in the storage unit 15 in association with the read image.

面積導出部11Cは、領域検出部11Aにより検出された複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域及び他方の領域を包含する包含領域の面積から、一方の領域及び他方の領域が存在しない部分である隙間部分の面積を導出する。この包含領域は、予め定められた形状の領域である。この予め定められた形状は、一例として、一方の領域及び他方の領域の各々に外接する外接矩形である。具体的に、一方の領域giの面積をAgi、他方の領域gjの面積をAgj、一方の領域gi及び他方の領域gjを包含する包含領域の面積をA(gi,gj)、隙間部分の面積(以下、「隙間面積」という。)をdh(gi,gj)とした場合、dh(gi,gj)は、下記の式(2)のように定義される。 For each combination of two regions obtained from the plurality of regions detected by the region detection section 11A, the area derivation section 11C calculates one region and the other region from the area of the inclusion region that includes one region and the other region. The area of the gap where no region exists is derived. This inclusion area is an area with a predetermined shape. This predetermined shape is, for example, a circumscribed rectangle that circumscribes each of the one region and the other region. Specifically, the area of one region gi is Agi, the area of the other region gj is Agj, the area of the inclusive region that includes one region gi and the other region gj is A(gi, gj), and the area of the gap is (hereinafter referred to as "gap area") is defined as dh(gi, gj), dh(gi, gj) is defined as in the following equation (2).

dh(gi,gj)
=A(gi,gj)-Agi-Agj
・・・(2)
dh(gi, gj)
=A(gi,gj)-Agi-Agj
...(2)

図6(A)は、本実施形態に係る隙間面積dh(gi,gj)の導出方法の説明に供する図である。図6(B)は、本実施形態に係る隙間面積行列Rhの一例を示す図である。 FIG. 6A is a diagram for explaining a method for deriving the gap area dh (gi, gj) according to the present embodiment. FIG. 6(B) is a diagram showing an example of a gap area matrix Rh according to this embodiment.

図6(A)に示す読取画像では、図5(A)の例と同様に、複数の領域#1~領域#N(ここではN=6)が検出されている。この場合、上記式(2)を用いて、領域#1と領域#2との組み合わせについて隙間面積dh(g1,g2)が導出される。隙間面積dh(g1,g2)は、図6(A)のハッチングで示す部分の面積である。つまり、dh(g1,g2)=A(g1,g2)-Ag1-Ag2、により導出される。但し、Ag1は領域#1の面積、Ag2は領域#2の面積、A(g1,g2)は領域#1及び領域#2の各々に外接する外接矩形の面積を示す。同様に、領域#1と領域#3との組み合わせについて隙間面積dh(g1,g3)が導出され、領域#1と領域#4との組み合わせについて隙間面積dh(g1,g4)が導出される。同様に、領域#1と領域#5との組み合わせについて隙間面積dh(g1,g5)が導出され、領域#1と領域#6との組み合わせについて隙間面積dh(g1,g6)が導出される。 In the read image shown in FIG. 6(A), a plurality of regions #1 to #N (here, N=6) are detected, as in the example of FIG. 5(A). In this case, the gap area dh(g1, g2) is derived for the combination of region #1 and region #2 using the above equation (2). The gap area dh (g1, g2) is the area of the hatched portion in FIG. 6(A). That is, it is derived from dh(g1,g2)=A(g1,g2)-Ag1-Ag2. However, Ag1 is the area of region #1, Ag2 is the area of region #2, and A(g1, g2) is the area of a circumscribed rectangle circumscribing each of region #1 and region #2. Similarly, the gap area dh (g1, g3) is derived for the combination of region #1 and region #3, and the gap area dh (g1, g4) is derived for the combination of region #1 and region #4. Similarly, the gap area dh (g1, g5) is derived for the combination of region #1 and region #5, and the gap area dh (g1, g6) is derived for the combination of region #1 and region #6.

領域#2~領域#6の各々についても上記と同様に他の領域との間の隙間面積dh(gi,gj)が導出される。例えば、上記式(2)を用いて、領域#4と領域#5との組み合わせについて隙間面積dh(g4,g5)が導出される。隙間面積dh(g4,g5)は、図6(A)のハッチングで示す部分の面積である。つまり、領域#1と領域#2との組み合わせと同様に、dh(g4,g5)=A(g4,g5)-Ag4-Ag5、により導出される。但し、Ag4は領域#4の面積、Ag5は領域#5の面積、A(g4,g5)は領域#4及び領域#5の各々に外接する外接矩形の面積を示す。 For each of regions #2 to #6, the gap area dh (gi, gj) between them and other regions is derived in the same way as above. For example, using the above equation (2), the gap area dh (g4, g5) is derived for the combination of region #4 and region #5. The gap area dh (g4, g5) is the area of the hatched portion in FIG. 6(A). In other words, similarly to the combination of region #1 and region #2, it is derived from dh(g4,g5)=A(g4,g5)−Ag4−Ag5. However, Ag4 represents the area of region #4, Ag5 represents the area of region #5, and A(g4, g5) represents the area of a circumscribed rectangle that circumscribes each of region #4 and region #5.

図6(A)に示すように、領域同士の包含関係に依存した隙間面積が導出される。隙間面積は、例えば、2つの領域を包含する外接矩形を定義し、外接矩形の面積と、当該2つの領域の面積との差を取ることで得られる。2つの領域(gi,gj)の全ての組み合わせについて隙間面積dh(gi,gj)が導出される。そして、この導出結果を用いて、一例として、図6(B)に示す隙間面積行列Rhが生成される。この隙間面積行列Rhは、読取画像に対応付けられて記憶部15に記憶される。 As shown in FIG. 6(A), the gap area is derived depending on the inclusion relationship between the regions. The gap area can be obtained, for example, by defining a circumscribed rectangle that includes two regions and calculating the difference between the area of the circumscribed rectangle and the area of the two regions. Gap areas dh (gi, gj) are derived for all combinations of two regions (gi, gj). Then, by using this derivation result, a gap area matrix Rh shown in FIG. 6(B) is generated, as an example. This gap area matrix Rh is stored in the storage unit 15 in association with the read image.

組み合わせ選択部11Dは、記憶部15に記憶された直線距離行列Ra及び隙間面積行列Rhを用いて、複数の領域の各々について、直線距離da(gi,gj)が予め定められた範囲内で、かつ、隙間面積dh(gi,gj)が最小となる組み合わせを選択する。ここで、図7(A)及び図7(B)を参照して、組み合わせ選択処理について具体的に説明する。 The combination selection unit 11D uses the straight-line distance matrix Ra and the gap area matrix Rh stored in the storage unit 15 to select the straight-line distance da (gi, gj) within a predetermined range for each of the plurality of regions. In addition, the combination that minimizes the gap area dh (gi, gj) is selected. Here, the combination selection process will be specifically described with reference to FIGS. 7(A) and 7(B).

図7(A)は、本実施形態に係る直線距離行列Raと複数の領域との関係を示す図である。図7(B)は、本実施形態に係る直線距離行列Raと隙間面積行列Rhとの関係を示す図である。 FIG. 7(A) is a diagram showing the relationship between the straight-line distance matrix Ra and a plurality of regions according to this embodiment. FIG. 7(B) is a diagram showing the relationship between the straight-line distance matrix Ra and the gap area matrix Rh according to the present embodiment.

図7(A)に示すように、直線距離行列Raを参照することにより、直線距離da(gi,gj)が閾値(例えば「150」等)以内となる組み合わせが検出される。図7(A)の例では、領域#1と領域#2との組み合わせ、領域#1と領域#3との組み合わせ、及び領域#1と領域#4との組み合わせは、直線距離da(gi,gj)が閾値以内であることを示す。領域#1と領域#5との組み合わせ及び領域#1と領域#6との組み合わせは、直線距離da(gi,gj)が閾値を超えていることを示す。直線距離行列Raにおいて、直線距離da(gi,gj)が閾値を超える組み合わせを「NG」とする。図7(A)の直線距離行列Raでは、領域#1と領域#Nとの組み合わせが「NG」となる。 As shown in FIG. 7A, by referring to the straight-line distance matrix Ra, combinations in which the straight-line distance da (gi, gj) is within a threshold value (for example, "150", etc.) are detected. In the example of FIG. 7A, the combination of region #1 and region #2, the combination of region #1 and region #3, and the combination of region #1 and region #4 have a straight line distance da(gi, gj) is within the threshold. The combination of region #1 and region #5 and the combination of region #1 and region #6 indicate that the straight-line distance da (gi, gj) exceeds the threshold value. In the straight-line distance matrix Ra, a combination in which the straight-line distance da (gi, gj) exceeds a threshold value is determined to be "NG". In the straight-line distance matrix Ra of FIG. 7(A), the combination of region #1 and region #N is "NG".

図7(B)に示す隙間面積行列Rhにおいて、上記で「NG」とされた組み合わせに対応する隙間面積dh(gi,gj)を禁則値「φ」とする。図7(B)の例では、領域#1と領域#Nとの組み合わせが「NG」であるため、禁則値「φ」となる。隙間面積行列Rhにおける禁則値「φ」以外の数値を有する組み合わせの中で各領域について最小値をとる組み合わせが選択される。図7(B)の例では、ある領域について最小値「5」をとる組み合わせが選択されている。なお、隙間面積行列Rhの値が全て禁則値「φ」である場合、組み合わせの選択は行われない。 In the gap area matrix Rh shown in FIG. 7(B), the gap area dh(gi, gj) corresponding to the combination judged as "NG" above is set as a forbidden value "φ". In the example of FIG. 7B, since the combination of region #1 and region #N is "NG", the forbidden value is "φ". Among the combinations having numerical values other than the forbidden value "φ" in the gap area matrix Rh, the combination that takes the minimum value for each region is selected. In the example of FIG. 7(B), a combination that takes the minimum value "5" for a certain area is selected. Note that if all the values of the gap area matrix Rh are the forbidden value "φ", no combination is selected.

統合可否判定部11Eは、組み合わせ選択部11Dにより複数の領域の各々について選択して得られた複数の組み合わせに対して、予め定められた原稿の種類毎の特性に基づいて、統合の可否を判定する。具体的に、統合可否判定部11Eは、上述の特性情報15Bを用いて統合の可否を判定する。特性情報15Bには、一例として、原稿の種類がレシートである場合、「幅80mm以下、高さ無制限」という特性が設定され、原稿の種類が領収書である場合、「幅150mm以下、高さ無制限」という特性が設定されている。つまり、この場合、特性情報15Bは、原稿サイズの許容値として表される。 The integration possibility determining unit 11E determines whether or not integration is possible based on predetermined characteristics for each document type, for the plurality of combinations obtained by selecting each of the plurality of regions by the combination selection unit 11D. do. Specifically, the integration possibility determining unit 11E determines whether integration is possible using the above-mentioned characteristic information 15B. For example, in the characteristic information 15B, when the document type is a receipt, the characteristic is set as "width 80 mm or less, height unlimited", and when the document type is a receipt, "width 150 mm or less, height is set". The property "unlimited" is set. That is, in this case, the characteristic information 15B is expressed as an allowable value of the document size.

統合可否判定部11Eは、組み合わせ選択部11Dにより得られた複数の組み合わせの各々のサイズと、特性情報15Bの許容値とを比較する場合、許容値の小さい順に比較し、比較結果に基づいて、複数の組み合わせの各々について統合の可否を判定する。ここで、図8(A)~図8(C)を参照して、統合可否判定処理について具体的に説明する。 When comparing the size of each of the plurality of combinations obtained by the combination selection section 11D with the allowable value of the characteristic information 15B, the integration possibility determining section 11E compares the sizes in descending order of the allowable value, and based on the comparison result, It is determined whether each of the plurality of combinations can be integrated. Here, with reference to FIGS. 8(A) to 8(C), the integration feasibility determination process will be specifically described.

図8(A)は、本実施形態に係る領域の組み合わせと原稿サイズとの関係の一例を示す図である。図8(B)は、本実施形態に係る領域の組み合わせと原稿サイズとの関係の他の例を示す図である。図8(C)は、本実施形態に係る領域の組み合わせと原稿サイズとの関係の更に他の例を示す図である。 FIG. 8A is a diagram illustrating an example of the relationship between area combinations and document size according to this embodiment. FIG. 8B is a diagram illustrating another example of the relationship between the combination of areas and the document size according to this embodiment. FIG. 8C is a diagram showing still another example of the relationship between the combination of areas and the document size according to this embodiment.

図8(A)に示す領域#3及び領域#5の組み合わせのサイズは、幅W1[mm]と算出されている。ここで、幅W1[mm]と特性情報15Bの許容値とが特性情報15Bの許容値の小さい順に比較される。この場合、80mm(レシート)、150mm(領収書)の順に比較される。なお、ここでは、高さh1[mm]についての制約がないため、比較対象とされない。図8(A)の例では、W1[mm]<80mm、であるため、領域#3及び領域#5の組み合わせはレシートとして統合可能と判定される。 The size of the combination of area #3 and area #5 shown in FIG. 8(A) is calculated to be a width W1 [mm]. Here, the width W1 [mm] and the allowable value of the characteristic information 15B are compared in descending order of the allowable value of the characteristic information 15B. In this case, 80 mm (receipt) and 150 mm (receipt) are compared in this order. Note that here, since there is no restriction on the height h1 [mm], it is not used for comparison. In the example of FIG. 8A, since W1[mm]<80 mm, it is determined that the combination of area #3 and area #5 can be integrated as a receipt.

図8(B)に示す領域#3及び領域#4の組み合わせのサイズ、並びに、領域#5及び領域#6の組み合わせのサイズの各々は、幅W2[mm]と算出されている。ここで、図8(A)の例と同様に、幅W2[mm]と特性情報15Bの許容値とが特性情報15Bの許容値の小さい順に比較される。なお、図8(A)の例と同様に、高さh2[mm]についての制約がないため、比較対象とされない。図8(B)の例では、W2[mm]≧150mm、であるため、領域#3及び領域#4の組み合わせ、並びに、領域#5及び領域#6の組み合わせは各々統合不可と判定される。なお、80mm≦W2[mm]<150mmである場合、領域#3及び領域#4の組み合わせ、並びに、領域#5及び領域#6の組み合わせは各々領収書として統合可能と判定される。 The size of the combination of area #3 and area #4 and the size of the combination of area #5 and area #6 shown in FIG. 8(B) are each calculated to have a width W2 [mm]. Here, similarly to the example of FIG. 8(A), the width W2 [mm] and the allowable value of the characteristic information 15B are compared in descending order of the allowable value of the characteristic information 15B. Note that, like the example in FIG. 8A, there is no restriction on the height h2 [mm], so it is not used for comparison. In the example of FIG. 8B, since W2 [mm]≧150 mm, it is determined that the combination of region #3 and region #4 and the combination of region #5 and region #6 cannot be integrated. Note that when 80 mm≦W2[mm]<150 mm, it is determined that the combination of area #3 and area #4 and the combination of area #5 and area #6 can be integrated as a receipt.

図8(C)に示す領域#1及び領域#3の組み合わせのサイズ、並びに、領域#3及び領域#5の組み合わせのサイズの各々は、幅W3[mm]と算出されている。ここで、図8(A)の例と同様に、幅W3[mm]と特性情報15Bの許容値とが特性情報15Bの許容値の小さい順に比較される。なお、図8(A)の例と同様に、高さh3[mm]についての制約がないため、比較対象とされない。図8(C)の例では、W3[mm]<80mm、であるため、領域#1及び領域#3の組み合わせ、並びに、領域#3及び領域#5の組み合わせは各々レシートとして統合可能と判定される。 The size of the combination of region #1 and region #3 and the size of the combination of region #3 and region #5 shown in FIG. 8(C) are each calculated to have a width W3 [mm]. Here, similarly to the example of FIG. 8A, the width W3 [mm] and the tolerance value of the characteristic information 15B are compared in descending order of the tolerance value of the characteristic information 15B. Note that, like the example in FIG. 8A, there is no restriction on the height h3 [mm], so it is not used for comparison. In the example of FIG. 8(C), since W3 [mm] < 80 mm, it is determined that the combination of area #1 and area #3 and the combination of area #3 and area #5 can be integrated as a receipt. Ru.

また、複数の原稿を配置する際の配置条件が予め定義されていてもよい。この場合、統合可否判定部11Eは、配置条件を更に用いて、統合の可否を判定する。配置条件とは、例えば、「〇〇cm以上離して配置する。」等の条件である。この配置条件をユーザに提示することで、配置条件に従って複数の原稿が配置される。上述の特性情報15Bに加えて、この配置条件を考慮することにより、統合の可否が精度良く判定される。 Furthermore, arrangement conditions for arranging a plurality of documents may be defined in advance. In this case, the integration possibility determining unit 11E further uses the arrangement condition to determine whether integration is possible. The arrangement condition is, for example, a condition such as "arrangement at a distance of XX cm or more." By presenting this arrangement condition to the user, a plurality of documents are arranged according to the arrangement condition. By considering this arrangement condition in addition to the characteristic information 15B described above, it is possible to accurately determine whether integration is possible.

統合処理部11Fは、統合可否判定部11Eによる判定結果に基づいて、複数の組み合わせの各々について統合を行い、直線距離da(gi,gj)及び隙間面積dh(gi,gj)を再計算する。具体的に、組み合わせる領域同士が統合可能な場合、2つの領域を統合したときの各種情報(サイズ等)を更新する。特に、隙間面積dh(gi,gj)について、一例として、図9に示すように、2つの領域の組み合わせにおける統合済みの値は禁則値「φ」に更新され、統合済み領域と関連のある行及び列の値が更新される。 The integration processing unit 11F integrates each of the plurality of combinations based on the determination result by the integration possibility determination unit 11E, and recalculates the straight-line distance da (gi, gj) and the gap area dh (gi, gj). Specifically, if the areas to be combined can be integrated, various information (size, etc.) when the two areas are integrated is updated. In particular, regarding the gap area dh (gi, gj), as an example, as shown in FIG. 9, the integrated value in the combination of two areas is updated to the forbidden value "φ", and the row related to the integrated area and column values are updated.

図9は、本実施形態に係る統合処理における再計算の説明に供する図である。 FIG. 9 is a diagram for explaining recalculation in the integration process according to this embodiment.

図9に示す隙間面積行列Rhの例では、「5」→「φ」に更新され、「400」→「150」、「100」→「80」にそれぞれ更新されている。 In the example of the gap area matrix Rh shown in FIG. 9, it is updated from "5" to "φ", from "400" to "150", and from "100" to "80".

ここで、統合処理部11Fによる統合結果をプレビュー表示で確認するようにしてもよい。統合結果をプレビュー表示で確認した後に、統合結果が正しいと判断した場合、統合結果を画像処理装置10の連携先である会計システム等に送信してもよい。また、プレビュー表示された統合結果が誤っていると判断した場合、ユーザが正しい統合状態に修正するようにしてもよい。なお、統合結果として表される統合された領域について、統合された領域を含む領域を原稿画像として取得してもよいし、あるいは、統合された領域から文字情報をOCR(Optical Character Recognition)によって抽出するようにしてもよい。 Here, the integration result by the integration processing unit 11F may be confirmed on a preview display. After confirming the integration result in a preview display, if it is determined that the integration result is correct, the integration result may be transmitted to an accounting system or the like with which the image processing device 10 is linked. Further, if it is determined that the previewed integration result is incorrect, the user may correct the integration state to be correct. Regarding the integrated area expressed as the integration result, the area including the integrated area may be acquired as a document image, or character information may be extracted from the integrated area by OCR (Optical Character Recognition). You may also do so.

また、上記では、統合可否判定部11Eを含む形態について説明したが、統合可否判定部11Eを含まない形態としてもよい。この場合、統合処理部11Fは、組み合わせ選択部11Dにより選択して得られた複数の組み合わせについて、統合可否判定処理を行うことなく、統合する処理を行う。 Moreover, although the embodiment including the integration possibility determining section 11E has been described above, it may also be a mode not including the integration capability determining section 11E. In this case, the integration processing section 11F performs a process of integrating the plurality of combinations selected and obtained by the combination selection section 11D without performing an integration feasibility determination process.

次に、図10を参照して、本実施形態に係る画像処理装置10の作用を説明する。 Next, with reference to FIG. 10, the operation of the image processing device 10 according to this embodiment will be described.

図10は、本実施形態に係る画像処理プログラム15Aによる処理の流れの一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the flow of processing by the image processing program 15A according to the present embodiment.

まず、画像処理装置10に対して、ユーザによりマルチクロップスキャン処理の開始が指示されると、画像処理プログラム15Aが起動され、以下の各ステップを実行する。 First, when a user instructs the image processing apparatus 10 to start multi-crop scan processing, the image processing program 15A is activated and executes the following steps.

図10のステップ100では、CPU11が、一例として、上述の図4に示すように、複数の原稿を読み取って得られた読取画像から、複数の領域を検出する。 In step 100 of FIG. 10, the CPU 11 detects a plurality of areas from read images obtained by reading a plurality of documents, as shown in FIG. 4 described above, for example.

ステップ101では、CPU11が、ステップ100で検出した複数の領域から1つの領域を特定する。 In step 101, the CPU 11 identifies one area from the plurality of areas detected in step 100.

ステップ102では、CPU11が、一例として、上述の図5(A)及び図5(B)に示すように、ステップ101で特定した領域と他の領域との間の直線距離da(gi,gj)を導出する。具体的には、上述の式(1)を用いて、2つの領域の組み合わせ毎に直線距離da(gi,gj)を導出する。 In step 102, the CPU 11 calculates, for example, the straight-line distance da(gi, gj) between the area specified in step 101 and another area, as shown in FIGS. 5(A) and 5(B) described above. Derive. Specifically, the straight-line distance da (gi, gj) is derived for each combination of two regions using the above equation (1).

ステップ103では、CPU11が、一例として、上述の図6(A)及び図6(B)に示すように、ステップ101で特定した領域と他の領域との間の隙間部分の面積である隙間面積dh(gi,gj)を導出する。具体的には、上述の式(2)を用いて、2つの領域の組み合わせ毎に隙間面積dh(gi,gj)を導出する。 In step 103, the CPU 11 determines, for example, the gap area, which is the area of the gap between the area identified in step 101 and another area, as shown in FIGS. 6(A) and 6(B) above. Derive dh(gi, gj). Specifically, the gap area dh (gi, gj) is derived for each combination of two regions using the above equation (2).

ステップ104では、CPU11が、全領域について直線距離da(gi,gj)及び隙間面積dh(gi,gj)の導出が終了したか否かを判定する。全領域について直線距離da(gi,gj)及び隙間面積dh(gi,gj)の導出が終了したと判定した場合(肯定判定の場合)、ステップ105に移行し、全領域について直線距離及び隙間面積の導出が終了していないと判定した場合(否定判定の場合)、ステップ101に戻り処理を繰り返す。 In step 104, the CPU 11 determines whether the derivation of the straight-line distance da (gi, gj) and the gap area dh (gi, gj) for the entire area has been completed. If it is determined that the derivation of the straight-line distance da (gi, gj) and gap area dh (gi, gj) has been completed for the entire area (in the case of an affirmative determination), the process moves to step 105, and the straight-line distance and gap area dh (gi, gj) are calculated for the entire area. If it is determined that the derivation of has not been completed (in the case of a negative determination), the process returns to step 101 and repeats the process.

ステップ105では、CPU11が、一例として、上述の図7(A)及び図7(B)に示すように、所定の条件を満たす組み合わせを選択できたか否かを判定する。ここでいう所定の条件とは、領域間の直線距離da(gi,gj)が閾値以内で、かつ、領域間の隙間面積dh(gi,gj)が最小となる、という条件である。所定の条件を満たす組み合わせを選択できたと判定した場合(肯定判定の場合)、ステップ106に移行し、所定の条件を満たす組み合わせを選択できないと判定した場合(否定判定の場合)、本画像処理プログラム15Aによる処理を終了する。 In step 105, the CPU 11 determines whether or not a combination satisfying a predetermined condition has been selected, as shown in FIGS. 7(A) and 7(B) above, for example. The predetermined conditions here are that the straight-line distance da (gi, gj) between the regions is within a threshold value and that the gap area dh (gi, gj) between the regions is the minimum. If it is determined that a combination that satisfies the predetermined conditions could be selected (in the case of an affirmative determination), the process moves to step 106, and if it is determined that a combination that satisfies the predetermined conditions cannot be selected (in the case of a negative determination), the present image processing program 15A ends.

ステップ106では、CPU11が、ステップ105で選択した複数の組み合わせから、1つの組み合わせを特定する。 In step 106, the CPU 11 identifies one combination from the plurality of combinations selected in step 105.

ステップ107では、CPU11が、一例として、上述の図8(A)~図8(C)に示すように、ステップ106で特定した組み合わせが統合可能か否かを判定する。特定した組み合わせが統合可能であると判定した場合(肯定判定の場合)、ステップ108に移行し、特定した組み合わせが統合不可であると判定した場合(否定判定の場合)、ステップ106に戻り処理を繰り返す。 In step 107, the CPU 11 determines whether the combination specified in step 106 can be integrated, as shown in FIGS. 8(A) to 8(C) above, for example. If it is determined that the identified combination can be integrated (in the case of a positive determination), the process moves to step 108, and if it is determined that the specified combination cannot be integrated (in the case of a negative determination), the process returns to step 106. repeat.

ステップ108では、CPU11が、一例として、上述の図9に示すように、ステップ107で統合可能と判定した組み合わせについて統合処理を行い、直線距離da(gi,gj)及び隙間面積dh(gi,gj)を再計算する。 In step 108, the CPU 11 performs an integration process on the combinations determined to be able to be integrated in step 107, as shown in FIG. ) is recalculated.

ステップ109では、CPU11が、全ての組み合わせについて統合判定が終了したか否かを判定する。全ての組み合わせについて統合判定が終了していないと判定した場合(否定判定の場合)、ステップ106に戻り処理を繰り返し、全ての組み合わせについて統合判定が終了したと判定した場合(肯定判定の場合)、本画像処理プログラム15Aによる一連の処理を終了する。 In step 109, the CPU 11 determines whether the integrated determination has been completed for all combinations. If it is determined that the integrated determination has not been completed for all the combinations (in the case of a negative determination), return to step 106 and repeat the process, and if it is determined that the integrated determination has been completed for all the combinations (in the case of an affirmative determination), The series of processing by the image processing program 15A ends.

このように本実施形態によれば、原稿の読取画像からエッジが抽出できない場合であっても、原稿の種類に合わせて読取画像の複数の領域が統合される。 As described above, according to the present embodiment, even if edges cannot be extracted from a read image of a document, multiple areas of the read image are integrated according to the type of document.

なお、上記各実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU: Central Processing Unit、等)や、専用のプロセッサ(例えば、GPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。 Note that in each of the above embodiments, the processor refers to a processor in a broad sense, and includes a general-purpose processor (e.g., CPU: Central Processing Unit, etc.) and a dedicated processor (e.g., GPU: Graphics Processing Unit, ASIC: Application Specific Integrated Circuit, FPGA: Field Programmable Gate Array, programmable logic device, etc.).

また、上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は、上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。 Further, the operation of the processor in each of the above embodiments may be performed not only by one processor, but also by a plurality of processors located at physically separate locations. Further, the order of each operation of the processor is not limited to the order described in each of the above embodiments, and may be changed as appropriate.

以上、実施形態に係る画像処理装置を例示して説明した。実施形態は、画像処理装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 The image processing apparatus according to the embodiment has been described above as an example. The embodiment may be in the form of a program for causing a computer to execute the functions of each unit included in the image processing apparatus. Embodiments may be in the form of a computer readable storage medium storing this program.

その他、上記実施形態で説明した画像処理装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the image processing apparatus described in the above embodiment is merely an example, and may be changed according to the situation without departing from the spirit of the invention.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Furthermore, the process flow of the program described in the above embodiment is only an example, and unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the main purpose. good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, a case has been described in which the processing according to the embodiment is realized by a software configuration using a computer by executing a program, but the present invention is not limited to this. The embodiments may be realized by, for example, a hardware configuration or a combination of a hardware configuration and a software configuration.

10 画像処理装置
11 CPU
11A 領域検出部
11B 距離導出部
11C 面積導出部
11D 組み合わせ選択部
11E 統合可否判定部
11F 統合処理部
12 ROM
13 RAM
14 I/O
15 記憶部
15A 画像処理プログラム
15B 特性情報
16 表示部
17 操作部
18 通信部
10 Image processing device 11 CPU
11A Area detection section 11B Distance derivation section 11C Area derivation section 11D Combination selection section 11E Integration possibility determination section 11F Integration processing section 12 ROM
13 RAM
14 I/O
15 Storage section 15A Image processing program 15B Characteristic information 16 Display section 17 Operation section 18 Communication section

Claims (9)

プロセッサを備え、
前記プロセッサは、
原稿を読み取って得られる読取画像から、前景らしさの特徴を有する複数の領域を検出し、
前記複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域の外縁と、他方の領域の外縁との間の直線距離を導出し、
前記2つの領域の組み合わせ毎に、前記一方の領域及び前記他方の領域を包含する予め定められた形状の領域である包含領域の面積から、前記一方の領域及び前記他方の領域が存在しない部分である隙間部分の面積を導出し、
前記複数の領域の各々について、前記直線距離が予め定められた範囲内で、かつ、前記隙間部分の面積が最小となる組み合わせを選択し
選択して得られた複数の組み合わせに対して、統合の可否を判定し、判定結果に基づいて、複数の組み合わせの各々を統合する、又は、選択して得られた複数の組み合わせに対して、統合の可否を判定することなく、複数の組み合わせの各々を統合する
画像処理装置。
Equipped with a processor,
The processor includes:
Detects multiple areas with foreground-like characteristics from the scanned image obtained by scanning the original,
For each combination of two regions obtained from the plurality of regions, derive the straight-line distance between the outer edge of one region and the outer edge of the other region,
For each combination of the two regions, from the area of the inclusion region which is a region of a predetermined shape that includes the one region and the other region, a portion where the one region and the other region do not exist. Derive the area of a certain gap,
For each of the plurality of regions, select a combination in which the straight line distance is within a predetermined range and the area of the gap is the minimum ;
For the plurality of selected combinations, it is determined whether or not they can be integrated, and based on the judgment result, each of the plurality of combinations is integrated, or for the plurality of selected combinations, An image processing device that integrates each of multiple combinations without determining whether or not they can be integrated .
前記プロセッサは、前記複数の領域の各々について選択して得られた複数の組み合わせに対して、予め定められた原稿の種類毎の特性に基づいて、統合の可否を判定する
請求項1に記載の画像処理装置。
The processor determines whether or not to integrate the plurality of combinations obtained by selecting each of the plurality of regions based on predetermined characteristics for each type of document. Image processing device.
前記特性は、原稿サイズの許容値として表され、
前記プロセッサは、前記複数の組み合わせの各々のサイズと、前記許容値とを比較する場合に、前記許容値の小さい順に比較し、比較結果に基づいて、前記複数の組み合わせの各々について統合の可否を判定する
請求項2に記載の画像処理装置。
The characteristic is expressed as a tolerance value of document size,
When comparing the size of each of the plurality of combinations with the tolerance value, the processor compares the size of each of the plurality of combinations in descending order of the tolerance value, and determines whether or not each of the plurality of combinations can be integrated based on the comparison result. The image processing device according to claim 2.
前記原稿は、複数の原稿であり、
前記プロセッサは、前記複数の原稿を配置する際の配置条件が予め定義されている場合、前記配置条件を更に用いて、前記統合の可否を判定する
請求項2又は請求項3に記載の画像処理装置。
The manuscript is a plurality of manuscripts,
The image processing according to claim 2 or 3, wherein when arrangement conditions for arranging the plurality of documents are defined in advance, the processor further uses the arrangement conditions to determine whether or not the integration is possible. Device.
前記プロセッサは、前記前景らしさの特徴を検出可能なフィルタを用いて、前記複数の領域を検出する
請求項1~請求項4のいずれか1項に記載の画像処理装置。
The image processing device according to any one of claims 1 to 4, wherein the processor detects the plurality of regions using a filter capable of detecting the foreground-likeness feature.
前記フィルタは、
n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最大輝度に置き換える膨張系フィルタと、
n×n(nは3以上の奇数)の中心画素の輝度を、中心画素を含むn×n個の画素の中の最小輝度に置き換える収縮系フィルタと、
を組み合わせたフィルタである
請求項5に記載の画像処理装置。
The filter is
an expansion filter that replaces the brightness of a central pixel of n×n (n is an odd number of 3 or more) with the maximum brightness among n×n pixels including the central pixel;
a contraction filter that replaces the brightness of an n×n center pixel (n is an odd number of 3 or more) with the minimum brightness among n×n pixels including the center pixel;
The image processing device according to claim 5, wherein the image processing device is a filter that combines the following.
前記直線距離は、前記一方の領域の外縁と、前記他方の領域の外縁との間の最小距離である
請求項1~請求項6のいずれか1項に記載の画像処理装置。
The image processing device according to any one of claims 1 to 6, wherein the straight line distance is a minimum distance between an outer edge of the one region and an outer edge of the other region.
前記包含領域の前記予め定められた形状は、前記一方の領域及び前記他方の領域の各々に外接する外接矩形である
請求項1~請求項7のいずれか1項に記載の画像処理装置。
The image processing device according to any one of claims 1 to 7, wherein the predetermined shape of the inclusion area is a circumscribed rectangle that circumscribes each of the one area and the other area.
原稿を読み取って得られる読取画像から、前景らしさの特徴を有する複数の領域を検出し、
前記複数の領域から得られる2つの領域の組み合わせ毎に、一方の領域の外縁と、他方の領域の外縁との間の直線距離を導出し、
前記2つの領域の組み合わせ毎に、前記一方の領域及び前記他方の領域を包含する予め定められた形状の領域である包含領域の面積から、前記一方の領域及び前記他方の領域が存在しない部分である隙間部分の面積を導出し、
前記複数の領域の各々について、前記直線距離が予め定められた範囲内で、かつ、前記隙間部分の面積が最小となる組み合わせを選択し
選択して得られた複数の組み合わせに対して、統合の可否を判定し、判定結果に基づいて、複数の組み合わせの各々を統合する、又は、選択して得られた複数の組み合わせに対して、統合の可否を判定することなく、複数の組み合わせの各々を統合することを、
コンピュータに実行させるための画像処理プログラム。
Detects multiple areas with foreground-like characteristics from the scanned image obtained by scanning the original,
For each combination of two regions obtained from the plurality of regions, derive the straight-line distance between the outer edge of one region and the outer edge of the other region,
For each combination of the two regions, from the area of the inclusion region which is a region of a predetermined shape that includes the one region and the other region, a portion where the one region and the other region do not exist. Derive the area of a certain gap,
For each of the plurality of regions, select a combination in which the straight line distance is within a predetermined range and the area of the gap is the minimum ;
For the plurality of selected combinations, it is determined whether or not they can be integrated, and based on the judgment result, each of the plurality of combinations is integrated, or for the plurality of selected combinations, It is possible to integrate each of multiple combinations without determining whether or not they can be integrated .
An image processing program that is executed by a computer.
JP2019229599A 2019-12-19 2019-12-19 Image processing device and image processing program Active JP7447472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019229599A JP7447472B2 (en) 2019-12-19 2019-12-19 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019229599A JP7447472B2 (en) 2019-12-19 2019-12-19 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2021096800A JP2021096800A (en) 2021-06-24
JP7447472B2 true JP7447472B2 (en) 2024-03-12

Family

ID=76432049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019229599A Active JP7447472B2 (en) 2019-12-19 2019-12-19 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7447472B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004152A (en) 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and character region extraction method, and computer program
JP2011150466A (en) 2010-01-20 2011-08-04 Fujitsu Ltd Device, program and method for recognizing character string
JP2018128825A (en) 2017-02-08 2018-08-16 富士ゼロックス株式会社 Image processing apparatus and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004152A (en) 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and character region extraction method, and computer program
JP2011150466A (en) 2010-01-20 2011-08-04 Fujitsu Ltd Device, program and method for recognizing character string
JP2018128825A (en) 2017-02-08 2018-08-16 富士ゼロックス株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2021096800A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US9179035B2 (en) Method of editing static digital combined images comprising images of multiple objects
JP4525787B2 (en) Image extraction apparatus and image extraction program
US10574839B2 (en) Image processing apparatus, method and storage medium for acquiring character information from scanned image
JP6642970B2 (en) Attention area detection device, attention area detection method, and program
CN105450900A (en) Distortion correction method and equipment for document image
US20110075932A1 (en) Image processing method and image processing apparatus for extracting heading region from image of document
JP4860574B2 (en) Character segmentation device, method and program
KR20170101125A (en) Information processing apparatus, information processing method, and storage medium
JPH11341259A (en) Inclination correction method for document image
JP2017161969A (en) Character recognition device, method, and program
JP2018128825A (en) Image processing apparatus and image processing program
JP7447472B2 (en) Image processing device and image processing program
JP5796392B2 (en) Image processing apparatus and computer program
US10192524B2 (en) Image display apparatus, image display method, and storage medium
KR101903617B1 (en) Method for editing static digital combined images comprising images of multiple objects
JP4386275B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP4420440B2 (en) Image processing apparatus, image processing method, character recognition apparatus, program, and recording medium
JP4040905B2 (en) Reduced image display device, method, program, and recording medium recording program
JP2004086436A (en) Image processor, image processing method, program, and storage medium
JP6030915B2 (en) Image rearrangement method, image rearrangement system, and image rearrangement program
JP2020198085A (en) Image processing apparatus, image processing program, and image processing method
CN101388951A (en) Image forming apparatus, image processing apparatus and wire narrowing method
JP2007295210A (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP5338586B2 (en) Image processing apparatus, image processing system, and image processing program
JP6070302B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150