JP2009071781A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2009071781A
JP2009071781A JP2007240966A JP2007240966A JP2009071781A JP 2009071781 A JP2009071781 A JP 2009071781A JP 2007240966 A JP2007240966 A JP 2007240966A JP 2007240966 A JP2007240966 A JP 2007240966A JP 2009071781 A JP2009071781 A JP 2009071781A
Authority
JP
Japan
Prior art keywords
image
unit
aggregation
image processing
aggregation format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007240966A
Other languages
Japanese (ja)
Inventor
Hiroshi Niina
博 新名
Kiyotaka Tsuchibuchi
清隆 土渕
Toshiyuki Yamada
俊之 山田
Masato Saito
真人 齊藤
Junichi Shimizu
淳一 清水
Shinzui Cho
臻瑞 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007240966A priority Critical patent/JP2009071781A/en
Publication of JP2009071781A publication Critical patent/JP2009071781A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely decompose an integrated original into each image even though there is a specific image, such as handwriting, near a boundary region of the integrated original. <P>SOLUTION: An original obtained by integrating a plurality of images is read, and a layout analyzing part 30 analyzes image regions and character regions and obtains an image for performing character recognition. A character recognizing part 32 performs character recognition about an image for performing character recognition to obtain a character recognition image whose character recognition is successful, and an integration form is determined by comparing the character recognition image with a predetermined pattern for integration form determination. In addition, an attribute data extracting part 36 extracts a non-character image existing in the boundary region of the image for performing character recognition, and an attribute data attaching part 42 attaches attribute data representing the non-character image as a page attribute. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

複数の画像を集約印刷した原稿を読み取って、集約した画像を各画像に分解して再集約する技術として、特許文献1、2に記載の技術が提案されている。   As a technique for reading a document on which a plurality of images are aggregate-printed, disassembling the aggregated images into respective images and re-aggregating, techniques disclosed in Patent Documents 1 and 2 have been proposed.

特許文献1に記載の技術では、複数枚の原稿画像を一枚の記録紙に集約して印刷した複数の集約原稿を原稿読取部によって読取り、集約原稿毎の複数枚の集約画像を取得し、集約画像間における境界(帯状の空白部及び境界線の少なくとも一方)を境界検出部によって検出して、検出した境界に基づいて、集約率判別部によって各集約原稿毎の集約率を判別し、所定の集約率で再度印刷を行うことが提案されている。   In the technique described in Patent Document 1, a plurality of aggregated documents obtained by consolidating and printing a plurality of document images on a single recording sheet are read by a document reading unit, and a plurality of aggregated images for each aggregated document are acquired. A boundary (at least one of a strip-shaped blank portion and a boundary line) between the aggregated images is detected by the boundary detection unit, and based on the detected boundary, the aggregation rate for each aggregated document is determined by the aggregation rate determination unit, and predetermined It has been proposed to print again at an aggregation rate of.

また、特許文献2に記載の技術では、集約形式の異なる原稿が混在した原稿群をスキャナで読み取る際に、必要に応じて原稿の集約形式を指定して、画像を読み取って再集約することが提案されている。
特開2004−304546号公報 特開2006−253973号公報
In the technique described in Patent Document 2, when a document group in which documents of different aggregation formats are mixed is read by a scanner, the document aggregation format is designated as necessary, and images are read and re-aggregated. Proposed.
JP 2004-304546 A Japanese Patent Laid-Open No. 2006-253974

本発明は、集約された原稿の境界領域付近に手書き等の特定画像があっても、集約された原稿を確実に各画像に分解することができる画像処理装置及び画像処理プログラムを提供することを目的とする。   The present invention provides an image processing apparatus and an image processing program capable of reliably decomposing an aggregated document into each image even if there is a specific image such as handwriting near the boundary region of the aggregated document. Objective.

上記目的を達成するために請求項1に記載の画像処理装置は、複数の画像が集約された原稿を読み取った読取結果に基づいて、複数の画像の集約形式を判定する判定手段と、前記判定手段の判定結果に基づいて、集約された複数の画像の境界領域に存在する特定画像を抽出する抽出手段と、前記抽出手段によって抽出した前記特定画像を前記読取結果から除いて、前記判定手段によって判定した集約形式に応じて前記読取結果をそれぞれの画像に分解する分解手段と、を備えることを特徴としている。   In order to achieve the above object, the image processing apparatus according to claim 1, a determination unit that determines an aggregation format of a plurality of images based on a reading result obtained by reading a document in which a plurality of images are aggregated, and the determination Extraction means for extracting a specific image existing in a boundary region of a plurality of aggregated images based on the determination result of the means; and the specific image extracted by the extraction means is excluded from the read result, and the determination means Decomposition means for decomposing the read results into respective images according to the determined aggregation format.

請求項2に記載の画像処理装置は、請求項1に記載の発明において、前記判定手段は、原稿の文字領域及び画像領域を含む構成要素を解析する解析手段と、前記解析手段によって解析した文字領域の文字を認識する文字認識手段と、を含み、文字認識手段の認識結果と、予め定めた集約形式を判定するための集約形式判定用パターンと、を比較することによって前記集約形式を判定することを特徴としている。   According to a second aspect of the present invention, in the invention according to the first aspect, the determination unit includes an analysis unit that analyzes a component including a character region and an image region of a document, and a character that is analyzed by the analysis unit. Character recognition means for recognizing characters in the region, and the aggregate format is determined by comparing the recognition result of the character recognition means with an aggregate format determination pattern for determining a predetermined aggregate format. It is characterized by that.

請求項3に記載の画像処理装置は、請求項1に記載の発明において、前記判定手段は、前記読取結果と、予め定めた集約形式を判定するための集約形式判定用パターンと、を比較することによって前記集約形式を判定することを特徴としている。   According to a third aspect of the present invention, in the invention according to the first aspect, the determination unit compares the read result with an aggregation format determination pattern for determining a predetermined aggregation format. In this case, the aggregation format is determined.

請求項4に記載の発明は、請求項2に記載の発明において、前記抽出手段は、前記解析手段によって解析した画像領域から、前記判定手段によって判定した前記集約形式における境界領域に存在する非文字画像を前記特定画像として抽出することを特徴としている。   According to a fourth aspect of the present invention, in the invention according to the second aspect, the extracting means is a non-character existing in a boundary area in the aggregate format determined by the determining means from the image area analyzed by the analyzing means. An image is extracted as the specific image.

請求項5に記載の画像処理装置は、請求項3に記載の発明において、前記抽出手段は、前記判定手段によって判定した集約形式における境界領域に存在する非背景画像を前記特定画像として抽出することを特徴としている。     According to a fifth aspect of the present invention, in the invention according to the third aspect, the extracting means extracts, as the specific image, a non-background image existing in a boundary region in the aggregate format determined by the determining means. It is characterized by.

請求項6に記載の発明は、請求項1〜5の何れか1項に記載の発明において、前記特定画像は、手書きで原稿画像に追記された画像であることを特徴としている。   The invention according to claim 6 is the invention according to any one of claims 1 to 5, wherein the specific image is an image added to a document image by handwriting.

請求項7に記載の画像処理装置は、請求項1〜6の何れか1項に記載の発明において、前記抽出手段によって抽出された特定画像を、抽出したページのページ属性データとして表示可能に付加する付加手段を更に備えることを特徴としている。   An image processing apparatus according to a seventh aspect is the invention according to any one of the first to sixth aspects, wherein the specific image extracted by the extraction unit is added so as to be displayed as page attribute data of the extracted page. It is characterized by further comprising an adding means.

請求項8に記載の画像処理装置は、請求項1〜6の何れか1項に記載の発明において、前記抽出手段によって抽出された前記特定画像を新たなページにまとめて付加する付加手段を更に備えることを特徴としている。   An image processing apparatus according to an eighth aspect of the present invention is the image processing apparatus according to any one of the first to sixth aspects, further comprising an adding unit that collectively adds the specific image extracted by the extracting unit to a new page. It is characterized by providing.

請求項9に記載の画像処理装置は、請求項1〜6の何れか1項に記載の発明において、前記分解手段によってそれぞれの画像に分解した後に、前記抽出した前記特定画像がページ領域内に含まれるように解像度を更に変換して、ページ領域内に前記特定画像を付加する付加手段を更に備えることを特徴としている。   The image processing apparatus according to claim 9 is the invention according to any one of claims 1 to 6, wherein the extracted specific image is within a page area after being decomposed into respective images by the decomposing means. The image processing apparatus further includes an adding unit that further converts the resolution so as to be included and adds the specific image in the page area.

請求項10に記載の画像処理プログラムは、コンピュータに、複数の画像が集約された原稿を読み取った読取結果に基づいて、複数の画像の集約形式を判定する判定ステップと、前記判定ステップの判定結果に基づいて、集約された複数の画像の境界領域に存在する特定画像を抽出する抽出ステップと、前記抽出ステップで抽出した前記特定画像を前記読取結果から除いて、前記判定ステップで判定した集約形式に応じて前記読取結果をそれぞれの画像に分解する分解手段と、を実行させることを特徴としている。   The image processing program according to claim 10, a determination step for determining an aggregation format of a plurality of images based on a reading result obtained by reading a document on which a plurality of images are aggregated on a computer, and a determination result of the determination step Based on the extraction step of extracting a specific image existing in the boundary region of a plurality of aggregated images, and the aggregation format determined in the determination step, excluding the specific image extracted in the extraction step from the read result And a decomposing means for decomposing the read result into respective images.

請求項1に記載の発明によれば、集約された原稿の境界領域に手書き等の特定画像があっても、集約された原稿を確実に各画像に分解することができる、という効果がある。   According to the first aspect of the present invention, there is an effect that even if there is a specific image such as handwriting in the boundary region of the aggregated documents, the aggregated documents can be reliably decomposed into each image.

請求項2に記載の発明によれば、集約形式の判定する際に、本構成を採用しない場合に比べてノイズの少ない判定を行うことができる、という効果がある。   According to the second aspect of the present invention, there is an effect that, when determining the aggregation format, it is possible to perform determination with less noise compared to a case where this configuration is not adopted.

請求項3に記載の発明によれば、本構成を採用しない場合に比べて容易に集約形式の判定が可能となる、という効果がある。   According to the third aspect of the present invention, there is an effect that it is possible to easily determine the aggregation format as compared with the case where this configuration is not adopted.

請求項4に記載の発明によれば、手書き等の特定画像を抽出することができる、という効果がある。   According to the invention described in claim 4, there is an effect that a specific image such as handwriting can be extracted.

請求項5に記載の発明によれば、手書き等の特定画像を抽出することができる、という効果がある。   According to the invention described in claim 5, there is an effect that a specific image such as handwriting can be extracted.

請求項6に記載の発明によれば、集約された画像の境界領域に追記された手書きの部分を抽出することができる、という効果がある。   According to the sixth aspect of the present invention, there is an effect that it is possible to extract a handwritten part added to the boundary region of the aggregated images.

請求項7に記載の発明によれば、抽出した特定画像を削除することなく表示することが可能となる、という効果がある。   According to the seventh aspect of the invention, there is an effect that the extracted specific image can be displayed without being deleted.

請求項8に記載の発明によれば、抽出した特定画像を削除することなく文書に付加することができる、という効果がある。   According to the invention described in claim 8, there is an effect that the extracted specific image can be added to the document without being deleted.

請求項9に記載の発明によれば、抽出した特定画像を削除することなく文書に付加することができる、という効果がある。   According to the ninth aspect of the invention, there is an effect that the extracted specific image can be added to the document without being deleted.

請求項10に記載の発明によれば、集約された原稿の境界領域に手書き等の特定画像があっても、集約された原稿を確実に各画像に分解することができる、という効果がある。   According to the invention described in claim 10, even if there is a specific image such as handwriting in the boundary region of the aggregated documents, there is an effect that the aggregated documents can be reliably decomposed into each image.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
(第1実施形態)
図1は、本発明の第1実施形態に係わる画像処理装置の概略構成を示すブロック図である。
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to the first embodiment of the present invention.

本発明の第1実施形態に係わる画像処理装置10は、複数の画像が集約された原稿を読み取って、各画像を分解して出力あるいは再集約して出力するものである。   The image processing apparatus 10 according to the first embodiment of the present invention reads a document in which a plurality of images are aggregated, decomposes each image, and outputs or re-aggregates the images.

本発明の第1実施形態に係わる画像処理装置10は、画像読取部12、メモリ14、CPU16、操作キー18、表示装置20、画像処理部22、ネットワークインタフェース24、及びハードディスク26を備えており、それぞれバス28に接続されている。   The image processing apparatus 10 according to the first embodiment of the present invention includes an image reading unit 12, a memory 14, a CPU 16, an operation key 18, a display device 20, an image processing unit 22, a network interface 24, and a hard disk 26. Each is connected to a bus 28.

画像読取部12は、原稿に光を照射してスキャンし、原稿から反射された光をミラーやレンズを通してCCDに集め、CCDで光電変換された画像信号をAD変換して、デジタル画像データに変換することによって原稿を読み取る。本実施形態では、原稿として、複数の画像が集約された原稿を読み取る。   The image reading unit 12 scans the original by irradiating light, collects the light reflected from the original through a mirror or lens, and converts the image signal photoelectrically converted by the CCD into digital image data. To read the original. In this embodiment, a document in which a plurality of images are collected is read as a document.

メモリ14は、画像読取部12によって原稿を読み取ることによって得られる画像データを一旦蓄積したり、該画像データに対する画像処理を行う際の作業領域として機能する。   The memory 14 functions as a work area when temporarily storing image data obtained by reading an original with the image reading unit 12 or performing image processing on the image data.

操作キー18は、画像読取部12による原稿の読取開始等の各種指示、画像読取部12による原稿の読み取りに関する設定や読み取ることによって得られる画像データに対する画像処理の各種設定等を行う各種ボタンを備えている。   The operation key 18 includes various buttons for performing various instructions such as starting reading of a document by the image reading unit 12, settings relating to reading of a document by the image reading unit 12, and various settings of image processing for image data obtained by reading. ing.

表示装置20は、画像処理装置10の動作状態、各種設定する際のインタフェース画面等を表示する。   The display device 20 displays an operation state of the image processing device 10, an interface screen for various settings, and the like.

画像処理部22は、画像読取部12によって原稿画像を読み取ることによって得られる画像データに対して各種画像処理を行う。詳細には、本実施形態では、複数の画像が集約された原稿を画像読取部12によって読み取ることによって得られる画像データに基づいて、原稿に集約された画像を分解して、各ページ毎に出力または再集約して出力するための画像処理を行うようになっている。   The image processing unit 22 performs various types of image processing on image data obtained by reading a document image by the image reading unit 12. Specifically, in this embodiment, based on image data obtained by reading an original on which a plurality of images are aggregated by the image reading unit 12, the image aggregated on the original is decomposed and output for each page. Alternatively, image processing for re-aggregating and outputting is performed.

ネットワークインタフェース24は、インターネットやイントラネット等の各種ネットワークに接続されており、要求に応じて画像処理装置10で処理された画像データを外部の機器等に出力する。なお、本実施形態では、ネットワークに接続される例として説明するが、これに限るものではなく、ネットワークインタフェース24は各種通信手段に接続するインタフェースを適用することができる。   The network interface 24 is connected to various networks such as the Internet and an intranet, and outputs image data processed by the image processing apparatus 10 to an external device or the like in response to a request. In the present embodiment, an example of connection to a network will be described. However, the present invention is not limited to this, and the network interface 24 may be an interface connected to various communication means.

ハードディスク26は、画像処理部22によって処理された画像データ等を記憶し、ネットワークに接続された各種機器の要求に応じて、記憶した画像データを出力するようになっている。例えば、画像処理部22によって処理された画像データをプリント出力する場合には、画像処理部22によって処理されてハードディスク26に記憶された画像データに基づく画像形成を行う機器に対して当該画像データを出力する。   The hard disk 26 stores the image data and the like processed by the image processing unit 22 and outputs the stored image data in response to requests from various devices connected to the network. For example, when printing out image data processed by the image processing unit 22, the image data is sent to a device that forms an image based on the image data processed by the image processing unit 22 and stored in the hard disk 26. Output.

CPU16は、これらの機器を制御することによって画像処理装置10の動作を制御する。例えば、操作キー18の操作状態に応じた表示を表示装置20に表示したり、操作キー18による操作指示に応じて画像読取部12による原稿画像の読み取りを制御して、画像読取部12によって得られる画像データに対する画像処理部22による画像処理を制御する。   The CPU 16 controls the operation of the image processing apparatus 10 by controlling these devices. For example, a display corresponding to the operation state of the operation key 18 is displayed on the display device 20, or reading of a document image by the image reading unit 12 is controlled according to an operation instruction by the operation key 18, and the image reading unit 12 obtains the display. The image processing by the image processing unit 22 for the image data to be processed is controlled.

図2は、本発明の第1実施形態に係わる画像処理装置10の画像処理部22の詳細な構成を示すブロック図である。   FIG. 2 is a block diagram showing a detailed configuration of the image processing unit 22 of the image processing apparatus 10 according to the first embodiment of the present invention.

本発明の第1実施形態に係わる画像処理装置10の画像処理部22は、図2に示すように、レイアウト解析部30、文字認識部32、集約形式解析部34、属性データ抽出部36、集約解除部38、解像度変換部40、属性データ付加部42、及び出力イメージデータ生成部44を備えている。   As shown in FIG. 2, the image processing unit 22 of the image processing apparatus 10 according to the first embodiment of the present invention includes a layout analysis unit 30, a character recognition unit 32, an aggregation format analysis unit 34, an attribute data extraction unit 36, an aggregation. A canceling unit 38, a resolution converting unit 40, an attribute data adding unit 42, and an output image data generating unit 44 are provided.

レイアウト解析部30は、画像読取部12によって原稿を読み取ることによって得られる画像データに基づいて、原稿の絵等の画像や文字のレイアウトを解析し、文字認識するための画像を得る。例えば、下地に対するコントラストで情報の塊を抽出したり、色調の連続性等から画像領域等を抽出したりすることによって原稿の画像や文字のレイアウトを解析して、文字認識するための画像を抽出する。なお、原稿画像の一例を図3(A)に示し、レイアウト解析部30の解析によって生成した文字認識するための画像の一例を図3(B)に示す。また、図3では、文字部分の一部を線で示す。   The layout analysis unit 30 analyzes an image such as a picture of a document and a layout of characters based on image data obtained by reading the document by the image reading unit 12, and obtains an image for character recognition. For example, by extracting a block of information with the contrast to the background or extracting an image area from the continuity of color tone, etc., the image of the document or the layout of the characters is analyzed, and an image for character recognition is extracted. To do. An example of a document image is shown in FIG. 3A, and an example of an image for character recognition generated by the analysis of the layout analysis unit 30 is shown in FIG. Moreover, in FIG. 3, a part of character part is shown with a line.

文字認識部32は、レイアウト解析部30によって解析した原稿のレイアウトを用いて既知のOCR(Optical Character Recognition)処理等を行うことによって文字認識する。例えば、文字認識部32によって文字認識に成功した文字認識画像の一例を図3(C)に示す。   The character recognition unit 32 performs character recognition by performing a known OCR (Optical Character Recognition) process or the like using the document layout analyzed by the layout analysis unit 30. For example, an example of a character recognition image that has been successfully recognized by the character recognition unit 32 is shown in FIG.

集約形式解析部34は、文字認識部32の文字認識が成功した文字認識画像(例えば、図3(B))と、予め定めた集約形式判定用パターンと、を比較することによって、集約形式を判定する。なお、文字認識画像の代りに、文字認識に成功したレイアウト要素を用いて集約形式の判定を行うこともできる。   The aggregation format analysis unit 34 compares the character recognition image (for example, FIG. 3B) that has been successfully recognized by the character recognition unit 32 with a predetermined aggregation format determination pattern, thereby determining the aggregation format. judge. It should be noted that instead of the character recognition image, it is possible to determine the aggregate format using layout elements that have been successfully recognized.

例えば、予め定めた集約形式判定用パターンは、図4に示すものを適用することができ、図4(A)は2ページ集約した画像を判定するための集約形式判定用パターンを示し、図4(B)は4ページ集約した画像を判定するための集約形式判定用パターンを示し、図4(C)は6ページ集約した画像を判定するための集約形式判定用パターンを示し、各集約形式判定用パターンと、文字認識画像と、を比較して、境界領域の一致度が高い集約形式用パターンを抽出することによって集約形式を判定することができる。   For example, as the predetermined aggregation format determination pattern, the pattern shown in FIG. 4 can be applied, and FIG. 4A shows an aggregation format determination pattern for determining an image aggregated by two pages. FIG. 4B shows an aggregation format determination pattern for determining an image aggregated by 4 pages, and FIG. 4C shows an aggregation format determination pattern for determining an image aggregated by 6 pages. The aggregate format can be determined by comparing the pattern for use with the character recognition image and extracting the pattern for aggregate format with a high degree of coincidence of the boundary regions.

属性データ抽出部36は、レイアウト解析部30の解析によって得られる文字認識するための画像(例えば、図3(B))と、文字認識部32の文字認識が成功した文字認識画像(例えば、図3(C))と、集約形式解析部34によって判定された集約形式から、集約された画像の境界領域に存在する手書きコメント等の非文字画像の塊(特定画像)を属性データとして抽出する。例えば、原稿画像が図3(A)の場合では、文字認識するための画像から、文字認識画像を除いた画像を求めて、判定された集約形式の境界領域に存在する特定画像が表す属性データを抽出する。これによって、図3の場合は、抽出した属性データが表す特定画像は図3(D)に示すようになる。   The attribute data extraction unit 36 includes an image for character recognition (for example, FIG. 3B) obtained by the analysis of the layout analysis unit 30 and a character recognition image (for example, FIG. 3 (C)), and from the aggregation format determined by the aggregation format analysis unit 34, a block (specific image) of non-character images such as handwritten comments existing in the boundary region of the aggregated images is extracted as attribute data. For example, in the case of the original image shown in FIG. 3A, the attribute data represented by the specific image existing in the determined aggregated area is obtained by obtaining an image excluding the character recognition image from the image for character recognition. To extract. Thus, in the case of FIG. 3, the specific image represented by the extracted attribute data is as shown in FIG.

集約解除部38は、集約形式解析部34の解析結果に基づいて、画像読取部12によって原稿を読み取ることによって得られる画像データから属性データ抽出部36によって抽出した属性データを除いて、集約された画像をそれぞれの画像に分解する。   Based on the analysis result of the aggregation format analysis unit 34, the aggregation cancellation unit 38 performs aggregation by excluding the attribute data extracted by the attribute data extraction unit 36 from the image data obtained by reading the document by the image reading unit 12. Decompose images into individual images.

解像度変換部40は、操作キー18等によって設定された再集約形式や解像度等に応じて、集約解除部38で解除されたそれぞれの画像の解像度を変換する。   The resolution conversion unit 40 converts the resolution of each image canceled by the aggregation cancellation unit 38 in accordance with the re-aggregation format and resolution set by the operation key 18 or the like.

属性データ付加部42は、操作キー18によって予め設定された方法に従って、属性データ抽出部36によって抽出された属性データをページ属性として付与、または新しいページとして追加する。例えば、属性データ付加部42は、属性データをまとめて新たなページとして付加するようにしてもよいし、属性データを図5に示すようにページ属性として付加するようにしてもよいし、集約解除の際に、集約された画像の分解時の境界がページ余白の内側になるように、僅かに指定された解像度よりも小さく解像度変換するようにして、境界領域の属性データが分解されたページに含まれるように属性データを付加するようにしてもよい。なお、図5は、集約された画像を分解した各ページや各ページの属性データを表示した表示画面の一例を示す。   The attribute data adding unit 42 gives the attribute data extracted by the attribute data extracting unit 36 as a page attribute or adds it as a new page according to a method preset by the operation key 18. For example, the attribute data adding unit 42 may add the attribute data together as a new page, may add the attribute data as a page attribute as shown in FIG. In this case, the attribute data of the boundary area is converted into a page that has been decomposed so that the resolution is slightly smaller than the specified resolution so that the boundary at the time of decomposition of the aggregated image is inside the page margin. You may make it add attribute data so that it may be included. FIG. 5 shows an example of a display screen that displays each page obtained by disassembling the aggregated image and attribute data of each page.

出力イメージデータ生成部44は、集約解除部38によって各ページに分解された画像データや属性データを用いて、操作キー18や外部の装置等によって設定された再集約形式に応じた再集約等を行うことによって出力イメージデータを生成する。そして、生成した出力イメージデータをハードディスク26に記憶したり、ネットワークインターフェース24を介して外部の装置へ出力したりする。   The output image data generation unit 44 uses the image data and attribute data decomposed into each page by the aggregation cancellation unit 38 to perform re-aggregation according to the re-aggregation format set by the operation key 18 or an external device. By doing so, output image data is generated. The generated output image data is stored in the hard disk 26 or output to an external device via the network interface 24.

続いて、上述のように構成された本発明の第1実施形態に係わる画像処理装置10で行われる処理について説明する。図6は、本発明の第1実施形態に係わる画像処理装置10で行われる処理の流れの一例を示すフローチャートである。なお、図6のフローチャートは、例えば、操作キー18によって再集約指示等がなされた場合に開始する。   Next, processing performed by the image processing apparatus 10 according to the first embodiment of the present invention configured as described above will be described. FIG. 6 is a flowchart showing an example of the flow of processing performed by the image processing apparatus 10 according to the first embodiment of the present invention. Note that the flowchart of FIG. 6 starts when, for example, a re-aggregation instruction is given by the operation key 18.

まず、ステップ100では、画像読取部12によって読み取られた原稿画像のレイアウトがレイアウト解析部30によって解析されて、文字領域と画像領域が判別されてステップ102へ移行する。   First, in step 100, the layout of the document image read by the image reading unit 12 is analyzed by the layout analysis unit 30, and the character area and the image area are determined, and the process proceeds to step 102.

ステップ102では、レイアウト解析部30によって解析された文字領域が抽出されて、文字認識部32によって文字認識されてステップ104へ移行する。   In step 102, the character region analyzed by the layout analysis unit 30 is extracted, and the character recognition unit 32 recognizes the character, and the process proceeds to step 104.

ステップ104では、集約形式解析部34によって、文字認識部32によって認識が成功した文字認識画像から集約形式が判定されてステップ106へ移行する。例えば、図4に示す予め定めた集約形式判定用パターンと、文字認識画像(例えば、図3(C))と、を比較して、複数の集約形式判定用パターンの中から境界領域の一致度が高いものを抽出することによって、集約形式が判定される。   In step 104, the aggregation format analysis unit 34 determines the aggregation format from the character recognition image successfully recognized by the character recognition unit 32, and the process proceeds to step 106. For example, a predetermined aggregation format determination pattern shown in FIG. 4 is compared with a character recognition image (for example, FIG. 3C), and the degree of coincidence of boundary areas among a plurality of aggregation format determination patterns The aggregation format is determined by extracting the ones with high values.

ステップ106では、集約形式解析部34によって判定された集約形式の境界領域に画像があるか否か属性データ抽出部36によって判定される。該判定は、レイアウト解析部30のレイアウト解析によって得られる文字認識するための画像(例えば、図3(B))と、文字認識部32の文字認識が成功した文字認識画像(例えば、図3(C))と、集約形式解析部34の解析結果から、集約された画像の境界領域に非文字画像があるか否かを判定し、該判定が否定された場合にはステップ108へ移行し、肯定された場合にはステップ112へ移行する。   In step 106, the attribute data extraction unit 36 determines whether there is an image in the boundary region of the aggregation format determined by the aggregation format analysis unit 34. The determination is made by using an image for character recognition (for example, FIG. 3B) obtained by layout analysis of the layout analysis unit 30 and a character recognition image for which character recognition by the character recognition unit 32 is successful (for example, FIG. C)) and from the analysis result of the aggregation format analysis unit 34, it is determined whether or not there is a non-character image in the boundary region of the aggregated image. If the determination is negative, the process proceeds to step 108. If the determination is affirmative, the routine proceeds to step 112.

ステップ108では、集約解除部38によって、集約形式解析部34によって判定された集約形式に従って集約が解除されてステップ110へ移行する。   In step 108, the aggregation cancellation unit 38 cancels the aggregation according to the aggregation format determined by the aggregation format analysis unit 34, and the process proceeds to step 110.

ステップ110では、解像度変換部40によって、集約解除された各画像の解像度が操作キー18等によって設定された解像度に変換されてステップ120へ移行する。   In step 110, the resolution conversion unit 40 converts the resolution of each image that has been canceled to the resolution set by the operation key 18 or the like, and the process proceeds to step 120.

一方、ステップ112では、境界領域に存在する非文字画像が属性データ抽出部36によって抽出されてステップ114へ移行する。   On the other hand, in step 112, the non-character image existing in the boundary region is extracted by the attribute data extraction unit 36, and the process proceeds to step 114.

ステップ114では、集約解除部38によって、属性データ抽出部36で抽出された非文字画像を表す属性データが除かれて、集約形式解析部40によって判定された集約形式に従って集約が解除されてステップ116へ移行する。   In step 114, attribute data representing the non-character image extracted by the attribute data extraction unit 36 is removed by the aggregation cancellation unit 38, and aggregation is canceled according to the aggregation format determined by the aggregation format analysis unit 40. Migrate to

ステップ116では、解像度変換部40によって、集約解除された各画像の解像度が操作キー18等によって設定された再集約形式や解像度に応じて変換されてステップ118へ移行する。   In step 116, the resolution conversion unit 40 converts the resolution of each image that has been unaggregated according to the re-aggregation format or resolution set by the operation key 18 or the like, and the process proceeds to step 118.

ステップ118では、属性データ付加部42によって、操作キー18等による設定に応じて属性データが付加されてステップ120へ移行する。例えば、操作キー18等による設定に応じて、属性データをまとめて新たなページとして付加たり、図5に示すように、属性データをページ属性として付加したり、集約解除の際に、集約された画像の分解時の境界がページ余白の内側になるように、僅かに指定された解像度よりも小さく解像度変換するようにして、境界領域の属性データが分解されたページに含まれるように属性データを付加したりする。なお、図5に示すようにページ属性として属性データを付加する場合や、境界領域の属性データが分解されたページに含まれるように属性データを付加する場合、属性データ抽出部36によって属性データを抽出する際に、境界領域の非文字画像の塊が近い方のページの属性として付加する。   In step 118, attribute data is added by the attribute data adding unit 42 according to the setting by the operation key 18 or the like, and the process proceeds to step 120. For example, according to the setting by the operation key 18 or the like, the attribute data is added together as a new page, or the attribute data is added as a page attribute as shown in FIG. The resolution data is converted so that the resolution is slightly smaller than the specified resolution so that the boundary when the image is decomposed is inside the page margin, so that the attribute data of the boundary area is included in the decomposed page. Or add. In addition, when attribute data is added as a page attribute as shown in FIG. 5 or when attribute data is added so that the attribute data of the boundary region is included in the decomposed page, the attribute data is extracted by the attribute data extraction unit 36. At the time of extraction, it is added as an attribute of the page with the closest non-character image block in the boundary area.

ステップ120では、集約解除されて各ページに分解された画像データや属性データを用いて、操作キー18や外部の装置等によって設定された再集約形式に応じた再集約等を行うことによって出力イメージデータが出力イメージデータ生成部44によって生成されて、ハードディスク26に記憶されてたり、ネットワークインタフェース24等を介して外部の装置へ出力されて、一連の処理を終了する。   In step 120, the output image is obtained by performing re-aggregation or the like according to the re-aggregation format set by the operation key 18 or an external device or the like using the image data and attribute data that has been de-aggregated and decomposed into each page. Data is generated by the output image data generation unit 44 and stored in the hard disk 26 or output to an external device via the network interface 24 or the like, and the series of processing ends.

すなわち、本実施形態では、図3(A)に示すように、複数の画像が集約された原稿を読み取ってレイアウト解析部30により画像領域と文字領域が解析されて、図3(B)に示すような文字認識するための画像を得られる。そして、文字認識部32により文字認識するための画像について文字認識することで、図3(C)に示すように文字認識に成功した文字認識画像が得られる。この文字認識画像には集約形式判定のノイズとなる境界領域に存在する非文字画像が含まれていないので、この文字認識画像と予め定めた集約形式判定用パターンとを比較することで確実に原稿の集約形式が判定される。   That is, in the present embodiment, as shown in FIG. 3A, a document in which a plurality of images are aggregated is read and the image area and the character area are analyzed by the layout analysis unit 30 and shown in FIG. Such an image for character recognition can be obtained. Then, by performing character recognition on the image for character recognition by the character recognition unit 32, a character recognition image that has been successfully recognized as shown in FIG. 3C is obtained. Since this character recognition image does not include a non-character image that exists in the boundary area that causes noise in the aggregate format determination, the character recognition image is reliably compared with a predetermined aggregate format determination pattern. The aggregation form is determined.

また、集約形式が判定されると、属性データ抽出部36では、図3(B)に示すような文字認識するための画像の境界領域に存在する非文字画像が抽出される。そして、該非文字画像を表す属性データが属性データ付加部42によってページの属性として付加されるので、境界領域に追記されたコメント等の特定画像が削除されずに、集約された画像が分解される。
(第2実施形態)
続いて、本発明の第2実施形態に係わる画像処理装置について説明する。なお、第2実施形態では、画像処理部の構成が第1実施形態と異なり、他の構成は同一であるため差異のみを説明する。
When the aggregation format is determined, the attribute data extraction unit 36 extracts a non-character image existing in the boundary region of the image for character recognition as shown in FIG. Since the attribute data representing the non-character image is added as a page attribute by the attribute data adding unit 42, the aggregated image is decomposed without deleting a specific image such as a comment added to the boundary region. .
(Second Embodiment)
Next, an image processing apparatus according to the second embodiment of the present invention will be described. In the second embodiment, the configuration of the image processing unit is different from that of the first embodiment, and the other configurations are the same, so only the differences will be described.

図7は、本発明の第2実施形態に係わる画像処理装置の画像処理部の詳細な構成を示すブロック図である。なお、第1実施形態と同一機能構成のものは第1実施形態と同一符号を付して説明する。   FIG. 7 is a block diagram showing a detailed configuration of the image processing unit of the image processing apparatus according to the second embodiment of the present invention. In addition, the thing of the same function structure as 1st Embodiment attaches | subjects and demonstrates the same code | symbol as 1st Embodiment.

本発明の第2実施形態に係わる画像処理装置の画像処理部は、図7に示すように、集約形式解析部46、属性データ抽出部48、集約解除部38、解像度変換部40、属性データ付加部42、及び出力イメージデータ生成部44を備えている。   As shown in FIG. 7, the image processing unit of the image processing apparatus according to the second embodiment of the present invention includes an aggregation format analysis unit 46, an attribute data extraction unit 48, an aggregation release unit 38, a resolution conversion unit 40, and attribute data addition. A unit 42 and an output image data generation unit 44.

集約形式解析部46は、画像読取部12によって原稿を読み取ることによって得られる画像データと、予め定めた集約形式判定用のパターンと、を比較することによって、集約形式を判定する。例えば、図4に示した予め定めた集約形式判定用パターンの中から境界領域の一致度が高いものを抽出することによって集約形式を判定する。   The aggregation format analysis unit 46 determines the aggregation format by comparing the image data obtained by reading the document with the image reading unit 12 and a predetermined aggregation format determination pattern. For example, the aggregation format is determined by extracting a pattern having a high degree of coincidence of the boundary areas from the predetermined aggregation format determination patterns shown in FIG.

属性データ抽出部48は、集約形式解析部46で判定された集約形式から、原稿に集約された画像の境界領域に存在する手書きコメント等の非背景画像の塊(特定画像)を属性データとして抽出する。本実施形態では、判定された集約形式の境界領域に存在する特定画像を原稿画像の中から抽出することによって属性データを抽出する。   The attribute data extraction unit 48 extracts, from the aggregation format determined by the aggregation format analysis unit 46, a non-background image block (specific image) such as a handwritten comment existing in the boundary area of the image aggregated in the document as attribute data. To do. In the present embodiment, the attribute data is extracted by extracting a specific image existing in the determined boundary region of the aggregate format from the document image.

集約解除部38は、集約形式解析部46の解析結果に基づいて、画像読取部12によって原稿を読み取ることによって得られる画像データから属性データ抽出部48によって抽出した属性データを除いて、集約された画像をそれぞれの画像に分解する。   Based on the analysis result of the aggregation format analysis unit 46, the aggregation cancellation unit 38 performs aggregation by excluding the attribute data extracted by the attribute data extraction unit 48 from the image data obtained by reading the document by the image reading unit 12. Decompose images into individual images.

解像度変換部40は、操作キー18等によって設定された再集約形式や解像度等に応じて、集約解除部38で解除されたそれぞれの画像の解像度を変換する。   The resolution conversion unit 40 converts the resolution of each image canceled by the aggregation cancellation unit 38 in accordance with the re-aggregation format and resolution set by the operation key 18 or the like.

属性データ付加部42は、操作キー18によって予め設定された方法に従って、属性データ抽出部48によって抽出された属性データをページ属性として付与、または新しいページとして追加する。例えば、属性データ付加部42は、属性データをまとめて新たなページとして付加するようにしてもよいし、属性データを図5に示したようにページ属性として付加するようにしてもよいし、集約解除の際に、集約された画像の分解時の境界がページ余白の内側になるように、僅かに指定された解像度よりも小さく解像度変換するようにして、境界領域の属性データが分解されたページに含まれるように属性データを付加するようにしてもよい。なお、図5は、集約された画像を分解した各ページや各ページの属性データを表示した表示画面の一例を示す。   The attribute data adding unit 42 gives the attribute data extracted by the attribute data extracting unit 48 as a page attribute or adds it as a new page according to a method preset by the operation key 18. For example, the attribute data adding unit 42 may add the attribute data together as a new page, may add the attribute data as a page attribute as shown in FIG. The page where the attribute data of the boundary area is decomposed so that the resolution is slightly smaller than the specified resolution so that the boundary when decomposing the aggregated image is inside the page margin when canceling The attribute data may be added so as to be included in. FIG. 5 shows an example of a display screen that displays each page obtained by disassembling the aggregated image and attribute data of each page.

出力イメージデータ生成部44は、集約解除部38によって各ページに分解された画像データや属性データを用いて、操作キー18や外部の装置等によって設定された再集約形式に応じた再集約等を行うことによって出力イメージデータを生成する。そして、生成した出力イメージデータをハードディスク26に記憶したり、ネットワークインターフェース24を介して外部の装置へ出力したりする。   The output image data generation unit 44 uses the image data and attribute data decomposed into each page by the aggregation cancellation unit 38 to perform re-aggregation according to the re-aggregation format set by the operation key 18 or an external device. By doing so, output image data is generated. The generated output image data is stored in the hard disk 26 or output to an external device via the network interface 24.

続いて、上述のように構成された本発明の第2実施形態に係わる画像処理装置で行われる処理について説明する。図8は、本発明の第2実施形態に係わる画像処理装置で行われる処理の流れの一例を示すフローチャートである。なお、図8のフローチャートは、例えば、操作キー18によって再集約指示等がなされた場合に開始する。   Next, processing performed by the image processing apparatus according to the second embodiment of the present invention configured as described above will be described. FIG. 8 is a flowchart showing an example of the flow of processing performed by the image processing apparatus according to the second embodiment of the present invention. Note that the flowchart of FIG. 8 starts when, for example, a re-aggregation instruction is given by the operation key 18.

まず、ステップ200では、画像読取部12によって読み取られた原稿画像の集約形式が集約形式解析部46によって判定されてステップ202へ移行する。すなわち、画像読取部12によって原稿を読み取ることによって得られる画像データと、予め定めた集約形式判定用のパターン(例えば、図4に示した集約形式判定用パターン)と、を比較することによって、集約形式が判定される。   First, in step 200, the aggregation format of the document images read by the image reading unit 12 is determined by the aggregation format analysis unit 46, and the process proceeds to step 202. In other words, the image data obtained by reading the document by the image reading unit 12 is compared with a predetermined aggregation format determination pattern (for example, the aggregation format determination pattern shown in FIG. 4) to perform aggregation. The format is determined.

ステップ202では、集約形式解析部46によって判定された集約形式の境界領域に画像があるか否か属性データ抽出部48によって判定される。該判定は、判定された集約形式に対応する原稿画像の境界領域に非背景画像があるか否かを判定し、該判定が否定された場合にはステップ204へ移行し、肯定された場合にはステップ208へ移行する。   In step 202, the attribute data extraction unit 48 determines whether or not there is an image in the boundary region of the aggregation format determined by the aggregation format analysis unit 46. In this determination, it is determined whether or not there is a non-background image in the boundary area of the document image corresponding to the determined aggregation format. If the determination is negative, the process proceeds to step 204. Goes to Step 208.

ステップ204では、集約解除部38によって、集約形式解析部46によって判定された集約形式に従って集約が解除されてステップ206へ移行する。   In step 204, the aggregation cancellation unit 38 cancels the aggregation according to the aggregation format determined by the aggregation format analysis unit 46, and the process proceeds to step 206.

ステップ206では、解像度変換部40によって、集約解除された各画像の解像度が操作キー18等によって設定された再集約形式や解像度に応じて変換されてステップ216へ移行する。   In step 206, the resolution of each image whose aggregation has been canceled is converted by the resolution conversion unit 40 according to the re-aggregation format or resolution set by the operation key 18 or the like, and the process proceeds to step 216.

一方、ステップ208では、境界領域に存在する非背景画像が属性データ抽出部48によって抽出されてステップ210へ移行する。   On the other hand, in step 208, the non-background image existing in the boundary region is extracted by the attribute data extraction unit 48, and the process proceeds to step 210.

ステップ210では、集約解除部38によって、属性データ抽出部48で抽出された属性データが除かれて、集約形式解析部46によって判定された集約形式に従って集約が解除されてステップ212へ移行する。   In step 210, the attribute data extracted by the attribute data extraction unit 48 is removed by the aggregation cancellation unit 38, the aggregation is canceled according to the aggregation format determined by the aggregation format analysis unit 46, and the process proceeds to step 212.

ステップ212では、解像度変換部40によって、集約解除された各画像の解像度が操作キー18等によって設定された解像度に変換されてステップ214へ移行する。   In step 212, the resolution conversion unit 40 converts the resolution of each image that has been canceled to the resolution set by the operation key 18 or the like, and the process proceeds to step 214.

ステップ214では、属性データ付加部42によって、操作キー18等による設定に応じて属性データが付加されてステップ216へ移行する。例えば、操作キー18等による設定に応じて、属性データをまとめて新たなページとして付加たり、図5に示したように、属性データをページ属性として付加したり、集約解除の際に、集約された画像の分解時の境界がページ余白の内側になるように、僅かに指定された解像度よりも小さく解像度変換するようにして、境界領域の属性データが分解されたページに含まれるように属性データを付加したりする。なお、図5に示すようにページ属性として属性データを付加する場合や、境界領域の属性データが分解されたページに含まれるように属性データを付加する場合、属性データ抽出部48によって属性データを抽出する際に、境界領域の非背景画像の塊が近い方のページの属性として付加する。   In step 214, attribute data is added by the attribute data adding unit 42 according to the setting by the operation key 18 or the like, and the process proceeds to step 216. For example, according to the setting by the operation key 18 or the like, the attribute data is added together as a new page, or the attribute data is added as a page attribute as shown in FIG. Attribute data so that the attribute data of the boundary area is included in the decomposed page by converting the resolution slightly smaller than the specified resolution so that the boundary when the image is decomposed is inside the page margin. Or add. In addition, when attribute data is added as a page attribute as shown in FIG. 5 or when attribute data is added so that the attribute data of the boundary region is included in the decomposed page, the attribute data is extracted by the attribute data extraction unit 48. At the time of extraction, it is added as an attribute of the page with the closest non-background image block in the boundary region.

ステップ216では、集約解除されて各ページに分解された画像データや属性データに基づいて、操作キー18や外部の装置等によって設定された再集約形式等に応じた再集約等を行った出力イメージデータが出力イメージデータ生成部44によって生成されて、ハードディスク26に記憶されてたり、ネットワークインタフェース24等を介して外部の装置へ出力されて、一連の処理を終了する。   In step 216, based on the image data and attribute data that have been de-aggregated and decomposed into each page, an output image that has been re-aggregated according to the re-aggregation format set by the operation key 18 or an external device, etc. Data is generated by the output image data generation unit 44 and stored in the hard disk 26 or output to an external device via the network interface 24 or the like, and the series of processing ends.

すなわち、本実施形態では、複数の画像が集約された原稿を読み取って、予め定めた集約形式判定用パターンと比較することで集約形式が判定される。これによって第1実施形態よりも集約形式判定時のノイズは大きいものの集約形式の判定が確実に行われる。   That is, in the present embodiment, an aggregate format is determined by reading a document in which a plurality of images are aggregated and comparing the document with a predetermined aggregation format determination pattern. Thus, although the noise at the time of determining the aggregation format is larger than that in the first embodiment, the determination of the aggregation format is performed reliably.

また、集約形式が判定されると、属性データ抽出部48では、境界領域に存在する非背景画像が抽出される。そして、該非背景画像を表す属性データが属性データ付加部42によって第1実施形態と同様に、ページの属性として付加されるので、境界領域に追記されたコメント等の特定画像が削除されずに、集約された画像が確実に分解される。   When the aggregation format is determined, the attribute data extraction unit 48 extracts a non-background image existing in the boundary area. Then, the attribute data representing the non-background image is added as an attribute of the page by the attribute data adding unit 42 as in the first embodiment, so that a specific image such as a comment added to the boundary region is not deleted, Aggregated images are reliably decomposed.

なお、上記の各実施形態における画像処理部は、ハードウエア構成として説明したが、これに限るものではなく、画像処理部の機能をCPUに実行させるプログラムとしてもよい。   The image processing unit in each of the above embodiments has been described as a hardware configuration, but is not limited thereto, and may be a program that causes the CPU to execute the function of the image processing unit.

本発明の第1実施形態に係わる画像処理装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1実施形態に係わる画像処理装置の画像処理部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image processing part of the image processing apparatus concerning 1st Embodiment of this invention. (A)は原稿画像の一例を示す図であり、(B)はレイアウト解析部の解析によって生成した文字認識するための画像の一例を示す図であり、(C)は文字認識部によって文字認識に成功した文字認識画像を示す図であり、(D)は抽出した属性データの一例を示す図である。(A) is a figure which shows an example of a manuscript image, (B) is a figure which shows an example of the image for character recognition produced | generated by the analysis of a layout analysis part, (C) is character recognition by a character recognition part. (D) is a figure which shows an example of the extracted attribute data. (A)は2ページ集約した画像を判定するための集約形式判定用パターンを示す図であり、(B)は4ページ集約した画像を判定するための集約形式判定用パターンを示す図であり、(C)は6ページ集約した画像を判定するための集約形式判定用パターンを示す図である。(A) is a diagram showing an aggregation format determination pattern for determining an image aggregated by two pages, (B) is a diagram showing an aggregation format determination pattern for determining an image aggregated by four pages, (C) is a diagram showing an aggregation format determination pattern for determining an image in which six pages are aggregated. 集約された画像を分解した各ページや各ページの属性データを表示した表示画面の一例を示す図である。It is a figure which shows an example of the display screen which displayed each page which decomposed | disassembled the aggregated image, and the attribute data of each page. 本発明の第1実施形態に係わる画像処理装置で行われる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed with the image processing apparatus concerning 1st Embodiment of this invention. 本発明の第2実施形態に係わる画像処理装置の画像処理部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image processing part of the image processing apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係わる画像処理装置で行われる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed with the image processing apparatus concerning 2nd Embodiment of this invention.

符号の説明Explanation of symbols

10 画像処理装置
12 画像読取部
22 画像処理部
30 レイアウト解析部
32 文字認識部
34、46 集約形式解析部
36、48 属性データ抽出部
38 集約解除部
40 解像度変換部
42 属性データ付加部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 12 Image reading part 22 Image processing part 30 Layout analysis part 32 Character recognition part 34,46 Aggregation format analysis part 36,48 Attribute data extraction part 38 Aggregation release part 40 Resolution conversion part 42 Attribute data addition part

Claims (10)

複数の画像が集約された原稿を読み取った読取結果に基づいて、複数の画像の集約形式を判定する判定手段と、
前記判定手段の判定結果に基づいて、集約された複数の画像の境界領域に存在する特定画像を抽出する抽出手段と、
前記抽出手段によって抽出した前記特定画像を前記読取結果から除いて、前記判定手段によって判定した集約形式に応じて前記読取結果をそれぞれの画像に分解する分解手段と、
を備えた画像処理装置。
Determination means for determining an aggregation format of a plurality of images based on a reading result obtained by reading a document in which a plurality of images are aggregated;
Extraction means for extracting a specific image existing in the boundary region of the aggregated images based on the determination result of the determination means;
A decomposing unit that removes the specific image extracted by the extracting unit from the reading result, and decomposes the reading result into respective images according to the aggregation format determined by the determining unit;
An image processing apparatus.
前記判定手段は、原稿の文字領域及び画像領域を含む構成要素を解析する解析手段と、前記解析手段によって解析した文字領域の文字を認識する文字認識手段と、を含み、文字認識手段の認識結果と、予め定めた集約形式を判定するための集約形式判定用パターンと、を比較することによって前記集約形式を判定することを特徴とする請求項1に記載の画像処理装置。   The determination unit includes an analysis unit that analyzes a component including a character region and an image region of a document, and a character recognition unit that recognizes a character in the character region analyzed by the analysis unit, and the recognition result of the character recognition unit The image processing apparatus according to claim 1, wherein the aggregation format is determined by comparing an aggregation format determination pattern for determining a predetermined aggregation format. 前記判定手段は、前記読取結果と、予め定めた集約形式を判定するための集約形式判定用パターンと、を比較することによって前記集約形式を判定することを特徴とする請求項1に記載の画像処理装置。   The image according to claim 1, wherein the determination unit determines the aggregation format by comparing the read result with an aggregation format determination pattern for determining a predetermined aggregation format. Processing equipment. 前記抽出手段は、前記解析手段によって解析した画像領域から、前記判定手段によって判定した前記集約形式における境界領域に存在する非文字画像を前記特定画像として抽出することを特徴とする請求項2に記載の画像処理装置。   The extraction unit extracts a non-character image existing in a boundary region in the aggregation format determined by the determination unit as the specific image from the image region analyzed by the analysis unit. Image processing apparatus. 前記抽出手段は、前記判定手段によって判定した集約形式における境界領域に存在する非背景画像を前記特定画像として抽出することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the extraction unit extracts, as the specific image, a non-background image existing in a boundary region in the aggregation format determined by the determination unit. 前記特定画像は、手書きで原稿に追記された画像であることを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specific image is an image that is handwritten on a document. 前記抽出手段によって抽出された特定画像を、抽出したページのページ属性データとして表示可能に付加する付加手段を更に備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an adding unit that adds the specific image extracted by the extracting unit so as to be displayed as page attribute data of the extracted page. . 前記抽出手段によって抽出された前記特定画像を新たなページにまとめて付加する付加手段を更に備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an adding unit that collectively adds the specific images extracted by the extracting unit to a new page. 前記分解手段によってそれぞれの画像に分解した後に、前記抽出した前記特定画像がページ領域内に含まれるように解像度を更に変換して、ページ領域内に前記特定画像を付加する付加手段を更に備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。   And further comprising an adding means for further converting the resolution so that the extracted specific image is included in the page area after adding the specific image into the page area after being decomposed into the respective images by the decomposing means. The image processing apparatus according to claim 1, wherein: コンピュータに、
複数の画像が集約された原稿を読み取った読取結果に基づいて、複数の画像の集約形式を判定する判定ステップと、
前記判定ステップの判定結果に基づいて、集約された複数の画像の境界領域に存在する特定画像を抽出する抽出ステップと、
前記抽出ステップで抽出した前記特定画像を前記読取結果から除いて、前記判定ステップで判定した集約形式に応じて前記読取結果をそれぞれの画像に分解する分解手段と、
を実行させるための画像処理プログラム。
On the computer,
A determination step of determining an aggregation format of a plurality of images based on a reading result obtained by reading a document in which a plurality of images are aggregated;
Based on the determination result of the determination step, an extraction step of extracting a specific image existing in the boundary region of the aggregated images;
Decomposing means for excluding the specific image extracted in the extraction step from the reading result, and decomposing the reading result into respective images according to the aggregation format determined in the determining step;
An image processing program for executing
JP2007240966A 2007-09-18 2007-09-18 Image processor and image processing program Pending JP2009071781A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007240966A JP2009071781A (en) 2007-09-18 2007-09-18 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007240966A JP2009071781A (en) 2007-09-18 2007-09-18 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2009071781A true JP2009071781A (en) 2009-04-02

Family

ID=40607546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007240966A Pending JP2009071781A (en) 2007-09-18 2007-09-18 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2009071781A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118780A (en) * 2010-12-01 2012-06-21 Konica Minolta Business Technologies Inc Image processing apparatus, image processing method, and image processing program
CN104113656A (en) * 2010-10-25 2014-10-22 柯尼卡美能达商用科技株式会社 Data Processing Device And Data Processing Metho

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104113656A (en) * 2010-10-25 2014-10-22 柯尼卡美能达商用科技株式会社 Data Processing Device And Data Processing Metho
JP2012118780A (en) * 2010-12-01 2012-06-21 Konica Minolta Business Technologies Inc Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
EP2333655A2 (en) Printed matter examination apparatus, a printed matter examination method, a storage medium, and a printed matter examination system
JP4903034B2 (en) Image processing apparatus, image processing method, and computer program
JP5121599B2 (en) Image processing apparatus, image processing method, program thereof, and storage medium
JP6323437B2 (en) 10-finger fingerprint card input device, 10-finger fingerprint card input method, and storage medium
US20060285748A1 (en) Document processing device
JP2006243943A (en) Image processing apparatus and its method
JP2001358925A (en) Unit and method for image processing and recording medium
AU2006235826B2 (en) Image processing device, image processing method, and storage medium storing image processing program
JP2001319240A (en) Device and method for recognizing image, and computer- readable recording medium with image recognizing program recorded thereon
JP2003152995A (en) Image processing device
JP2007004621A (en) Document management supporting device, and document management supporting method and program
JP5049922B2 (en) Image processing apparatus and image processing method
US10887491B2 (en) Image processing apparatus for processing of highlighted regions
JP2009071781A (en) Image processor and image processing program
JP2006279107A (en) Image processor and processing method
CN111753850A (en) Document processing method and device, computer equipment and computer readable storage medium
US11496644B2 (en) Image processing system and non-transitory computer-readable recording medium having stored thereon image processing program
JP2012049860A (en) Image processor, image processing method and program
JP2009026075A (en) Image processing device
JP5821994B2 (en) Image processing apparatus, image forming apparatus, and program
JP2013090262A (en) Document character difference detection device
JP2008244545A (en) Image processor
US8542931B2 (en) Ruled line extraction technique based on comparision results and indentifying noise based on line thickness
JP2008193234A (en) Image processor, control method of image processor and control program of image processor
JP2006048245A (en) Image processor, image forming apparatus, processed document search method, processed document search program and recording medium