JP4665522B2 - Image data processing device - Google Patents

Image data processing device Download PDF

Info

Publication number
JP4665522B2
JP4665522B2 JP2005011541A JP2005011541A JP4665522B2 JP 4665522 B2 JP4665522 B2 JP 4665522B2 JP 2005011541 A JP2005011541 A JP 2005011541A JP 2005011541 A JP2005011541 A JP 2005011541A JP 4665522 B2 JP4665522 B2 JP 4665522B2
Authority
JP
Japan
Prior art keywords
image
common
common image
image data
scanning direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005011541A
Other languages
Japanese (ja)
Other versions
JP2006203429A (en
Inventor
あゆみ 大西
伸夫 井上
稔 袖浦
昌孝 神谷
貞夫 古尾谷
淳二 神成
記央 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2005011541A priority Critical patent/JP4665522B2/en
Publication of JP2006203429A publication Critical patent/JP2006203429A/en
Application granted granted Critical
Publication of JP4665522B2 publication Critical patent/JP4665522B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

この発明は、スキャナー等の画像読取装置により読み取られるなどにして入力された原稿の画像データを処理する画像データ処理装置に関し、特に、同一のフォームを持った複数ページからなる原稿などの入力画像データに対して、共通画像と非共通画像を分離することにより効率よくデータベース化することが可能な画像データ処理装置に関するものである。   The present invention relates to an image data processing apparatus that processes image data of a document input by being read by an image reading apparatus such as a scanner, and more particularly, input image data such as a document consisting of a plurality of pages having the same form. On the other hand, the present invention relates to an image data processing apparatus capable of efficiently creating a database by separating a common image and a non-common image.

特開2002−27228号公報JP 2002-27228 A 特開平9−106450号公報JP-A-9-106450

近年、企業のオフィスや役所等で取り扱われる多くの文書は、用紙にプリントやコピーされたハード文書以外に、パーソナルコンピュータ等で作成され保存された文書データや、原稿の画像をスキャナー等で読み取った文書データなど、電子化された画像データとしてやり取りされるようになってきており、ハード文書を電子化してデータベース化されるようになっている。   In recent years, many documents handled in corporate offices and public offices have scanned document data created and saved with a personal computer, etc., as well as hard documents printed or copied on paper, etc. with scanners etc. Document data and the like have been exchanged as digitized image data, and hard documents have been digitized into a database.

その際、例えば、数十ページに及ぶ紙の資料をスキャナーによって読み取ることにより、画像データに変換して保存したり転送するなどというケースも多く発生しているが、この場合には、画像データのファイルサイズが過大となって記憶装置としてのハードディスクの容量を多く消費することになる。   At that time, for example, there are many cases in which, for example, paper documents of several tens of pages are read by a scanner, converted into image data, stored, and transferred. The file size becomes excessive and consumes a large capacity of the hard disk as a storage device.

また、このような数十ページに及ぶ画像データをプリントアウトする場合や、画像データのファイルを転送する場合などには、画像データのデータ量が過大となって、当該画像データをプリントする際の読出や転送に長時間を要したり、ネットワークを混雑させる原因になるという問題点を有していた。   In addition, when printing out image data of several tens of pages or when transferring a file of image data, the amount of image data becomes excessive, and the image data is printed. It has a problem that it takes a long time to read and transfer, or causes a network congestion.

かかる問題点を解決し得る技術としては、例えば、特開2002−27228号公報や特開平9−106450号公報等に開示されたものが既に提案されている。   As techniques that can solve such problems, for example, those disclosed in Japanese Patent Application Laid-Open No. 2002-27228 and Japanese Patent Application Laid-Open No. 9-106450 have already been proposed.

上記特開2002−27228号公報に開示された技術は、プリントアウトする際に共通部分を除去して出力するように構成したものである。   The technique disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 2002-27228 is configured to remove a common portion and output when printing out.

また、上記特開平9−106450号公報に開示された技術は、ページ間で画像データ中の下地色が共通の濃度を有するものであれば、共通の下地データとなるように構成したものである。   Further, the technique disclosed in the above Japanese Patent Application Laid-Open No. 9-106450 is configured so as to be common ground data if the ground color in the image data has a common density between pages. .

しかし、これらの公報に開示された技術の場合には、複数ページからなる画像の共通部分が保存されなかったり、共通の絵柄や文字を複数のページ間にわたって共通部として認識し管理することはできないという問題点を有していた。   However, in the case of the techniques disclosed in these publications, a common part of an image composed of a plurality of pages cannot be stored, and a common pattern or character cannot be recognized and managed as a common part across a plurality of pages. It had the problem that.

上記の如く複数のページにわたるハード文書を電子化してデータベース化するためには、既にハード文書のフォーマットを電子化しておくことによって、当該電子化されたフォーマットにデータが書き込まれるため、書き込まれたデータに基づいて、データベース化することができる。   In order to digitize a hard document that spans multiple pages as described above into a database, the data is written in the digitized format by already digitizing the format of the hard document, so the written data Based on the database.

また、上記の如く複数のページにわたるハード文書を電子化してデータベース化する際に、フォーマットが電子化されていない場合には、入力されたデータをユーザが矩形状に切り出して、当該矩形状に切り出されたデータをOCR等により自動認識して、データベース化する必要がある。   In addition, when the hard document covering a plurality of pages is digitized and converted into a database as described above, if the format is not digitized, the user cuts out the input data into a rectangular shape and cuts it into the rectangular shape. It is necessary to automatically recognize the received data by OCR and create a database.

しかしながら、上記従来技術の場合には、次のような問題点を有している。すなわち、前者の場合には、予めフォーマットが電子化されていないハード文書では、データベース化することができないという問題点を有している。また、上記前者の場合には、フォーマットが電子化されていないハード文書においては、予め、ハード文書のフォーマットを電子化する必要があり、ユーザの負担が大きいという問題点をも有している。   However, the conventional technique has the following problems. That is, the former case has a problem that a hard document whose format has not been digitized in advance cannot be made into a database. In the former case, in the case of a hard document whose format is not digitized, it is necessary to digitize the format of the hard document in advance, which has a problem that the burden on the user is heavy.

また、後者の場合には、ユーザが入力されたデータを矩形状に切り出して、当該矩形状に切り出されたデータをOCR等により自動認識して、データベース化する必要があり、ユーザの工数が増加するという問題点を有している。   In the latter case, it is necessary to cut out the data input by the user into a rectangular shape, automatically recognize the data cut out in the rectangular shape by OCR or the like, and create a database, which increases the man-hours for the user. Have the problem of

さらに、上記後者の場合には、データベース化すべきハード文書が、文字データのみではなく、図形や枠体などを含んだ画像であると、文字や図形を個別に切り出す必要があり、データベース化する作業が非常に煩雑となるという問題点を有している。   Furthermore, in the latter case, if the hard document to be databased is an image that includes not only character data but also graphics and frames, it is necessary to cut out the characters and graphics individually. Has the problem of becoming very complicated.

そこで、この発明は、上記従来技術の問題点を解決するためになされたものであり、その目的とするところは、予めフォーマット化されていないハード文書等であり、図形や枠体などを含んだ画像である場合であっても、ユーザに過大な負担を強いることなく、容易にデータベース化することが可能な画像データ処理装置を提供することにある。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and its object is a hard document that has not been formatted in advance, including figures and frames. An object of the present invention is to provide an image data processing apparatus that can be easily made into a database without imposing an excessive burden on the user even if it is an image.

上記目的を達成するため、請求項1に記載された発明は、入力された複数ページからなる画像データに対して所定の処理を施す画像データ処理装置において、
前記入力された複数ページからなる画像データに基づいて、各ページに共通する共通画像と各ページ毎に異なる非共通画像を識別する画像識別手段と、
前記画像識別手段によって識別された共通画像と非共通画像のうち、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記非共通画像に、前記共通画像の属性の下に従属するように属性情報を付加する属性付加手段と、
前記属性付加手段によって同一の属性が付加された共通画像の下に従属する非共通画像を順次配列することにより、入力された複数ページにわたる画像データのデータベースを作成するデータベース作成手段とを備えたことを特徴とする画像データ処理装置である。
In order to achieve the above object, an invention described in claim 1 is an image data processing apparatus that performs predetermined processing on input image data consisting of a plurality of pages.
Image identifying means for identifying a common image common to each page and a different non-common image for each page based on the input image data consisting of a plurality of pages;
Of the common image and non-common image identified by the image identification means, a non-common image corresponding to the common image is described along the main scanning direction of the common image, or in the sub-scanning direction of the common image. Attribute adding means for adding attribute information to the non-common image so as to be subordinate to the common image , depending on whether a non-common image corresponding to the common image is described along
Database creation means for creating a database of input image data over a plurality of pages by sequentially arranging subordinate non-common images under the common image to which the same attribute is added by the attribute addition means. Is an image data processing device characterized by the above.

又、請求項2に記載された発明は、前記属性付加手段は、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記画像識別手段によって識別された共通画像に属性情報を付加する順番を、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に副走査方向を優先するか、又は、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に主走査方向を優先するかを選択することができることを特徴とする請求項1に記載の画像データ処理装置である。 Further, in the invention described in claim 2, the attribute adding means describes a non-common image corresponding to the common image along the main scanning direction of the common image, or the sub-scanning direction of the common image. The order in which the attribute information is added to the common image identified by the image identification unit is determined along the main scanning direction of the common image according to whether a non-common image corresponding to the common image is described along When a non-common image corresponding to the common image is described, priority is given to the sub-scanning direction, or a non-common image corresponding to the common image is described along the sub-scanning direction of the common image. The image data processing apparatus according to claim 1, wherein whether to give priority to the main scanning direction can be selected.

更に、請求項3に記載された発明は、前記属性付加手段は、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記画像識別手段によって識別された非共通画像に付加する属性情報を、共通画像に対して、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に主走査方向を優先するか、又は、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に副走査方向を優先するかを選択することができることを特徴とする請求項1に記載の画像データ処理装置である。 Further, in the invention described in claim 3, the attribute adding unit includes a non-common image corresponding to the common image along the main scanning direction of the common image, or a sub-scanning direction of the common image. The attribute information to be added to the non-common image identified by the image identification unit is scanned with respect to the common image according to whether a non-common image corresponding to the common image is described along the main image. When a non-common image corresponding to the common image is described along the direction, priority is given to the main scanning direction, or a non-common image corresponding to the common image is aligned along the sub-scanning direction of the common image. The image data processing apparatus according to claim 1, wherein when it is described, it is possible to select whether to give priority to the sub-scanning direction .

この発明によれば、予めフォーマット化されていないハード文書等であり、図形や枠体などを含んだ画像である場合であっても、ユーザに過大な負担を強いることなく、容易にデータベース化することが可能な画像データ処理装置を提供することができる。   According to the present invention, even a hard document or the like that has not been formatted in advance and is an image including a figure, a frame, etc., can easily be made into a database without imposing an excessive burden on the user. It is possible to provide an image data processing apparatus capable of processing the image data.

以下に、この発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

実施の形態1
図2はこの発明の実施の形態1に係る画像データ処理装置を適用した画像処理システムを示すものである。
Embodiment 1
FIG. 2 shows an image processing system to which the image data processing apparatus according to Embodiment 1 of the present invention is applied.

この画像処理システム1は、図2に示すように、例えば、画像読取装置としてのスキャナー2と、画像出力装置としてのカラー複合機3と、データベースとしてのサーバー4と、画像作成装置としてのパーソナルコンピュータ5と、これらスキャナー2やカラー複合機3、サーバー4、パーソナルコンピュータ5等を互いに通信可能に接続するLANや電話回線等からなるネットワーク6とを備えるように構成されている。なお、図中、7はスキャナー2とネットワーク6を通信可能に接続する通信モデムを示すものである。   As shown in FIG. 2, the image processing system 1 includes, for example, a scanner 2 as an image reading device, a color multifunction device 3 as an image output device, a server 4 as a database, and a personal computer as an image creation device. 5 and a network 6 including a LAN, a telephone line, and the like for connecting the scanner 2, the color multifunction peripheral 3, the server 4, the personal computer 5 and the like so as to communicate with each other. In the figure, reference numeral 7 denotes a communication modem that connects the scanner 2 and the network 6 so that they can communicate with each other.

上記スキャナー2は、複数のページからなる文書8等の画像を電子化する際に、当該複数のページからなる文書8の画像を順次読み取り、文書8の画像情報を電子化した画像データを出力するものである。このスキャナー2によって読み取られた文書8の画像データは、例えば、ネットワーク6を介して、カラー複合機3に送られ、当該カラー複合機3の内部に設けられた画像データ処理装置によって、所定の画像処理が施された後にプリントアウトされたり、画像データ処理装置によって所望の加工が施されたりするようになっている。なお、上記画像データ処理装置は、カラー複合機3に内蔵される以外に、パーソナルコンピュータ5に画像データ処理用のソフトウエアとしてインストールされ、当該パーソナルコンピュータ5自身が画像データ処理装置として機能するように構成されていても良い。   When the scanner 2 digitizes an image of the document 8 or the like composed of a plurality of pages, the scanner 2 sequentially reads the image of the document 8 composed of the plurality of pages and outputs image data obtained by digitizing the image information of the document 8. Is. The image data of the document 8 read by the scanner 2 is sent to, for example, the color multifunction device 3 via the network 6, and a predetermined image is processed by the image data processing device provided inside the color multifunction device 3. After the processing is performed, it is printed out or desired processing is performed by an image data processing apparatus. The image data processing apparatus is installed in the personal computer 5 as image data processing software in addition to being built in the color multifunction peripheral 3, so that the personal computer 5 itself functions as an image data processing apparatus. It may be configured.

また、上記カラー複合機3は、それ自身で画像読取装置としてのスキャナー9を備えており、当該スキャナー9で読み取った文書の画像を複写したり、パーソナルコンピュータ5から送られてきたり、サーバー4から読み出された画像データに基づいてプリントしたり、電話回線を介して画像データを送受信するファックスとして機能するものである。   Further, the color multifunction machine 3 is provided with a scanner 9 as an image reading device itself, and copies an image of a document read by the scanner 9, is sent from a personal computer 5, or is sent from a server 4. It functions as a fax machine that prints based on the read image data or transmits / receives image data via a telephone line.

さらに、上記サーバー4は、電子化された文書8の画像データなどをそのまま記憶したり、スキャナー2、9によって読み取られ、画像データ処理装置によって所定の画像処理が施され、データベース化されたデータなどを記憶保持するものである。   Further, the server 4 stores the image data of the digitized document 8 as it is, or is read by the scanners 2 and 9 and subjected to predetermined image processing by the image data processing device, and the data stored in the database. Is stored and retained.

図3はこの発明の実施の形態1に係る画像データ処理装置を適用した画像出力装置としてのカラー複合機を示すものである。   FIG. 3 shows a color multifunction machine as an image output apparatus to which the image data processing apparatus according to Embodiment 1 of the present invention is applied.

図3において、10はカラー複合機の本体を示すものであり、このカラー複合機の上部には、文書8を一枚ずつ分離した状態で自動的に搬送する自動原稿搬送装置(ADF)11と、当該自動原稿搬送装置11によって搬送される文書8の画像を読み取る画像入力装置(IIT)12を備えた画像読取装置としてのスキャナー9が配設されている。なお、スキャナー2も、当該スキャナー9と同様に構成されている。上記画像入力装置12は、プラテンガラス15上に載置された文書8を光源16によって照明し、文書8からの反射光像を、フルレートミラー17及びハーフレートミラー18、19及び結像レンズ20からなる縮小光学系を介してCCD等からなる画像読取素子21上に走査露光して、この画像読取素子21によって文書8の色材反射光像を所定のドット密度(例えば、16ドット/mm)で読み取るようになっている。   In FIG. 3, reference numeral 10 denotes a main body of the color multifunction peripheral, and an automatic document feeder (ADF) 11 that automatically conveys the document 8 in a state where the documents 8 are separated one by one is disposed above the color multifunction peripheral. A scanner 9 is provided as an image reading device including an image input device (IIT) 12 that reads an image of the document 8 conveyed by the automatic document conveying device 11. The scanner 2 is configured in the same manner as the scanner 9. The image input device 12 illuminates the document 8 placed on the platen glass 15 with the light source 16, and reflects the reflected light image from the document 8 from the full-rate mirror 17, the half-rate mirrors 18 and 19, and the imaging lens 20. The image reading element 21 composed of a CCD or the like is scanned and exposed through the reduction optical system, and the color material reflected light image of the document 8 is formed at a predetermined dot density (for example, 16 dots / mm) by the image reading element 21. It is supposed to read.

上記画像入力装置12によって読み取られた文書8の反射光像は、例えば、赤(R)、緑(G)、青(B)(各8bit)の3色の反射率データとして画像処理装置13(IPS)に送られ、この画像処理装置13では、文書8の画像データに対して、必要に応じて、シェーデイング補正、位置ズレ補正、明度/色空間変換、ガンマ補正、枠消し、色/移動編集等の処理を含め、後述するように所定の画像処理が施される。また、この画像処理装置13は、パーソナルコンピュータ5等から送られてくる画像データに対しても、所定の画像処理を行なうようになっている。上記画像処理装置13には、本実施の形態に係る画像データ処理装置100が組み込まれている。   The reflected light image of the document 8 read by the image input device 12 is, for example, the image processing device 13 (as the reflectance data of three colors of red (R), green (G), and blue (B) (each 8 bits). In this image processing device 13, the image data of the document 8 is subjected to shading correction, position shift correction, brightness / color space conversion, gamma correction, frame deletion, color / movement, as necessary. Predetermined image processing is performed as will be described later, including processing such as editing. The image processing apparatus 13 also performs predetermined image processing on image data sent from the personal computer 5 or the like. The image processing apparatus 13 incorporates the image data processing apparatus 100 according to the present embodiment.

そして、上記画像処理装置13で所定の画像処理が施された画像データは、同じく画像処理装置13によって、イエロー(Y)、マジェンタ(M)、シアン(C)、ブラック (K)(各8ビット)の4色の階調データに変換され、次に述べるように、イエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色の画像形成ユニット23Y、23M、23C、23Kに共通するROS(RaserOutputScanner)24に送られ、この画像露光装置としてのROS24では、所定の色の階調データに応じてレーザ光LBによる画像露光が行われる。なお、カラー画像に限らず、白黒の画像のみを形成しても勿論良い。   The image data that has been subjected to predetermined image processing by the image processing device 13 is also processed by the image processing device 13 in the same manner as yellow (Y), magenta (M), cyan (C), and black (K) (each 8 bits). ), And as described below, yellow (Y), magenta (M), cyan (C), and black (K) image forming units 23Y, 23M, 23C, and 23K. The ROS (Raster Output Scanner) 24 that is common to the ROS 24 and the ROS 24 as the image exposure apparatus performs image exposure with the laser beam LB in accordance with gradation data of a predetermined color. Of course, not only a color image but also a monochrome image may be formed.

ところで、上記カラー複合機3の内部には、図3に示すように、画像形成手段Aが配設されており、この画像形成手段Aには、イエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の4つの画像形成ユニット23Y、23M、23C、23Kが、水平方向に一定の間隔をおいて並列的に配置されている。   By the way, as shown in FIG. 3, an image forming unit A is disposed inside the color multifunction peripheral 3, and the image forming unit A includes yellow (Y), magenta (M), cyan ( C) Four image forming units 23Y, 23M, 23C, and 23K of black (K) are arranged in parallel in the horizontal direction at a constant interval.

これらの4つの画像形成ユニット23Y、23M、23C、23Kは、すべて同様に構成されており、大別して、所定の速度で回転駆動される像担持体としての感光体ドラム25と、この感光体ドラム25の表面を一様に帯電する一次帯電用の帯電ロール26と、当該感光体ドラム25の表面に所定の色に対応した画像を露光して静電潜像を形成する画像露光装置としてのROS24と、感光体ドラム25上に形成された静電潜像を所定の色のトナーで現像する現像器27と、感光体ドラム25の表面を清掃するクリーニング装置28とから構成されている。これらの感光体ドラム25と周辺に配置される画像形成部材は、一体的にユニット化されており、カラ―複合機本体10から個別に交換可能に構成されている。   These four image forming units 23Y, 23M, 23C, and 23K are all configured in the same manner, and are roughly divided into a photosensitive drum 25 as an image carrier that is rotationally driven at a predetermined speed, and the photosensitive drum. A charging roll 26 for primary charging that uniformly charges the surface of 25 and an ROS 24 as an image exposure device that exposes an image corresponding to a predetermined color on the surface of the photosensitive drum 25 to form an electrostatic latent image. And a developing device 27 that develops the electrostatic latent image formed on the photosensitive drum 25 with toner of a predetermined color, and a cleaning device 28 that cleans the surface of the photosensitive drum 25. These photosensitive drums 25 and image forming members arranged in the periphery are integrally unitized, and are configured to be individually replaceable from the color MFP main body 10.

上記ROS24は、図3に示すように、4つの画像形成ユニット23Y、23M、23C、23Kに共通に構成されており、図示しない4つの半導体レーザを各色の階調データに応じて変調して、これらの半導体レーザからレーザ光LB−Y、LB−M、LB−C、LB−Kを階調データに応じて出射するように構成されている。なお、上記ROS24は、複数の画像形成ユニット毎に個別に構成しても勿論よい。上記半導体レーザから出射されたレーザ光LB−Y、LB−M、LB−C、LB−Kは、図示しないf−θレンズを介してポリゴンミラー29に照射され、このポリゴンミラー29によって偏向走査される。上記ポリゴンミラー29によって偏向走査されたレーザ光LB−Y、LB−M、LB−C、LB−Kは、図示しない結像レンズ及び複数枚のミラーを介して、感光体ドラム25上の露光ポイントに、斜め下方から走査露光される。   As shown in FIG. 3, the ROS 24 is configured in common to the four image forming units 23Y, 23M, 23C, and 23K, and modulates four semiconductor lasers (not shown) according to gradation data of each color, Laser light beams LB-Y, LB-M, LB-C, and LB-K are emitted from these semiconductor lasers according to gradation data. Of course, the ROS 24 may be individually configured for each of a plurality of image forming units. The laser beams LB-Y, LB-M, LB-C, and LB-K emitted from the semiconductor laser are irradiated to the polygon mirror 29 through an f-θ lens (not shown), and are deflected and scanned by the polygon mirror 29. The The laser beams LB-Y, LB-M, LB-C, and LB-K deflected and scanned by the polygon mirror 29 are used as exposure points on the photosensitive drum 25 through an imaging lens (not shown) and a plurality of mirrors. Then, scanning exposure is performed obliquely from below.

上記ROS24は、図3に示すように、下方から感光体ドラム25上に画像を走査露光するものであるため、このROS24には、上方に位置する4つの画像形成ユニット23Y、23M、23C、23Kの現像器27などからトナー等が落下して、汚損される虞れを有している。そのため、ROS24は、その周囲が直方体状のフレーム30によって密閉されているとともに、当該フレーム30の上部には、4本のレーザ光LB−Y、LB−M、LB−C、LB−Kを、各画像形成ユニット23Y、23M、23C、23Kの感光体ドラム25上に露光するため、シールド部材としての透明なガラス製のウインドウ31Y、31M、31C、31Kが設けられている。   As shown in FIG. 3, the ROS 24 scans and exposes an image on the photosensitive drum 25 from below, so that the ROS 24 includes four image forming units 23Y, 23M, 23C, and 23K located above. There is a risk that toner or the like may fall from the developing device 27 and be contaminated. Therefore, the periphery of the ROS 24 is sealed by a rectangular parallelepiped frame 30, and four laser beams LB-Y, LB-M, LB-C, and LB-K are placed on the upper portion of the frame 30. Transparent glass windows 31Y, 31M, 31C, and 31K as shield members are provided for exposure on the photosensitive drums 25 of the image forming units 23Y, 23M, 23C, and 23K.

上記画像データ処理装置13からは、イエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色の画像形成ユニット23Y、23M、23C、23Kに共通して設けられたROS24に、各色の画像データが順次出力され、このROS24から画像データに応じて出射されたレーザ光LB−Y、LB−M、LB−C、LB−Kは、対応する感光体ドラム25の表面に走査露光され、静電潜像が形成される。上記感光体ドラム25上に形成された静電潜像は、現像器27Y、27M、27C、27Kによって、それぞれイエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色のトナー像として現像される。   From the image data processing device 13, the ROS 24 is provided in common for the image forming units 23Y, 23M, 23C, and 23K for each color of yellow (Y), magenta (M), cyan (C), and black (K). The image data of each color is sequentially output, and the laser beams LB-Y, LB-M, LB-C, and LB-K emitted from the ROS 24 according to the image data scan the surface of the corresponding photosensitive drum 25. Exposure is performed to form an electrostatic latent image. The electrostatic latent images formed on the photosensitive drum 25 are respectively yellow (Y), magenta (M), cyan (C), and black (K) by developing units 27Y, 27M, 27C, and 27K. Developed as a toner image.

上記各画像形成ユニット23Y、23M、23C、23Kの感光体ドラム25上に、順次形成されたイエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色のトナー像は、各画像形成ユニット23Y、23M、23C、23Kの上方にわたって配置された転写ユニット32の中間転写ベルト35上に、4つの一次転写ロール36Y、36M、36C、36Kによって多重に転写される。これらの一次転写ロール36Y、36M、36C、36Kは、各画像形成ユニット23Y、23M、23C、23Kの感光体ドラム25に対応した中間転写ベルト35の裏面側に配設されている。この実施の形態における一次転写ロール36Y、36M、36C、36Kの体積抵抗値は、105 〜108 Ωcmに抵抗調整されたものを使用している。そして、一次転写ロール36Y、36M、36C、36Kには、転写バイアス電源(図示しない)が接続されており、所定のトナー極性とは逆極性(本実施の形態では正極性)の転写バイアスが所定のタイミングで印加されるようになっている。   The yellow (Y), magenta (M), cyan (C), and black (K) toner images sequentially formed on the photosensitive drums 25 of the image forming units 23Y, 23M, 23C, and 23K are as follows. On the intermediate transfer belt 35 of the transfer unit 32 disposed over the image forming units 23Y, 23M, 23C, and 23K, the images are transferred in multiple by the four primary transfer rolls 36Y, 36M, 36C, and 36K. These primary transfer rolls 36Y, 36M, 36C, and 36K are disposed on the back side of the intermediate transfer belt 35 corresponding to the photosensitive drum 25 of each of the image forming units 23Y, 23M, 23C, and 23K. In this embodiment, the primary transfer rolls 36Y, 36M, 36C, and 36K have a volume resistance adjusted to 10 5 to 10 8 Ωcm. The primary transfer rolls 36Y, 36M, 36C, and 36K are connected to a transfer bias power source (not shown), and a transfer bias having a polarity opposite to a predetermined toner polarity (positive polarity in the present embodiment) is predetermined. It is applied at the timing.

また、上記中間転写ベルト35は、図3に示すように、ドライブロール37と、テンションロール34と、バックアップロール38との間に一定のテンションで掛け回されており、図示しない定速性に優れた専用の駆動モーターによって回転駆動されるドライブロール37により、矢印方向に所定の速度で循環駆動されるようになっている。上記中間転写ベルト35は、例えば、チャージアップを起こさないべルト素材(ゴムまたは樹脂)にて構成されている。   Further, as shown in FIG. 3, the intermediate transfer belt 35 is wound around the drive roll 37, the tension roll 34, and the backup roll 38 with a constant tension, and has excellent constant speed (not shown). A drive roll 37 that is rotated by a dedicated drive motor is circulated at a predetermined speed in the direction of the arrow. The intermediate transfer belt 35 is made of, for example, a belt material (rubber or resin) that does not cause charge-up.

上記中間転写ベルト35上に多重に転写されたイエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色のトナー像は、図3に示すように、バックアップロール38に圧接する二次転写ロール39によって、シート材としての用紙40上に二次転写され、これらの各色のトナー像が転写された用紙40は、上方に位置する定着器41へと搬送される。上記二次転写ロール39は、バックアップロール38の側方に圧接しており、下方から上方に搬送される用紙40上に、各色のトナー像を二次転写するようになっている。   The yellow (Y), magenta (M), cyan (C), and black (K) toner images transferred onto the intermediate transfer belt 35 in multiple layers are pressed against the backup roll 38 as shown in FIG. The secondary transfer roll 39 performs secondary transfer onto the paper 40 as a sheet material, and the paper 40 on which the toner images of these colors are transferred is conveyed to a fixing device 41 positioned above. The secondary transfer roll 39 is in pressure contact with the side of the backup roll 38 and is configured to secondary-transfer toner images of each color onto a sheet 40 conveyed upward from below.

上記用紙40は、カラー複合機本体10の下部に複数段配設された給紙トレイ41、42、43、44のいずれかから所定サイズのものが、フィードロール45及びリタードロール46等によって一枚ずつ分離された状態で、搬送ロール47を備えた用紙搬送路48を介して給紙される。そして、上記給紙トレイ41、42、43、44のいずれかから給紙された用紙40は、レジストロール49で一旦停止され、中間転写ベルト35上の画像と同期して、当該レジストロール49によって中間転写ベルト35の二次転写位置へと再度給紙される。   The paper 40 is a sheet of a predetermined size from any of the paper feed trays 41, 42, 43, 44 arranged in a plurality of stages at the lower part of the color MFP main body 10, and is fed by a feed roll 45, a retard roll 46, etc. In a state where they are separated one by one, the paper is fed through a paper conveyance path 48 provided with a conveyance roll 47. The paper 40 fed from any of the paper feed trays 41, 42, 43, 44 is temporarily stopped by the registration roll 49 and is synchronized with the image on the intermediate transfer belt 35 by the registration roll 49. The sheet is fed again to the secondary transfer position of the intermediate transfer belt 35.

そして、上記各色のトナー像が転写された用紙40は、図3に示すように、定着器50によって熱及び圧力で定着処理を受けた後、搬送ロール51によって、画像形成面を下にして第1の排出トレイとしてのフェイスダウントレイ52に排出するための第1の用紙搬送路53を介して、当該第1の用紙搬送路53の出口に設けられた排出ロール54によって、装置本体10の上部に設けられたフェイスダウントレイ52上に排出される。   As shown in FIG. 3, the paper 40 on which the toner images of the respective colors are transferred is subjected to a fixing process with heat and pressure by a fixing device 50, and then the image forming surface is faced down by a conveying roll 51. An upper portion of the apparatus main body 10 is discharged by a discharge roll 54 provided at an outlet of the first paper transport path 53 via a first paper transport path 53 for discharging to a face down tray 52 as a single discharge tray. It is discharged onto a face-down tray 52 provided in.

また、上記の如く画像が形成された用紙40を、画像形成面を上にして排出する場合には、図3に示すように、画像形成面を上にして第2の排出トレイとしてのフェイスアップトレイ55に排出するための第2の用紙搬送路56を介して、当該第2の用紙搬送路56の出口に設けられた排出ロール57によって、装置本体1の側部(図中、左側面)に設けられるフェイスアップトレイ55上に排出されるようになっている。   Further, when the sheet 40 on which the image is formed as described above is discharged with the image forming surface facing up, as shown in FIG. 3, the image forming surface is faced up as a second discharge tray. A discharge roller 57 provided at the outlet of the second paper transport path 56 through the second paper transport path 56 for discharging to the tray 55 causes a side portion (left side surface in the figure) of the apparatus main body 1. The paper is discharged onto a face-up tray 55 provided on the surface.

なお、上記カラー複合機3において、フルカラー等の両面コピーをとる場合には、図3に示すように、片面に画像が定着された記録用紙40を、排出ロール54によってフェイスダウントレイ52上にそのまま排出せずに、図示しない切替ゲートによって搬送方向を切り替えるとともに、排出ロール54を一旦停止させた後に逆転して、当該排出ロール54によって両面用の用紙搬送路58へと搬送する。そして、この両面用の用紙搬送路58には、当該搬送路58に沿って設けられた搬送ローラ59により、記録用紙40の表裏が反転された状態で、再度レジストロール49へと搬送され、今度は、当該記録用紙40の裏面に画像が転写・定着された後、第1の用紙搬送路53又は第2の用紙搬送路56を介して、フェイスダウントレイ52又はフェイスアップトレイ55のいずれかに排出される。   In the above-described color multifunction device 3, when full-color double-sided copying is performed, the recording paper 40 with the image fixed on one side is directly placed on the face-down tray 52 by the discharge roll 54 as shown in FIG. Without discharging, the transfer direction is switched by a switching gate (not shown), the discharge roll 54 is temporarily stopped and then reversely rotated, and the discharge roll 54 transfers the sheet to the double-sided paper transfer path 58. Then, the recording paper 40 is conveyed again to the registration roll 49 in a state where the recording paper 40 is turned upside down by the conveyance roller 59 provided along the conveyance path 58. After the image is transferred / fixed on the back surface of the recording paper 40, the image is transferred to either the face-down tray 52 or the face-up tray 55 via the first paper transport path 53 or the second paper transport path 56. Discharged.

図3中、60Y、60M、60C、60Kは、イエロー(Y)、マジェンタ(M)、シアン(C)、ブラック(K)の各色の現像器27に、所定の色のトナーを供給するトナーカートリッジをそれぞれ示している。   In FIG. 3, reference numerals 60Y, 60M, 60C, and 60K denote toner cartridges that supply toner of a predetermined color to the developing devices 27 of each color of yellow (Y), magenta (M), cyan (C), and black (K). Respectively.

図4は上記カラー複合機3の各画像形成ユニットを示すものである。   FIG. 4 shows each image forming unit of the color MFP 3.

上記イエロー色、マジェンタ色、シアン色及びブラック色の4つの画像形成ユニット23Y、23M、23C、23Kは、図4に示すように、すべて同様に構成されており、これらの4つの画像形成ユニット23Y、23M、23C、23Kでは、上述したように、それぞれイエロー色、マジェンタ色、シアン色及びブラック色のトナー像が所定のタイミングで順次形成されるように構成されている。上記各色の画像形成ユニット23Y、23M、23C、23Kは、上述したように、それぞれ感光体ドラム25を備えており、この感光体ドラム25の表面は、一次帯電用の帯電ロール26によって一様に帯電される。その後、上記感光体ドラム25の表面は、ROS24から画像データに応じて出射される画像形成用のレーザ光LBが走査露光されて、各色に対応した静電潜像が形成される。上記感光体ドラム25上に走査露光されるレーザ光LBは、当該感光体ドラム25の直下よりやや右側寄りの斜め下方から露光されるように設定されている。上記感光体ドラム25上に形成された静電潜像は、各画像形成ユニット23Y、23M、23C、23Kの現像器27の現像ロール27aによってそれぞれイエロー色、マジェンタ色、シアン色、ブラック色の各色のトナーにより現像されて可視トナー像となり、これらの可視トナー像は、一次転写ロール36の帯電によって中間転写ベルト35上に順次多重に転写される。   The four image forming units 23Y, 23M, 23C, and 23K of yellow, magenta, cyan, and black are all configured in the same manner as shown in FIG. 4, and these four image forming units 23Y. , 23M, 23C, and 23K, as described above, yellow, magenta, cyan, and black toner images are sequentially formed at predetermined timings. As described above, the image forming units 23Y, 23M, 23C, and 23K for the respective colors are each provided with the photosensitive drum 25, and the surface of the photosensitive drum 25 is uniformly formed by the charging roll 26 for primary charging. Charged. Thereafter, the surface of the photosensitive drum 25 is scanned and exposed to an image forming laser beam LB emitted from the ROS 24 according to image data, and an electrostatic latent image corresponding to each color is formed. The laser beam LB scanned and exposed on the photosensitive drum 25 is set so as to be exposed from an obliquely lower side slightly to the right side from just below the photosensitive drum 25. The electrostatic latent images formed on the photosensitive drum 25 are respectively yellow, magenta, cyan, and black by the developing rolls 27a of the developing units 27 of the image forming units 23Y, 23M, 23C, and 23K. The visible toner images are developed with the toners of the toner, and these visible toner images are sequentially transferred in multiple onto the intermediate transfer belt 35 by the charging of the primary transfer roll 36.

なお、トナー像の転写工程が終了した後の感光体ドラム25の表面は、クリーニング装置28によって残留トナーや紙粉等が除去されて、次の画像形成プロセスに備える。上記クリーニング装置28は、クリーニングブレード28aを備えており、このクリーニングブレード28aによって、感光体ドラム25上の残留トナーや紙粉等を除去するようになっている。また、トナー像の転写工程が終了した後の中間転写ベルト35の表面は、図3に示すように、クリーニング装置61によって残留トナーや紙粉等が除去されて、次の画像形成プロセスに備える。上記クリーニング装置61は、クリーニングブラシ62及びクリーニングブレード63を備えており、これらのクリーニングブラシ62及びブレード63によって、中間転写ベルト35上の残留トナーや紙粉等を除去するようになっている。   Residual toner, paper dust, and the like are removed from the surface of the photosensitive drum 25 after the toner image transfer process is completed by the cleaning device 28 to prepare for the next image forming process. The cleaning device 28 includes a cleaning blade 28a, and the cleaning blade 28a removes residual toner, paper dust, and the like on the photosensitive drum 25. Further, as shown in FIG. 3, residual toner, paper dust, and the like are removed from the surface of the intermediate transfer belt 35 after the toner image transfer process is completed, so as to prepare for the next image forming process. The cleaning device 61 includes a cleaning brush 62 and a cleaning blade 63, and residual toner and paper dust on the intermediate transfer belt 35 are removed by the cleaning brush 62 and the blade 63.

図5は、単独で配置された画像読取装置としてのスキャナー2を示すものである。   FIG. 5 shows a scanner 2 as an image reading apparatus arranged independently.

このスキャナー2は、上述したカラー複合機3のスキャナー9と同様に構成されているが、当該スキャナー2には、画像処理装置13が内蔵されている。   The scanner 2 is configured in the same manner as the scanner 9 of the color multifunction machine 3 described above, but the scanner 2 includes an image processing device 13.

ところで、この実施の形態1に係る画像データ処理装置は、入力された複数ページからなる画像データに対して所定の処理を施す画像データ処理装置において、前記入力された複数ページからなる画像データに基づいて、各ページに共通する共通画像と各ページ毎に異なる非共通画像を識別する画像識別手段と、前記画像識別手段によって識別された共通画像と非共通画像を、矩形状に切り出した状態で、当該矩形領域に属性情報を付加する属性付加手段とを備えるように構成されている。   By the way, the image data processing apparatus according to the first embodiment is based on the input image data including a plurality of pages in the image data processing apparatus that performs a predetermined process on the image data including the plurality of pages. The image identification means for identifying a common image common to each page and a non-common image different for each page, and the common image and the non-common image identified by the image identification means are cut out in a rectangular shape, Attribute addition means for adding attribute information to the rectangular area is provided.

また、この実施の形態では、前記属性付加手段は、前記画像識別手段によって識別された共通画像と非共通画像を、T/I分離手段によってテキスト部とイメージ部とに分離した状態で、前記イメージ部はイメージ情報のまま、前記テキスト部には文字認識処理を施して、当該文字認識処理によって認識された文字情報に基づいて、前記矩形領域毎に属性情報を付加するように構成されている。   In this embodiment, the attribute adding unit is configured to separate the common image and the non-common image identified by the image identifying unit into a text part and an image part by a T / I separating unit. The part remains configured as image information, and the text part is subjected to character recognition processing, and attribute information is added to each rectangular area based on the character information recognized by the character recognition processing.

さらに、この実施の形態では、前記属性付加手段は、前記画像識別手段によって識別された共通画像と非共通画像のうち非共通画像に、共通画像の属性の下に従属するように属性情報を付加するように構成されている。   Furthermore, in this embodiment, the attribute adding unit adds attribute information to the non-common image among the common image and the non-common image identified by the image identification unit so as to be subordinate to the common image attribute. Is configured to do.

又、この実施の形態では、前記属性付加手段は、前記画像識別手段によって識別された共通画像に属性情報を付加する順番を、主走査方向優先か副走査方向優先かを選択することができるように構成されている。   In this embodiment, the attribute adding unit can select whether the priority of adding the attribute information to the common image identified by the image identifying unit is the main scanning direction priority or the sub scanning direction priority. It is configured.

更に、この実施の形態では、前記属性付加手段は、前記画像識別手段によって識別された非共通画像に付加する属性情報を、共通画像に対して、主走査方向優先か副走査方向優先かを選択することができるように構成されている。   Furthermore, in this embodiment, the attribute adding unit selects whether the attribute information to be added to the non-common image identified by the image identifying unit is the main scanning direction priority or the sub scanning direction priority with respect to the common image. It is configured to be able to.

また、この実施の形態では、前記画像識別手段が、前記入力された複数ページからなる画像データに基づいて、各ページに共通する共通画像を認識する共通画像認識手段と、前記入力された各ページの画像データから前記共通画像認識手段によって認識された共通画像を抽出する共通画像抽出手段と、前記入力された各ページの画像データから前記共通画像抽出手段によって抽出された共通画像を除去して、各ページ毎に異なる非共通画像を求める共通画像除去手段とを備えるように構成されている。   Further, in this embodiment, the image identifying means includes a common image recognition means for recognizing a common image common to each page based on the inputted image data including a plurality of pages, and each inputted page. A common image extraction unit that extracts the common image recognized by the common image recognition unit from the image data of the image, and removes the common image extracted by the common image extraction unit from the input image data of each page, A common image removing unit that obtains a different non-common image for each page.

すなわち、この実施の形態に係る画像データ処理装置100は、図3に示すように、画像出力装置としてのカラー複合機3の内部に、画像処理装置13の一部として組み込まれた状態で装着されている。また、この画像データ処理装置100は、パーソナルコンピュータ5等に画像データ処理用のソフトウエアをインストールすることによって構成されている。さらに、上記画像データ処理装置100は、図5に示すように、画像読取装置としてのスキャナー2の内部に、画像処理装置13の一部として組み込まれた状態で装着されるように構成しても良い。   That is, as shown in FIG. 3, the image data processing apparatus 100 according to this embodiment is mounted inside the color multifunction peripheral 3 as an image output apparatus in a state of being incorporated as a part of the image processing apparatus 13. ing. The image data processing apparatus 100 is configured by installing image data processing software in the personal computer 5 or the like. Further, as shown in FIG. 5, the image data processing apparatus 100 may be configured to be mounted inside the scanner 2 as an image reading apparatus in a state of being incorporated as a part of the image processing apparatus 13. good.

この画像データ処理装置100は、図1に示すように、大別して、画像読取装置としてのスキャナー2、9から画像データが入力され、当該入力された画像データに対して所定の画像処理を施す画像処理手段としての画像処理部110と、入力された画像データや画像処理部110によって所定の画像処理が施された画像データ等を記憶するメモリ部120とから構成されている。また、上記画像処理部110は、共通画像認識部111と、共通画像抽出部112と、共通画像除去部113と、T/I分離部114と、矩形切り出し部115と、OCR部116と、属性付加部117と、ファイル生成部118とを備えている。さらに、上記メモリ部120は、第1のメモリ121と、第2のメモリ122と、第3のメモリ123とを備えている。なお、データベース化部119は、例えば、パーソナルコンピュータ5側に設けられる。   As shown in FIG. 1, the image data processing apparatus 100 is roughly divided into image data input from scanners 2 and 9 as image reading apparatuses, and an image for performing predetermined image processing on the input image data. The image processing unit 110 is a processing unit, and the memory unit 120 stores input image data, image data subjected to predetermined image processing by the image processing unit 110, and the like. The image processing unit 110 includes a common image recognition unit 111, a common image extraction unit 112, a common image removal unit 113, a T / I separation unit 114, a rectangular cutout unit 115, an OCR unit 116, an attribute, An addition unit 117 and a file generation unit 118 are provided. Further, the memory unit 120 includes a first memory 121, a second memory 122, and a third memory 123. The database creating unit 119 is provided on the personal computer 5 side, for example.

上記画像読取装置2、9から入力された複数ページの画像データは、共通画像認識部111を介して、第1のメモリ121の入力画像記憶部124に一時記憶される。上記共通画像認識部111は、画像読取装置2、9から入力され、第1のメモリ121の入力画像記憶部124に一時記憶された複数ページの画像データに基づいて、各ページに共通する共通画像を認識するためのものである。この共通画像認識部111は、1ページ目の画像データと2ページ目の画像データというように、各ページの画像データを互いに比較して、各ページに共通する共通画像を認識するように構成されている。   A plurality of pages of image data input from the image reading devices 2 and 9 are temporarily stored in the input image storage unit 124 of the first memory 121 via the common image recognition unit 111. The common image recognition unit 111 is a common image common to each page based on a plurality of pages of image data input from the image reading devices 2 and 9 and temporarily stored in the input image storage unit 124 of the first memory 121. It is for recognizing. The common image recognition unit 111 is configured to recognize the common image common to each page by comparing the image data of each page, such as the image data of the first page and the image data of the second page. ing.

上記画像読取装置2、9によって読み取られる複数ページにわたる文書8としては、例えば、図6に示すように、学校や予備校、あるいは学習塾等で用いられるテスト用紙や、企業のオフィスや役所等で使用される定型の文書などが挙げられる。ただし、文書としては、これらに限定されるものではなく、他の種類の文書等であっても良いことは勿論である。このテスト用紙からなる文書8には、図6に示すように、テスト用紙を作成した会社等を表示したマークやイラスト等の図形801や、学期末テストや科目等の文書のタイトルを示す文字画像802、「氏名」を書く欄に記載された「氏名」の文字803、「問1」、「問2」、「問3」・・・等の問題番号を示す文字を含む問題文804、805、806、各「問1」、「問2」、「問3」・・・等の問題の配点を示す数字807、808、809、「氏名」の欄や問題文の欄を囲む矩形状の枠を表示する直線状の枠画像810などが、印刷やプリント等によって予め記載されている。また、上記テスト用紙の文書8には、テストを受けた者が、「氏名」811や解答としての数字812や数式813、あるいは解答としての文章814や棒グラフ等の図形815が手書きによって記載されている。   As the document 8 covering a plurality of pages read by the image reading devices 2 and 9, for example, as shown in FIG. 6, it is used in a test sheet used in a school, a prep school, a learning cram school, a company office, a government office, etc. For example, a standard document. However, the document is not limited to these documents, and may be other types of documents. As shown in FIG. 6, the test document 8 includes a graphic 801 such as a mark or an illustration indicating the company or the like that created the test paper, and a character image indicating the title of a document such as a term test or subject. 802, question sentences 804 and 805 including characters indicating the problem number such as “name” characters 803, “question 1”, “question 2”, “question 3”. 806, numbers “807”, “808”, “809” indicating the score of each question such as “question 1”, “question 2”, “question 3”, etc., and a rectangular shape surrounding the “name” column and the question sentence column A linear frame image 810 for displaying a frame is described in advance by printing or printing. In addition, in the test sheet document 8, the person who has taken the test has written “name” 811, numbers 812 and mathematical expressions 813 as answers, or figures 815 such as sentences 814 and bar graphs as answers. Yes.

また、上記テスト用紙の文書8には、図6に示すように、左上の隅等の所定位置に、矩形状や十字状等の所定の形状に形成された位置合わせ用の認識マーカ816が印刷やプリント等によって予め記載されている。   Further, as shown in FIG. 6, a registration marker 816 for alignment formed in a predetermined shape such as a rectangular shape or a cross shape is printed on the test paper document 8 at a predetermined position such as the upper left corner. Or printed in advance.

そして、上記共通画像認識手段111は、入力された各ページの画像データに付加された位置合わせ用の認識マーカ816を検出し、当該認識マーカ816の検出結果に基づいて、入力された各ページの画像データの位置を調整するように構成されている。そのため、各ページの文書8に印刷等された図形801や文字画像802等に、ページ毎にずれが存在する場合であっても、認識マーカ816の位置を基準として、入力された各ページの画像データの位置を調整することにより、各ページに共通する画像を誤差なく認識することが可能となる。   Then, the common image recognition unit 111 detects a recognition marker 816 for alignment added to the input image data of each page, and based on the detection result of the recognition marker 816, the input of each input page. The position of the image data is adjusted. Therefore, even when there is a shift for each page in the figure 801, the character image 802, etc. printed on the document 8 of each page, the image of each page input based on the position of the recognition marker 816 is used. By adjusting the data position, an image common to each page can be recognized without error.

更に説明すると、上記共通画像認識手段111は、図7に示すように、各ページの画像を読み取った画像データに全体的な位置ずれがある場合であっても、例えば、認識マーカ816から文字画像803等までのx方向及びy方向の距離Dx,Dyを基準にして、文字画像803に外接する矩形のx方向の幅W及びy方向の高さHが求められ、各ページの画像データの位置を調整するように構成されている。そして、この共通画像認識部111は、図8乃至図10に示すように、入力された各ページの画像データのうち、1ページ目と2ページ目の画像データの共通画像を認識し、当該認識結果と3ページ目の画像データの共通画像を認識し、以降同様に前ページまでの認識結果と現ページの画像データの共通画像を認識するように構成されている。   More specifically, as shown in FIG. 7, the common image recognizing unit 111 can detect, for example, a character image from the recognition marker 816 even when there is an overall positional shift in the image data obtained by reading the image of each page. The width W in the x direction and the height H in the y direction of the rectangle circumscribing the character image 803 are obtained on the basis of the distances Dx and Dy in the x direction and the y direction up to 803, etc., and the position of the image data on each page Configured to adjust. Then, as shown in FIGS. 8 to 10, the common image recognition unit 111 recognizes the common image of the image data of the first page and the second page among the input image data of each page, and recognizes the recognition. A common image of the result and the third page of image data is recognized, and thereafter, the recognition result up to the previous page and the common image of the current page of image data are similarly recognized.

その際、上記共通画像認識手段111では、入力された各ページの画像データにビット膨張処理を施して共通画像を認識するように構成されている。つまり、上記各ページの画像が図6に示すように枠体状の画像810である場合には、1ページ目の画像データと2ページ目の画像データとが1ビット程度でもずれると、枠体状の画像810を共通画像として認識できない虞れがある。   At this time, the common image recognition unit 111 is configured to recognize the common image by performing bit expansion processing on the input image data of each page. That is, when the image of each page is a frame-shaped image 810 as shown in FIG. 6, if the image data of the first page and the image data of the second page are shifted by about 1 bit, the frame There is a possibility that the image 810 having a shape cannot be recognized as a common image.

そこで、この実施の形態では、特に、図11に示すように、枠体状の画像806のようにビット数が少ない画像の場合に、枠体状の画像806を縦方向及び横方向に1〜数ビット程度だけビット数を増加させるビット膨張処理を施した上で、共通画像を認識するように構成されている。   Therefore, in this embodiment, particularly in the case of an image with a small number of bits such as a frame-shaped image 806 as shown in FIG. It is configured to recognize a common image after performing bit expansion processing for increasing the number of bits by about several bits.

また、上記共通画像抽出部112は、入力された各ページの画像データから、前記共通画像認識手段111によって認識された各ページに共通する共通画像を抽出するように構成されている。そして、この共通画像抽出部112によって抽出された共通画像は、第1のメモリ121の共通画像記憶部125に記憶される。   The common image extraction unit 112 is configured to extract a common image common to each page recognized by the common image recognition unit 111 from the input image data of each page. The common image extracted by the common image extraction unit 112 is stored in the common image storage unit 125 of the first memory 121.

さらに、上記共通画像除去部113では、入力された各ページの画像データから、前記共通画像抽出部112によって抽出された共通画像を除去する処理が行なわれ、各ページの画像データ毎に異なる非共通画像が求められる。この共通画像除去部113によって求められた非共通画像は、第2のメモリ122の非共通画像記憶部126に記憶される。   Further, the common image removal unit 113 performs a process of removing the common image extracted by the common image extraction unit 112 from the input image data of each page, and is different for each page of image data. An image is required. The non-common image obtained by the common image removal unit 113 is stored in the non-common image storage unit 126 of the second memory 122.

又、上記T/I分離部114は、入力された各ページの画像データを、文字画像等からなるテキスト(Text)部と、図形等の画像からなるイメージ(Image)部とに分離するためのものである。このT/I分離部114によって分離された各ページの画像データのテキスト部とイメージ部の情報は、個別にT/I分離結果127として第3のメモリ123に適宜読み出し可能に記憶されるようになっている。   The T / I separation unit 114 separates the input image data of each page into a text (Text) portion made up of character images and the like and an image (Image) portion made up of images such as figures. Is. Information of the text part and the image part of the image data of each page separated by the T / I separation unit 114 is individually stored in the third memory 123 as a T / I separation result 127 so as to be appropriately readable. It has become.

また、上記矩形切り出し部115は、各ページの共通画像と非共通画像から、前記T/I分離部114によって分離されたテキスト部の画像とイメージ部の画像を、少なくとも1つ以上の矩形部分に切り出すように構成されている。この矩形切り出し部115による矩形状の画像の切り出しは、図8に示すように、入力画像データの共通画像及び非共通画像の中から、イメージ画像やテキスト画像を、例えば、カラー複合機のユーザーインタフェース130に設けられたタッチパネルやマウス等によって対角線状に左上の角841と右下の角842とを指定することによって行われる。また、上記矩形切り出し部115による矩形状の画像の切り出しは、図12に示すように、イメージ画像やテキスト画像の周囲を所定の距離以上隔てて自動的に行なうように構成しても良い。   The rectangular cutout unit 115 converts the image of the text part and the image of the image part separated by the T / I separation unit 114 from the common image and the non-common image of each page into at least one rectangular part. It is configured to cut out. As shown in FIG. 8, the rectangular cutout unit 115 cuts out a rectangular image by converting an image image or text image from a common image and a non-common image of input image data, for example, a user interface of a color multifunction peripheral. This is done by designating the upper left corner 841 and the lower right corner 842 diagonally with a touch panel, a mouse or the like provided at 130. In addition, as shown in FIG. 12, the rectangular image cutout by the rectangular cutout unit 115 may be automatically performed with a predetermined distance or more around the image image or text image.

上記OCR部116では、前記切り出し部115によって矩形状に切り出された画像のうち、T/I分離部114によってテキスト部として分離された画像データが、文字認識されて文字コードに変換される。   In the OCR unit 116, image data separated as a text part by the T / I separation unit 114 among the images cut out in a rectangular shape by the cutout unit 115 is character-recognized and converted into a character code.

上記属性付加部117では、図13及び図14に示すように、画像識別手段によって識別された共通画像と非共通画像を、矩形状に切り出した状態で、図15に示すように、当該矩形領域821〜825と、矩形領域831、832・・・等に属性情報を付加するように構成されている。また、この属性付加部117は、画像識別手段によって識別された共通画像と非共通画像を、T/I分離部114によってテキスト部とイメージ部とに分離した状態で、前記イメージ部はイメージ情報のまま、前記テキスト部にはOCR処理を施して、当該OCR処理116によって認識された文字情報に基づいて、前記矩形領域821〜825と、矩形領域831、832毎に属性情報を付加するように構成されている。   In the attribute adding unit 117, as shown in FIGS. 13 and 14, in the state where the common image and the non-common image identified by the image identification unit are cut out in a rectangular shape, as shown in FIG. 821 to 825, rectangular areas 831, 832,... The attribute adding unit 117 separates the common image and the non-common image identified by the image identifying unit into a text portion and an image portion by the T / I separation unit 114, and the image portion stores image information. The text portion is subjected to OCR processing, and attribute information is added to each of the rectangular regions 821 to 825 and the rectangular regions 831 and 832 based on the character information recognized by the OCR processing 116. Has been.

さらに、上記属性付加部117は、画像識別手段によって識別された共通画像と非共通画像のうち非共通画像に、共通画像の属性情報の下位に従属するように属性情報を付加するように構成されている。例えば、共通画像としての「氏名」823の欄に記入された非共通画像としての「氏名」831は、共通画像3の下位(子)の属性情報が付加されるようになっている。   Further, the attribute adding unit 117 is configured to add attribute information to the non-common image among the common image and the non-common image identified by the image identification unit so as to be subordinate to the attribute information of the common image. ing. For example, “name” 831 as a non-common image entered in the field of “name” 823 as a common image is added with attribute information at a lower level (child) of the common image 3.

その際、上記属性付加部117は、画像識別手段によって識別された共通画像に属性情報を付加する順番を、主走査方向優先か副走査方向優先かを選択することができるように構成されている。この属性付加部117は、例えば、副走査方向優先が選択された場合には、図15に示すように、副走査方向(図中、上下方向)に沿って属性情報を付加するようになっている。いま、「学期末テスト数学」の文字が最上部に位置する場合には、当該「学期末テスト数学」の共通画像が共通1として、当該共通画像の文字認識結果である、「学期末テスト数学」の文字が識別情報として付加される。次に、絵柄801の共通画像が共通2として、当該共通画像がイメージである場合には、「絵柄」の文字が識別情報として付加される。以下、同様に、「氏名」の共通画像が共通3として、当該共通画像の文字認識結果である、「氏名」の文字が識別情報として付加される。   At that time, the attribute adding unit 117 is configured to be able to select whether the priority of adding the attribute information to the common image identified by the image identifying means is priority in the main scanning direction or priority in the sub scanning direction. . For example, when priority is given to the sub-scanning direction, the attribute adding unit 117 adds attribute information along the sub-scanning direction (vertical direction in the figure) as shown in FIG. Yes. Now, if the letter “end of semester test mathematics” is at the top, the common image of the “end of semester test mathematics” is the common 1, and the character recognition result of the common image is “ "Is added as identification information. Next, when the common image of the picture 801 is common 2, and the common image is an image, the characters “picture” are added as identification information. Hereinafter, similarly, the common image of “name” is common 3, and the character of “name”, which is the character recognition result of the common image, is added as identification information.

なお、上記識別情報は、当該共通画像の文字認識結果以外にも、ユーザがユーザインタフェース5やパーソナルコンピュータ5等から任意に変更することができるように構成されている。   In addition to the character recognition result of the common image, the identification information can be arbitrarily changed by the user from the user interface 5, the personal computer 5, or the like.

さらに、上記属性付加部117は、画像識別手段によって識別された非共通画像に付加する属性情報を、共通画像に対して、主走査方向優先か副走査方向優先かを選択することができるように構成されている。つまり、図15に示すように、共通画像の主走査方向に非共通画像が記載される場合には、例えば、主走査方向優先が選択される。また、共通画像の副走査方向に非共通画像が記載される場合には、例えば、副走査方向優先が選択される。   Further, the attribute adding unit 117 can select attribute information to be added to the non-common image identified by the image identifying unit, whether the main scanning direction priority or the sub-scanning direction priority is given to the common image. It is configured. That is, as shown in FIG. 15, when a non-common image is described in the main scanning direction of the common image, for example, priority on the main scanning direction is selected. In addition, when a non-common image is described in the sub-scanning direction of the common image, for example, priority is given to the sub-scanning direction.

さらに、上記ファイル生成部118では、入力画像データのうち、共通画像と非共通画像の画像データに基づいて、これら共通画像と非共通画像の画像データを別々に電子化して、PDFファイルやポストスクリプト等のファイルデータを生成するようになっている。   Further, in the file generation unit 118, based on the image data of the common image and the non-common image among the input image data, the image data of the common image and the non-common image are separately digitized to generate a PDF file or a postscript. Such file data is generated.

また、上記データベース化部119は、ファイル生成部119で生成されたファイルデータに基づいて、読み込まれた複数ページにわたる文書8のデータベースを作成するように構成されている。即ち、このデータベース化部119では、図16に示すように、共通画像部の属性を「親」として認識するとともに、当該属性が同じ共通画像部に対応した非共通画像部の属性を「子」として認識することにより、共通画像部の属性である「親」のデータ毎に、非共通画像部の属性である「子」のデータを順次まとめていく操作を行うように構成されている。なお、上記データベース化部119は、例えば、パーソナルコピュータ5側に設けられる。   Further, the database creating unit 119 is configured to create a database of the document 8 that covers a plurality of read pages based on the file data generated by the file generating unit 119. That is, as shown in FIG. 16, the database creating unit 119 recognizes the attribute of the common image portion as “parent” and sets the attribute of the non-common image portion corresponding to the common image portion having the same attribute as “child”. As a result of the recognition, for each “parent” data that is an attribute of the common image portion, an operation of sequentially collecting “child” data that is an attribute of the non-common image portion is performed. The database creating unit 119 is provided on the personal computer 5 side, for example.

上記具体例の場合には、データベース化部119によって、共通画像部の属性である 「親」のデータが「氏名」である場合には、当該「親」データに「子」の相当する個別の「氏名」のデータである「富士ゼロ子」や「○×△□」・・・等のデータが順次まとめられる。上記データベース化部119によってデータベース化されたデータをエクセル等の図表として表示すれば、図17に示すようになる。   In the case of the above specific example, if the data of the “parent” that is the attribute of the common image portion is “name” by the database creation unit 119, an individual corresponding to “child” is added to the “parent” data. Data such as “Fuji Zero child”, “○ × Δ □”,. If the data made into a database by the database creating unit 119 is displayed as a chart such as Excel, it becomes as shown in FIG.

以上の構成において、この実施の形態に係る画像データ処理装置では、次のようにして、予めフォーマット化されていないハード文書等であり、図形や枠体などを含んだ画像である場合であっても、ユーザに過大な負担を強いることなく、容易にデータベース化することが可能となっている。   In the above configuration, the image data processing apparatus according to this embodiment is a hard document that has not been formatted in advance as described below, and is an image that includes figures, frames, and the like. However, it is possible to easily create a database without imposing an excessive burden on the user.

すなわち、この実施の形態に係る画像データ処理装置100が適用された画像処理システム1では、図2に示すように、複数ページにわたる文書8等の画像が画像読取装置としてのスキャナー2又はスキャナー9によって読み取られ、当該スキャナー2、9によって読み取られた複数ページにわたる文書8等の画像データは、図1に示すように、画像データ処理装置100が装着された画像出力装置としてのカラー複合機3に入力される。なお、上記スキャナー2、9によって読み取られた複数ページにわたる文書8としては、例えば、図6に示すように、学校や学習塾等で用いられるテスト用紙や、企業のオフィスや役所等で使用される定型の文書などが挙げられる。   That is, in the image processing system 1 to which the image data processing apparatus 100 according to this embodiment is applied, as shown in FIG. 2, an image such as a document 8 over a plurality of pages is obtained by a scanner 2 or a scanner 9 as an image reading apparatus. As shown in FIG. 1, image data such as a document 8 that is read and read by the scanners 2 and 9 is input to a color multifunction peripheral 3 as an image output device to which an image data processing device 100 is attached. Is done. In addition, as the document 8 covering a plurality of pages read by the scanners 2 and 9, for example, as shown in FIG. 6, it is used in a test paper used in a school or a cram school, a company office, a public office, or the like. For example, a standard document.

上記画像データ処理装置100には、図1に示すように、画像読取装置としてのスキャナー2、9によって読み取られた複数ページにわたる文書8の画像データが入力され、当該入力された画像データは、共通画像認識部111によって、当該入力された複数ページからなる画像データに基づいて、各ページに共通する共通画像が認識される。上記共通画像認識部111によって認識される文書8の画像データとしては、例えば、2値化された画像データが用いられるが、多値のままの画像データを用いるように構成しても良い。また、カラー画像の場合には、色を問わず画像データのある部分は、画像とみなすようにしても良い。   As shown in FIG. 1, the image data processing apparatus 100 receives image data of a document 8 over a plurality of pages read by scanners 2 and 9 as image reading apparatuses, and the input image data is common. The image recognition unit 111 recognizes a common image common to each page based on the input image data including a plurality of pages. As the image data of the document 8 recognized by the common image recognition unit 111, for example, binarized image data is used. However, it is also possible to use multi-valued image data. In the case of a color image, a portion having image data regardless of color may be regarded as an image.

例えば、図8に示すように、学期末テストの氏名や解答が書き込まれたテスト用紙8の複数ページからなる画像データ800が入力されると、共通画像認識部111では、図9に示すように、1ページ目の画像データと、2ページ目の画像データというように、各ページの画像データ800がビット単位で比較され、図10に示すように、共通画像821、822などが認識される。この共通画像認識部111によって認識された共通画像は、第1メモリ121の共通画像記憶部125に一時記憶される。次に、共通画像記憶部125に記憶された1ページ目の画像データと2ページ目の画像データとの共通画像は、共通画像認識部111によって、3ページ目の画像データと比較され、共通画像が認識されて、第1メモリ121の共通画像記憶部125に一時記憶される。   For example, as shown in FIG. 8, when image data 800 consisting of a plurality of pages of the test sheet 8 on which the name and answer of the semester test are written is input, the common image recognition unit 111 receives the image data 800 as shown in FIG. The image data 800 of each page is compared in bit units, such as the image data of the first page and the image data of the second page, and the common images 821 and 822 are recognized as shown in FIG. The common image recognized by the common image recognition unit 111 is temporarily stored in the common image storage unit 125 of the first memory 121. Next, the common image of the image data of the first page and the image data of the second page stored in the common image storage unit 125 is compared with the image data of the third page by the common image recognition unit 111, and the common image Is recognized and temporarily stored in the common image storage unit 125 of the first memory 121.

このように、上記共通画像認識部111では、入力された各ページの画像データのうち、1ページ目と2ページ目の画像データの共通画像を認識し、図8に示すように、1ページ目と2ページ目の画像データの共通画像が識別される。次に、上記記共通画像認識部111では、1ページ目と2ページ目の画像データの共通画像として識別された結果と、3ページ目の画像データの共通画像を認識するというように、入力された各ページの画像データのうち、nページ目とn+1ページ目の画像データの共通画像を識別し、当該識別結果とn+2ページ目の画像データの共通画像を識別し、以降同様に前ページまでの識別結果と現ページの画像データの共通画像を識別するようになっている。その結果、上記共通画像認識部111では、各ページの画像に共通する共通画像が識別され、この共通画像は、第1のメモリ121の共通画像記憶部125に記憶される。   As described above, the common image recognition unit 111 recognizes the common image of the image data of the first page and the second page among the input image data of each page, and as shown in FIG. And the common image of the image data of the second page are identified. Next, in the above-mentioned common image recognition unit 111, the result identified as the common image of the image data of the first page and the second page and the common image of the image data of the third page are recognized. Among the image data of each page, the common image of the image data of the nth page and the (n + 1) th page is identified, the common result of the identification result and the image data of the (n + 2) th page is identified. A common image of the identification result and the image data of the current page is identified. As a result, the common image recognition unit 111 identifies a common image common to the images of each page, and the common image is stored in the common image storage unit 125 of the first memory 121.

次に、上記共通画像抽出部112では、共通画像認識部111による各ページの画像データを比較した結果である共通画像の認識結果に基づいて、図8に示すように、共通画像831が抽出される。この共通画像抽出部112によって抽出された共通画像831は、第1のメモリ121の共通画像記憶部125に記憶される。   Next, as shown in FIG. 8, the common image extraction unit 112 extracts a common image 831 based on the recognition result of the common image, which is a result of comparing the image data of each page by the common image recognition unit 111. The The common image 831 extracted by the common image extraction unit 112 is stored in the common image storage unit 125 of the first memory 121.

次に、共通画像除去部113では、図8に示すように、第1のメモリ121の入力画像記憶部124に記憶された各ページの画像データから、共通画像抽出部112で抽出されて共通画像記憶部125に記憶された共通画像831が除去され、各ページで異なる非共通画像832が求められる。これらの非共通画像832は、第2のメモリ122の非共通画像記憶部126に記憶される。   Next, in the common image removal unit 113, as shown in FIG. 8, the common image extraction unit 112 extracts the common image from the image data of each page stored in the input image storage unit 124 of the first memory 121. The common image 831 stored in the storage unit 125 is removed, and a different non-common image 832 is obtained for each page. These non-common images 832 are stored in the non-common image storage unit 126 of the second memory 122.

その後、上記第1のメモリ121の共通画像記憶部125に記憶された共通画像831と、第2のメモリ122の非共通画像記憶部126に記憶された非共通画像832は、図1に示すように、T/I分離部114によって、テキスト部とイメージ部とが分離される。上記共通画像では、図8に示すように、学期末テスト等の文書のタイトルを示す文字画像802、「氏名」を書く欄に記載された「氏名」の文字803、「問1」、「問2」・・・等の問題番号を示す文字を含む問題文804、805からなるテキスト部と、テスト用紙を作成した会社や科目等を表示したマーク等の図形801や、「氏名」の欄や問題文の欄を囲む矩形状の枠を表示する直線状の枠画像806からなるイメージ部とが分離され、これらのテキスト部とイメージ部の分離結果は、第3のメモリ123にT/I分離結果として記憶される。   Thereafter, the common image 831 stored in the common image storage unit 125 of the first memory 121 and the non-common image 832 stored in the non-common image storage unit 126 of the second memory 122 are as shown in FIG. Further, the text part and the image part are separated by the T / I separator 114. In the above common image, as shown in FIG. 8, a character image 802 indicating the title of a document for the end of semester test, a “name” character 803 written in the column of “name”, “question 1”, “question” 2 ”..., Etc., a text portion including question sentences 804 and 805 including characters indicating a problem number, a figure 801 such as a mark indicating the company or subject that created the test sheet, a“ name ”field, An image part composed of a linear frame image 806 that displays a rectangular frame surrounding the question sentence column is separated, and the separation result of the text part and the image part is T / I separated in the third memory 123. Stored as a result.

また、上記非共通画像832では、図8に示すように、テストを受けた者の「氏名」807や、解答としての数字808、あるいは解答としての文章809からなるテキスト部と、棒グラフ等の図形810からなるイメージ部とが分離され、これらのテキスト部とイメージ部の分離結果は、第3のメモリ123にT/I分離結果として記憶される。   In the non-common image 832, as shown in FIG. 8, a “name” 807 of the person who took the test, a number 808 as an answer, or a text part consisting of a sentence 809 as an answer, and a graphic such as a bar graph The image part composed of 810 is separated, and the separation result of the text part and the image part is stored in the third memory 123 as the T / I separation result.

次に、上記T/I分離部114によってテキスト部とイメージ部とに分離された共通画像831と非共通画像832は、矩形切り出し部115によって矩形状の切り出し枠841で、図8、図13及び図14に示すように、テキスト部とイメージ部の各画像データ毎に切り出される。   Next, the common image 831 and the non-common image 832 separated into the text part and the image part by the T / I separation unit 114 are rectangular cutout frames 841 by the rectangular cutout unit 115, and are shown in FIGS. As shown in FIG. 14, it is cut out for each image data of the text part and the image part.

上記画像データ処理装置100の処理操作を指示するカラー複合機3等のユーザーインターフェースでは、矩形状に切り出された画像を、ビットマップで生成するか、OCR部116によって文字コードを生成するかを選択することができるようになっている。   In the user interface such as the color multifunction peripheral 3 that instructs the processing operation of the image data processing apparatus 100, it is selected whether to generate a rectangular image or a character code by the OCR unit 116. Can be done.

そして、上記矩形切り出し部115によって矩形状に切り出されたテキスト部の各画像データは、例えば、OCR部116によって文字認識され、文字コードに変換される。   Then, each image data of the text portion cut out in a rectangular shape by the rectangular cutout unit 115 is recognized by the OCR unit 116 and converted into a character code, for example.

上記矩形切り出し部115によって矩形状に切り出され、OCR部116によって文字認識された各画像データには、図15に示すように、属性付加部117によって対応する属性が付加される。この属性付加部117では、例えば、共通画像に対して副走査方向優先で、上から順に、共通画像1として「絵柄」の図形画像に対して、「共通1:絵柄」の属性が付加され、次に、共通画像2として「学期末テスト数学」の文字画像に対して、 「共通2:学期末テスト数学」の属性が付加される。以下、同様に、共通画像3として 「氏名」の文字画像に対して、「共通3:氏名」の属性が、共通画像4として「問1:1+1=」の文字画像に対して、「共通4:問1」の属性が、共通画像5として「5」の文字画像に対して、「共通5:問1」の属性が、それぞれ付加されるようになっている。   As shown in FIG. 15, a corresponding attribute is added by an attribute adding unit 117 to each image data cut out in a rectangular shape by the rectangular cutout unit 115 and character-recognized by the OCR unit 116. In the attribute addition unit 117, for example, the common image 1 attribute is added to the graphic image of “picture” as the common image 1 in order from the top in the sub-scanning direction with respect to the common image. Next, the attribute of “common 2: semester test math” is added to the character image “semester semester test math” as the common image 2. Similarly, for the character image “name” as the common image 3, the attribute “common 3: name” is “common 4” for the character image “question 1: 1 + 1 =” as the common image 4. The attribute of “Question 1” is added to the character image of “5” as the common image 5 and the attribute of “Common 5: Question 1” is added thereto.

なお、ここで、共通画像4の「問1:1+1=」の文字画像と、共通画像5の「5」の文字画像に対して、同じ属性「問1」が付加されるのは、副走査方向の位置が略同じで、主走査方向に沿って並んで配置された画像に対して、同じ属性を付加するように設定されているためであり、共通画像4の「問1:1+1=」の文字画像と、共通画像5の「5」の文字画像に対して、異なる属性を付加するように設定しても勿論よい。   Here, the same attribute “Question 1” is added to the character image “Question 1: 1 + 1 =” of the common image 4 and the character image “5” of the common image 5 in the sub-scanning. This is because it is set so that the same attribute is added to the images arranged in the main scanning direction and having the same position in the direction, and “question 1: 1 + 1 =” of the common image 4 is set. Of course, different character attributes may be added to the character image “5” and the character image “5” of the common image 5.

また、図示の実施例では、共通画像にすべて「親」としての属性が付加されており、当該共通画像に対して、主走査方向に沿って並んで配置された画像に対しては、「親」に対する「子」としての属性が付加されるようになっている。   In the illustrated example, the attribute “parent” is added to all the common images, and “parent” is assigned to the images arranged side by side in the main scanning direction with respect to the common image. ”As a“ child ”attribute is added.


次に、ファイル生成部118では、入力された画像データに対して、テキスト画像の認識された文字コードや文字の大きさ、文字の位置等のデータ、及びイメージ画像のイメージの内容及び位置等のデータがファイル化されて、図18に示すように、共通部分の1番目のヘッダと当該1番目の共通部分であるイメージ1のデータ、次に、共通部分の2番目のヘッダと当該2番目の共通部分であるテキスト1のデータ・・・、1 ページ目の非共通部分の1番目のヘッダと当該1番目の非共通部分であるデータ、次に、非共通部分の2番目のヘッダと当該2番目の非共通部分であるデータ・・・、2ページ目の非共通部分の1番目のヘッダと当該1番目の非共通部分であるデータ、次に、非共通部分の2番目のヘッダと当該2番目の非共通部分であるデータ・・・というように、ファイルが生成される。このファイルの種類としては、PDFファイルやポストスクリプトファイルなど、任意の種類のものであっても良いことは勿論である。
"
Next, in the file generation unit 118, data such as the recognized character code, character size, character position, and the like of the text image, and the content and position of the image of the image image are input to the input image data. As shown in FIG. 18, the data is filed, and the first header of the common part and the data of the image 1 as the first common part, and then the second header of the common part and the second header Text 1 data that is the common part ..., the first header of the non-common part of the first page and the data that is the first non-common part, then the second header of the non-common part and the 2 Data that is the second non-common part: the first header of the non-common part on the second page and the data that is the first non-common part, then the second header of the non-common part and the second In the non-common part That so that the data ..., the file is generated. Of course, this file may be of any type, such as a PDF file or a Postscript file.

そして、最後に、データベース化部119では、ファイル生成部118で生成されたファイルに基づいて、図16に示すように、共通画像である「親」としての属性に対応して、「子」としての関係を有する非共通画像を、順次配列してデータベースを作成するようになっている。このデータベース化部119でデータベース化されたデータを、エクセル等の図表で表示すれば、図17に示すように、共通画像である「親」としての属性が横に並んだ状態で、各「親」としての属性に対する「子」としての属性を有するデータが縦に並んだ状態で表示される。   Finally, in the database creation unit 119, based on the file generated by the file generation unit 118, as shown in FIG. 16, corresponding to the attribute as “parent” which is a common image, as “child” A database is created by sequentially arranging non-common images having the above relationship. If the data stored in the database 119 is displayed in a chart such as Excel, as shown in FIG. 17, each “parent” is displayed in a state where the attributes as “parent” which are common images are arranged side by side. Data having an attribute as a “child” with respect to an attribute as “” is displayed in a vertically arranged state.

このように、上記実施の形態に係る画像データ処理装置100では、予めフォーマット化されていないハード文書等であり、図形や枠体などを含んだ画像である場合であっても、共通画像と非共通画像とを識別し、それぞれに対応した属性を付加して配列することによって、自動的にデータベースを作成することができ、ユーザに過大な負担を強いることなく、容易にデータベース化することが可能となっている。   As described above, in the image data processing apparatus 100 according to the above-described embodiment, even if the document is a hard document or the like that has not been formatted in advance and includes an image including a figure and a frame, A database can be created automatically by identifying common images and arranging them with corresponding attributes, and can easily be created without imposing an excessive burden on the user. It has become.

なお、上記の実施の形態では、データベース化部119がパーソナルコンピュータ5側に設けられる場合について説明したが、当該データベース化部119は、画像データ処理装置100側に設けるように構成しても良い。   In the above-described embodiment, the case where the database creating unit 119 is provided on the personal computer 5 side has been described. However, the database creating unit 119 may be configured to be provided on the image data processing apparatus 100 side.

図1はこの発明の実施の形態1に係る画像データ処理装置を示すブロック図である。FIG. 1 is a block diagram showing an image data processing apparatus according to Embodiment 1 of the present invention. 図2はこの発明の実施の形態1に係る画像データ処理装置を適用した画像処理システムを示す構成図である。FIG. 2 is a block diagram showing an image processing system to which the image data processing apparatus according to Embodiment 1 of the present invention is applied. 図3はこの発明の実施の形態1に係る画像データ処理装置を適用した画像出力装置としてのカラー複合機を示す構成図である。FIG. 3 is a block diagram showing a color multifunction machine as an image output apparatus to which the image data processing apparatus according to Embodiment 1 of the present invention is applied. 図4はこの発明の実施の形態1に係る画像データ処理装置を適用した画像出力装置としてのカラー複合機の画像形成部を示す構成図である。FIG. 4 is a block diagram showing an image forming unit of a color multifunction peripheral as an image output apparatus to which the image data processing apparatus according to Embodiment 1 of the present invention is applied. 図5はこの発明の実施の形態1に係る画像データ処理装置を適用し得る画像読取装置を示す構成図である。FIG. 5 is a block diagram showing an image reading apparatus to which the image data processing apparatus according to Embodiment 1 of the present invention can be applied. 図6はこの発明の実施の形態1に係る画像データ処理装置によって処理される答案用紙を示す説明図である。FIG. 6 is an explanatory view showing an answer sheet processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図7はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 7 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図8はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 8 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図9はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 9 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図10はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 10 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図11はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 11 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図12はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 12 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図13はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 13 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図14はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 14 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図15はこの発明の実施の形態1に係る画像データ処理装置によって処理される画像を示す説明図である。FIG. 15 is an explanatory view showing an image processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図16はこの発明の実施の形態1に係る画像データ処理装置によって処理されるデータを示す図である。FIG. 16 is a diagram showing data processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図17はこの発明の実施の形態1に係る画像データ処理装置によって処理されたデータベースを示す図表である。FIG. 17 is a chart showing a database processed by the image data processing apparatus according to Embodiment 1 of the present invention. 図18はこの発明の実施の形態1に係る画像データ処理装置によって処理されるデータを示す図表である。FIG. 18 is a chart showing data processed by the image data processing apparatus according to Embodiment 1 of the present invention.

符号の説明Explanation of symbols

2,9:画像読取装置、100:画像データ処理装置、111:共通画像認識部、112:共通画像抽出部、113:共通画像除去部、114:T/I分離部、115:矩形切り出し部、116:OCR部、117:属性付加部、118:ファイル生成部、119:データベース化部。   2, 9: Image reading device, 100: Image data processing device, 111: Common image recognition unit, 112: Common image extraction unit, 113: Common image removal unit, 114: T / I separation unit, 115: Rectangular clipping unit 116: OCR unit, 117: attribute addition unit, 118: file generation unit, 119: database creation unit.

Claims (3)

入力された複数ページからなる画像データに対して所定の処理を施す画像データ処理装置において、
前記入力された複数ページからなる画像データに基づいて、各ページに共通する共通画像と各ページ毎に異なる非共通画像を識別する画像識別手段と、
前記画像識別手段によって識別された共通画像と非共通画像のうち、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記非共通画像に、前記共通画像の属性の下に従属するように属性情報を付加する属性付加手段と、
前記属性付加手段によって同一の属性が付加された共通画像の下に従属する非共通画像を順次配列することにより、入力された複数ページにわたる画像データのデータベースを作成するデータベース作成手段とを備えたことを特徴とする画像データ処理装置。
In an image data processing apparatus that performs predetermined processing on input image data consisting of a plurality of pages,
Image identifying means for identifying a common image common to each page and a different non-common image for each page based on the input image data consisting of a plurality of pages;
Of the common image and non-common image identified by the image identification means, a non-common image corresponding to the common image is described along the main scanning direction of the common image, or in the sub-scanning direction of the common image. Attribute adding means for adding attribute information to the non-common image so as to be subordinate to the common image , depending on whether a non-common image corresponding to the common image is described along
Database creation means for creating a database of input image data over a plurality of pages by sequentially arranging subordinate non-common images under the common image to which the same attribute is added by the attribute addition means. An image data processing device.
前記属性付加手段は、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記画像識別手段によって識別された共通画像に属性情報を付加する順番を、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に副走査方向を優先するか、又は、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に主走査方向を優先するかを選択することができることを特徴とする請求項1に記載の画像データ処理装置。 The attribute adding means describes a non-common image corresponding to the common image along the main scanning direction of the common image, or a non-common image corresponding to the common image along the sub-scanning direction of the common image. The non-common image corresponding to the common image is described along the main scanning direction of the common image in the order of adding the attribute information to the common image identified by the image identifying unit. Select whether to give priority to the sub-scanning direction, or to give priority to the main scanning direction when a non-common image corresponding to the common image is described along the sub-scanning direction of the common image. The image data processing apparatus according to claim 1, wherein the image data processing apparatus is capable of processing. 前記属性付加手段は、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されるか、共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されるかに応じて、前記画像識別手段によって識別された非共通画像に付加する属性情報を、共通画像に対して、前記共通画像の主走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に主走査方向を優先するか、又は、前記共通画像の副走査方向に沿って当該共通画像に対応した非共通画像が記載されている場合に副走査方向を優先するかを選択することができることを特徴とする請求項1に記載の画像データ処理装置。 The attribute adding means describes a non-common image corresponding to the common image along the main scanning direction of the common image, or a non-common image corresponding to the common image along the sub-scanning direction of the common image. Depending on whether or not the attribute information to be added to the non-common image identified by the image identification means is non-common corresponding to the common image along the main scanning direction of the common image with respect to the common image. Priority is given to the main scanning direction when an image is described, or priority is given to the sub scanning direction when a non-common image corresponding to the common image is described along the sub scanning direction of the common image. image data processing apparatus according to claim 1, characterized in that it is possible to choose.
JP2005011541A 2005-01-19 2005-01-19 Image data processing device Expired - Fee Related JP4665522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005011541A JP4665522B2 (en) 2005-01-19 2005-01-19 Image data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005011541A JP4665522B2 (en) 2005-01-19 2005-01-19 Image data processing device

Publications (2)

Publication Number Publication Date
JP2006203429A JP2006203429A (en) 2006-08-03
JP4665522B2 true JP4665522B2 (en) 2011-04-06

Family

ID=36961048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005011541A Expired - Fee Related JP4665522B2 (en) 2005-01-19 2005-01-19 Image data processing device

Country Status (1)

Country Link
JP (1) JP4665522B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5169648B2 (en) * 2008-09-04 2013-03-27 富士ゼロックス株式会社 Original image search device and original image search program
JP6175872B2 (en) * 2013-04-10 2017-08-09 ブラザー工業株式会社 Printing apparatus and content editing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320575A (en) * 2000-05-11 2001-11-16 Minolta Co Ltd Device and method for forming image and computer readable recording medium with image forming program stored therein
JP2002027228A (en) * 2000-07-07 2002-01-25 Minolta Co Ltd Equipment and method of processing image, and recording medium
JP2003141444A (en) * 2001-10-30 2003-05-16 Canon Inc Image processing device, control method of image processing device, program and storage medium
JP2004074786A (en) * 2003-07-28 2004-03-11 Fujitsu Ltd Printer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320575A (en) * 2000-05-11 2001-11-16 Minolta Co Ltd Device and method for forming image and computer readable recording medium with image forming program stored therein
JP2002027228A (en) * 2000-07-07 2002-01-25 Minolta Co Ltd Equipment and method of processing image, and recording medium
JP2003141444A (en) * 2001-10-30 2003-05-16 Canon Inc Image processing device, control method of image processing device, program and storage medium
JP2004074786A (en) * 2003-07-28 2004-03-11 Fujitsu Ltd Printer

Also Published As

Publication number Publication date
JP2006203429A (en) 2006-08-03

Similar Documents

Publication Publication Date Title
JP4872214B2 (en) Automatic scoring device
JP2006201935A (en) Image data processor
US8542407B2 (en) Image processing apparatus and method determines attributes of image blocks based on pixel edge intensities relative to normalized and fixed thresholds
JP3695163B2 (en) Image forming apparatus
US8027061B2 (en) Security encoding unit and image forming apparatus including same
JP3946038B2 (en) Image processing apparatus and image forming apparatus
JP3622994B2 (en) Bar code recording device
US6456394B1 (en) Method for reducing halo print defects associated with color images
US20050286087A1 (en) Image outputting system, image outputting method, program for executing the method and a computer-readable information recording medium on which the program is recorded
JP4665522B2 (en) Image data processing device
JP2007163679A (en) Image forming apparatus and control method and program therefor
US7460274B2 (en) Controlling apparatus for outputting processed image data
JP2005111852A (en) Imaging device, printing control method and program
JP2006268767A (en) Image processor, and report format entry data processing system
JP3269842B2 (en) Bilingual image forming device
JP3753684B2 (en) Image reading apparatus and image forming apparatus
JPH05266074A (en) Translating image forming device
JP2004094731A (en) Image forming apparatus and its method
JP4133674B2 (en) Image processing apparatus, image reading apparatus, and color copying apparatus
US20160248927A1 (en) Image forming apparatus
JPH05324709A (en) Bilingual image forming device
JP3675181B2 (en) Image recognition device
JP3922990B2 (en) Image processing apparatus and image forming apparatus
EP2001216A1 (en) Security encoding unit and image forming apparatus including same
JP2006215382A (en) Test question creating system for preventing unjustness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees