JP5375675B2 - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP5375675B2
JP5375675B2 JP2010046674A JP2010046674A JP5375675B2 JP 5375675 B2 JP5375675 B2 JP 5375675B2 JP 2010046674 A JP2010046674 A JP 2010046674A JP 2010046674 A JP2010046674 A JP 2010046674A JP 5375675 B2 JP5375675 B2 JP 5375675B2
Authority
JP
Japan
Prior art keywords
image
information
matching
processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010046674A
Other languages
Japanese (ja)
Other versions
JP2011180984A (en
Inventor
太郎 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010046674A priority Critical patent/JP5375675B2/en
Publication of JP2011180984A publication Critical patent/JP2011180984A/en
Application granted granted Critical
Publication of JP5375675B2 publication Critical patent/JP5375675B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce capacity tightness of an image storage device by estimating contents of various image processing to which a plurality of pieces of image data have been subjected, on the basis of image contents, machine use conditions, etc., thereby obtaining an image conversion method and managing the plurality of pieces of image data only with one template, difference data, and the conversion method. <P>SOLUTION: In order to reduce capacity of an HDD 105, a CPU 106 divides stored images A and B into regions to calculate edge images. The CPU performs first matching processing of the edge images between the image regions and performs second matching processing of color information with respect to matched image regions and registers matched common image regions. With respect to image regions not matched in the first matching processing, the CPU refers to use history information of the machine to estimate an image conversion method, converts one image, and performs the first matching processing again. In the case of not matching, difference information and the conversion method are registered. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、画像容量の圧迫を軽減した画像処理装置、画像処理方法、プログラムおよび記録媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium that reduce image capacity compression.

通常、MFP(複合機)にはHDDなどの記憶装置が内蔵され、画像データの蓄積が可能であるが、画像データはテキストファイルなどに比べて容量が大きく、大量の原稿画像を蓄積すると記憶装置の容量を圧迫する。   Normally, an MFP (multifunction peripheral) has a built-in storage device such as an HDD, and image data can be stored. However, the image data has a larger capacity than a text file or the like, and if a large amount of original images is stored, the storage device Squeeze capacity.

そこで、このような容量不足を回避する方法として、リビジョン(版)管理などで原稿の履歴情報を全て保存する場合に、すべての履歴の画像データを蓄積するのではなく、一つの画像データとその画像データからの差分情報のみを管理するという方法がある(特許文献1を参照)。   Therefore, as a method of avoiding such a shortage of capacity, when all history information of a document is stored by revision (version) management or the like, instead of storing all history image data, one image data and its There is a method of managing only difference information from image data (see Patent Document 1).

しかし、上記した方法は、元が同一原稿の履歴情報を差分で管理しているので、フォーマットが同一で、その中身が異なる画像(例えばPPTのテンプレート、所定フォーマットの文書など)には適用できず、また、適用した場合でも以下のような問題がある。すなわち、
1.同一フォーマットであっても、フルカラー画像・2色画像・モノクロ画像・ネガポジ画像など、MFPに蓄積される画像が異なり、また原稿も、特定の色をドロップアウトした原稿、トナーセーブで出力した原稿、カラーユニバーサル(CUD)対応した原稿など種々ある。
However, since the above-described method manages history information of the same original document as a difference, it cannot be applied to images having the same format and different contents (for example, PPT templates, documents of a predetermined format, etc.). Even when applied, there are the following problems. That is,
1. Even if the format is the same, images stored in the MFP, such as full-color images, two-color images, monochrome images, and negative-positive images, are different. There are various types of originals that support color universal (CUD).

上記した場合、色に関係のないエッジ情報などは、テンプレートとのマッチングが取れるが、色情報は別プレーンで確保しなければならず、プレーン分の容量が多くなるという問題がある。
2.集約画像、変倍画像、一部をトリミングされた画像(部分コピーした画像)、パンチ穴のある画像などは、マッチングで一致しないので、複数のテンプレートを必要とし、容量が多くなるという問題がある。
In the case described above, edge information that is not related to color can be matched with a template, but color information must be secured in a separate plane, and there is a problem that the capacity for the plane increases.
2. Aggregated images, scaled images, partially trimmed images (partially copied images), images with punched holes, etc. do not match in matching, so there is a problem that multiple templates are required and the capacity increases. .

本発明は上記した課題に鑑みてなされたもので、
本発明の目的は、様々な処理を行った複数の画像データに対して、実施された画像処理内容を画像中身やマシンの使用状況などから推定して、画像データの変換方法を求め、1つのテンプレートと差分データと変換方法のみで管理することにより、画像記憶装置の容量圧迫を軽減した画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。
The present invention has been made in view of the above problems,
It is an object of the present invention to obtain a method for converting image data by estimating the content of image processing performed on a plurality of image data subjected to various processes from the contents of the image and the usage status of a machine. An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a recording medium that reduce the capacity compression of the image storage device by managing only with a template, difference data, and a conversion method.

本発明は、様々な処理を行った複数の画像データに対して、実施された画像処理内容を画像中身やマシンの使用状況などから推定し、画像データの変換方法を求めることで、1つのテンプレートと差分データと変換方法のみを保存する(複数のテンプレートを持たない)ことを要点とする。   The present invention estimates the content of image processing performed on a plurality of image data subjected to various processes from the contents of the image and the usage status of the machine, and obtains a method for converting the image data, thereby obtaining one template. The main point is to store only the difference data and the conversion method (without a plurality of templates).

本発明の概要を説明する(図1を参照)。HDDなどに蓄積されている画像に対して、まず画像領域分割を行う(S1)。次に、分割された領域ごとに同じテンプレートであるか否かをエッジ成分でパターンマッチングを行う(S2)。エッジ情報でマッチングが不一致である場合は、マシンの使用履歴情報や画像配置情報をもとに推定を行い、画像を変換してから再度、マッチング処理をトライする(S4)。S4→S2で再マッチングを行っても、エッジ情報のマッチング処理の不一致の回数が、所定の閾値を超える画像領域に対しては、画像領域そのものと画像フレームに対する画像領域の位置座標を蓄積する(S6、S10)。   An outline of the present invention will be described (see FIG. 1). First, image area division is performed on an image stored in an HDD or the like (S1). Next, pattern matching is performed using edge components to determine whether or not the divided template is the same template (S2). If the matching does not match in the edge information, estimation is performed based on the machine usage history information and the image arrangement information, the image is converted, and the matching process is tried again (S4). Even if rematching is performed from S4 to S2, the position coordinates of the image area itself and the image area relative to the image frame are accumulated for an image area in which the number of mismatches in the edge information matching process exceeds a predetermined threshold ( S6, S10).

S2で一致した画像領域に対しては、エッジ以外でのマッチング処理(例えば対象となる二つの画像の色差でマッチング)を行う(S3)。S3で、マッチングが不一致である場合は、マシンの使用履歴情報や色情報などをもとに推定を行い、画像を変換して再度、マッチング処理をトライする(S5)。   For the image regions matched in S2, matching processing other than the edge (for example, matching using the color difference between two target images) is performed (S3). If the matching does not match in S3, estimation is performed based on the machine usage history information and color information, the image is converted, and the matching process is tried again (S5).

S3で一致した場合は、共通フォーマットとして一方の画像領域そのものと画像フレームに対するフォーマットの位置座標を蓄積する。また、S4、S5で画像変換を行って一致した場合は、その変換内容も併せて記憶する。すなわち、共通フォーマット情報、共通フォーマットへの画像変換方法の情報、共通フォーマット以外の差分情報、画像フレームに対する各々の領域の位置情報が蓄積される(S9)。   If they match in S3, the position coordinates of the format for one image area itself and the image frame are stored as a common format. In addition, when the image conversion is performed in S4 and S5 and they match, the conversion contents are also stored. That is, common format information, information on the image conversion method to the common format, difference information other than the common format, and position information of each region with respect to the image frame are accumulated (S9).

S5→S3で再マッチングを行っても、エッジ情報以外のマッチング処理の不一致の回数が、所定の閾値を超える画像領域に対しては、S3のマッチング処理で最も結果が良かった画像変換後の画像領域で、S3の基準よりも緩い色情報のマッチング処理を行う(S7、S8)。S8のマッチングでも不一致であれば、比較した2つの画像領域は全く異なった色情報をもっているものとして、エッジ情報のマッチングが不一致の場合と同様に、差分情報として画像領域そのものと画像フレームに対する画像領域の位置座標を蓄積する(S10)。また、S8のマッチングで一致した場合は、おおよそ両者の色情報が合っているので、S9と同様に共通フォーマットとして一方の画像領域と画像フレームに対するフォーマットの位置座標を蓄積する。ただし、S9との違いは色情報のマッチングを補助するための補助データも併せて蓄積する(S11)。   Even if rematching is performed from S5 to S3, for an image area where the number of mismatches in the matching process other than the edge information exceeds a predetermined threshold, the image after image conversion having the best result in the matching process in S3 In the area, color information matching processing that is looser than the standard of S3 is performed (S7, S8). If the matching in S8 does not match, the two compared image areas have completely different color information, and the image area itself and the image area for the image frame are used as difference information, as in the case where the matching of edge information does not match. Are accumulated (S10). Also, if they match in the matching in S8, the color information of both is roughly matched, so that the position coordinates of the format for one image region and the image frame are stored as a common format as in S9. However, the difference from S9 is that auxiliary data for assisting color information matching is also accumulated (S11).

本発明によれば、共通フォーマット情報(テンプレート情報)と変換情報のみを保存することで、編集や加工されているテンプレートなどに対して別々に保存する必要がなくなり、記憶装置の容量圧迫を軽減することができる。   According to the present invention, by saving only common format information (template information) and conversion information, it is not necessary to save separately for templates that have been edited or processed, and the capacity of the storage device is reduced. be able to.

本発明の実施例の処理フローチャートを示す。The processing flowchart of the Example of this invention is shown. 本発明に係るデジタル画像処理装置(MFP)の全体構成を示す。1 shows an overall configuration of a digital image processing apparatus (MFP) according to the present invention. 第1、第2の画像処理部の構成を示す。The structure of the 1st, 2nd image processing part is shown. 実施例1の処理を説明する画像例を示す。The example of an image explaining the process of Example 1 is shown. 実施例1のマッチング処理を説明する図である。It is a figure explaining the matching process of Example 1. FIG. 画像Aの色相分布情報の例を示す。An example of hue distribution information of image A is shown. パラメータによる変換方法を説明する図である。It is a figure explaining the conversion method by a parameter. HDDに蓄積する情報を示す。Indicates information stored in the HDD. 実施例2の処理を説明する画像例を示す。The example of an image explaining the process of Example 2 is shown. マシンの使用履歴情報を示す。Shows machine usage history information. 実施例2のマッチング処理を説明する図である。It is a figure explaining the matching process of Example 2. FIG. 画像の一部を切り出して蓄積する処理を説明する図である。It is a figure explaining the process which cuts out and accumulate | stores a part of image. HDD容量低減動作時の操作表示装置の画面例を示す。An example of the screen of the operation display device during the HDD capacity reduction operation is shown. 実施例3の処理を説明する画像例を示す。The example of an image explaining the process of Example 3 is shown. 色情報に関する編集履歴情報を示す。Indicates editing history information related to color information. 実施例3のマッチング処理を説明する図である。It is a figure explaining the matching process of Example 3. FIG. 類似している画像同士をマップ化した例を示す。An example in which similar images are mapped is shown.

以下、発明の実施の形態について図面により詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

デジタルカラー複写機をベースにFAX(ファクシミリ)機能、プリンタ機能、スキャナ機能、ドキュメントボックス機能などを複合したMFP(複合機)に、本発明の画像処理装置を適用した実施例を以下に示す。   An embodiment in which the image processing apparatus of the present invention is applied to an MFP (multifunction machine) that combines a FAX (facsimile) function, a printer function, a scanner function, a document box function and the like based on a digital color copying machine will be described below.

図2は、本発明に係るデジタル画像処理装置(MFP)の全体構成を示す。MFPは、図2に示すように、読取り装置101と、第1の画像処理部102と、バス制御装置103と、第2の画像処理部104と、HDD105と、CPU106と、メモリ107と、プロッタI/F装置108と、プロッタ装置109と、操作表示装置110と、回線I/F装置111と、外部I/F装置112と、S.B.113と、ROM114と、汎用バス115等を備えている。このMFPは、外部装置であるFAX116やPC117とデータ通信可能に構成されている。   FIG. 2 shows the overall configuration of a digital image processing apparatus (MFP) according to the present invention. As shown in FIG. 2, the MFP includes a reading device 101, a first image processing unit 102, a bus control device 103, a second image processing unit 104, an HDD 105, a CPU 106, a memory 107, and a plotter. I / F device 108, plotter device 109, operation display device 110, line I / F device 111, external I / F device 112, S.I. B. 113, ROM 114, general-purpose bus 115, and the like. This MFP is configured to be able to perform data communication with the FAX 116 and the PC 117 which are external devices.

読取り装置101は、CCD光電変換素子からなるラインセンサとA/Dコンバータとそれら駆動回路を具備し、セットされた原稿をスキャンして得られる原稿の濃淡情報に基づいて、RGB各8ビットのデジタル画像データを生成して第1の画像処理部102に出力する。   The reading device 101 includes a line sensor composed of a CCD photoelectric conversion element, an A / D converter, and a drive circuit thereof. Based on the density information of the original obtained by scanning the set original, the 8-bit RGB digital data is obtained. Image data is generated and output to the first image processing unit 102.

第1の画像処理部102は、読取り装置101から入力されるデジタル画像データに対して、予め定めた特性に統一する処理を施して出力する。統一する特性は画像データをMFP内部に蓄積し、その後再利用する場合に、出力先の変更に適する特性であり、その詳細は後述する。本実施例では上記画像処理をDSPで実行する。   The first image processing unit 102 performs processing for unifying the digital image data input from the reading device 101 to a predetermined characteristic and outputs the digital image data. The characteristics to be unified are characteristics suitable for changing the output destination when image data is stored in the MFP and then reused, and details thereof will be described later. In this embodiment, the image processing is executed by a DSP.

バス制御装置103は、画像処理装置内で必要な画像データや制御コマンド等の各種データの送受信を行うデータバスの制御装置であり、複数種のバス規格間のブリッジ機能を有している。本実施例では、バス制御装置103は、第1の画像処理部102、第2の画像処理部104、CPU106とはPCI−Expressバスで接続し、また、HDD105とはATAバスで接続してASIC化している。   The bus control device 103 is a data bus control device that transmits and receives various data such as image data and control commands necessary in the image processing device, and has a bridge function between a plurality of types of bus standards. In this embodiment, the bus control device 103 is connected to the first image processing unit 102, the second image processing unit 104, and the CPU 106 via a PCI-Express bus, and is connected to the HDD 105 via an ATA bus. It has become.

第2の画像処理部104は、第1の画像処理部102で予め定めた特性を統一された画像データに対し、ユーザーから指定される出力先に適した画像処理を施して出力する。その詳細は後述する。   The second image processing unit 104 performs image processing suitable for an output destination designated by the user on the image data whose characteristics predetermined by the first image processing unit 102 are unified, and outputs the image data. Details thereof will be described later.

HDD(蓄積装置)105は、デスクトップパソコンにも使用されている電子データを保存するための大型の記憶装置であり、主に画像データを蓄積する。また本実施例では、IDEを拡張して規格化されているATAバス接続のハードディスクを使用する。画像データは、通常のテキストファイルなどに比べて大容量であるため、膨大な画像データを蓄積すると、記憶装置の容量が一杯となり、新たに画像データを蓄積できないばかりでなく、マシンのパフォーマンスにも影響を与える。   An HDD (storage device) 105 is a large-sized storage device for storing electronic data that is also used in a desktop personal computer, and mainly stores image data. In this embodiment, an ATA bus-connected hard disk standardized by expanding IDE is used. Since image data is larger in capacity than ordinary text files, storing a large amount of image data will fill up the storage device and not be able to store new image data. Influence.

CPU106は、デジタル画像処理装置の制御全体を司るマイクロプロセッサである。本実施例では、近年普及してきたCPUコア単体に+αの機能を追加したIntegrated CPUを使用し、例えば、PMC社のRM11100で、汎用規格I/Fとの接続機能や、クロスバースイッチを使ったこれらバス接続機能がインテグレートされたCPUを使用する。   The CPU 106 is a microprocessor that controls the entire control of the digital image processing apparatus. In this embodiment, an integrated CPU in which a + α function is added to a CPU core that has been popular in recent years is used. For example, a connection function with a general-purpose standard I / F or a crossbar switch is used in a PMC RM11100. A CPU in which these bus connection functions are integrated is used.

メモリ107は、複数種のバス規格間をブリッジする際の速度差や、接続された部品自体の処理速度差を吸収するために、一時的にデータを記憶し、CPU106が本デジタル画像処理装置の制御を行う際に、プログラムや中間処理データを一時的に記憶する揮発性メモリである。CPU106は、高速処理が求められるため、通常起動時にROM114に記憶されたブートプログラムにてシステムを起動し、その後は高速にアクセス可能なメモリに展開されたプログラムによって処理を行う。本実施例では、メモリ107として、規格化されパーソナルコンピュータに使用されているDIMMを使用する。   The memory 107 temporarily stores data in order to absorb the speed difference when bridging between multiple types of bus standards and the processing speed difference of the connected components themselves, and the CPU 106 stores the digital image processing apparatus. It is a volatile memory that temporarily stores programs and intermediate processing data when performing control. Since high speed processing is required, the CPU 106 starts up the system with a boot program stored in the ROM 114 during normal startup, and thereafter performs processing with a program developed in a memory accessible at high speed. In this embodiment, a standardized DIMM used for a personal computer is used as the memory 107.

プロッタI/F装置108は、CPU107にインテグレートされた汎用規格I/Fを経由して送出されてくるCMYKの画像データを受け取ると、プロッタ装置109の専用I/Fに出力するバスブリッジ処理を行う。本実施例では、汎用規格I/Fとして、例えば、PCI−Expressバスを使用する。   When the plotter I / F device 108 receives CMYK image data sent via the general-purpose standard I / F integrated with the CPU 107, the plotter I / F device 108 performs a bus bridge process for outputting to the dedicated I / F of the plotter device 109. . In the present embodiment, for example, a PCI-Express bus is used as the general-purpose standard I / F.

プロッタ装置109は、CMYKからなる画像データを受け取ると、レーザービームを用いた電子写真プロセスを使用して、転写紙に受け取った画像データを出力する。S.B.113は、パーソナルコンピュータに使用されるチップセットのひとつであり、South Bridgeと呼ばれる汎用の電子デバイスである。S.B.113は、主にPCI−ExpressとISAブリッジを含むCPUシステムを構築する際によく使用されるバスのブリッジ機能を汎用回路化したもので、本実施例ではROM114との間をブリッジしている。ROM114は、CPU106が本デジタル画像処理装置の制御を行う際のプログラム(ブートプログラムを含む)が格納されるメモリである。   When the plotter device 109 receives the image data composed of CMYK, the plotter device 109 outputs the received image data on the transfer paper using an electrophotographic process using a laser beam. S. B. Reference numeral 113 denotes one of chip sets used for a personal computer, which is a general-purpose electronic device called South Bridge. S. B. Reference numeral 113 denotes a bus bridge function that is often used when constructing a CPU system mainly including a PCI-Express and an ISA bridge, and bridges the ROM 114 in this embodiment. The ROM 114 is a memory that stores a program (including a boot program) used when the CPU 106 controls the digital image processing apparatus.

操作表示装置110は、本デジタル画像処理装置とユーザーのインターフェースを行う部分であり、LCD(液晶表示装置)とキースイッチから構成され、装置の各種状態や操作方法をLCDに表示し、ユーザーからのキースイッチ入力を検知する。本実施例では、PCI−Expressバスを介してCPUと接続する。回線I/F装置111は、PCI−Expressバスと電話回線を接続する装置であり、この装置により本デジタル画像処理装置は電話回線を介して各種データのやり取りを行うことが可能になる。外部I/F装置112は、PCI−Expressバスと外部装置を接続する装置であり、この装置により本デジタル画像処理装置は外部装置と各種データのやり取りを行うことが可能になる。本実施例では、その接続I/Fにネットワーク(イーサネット(登録商標))を使用する。すなわち、本デジタル画像処理装置は、外部I/F装置112を介してネットワークに接続されている。FAX116は、通常のファクシミリであり、電話回線を介してMFPと画像データの送受信を行う。PC117はパーソナルコンピュータであり、インストールされたアプリケーションソフトやドライバを介して、ユーザーは本デジタル画像処理装置に対して各種制御や画像データの入出力を行う。   The operation display device 110 is a part that performs an interface between the digital image processing device and the user. The operation display device 110 includes an LCD (liquid crystal display device) and key switches, displays various states and operation methods of the device on the LCD, and receives a user's request. Detects key switch input. In this embodiment, the CPU is connected to the CPU via a PCI-Express bus. The line I / F device 111 is a device that connects a PCI-Express bus and a telephone line. With this apparatus, the digital image processing apparatus can exchange various data via the telephone line. The external I / F device 112 is a device that connects a PCI-Express bus and an external device. This device enables the digital image processing apparatus to exchange various data with the external device. In this embodiment, a network (Ethernet (registered trademark)) is used for the connection I / F. That is, this digital image processing apparatus is connected to the network via the external I / F apparatus 112. A FAX 116 is a normal facsimile, and transmits / receives image data to / from the MFP via a telephone line. A PC 117 is a personal computer, and a user performs various controls and input / output of image data with respect to the digital image processing apparatus via installed application software and drivers.

以下に、基本となる通常のコピー動作処理・送信動作(容量低減を行わない場合)を説明し、次いで、容量低減の動作を説明する。
(コピー動作)
ユーザーは原稿を読取り装置101にセットし、所望するモード等の設定とコピー開始の入力を操作表示装置110により行う。操作表示装置110は、ユーザーから入力された情報を、機器内部の制御コマンドデータに変換して発行する。発行された制御コマンドデータは、PCI−Expressバスを介してCPU106に通知される。
The basic normal copy operation processing / transmission operation (when capacity reduction is not performed) will be described below, and then the capacity reduction operation will be described.
(Copy operation)
The user sets an original on the reading device 101 and performs setting of a desired mode and input of copy start using the operation display device 110. The operation display device 110 converts information input by the user into control command data inside the device and issues it. The issued control command data is notified to the CPU 106 via the PCI-Express bus.

CPU106はコピー開始の制御コマンドデータに従って、コピー動作プロセスのプログラムを実行し、コピー動作に必要な設定や動作を順に実行する。以下に動作プロセスを説明する。   The CPU 106 executes a copy operation process program in accordance with the copy start control command data, and sequentially executes settings and operations necessary for the copy operation. The operation process is described below.

#1.読取り装置101で原稿をスキャンして得られたRGB各8ビットの画像データは、第1の画像処理部102で予め定めた特性に統一され、バス制御装置103に送られる。   # 1. The RGB 8-bit image data obtained by scanning the document with the reading device 101 is unified with predetermined characteristics by the first image processing unit 102 and sent to the bus control device 103.

#2.バス制御装置103は第1の画像処理部102からのRGB画像データを受け取ると、CPU106を介してメモリ107に蓄積する。   # 2. When the bus control device 103 receives the RGB image data from the first image processing unit 102, the bus control device 103 stores it in the memory 107 via the CPU 106.

#3.次に、メモリ107に蓄積されたRGB画像データは、CPU106及びバス制御装置103を介して、第2の画像処理部104に送られる。   # 3. Next, the RGB image data stored in the memory 107 is sent to the second image processing unit 104 via the CPU 106 and the bus control device 103.

#4.第2の画像処理部104は、受け取ったRGB画像データを、プロッタ出力用のCMYK画像データに変換して出力する。   # 4. The second image processing unit 104 converts the received RGB image data into CMYK image data for plotter output and outputs it.

#5.バス制御装置103は、第2の画像処理部104からのCMYK画像データを受け取ると、CPU106を介してメモリ107に蓄積する。   # 5. When the bus control apparatus 103 receives CMYK image data from the second image processing unit 104, the bus control apparatus 103 stores the data in the memory 107 via the CPU 106.

#6.次に、メモリ107に蓄積されたCMYK画像データは、CPU106及びプロッタI/F装置108を介して、プロッタ装置109に送られる。   # 6. Next, the CMYK image data stored in the memory 107 is sent to the plotter device 109 via the CPU 106 and the plotter I / F device 108.

#7.プロッタ装置109は、受け取ったCMYK画像データを転写紙に出力し、原稿のコピーが生成される。   # 7. The plotter device 109 outputs the received CMYK image data to transfer paper, and a copy of the document is generated.

図3(a)は、第1の画像処理部102の構成を示し、図3(b)は、第2の画像処理部104の構成を示す。   FIG. 3A shows the configuration of the first image processing unit 102, and FIG. 3B shows the configuration of the second image processing unit 104.

図3(a)の第1の画像処理部102において、像域分離処理部201は、読取装置101から受け取ったRGB画像データを1画素ごとに、文字領域であるか、絵柄(網点)領域であるかを判定し、その領域情報を後述のフィルタ処理などで利用する。地肌除去処理部202は、読取装置101から受け取ったRGB画像データの地肌部をラインごとに追従しながら算出し、適切な地肌値を除去する処理を行う。通常の白い紙の原稿だけでなく、新聞紙や色紙などの地肌を除去し、白い原稿として出力する効果もある。   In the first image processing unit 102 in FIG. 3A, the image area separation processing unit 201 is a character area or a pattern (halftone dot) area for each pixel of the RGB image data received from the reading apparatus 101. And the area information is used in the filter processing described later. The background removal processing unit 202 calculates the background portion of the RGB image data received from the reading apparatus 101 while following each line, and performs processing for removing an appropriate background value. In addition to normal white paper originals, backgrounds such as newspapers and colored papers are removed to produce a white original.

γ変換部203は、読取り装置101から受け取ったRGB画像データの明るさを予め定めた特性に統一する。本実施例では、明度リニアな特性に変換し、主に階調性の補正、グレーバランスの補正などを行う。孤立点除去処理部204は、画像データ中の孤立点を検出し、削除する。   The γ conversion unit 203 unifies the brightness of the RGB image data received from the reading device 101 into predetermined characteristics. In this embodiment, the lightness is converted into linear characteristics, and gradation correction, gray balance correction, and the like are mainly performed. The isolated point removal processing unit 204 detects and deletes isolated points in the image data.

フィルタ処理部205は、像域分離処理で得られる像域分離情報に応じて、RGB画像データの文字部に対しては、鮮鋭性を向上させる処理を施し、RGB画像データの絵柄部(網点部)に対しては平滑処理を行い、滑らかな階調性を重視する処理を施す。   The filter processing unit 205 performs a process for improving the sharpness on the character part of the RGB image data in accordance with the image area separation information obtained by the image area separation process. Part) is subjected to a smoothing process and a process emphasizing smooth gradation.

色変換部206は、RGB画像データの色を予め定めた特性に統一する。本実施例では、色空間がAdobe(登録商標)−RGBのような色空間になるように変換する。変倍処理部207は、RGB画像データのサイズ(解像度)を予め定めた特性に統一する。本実施例では、サイズ(解像度)を600dpiに変換する。   The color conversion unit 206 unifies the colors of the RGB image data with predetermined characteristics. In this embodiment, conversion is performed so that the color space is a color space such as Adobe (registered trademark) -RGB. The scaling processing unit 207 unifies the size (resolution) of the RGB image data to a predetermined characteristic. In this embodiment, the size (resolution) is converted to 600 dpi.

図3(b)の第2の画像処理部104において、フィルタ処理部301は、RGB画像データの鮮鋭性を、プロッタ装置109に出力する場合の再現性が良くなるように補正する。具体的には所望するモード情報に従って鮮鋭化/平滑化処理を施す。例えば文字モードでは文字をハッキリ/クッキリとするために鮮鋭化処理を施し、写真モードでは滑らかに階調性を表現するため平滑化処理を施す。   In the second image processing unit 104 in FIG. 3B, the filter processing unit 301 corrects the sharpness of the RGB image data so that the reproducibility when output to the plotter device 109 is improved. Specifically, sharpening / smoothing processing is performed according to desired mode information. For example, in the character mode, a sharpening process is performed to make the character clear / clear, and in the photo mode, a smoothing process is performed to smoothly express gradation.

色変換部302は、RGB各8ビットのデータを受け取るとプロッタ装置用の色空間であるCMYK各8ビットに変換する。このとき、ユーザーが所望するモード情報に従って彩度もあわせて調整する。変倍処理部303は、CMYK画像データのサイズ(解像度)を、プロッタ装置109の再現性能に従ってサイズ(解像度)変換を行う。本実施例では、プロッタ109の性能が600dpi出力であるため、特に変換は行わない。   When the color conversion unit 302 receives 8-bit RGB data, the color conversion unit 302 converts the data into 8-bit CMYK, which is a color space for the plotter device. At this time, the saturation is also adjusted according to the mode information desired by the user. The scaling processing unit 303 performs size (resolution) conversion on the size (resolution) of the CMYK image data in accordance with the reproduction performance of the plotter device 109. In this embodiment, since the performance of the plotter 109 is 600 dpi output, no particular conversion is performed.

階調処理部304では、CMYK各8ビットを受け取るとプロッタ装置109の階調処理能力に従った階調数変換処理を行う。本実施例では、CMYK各2ビットに疑似中間調処理の一つである誤差拡散法を用いて階調数変換する。マスク処理部305では、階調変換したCMYKデータに対して、原稿の影などを消去するために、画像データの周辺部のデータを白データで上書きする。   When the gradation processing unit 304 receives 8 bits for each of CMYK, it performs gradation number conversion processing in accordance with the gradation processing capability of the plotter device 109. In this embodiment, the number of gradations is converted into 2 bits of CMYK using an error diffusion method which is one of pseudo halftone processes. In the mask processing unit 305, the peripheral data of the image data is overwritten with the white data in order to erase the shadow of the document from the gradation-converted CMYK data.

図1は、本発明の実施例の処理フローチャートである。以下に、図1を参照して、本発明の特徴である容量圧迫動作を説明する。なお、画像蓄積動作とは、上記したコピー動作の#1〜#2までの動作の後、#2でメモリ107に蓄積された画像データをCPU106がバス制御装置103を介して、HDD105に蓄積する動作のことである。   FIG. 1 is a process flowchart of an embodiment of the present invention. Hereinafter, the capacity compression operation, which is a feature of the present invention, will be described with reference to FIG. Note that the image storage operation is that the CPU 106 stores the image data stored in the memory 107 in # 2 in the HDD 105 via the bus control device 103 after the operations from # 1 to # 2 of the copy operation described above. It is an operation.

HDD105の容量を低減するために、画像蓄積動作でHDD105に蓄積された画像Aと画像Bの容量低減を行う場合を説明する。以下説明する容量低減動作のトリガは、HDD105が所定の容量をオーバーした場合、例えば、容量が500GBのHDD105を搭載したMFPの場合、使用容量が480GBに達すると、容量低減動作が実施される。このような容量低減動作は、特に夜間や休日中などMFPを長時間使用しない場合に行うことが望ましい。   In order to reduce the capacity of the HDD 105, a case where the capacity of the images A and B stored in the HDD 105 in the image storing operation is reduced will be described. The trigger for the capacity reduction operation described below is performed when the HDD 105 exceeds a predetermined capacity, for example, in the case of an MFP equipped with the HDD 105 having a capacity of 500 GB, when the used capacity reaches 480 GB. Such a capacity reduction operation is preferably performed when the MFP is not used for a long time, such as at night or during holidays.

#10.HDD105に蓄積されている画像A、画像Bをバス制御装置103を介して、メモリ107に展開する。   # 10. The images A and B stored in the HDD 105 are expanded in the memory 107 via the bus control device 103.

#11.CPU106は画像A、画像Bに対して、画像領域分割を行う(S1)。画像領域を分割する方法としては、特許文献2、3に記載されたレイアウト解析を用いる。画像領域分割された全ての画像領域の左上X1、Y1座標と、画像領域の右下X2、Y2座標を、メモリ107に記憶する。図4(a)は、画像データA(フルカラー画像)、(b)は画像データB(モノクロ画像)を示し、(c)は、領域分割後の画像データA、(d)は領域分割後の画像データBを示す。   # 11. The CPU 106 performs image area division on the images A and B (S1). As a method of dividing the image region, layout analysis described in Patent Documents 2 and 3 is used. The upper left X1, Y1 coordinates of all the image areas divided and the lower right X2, Y2 coordinates of the image areas are stored in the memory 107. 4A shows image data A (full color image), FIG. 4B shows image data B (monochrome image), FIG. 4C shows image data A after area division, and FIG. 4D shows after area division. Image data B is shown.

#12.さらに、画像データA、画像データBの2値のエッジ画像(輪郭画像)を算出する。この処理は、CPU106が行っても良いし、メモリ107からバス制御装置103を介して、第2の画像処理部104のフィルタ処理部301の機能などを使用してもよい。   # 12. Further, binary edge images (contour images) of the image data A and the image data B are calculated. This processing may be performed by the CPU 106, or the function of the filter processing unit 301 of the second image processing unit 104 may be used from the memory 107 via the bus control device 103.

CPU106は、それぞれの画像領域同士でエッジ画像のパターンマッチング処理を総当りにより行う(S2)。画像データA、Bは共にスキャナ画像であるので、元のテンプレートが同じであったとしても、完全に一致することはありえない。そのため、画像領域のサイズが例えば±5%以内であれば、変倍処理を行って、二つの画像領域を同じ大きさにしてから、エッジ情報でのマッチングを行う(5%という数値は任意であり、ユーザーが適宜、選択してもよい)。   The CPU 106 performs pattern matching processing of edge images between the respective image areas by brute force (S2). Since the image data A and B are both scanner images, even if the original templates are the same, they cannot completely match. Therefore, if the size of the image region is within ± 5%, for example, the scaling process is performed to make the two image regions the same size, and then matching with edge information is performed (the numerical value of 5% is arbitrary) Yes, the user may choose as appropriate).

マッチング処理は、画像領域の総画素数に対して、マッチング不一致の画素数が所定の閾値以内であれば、二つの画像領域は一致したものとする。例えば、10000画素の2値のエッジ画像領域同士でマッチングを行った結果、そのうちの300画素がマッチング不一致(お互いの画素が白と黒)であり、所定の閾値が5%であれば、10000×5%=500画素以下であるので、この画像領域同士は一致しているものと判定する。エッジ情報のマッチングで一致した画像領域のみ、#13以降の処理を行う。図4(e)、(f)は、エッジ情報で一致した、画像データA、Bの画像領域を示す。すなわち、画像データAの絵11と画像データBの絵21が一致し、画像データAの絵12と画像データBの絵22が一致し、画像データAの絵13と画像データBの絵23が一致している。   In the matching process, if the number of matching mismatched pixels is within a predetermined threshold with respect to the total number of pixels in the image area, the two image areas are assumed to match. For example, as a result of matching between binary edge image areas of 10000 pixels, 300 pixels of them are mismatched (the pixels are white and black), and if the predetermined threshold is 5%, 10000 × Since 5% = 500 pixels or less, it is determined that the image regions match each other. Only the image areas matched by edge information matching are processed after # 13. FIGS. 4E and 4F show the image areas of the image data A and B that are matched by the edge information. That is, the picture 11 of the image data A and the picture 21 of the image data B match, the picture 12 of the image data A and the picture 22 of the image data B match, and the picture 13 of the image data A and the picture 23 of the image data B match. Match.

#13.前述した#12で、エッジ情報が一致した画像領域に対して、CPU106は、色情報のマッチング処理を行う(S3)。例えば、画像データA、BがAdobe(登録商標)−RGBの色空間で定義されたRGBデータであれば、RGB空間をLab空間に変換して、色差を比較する。色差は、Lab空間における2点間のユークリッド距離であり、人間の見た目の違いと距離にある程度の相関性がある。また、ユークリッド距離に対して、所定の重み付けをして補正を行うΔE94色差で評価しても良い。   # 13. In step # 12 described above, the CPU 106 performs color information matching processing on the image area where the edge information matches (S3). For example, if the image data A and B are RGB data defined in the Adobe (registered trademark) -RGB color space, the RGB space is converted into the Lab space and the color differences are compared. The color difference is the Euclidean distance between two points in the Lab space, and there is a certain degree of correlation between the difference in human appearance and the distance. Alternatively, the Euclidean distance may be evaluated by ΔE94 color difference that is corrected by applying a predetermined weight.

色差を比較する2つの画像領域において、1画素毎の色差を求め、その領域内の平均色差・最大色差が所定の閾値以内であれば、2つの画像領域同士の色情報が一致していると判定する。色情報のマッチング処理で平均色差・最大色差が所定の閾値以内で一致した画像領域に対しては、後述する#18の処理に進む。   In two image areas to be compared for color difference, the color difference for each pixel is obtained, and if the average color difference / maximum color difference in the area is within a predetermined threshold value, the color information of the two image areas match. judge. For image areas in which the average color difference and the maximum color difference are matched within a predetermined threshold in the color information matching process, the process proceeds to # 18 described later.

しかし、実際には画像Aがフルカラー画像であり、画像Bがモノクロ画像であるから、単純に色情報を比較しても一致しない。色情報を比較しても一致しない場合は、エッジ情報が一致するため元は同じ色情報であったが、何か画像処理や編集処理を行って色情報が一致しなくなったと判断し、その処理内容を推測して、画像Aから画像Bに変換する方法(もしくは画像Bから画像Aに変換する方法)を推定し、推定処理・画像変換・色情報マッチング処理によるマッチング処理で一致するか、不一致の回数が所定の閾値に達するまで繰り返し行う(S3、S5)。   However, since the image A is actually a full-color image and the image B is a monochrome image, even if color information is simply compared, they do not match. If the color information does not match even if the color information is compared, the edge information is the same and the original color information was the same, but it was determined that the color information no longer matched after performing some image processing or editing processing, and that processing Inferring the contents, estimating the method of converting from image A to image B (or the method of converting from image B to image A), and matching or mismatching in the matching process by the estimation process, image conversion, and color information matching process Is repeated until the number of times reaches a predetermined threshold (S3, S5).

図5は、色情報が一致しないときのマッチング処理を説明する図である。   FIG. 5 is a diagram for explaining the matching process when the color information does not match.

#14.色情報が一致しないときの処理内容を推定する推定処理について説明する。
「色情報推定処理」(S5の前半処理)
まず、色差の比較情報結果を基に、CPU106は画像に対する処理内容を調べる。
# 14. An estimation process for estimating the processing contents when the color information does not match will be described.
"Color information estimation process" (first half of S5)
First, based on the color difference comparison information result, the CPU 106 checks the processing content for the image.

色相ごとの色差の比較
色相毎に色差の不一致の程度が発生しているか調べる。まず、Lab空間で存在する範囲の広い画像Aに注目して、画像Aの画像領域の各画素に対して、a、b値より例えば6色相に分割し、その12色相のうち、どの色相で不一致となっているかを確認する。
Comparison of color difference for each hue It is checked whether a degree of color difference mismatch occurs for each hue. First, paying attention to the image A having a wide range existing in the Lab space, each pixel in the image area of the image A is divided into, for example, six hues based on the a and b values, and any of the twelve hues. Check for discrepancies.

画像Aと画像Bの場合は、フルカラー画像とモノクロ画像の違いであるので、全色相で色差が異なる。全色相の色差が異なる場合は、両方の画像の色相分布を確認する。そうすると、図6(a)、(b)のように、画像Aでは、全色相でかつ、ある程度の彩度をもった画像が存在するが、画像Bでは全画素ともa、bの値が0に近く、低彩度であるので、画像Aはフルカラー画像であり、画像Bはモノクロ画像であると推定できる。   In the case of the image A and the image B, since the difference is between a full color image and a monochrome image, the color difference is different in all hues. If the hues of all hues are different, check the hue distribution of both images. Then, as shown in FIGS. 6A and 6B, in the image A, there are images having all hues and a certain degree of saturation, but in the image B, the values of a and b are 0 for all the pixels. Therefore, it can be estimated that the image A is a full-color image and the image B is a monochrome image.

図6に示す色相ごとの画素数は理想的な値であるが、実際にはスキャナで読み取った画像であるので、モノクロ画像であっても低彩度の画素としてカウントされない画素もあり、また、同一の原稿を読み取っても全く同一の画素数分布をとらないことから、所定の閾値を設定し、閾値未満であればモノクロ画像である判定することになる(以下の説明では、全て理想的な場合で示している)。   The number of pixels for each hue shown in FIG. 6 is an ideal value, but since it is actually an image read by a scanner, there are pixels that are not counted as low-saturation pixels even in a monochrome image, Even if the same document is read, the same number of pixels distribution is not obtained. Therefore, a predetermined threshold value is set, and if it is less than the threshold value, it is determined that the image is a monochrome image. Show in case).

その他、全色相の色が異なる場合は、2つの画像の色相の分布を基に、種々推定することができる。以下にその一例を示す。
・図6(a)、(c)のような補色の関係にある画像に対しては、ネガポジ(白黒)変換を行ったと推定できる。
・図6(a)、(d)のように画像Aに対して、同じ割合ずつ各色相から画素が減少している(色相の多い順番などはかわらない)ので、彩度変換(淡い/濃い)を行っている、原稿が出力される際にトナーセーブされているなどと推定できる(複数の候補のうち、何れか一つの候補に絞る方法は、実施例3で説明する)。
・図6(a)、(e)のように色相分布が移動している場合((a)のR=(e)のY、(a)のY=(e)のG)は、色相に関する編集を行っていると推定することができる。
In addition, when the colors of all hues are different, various estimations can be made based on the distribution of hues of two images. An example is shown below.
It can be estimated that negative-positive (black and white) conversion has been performed on images having complementary colors as shown in FIGS.
As shown in FIGS. 6A and 6D, pixels are reduced from each hue by the same ratio with respect to the image A (the order of increasing hues does not change), so saturation conversion (light / dark) ), Toner is saved when the document is output, etc. (a method for narrowing down to any one of a plurality of candidates will be described in the third embodiment).
When the hue distribution is moving as shown in FIGS. 6A and 6E (R in (a) = Y in (e), Y in (a) = G in (e)) It can be presumed that editing is in progress.

また、全色相ではなく、ある特定の色相のみ色差が異なっている場合も推定可能であり、以下に一例を示す。
・図6(a)、(f)のように、画像Aでは全色相の画素があるのに対し、一方の画像はR色相しかない場合は、二色カラー変換していると推定することができる。
・画像Aでは全色相の画素があるのに対して、一方の画像はある特定の色相が存在しない場合は、ドロップカラー(色消し)処理を行っていると推定することができる。
Further, it is possible to estimate the case where the color difference is different only in a specific hue instead of the entire hue, and an example is shown below.
As shown in FIGS. 6 (a) and 6 (f), if image A has pixels of all hues but one image has only R hues, it can be estimated that two-color conversion has been performed. it can.
If the image A has pixels of all hues but one image does not have a specific hue, it can be estimated that a drop color (achromatic) process is being performed.

以上のように、色情報を基に、二つの画像の変換方法を推定する。   As described above, two image conversion methods are estimated based on color information.

#15.上記した#14で推定した変換方法を用いて画像を変換する(S5の後半処理)。   # 15. The image is converted using the conversion method estimated in # 14 (second half process of S5).

画像Aと画像Bの場合では、前述の通り、画像Aから画像Bへは、モノクロ変換を行ったと推定できるので、画像Aを実際にモノクロ変換する。モノクロ変換は、CPU106または第2の画像処理部104で行う。画像Aをモノクロ変換した画像を画像A’と呼ぶ。   In the case of the image A and the image B, as described above, since it can be estimated that the monochrome conversion has been performed from the image A to the image B, the image A is actually subjected to the monochrome conversion. The monochrome conversion is performed by the CPU 106 or the second image processing unit 104. An image obtained by monochrome-converting the image A is referred to as an image A ′.

#16.#15で変換した画像に対して、色情報のマッチング処理を行う。すなわち、画像A’と画像Bのうち、エッジ情報でマッチングした画像領域同士を再度、色情報のマッチング処理を行い、平均色差、最大色差が所定の閾値内である否かを確かめる。ここで、マッチング処理が不一致であれば、さらに#14の推定処理、#15の変換処理を繰り返し、再度、マッチング処理を行う。そして、不一致の回数が所定の閾値を超えた画像領域では、以下の#17の処理を行い、不一致の回数が所定の閾値未満で、色情報のマッチングが一致した画像領域では、#18の処理を行う(S7)。   # 16. Color information matching processing is performed on the image converted in # 15. That is, the image areas matched with the edge information in the images A ′ and B are again subjected to color information matching processing to confirm whether the average color difference and the maximum color difference are within a predetermined threshold. If the matching process does not match, the estimation process of # 14 and the conversion process of # 15 are further repeated, and the matching process is performed again. Then, in an image area where the number of mismatches exceeds a predetermined threshold, the following process of # 17 is performed. In an image area where the number of mismatches is less than the predetermined threshold and matching of color information matches, the process of # 18 is performed. (S7).

#17.色情報のマッチングが不一致の場合の処理を説明する。まず、平均色差がマッチングの基準よりも大きい(緩い)第二の閾値内にあるか否かを判断する(S8)。例えば、図4(c)、(d)の画像領域「絵11」と「絵21」同士を比較した場合に、画像変換を数回行った内、最も良かった結果が平均色差4.5、最大色差7であり、色情報のマッチングで一致となる基準の閾値が、平均色差で3、最大色差で5であるとする。このときの「絵11」を画像変換した画像領域を「絵11’」と呼ぶことにする。この場合、画像領域同士のマッチングでは平均色差、最大色差ともに閾値以上の値であるので、マッチングは不一致となる。不一致の回数が所定の閾値を超えた場合、画像変換を行った中で最も結果の良かった平均色差、最大色差の値と第二の閾値との比較を行う。第二の閾値を平均色差5、最大色差8とすると、画像領域「絵11」と「絵21」のマッチングは第二の閾値内である。   # 17. Processing when color information matching does not match will be described. First, it is determined whether or not the average color difference is within a second threshold value that is larger (loose) than the matching criterion (S8). For example, when the image regions “Picture 11” and “Picture 21” in FIGS. 4C and 4D are compared with each other, the best result among the image conversions performed several times is an average color difference of 4.5, Assume that the maximum color difference is 7, and the reference threshold value that is matched in the color information matching is 3 for the average color difference and 5 for the maximum color difference. An image region obtained by converting the “picture 11” at this time is referred to as “picture 11 ′”. In this case, in the matching between the image areas, the average color difference and the maximum color difference are both equal to or larger than the threshold value, and thus the matching is not matched. When the number of mismatches exceeds a predetermined threshold value, the average color difference and the maximum color difference value with the best results among the image conversions are compared with the second threshold value. Assuming that the second threshold is an average color difference of 5 and a maximum color difference of 8, the matching between the image areas “Picture 11” and “Picture 21” is within the second threshold.

第二の閾値を超える場合は、2つの画像領域において、全く色情報が異なり、2つの画像領域間の変換が困難であるため、2つの画像領域の色情報を別々にHDD105に保存することにする。一方、第二の閾値以内であれば、一部の画素の変換が難しいが、多くの画素の変換が可能であると判断し、その一部の画素のみ変換を補助するための情報を合わせてHDD105に保存する。   When the second threshold value is exceeded, the color information is completely different in the two image areas, and conversion between the two image areas is difficult, so the color information of the two image areas is stored separately in the HDD 105. To do. On the other hand, if it is within the second threshold, it is difficult to convert some pixels, but it is determined that conversion of many pixels is possible, and information for assisting conversion of only some of the pixels is combined. Save in the HDD 105.

補助するための情報の具体例として、以下に2例を挙げる。
(1)まず、第一の最大色差の閾値5を超える箇所が許容できない箇所であるので、「絵11」の画像変換を行った「絵11’」と「絵21」の最大色差5以上の画素を抽出する。そして、その最大色差5以下の領域内の画素のみで、平均色差が基準の3以下となるか否かを確認する。
Two specific examples of information to assist are given below.
(1) First, since the location exceeding the first maximum color difference threshold value 5 is an unacceptable location, the maximum color difference of “Picture 11 ′” and “Picture 21” obtained by performing the image conversion of “Picture 11” is 5 or more. Extract pixels. Then, it is checked whether or not the average color difference is 3 or less of the reference only with the pixels in the area having the maximum color difference of 5 or less.

その結果、平均色差が3以下となるのであれば、抽出した最大色差5以上の画素データのみをそのまま別プレーンとして保存し、「絵11’」と「絵21」はマッチングしたものとして扱う。3を超えた場合は、色差5以上ではなく、色差4.5以上のものを除いた状態で、再度、平均色差が3以下であるか否かを確認する。それでも平均色差が3を超える場合は、色差4以上、それでも超える場合は、色差3.5以上と徐々に取り除く色差の値を小さくして、平均色差が3以下となるまで上記処理を繰り返す。ただし、第二の閾値をある程度低い値にしておけば、最大色差の閾値(=5)を取り除けば、平均色差の閾値以内に入るようになる。これは、最大色差の閾値(=5)を超えている高々、数画素のために、画像領域全体の色情報を別プレーンで保存するよりも最大色差の閾値(=5)を超えている数画素のみ別プレーンで保存し、それ以外は変換方法のみ保存する場合の方が、HDD107の容量が小さくなるからである。   As a result, if the average color difference is 3 or less, only the extracted pixel data having the maximum color difference of 5 or more is stored as a separate plane as it is, and “Picture 11 ′” and “Picture 21” are handled as matched. If it exceeds 3, it is confirmed again whether the average color difference is 3 or less, except for those having a color difference of 4.5 or more instead of 5 or more. If the average color difference still exceeds 3, the color difference is 4 or more. If it still exceeds, the color difference value is gradually reduced to 3.5 or more, and the above process is repeated until the average color difference becomes 3 or less. However, if the second threshold value is set to a low value to some extent, if the maximum color difference threshold value (= 5) is removed, it will be within the average color difference threshold value. This is because the number of pixels exceeding the maximum color difference threshold (= 5) exceeds the maximum color difference threshold (= 5) as compared to storing the color information of the entire image area in another plane because of several pixels at most. This is because the capacity of the HDD 107 is smaller when only the pixels are stored in a separate plane, and when only the conversion method is stored otherwise.

例えば、トナーの異なる二つのプリンタで同じ原稿を出力し、その2枚を色情報でマッチング処理する場合、プリンタの再現できるガマットが異なるため、ガマット外の色のみが大きく最大色差を超えてしまい、それにより平均色差が大きな値となることがある。そのような場合は、ガマット外の色域のみを別プレーンで保存しておき、それ以外はマッチングが一致、すなわち共通フォーマットとして保存することで、よりHDDの容量圧迫を低減することが可能となる。
(2)パラメータでの変換方法
(1)と同様に、平均色差を高くしている画素(主に最大色差の閾値(=5)を超えている画素)を抽出する。その抽出した画素に対して、色相ごとに(例えば12色相分割の)一次変換式で「絵11’」から「絵21」に変換するパラメータを求める。「絵21」の抽出した画素をそれぞれ目標値とし、それに対応する「絵11’」のそれぞれの一次変換の入力値として、回帰演算(最小二乗法)などで最適なパラメータを求める。図7は、パラメータでの変換方法を説明する図である。
For example, if the same document is output by two printers with different toners, and the two sheets are matched with color information, the gamuts that can be reproduced by the printers are different, so only the colors outside the gamut greatly exceed the maximum color difference. As a result, the average color difference may become a large value. In such a case, only the color gamut outside the gamut is stored in a separate plane, and otherwise the matching is the same, that is, it is stored as a common format, so that it is possible to further reduce the HDD capacity compression. .
(2) Conversion Method Using Parameters Similarly to (1), a pixel having a high average color difference (mainly a pixel exceeding the maximum color difference threshold (= 5)) is extracted. For the extracted pixel, a parameter for converting from “Picture 11 ′” to “Picture 21” is obtained for each hue by a primary conversion formula (for example, 12 hue division). Each pixel extracted from “Picture 21” is set as a target value, and an optimal parameter is obtained by regression calculation (least-squares method) or the like as an input value for each primary transformation of “Picture 11 ′” corresponding thereto. FIG. 7 is a diagram for explaining a conversion method using parameters.

そのパラメータ(係数)を用いて、「絵11’」の画素値より一次変換を行った結果と「絵21」の画素値との色差を求め、その平均色差が閾値3よりも小さく、かつ最大色差が閾値5より小さければ、そのパラメータを補助データとして蓄積する。もし、平均色差が閾値よりも小さい場合であっても、最大色差の閾値を上回っている場合は、最大色差に制約をかけた最適化などを行うことで、平均色差と最大色差の両方の閾値をクリアするようにパラメータを算出する。最大色差に制約をかけた最適化とは、通常、色差を最小にする評価関数として、これを最小にするパラメータを算出するが、この評価関数に最大色差がある閾値を超えるとペナルティを課し、イテレーションで評価関数を小さくするよう最適化を行うことで、最大色差に制約をかけた最適化を行うことができる。この最適化を行っても、平均色差もしくは最大色差のどちらかでも閾値を満たさない場合は、その色相のみ二次変換を行うようにしてもよい。   Using the parameter (coefficient), the color difference between the result of the primary conversion from the pixel value of “Picture 11 ′” and the pixel value of “Picture 21” is obtained, and the average color difference is smaller than the threshold 3 and is the maximum If the color difference is smaller than the threshold value 5, the parameter is stored as auxiliary data. Even if the average color difference is smaller than the threshold value, if it exceeds the threshold value for the maximum color difference, the threshold values for both the average color difference and the maximum color difference can be obtained by performing optimization with constraints on the maximum color difference. The parameter is calculated so as to clear Optimization with constraints on the maximum color difference usually involves calculating a parameter that minimizes the evaluation function that minimizes the color difference, but this evaluation function imposes a penalty when the maximum color difference exceeds a certain threshold. By optimizing the evaluation function to be small by iteration, it is possible to perform optimization with a restriction on the maximum color difference. Even if this optimization is performed, if either the average color difference or the maximum color difference does not satisfy the threshold value, only the hue may be subjected to secondary conversion.

また、この1次変換は、第1、第2の画像処理部の色変換処理中に、色相分割線形マスキング処理として実行されるので、実際に1次変換のパラメータより絵21を求める場合は、絵11’の最大色差が閾値5を超えた画素を、メモリ107からバス制御装置103を介して、第2の画像処理部104に送信する。また、記憶したパラメータも第2の画像処理部104の色変換処理のマスキングパラメータのレジスタに設定する。このように第2の画像処理部104を用いることで、CPU106の負荷分散がなされ、処理が高速化する。また、第2の画像処理部104がASICなどであれば、CPU106で処理するよりも圧倒的に処理が早い。   In addition, since this primary conversion is executed as a hue division linear masking process during the color conversion processing of the first and second image processing units, when actually obtaining the picture 21 from the parameters of the primary conversion, Pixels for which the maximum color difference of the picture 11 ′ exceeds the threshold value 5 are transmitted from the memory 107 to the second image processing unit 104 via the bus control device 103. The stored parameters are also set in the masking parameter register of the color conversion process of the second image processing unit 104. By using the second image processing unit 104 in this way, the load of the CPU 106 is distributed and the processing speed is increased. If the second image processing unit 104 is an ASIC or the like, the processing is overwhelmingly faster than the processing by the CPU 106.

#18.色情報のマッチング処理で一致した画像領域については、より情報の多い一方の画像領域のみを共通フォーマットとして、HDD107に保存する。また、各々の画像領域の位置座標も合わせて記憶する(S9、S11)。さらに、画像変換推定方法により、変換してマッチングを行い一致した場合には、その変換方法も合わせてHDD107に蓄積する。また、#17で、色情報をマッチング処理させるために、一部補助データが必要であった場合は、その補助データも共通フォーマットと合わせて蓄積する。色情報のマッチング処理で一致しなかった画像領域については、その画像領域そのものと位置情報を合わせて蓄積する。   # 18. As for the image areas matched in the color information matching process, only one image area with more information is stored in the HDD 107 as a common format. The position coordinates of each image area are also stored together (S9, S11). Further, when the image conversion estimation method is used for conversion and matching is performed, the conversion method is also stored in the HDD 107 together. In step # 17, if some auxiliary data is necessary to perform color information matching processing, the auxiliary data is also stored together with the common format. For image areas that do not match in the color information matching process, the image area itself and the position information are stored together.

図8は、画像A、Bの場合に、HDDに蓄積する情報を示す。画像データAと画像データBを蓄積するよりも、図8のように、共通フォーマット情報、差分情報、変換情報を蓄積する方が冗長的なデータがなくなるため、HDD107の容量圧迫が一層低減される。また、図8のHDD107に蓄積されているデータから画像データBを作成するには、共通フォーマット情報をまずモノクロ変換したものに、文字21、文字22を、記憶した位置座標の箇所に合成することで画像データBとなる。   FIG. 8 shows information stored in the HDD in the case of images A and B. Rather than storing image data A and image data B, the storage of common format information, difference information, and conversion information eliminates redundant data as shown in FIG. . In order to create the image data B from the data stored in the HDD 107 in FIG. 8, the character 21 and the character 22 are first synthesized with the position coordinates stored in the monochrome format of the common format information. Becomes image data B.

本実施例では、画像変換方法を共通フォーマットデータとその差分データに加え、共通フォーマットへの変換方法(及び変換後データに対しての補助データ)を合わせて蓄積することで、従来よりも容量圧迫を低減することが可能となる。また、色情報の変換が不可で、第二のマッチング処理で不一致の箇所がある場合は、不一致箇所のみ補正する情報を合わせて保存することで、テンプレート情報の色情報を別プレーンで保存するよりも容量を小さくすることが可能となる。また、補正情報を変換対象データとの差分データとすることで、容易に補正情報を求めることができ、かつ、必ず所定の不一致の許容範囲に収まることが可能となる。また、補正情報を1次式や2次式の変換式とすることで、不一致箇所の画素数が多い場合には、画像データを持つよりも容量を小さくすることが可能となる。また、色情報を利用することで、色に関する画像変換方法の推定を行うことが可能となる。例えば、2色変換、モノクロ変換、ネガポジ変換、指定色消去変換、CUD(カラーユニバーサルデザイン)対応変換、トナーセーブ変換などが挙げられる。さらに、エッジ情報でマッチングするもの、すなわち形状が同一であるものに対して、色情報のマッチングを行うことで、画像変換方法を効率よく推定することが可能となる。   In this embodiment, the image conversion method is added to the common format data and its difference data, and the conversion method to the common format (and auxiliary data for the converted data) is stored together, thereby reducing the capacity compared to the conventional method. Can be reduced. Also, if color information conversion is not possible and there is a mismatched part in the second matching process, the information for correcting only the mismatched part is saved together, so that the color information of the template information is saved in a separate plane. Also, the capacity can be reduced. Further, by making the correction information difference data from the conversion target data, the correction information can be easily obtained and can always fall within a predetermined allowable range of mismatch. Further, by making the correction information a linear expression or a quadratic conversion expression, the capacity can be made smaller than when the image data is stored when the number of pixels in the mismatched area is large. In addition, by using color information, it is possible to estimate an image conversion method related to color. For example, two-color conversion, monochrome conversion, negative / positive conversion, designated color erasure conversion, CUD (color universal design) compatible conversion, toner save conversion, and the like can be given. Furthermore, it is possible to efficiently estimate an image conversion method by performing color information matching on edge information matching, that is, having the same shape.

図9は、実施例2の処理を説明する図である。HDD105の容量を低減するために、画像蓄積動作でHDD105に蓄積された画像C(図9(a))と画像D(図9(b))の容量低減を行う処理を説明する。以下、実施例1と相違している処理を中心に説明する。   FIG. 9 is a diagram for explaining the processing of the second embodiment. In order to reduce the capacity of the HDD 105, processing for reducing the capacity of the image C (FIG. 9A) and the image D (FIG. 9B) stored in the HDD 105 in the image storage operation will be described. In the following, processing that is different from the first embodiment will be mainly described.

#20.#21.実施例1の#10、#11の処理と同様である。   # 20. # 21. This is the same as the processing of # 10 and # 11 of the first embodiment.

#20.#21.実施例1と同様に、エッジ情報でのマッチング処理を行う(S2)。画像Cと画像Dの場合は、全ての画像領域で不一致となるため、CPU106はメモリ107にマシンの編集情報や使用履歴情報を呼び出す(1つでも画像領域が一致する場合は、#23のステップに進む)。   # 20. # 21. Similar to the first embodiment, matching processing is performed using edge information (S2). In the case of image C and image D, all the image areas do not match, so the CPU 106 calls the machine editing information and usage history information in the memory 107 (if even one image area matches, step # 23) Go to).

図10は、マシンの使用履歴情報を示す。図10の編集情報のうち、使用している確率の高い編集情報から順に、画像C、画像Dの何れに対して編集を行っているかを推定する。図10を参照すると、2in1の集約印刷とステープルの使用率が高いため、その二つの処理が行われていることを推定する。画像Cもしくは画像Dが集約印刷を行っているか否かは、画像領域の配置位置(位置情報)・集約画像の境界部の空白・文字の大きさなどの情報から、推定する(例えば、特許文献4を利用する)。そうすると、画像Dが2in1の集約印刷を行っている可能性が高いことがわかる。   FIG. 10 shows machine usage history information. Of the editing information in FIG. 10, it is estimated which image C or image D is being edited in order from the editing information having the highest probability of being used. Referring to FIG. 10, it is estimated that the two processes are performed because the 2-in-1 consolidated printing and the staple usage rate are high. Whether or not the image C or the image D is subjected to the aggregate printing is estimated from information such as the arrangement position (position information) of the image area, the blank of the boundary portion of the aggregate image, and the size of the characters (for example, Patent Documents). 4). Then, it can be seen that there is a high possibility that the image D is performing 2-in-1 consolidated printing.

また、ステープルを行っているか否かは、画像の左右、上下の周辺部のみにステープル跡があるか否かを探索すればよい。パンチ穴探索なども同様である。ステープル跡検索を行っても画像C、画像Dにその跡がみられないため、ステープル跡に関する画像変換は行わない。   Whether or not stapling is performed may be determined by searching whether or not there are staple marks only in the left and right and upper and lower peripheral portions of the image. The same applies to the punch hole search. Even if the staple mark search is performed, the image C and the image D do not show the mark, so the image conversion relating to the staple mark is not performed.

#23.そのため、図11のように、画像Cを1/2変倍して、改めてエッジ情報でのマッチング処理を行う。また、画像Cはそのままの大きさで、画像Dを2倍に変倍して、マッチング処理を行っても問題ない(何れの処理を行うかは、後述する)。   # 23. For this reason, as shown in FIG. 11, the image C is halved and the matching process using the edge information is performed again. In addition, the size of the image C is as it is, and there is no problem even if the image D is doubled and the matching process is performed (which process is performed will be described later).

このように、編集情報と画像領域の位置関係などをヒントに推定を行い、画像変換し、エッジ情報のマッチング処理を繰り返す。このマッチング処理の不一致回数が所定の閾値を超えるような画像領域は、差分情報として、画像領域そのものとその位置座標を保存する(S6)。また、マッチング処理で一つの画像領域も一致しない場合は、画像Cと画像Dを組み合わせても容量圧迫の低減に効果がないので、他の画像の組み合わせを行う。図9(c)、(d)のマッチング処理では、絵31=絵41=絵44、絵32=絵42=絵45、絵33=絵43=絵46の結果となる。   In this way, estimation is performed using the positional relationship between the editing information and the image area as a hint, image conversion is performed, and edge information matching processing is repeated. An image area in which the number of mismatches in this matching process exceeds a predetermined threshold value stores the image area itself and its position coordinates as difference information (S6). If one image region does not match in the matching process, combining the image C and the image D is not effective in reducing the capacity compression, and therefore other images are combined. In the matching processing of FIGS. 9C and 9D, the result is picture 31 = picture 41 = picture 44, picture 32 = picture 42 = picture 45, picture 33 = picture 43 = picture 46.

上記した処理を採る理由は、入力した原稿は元々、同一のMFPで出力したという想定にあるが、仮に他のMFPで出力したとしても、編集機能の使用履歴が、例えば同一部署内や社内であれば類似している場合が多いためである。   The reason for adopting the above processing is that the input manuscript is originally output by the same MFP, but even if it is output by another MFP, the usage history of the editing function is, for example, in the same department or in-house. This is because there are many similar cases.

また、本実施例では、編集履歴は出力した際の編集履歴を使用しているが、当然、画像蓄積時の編集設定を利用する場合もある。画像蓄積時には、編集をすることなく、冗長的なデータを蓄積するのが基本であるが、画像のトリミングなどでは削除することが望ましい場合もあり、その場合はトリミング位置などの情報を用いて、マッチング処理を行う。   In the present embodiment, the edit history at the time of output is used as the edit history, but naturally the edit setting at the time of image accumulation may be used. When storing images, it is basic to store redundant data without editing, but it may be desirable to delete images when trimming, etc. In that case, using information such as the trimming position, Perform the matching process.

例えば、図12のように、画像Aの一部を抜き出した点線部の画像と画像A自体をエッジ情報でマッチング処理する場合、文字12、文字13の画像領域は、エッジ情報でのマッチング処理で一致するが、絵12の一部は切れているため(絵12’とする)、エッジ情報でのマッチング処理で一致しない。そこで、点線部の画像蓄積を行う際に、切り抜く箇所の位置座標と切り抜く前の画像サイズを記憶する。そして、容量圧迫の低減動作時に、画像Aとマッチングをする際に、切り抜いた位置座標を用いて、画像Aを切り抜くことで、絵12’とのマッチング処理も一致することが可能となる。   For example, as shown in FIG. 12, when the image of the dotted line part extracted from the image A and the image A itself are matched with edge information, the image areas of the characters 12 and 13 are matched by the edge information. Although they match, a part of the picture 12 is cut (referred to as picture 12 ′), and therefore does not match in the matching process using the edge information. Therefore, when the image accumulation of the dotted line portion is performed, the position coordinates of the part to be cut out and the image size before the cutting are stored. When matching with the image A during the capacity compression reduction operation, the image A is cut out using the cut position coordinates, and the matching process with the picture 12 ′ can be matched.

#24.以降の処理は、実施例1と同様である。ただし、実施例2では、共通フォーマット情報として、「絵31、絵32、絵33」と「画像Dへの変換方法:1/2変倍する」(共通フォーマットAと呼ぶ)でもよいし、「絵41(絵44)、絵42(絵45)、絵43(絵46)」と「画像Cへの変換方法:2倍変倍する」(共通フォーマットBと呼ぶ)でもよい。   # 24. The subsequent processing is the same as in the first embodiment. However, in the second embodiment, the common format information may be “picture 31, picture 32, picture 33” and “conversion method to image D: 1/2 scaling” (referred to as common format A). “Picture 41 (Picture 44), Picture 42 (Picture 45), Picture 43 (Picture 46)” and “Conversion method to image C: Double scaling” (referred to as common format B) may be used.

基本は、画像Dを2倍にした状態で色情報のマッチング処理を行う。そこで、マッチング処理の判定基準である平均色差・最大色差の閾値で余裕があれば、画像Cを1/2にしたものと画像Dとで色情報のマッチング処理を行う。そこでも平均色差・最大色差の閾値を満たすのであれば、共通フォーマットとしては、上記したA、Bの何れでもよい。ただし、共通フォーマットとしては、Aの方がサイズ(もしくは解像度)が大きいため、Bよりも画像情報が多く含まれており、高画質となる。一方、Bを選択するとその分、容量の低減化を大きくできる。   Basically, color information matching processing is performed with the image D doubled. Therefore, if there is a margin in the threshold values of the average color difference / maximum color difference, which are the criteria for matching processing, color information matching processing is performed between the image C halved and the image D. In this case, as long as the average color difference / maximum color difference threshold values are satisfied, the common format may be any of A and B described above. However, since A has a larger size (or resolution) as a common format, it contains more image information than B, resulting in higher image quality. On the other hand, when B is selected, the capacity can be greatly reduced accordingly.

また、共通フォーマットBのとき(画像Cを1/2、画像Dはそのままのサイズ)の色情報マッチング処理でも、平均色差の閾値、最大色差の閾値よりもあきらかに余裕がある場合は、マッチング処理の結果が平均色差、最大色差の閾値に達するまで、画像Cの画像領域の解像度を小さくする(例えば1/4)。そして、その解像度を小さくした画像Cの画像領域(解像度1/4のデータ)を共通フォーマットとして蓄積することで、共通フォーマットの容量をできる限り低減化することも可能となる。   Further, even in the color information matching process in the case of the common format B (the image C is ½ and the image D is as it is), the matching process is performed when there is a clear margin than the average color difference threshold value and the maximum color difference threshold value. The resolution of the image area of the image C is reduced (for example, ¼) until the result reaches the threshold values of the average color difference and the maximum color difference. Then, by accumulating the image area of the image C with the reduced resolution (data of 1/4 resolution) as a common format, the capacity of the common format can be reduced as much as possible.

図13は、HDD容量低減動作時の操作表示装置の画面例を示し、高画質化と容量の低減化の何れを優先すべきかを、管理者が操作表示装置110により選択することができる。また、低画質化を選択するのであれば、平均色差・最大色差の閾値を大きくしてもよい。   FIG. 13 shows an example of the screen of the operation display device during the HDD capacity reduction operation, and the administrator can select which one of priority should be given to high image quality or capacity reduction by the operation display device 110. Further, if low image quality is selected, the average color difference / maximum color difference threshold may be increased.

本実施例では、容量と画像データの変換精度(マッチング率)とのバランス(トレードオフ)を選択できることで、利便性が向上する。また、容量と画像データの変換精度(マッチング率)とのバランス(トレードオフ)を多段階に選択できることで、利便性が向上する。画像領域の位置情報や大きさなどを利用することで、編集機能に関する画像変換方法の推定を行うことが可能となる。例えば、集約機能(2in1、4in1など)、変倍機能、トリミング機能、パンチ穴/ステープル跡、ミラー機能などが挙げられる。さらに、画像データを入力する際に、画像データが編集されている場合に効率よく画像変換方法を推定することが可能となる。基本的に、画像変換方法を推定するシステムとしては、できる限り画像処理を施さないで冗長的な画像データのまま画像蓄積手段に保存しておくのが、ベストであるが(すなわち、画像データを入力する際になるべく画像処理を行わない)、例えば画像データのある一部分しか必要でない場合などは、そのほかの余分な部分を保存しておいても容量の無駄遣いであり、セキュリティの観点からもよくないので、編集を行ってから画像データを蓄積したほうがよい。   In the present embodiment, convenience can be improved by selecting a balance (tradeoff) between the capacity and the conversion accuracy (matching rate) of the image data. In addition, the balance (tradeoff) between the capacity and the conversion accuracy (matching rate) of the image data can be selected in multiple stages, so that convenience is improved. By using the positional information and size of the image area, it is possible to estimate the image conversion method related to the editing function. For example, an aggregation function (2 in 1, 4 in 1, etc.), a scaling function, a trimming function, a punch hole / staple mark, a mirror function, and the like can be given. Furthermore, when image data is input, it is possible to estimate an image conversion method efficiently when the image data is edited. Basically, as a system for estimating the image conversion method, it is best to store the image data in the image storage means as it is without performing image processing as much as possible (that is, to store the image data). For example, when only a part of the image data is necessary, it is a waste of capacity even if the other extra part is saved, which is not good from the viewpoint of security. Therefore, it is better to store the image data after editing.

図14は、実施例3の処理を説明する図である。HDD105の容量を低減するために、画像蓄積動作でHDD105に蓄積された画像E(図14(a))と画像F(図14(b))の容量低減を行う処理を説明する。画像Fは、画像Eよりも色が薄い(彩度が低く、明度が高い)。#14の推定処理以外は、実施例1と同様であるので、実施例3の推定処理のみを以下、説明する。   FIG. 14 is a diagram for explaining the processing of the third embodiment. In order to reduce the capacity of the HDD 105, processing for reducing the capacity of the image E (FIG. 14A) and the image F (FIG. 14B) stored in the HDD 105 in the image storage operation will be described. The image F has a lighter color than the image E (low saturation and high brightness). Since the processing other than the estimation processing of # 14 is the same as that of the first embodiment, only the estimation processing of the third embodiment will be described below.

実施例1のように色相分布のみを比較しても、画像データE、Fは全色相に画素が分布し、色相分布のみでは、変換処理を推定することができない。そのため、CPU106はメモリ107に色情報に関する編集履歴情報を展開する。   Even if only the hue distribution is compared as in the first embodiment, the pixels of the image data E and F are distributed in all hues, and the conversion process cannot be estimated only by the hue distribution. Therefore, the CPU 106 expands editing history information related to color information in the memory 107.

図15は、色情報に関する編集履歴情報を示す。図15に示す編集履歴情報の内、使用率の高い処理から順番に、推定処理を行う。図15より、トナーセーブモードの使用率が最も高いので、一方の画像でトナーセーブを行っていたという観点で、画像Eと画像FのLab空間における分布を詳細に見る。   FIG. 15 shows editing history information related to color information. In the edit history information shown in FIG. From FIG. 15, since the usage rate of the toner save mode is the highest, the distribution of the images E and F in the Lab space is viewed in detail from the viewpoint that toner save is performed on one image.

すなわち、トナーセーブを行った原稿では、絵柄部などへのトナーが通常よりも少ないため、低彩度で、白い紙であれば明度が高くなる。画像Eと画像Fの画素全体で比較すると、画像FがEよりも低彩度で明度も高い傾向にあるため、画像Fがトナーセーブモードを行った画像であると推定し、画像EをトナーセーブモードのRGB画像に変換する(図16を参照)。   In other words, in a document that has been subjected to toner save, the amount of toner on the pattern portion or the like is less than usual, so the brightness is low if the paper is low in saturation and white. Comparing the entire pixels of the image E and the image F, the image F tends to be lower in saturation and lighter than E. Therefore, it is estimated that the image F is an image that has been subjected to the toner save mode, and the image E is a toner. It converts into the RGB image of a save mode (refer FIG. 16).

具体的には、メモリ107に展開されている画像Eを、第2の画像処理部104にバス制御装置103を介して転送し、そこで通常のプロッタ出力用の処理(トナーセーブ処理も含む)を行い、CMYK画像に変換し、再びメモリ107に蓄積する。CPU106は、白い紙に出力されたCMYK画像をスキャナで読み込んだときのRGB値を求め(スキャナ自動キャリブレーション機能などを利用する)、そのRGB値と画像Fとで、色情報のマッチング処理を行う(図16を参照)。   Specifically, the image E developed in the memory 107 is transferred to the second image processing unit 104 via the bus control device 103, where normal plotter output processing (including toner save processing) is performed. The image is converted into a CMYK image and stored in the memory 107 again. The CPU 106 obtains RGB values when a CMYK image output on white paper is read by a scanner (using a scanner automatic calibration function or the like), and performs color information matching processing between the RGB values and the image F. (See FIG. 16).

このマッチング処理で不一致となる場合は、編集履歴のうち、次に使用率の高い処理を候補に挙げる。また、Lab空間の画素の比較結果と編集処理での画素の傾向が合致するようであれば、またその画像に変換し、色情報のマッチング処理を行う。この処理ループを、画像領域が一致するか、不一致回数が所定の閾値に達するまで繰り返す。   If there is a mismatch in this matching process, the process with the next highest usage rate in the editing history is listed as a candidate. If the comparison result of the pixels in the Lab space and the tendency of the pixels in the editing process match, the image is converted to the image and the color information matching process is performed. This processing loop is repeated until the image areas match or the number of mismatches reaches a predetermined threshold.

トナーセーブの次に編集履歴の高いCUD(Color Universal Design)対応は、隣り合った色の組み合わせの視認性が悪い組み合わせである場合に、視認性の良い色へと変換するものである。そこで、画像Eと画像Fともに、各画素で隣接する色同士の色差を求め、画像EとFの色差の大きさを比較する。極端に色差が大きいところが多いようであれば、CUD対応を行っている画像と推定して、CUD対応を行っていない画像をCUD対応に変換を行い、色情報のマッチング処理を行う。   CUD (Color Universal Design) support, which has the next highest editing history after toner save, is a conversion to a color with good visibility when the combination of adjacent color combinations is poor. Therefore, in both the image E and the image F, the color difference between adjacent colors in each pixel is obtained, and the magnitude of the color difference between the images E and F is compared. If there are many places where the color difference is extremely large, it is estimated that the image is CUD-compliant, an image that is not CUD-compliant is converted to CUD-compliant, and color information matching processing is performed.

本実施例では、使用者の編集履歴を使用することにより、色情報や位置情報などのみで画像変換方法を推定するよりも効率良く推定を行うことが可能となる。   In this embodiment, by using the user's editing history, it is possible to perform estimation more efficiently than estimating the image conversion method using only color information and position information.

実施例1〜3では、すでに選択された二つの画像に対して、共通フォーマットと差分情報に変換する実施例であるが、本実施例では、その二つの画像を選択する方法に関する実施例である。   In the first to third embodiments, the two images that have already been selected are converted into the common format and the difference information. In the present embodiment, the method for selecting the two images is described. .

前述したように、実施例1〜3の動作では、HDD105に多数の画像データが蓄積され、容量が圧迫気味になったときに実施される。そのため、HDD105に蓄積されている多数の画像データの中から、共通フォーマットとなりそうな二つの画像を選択することで、HDD圧迫低減動作の処理時間が短縮される。以下、画像蓄積時とHDD圧迫低減動作時に処理を分けて、実施例4を説明する。   As described above, the operations of the first to third embodiments are performed when a large amount of image data is accumulated in the HDD 105 and the capacity becomes scarce. For this reason, by selecting two images that are likely to have a common format from among a large number of image data stored in the HDD 105, the processing time of the HDD compression reduction operation is shortened. The fourth embodiment will be described below by dividing the processing during image storage and the HDD compression reduction operation.

(画像蓄積動作時)
前述の通り、コピー動作の#1、#2を行う。#2でメモリ107に蓄積された画像データに対して、CPU106は以下の情報の幾つか(少なくとも1つ以上)をHDD105に併せて記憶させておく。
・作成者情報
操作表示装置110により、使用者情報を入力させるようにしても良いし、バイオメトリクス情報を読み取る読取装置などを拡張バスに取り付けて、バイオメトリクス認証で個人を特定しても良い。また、使用者の名前だけでなく、その使用者が所属しているグループ(チームや課・部など)を併せて記憶してもよい。
・画像中の文字情報
メモリ107に蓄積されている画像データに対して、前述したレイアウト解析とOCR処理などを利用して、タイトルやフッダ/ヘッダなどの文字を抽出し、それをキーワードとして、記憶する。
・画像の種類情報
操作表示装置110により、写真原稿モードや地図モード、蛍光ペンモードなど蓄積する原稿の種類がある程度特定できる情報を記憶する。また、操作表示装置110からの情報でなくても、スキャナから読み取られた、色の使い方(有彩が多いか)、絵柄が多いのか、文字が多いのか、レイアウト情報、空間周波数などの画像がもっている特徴量を用いる。例えば、図17のように類似している画像同士をマップ化しておく。
(At the time of image accumulation operation)
As described above, copy operations # 1 and # 2 are performed. For the image data stored in the memory 107 in # 2, the CPU 106 stores some (at least one) of the following information in the HDD 105 together.
-Creator information User information may be input by the operation display device 110, or a reader or the like that reads biometric information may be attached to the expansion bus, and an individual may be specified by biometric authentication. Further, not only the name of the user but also the group (team, section, department, etc.) to which the user belongs may be stored together.
Character information in the image Using the layout analysis and OCR processing described above for the image data stored in the memory 107, characters such as titles and footers / headers are extracted and stored as keywords. To do.
Image Type Information The operation display device 110 stores information that can specify to some extent the type of document to be accumulated, such as a photo document mode, a map mode, and a highlighter mode. Even if it is not information from the operation display device 110, images such as layout information, spatial frequency, etc. read from the scanner, such as how to use colors (whether there are many chromatic colors), whether there are many pictures, or many characters. Use the feature quantity. For example, similar images are mapped as shown in FIG.

(圧迫低減動作時)
HDDの容量(使用容量)が95%を超えるなど、圧迫低減動作のトリガがCPU106に伝えられると、CPU106は上記したように画像蓄積動作で蓄積した情報をメモリ107に展開し、その情報を基に二つの画像を選択する。
・作成者情報
同じ作成者は同一フォーマットを使用している可能性が高いため、作成者が同一である画像同士で圧迫低減動作を行なうことにする。また、同じ作成者だけでなく、同一チームや同一の課でも同様のフォーマットなどを使用する可能性が高いため、それを優先させる。
・画像中の文字情報
タイトルやフッダ・ヘッダなどが同一であれば、その分、同一のフォーマットである可能性が高いので、同一である画像同士で圧迫低減動作を行なうことにする。
・画像の種類情報
画像の種類が類似であるほど、同一フォーマットである可能性が高いので、同一である画像同士で圧迫低減動作を行なうことにする。すなわち、フォーマットが同じであれば、文書の中身も類似しているという可能性が高い。例えば、図17のように、マップ化していれば、座標の近いもの同士で圧迫低減動作を行なうようにする。CPU106は、上記した3種類の情報を複数、参照できるのであれば、3種類の内、できるだけ共通点が多い画像同士に対して、優先順位を高くして、圧迫低減動作を行なうようにする。
(During pressure reduction operation)
When the compression reduction operation trigger is transmitted to the CPU 106, such as when the HDD capacity (usage capacity) exceeds 95%, the CPU 106 expands the information accumulated in the image accumulation operation as described above in the memory 107, and uses that information as a basis. Select two images.
-Creator information Since the same creator is likely to use the same format, the compression reduction operation is performed between images having the same creator. In addition, it is highly likely that not only the same creator but also the same team and the same section will use the same format, so priority is given to it.
-Character information in images If titles, footers, headers, and the like are the same, there is a high possibility that they are in the same format, so the compression reduction operation is performed between the same images.
Image Type Information Since the more similar image types are, the more likely they are in the same format, the compression reduction operation is performed between the same images. That is, if the format is the same, it is highly possible that the contents of the document are similar. For example, as shown in FIG. 17, if the mapping is performed, the compression reducing operation is performed between the coordinates close to each other. If the CPU 106 can refer to a plurality of pieces of the above-described three types of information, the CPU 106 increases the priority order for the images having as many common points as possible, and performs the compression reducing operation.

画像蓄積手段に蓄積された画像データの数が多い場合、全ての画像データに対して総当り的にマッチング処理を行うと時間がかかる。本実施例では、マッチング処理を行う対象の画像を選択することで、処理時間を短縮することができる。また、タイトルやヘッダ・フッダなどの画像データの文字情報が同じ、もしくは類似語などであれば、同一のテンプレートやフォーマットなどを使用している可能性が高いため、効率良いマッチング処理を行うことが可能となる。また、画像のデータの特徴量が近ければ、同一のテンプレートやフォーマットなどを使用している可能性が高いため、効率よいマッチング処理を行うことが可能となる。さらに、同じ作成者が作成しているドキュメントや、同じグループに所属している人が作成しているファイルであれば、同一のテンプレートやフォーマットなどを使用している可能性が高いため、効率よいマッチング処理を行うことが可能となる。   When the number of image data stored in the image storage means is large, it takes time to perform the matching process for all image data in a round-robin manner. In this embodiment, the processing time can be shortened by selecting an image to be subjected to matching processing. In addition, if the character information of the image data such as title, header, and footer is the same or similar, it is likely that the same template or format is used, so efficient matching processing can be performed. It becomes possible. Further, if the feature amount of the image data is close, there is a high possibility that the same template or format is used, so that efficient matching processing can be performed. Furthermore, documents created by the same creator or files created by people belonging to the same group are more likely to use the same template or format, which is efficient. Matching processing can be performed.

本発明は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施例の機能を実現することになる。プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、不揮発性のメモリカード、ROMなどを用いることができる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。また、本発明の実施例の機能等を実現するためのプログラムは、ネットワークを介した通信によってサーバから提供されるものでも良い。   According to the present invention, a storage medium in which a program code of software for realizing the functions of the above-described embodiments is recorded is supplied to a system or apparatus, and a computer (CPU or MPU) of the system or apparatus is stored in the storage medium. This is also achieved by reading and executing the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment. As a storage medium for supplying the program code, for example, a hard disk, an optical disk, a magneto-optical disk, a nonvolatile memory card, a ROM, or the like can be used. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program code. A case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included. Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. A case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is included. Further, the program for realizing the functions and the like of the embodiments of the present invention may be provided from a server by communication via a network.

101 読取り装置
102 第1の画像処理部
103 バス制御装置
104 第2の画像処理部
105 HDD
106 CPU
107 メモリ
108 プロッタI/F装置
109 プロッタ装置
110 操作表示装置
111 回線I/F装置
112 外部I/F装置
113 S.B.
114 ROM
115 汎用バス
116 FAX
117 PC
DESCRIPTION OF SYMBOLS 101 Reading apparatus 102 1st image processing part 103 Bus control apparatus 104 2nd image processing part 105 HDD
106 CPU
107 Memory 108 Plotter I / F Device 109 Plotter Device 110 Operation Display Device 111 Line I / F Device 112 External I / F Device 113 B.
114 ROM
115 General-purpose bus 116 FAX
117 PC

特開2008−146104号公報JP 2008-146104 A 特開2008−146104号公報JP 2008-146104 A 特許第3278471号公報Japanese Patent No. 3278471 特開2009−71630号公報JP 2009-71630 A

Claims (18)

画像を入力する画像入力手段と、前記画像を蓄積する画像蓄積手段と、前記画像を複数の領域に分割する領域分割手段と、前記画像蓄積手段に蓄積された複数の画像間における画像の変換方法を推定する推定手段と、前記領域分割手段により分割された画像領域同士をパターンマッチング処理するマッチング処理手段とを備えた画像処理装置において、前記推定手段は、前記蓄積された第1の画像と第2の画像間における画像の変換方法を推定し、前記第1の画像を前記推定された変換方法により変換し、前記マッチング処理手段は、前記推定された変換方法により変換された前記第1の画像の画像領域と、前記第2の画像の画像領域とをマッチング処理し、マッチング処理で一致した共通の画像領域情報、前記共通の画像領域情報以外の差分情報および前記推定された変換情報を前記画像蓄積手段に蓄積することを特徴とする画像処理装置。   Image input means for inputting an image, image storage means for storing the image, area dividing means for dividing the image into a plurality of areas, and a method for converting an image between a plurality of images stored in the image storage means In the image processing apparatus comprising: an estimating unit that estimates the image area; and a matching processing unit that performs pattern matching processing on the image areas divided by the area dividing unit, the estimating unit includes: The image conversion method between the two images is estimated, the first image is converted by the estimated conversion method, and the matching processing means is configured to convert the first image converted by the estimated conversion method. The image area of the second image and the image area of the second image are matched, and the common image area information matched by the matching process and the difference other than the common image area information The image processing apparatus characterized by storing information and transform information the estimated in the image storage means. 前記マッチング処理手段は、前記第1、第2の画像の第1の要素同士をマッチング処理する第1のマッチング処理と、前記第1のマッチング処理により一致した画像領域に対して、前記第1、第2の画像の第2の要素同士をマッチング処理する第2のマッチング処理を実行し、前記第2のマッチング処理で不一致である場合に、不一致箇所のみを補正するための補正情報を作成し、前記第1のマッチング処理で一致した共通の画像領域情報、前記共通の画像領域情報以外の差分情報、前記推定された変換情報および前記補正情報を前記画像蓄積手段に蓄積することを特徴とする請求項1記載の画像処理装置。   The matching processing means includes a first matching process for matching the first elements of the first and second images, and an image region matched by the first matching process with respect to the first, Performing a second matching process for matching the second elements of the second image, and creating a correction information for correcting only the mismatched part when there is a mismatch in the second matching process; The common image region information matched in the first matching process, difference information other than the common image region information, the estimated conversion information, and the correction information are stored in the image storage unit. Item 6. The image processing apparatus according to Item 1. 前記第2のマッチング処理で不一致の場合に、前記推定された変換方法で変換された第1の画像と、前記第2の画像との不一致箇所の差分情報を前記補正情報とすることを特徴とする請求項2記載の画像処理装置。   In the case of mismatch in the second matching process, the difference information of the mismatched portion between the first image converted by the estimated conversion method and the second image is used as the correction information. The image processing apparatus according to claim 2. 前記第2のマッチング処理で不一致の場合に、前記推定された変換方法で変換された第1の画像を、前記第2の画像に変換する変換式のパラメータを前記補正情報とすることを特徴とする請求項2記載の画像処理装置。   A parameter of a conversion equation for converting the first image converted by the estimated conversion method into the second image when there is a mismatch in the second matching processing is used as the correction information. The image processing apparatus according to claim 2. 前記マッチング処理手段は、前記第1の画像と第2の画像をマッチング処理した結果に応じて、前記蓄積手段に蓄積する共通の画像領域情報として、前記第1の画像または第2の画像の何れかを選択することを特徴とする請求項1または2記載の画像処理装置。   According to the result of the matching process performed on the first image and the second image, the matching processing unit uses either the first image or the second image as common image area information stored in the storage unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected. 前記マッチング処理手段による処理結果において、マッチング許容範囲よりも余裕がある場合に、前記画像蓄積手段に蓄積する前記共通の画像領域情報を、前記許容範囲内に収まる程度に劣化させることにより、前記画像蓄積手段の容量をさらに低減させることを特徴とする請求項1または2記載の画像処理装置。   In the processing result by the matching processing unit, when there is a margin beyond the matching allowable range, the common image area information stored in the image storage unit is deteriorated to the extent that it falls within the allowable range. 3. The image processing apparatus according to claim 1, wherein the capacity of the storage means is further reduced. 前記推定手段は、色情報を利用して画像の変換方法を推定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit estimates an image conversion method using color information. 前記推定手段は、画像領域の位置および/または大きさを利用して画像の変換方法を推定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit estimates an image conversion method using a position and / or size of an image region. 使用者の編集履歴情報を蓄積する編集履歴情報蓄積手段を備え、前記推定手段は、前記蓄積された使用者の編集履歴情報を利用して画像の変換方法を推定することを特徴とする請求項1記載の画像処理装置。   An editing history information storage unit for storing user editing history information, wherein the estimating unit estimates an image conversion method using the stored user editing history information. The image processing apparatus according to 1. 前記推定手段は、画像を入力するときの編集情報を利用して画像の変換方法を推定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit estimates an image conversion method using editing information when an image is input. 前記第1のマッチング処理は、エッジ情報のマッチング処理であり、前記第2のマッチング処理は、色情報のマッチング処理であることを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first matching processing is edge information matching processing, and the second matching processing is color information matching processing. 前記マッチング処理手段が前記画像蓄積手段に蓄積された画像からマッチング処理対象となる画像を選択する画像選択手段を備えたことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the matching processing unit includes an image selection unit that selects an image to be a matching process target from the images stored in the image storage unit. 前記画像選択手段は、画像の一部の文字情報を利用して選択することを特徴とする請求項12記載の画像処理装置。   13. The image processing apparatus according to claim 12, wherein the image selection means selects using character information of a part of the image. 前記画像選択手段は、画像の原稿種類情報を利用して選択することを特徴とする請求項12記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the image selection unit performs selection using document type information of an image. 前記画像選択手段は、画像の作成者情報を利用して選択することを特徴とする請求項12記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the image selection unit performs selection using image creator information. 画像を入力する画像入力工程と、前記画像を蓄積する画像蓄積工程と、前記画像を複数の領域に分割する領域分割工程と、前記画像蓄積工程に蓄積された複数の画像間における画像の変換方法を推定する推定工程と、前記領域分割工程により分割された画像領域同士をパターンマッチング処理するマッチング処理工程とを備えた画像処理方法において、前記推定工程は、前記蓄積された第1の画像と第2の画像間における画像の変換方法を推定し、前記第1の画像を前記推定された変換方法により変換し、前記マッチング処理工程は、前記推定された変換方法により変換された前記第1の画像の画像領域と、前記第2の画像の画像領域とをマッチング処理し、マッチング処理で一致した共通の画像領域情報、前記共通の画像領域情報以外の差分情報および前記推定された変換情報を前記画像蓄積工程に蓄積することを特徴とする画像処理方法。   An image input step for inputting an image, an image storage step for storing the image, a region dividing step for dividing the image into a plurality of regions, and a method for converting an image between a plurality of images stored in the image storage step In the image processing method comprising: an estimating step for estimating the image region; and a matching processing step for performing pattern matching processing on the image regions divided by the region dividing step, the estimating step includes: An image conversion method between the two images, the first image is converted by the estimated conversion method, and the matching processing step includes the first image converted by the estimated conversion method. The image area of the second image and the image area of the second image are matched, and the common image area information matched by the matching process and the difference other than the common image area information Image processing method characterized by storing information and transform information the estimated in the image storage step. 請求項16記載の画像処理方法をコンピュータに実現させるためのプログラム。   A program for causing a computer to realize the image processing method according to claim 16. 請求項16記載の画像処理方法をコンピュータに実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium having recorded thereon a program for causing a computer to implement the image processing method according to claim 16.
JP2010046674A 2010-03-03 2010-03-03 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP5375675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010046674A JP5375675B2 (en) 2010-03-03 2010-03-03 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010046674A JP5375675B2 (en) 2010-03-03 2010-03-03 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2011180984A JP2011180984A (en) 2011-09-15
JP5375675B2 true JP5375675B2 (en) 2013-12-25

Family

ID=44692397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010046674A Expired - Fee Related JP5375675B2 (en) 2010-03-03 2010-03-03 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5375675B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6369369B2 (en) * 2015-03-27 2018-08-08 ブラザー工業株式会社 Image processing apparatus and computer program
JP6365371B2 (en) * 2015-03-27 2018-08-01 ブラザー工業株式会社 Image processing apparatus and computer program
KR101733345B1 (en) 2016-02-17 2017-05-25 중앙대학교 산학협력단 color transfer apparatus and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076474A (en) * 1998-08-28 2000-03-14 Sharp Corp Image processor and storage medium storing control program of the processor
JP2008146104A (en) * 2006-12-05 2008-06-26 Canon Inc Image document management device and image document management method

Also Published As

Publication number Publication date
JP2011180984A (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP4814026B2 (en) Image processing apparatus, image processing method, and image processing program
US7653217B2 (en) Image data processing apparatus and method using attribute information
JP5370638B2 (en) Image processing apparatus, image processing method, and program
JP5477081B2 (en) Image processing apparatus, image processing method, and program
JP4529148B2 (en) Print control program, print control apparatus, image forming apparatus, and print control method
JP4769661B2 (en) Image processing device
JP2008193409A (en) Image processing apparatus
JP4966248B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP2009206610A (en) Image processing apparatus, image processing method, and image processing program, and recording medium
JP2009225269A (en) Image processing unit, and image processing method and program for making computer implement the method
US8363271B2 (en) Image processing method and apparatus for executing error diffusion when the obtained image data is read by a scanner
JP2006262078A (en) Image processor
JP2010166506A (en) Image output device, image output method, image output program and recording medium
JP4925933B2 (en) Image processing method and image processing apparatus
JP5375675B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2007082060A (en) Image processing device and connection system for image processings
JP4909612B2 (en) Image processing apparatus and image processing method
JP2009225270A (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP4960911B2 (en) Image processing device
JP4960269B2 (en) Image processing system and image processing apparatus
JP5090969B2 (en) Image processing device
JP4740164B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009272772A (en) Image processor, image forming apparatus, image processing method, and computer program
JP5413297B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2010074424A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130822

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R151 Written notification of patent or utility model registration

Ref document number: 5375675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees