JP5003379B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP5003379B2
JP5003379B2 JP2007249076A JP2007249076A JP5003379B2 JP 5003379 B2 JP5003379 B2 JP 5003379B2 JP 2007249076 A JP2007249076 A JP 2007249076A JP 2007249076 A JP2007249076 A JP 2007249076A JP 5003379 B2 JP5003379 B2 JP 5003379B2
Authority
JP
Japan
Prior art keywords
image
processing method
images
alignment
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007249076A
Other languages
Japanese (ja)
Other versions
JP2009080630A (en
Inventor
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2007249076A priority Critical patent/JP5003379B2/en
Publication of JP2009080630A publication Critical patent/JP2009080630A/en
Application granted granted Critical
Publication of JP5003379B2 publication Critical patent/JP5003379B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program.

二つの画像を比較して、両者の差分を抽出する差分抽出技術がある(例えば特許文献1参照)。差分抽出技術は、例えば紙に印刷された文書に対して後から書き込みがされた場合に、この書き込みがされた箇所を検出するなどの用途に利用される。   There is a difference extraction technique that compares two images and extracts a difference between the two images (see, for example, Patent Document 1). The difference extraction technique is used, for example, for detecting a portion where writing is performed when writing is performed later on a document printed on paper.

このように二つの画像の比較が行われる場合、例えばイメージスキャナ等の画像読み取り装置が、紙などの媒体に形成された画像を読み取ることによって、比較処理を行う画像処理装置に比較対象となる画像を入力する。この場合、画像読み取り装置の読み取り面に対する媒体の位置のずれなどが原因で、比較対象となる二つの画像の間で位置ずれや位置の歪みが生じることがある。そこで画像処理装置は、二つの画像の間で位置合わせ処理を行う。位置合わせ処理の具体例として、画像処理装置は、例えば線分の端点や、画像内の文字を囲む矩形領域の代表点など、比較対象となる画像内における当該画像の特徴的な箇所を示す点(特徴点)の位置を一致させる処理を実行する。これにより、画像処理装置は、二つの画像の間で位置ずれや位置歪みが生じている場合などであっても、その影響を除去して、両者を比較することができる。
特開2004−341914号公報
When two images are compared in this way, for example, an image reading device such as an image scanner reads an image formed on a medium such as paper, so that an image to be compared with an image processing device that performs comparison processing. Enter. In this case, a positional deviation or a positional distortion may occur between the two images to be compared due to a positional deviation of the medium with respect to the reading surface of the image reading apparatus. Therefore, the image processing apparatus performs alignment processing between the two images. As a specific example of the alignment processing, the image processing apparatus, for example, a point indicating a characteristic portion of the image in the image to be compared, such as an end point of a line segment or a representative point of a rectangular area surrounding characters in the image. A process of matching the positions of (feature points) is executed. As a result, the image processing apparatus can remove the influence and compare the two images even when there is a positional shift or positional distortion between the two images.
JP 2004-341914 A

しかしながら、上述した例などにおいて比較対象となる画像には、例えば文字列を中心とした文書画像、表や図面などの線を中心とした線画像、あるいは写真画像など、様々な性状のものがある。また、1つの画像の中のある領域は写真を表し、ある領域は文章を表すなど、領域ごとにその性状が異なる画像もある。このような画像の性状の違いによって、例えば特徴点を正確に検出できなかったり、位置合わせ処理を実行するために十分な数の特徴点を検出できなかったりするなどの問題が生じ、精度よく位置合わせができない場合がある。   However, the images to be compared in the above-described examples include various properties such as a document image centered on a character string, a line image centered on a line such as a table or drawing, or a photographic image. . In addition, there are images having different properties for each region, such as a certain region in one image representing a photograph and a certain region representing a sentence. Due to such differences in image properties, for example, feature points cannot be detected accurately, or a sufficient number of feature points cannot be detected for performing the alignment process, and the position can be accurately determined. May not be able to match.

本発明の目的の一つは、比較対象となる画像の位置合わせを行う場合に、画像の性状に応じた処理方式で位置合わせを行うことのできる画像処理装置及びプログラムを提供することにある。   One of the objects of the present invention is to provide an image processing apparatus and program capable of performing alignment by a processing method according to the properties of an image when aligning images to be compared.

請求項1記載の発明は、画像処理装置であって、比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段と、前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段と、前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段と、を有し、前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択することを特徴とする。 The invention according to claim 1 is an image processing apparatus, a property information acquisition unit that acquires information about properties of two images to be compared, and the two images according to the information about the acquired properties In accordance with the processing method determining means for determining the processing method for performing the alignment of the image and the determined processing method, the feature points included in each of the two images are detected, and the detected feature points substantially coincide with each other As described above, the property information acquisition unit includes a document image including a character string and a line as the property information acquisition unit. Information indicating whether it is a line image including a minute or a pattern image representing a pattern, the type of the image and the type of the feature point correspond to each other, and the processing method determination unit includes: The type of feature points corresponding to the information indicating the type of an image to be serial acquired, the positioning means and selects a type of a feature point to be detected.

請求項2記載の発明は、請求項1記載の画像処理装置であって、画像の種別を示す情報と、位置合わせを行う際の処理方式と、を関連づける情報を記憶する情報記憶手段をさらに含み、前記処理方式決定手段は、前記取得される画像の種別を示す情報に関連づけて前記情報記憶手段に記憶されている処理方式を、前記二つの画像の位置合わせを行う際の処理方式として決定することを特徴とする。   The invention according to claim 2 is the image processing apparatus according to claim 1, further comprising information storage means for storing information associating information indicating the type of the image with a processing method for performing alignment. The processing method determining unit determines the processing method stored in the information storage unit in association with the information indicating the type of the acquired image as the processing method when the two images are aligned. It is characterized by that.

請求項記載の発明は、請求項1又は2に記載の画像処理装置であって、前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が特徴点を検出する際に使用する変数を決定し、前記位置合わせ手段は、前記決定される変数を使用して特徴点を検出することを特徴とする。 A third aspect of the present invention is the image processing apparatus according to the first or second aspect , wherein the processing method determining means detects the feature point according to the information on the acquired property. A variable to be used in the determination is determined, and the alignment means detects a feature point using the determined variable.

請求項記載の発明は、請求項1からのいずれか一項に記載の画像処理装置であって、前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が位置合わせを行う際の処理方式の複数の候補と、当該各処理方式の候補に対する優先順位と、を決定し、前記位置合わせ手段は、前記決定される優先順位が示す順序により前記複数の候補の中から決定される処理方式に従って、前記二つの画像の位置合わせを行うことを特徴とする。 A fourth aspect of the present invention is the image processing apparatus according to any one of the first to third aspects, wherein the processing method determination unit is configured to perform the alignment unit according to information about the acquired property. Determine a plurality of candidates for processing methods when performing alignment and priorities for the candidates for the respective processing methods, and the alignment means determines the plurality of candidates according to the order indicated by the determined priorities. The two images are aligned according to a processing method determined from the above.

請求項記載の発明は、請求項1記載の画像処理装置であって、前記性状情報取得手段は、前記二つの画像のそれぞれを互いに性状の異なる複数の領域に分割し、当該分割された各領域の位置及び性状に関する情報を取得し、前記処理方式決定手段は、前記分割された各領域について、当該領域の性状に関する情報に応じて、当該領域に含まれる特徴点を検出する際の処理方式を決定し、前記位置合わせ手段は、前記分割された各領域に含まれる特徴点を、当該領域について前記処理方式決定手段が決定した処理方式に従って検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。 The invention according to claim 5 is the image processing device according to claim 1, wherein the property information acquisition unit divides each of the two images into a plurality of regions having different properties, and each of the divided images. Information on the position and property of the region is acquired, and the processing method determining means detects a feature point included in the region for each of the divided regions according to information on the property of the region. And the alignment unit detects the feature points included in each of the divided regions according to the processing method determined by the processing method determination unit for the region, so that the detected feature points substantially match. In addition, the two images are aligned.

請求項記載の発明は、請求項記載の画像処理装置であって、前記処理方式決定手段は、前記分割された複数の領域の中から、前記各領域の性状に関する情報に応じて、特徴点検出の対象とする検出対象領域を選択し、前記位置合わせ手段は、前記選択される検出対象領域に含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。 A sixth aspect of the present invention is the image processing apparatus according to the fifth aspect , wherein the processing method determining means is characterized in that, out of the plurality of divided areas, according to information relating to properties of the respective areas. Select a detection target region as a target of point detection, and the positioning means detects a feature point included in the selected detection target region, and the two feature points are substantially matched to each other. It is characterized by aligning images.

請求項記載の発明は、請求項5又は6記載の画像処理装置であって、前記処理方式決定手段は、前記分割された各領域の性状に関する情報に応じて、当該各領域に対する特徴点検出の優先順位を決定し、前記位置合わせ手段は、前記決定される優先順位が示す順序に従って、前記各領域に含まれる特徴点の検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。 A seventh aspect of the present invention is the image processing apparatus according to the fifth or sixth aspect , wherein the processing method determining means detects feature points for each of the regions in accordance with information on the properties of the divided regions. The positioning means detects the feature points included in each region according to the order indicated by the determined priorities, and the two feature points are matched so that the detected feature points substantially match. One image is aligned.

請求項記載の発明は、比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段、前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段、及び前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段、としてコンピュータを機能させるためのプログラムであって、前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択するプログラムである。 The invention according to claim 8 is a property information acquisition means for acquiring information related to the properties of two images to be compared, and a process for performing alignment of the two images according to the information related to the acquired properties According to the processing method determining means for determining the method and the determined processing method, the feature points included in each of the two images are detected, and the two feature images are matched so that the detected feature points substantially coincide with each other. A program for causing a computer to function as an alignment unit that performs alignment , wherein the property information acquisition unit includes a document image including a character string, a line segment as information on the property, Information indicating whether the image is a line image including a pattern image or a pattern image representing a pattern, and the type of the image and the type of the feature point correspond to each other, Serial processing method determination means, the type of feature points corresponding to the information indicating the type of an image to be the acquisition, it said alignment means is a program for selecting a type of a feature point to be detected.

請求項1及び9記載の発明によれば、画像の性状に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。   According to the first and ninth aspects of the invention, it is possible to perform alignment between two images by a processing method according to the properties of the images.

請求項2記載の発明によれば、画像の種別に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。   According to the second aspect of the present invention, it is possible to perform alignment between two images by a processing method according to the type of image.

請求項3記載の発明によれば、画像の性状に応じた種類の特徴点を検出することにより、特徴点を検出しやすくすることができる。   According to the third aspect of the present invention, the feature points can be easily detected by detecting the feature points of the type corresponding to the properties of the image.

請求項4記載の発明によれば、画像の性状に応じた変数を使用して特徴点を検出することにより、特徴点検出の精度を向上できる。   According to the fourth aspect of the invention, the feature point detection accuracy can be improved by detecting the feature point using the variable according to the property of the image.

請求項5記載の発明によれば、画像の性状に応じて、より適していると推定される処理方式を優先的に用いて位置合わせを行うことにより、位置合わせ処理の効率を向上できる。   According to the fifth aspect of the present invention, the alignment processing efficiency can be improved by preferentially using the processing method estimated to be more suitable according to the properties of the image.

請求項6記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。   According to the sixth aspect of the present invention, it is possible to perform alignment between two images by a processing method corresponding to the properties of each of a plurality of regions included in the image.

請求項7記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じて、特徴点を検出しやすいと推定される領域から特徴点を検出することにより、特徴点検出の効率を向上できる。   According to the seventh aspect of the present invention, the feature point detection efficiency is improved by detecting the feature point from the region where the feature point is estimated to be easily detected according to the properties of each of the plurality of regions included in the image. It can be improved.

請求項8記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じて、特徴点を検出しやすいと推定される領域から優先的に特徴点を検出することにより、特徴点検出の効率を向上できる。   According to the eighth aspect of the present invention, feature point detection is performed by preferentially detecting feature points from regions presumed to be easy to detect feature points according to the properties of each of the plurality of regions included in the image. Can improve the efficiency.

以下、本発明の実施の形態について、図面を参照しながら説明する。本発明の一実施形態に係る画像処理装置1は、例えばパーソナルコンピュータ等であって、図1に示すように、制御部11と、記憶部12と、操作部13と、表示部14と、インタフェース部15と、を含んで構成されている。また、画像処理装置1は、画像読み取り装置2に接続されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. An image processing apparatus 1 according to an embodiment of the present invention is a personal computer or the like, for example, and as illustrated in FIG. 1, a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an interface. Part 15. The image processing apparatus 1 is connected to the image reading apparatus 2.

制御部11は、CPU等であって、記憶部12に格納されるプログラムに従って各種の情報処理を実行する。本実施形態において、制御部11は、比較対象となる二つの画像に対して差分抽出処理を実行する。制御部11が実行する処理の具体例については、後述する。   The control unit 11 is a CPU or the like, and executes various types of information processing according to programs stored in the storage unit 12. In this embodiment, the control part 11 performs a difference extraction process with respect to two images used as comparison object. A specific example of the process executed by the control unit 11 will be described later.

記憶部12は、RAMやROM等のメモリ素子、ハードディスクなどを含んで構成される。記憶部12は、制御部11によって実行されるプログラムや、各種のデータを保持する。また、記憶部12は、制御部11のワークメモリとしても動作する。   The storage unit 12 includes a memory element such as a RAM and a ROM, a hard disk, and the like. The storage unit 12 holds programs executed by the control unit 11 and various data. The storage unit 12 also operates as a work memory for the control unit 11.

操作部13は、例えばキーボードやマウス等であり、利用者の指示操作を受け付けて、当該指示操作の内容を制御部11に出力する。表示部14は、例えばディスプレイ装置等であり、制御部11からの指示に従って、情報の表示を行う。   The operation unit 13 is, for example, a keyboard or a mouse, and receives a user instruction operation and outputs the content of the instruction operation to the control unit 11. The display unit 14 is a display device, for example, and displays information according to instructions from the control unit 11.

インタフェース部15は、例えばUSB(Universal Serial Bus)規格などの通信インタフェースであって、制御部11と画像読み取り装置2との間のデータの送受信を中継する。画像読み取り装置2は、イメージスキャナ等であって、紙などの媒体上に形成されている画像を読み取って、電子データとして画像処理装置1に対して出力する。   The interface unit 15 is a communication interface such as a USB (Universal Serial Bus) standard, and relays data transmission / reception between the control unit 11 and the image reading device 2. The image reading device 2 is an image scanner or the like, reads an image formed on a medium such as paper, and outputs it as electronic data to the image processing device 1.

以下、本実施形態において画像処理装置1が実現する機能について、説明する。画像処理装置1は、機能的に、図2に示すように、性状情報取得部21と、処理方式決定部22と、位置合わせ処理部23と、差分抽出処理部24と、を含んで構成される。これらの機能は、例えば制御部11が記憶部12に格納されたプログラムを実行することによって実現できる。このプログラムは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な各種の情報記憶媒体に格納されて提供されてもよいし、インターネット等の通信手段を介して提供されてもよい。   Hereinafter, functions realized by the image processing apparatus 1 in the present embodiment will be described. As shown in FIG. 2, the image processing apparatus 1 functionally includes a property information acquisition unit 21, a processing method determination unit 22, a registration processing unit 23, and a difference extraction processing unit 24. The These functions can be realized, for example, when the control unit 11 executes a program stored in the storage unit 12. This program may be provided by being stored in various computer-readable information storage media such as a CD-ROM or a DVD-ROM, or may be provided via communication means such as the Internet.

性状情報取得部21は、まず比較対象となる二つの画像(比較対象画像)を取得する。そして、取得した比較対象画像について、その性状に関する情報(以下、性状情報という)を取得する。比較対象となる一方の画像I1は、変更前の画像(元画像)であって、他方の画像I2は、画像I1に対して加筆、修正等が施された変更後の画像である。   The property information acquisition unit 21 first acquires two images (comparison target images) to be compared. And about the acquired comparison object image, the information regarding the property (henceforth property information) is acquired. One image I1 to be compared is an image (original image) before the change, and the other image I2 is an image after the change in which the image I1 is added, corrected, or the like.

例えば性状情報取得部21は、画像読み取り装置2が読み取った画像を比較対象画像として取得する。すなわち、画像読み取り装置2は、紙などの媒体に形成されている画像を読み取って、読み取った画像のデータを画像処理装置1に対して出力する。性状情報取得部21は、この画像読み取り装置2が出力する画像を比較対象画像として取得する。また、性状情報取得部21は、記憶部12に記憶されている画像や、通信ネットワークを介して他の情報処理装置から送信される画像などを比較対象画像として取得してもよい。   For example, the property information acquisition unit 21 acquires an image read by the image reading device 2 as a comparison target image. That is, the image reading device 2 reads an image formed on a medium such as paper, and outputs the read image data to the image processing device 1. The property information acquisition unit 21 acquires an image output from the image reading device 2 as a comparison target image. In addition, the property information acquisition unit 21 may acquire an image stored in the storage unit 12 or an image transmitted from another information processing apparatus via a communication network as a comparison target image.

さらに性状情報取得部21は、取得された画像I1及びI2の少なくとも一方について、その性状情報を取得する。性状情報は、画像の特徴や性質に関する情報であって、例えば画像の種別を示す情報である。あるいは、画像が互いに性状の異なる複数の領域を含んで構成される場合(例えば写真を表す領域や文章を表す領域が一つの画像内に混在している場合)、当該画像の性状情報は、このような領域それぞれの位置(範囲)を示す情報と、当該領域内の画像の性状に関する情報と、を含んでもよい。   Furthermore, the property information acquisition unit 21 acquires the property information of at least one of the acquired images I1 and I2. The property information is information relating to the characteristics and properties of the image, for example, information indicating the type of the image. Alternatively, when an image includes a plurality of regions having different properties (for example, when a region representing a photograph or a region representing a sentence is mixed in one image), the property information of the image is Such information indicating the position (range) of each region and information regarding the properties of the image in the region may be included.

処理方式決定部22は、性状情報取得部21が取得した性状情報に応じて、二つの画像I1及びI2の位置合わせを行う際の処理方式を決定する。例えば処理方式決定部22は、後述する位置合わせ処理部23が画像I1及び画像I2の中から画像の特徴点を検出する処理を実行する際の、検出すべき特徴点の種類や、特徴点検出の対象とする領域(検出対象領域)などを決定する。さらに、処理方式決定部22は、位置合わせ処理の際に使用される変数(処理のパラメタ)を性状情報に応じて決定してもよい。   The processing method determination unit 22 determines a processing method for aligning the two images I1 and I2 according to the property information acquired by the property information acquisition unit 21. For example, the processing method determination unit 22 detects the type of feature points to be detected and the feature point detection when the alignment processing unit 23 (to be described later) executes processing for detecting feature points of the image from the images I1 and I2. A region to be targeted (detection target region) is determined. Further, the processing method determination unit 22 may determine a variable (processing parameter) used in the alignment process according to the property information.

また、処理方式決定部22は、性状情報に応じて、位置合わせ処理部23が位置合わせを行う際の処理方式の複数の候補と、当該各処理方式の候補に対する優先順位と、を決定してもよい。この場合、優先順位の高い処理方式による位置合わせ処理が失敗した場合には、処理方式決定部22は、優先順位がより低い処理方式を新たな処理方式として決定する。なお、処理方式決定部22が性状情報に応じて決定する処理方式の具体例については、後に詳述する。   In addition, the processing method determination unit 22 determines a plurality of processing method candidates when the alignment processing unit 23 performs alignment, and priorities for the respective processing method candidates according to the property information. Also good. In this case, when the alignment process using the processing method with a higher priority has failed, the processing method determination unit 22 determines a processing method with a lower priority as a new processing method. A specific example of the processing method determined by the processing method determination unit 22 according to the property information will be described in detail later.

位置合わせ処理部23は、処理方式決定部22によって決定される処理方式に従って、二つの画像I1及びI2の位置合わせ処理を行う。具体的に、位置合わせ処理部23は、画像I1及びI2のそれぞれに含まれる特徴点を検出する。そして、当該検出した特徴点が略一致するように、二つの画像の少なくとも一方に対して幾何変換を行う。本実施形態において、位置合わせ処理部23は、機能的に図3に示すように、特徴点検出部23aと、対応特徴点特定部23bと、変換係数算出部23cと、画像変換部23dと、を含んで構成される。これらの機能によって、位置合わせ処理部23は画像I1と画像I2の間の位置合わせ処理を実現する。   The alignment processing unit 23 performs alignment processing of the two images I1 and I2 according to the processing method determined by the processing method determination unit 22. Specifically, the alignment processing unit 23 detects feature points included in each of the images I1 and I2. Then, geometric transformation is performed on at least one of the two images so that the detected feature points substantially coincide. In the present embodiment, as shown in FIG. 3, the alignment processing unit 23 is functionally a feature point detection unit 23a, a corresponding feature point identification unit 23b, a conversion coefficient calculation unit 23c, an image conversion unit 23d, It is comprised including. With these functions, the alignment processing unit 23 realizes alignment processing between the image I1 and the image I2.

特徴点検出部23aは、画像I1及びI2のそれぞれに含まれる特徴点を検出する。ここで特徴点は、画像I1及びI2の特徴的な箇所を示す各画像内の点であって、例えば線分の端点や、画像内の文字に外接する矩形領域の代表点などである。なお、特徴点検出部23aは、原則として画像I1と画像I2の双方に対して同じ処理方式で特徴点の検出を行う。   The feature point detection unit 23a detects feature points included in each of the images I1 and I2. Here, the feature point is a point in each image indicating a characteristic part of the images I1 and I2, and is, for example, an end point of a line segment or a representative point of a rectangular area circumscribing a character in the image. In principle, the feature point detection unit 23a detects feature points with the same processing method for both the image I1 and the image I2.

対応特徴点特定部23bは、特徴点検出部23aが画像I1から検出した特徴点と、画像I2から検出した特徴点と、の間の対応関係を特定する。すなわち、対応特徴点特定部23bは、それぞれの画像内において互いに同じ位置にあるべき特徴点の組み合わせを決定する。具体的に、例えば対応特徴点特定部23bは、検出された特徴点のうち、それぞれの画像内における位置が所定範囲内で一致し、かつ特徴点の周囲の画素分布が類似する特徴点同士を、対応する特徴点として特定する。   The corresponding feature point specifying unit 23b specifies the correspondence between the feature point detected by the feature point detecting unit 23a from the image I1 and the feature point detected from the image I2. That is, the corresponding feature point specifying unit 23b determines a combination of feature points that should be in the same position in each image. Specifically, for example, the corresponding feature point specifying unit 23b finds feature points whose positions in the images match within a predetermined range and whose pixel distribution around the feature points is similar among the detected feature points. , To identify as a corresponding feature point.

変換係数算出部23cは、対応特徴点特定部23bによって互いに対応すると特定された特徴点同士の画像内における位置が略一致するように、画像I1及び画像I2のいずれか、又は両方に対する幾何変換の変換係数を算出する。そして、画像変換部23dは、変換係数算出部23cによって算出された変換係数に基づいて、画像I1及び画像I2の少なくとも一方に対して幾何変換を行う。ここで幾何変換は、例えばアフィン変換などであって、画像を平行移動させたり、回転させたり、画像の歪みを補正したりする画像処理である。これにより、二つの画像I1及びI2は、互いに対応する特徴点同士が所定の精度の範囲内で一致するように変換される。   The transformation coefficient calculation unit 23c performs geometric transformation on either or both of the image I1 and the image I2 so that the positions of the feature points identified as corresponding to each other by the corresponding feature point identification unit 23b in the image substantially coincide with each other. A conversion coefficient is calculated. The image conversion unit 23d performs geometric conversion on at least one of the image I1 and the image I2 based on the conversion coefficient calculated by the conversion coefficient calculation unit 23c. Here, the geometric transformation is, for example, affine transformation or the like, and is image processing that translates, rotates, or corrects image distortion. Thereby, the two images I1 and I2 are converted so that the feature points corresponding to each other coincide with each other within a predetermined accuracy range.

以上の処理において、位置合わせ処理部23は、処理方式決定部22によって決定される処理方式に従って位置合わせ処理を行う。具体例として、特徴点検出部23aは、処理方式決定部22によって検出対象領域として決定された領域の中から、処理方式決定部22によって決定された種類の特徴点を検出する。   In the above process, the alignment processing unit 23 performs the alignment process according to the processing method determined by the processing method determining unit 22. As a specific example, the feature point detection unit 23 a detects the type of feature point determined by the processing method determination unit 22 from the regions determined as the detection target region by the processing method determination unit 22.

また、処理方式決定部22が処理方式の複数の候補を決定している場合、位置合わせ処理部23は、処理方式決定部22により決定される優先順位が示す順序により、複数の候補の中から決定される処理方式に従って、二つの画像の位置合わせを行う。すなわち、位置合わせ処理部23は、まず優先順位の高い処理方式により位置合わせ処理を行う。そして、当該処理方式による位置合わせ処理に失敗した場合には、より優先順位の低い処理方式により、位置合わせ処理を行う。   In addition, when the processing method determination unit 22 has determined a plurality of candidates for the processing method, the alignment processing unit 23 selects the plurality of candidates according to the order indicated by the priority order determined by the processing method determination unit 22. The two images are aligned according to the determined processing method. That is, the alignment processing unit 23 first performs alignment processing by a processing method with a high priority. If the alignment process by the processing method fails, the alignment process is performed by a processing method with a lower priority.

差分抽出処理部24は、位置合わせ処理部23によって位置合わせ処理がなされた画像I1と画像I2とを比較し、互いに相違する差分箇所を抽出する。具体例として、差分抽出処理部24は、各画像内において同じ位置にある画素同士について、その画素値が互いに一致するか否かを判定する。そして、画素値が異なる画素を、差分箇所として抽出する。   The difference extraction processing unit 24 compares the image I1 and the image I2 that have been subjected to the alignment processing by the alignment processing unit 23, and extracts differences from each other. As a specific example, the difference extraction processing unit 24 determines whether or not the pixel values of pixels at the same position in each image match each other. And the pixel from which a pixel value differs is extracted as a difference location.

以下、画像処理装置1が実行する処理のいくつかの具体例について、説明する。まず第1の例として、性状情報取得部21が比較対象画像の種別を示す情報を性状情報として取得する場合の例について、図4のフロー図に基づいて説明する。   Hereinafter, some specific examples of the processing executed by the image processing apparatus 1 will be described. First, as a first example, an example in which the property information acquisition unit 21 acquires information indicating the type of comparison target image as property information will be described with reference to the flowchart of FIG.

まず、性状情報取得部21が、比較対象画像として画像I1及びI2を取得する(S1)。そして、取得した比較対象画像の一方に対して、画像の種別判定を行う(S2)。   First, the property information acquisition unit 21 acquires images I1 and I2 as comparison target images (S1). Then, image type determination is performed on one of the acquired comparison target images (S2).

具体的に、性状情報取得部21は、比較対象画像に含まれる画素の分布などに基づいて、比較対象画像が主として文字列を含んだ文書画像か、主として表や線分などを含んだ線画像か、あるいは写真やイラストなどの絵柄を表す絵柄画像か、を判定する。例えば性状情報取得部21は、画素値が0でない画素の画素密度や、このような画素の集散度(散らばり度合い)などに基づいて、画像の種別判定を行う。また、性状情報取得部21は、比較対象画像内において互いに連結している画素にラベルを付与するラベリング処理を実行し、付与されたラベルの数に基づいて、画像の種別を判定してもよい。   Specifically, the property information acquisition unit 21 determines whether the comparison target image is a document image mainly including a character string or a line image mainly including a table or a line segment based on the distribution of pixels included in the comparison target image. Or a pattern image representing a pattern such as a photograph or an illustration. For example, the property information acquisition unit 21 performs image type determination based on the pixel density of pixels whose pixel values are not 0, the degree of convergence (degree of dispersion) of such pixels, and the like. In addition, the property information acquisition unit 21 may execute a labeling process for assigning labels to pixels connected to each other in the comparison target image, and determine the type of the image based on the number of labels given. .

なお、性状情報取得部21は、比較対象画像が二値画像ではなくグレースケール画像やカラー画像などの場合、比較対象画像に対して単色化処理や二値化処理を実行した結果得られる二値画像に対して、上述した処理を実行してもよい。あるいは、黒色の画素や画素値が所定値以上の画素の画素密度や画素分布に基づいて、上述した画像種別の判定を実行してもよい。また、性状情報取得部21は、ユーザが操作部13に対する指示操作によって入力する画像の性状に関する情報や、予め比較対象画像と関連づけて記憶部12に記憶されている画像の性状に関する情報を、画像の種別判定に用いてもよい。   In addition, when the comparison target image is not a binary image but a grayscale image, a color image, or the like, the property information acquisition unit 21 obtains a binary value obtained as a result of executing a monochromatic process or a binarization process on the comparison target image. You may perform the process mentioned above with respect to the image. Alternatively, the above-described image type determination may be executed based on the pixel density or pixel distribution of black pixels or pixels having a pixel value equal to or greater than a predetermined value. In addition, the property information acquisition unit 21 stores information on image properties input by the user through an instruction operation on the operation unit 13 and information on image properties stored in the storage unit 12 in advance in association with the comparison target image. It may be used for the type determination.

また、ここでは二つの比較対象画像の画像種別は共通するものと想定し、一方の画像についてのみ画像の種別判定を行うこととしているが、性状情報取得部21は、二つの画像の双方について画像の種別判定を行ってもよい。この場合、二つの画像の種別が互いに異なると判定されたときには、所定のエラー処理を実行することとしてもよい。   Here, it is assumed that the image types of the two comparison target images are the same, and the image type determination is performed for only one of the images. However, the property information acquisition unit 21 determines the image for both of the two images. The type may be determined. In this case, when it is determined that the two image types are different from each other, predetermined error processing may be executed.

次に、処理方式決定部22が、S2で判定された比較対象画像の画像種別に応じて、位置合わせ処理の処理方式を決定する(S3)。ここでは具体的に、記憶部12に、画像の種別を示す情報と、位置合わせを行う際の処理方式と、を関連づける情報が記憶されているものとする。処理方式決定部22は、S2で性状情報取得部21が取得した画像の種別を示す情報に関連づけて記憶部12に記憶されている処理方式を、S1で取得した比較対象画像の位置合わせを行う際の処理方式として決定する。   Next, the processing method determination unit 22 determines the processing method of the alignment process according to the image type of the comparison target image determined in S2 (S3). Here, specifically, it is assumed that the storage unit 12 stores information that associates information indicating the type of image with a processing method for performing alignment. The processing method determination unit 22 aligns the comparison method image acquired in S1 with the processing method stored in the storage unit 12 in association with the information indicating the type of image acquired by the property information acquisition unit 21 in S2. The processing method is determined.

ここで、処理方式決定部22が性状情報に応じて決定する処理方式の具体例について説明する。図5は、記憶部12に記憶されている情報の具体例である。この図の例においては、画像の種別を示す情報に関連づけて、位置合わせ処理の処理方式として、特徴点検出部23aが検出する特徴点の種類が記憶されている。具体的に、画像の種別が文書画像の場合、処理方式決定部22は、画像内に含まれる各文字に外接する矩形領域の代表点を特徴点として検出すると決定する。ここで矩形領域の代表点は、例えば矩形の頂点や中心点などである。また、画像の種別が線画像であれば、線分の端点や交点、折れ曲がっている点などが、特徴点として検出される。また、画像の種別が絵柄画像の場合、写真などの絵柄を表す領域を囲む外枠(外周)の頂点が、特徴点として検出される。   Here, a specific example of the processing method determined by the processing method determination unit 22 according to the property information will be described. FIG. 5 is a specific example of information stored in the storage unit 12. In the example of this figure, the type of feature point detected by the feature point detection unit 23a is stored as a processing method of the alignment process in association with information indicating the type of image. Specifically, when the image type is a document image, the processing method determination unit 22 determines to detect a representative point of a rectangular area circumscribing each character included in the image as a feature point. Here, the representative point of the rectangular area is, for example, a rectangular vertex or a center point. If the image type is a line image, end points, intersections, bent points, and the like of line segments are detected as feature points. When the image type is a pattern image, the vertex of the outer frame (outer periphery) surrounding the area representing the pattern such as a photograph is detected as a feature point.

また、処理方式決定部22は、比較対象画像の種別に応じて、特徴点検出部23aが特徴点を検出する際に使用する変数を決定してもよい。具体例として、処理方式決定部22は、画像の種別に応じて、特徴点検出部23aが特徴点を検出するために比較対象画像を二値化する際の、画素値の閾値を決定する。また、画像の種別に応じて、位置合わせのために検出する特徴点の数を決定してもよい。   Further, the processing method determination unit 22 may determine a variable to be used when the feature point detection unit 23a detects a feature point according to the type of the comparison target image. As a specific example, the processing method determination unit 22 determines the threshold value of the pixel value when the feature point detection unit 23a binarizes the comparison target image in order to detect the feature point according to the type of image. Further, the number of feature points to be detected for alignment may be determined according to the type of image.

また、処理方式決定部22は、比較対象画像の種別に応じて、特徴点検出部23aが特徴点を検出する対象となる検出対象領域を決定してもよい。例えば比較対象画像の種別が絵柄画像であって、前述したように特徴点として外枠の頂点を検出する場合、このような特徴点は画像の中心部分ではなく周縁部分に位置すると推定される。そこで処理方式決定部22は、このような画像の周縁の領域を検出対象領域として選択する。   Further, the processing method determination unit 22 may determine a detection target region that is a target for the feature point detection unit 23a to detect a feature point according to the type of the comparison target image. For example, when the type of the comparison target image is a design image and the vertex of the outer frame is detected as a feature point as described above, it is estimated that such a feature point is located in the peripheral portion instead of the central portion of the image. Therefore, the processing method determination unit 22 selects such a peripheral region of the image as a detection target region.

次に、位置合わせ処理部23が、S3で決定された処理方式に従って、特徴点の検出、特徴点同士の対応関係の特定、及び変換係数の算出を行う(S4)。すなわち、まず特徴点検出部23aが、画像I1及びI2のそれぞれから、S3で選択される種類の特徴点を検出する。そして、対応特徴点特定部23bが、各画像から検出された特徴点同士の対応関係を特定し、変換係数算出部23cが、互いに対応する特徴点同士が所定の誤差の範囲内で一致するように、画像を変換する際の変換係数を算出する。   Next, the alignment processing unit 23 detects feature points, specifies correspondences between feature points, and calculates conversion coefficients according to the processing method determined in S3 (S4). That is, first, the feature point detection unit 23a detects the type of feature point selected in S3 from each of the images I1 and I2. Then, the corresponding feature point specifying unit 23b specifies the correspondence between the feature points detected from each image, and the transform coefficient calculating unit 23c is configured so that the corresponding feature points match within a predetermined error range. Then, a conversion coefficient for converting the image is calculated.

ここで、特徴点検出処理の具体例について説明する。例えば特徴点の種類が線分の端点や絵柄を表す領域を囲む外枠の頂点などの場合、特徴点検出部23aは、比較対象画像を二値化して得られる二値画像に対して、パターンマッチング処理などの公知の画像処理を実行することにより、特徴点を検出する。また、特徴点の種類が文字に外接する矩形領域の代表点である場合、特徴点検出部23aは、ラベリング処理によって互いに連結する画素群を検出し、検出された各画素群に外接する矩形領域のうち、幅及び高さが所定の大きさの範囲内であって、領域内の画素密度が所定の値の範囲内となる矩形領域を、文字を表す矩形領域であると判定する。そして、当該矩形領域の位置に応じて特徴点の位置を決定する。   Here, a specific example of the feature point detection process will be described. For example, when the feature point type is an end point of a line segment or an apex of an outer frame surrounding an area representing a pattern, the feature point detection unit 23a applies a pattern to a binary image obtained by binarizing the comparison target image. Feature points are detected by executing known image processing such as matching processing. When the feature point type is a representative point of a rectangular area circumscribing the character, the feature point detection unit 23a detects a pixel group connected to each other by a labeling process, and circumscribes each detected pixel group. Among them, a rectangular area whose width and height are within a predetermined size range and whose pixel density is within a predetermined value range is determined to be a rectangular area representing a character. Then, the position of the feature point is determined according to the position of the rectangular area.

続いて、位置合わせ処理部23は、所定の条件を満たす変換係数の算出ができたか否かを判定する(S5)。S4の処理において、予め定められた数の特徴点が検出できない場合や、特徴点同士の対応関係が特定できない場合、対応する特徴点が一致するような変換係数を算出できない場合、あるいは算出された変換係数が所定の範囲を超えた値となってしまう場合など、所定の条件を満たす変換係数の算出に失敗する場合がある。このような場合、特徴点検出の条件(すなわち、処理方式決定部22が決定した処理方式)が適切でなかった可能性が考えられる。そこで、S5の判定に失敗した場合、処理方式決定部22は、比較対象画像の性状情報に応じて決定される優先順位に従って、これまでに試行された処理方式とは異なる処理方式を新たに選択する(S6)。そして、位置合わせ処理部23は、S4に戻り、S6で決定された新たな処理方式により再び特徴点の検出を行う。具体例として、画像の種別が線画像と判定され、線分の端点などを特徴点として検出する処理が失敗した場合、処理方式決定部22は、文字に外接する矩形領域の代表点を特徴点として検出する処理方式を、新たな処理方式として決定する。   Subsequently, the alignment processing unit 23 determines whether or not the conversion coefficient satisfying the predetermined condition has been calculated (S5). In the process of S4, when a predetermined number of feature points cannot be detected, when the correspondence between feature points cannot be specified, when a conversion coefficient that matches the corresponding feature points cannot be calculated, or calculated In some cases, such as when the conversion coefficient exceeds a predetermined range, calculation of the conversion coefficient that satisfies the predetermined condition may fail. In such a case, the feature point detection condition (that is, the processing method determined by the processing method determination unit 22) may not be appropriate. Therefore, when the determination in S5 fails, the processing method determination unit 22 newly selects a processing method different from the processing methods tried so far according to the priority order determined according to the property information of the comparison target image. (S6). Then, the alignment processing unit 23 returns to S4 and performs feature point detection again by the new processing method determined in S6. As a specific example, when the type of the image is determined to be a line image and the process of detecting the end point of the line segment as a feature point fails, the processing method determination unit 22 uses the representative point of the rectangular area circumscribing the character as the feature point. Is determined as a new processing method.

S5で変換係数の算出に成功したと判定した場合、画像変換部23dは、S4で算出された変換係数を用いて、比較対象画像の一方に対する幾何変換を行う(S7)。そして、差分抽出処理部24は、S7で幾何変換がなされた比較対象画像同士を比較し、差分抽出処理を実行する(S8)。差分抽出処理部24は、差分抽出処理の実行結果として、例えば差分箇所を示す差分画像を生成し、出力する。生成された差分画像は、表示部14に表示されたり、画像形成装置によって紙などの媒体上に印刷されたりすることにより、ユーザに提示される。   When it is determined that the conversion coefficient has been successfully calculated in S5, the image conversion unit 23d performs geometric conversion on one of the comparison target images using the conversion coefficient calculated in S4 (S7). Then, the difference extraction processing unit 24 compares the comparison target images subjected to the geometric transformation in S7, and executes a difference extraction process (S8). The difference extraction process part 24 produces | generates and outputs the difference image which shows a difference location, for example as an execution result of a difference extraction process. The generated difference image is presented to the user by being displayed on the display unit 14 or printed on a medium such as paper by an image forming apparatus.

次に、画像処理装置1が実行する処理の第2の例について、図6のフロー図に基づいて説明する。この第2の例では、性状情報取得部21が比較対象画像を複数の領域に分割し、分割された各領域の位置及び性状に関する情報を性状情報として取得する。   Next, a second example of processing executed by the image processing apparatus 1 will be described based on the flowchart of FIG. In the second example, the property information acquisition unit 21 divides the comparison target image into a plurality of regions, and acquires information on the position and property of each divided region as property information.

まず、性状情報取得部21が、比較対象画像として画像I1及びI2を取得する(S11)。そして、取得した比較対象画像のそれぞれに対して、領域分割処理を実行する(S12)。   First, the property information acquisition unit 21 acquires images I1 and I2 as comparison target images (S11). Then, an area division process is executed for each acquired comparison target image (S12).

具体的に、性状情報取得部21は、例えば公知のT/I(Text/Image)分離処理などによって、比較対象画像のそれぞれを、主として文字列を含んだ文書領域、線画像を含んだ線画領域、写真やイラストなどの画像を含んだ絵柄領域など、互いに性状の異なる複数の領域に分割する。この場合、性状情報取得部21は、比較対象画像を複数の領域に分割するとともに、各領域内に含まれる画像の画像種別を示す情報を性状情報として取得することとなる。   Specifically, the property information acquisition unit 21 uses, for example, a well-known T / I (Text / Image) separation process to convert each comparison target image into a document area mainly including a character string and a line drawing area including a line image. The image is divided into a plurality of regions having different properties, such as a pattern region including an image such as a photograph or an illustration. In this case, the property information acquisition unit 21 divides the comparison target image into a plurality of regions, and acquires information indicating the image type of the image included in each region as the property information.

次に、処理方式決定部22が、S12の処理により得られる各領域の性状に関する情報に応じて、各領域に含まれる特徴点を検出する際の処理方式を決定する(S13)。具体例として、処理方式決定部22は、領域ごとに、当該領域に含まれる画像の画像種別を示す情報に応じて、検出する特徴点の種類を決定する。なお、画像種別に応じた特徴点の種類の決定については、図4のフローにおけるS3の処理と同様の処理により実現できる。   Next, the processing method determination unit 22 determines a processing method for detecting feature points included in each region according to the information regarding the properties of each region obtained by the processing of S12 (S13). As a specific example, the processing method determination unit 22 determines the type of feature point to be detected for each region according to information indicating the image type of the image included in the region. The determination of the feature point type according to the image type can be realized by the same process as the process of S3 in the flow of FIG.

この場合において、処理方式決定部22は、各領域の性状に関する情報に応じて、特徴点検出の対象とする検出対象領域を選択してもよい。例えば処理方式決定部22は、予め定められた画像種別の領域(例えば文書領域及び線画領域)を検出対象領域として選択し、それ以外の画像種別の領域(例えば絵柄領域)については、特徴点検出の対象から除外する。   In this case, the processing method determination unit 22 may select a detection target region as a feature point detection target in accordance with information on the property of each region. For example, the processing method determination unit 22 selects a predetermined image type region (for example, a document region and a line drawing region) as a detection target region, and performs feature point detection for other image type regions (for example, a pattern region). Exclude from

また、処理方式決定部22は、各領域の性状に関する情報に応じて、各領域に対する特徴点検出の優先順位を決定してもよい。具体的に、例えば処理方式決定部22は、文書領域や線画領域を優先順位の高い検出対象領域に決定し、絵柄領域を優先順位の低い検出対象領域に決定する。   In addition, the processing method determination unit 22 may determine the priority order of feature point detection for each region according to the information regarding the properties of each region. Specifically, for example, the processing method determination unit 22 determines a document area or a line drawing area as a detection target area with a high priority, and determines a pattern area as a detection target area with a low priority.

次に、特徴点検出部23aが、S13で決定された処理方式に従って、二つの比較対象画像の中から、特徴点の検出を行う(S14)。具体的に、特徴点検出部23aは、S12で分割された各領域に含まれる特徴点を、当該領域について処理方式決定部22が決定した処理方式に従って、検出する。このとき、特徴点の検出は、検出対象領域として選択された領域について行い、それ以外の領域については特徴点の検出は行わない。また、各領域に対する特徴点検出の優先順位が定められている場合には、当該優先順位が示す順序に従って、各領域に含まれる特徴点の検出を行う。この場合、例えば特徴点検出部23aは、所定の数の特徴点を検出するまで、順に各領域に対する特徴点の検出を行う。   Next, the feature point detection unit 23a detects feature points from the two comparison target images in accordance with the processing method determined in S13 (S14). Specifically, the feature point detection unit 23a detects the feature points included in each region divided in S12 according to the processing method determined by the processing method determination unit 22 for the region. At this time, feature points are detected for the region selected as the detection target region, and feature points are not detected for other regions. In addition, when the priority order of feature point detection for each region is determined, the feature points included in each region are detected according to the order indicated by the priority order. In this case, for example, the feature point detection unit 23a sequentially detects feature points for each region until a predetermined number of feature points are detected.

続いて対応特徴点特定部23b及び変換係数算出部23cが、S14で各画像から検出された特徴点同士の対応関係を特定し、対応する特徴点同士を略一致させるような変換係数の算出を行う(S15)。そして、画像変換部23dが、S15で算出された変換係数を用いて、比較対象画像の一方に対する幾何変換を行う(S16)。さらに、差分抽出処理部24が、S16で幾何変換がなされた比較対象画像同士を比較し、差分抽出処理を実行する(S17)。これらの処理は、図4のフローの例と同様の処理によって実現される。   Subsequently, the corresponding feature point specifying unit 23b and the conversion coefficient calculating unit 23c specify the correspondence between the feature points detected from the images in S14, and calculate the conversion coefficient so that the corresponding feature points are substantially matched. Perform (S15). Then, the image conversion unit 23d performs geometric conversion on one of the comparison target images using the conversion coefficient calculated in S15 (S16). Further, the difference extraction processing unit 24 compares the comparison target images subjected to the geometric transformation in S16, and executes a difference extraction process (S17). These processes are realized by a process similar to the example of the flow of FIG.

以上説明した処理によって、画像処理装置1は、比較対象となる画像の性状に応じた処理方式で、二つの画像の間の位置合わせを実行する。これにより、画像の性状に合わせて、精度よく位置合わせが実行されることとなる。   Through the processing described above, the image processing apparatus 1 performs alignment between two images by a processing method according to the properties of the image to be compared. As a result, alignment is performed with high accuracy in accordance with the properties of the image.

なお、本発明の実施の形態は、以上説明したものに限られない。例えば画像処理装置1は、差分抽出処理に限らず、二つの画像の間の比較を行う各種の処理の前処理として、上述した位置合わせ処理を実行してもよい。また、以上の説明においては、画像処理装置1は、画像の種別を示す情報や、領域ごとの画像の種別を示す情報などを性状情報として取得することとしたが、これに限らず画像の性質や特徴を示す各種の情報を取得し、これに応じて処理方式を決定することとしてもよい。また、処理方式決定部22が決定する処理方式についても、検出する特徴点の種類や変数の値に限らず、他の処理方式の中から位置合わせに使用する処理方式を決定してもよい。   The embodiment of the present invention is not limited to the above-described embodiment. For example, the image processing apparatus 1 is not limited to the difference extraction process, and may perform the above-described alignment process as a pre-process for various processes for comparing two images. In the above description, the image processing apparatus 1 acquires information indicating the type of image, information indicating the type of image for each area, and the like as property information. It is also possible to acquire various types of information indicating the characteristics and to determine the processing method accordingly. Also, the processing method determined by the processing method determination unit 22 is not limited to the type of feature point to be detected and the value of the variable, and the processing method used for alignment may be determined from other processing methods.

また、画像処理装置1は、一連の文書を表す複数頁の画像を含んだ画像列を二つ取得し、それぞれの画像列に含まれる画像同士を順に比較する場合もある。このような場合、まず画像列の先頭の画像同士については、これまで説明したように、比較対象画像の画素分布等から性状情報を取得する。しかしながら、二番目以降の画像同士については、性状情報取得部21は、既に性状情報を取得済みの前頁の画像と同じ性状情報を持つと推定し、当該推定される性状情報に応じた処理方式で位置合わせ処理を実行してもよい。こうすれば、例えば各画像列に文書画像が連続して含まれているなどの場合に、処理が簡略化される。   The image processing apparatus 1 may acquire two image sequences including a plurality of pages representing a series of documents, and may sequentially compare the images included in each image sequence. In such a case, for the first images in the image sequence, the property information is acquired from the pixel distribution or the like of the comparison target image as described above. However, for the second and subsequent images, the property information acquisition unit 21 estimates that the property information is the same as the image of the previous page for which property information has already been acquired, and a processing method according to the estimated property information The alignment process may be executed by This simplifies the processing when, for example, document images are continuously included in each image sequence.

また、以上の説明においては、変更前後の二つの比較対象画像に対して、同時期に処理方式の決定、及び特徴点検出などの位置合わせ処理を実行することとしている。しかしながら、例えば原本となる変更前の画像I1については、予め性状情報に応じた処理方式で特徴点検出などの処理を実行し、実行結果を記憶部12に記憶しておいてもよい。この場合、画像処理装置1は、変更後の画像I2を取得した場合に、変更前の画像I1に対して実行された処理方式と同様の処理方式で画像I2に対して特徴点検出などの処理を実行する。そして、その実行結果と記憶部12に記憶されている変更前の画像I1についての実行結果とを用いて、位置合わせを行う。また、変更前の画像I1については、予め定められた優先順位に従って、複数の処理方式のそれぞれにより特徴点検出などの処理を実行して得られる実行結果が記憶されてもよい。この場合、画像処理装置1は、変更後の画像I2について、ある処理方式により十分な数の特徴点を検出できない場合であっても、別の処理方式により特徴点の検出を実行し、その実行結果と記憶部12に記憶されている変更前の画像I1についての実行結果とを用いて、位置合わせを実行する。   In the above description, the processing method is determined and the alignment process such as feature point detection is performed on the two comparison target images before and after the change at the same time. However, for example, with respect to the original image I1 that is the original, the processing such as feature point detection may be executed in advance by a processing method corresponding to the property information, and the execution result may be stored in the storage unit 12. In this case, when the image processing apparatus 1 acquires the changed image I2, the image processing apparatus 1 performs processing such as feature point detection on the image I2 in the same processing method as the processing method executed on the image I1 before the change. Execute. Then, alignment is performed using the execution result and the execution result of the image I1 before change stored in the storage unit 12. In addition, for the image I1 before the change, an execution result obtained by executing processing such as feature point detection by each of a plurality of processing methods according to a predetermined priority order may be stored. In this case, even if the image processing apparatus 1 cannot detect a sufficient number of feature points with a certain processing method for the image I2 after the change, the image processing device 1 performs the detection of the feature points with another processing method and executes the detection. Using the result and the execution result for the image I1 before change stored in the storage unit 12, alignment is executed.

本発明の実施の形態に係る画像処理装置の概略の構成を表すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る画像処理装置の機能を表す機能ブロック図である。It is a functional block diagram showing the function of the image processing apparatus which concerns on embodiment of this invention. 位置合わせ処理部の機能を表す機能ブロック図である。It is a functional block diagram showing the function of a position alignment process part. 本発明の実施の形態に係る画像処理装置が実行する処理の一例を示すフロー図である。It is a flowchart which shows an example of the process which the image processing apparatus which concerns on embodiment of this invention performs. 本発明の実施の形態に係る画像処理装置に記憶されている情報の一例を示す説明図である。It is explanatory drawing which shows an example of the information memorize | stored in the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が実行する処理の別の例を示すフロー図である。It is a flowchart which shows another example of the process which the image processing apparatus which concerns on embodiment of this invention performs.

符号の説明Explanation of symbols

1 画像処理装置、2 画像読み取り装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 インタフェース部、21 性状情報取得部、22 処理方式決定部、23 位置合わせ処理部、24 差分抽出処理部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Image reading apparatus, 11 Control part, 12 Memory | storage part, 13 Operation part, 14 Display part, 15 Interface part, 21 Property information acquisition part, 22 Processing method determination part, 23 Position alignment processing part, 24 Difference Extraction processing unit.

Claims (8)

比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段と、
前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段と、
前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段と、
有し、
前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、
前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、
前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択することを特徴とする画像処理装置。
Property information acquisition means for acquiring information about the properties of the two images to be compared;
A processing method determining means for determining a processing method when performing alignment of the two images according to the information on the acquired property;
In accordance with the determined processing method, a feature point included in each of the two images is detected, and a registration unit that aligns the two images so that the detected feature points substantially coincide with each other.
Have
The property information acquisition means includes information indicating whether the type of the two images is a document image including a character string, a line image including a line segment, or a pattern image representing a pattern as the information regarding the property. Acquired,
The image type and the feature point type correspond to each other,
The image processing apparatus, wherein the processing method determination unit selects a feature point type corresponding to information indicating the type of the acquired image as a feature point type detected by the alignment unit .
画像の種別を示す情報と、位置合わせを行う際の処理方式と、を関連づける情報を記憶する情報記憶手段をさらに含み、
前記処理方式決定手段は、前記取得される画像の種別を示す情報に関連づけて前記情報記憶手段に記憶されている処理方式を、前記二つの画像の位置合わせを行う際の処理方式として決定する
ことを特徴とする請求項1記載の画像処理装置。
An information storage unit that stores information associating information indicating the type of the image with a processing method for performing alignment;
The processing method determining means determines a processing method stored in the information storage means in association with information indicating the type of the acquired image as a processing method for performing alignment of the two images. The image processing apparatus according to claim 1.
前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が特徴点を検出する際に使用する変数を決定し、
前記位置合わせ手段は、前記決定される変数を使用して特徴点を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The processing method determining means determines a variable to be used when the positioning means detects a feature point according to information on the acquired property,
It said alignment means, an image processing apparatus according to claim 1 or 2, characterized in that to detect the feature points by using the variables the determined.
前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が位置合わせを行う際の処理方式の複数の候補と、当該各処理方式の候補に対する優先順位と、を決定し、
前記位置合わせ手段は、前記決定される優先順位が示す順序により前記複数の候補の中から決定される処理方式に従って、前記二つの画像の位置合わせを行う
ことを特徴とする請求項1からのいずれか一項に記載の画像処理装置。
The processing method determining unit determines a plurality of processing method candidates when the alignment unit performs alignment and a priority order for each processing method candidate according to the acquired property information. And
4. The alignment of the two images according to claim 1, wherein the alignment unit aligns the two images according to a processing method determined from the plurality of candidates according to an order indicated by the determined priority order. 5 . The image processing apparatus according to any one of claims.
前記性状情報取得手段は、前記二つの画像のそれぞれを互いに性状の異なる複数の領域に分割し、当該分割された各領域の位置及び性状に関する情報を取得し、
前記処理方式決定手段は、前記分割された各領域について、当該領域の性状に関する情報に応じて、当該領域に含まれる特徴点を検出する際の処理方式を決定し、
前記位置合わせ手段は、前記分割された各領域に含まれる特徴点を、当該領域について前記処理方式決定手段が決定した処理方式に従って検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項1記載の画像処理装置。
The property information acquisition unit divides each of the two images into a plurality of regions having different properties from each other, acquires information on the position and property of each of the divided regions,
The processing method determining means determines, for each of the divided regions, a processing method for detecting feature points included in the region according to information on the properties of the region,
The alignment means detects the feature points included in each of the divided areas according to the processing method determined by the processing method determination means for the area, and the two feature points are substantially matched with each other. The image processing apparatus according to claim 1, wherein alignment of two images is performed.
前記処理方式決定手段は、前記分割された複数の領域の中から、前記各領域の性状に関する情報に応じて、特徴点検出の対象とする検出対象領域を選択し、
前記位置合わせ手段は、前記選択される検出対象領域に含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項記載の画像処理装置。
The processing method determining means selects a detection target region as a target for feature point detection from the plurality of divided regions, according to information on the properties of each region,
The alignment unit detects a feature point included in the selected detection target region, and aligns the two images so that the detected feature point substantially matches. 5. The image processing apparatus according to 5 .
前記処理方式決定手段は、前記分割された各領域の性状に関する情報に応じて、当該各領域に対する特徴点検出の優先順位を決定し、
前記位置合わせ手段は、前記決定される優先順位が示す順序に従って、前記各領域に含まれる特徴点の検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項5又は6記載の画像処理装置。
The processing method determining means determines priority order of feature point detection for each area according to information on the properties of each divided area,
The alignment unit detects feature points included in each region according to the order indicated by the determined priority order, and aligns the two images so that the detected feature points substantially coincide with each other. The image processing apparatus according to claim 5 or 6,
比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段、
前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段、及び
前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段、
としてコンピュータを機能させるためのプログラムであって、
前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、
前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、
前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択するプログラム
Property information acquisition means for acquiring information on properties of two images to be compared;
Included in each of the two images in accordance with the processing method determining means for determining a processing method for aligning the two images according to the information on the acquired properties, and according to the determined processing method Alignment means for detecting feature points and aligning the two images so that the detected feature points substantially match;
A program for causing a computer to function as,
The property information acquisition means includes information indicating whether the type of the two images is a document image including a character string, a line image including a line segment, or a pattern image representing a pattern as the information regarding the property. Acquired,
The image type and the feature point type correspond to each other,
The processing method deciding means selects a feature point type corresponding to information indicating the type of the acquired image as a feature point type detected by the alignment means .
JP2007249076A 2007-09-26 2007-09-26 Image processing apparatus and program Expired - Fee Related JP5003379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007249076A JP5003379B2 (en) 2007-09-26 2007-09-26 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007249076A JP5003379B2 (en) 2007-09-26 2007-09-26 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2009080630A JP2009080630A (en) 2009-04-16
JP5003379B2 true JP5003379B2 (en) 2012-08-15

Family

ID=40655338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249076A Expired - Fee Related JP5003379B2 (en) 2007-09-26 2007-09-26 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5003379B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5857704B2 (en) * 2011-12-13 2016-02-10 富士ゼロックス株式会社 Image processing apparatus and program
WO2014178234A1 (en) * 2013-04-30 2014-11-06 ソニー株式会社 Image processing device, image processing method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264394A (en) * 1995-03-15 1995-10-13 Olympus Optical Co Ltd Image handling device
JP4116179B2 (en) * 1999-03-03 2008-07-09 株式会社リコー Image processing method, image processing apparatus, and recording medium
JP4146047B2 (en) * 1999-09-28 2008-09-03 株式会社東芝 Image tilt detection method and document image processing apparatus

Also Published As

Publication number Publication date
JP2009080630A (en) 2009-04-16

Similar Documents

Publication Publication Date Title
US8655107B2 (en) Signal processing apparatus, signal processing method, computer-readable medium and computer data signal
JP5934762B2 (en) Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus
JP4857173B2 (en) Image processing apparatus, image processing method, and image processing program
JP5357612B2 (en) Underline removal device
US9626738B2 (en) Image processing apparatus, image processing method, and storage medium
JP4565396B2 (en) Image processing apparatus and image processing program
JP5003379B2 (en) Image processing apparatus and program
US20160088186A1 (en) Image processing apparatus
JP4404224B2 (en) Optical recognition code recognition apparatus, method and program
JP5439069B2 (en) Character recognition device and character recognition method
JP4936250B2 (en) Write extraction method, write extraction apparatus, and write extraction program
JP4910635B2 (en) Image processing apparatus and image processing program
JP2007094584A (en) Method for detecting two dimensional code, detecting device, and detecting program
JP5109548B2 (en) Image processing apparatus and program
JP2017041113A (en) Image processing device, image processing system, image processing method, and program
JP2010182219A (en) Image processing apparatus
JP2014206836A (en) Bar code position detection device
JP2009200794A (en) Document alteration detection program and alteration detection apparatus
JP6613625B2 (en) Image processing program, image processing apparatus, and image processing method
JP5993100B2 (en) Image processing apparatus and specific figure detection method
JP6459528B2 (en) Image correction apparatus, image correction system, image correction method, and image correction program
JP6852359B2 (en) Image processing equipment and programs
US8432555B2 (en) Image processing apparatus, image processing method, computer-readable medium and computer data signal
JP5146199B2 (en) Difference extraction apparatus and difference extraction program
JP4050677B2 (en) Image processing apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees