JP5003379B2 - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP5003379B2 JP5003379B2 JP2007249076A JP2007249076A JP5003379B2 JP 5003379 B2 JP5003379 B2 JP 5003379B2 JP 2007249076 A JP2007249076 A JP 2007249076A JP 2007249076 A JP2007249076 A JP 2007249076A JP 5003379 B2 JP5003379 B2 JP 5003379B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing method
- images
- alignment
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program.
二つの画像を比較して、両者の差分を抽出する差分抽出技術がある(例えば特許文献1参照)。差分抽出技術は、例えば紙に印刷された文書に対して後から書き込みがされた場合に、この書き込みがされた箇所を検出するなどの用途に利用される。 There is a difference extraction technique that compares two images and extracts a difference between the two images (see, for example, Patent Document 1). The difference extraction technique is used, for example, for detecting a portion where writing is performed when writing is performed later on a document printed on paper.
このように二つの画像の比較が行われる場合、例えばイメージスキャナ等の画像読み取り装置が、紙などの媒体に形成された画像を読み取ることによって、比較処理を行う画像処理装置に比較対象となる画像を入力する。この場合、画像読み取り装置の読み取り面に対する媒体の位置のずれなどが原因で、比較対象となる二つの画像の間で位置ずれや位置の歪みが生じることがある。そこで画像処理装置は、二つの画像の間で位置合わせ処理を行う。位置合わせ処理の具体例として、画像処理装置は、例えば線分の端点や、画像内の文字を囲む矩形領域の代表点など、比較対象となる画像内における当該画像の特徴的な箇所を示す点(特徴点)の位置を一致させる処理を実行する。これにより、画像処理装置は、二つの画像の間で位置ずれや位置歪みが生じている場合などであっても、その影響を除去して、両者を比較することができる。
しかしながら、上述した例などにおいて比較対象となる画像には、例えば文字列を中心とした文書画像、表や図面などの線を中心とした線画像、あるいは写真画像など、様々な性状のものがある。また、1つの画像の中のある領域は写真を表し、ある領域は文章を表すなど、領域ごとにその性状が異なる画像もある。このような画像の性状の違いによって、例えば特徴点を正確に検出できなかったり、位置合わせ処理を実行するために十分な数の特徴点を検出できなかったりするなどの問題が生じ、精度よく位置合わせができない場合がある。 However, the images to be compared in the above-described examples include various properties such as a document image centered on a character string, a line image centered on a line such as a table or drawing, or a photographic image. . In addition, there are images having different properties for each region, such as a certain region in one image representing a photograph and a certain region representing a sentence. Due to such differences in image properties, for example, feature points cannot be detected accurately, or a sufficient number of feature points cannot be detected for performing the alignment process, and the position can be accurately determined. May not be able to match.
本発明の目的の一つは、比較対象となる画像の位置合わせを行う場合に、画像の性状に応じた処理方式で位置合わせを行うことのできる画像処理装置及びプログラムを提供することにある。 One of the objects of the present invention is to provide an image processing apparatus and program capable of performing alignment by a processing method according to the properties of an image when aligning images to be compared.
請求項1記載の発明は、画像処理装置であって、比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段と、前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段と、前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段と、を有し、前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択することを特徴とする。
The invention according to
請求項2記載の発明は、請求項1記載の画像処理装置であって、画像の種別を示す情報と、位置合わせを行う際の処理方式と、を関連づける情報を記憶する情報記憶手段をさらに含み、前記処理方式決定手段は、前記取得される画像の種別を示す情報に関連づけて前記情報記憶手段に記憶されている処理方式を、前記二つの画像の位置合わせを行う際の処理方式として決定することを特徴とする。
The invention according to
請求項3記載の発明は、請求項1又は2に記載の画像処理装置であって、前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が特徴点を検出する際に使用する変数を決定し、前記位置合わせ手段は、前記決定される変数を使用して特徴点を検出することを特徴とする。 A third aspect of the present invention is the image processing apparatus according to the first or second aspect , wherein the processing method determining means detects the feature point according to the information on the acquired property. A variable to be used in the determination is determined, and the alignment means detects a feature point using the determined variable.
請求項4記載の発明は、請求項1から3のいずれか一項に記載の画像処理装置であって、前記処理方式決定手段は、前記取得される性状に関する情報に応じて、前記位置合わせ手段が位置合わせを行う際の処理方式の複数の候補と、当該各処理方式の候補に対する優先順位と、を決定し、前記位置合わせ手段は、前記決定される優先順位が示す順序により前記複数の候補の中から決定される処理方式に従って、前記二つの画像の位置合わせを行うことを特徴とする。 A fourth aspect of the present invention is the image processing apparatus according to any one of the first to third aspects, wherein the processing method determination unit is configured to perform the alignment unit according to information about the acquired property. Determine a plurality of candidates for processing methods when performing alignment and priorities for the candidates for the respective processing methods, and the alignment means determines the plurality of candidates according to the order indicated by the determined priorities. The two images are aligned according to a processing method determined from the above.
請求項5記載の発明は、請求項1記載の画像処理装置であって、前記性状情報取得手段は、前記二つの画像のそれぞれを互いに性状の異なる複数の領域に分割し、当該分割された各領域の位置及び性状に関する情報を取得し、前記処理方式決定手段は、前記分割された各領域について、当該領域の性状に関する情報に応じて、当該領域に含まれる特徴点を検出する際の処理方式を決定し、前記位置合わせ手段は、前記分割された各領域に含まれる特徴点を、当該領域について前記処理方式決定手段が決定した処理方式に従って検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。
The invention according to claim 5 is the image processing device according to
請求項6記載の発明は、請求項5記載の画像処理装置であって、前記処理方式決定手段は、前記分割された複数の領域の中から、前記各領域の性状に関する情報に応じて、特徴点検出の対象とする検出対象領域を選択し、前記位置合わせ手段は、前記選択される検出対象領域に含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。 A sixth aspect of the present invention is the image processing apparatus according to the fifth aspect , wherein the processing method determining means is characterized in that, out of the plurality of divided areas, according to information relating to properties of the respective areas. Select a detection target region as a target of point detection, and the positioning means detects a feature point included in the selected detection target region, and the two feature points are substantially matched to each other. It is characterized by aligning images.
請求項7記載の発明は、請求項5又は6記載の画像処理装置であって、前記処理方式決定手段は、前記分割された各領域の性状に関する情報に応じて、当該各領域に対する特徴点検出の優先順位を決定し、前記位置合わせ手段は、前記決定される優先順位が示す順序に従って、前記各領域に含まれる特徴点の検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行うことを特徴とする。 A seventh aspect of the present invention is the image processing apparatus according to the fifth or sixth aspect , wherein the processing method determining means detects feature points for each of the regions in accordance with information on the properties of the divided regions. The positioning means detects the feature points included in each region according to the order indicated by the determined priorities, and the two feature points are matched so that the detected feature points substantially match. One image is aligned.
請求項8記載の発明は、比較対象となる二つの画像の性状に関する情報を取得する性状情報取得手段、前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段、及び前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段、としてコンピュータを機能させるためのプログラムであって、前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択するプログラムである。
The invention according to
請求項1及び9記載の発明によれば、画像の性状に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。 According to the first and ninth aspects of the invention, it is possible to perform alignment between two images by a processing method according to the properties of the images.
請求項2記載の発明によれば、画像の種別に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。 According to the second aspect of the present invention, it is possible to perform alignment between two images by a processing method according to the type of image.
請求項3記載の発明によれば、画像の性状に応じた種類の特徴点を検出することにより、特徴点を検出しやすくすることができる。 According to the third aspect of the present invention, the feature points can be easily detected by detecting the feature points of the type corresponding to the properties of the image.
請求項4記載の発明によれば、画像の性状に応じた変数を使用して特徴点を検出することにより、特徴点検出の精度を向上できる。 According to the fourth aspect of the invention, the feature point detection accuracy can be improved by detecting the feature point using the variable according to the property of the image.
請求項5記載の発明によれば、画像の性状に応じて、より適していると推定される処理方式を優先的に用いて位置合わせを行うことにより、位置合わせ処理の効率を向上できる。 According to the fifth aspect of the present invention, the alignment processing efficiency can be improved by preferentially using the processing method estimated to be more suitable according to the properties of the image.
請求項6記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じた処理方式で、二つの画像の間の位置合わせを行うことができる。 According to the sixth aspect of the present invention, it is possible to perform alignment between two images by a processing method corresponding to the properties of each of a plurality of regions included in the image.
請求項7記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じて、特徴点を検出しやすいと推定される領域から特徴点を検出することにより、特徴点検出の効率を向上できる。 According to the seventh aspect of the present invention, the feature point detection efficiency is improved by detecting the feature point from the region where the feature point is estimated to be easily detected according to the properties of each of the plurality of regions included in the image. It can be improved.
請求項8記載の発明によれば、画像に含まれる複数の領域それぞれの性状に応じて、特徴点を検出しやすいと推定される領域から優先的に特徴点を検出することにより、特徴点検出の効率を向上できる。 According to the eighth aspect of the present invention, feature point detection is performed by preferentially detecting feature points from regions presumed to be easy to detect feature points according to the properties of each of the plurality of regions included in the image. Can improve the efficiency.
以下、本発明の実施の形態について、図面を参照しながら説明する。本発明の一実施形態に係る画像処理装置1は、例えばパーソナルコンピュータ等であって、図1に示すように、制御部11と、記憶部12と、操作部13と、表示部14と、インタフェース部15と、を含んで構成されている。また、画像処理装置1は、画像読み取り装置2に接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. An
制御部11は、CPU等であって、記憶部12に格納されるプログラムに従って各種の情報処理を実行する。本実施形態において、制御部11は、比較対象となる二つの画像に対して差分抽出処理を実行する。制御部11が実行する処理の具体例については、後述する。
The
記憶部12は、RAMやROM等のメモリ素子、ハードディスクなどを含んで構成される。記憶部12は、制御部11によって実行されるプログラムや、各種のデータを保持する。また、記憶部12は、制御部11のワークメモリとしても動作する。
The
操作部13は、例えばキーボードやマウス等であり、利用者の指示操作を受け付けて、当該指示操作の内容を制御部11に出力する。表示部14は、例えばディスプレイ装置等であり、制御部11からの指示に従って、情報の表示を行う。
The
インタフェース部15は、例えばUSB(Universal Serial Bus)規格などの通信インタフェースであって、制御部11と画像読み取り装置2との間のデータの送受信を中継する。画像読み取り装置2は、イメージスキャナ等であって、紙などの媒体上に形成されている画像を読み取って、電子データとして画像処理装置1に対して出力する。
The
以下、本実施形態において画像処理装置1が実現する機能について、説明する。画像処理装置1は、機能的に、図2に示すように、性状情報取得部21と、処理方式決定部22と、位置合わせ処理部23と、差分抽出処理部24と、を含んで構成される。これらの機能は、例えば制御部11が記憶部12に格納されたプログラムを実行することによって実現できる。このプログラムは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な各種の情報記憶媒体に格納されて提供されてもよいし、インターネット等の通信手段を介して提供されてもよい。
Hereinafter, functions realized by the
性状情報取得部21は、まず比較対象となる二つの画像(比較対象画像)を取得する。そして、取得した比較対象画像について、その性状に関する情報(以下、性状情報という)を取得する。比較対象となる一方の画像I1は、変更前の画像(元画像)であって、他方の画像I2は、画像I1に対して加筆、修正等が施された変更後の画像である。
The property
例えば性状情報取得部21は、画像読み取り装置2が読み取った画像を比較対象画像として取得する。すなわち、画像読み取り装置2は、紙などの媒体に形成されている画像を読み取って、読み取った画像のデータを画像処理装置1に対して出力する。性状情報取得部21は、この画像読み取り装置2が出力する画像を比較対象画像として取得する。また、性状情報取得部21は、記憶部12に記憶されている画像や、通信ネットワークを介して他の情報処理装置から送信される画像などを比較対象画像として取得してもよい。
For example, the property
さらに性状情報取得部21は、取得された画像I1及びI2の少なくとも一方について、その性状情報を取得する。性状情報は、画像の特徴や性質に関する情報であって、例えば画像の種別を示す情報である。あるいは、画像が互いに性状の異なる複数の領域を含んで構成される場合(例えば写真を表す領域や文章を表す領域が一つの画像内に混在している場合)、当該画像の性状情報は、このような領域それぞれの位置(範囲)を示す情報と、当該領域内の画像の性状に関する情報と、を含んでもよい。
Furthermore, the property
処理方式決定部22は、性状情報取得部21が取得した性状情報に応じて、二つの画像I1及びI2の位置合わせを行う際の処理方式を決定する。例えば処理方式決定部22は、後述する位置合わせ処理部23が画像I1及び画像I2の中から画像の特徴点を検出する処理を実行する際の、検出すべき特徴点の種類や、特徴点検出の対象とする領域(検出対象領域)などを決定する。さらに、処理方式決定部22は、位置合わせ処理の際に使用される変数(処理のパラメタ)を性状情報に応じて決定してもよい。
The processing method determination unit 22 determines a processing method for aligning the two images I1 and I2 according to the property information acquired by the property
また、処理方式決定部22は、性状情報に応じて、位置合わせ処理部23が位置合わせを行う際の処理方式の複数の候補と、当該各処理方式の候補に対する優先順位と、を決定してもよい。この場合、優先順位の高い処理方式による位置合わせ処理が失敗した場合には、処理方式決定部22は、優先順位がより低い処理方式を新たな処理方式として決定する。なお、処理方式決定部22が性状情報に応じて決定する処理方式の具体例については、後に詳述する。
In addition, the processing method determination unit 22 determines a plurality of processing method candidates when the
位置合わせ処理部23は、処理方式決定部22によって決定される処理方式に従って、二つの画像I1及びI2の位置合わせ処理を行う。具体的に、位置合わせ処理部23は、画像I1及びI2のそれぞれに含まれる特徴点を検出する。そして、当該検出した特徴点が略一致するように、二つの画像の少なくとも一方に対して幾何変換を行う。本実施形態において、位置合わせ処理部23は、機能的に図3に示すように、特徴点検出部23aと、対応特徴点特定部23bと、変換係数算出部23cと、画像変換部23dと、を含んで構成される。これらの機能によって、位置合わせ処理部23は画像I1と画像I2の間の位置合わせ処理を実現する。
The
特徴点検出部23aは、画像I1及びI2のそれぞれに含まれる特徴点を検出する。ここで特徴点は、画像I1及びI2の特徴的な箇所を示す各画像内の点であって、例えば線分の端点や、画像内の文字に外接する矩形領域の代表点などである。なお、特徴点検出部23aは、原則として画像I1と画像I2の双方に対して同じ処理方式で特徴点の検出を行う。
The feature
対応特徴点特定部23bは、特徴点検出部23aが画像I1から検出した特徴点と、画像I2から検出した特徴点と、の間の対応関係を特定する。すなわち、対応特徴点特定部23bは、それぞれの画像内において互いに同じ位置にあるべき特徴点の組み合わせを決定する。具体的に、例えば対応特徴点特定部23bは、検出された特徴点のうち、それぞれの画像内における位置が所定範囲内で一致し、かつ特徴点の周囲の画素分布が類似する特徴点同士を、対応する特徴点として特定する。
The corresponding feature
変換係数算出部23cは、対応特徴点特定部23bによって互いに対応すると特定された特徴点同士の画像内における位置が略一致するように、画像I1及び画像I2のいずれか、又は両方に対する幾何変換の変換係数を算出する。そして、画像変換部23dは、変換係数算出部23cによって算出された変換係数に基づいて、画像I1及び画像I2の少なくとも一方に対して幾何変換を行う。ここで幾何変換は、例えばアフィン変換などであって、画像を平行移動させたり、回転させたり、画像の歪みを補正したりする画像処理である。これにより、二つの画像I1及びI2は、互いに対応する特徴点同士が所定の精度の範囲内で一致するように変換される。
The transformation
以上の処理において、位置合わせ処理部23は、処理方式決定部22によって決定される処理方式に従って位置合わせ処理を行う。具体例として、特徴点検出部23aは、処理方式決定部22によって検出対象領域として決定された領域の中から、処理方式決定部22によって決定された種類の特徴点を検出する。
In the above process, the
また、処理方式決定部22が処理方式の複数の候補を決定している場合、位置合わせ処理部23は、処理方式決定部22により決定される優先順位が示す順序により、複数の候補の中から決定される処理方式に従って、二つの画像の位置合わせを行う。すなわち、位置合わせ処理部23は、まず優先順位の高い処理方式により位置合わせ処理を行う。そして、当該処理方式による位置合わせ処理に失敗した場合には、より優先順位の低い処理方式により、位置合わせ処理を行う。
In addition, when the processing method determination unit 22 has determined a plurality of candidates for the processing method, the
差分抽出処理部24は、位置合わせ処理部23によって位置合わせ処理がなされた画像I1と画像I2とを比較し、互いに相違する差分箇所を抽出する。具体例として、差分抽出処理部24は、各画像内において同じ位置にある画素同士について、その画素値が互いに一致するか否かを判定する。そして、画素値が異なる画素を、差分箇所として抽出する。
The difference
以下、画像処理装置1が実行する処理のいくつかの具体例について、説明する。まず第1の例として、性状情報取得部21が比較対象画像の種別を示す情報を性状情報として取得する場合の例について、図4のフロー図に基づいて説明する。
Hereinafter, some specific examples of the processing executed by the
まず、性状情報取得部21が、比較対象画像として画像I1及びI2を取得する(S1)。そして、取得した比較対象画像の一方に対して、画像の種別判定を行う(S2)。
First, the property
具体的に、性状情報取得部21は、比較対象画像に含まれる画素の分布などに基づいて、比較対象画像が主として文字列を含んだ文書画像か、主として表や線分などを含んだ線画像か、あるいは写真やイラストなどの絵柄を表す絵柄画像か、を判定する。例えば性状情報取得部21は、画素値が0でない画素の画素密度や、このような画素の集散度(散らばり度合い)などに基づいて、画像の種別判定を行う。また、性状情報取得部21は、比較対象画像内において互いに連結している画素にラベルを付与するラベリング処理を実行し、付与されたラベルの数に基づいて、画像の種別を判定してもよい。
Specifically, the property
なお、性状情報取得部21は、比較対象画像が二値画像ではなくグレースケール画像やカラー画像などの場合、比較対象画像に対して単色化処理や二値化処理を実行した結果得られる二値画像に対して、上述した処理を実行してもよい。あるいは、黒色の画素や画素値が所定値以上の画素の画素密度や画素分布に基づいて、上述した画像種別の判定を実行してもよい。また、性状情報取得部21は、ユーザが操作部13に対する指示操作によって入力する画像の性状に関する情報や、予め比較対象画像と関連づけて記憶部12に記憶されている画像の性状に関する情報を、画像の種別判定に用いてもよい。
In addition, when the comparison target image is not a binary image but a grayscale image, a color image, or the like, the property
また、ここでは二つの比較対象画像の画像種別は共通するものと想定し、一方の画像についてのみ画像の種別判定を行うこととしているが、性状情報取得部21は、二つの画像の双方について画像の種別判定を行ってもよい。この場合、二つの画像の種別が互いに異なると判定されたときには、所定のエラー処理を実行することとしてもよい。
Here, it is assumed that the image types of the two comparison target images are the same, and the image type determination is performed for only one of the images. However, the property
次に、処理方式決定部22が、S2で判定された比較対象画像の画像種別に応じて、位置合わせ処理の処理方式を決定する(S3)。ここでは具体的に、記憶部12に、画像の種別を示す情報と、位置合わせを行う際の処理方式と、を関連づける情報が記憶されているものとする。処理方式決定部22は、S2で性状情報取得部21が取得した画像の種別を示す情報に関連づけて記憶部12に記憶されている処理方式を、S1で取得した比較対象画像の位置合わせを行う際の処理方式として決定する。
Next, the processing method determination unit 22 determines the processing method of the alignment process according to the image type of the comparison target image determined in S2 (S3). Here, specifically, it is assumed that the
ここで、処理方式決定部22が性状情報に応じて決定する処理方式の具体例について説明する。図5は、記憶部12に記憶されている情報の具体例である。この図の例においては、画像の種別を示す情報に関連づけて、位置合わせ処理の処理方式として、特徴点検出部23aが検出する特徴点の種類が記憶されている。具体的に、画像の種別が文書画像の場合、処理方式決定部22は、画像内に含まれる各文字に外接する矩形領域の代表点を特徴点として検出すると決定する。ここで矩形領域の代表点は、例えば矩形の頂点や中心点などである。また、画像の種別が線画像であれば、線分の端点や交点、折れ曲がっている点などが、特徴点として検出される。また、画像の種別が絵柄画像の場合、写真などの絵柄を表す領域を囲む外枠(外周)の頂点が、特徴点として検出される。
Here, a specific example of the processing method determined by the processing method determination unit 22 according to the property information will be described. FIG. 5 is a specific example of information stored in the
また、処理方式決定部22は、比較対象画像の種別に応じて、特徴点検出部23aが特徴点を検出する際に使用する変数を決定してもよい。具体例として、処理方式決定部22は、画像の種別に応じて、特徴点検出部23aが特徴点を検出するために比較対象画像を二値化する際の、画素値の閾値を決定する。また、画像の種別に応じて、位置合わせのために検出する特徴点の数を決定してもよい。
Further, the processing method determination unit 22 may determine a variable to be used when the feature
また、処理方式決定部22は、比較対象画像の種別に応じて、特徴点検出部23aが特徴点を検出する対象となる検出対象領域を決定してもよい。例えば比較対象画像の種別が絵柄画像であって、前述したように特徴点として外枠の頂点を検出する場合、このような特徴点は画像の中心部分ではなく周縁部分に位置すると推定される。そこで処理方式決定部22は、このような画像の周縁の領域を検出対象領域として選択する。
Further, the processing method determination unit 22 may determine a detection target region that is a target for the feature
次に、位置合わせ処理部23が、S3で決定された処理方式に従って、特徴点の検出、特徴点同士の対応関係の特定、及び変換係数の算出を行う(S4)。すなわち、まず特徴点検出部23aが、画像I1及びI2のそれぞれから、S3で選択される種類の特徴点を検出する。そして、対応特徴点特定部23bが、各画像から検出された特徴点同士の対応関係を特定し、変換係数算出部23cが、互いに対応する特徴点同士が所定の誤差の範囲内で一致するように、画像を変換する際の変換係数を算出する。
Next, the
ここで、特徴点検出処理の具体例について説明する。例えば特徴点の種類が線分の端点や絵柄を表す領域を囲む外枠の頂点などの場合、特徴点検出部23aは、比較対象画像を二値化して得られる二値画像に対して、パターンマッチング処理などの公知の画像処理を実行することにより、特徴点を検出する。また、特徴点の種類が文字に外接する矩形領域の代表点である場合、特徴点検出部23aは、ラベリング処理によって互いに連結する画素群を検出し、検出された各画素群に外接する矩形領域のうち、幅及び高さが所定の大きさの範囲内であって、領域内の画素密度が所定の値の範囲内となる矩形領域を、文字を表す矩形領域であると判定する。そして、当該矩形領域の位置に応じて特徴点の位置を決定する。
Here, a specific example of the feature point detection process will be described. For example, when the feature point type is an end point of a line segment or an apex of an outer frame surrounding an area representing a pattern, the feature
続いて、位置合わせ処理部23は、所定の条件を満たす変換係数の算出ができたか否かを判定する(S5)。S4の処理において、予め定められた数の特徴点が検出できない場合や、特徴点同士の対応関係が特定できない場合、対応する特徴点が一致するような変換係数を算出できない場合、あるいは算出された変換係数が所定の範囲を超えた値となってしまう場合など、所定の条件を満たす変換係数の算出に失敗する場合がある。このような場合、特徴点検出の条件(すなわち、処理方式決定部22が決定した処理方式)が適切でなかった可能性が考えられる。そこで、S5の判定に失敗した場合、処理方式決定部22は、比較対象画像の性状情報に応じて決定される優先順位に従って、これまでに試行された処理方式とは異なる処理方式を新たに選択する(S6)。そして、位置合わせ処理部23は、S4に戻り、S6で決定された新たな処理方式により再び特徴点の検出を行う。具体例として、画像の種別が線画像と判定され、線分の端点などを特徴点として検出する処理が失敗した場合、処理方式決定部22は、文字に外接する矩形領域の代表点を特徴点として検出する処理方式を、新たな処理方式として決定する。
Subsequently, the
S5で変換係数の算出に成功したと判定した場合、画像変換部23dは、S4で算出された変換係数を用いて、比較対象画像の一方に対する幾何変換を行う(S7)。そして、差分抽出処理部24は、S7で幾何変換がなされた比較対象画像同士を比較し、差分抽出処理を実行する(S8)。差分抽出処理部24は、差分抽出処理の実行結果として、例えば差分箇所を示す差分画像を生成し、出力する。生成された差分画像は、表示部14に表示されたり、画像形成装置によって紙などの媒体上に印刷されたりすることにより、ユーザに提示される。
When it is determined that the conversion coefficient has been successfully calculated in S5, the
次に、画像処理装置1が実行する処理の第2の例について、図6のフロー図に基づいて説明する。この第2の例では、性状情報取得部21が比較対象画像を複数の領域に分割し、分割された各領域の位置及び性状に関する情報を性状情報として取得する。
Next, a second example of processing executed by the
まず、性状情報取得部21が、比較対象画像として画像I1及びI2を取得する(S11)。そして、取得した比較対象画像のそれぞれに対して、領域分割処理を実行する(S12)。
First, the property
具体的に、性状情報取得部21は、例えば公知のT/I(Text/Image)分離処理などによって、比較対象画像のそれぞれを、主として文字列を含んだ文書領域、線画像を含んだ線画領域、写真やイラストなどの画像を含んだ絵柄領域など、互いに性状の異なる複数の領域に分割する。この場合、性状情報取得部21は、比較対象画像を複数の領域に分割するとともに、各領域内に含まれる画像の画像種別を示す情報を性状情報として取得することとなる。
Specifically, the property
次に、処理方式決定部22が、S12の処理により得られる各領域の性状に関する情報に応じて、各領域に含まれる特徴点を検出する際の処理方式を決定する(S13)。具体例として、処理方式決定部22は、領域ごとに、当該領域に含まれる画像の画像種別を示す情報に応じて、検出する特徴点の種類を決定する。なお、画像種別に応じた特徴点の種類の決定については、図4のフローにおけるS3の処理と同様の処理により実現できる。 Next, the processing method determination unit 22 determines a processing method for detecting feature points included in each region according to the information regarding the properties of each region obtained by the processing of S12 (S13). As a specific example, the processing method determination unit 22 determines the type of feature point to be detected for each region according to information indicating the image type of the image included in the region. The determination of the feature point type according to the image type can be realized by the same process as the process of S3 in the flow of FIG.
この場合において、処理方式決定部22は、各領域の性状に関する情報に応じて、特徴点検出の対象とする検出対象領域を選択してもよい。例えば処理方式決定部22は、予め定められた画像種別の領域(例えば文書領域及び線画領域)を検出対象領域として選択し、それ以外の画像種別の領域(例えば絵柄領域)については、特徴点検出の対象から除外する。 In this case, the processing method determination unit 22 may select a detection target region as a feature point detection target in accordance with information on the property of each region. For example, the processing method determination unit 22 selects a predetermined image type region (for example, a document region and a line drawing region) as a detection target region, and performs feature point detection for other image type regions (for example, a pattern region). Exclude from
また、処理方式決定部22は、各領域の性状に関する情報に応じて、各領域に対する特徴点検出の優先順位を決定してもよい。具体的に、例えば処理方式決定部22は、文書領域や線画領域を優先順位の高い検出対象領域に決定し、絵柄領域を優先順位の低い検出対象領域に決定する。 In addition, the processing method determination unit 22 may determine the priority order of feature point detection for each region according to the information regarding the properties of each region. Specifically, for example, the processing method determination unit 22 determines a document area or a line drawing area as a detection target area with a high priority, and determines a pattern area as a detection target area with a low priority.
次に、特徴点検出部23aが、S13で決定された処理方式に従って、二つの比較対象画像の中から、特徴点の検出を行う(S14)。具体的に、特徴点検出部23aは、S12で分割された各領域に含まれる特徴点を、当該領域について処理方式決定部22が決定した処理方式に従って、検出する。このとき、特徴点の検出は、検出対象領域として選択された領域について行い、それ以外の領域については特徴点の検出は行わない。また、各領域に対する特徴点検出の優先順位が定められている場合には、当該優先順位が示す順序に従って、各領域に含まれる特徴点の検出を行う。この場合、例えば特徴点検出部23aは、所定の数の特徴点を検出するまで、順に各領域に対する特徴点の検出を行う。
Next, the feature
続いて対応特徴点特定部23b及び変換係数算出部23cが、S14で各画像から検出された特徴点同士の対応関係を特定し、対応する特徴点同士を略一致させるような変換係数の算出を行う(S15)。そして、画像変換部23dが、S15で算出された変換係数を用いて、比較対象画像の一方に対する幾何変換を行う(S16)。さらに、差分抽出処理部24が、S16で幾何変換がなされた比較対象画像同士を比較し、差分抽出処理を実行する(S17)。これらの処理は、図4のフローの例と同様の処理によって実現される。
Subsequently, the corresponding feature
以上説明した処理によって、画像処理装置1は、比較対象となる画像の性状に応じた処理方式で、二つの画像の間の位置合わせを実行する。これにより、画像の性状に合わせて、精度よく位置合わせが実行されることとなる。
Through the processing described above, the
なお、本発明の実施の形態は、以上説明したものに限られない。例えば画像処理装置1は、差分抽出処理に限らず、二つの画像の間の比較を行う各種の処理の前処理として、上述した位置合わせ処理を実行してもよい。また、以上の説明においては、画像処理装置1は、画像の種別を示す情報や、領域ごとの画像の種別を示す情報などを性状情報として取得することとしたが、これに限らず画像の性質や特徴を示す各種の情報を取得し、これに応じて処理方式を決定することとしてもよい。また、処理方式決定部22が決定する処理方式についても、検出する特徴点の種類や変数の値に限らず、他の処理方式の中から位置合わせに使用する処理方式を決定してもよい。
The embodiment of the present invention is not limited to the above-described embodiment. For example, the
また、画像処理装置1は、一連の文書を表す複数頁の画像を含んだ画像列を二つ取得し、それぞれの画像列に含まれる画像同士を順に比較する場合もある。このような場合、まず画像列の先頭の画像同士については、これまで説明したように、比較対象画像の画素分布等から性状情報を取得する。しかしながら、二番目以降の画像同士については、性状情報取得部21は、既に性状情報を取得済みの前頁の画像と同じ性状情報を持つと推定し、当該推定される性状情報に応じた処理方式で位置合わせ処理を実行してもよい。こうすれば、例えば各画像列に文書画像が連続して含まれているなどの場合に、処理が簡略化される。
The
また、以上の説明においては、変更前後の二つの比較対象画像に対して、同時期に処理方式の決定、及び特徴点検出などの位置合わせ処理を実行することとしている。しかしながら、例えば原本となる変更前の画像I1については、予め性状情報に応じた処理方式で特徴点検出などの処理を実行し、実行結果を記憶部12に記憶しておいてもよい。この場合、画像処理装置1は、変更後の画像I2を取得した場合に、変更前の画像I1に対して実行された処理方式と同様の処理方式で画像I2に対して特徴点検出などの処理を実行する。そして、その実行結果と記憶部12に記憶されている変更前の画像I1についての実行結果とを用いて、位置合わせを行う。また、変更前の画像I1については、予め定められた優先順位に従って、複数の処理方式のそれぞれにより特徴点検出などの処理を実行して得られる実行結果が記憶されてもよい。この場合、画像処理装置1は、変更後の画像I2について、ある処理方式により十分な数の特徴点を検出できない場合であっても、別の処理方式により特徴点の検出を実行し、その実行結果と記憶部12に記憶されている変更前の画像I1についての実行結果とを用いて、位置合わせを実行する。
In the above description, the processing method is determined and the alignment process such as feature point detection is performed on the two comparison target images before and after the change at the same time. However, for example, with respect to the original image I1 that is the original, the processing such as feature point detection may be executed in advance by a processing method corresponding to the property information, and the execution result may be stored in the
1 画像処理装置、2 画像読み取り装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 インタフェース部、21 性状情報取得部、22 処理方式決定部、23 位置合わせ処理部、24 差分抽出処理部。
DESCRIPTION OF
Claims (8)
前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段と、
前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段と、
を有し、
前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、
前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、
前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択することを特徴とする画像処理装置。 Property information acquisition means for acquiring information about the properties of the two images to be compared;
A processing method determining means for determining a processing method when performing alignment of the two images according to the information on the acquired property;
In accordance with the determined processing method, a feature point included in each of the two images is detected, and a registration unit that aligns the two images so that the detected feature points substantially coincide with each other.
Have
The property information acquisition means includes information indicating whether the type of the two images is a document image including a character string, a line image including a line segment, or a pattern image representing a pattern as the information regarding the property. Acquired,
The image type and the feature point type correspond to each other,
The image processing apparatus, wherein the processing method determination unit selects a feature point type corresponding to information indicating the type of the acquired image as a feature point type detected by the alignment unit .
前記処理方式決定手段は、前記取得される画像の種別を示す情報に関連づけて前記情報記憶手段に記憶されている処理方式を、前記二つの画像の位置合わせを行う際の処理方式として決定する
ことを特徴とする請求項1記載の画像処理装置。 An information storage unit that stores information associating information indicating the type of the image with a processing method for performing alignment;
The processing method determining means determines a processing method stored in the information storage means in association with information indicating the type of the acquired image as a processing method for performing alignment of the two images. The image processing apparatus according to claim 1.
前記位置合わせ手段は、前記決定される変数を使用して特徴点を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。 The processing method determining means determines a variable to be used when the positioning means detects a feature point according to information on the acquired property,
It said alignment means, an image processing apparatus according to claim 1 or 2, characterized in that to detect the feature points by using the variables the determined.
前記位置合わせ手段は、前記決定される優先順位が示す順序により前記複数の候補の中から決定される処理方式に従って、前記二つの画像の位置合わせを行う
ことを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。 The processing method determining unit determines a plurality of processing method candidates when the alignment unit performs alignment and a priority order for each processing method candidate according to the acquired property information. And
4. The alignment of the two images according to claim 1, wherein the alignment unit aligns the two images according to a processing method determined from the plurality of candidates according to an order indicated by the determined priority order. 5 . The image processing apparatus according to any one of claims.
前記処理方式決定手段は、前記分割された各領域について、当該領域の性状に関する情報に応じて、当該領域に含まれる特徴点を検出する際の処理方式を決定し、
前記位置合わせ手段は、前記分割された各領域に含まれる特徴点を、当該領域について前記処理方式決定手段が決定した処理方式に従って検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項1記載の画像処理装置。 The property information acquisition unit divides each of the two images into a plurality of regions having different properties from each other, acquires information on the position and property of each of the divided regions,
The processing method determining means determines, for each of the divided regions, a processing method for detecting feature points included in the region according to information on the properties of the region,
The alignment means detects the feature points included in each of the divided areas according to the processing method determined by the processing method determination means for the area, and the two feature points are substantially matched with each other. The image processing apparatus according to claim 1, wherein alignment of two images is performed.
前記位置合わせ手段は、前記選択される検出対象領域に含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項5記載の画像処理装置。 The processing method determining means selects a detection target region as a target for feature point detection from the plurality of divided regions, according to information on the properties of each region,
The alignment unit detects a feature point included in the selected detection target region, and aligns the two images so that the detected feature point substantially matches. 5. The image processing apparatus according to 5 .
前記位置合わせ手段は、前記決定される優先順位が示す順序に従って、前記各領域に含まれる特徴点の検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う
ことを特徴とする請求項5又は6記載の画像処理装置。 The processing method determining means determines priority order of feature point detection for each area according to information on the properties of each divided area,
The alignment unit detects feature points included in each region according to the order indicated by the determined priority order, and aligns the two images so that the detected feature points substantially coincide with each other. The image processing apparatus according to claim 5 or 6,
前記取得される性状に関する情報に応じて、前記二つの画像の位置合わせを行う際の処理方式を決定する処理方式決定手段、及び
前記決定される処理方式に従って、前記二つの画像のそれぞれに含まれる特徴点を検出し、当該検出した特徴点が略一致するように、前記二つの画像の位置合わせを行う位置合わせ手段、
としてコンピュータを機能させるためのプログラムであって、
前記性状情報取得手段は、前記性状に関する情報として、前記二つの画像の種別が、文字列を含む文書画像、線分を含む線画像、及び絵柄を表す絵柄画像のいずれであるかを示す情報を取得し、
前記画像の種別と、前記特徴点の種類とはそれぞれ互いに対応し、
前記処理方式決定手段は、前記取得される画像の種別を示す情報に対応する特徴点の種類を、前記位置合わせ手段が検出する特徴点の種類として選択するプログラム。 Property information acquisition means for acquiring information on properties of two images to be compared;
Included in each of the two images in accordance with the processing method determining means for determining a processing method for aligning the two images according to the information on the acquired properties, and according to the determined processing method Alignment means for detecting feature points and aligning the two images so that the detected feature points substantially match;
A program for causing a computer to function as,
The property information acquisition means includes information indicating whether the type of the two images is a document image including a character string, a line image including a line segment, or a pattern image representing a pattern as the information regarding the property. Acquired,
The image type and the feature point type correspond to each other,
The processing method deciding means selects a feature point type corresponding to information indicating the type of the acquired image as a feature point type detected by the alignment means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007249076A JP5003379B2 (en) | 2007-09-26 | 2007-09-26 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007249076A JP5003379B2 (en) | 2007-09-26 | 2007-09-26 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009080630A JP2009080630A (en) | 2009-04-16 |
JP5003379B2 true JP5003379B2 (en) | 2012-08-15 |
Family
ID=40655338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007249076A Expired - Fee Related JP5003379B2 (en) | 2007-09-26 | 2007-09-26 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5003379B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5857704B2 (en) * | 2011-12-13 | 2016-02-10 | 富士ゼロックス株式会社 | Image processing apparatus and program |
WO2014178234A1 (en) * | 2013-04-30 | 2014-11-06 | ソニー株式会社 | Image processing device, image processing method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07264394A (en) * | 1995-03-15 | 1995-10-13 | Olympus Optical Co Ltd | Image handling device |
JP4116179B2 (en) * | 1999-03-03 | 2008-07-09 | 株式会社リコー | Image processing method, image processing apparatus, and recording medium |
JP4146047B2 (en) * | 1999-09-28 | 2008-09-03 | 株式会社東芝 | Image tilt detection method and document image processing apparatus |
-
2007
- 2007-09-26 JP JP2007249076A patent/JP5003379B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009080630A (en) | 2009-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8655107B2 (en) | Signal processing apparatus, signal processing method, computer-readable medium and computer data signal | |
JP5934762B2 (en) | Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus | |
JP4857173B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5357612B2 (en) | Underline removal device | |
US9626738B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP4565396B2 (en) | Image processing apparatus and image processing program | |
JP5003379B2 (en) | Image processing apparatus and program | |
US20160088186A1 (en) | Image processing apparatus | |
JP4404224B2 (en) | Optical recognition code recognition apparatus, method and program | |
JP5439069B2 (en) | Character recognition device and character recognition method | |
JP4936250B2 (en) | Write extraction method, write extraction apparatus, and write extraction program | |
JP4910635B2 (en) | Image processing apparatus and image processing program | |
JP2007094584A (en) | Method for detecting two dimensional code, detecting device, and detecting program | |
JP5109548B2 (en) | Image processing apparatus and program | |
JP2017041113A (en) | Image processing device, image processing system, image processing method, and program | |
JP2010182219A (en) | Image processing apparatus | |
JP2014206836A (en) | Bar code position detection device | |
JP2009200794A (en) | Document alteration detection program and alteration detection apparatus | |
JP6613625B2 (en) | Image processing program, image processing apparatus, and image processing method | |
JP5993100B2 (en) | Image processing apparatus and specific figure detection method | |
JP6459528B2 (en) | Image correction apparatus, image correction system, image correction method, and image correction program | |
JP6852359B2 (en) | Image processing equipment and programs | |
US8432555B2 (en) | Image processing apparatus, image processing method, computer-readable medium and computer data signal | |
JP5146199B2 (en) | Difference extraction apparatus and difference extraction program | |
JP4050677B2 (en) | Image processing apparatus, image processing method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120507 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |