JP2017138743A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2017138743A JP2017138743A JP2016018419A JP2016018419A JP2017138743A JP 2017138743 A JP2017138743 A JP 2017138743A JP 2016018419 A JP2016018419 A JP 2016018419A JP 2016018419 A JP2016018419 A JP 2016018419A JP 2017138743 A JP2017138743 A JP 2017138743A
- Authority
- JP
- Japan
- Prior art keywords
- image
- comparison
- local feature
- source image
- comparison source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、比較元画像と比較先画像とを比較する技術に関する。 The present invention relates to a technique for comparing a comparison source image and a comparison destination image.
画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する(非特許文献1)。次に、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する(非特許文献2)。 There has been proposed a method of searching for a similar image using a local feature amount (local feature amount) of an image. In this method, first, characteristic points (local feature points) are extracted from an image (Non-Patent Document 1). Next, a feature amount (local feature amount) corresponding to the local feature point is calculated based on the local feature point and surrounding image information (Non-Patent Document 2).
局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大または縮小させたりした場合であっても、検索を可能にする。局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。 In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed. The local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount.
回転不変の局所特徴量抽出のために、たとえば非特許文献2では、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量算出時に主方向を基準に局所領域を回転させて方向の正規化を行う。また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点の抽出と局所特徴量の算出を行う。ここで、内部で生成した一連の異なるスケールの画像集合は一般的にスケールスペースと呼ばれる。 In order to extract the rotation-invariant local feature value, for example, in Non-Patent Document 2, the main direction is calculated from the pixel pattern of the local region around the local feature point, and the local region is rotated based on the main direction when calculating the local feature value. To normalize the direction. Further, in order to calculate the local feature quantity that does not change in size, the image of different scales is generated internally, and local feature points are extracted from the images of the respective scales and the local feature quantities are calculated. Here, a series of image sets of different scales generated internally is generally called a scale space.
上述の方式により、1枚の画像から複数の局所特徴点が抽出される。局所特徴量を用いた画像検索では、それぞれの局所特徴点から算出した局所特徴量同士の比較を行うことによりマッチングを行う。多く利用されている投票方式(特許文献1)は、検索元画像から抽出された各特徴点の局所特徴量に予め定めた閾値以上類似する特徴点を最近傍処理で見つけ、存在すれば「画像」に対して1票を投票し、その投票数の多いものほど類似するとするものである。 With the above-described method, a plurality of local feature points are extracted from one image. In image retrieval using local feature amounts, matching is performed by comparing local feature amounts calculated from respective local feature points. A widely used voting method (Patent Document 1) finds a feature point that is similar to a local feature amount of each feature point extracted from a search source image by a nearest threshold process. ”Is voted, and the higher the number of votes, the more similar.
更に、予め定めた閾値以上類似する特徴点の対応関係を求め、そのペアの位置情報が、同じ幾何変換を満たしているかを検証するRANSAC処理もある。これは、予め定めた閾値以上類似する特徴点のペアからランダムに2ペアを選択しアフィン変換行列を求める。次に、残りの予め定めた閾値以上類似する特徴点のペアの位置情報がアフィン変換行列を満たすかを検証し、予め定めた閾値数のペアが満たす場合に合致と判断する方法である。(非特許文献3) Furthermore, there is also a RANSAC process that obtains a correspondence relationship between feature points that are similar to each other by a predetermined threshold or more and verifies whether the position information of the pair satisfies the same geometric transformation. In this process, two pairs are randomly selected from pairs of feature points that are similar to each other by a predetermined threshold or more to obtain an affine transformation matrix. Next, it is a method of verifying whether or not the position information of the remaining feature point pairs that are more than a predetermined threshold satisfies the affine transformation matrix, and determining that they match if a predetermined number of threshold pairs are satisfied. (Non Patent Literature 3)
特許文献1に記載の方法では、比較元画像(検索元画像)と比較先画像(登録画像)との画像間で対応する特徴点に基づいて、その類似の程度を比較、評価する。そのため、例えば、文字を含む画像を対象とする場合、文字部から抽出される特徴点の数が、画像中の自然画像、背景画像、背景パターンに含まれる特徴点よりも相対的に少ないと、文字部の差異は吸収されてしまう。具体的には、チラシ、パンフレット、案内状といった印刷物によくあるような、同一背景で文字だけが異なるような画像比較においては、文字部の特徴点の差が反映されにくく、比較元画像に類似する画像として複数の画像が検索されてしてしまう可能性がある。そこで、本発明は、画像の大部分が類似し一部に差異があるような画像同士の比較においても、比較元画像と比較先画像とを精度よく比較出来るようにすることを目的とする。
In the method described in
上記課題を解決するために、本発明は、比較元画像と比較先画像とを入力する入力手段と、前記入力された比較元画像と比較先画像との差異領域を推定する推定手段と、前記推定された差異領域に対してOCR処理を実行するOCR処理部と、を有することを特徴とする。 In order to solve the above-described problem, the present invention provides an input unit that inputs a comparison source image and a comparison destination image, an estimation unit that estimates a difference area between the input comparison source image and the comparison destination image, And an OCR processing unit that performs an OCR process on the estimated difference area.
以上の構成によれば、本発明は、比較元画像と比較先画像とを精度よく比較出来るようになる。 According to the above configuration, the present invention can accurately compare the comparison source image and the comparison destination image.
[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照しながら説明する。まず、本実施形態の画像処理装置のハードウェア構成について、図1のブロック図を参照して説明する。本実施形態の画像処理装置は、サーバ装置やクライアント装置により構成される。サーバ装置やクライアント装置はそれぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。コンピュータ装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置によって実現することができる。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. First, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. The image processing apparatus according to the present embodiment includes a server apparatus and a client apparatus. Each of the server device and the client device may be realized by a single computer device, or may be realized by distributing each function to a plurality of computer devices as necessary. When configured by a plurality of computer devices, they are connected by a local area network (LAN) or the like so that they can communicate with each other. The computer device can be realized by an information processing device such as a personal computer (PC) or a workstation (WS).
図1において、CPU101はコンピュータ装置100全体を制御するCentral Processing Unitである。ROM102は、変更を必要としないプログラムやパラメータを格納するRead Only Memoryである。RAM103は、外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。外部記憶装置104は、コンピュータ装置100に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、外部記憶装置104は、コンピュータ装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでもよい。入力デバイスインターフェイス105はユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインターフェイスである。
In FIG. 1, a
出力デバイスインターフェイス106は、コンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェイスである。通信インターフェイス107はインターネットなどのネットワーク回線111や、デジタルカメラ112,デジタルビデオカメラ113,スマートフォン114などに接続するための通信インターフェイスである。システムバス108は、101から107の各ユニットを通信可能に接続する伝送路である。後述する本実施形態の各フローチャートの処理等は、ROM102等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU101が実行することにより実行される。
The
図2は、本実施形態に係る画像処理装置のソフトウェア構成を示すブロック図である。同図において、画像入力部201は、比較元画像(検索元画像)および比較先画像(登録画像)の入力を行う。画像特徴量群抽出部202は、画像入力部201から入力された比較元画像および比較先画像の画像特徴量群を抽出する。すなわち、画像特徴量群抽出部202は、比較元画像と比較先画像に対し、特徴点抽出を行い、特徴点近傍の画素からSIFTの様な回転・拡縮不変の特徴量の抽出処理を行う。画像特徴量群抽出部202は、各画像から局所特徴点を抽出する特徴点抽出手段、および抽出した局所特徴点について局所特徴を算出する特徴算出手段(第1の算出手段)としての機能を有する。
FIG. 2 is a block diagram showing a software configuration of the image processing apparatus according to the present embodiment. In the figure, an
なお、本実施形態では、比較元画像と比較先画像の二つの画像を比較する場合について記載する。ただし、これに限るものではなく、比較先画像が複数あり、当該比較先画像集合に対して予め特徴量を算出しておくことで、比較元画像の特徴量群と、算出しておいた特徴量群とを比較するようにしても構わない。その際、比較元画像の各特徴量に対し、予め定めた閾値内に存在する最近傍点の集合を求め、当該最近傍点が同一比較先画像由来の特徴量を多く含む場合に、当該比較先画像を類似画像候補とみなす類似画像検索処理の一環として、後述する処理を適用してもよい。 In the present embodiment, a case where two images of a comparison source image and a comparison destination image are compared will be described. However, the present invention is not limited to this, and there are a plurality of comparison destination images. By calculating feature amounts in advance for the comparison destination image set, the feature amount group of the comparison source images and the calculated features You may make it compare with a quantity group. At that time, for each feature quantity of the comparison source image, a set of nearest neighbor points existing within a predetermined threshold is obtained, and when the nearest neighbor point includes many feature quantities derived from the same comparison destination image, the comparison destination image As a part of the similar image search process that regards as a similar image candidate, a process described later may be applied.
画像特徴量比較部203は、RANSAC処理を行い、更に特徴点座標を比較し、検索結果としてふさわしいものかを確認する処理である。具体的には、画像特徴量比較部203は、比較元画像の局所特徴量と比較先画像の局所特徴量の類似性に基いて、対応関係にある局所特徴点を決定する対応点決定手段(第1の決定手段)としての機能を有する。また、アフィン変換を行い変換後の特徴点座標が合致する特徴点の度数と、座標が一致しない度数をカウントする投票数集計手段としての機能、投票数が予め定めた閾値を超えた場合にリトライを停止する停止手段としての機能を有する。また、画像特徴量比較部203は、投票結果から比較元画像と比較先画像の共通領域を推定する共通領域推定手段(第1の推定手段)としての機能を有する。また、共通領域中で局所特徴量と比較先画像の局所特徴量の類似性に基づく対応関係の無い特徴点と、アフィン変換を行い変換後の特徴点座標が合致しない特徴点を決定する非正対応点抽出手段(第2の決定手段)としての機能を有する。また、これらの結果を用い、比較元画像と比較先画像の差異のある領域を求める差異領域推定手段(第2の推定手段)としての機能も有する。
The image feature
画像正立処理部204は、比較元画像に対して、画像特徴量比較部203で求めたアフィン変換等の幾何変換係数によって回転・拡縮等の変換処理を実施し、比較先画像と位置合わせを行う。本実施形態では、比較元画像としてスキャンされたイメージデータ、比較先画像としてラスタライズされた文書画像データのユースケースを考えており、比較先画像としては、印刷物の元画像として正立している場合を想定できる。このような場合であれば、比較先画像に位置合わせをすることで、比較元画像が回転していても、正立化することができる。これにより、後述するOCR処理部205で行うOCR処理を精度よく実施できる。
The image erecting
OCR処理部205は、画像特徴量比較部203で求めた差異領域について、比較先画像から部分画像を抽出する。同時に、画像正立処理部204で位置合わせを行った変換後の比較元画像から、同領域について部分画像を抽出する。そして、それぞれの部分画像に対してOCR処理を実施して、当該部分画像の文字認識情報を得る。
The
OCR結果比較部206は、OCR処理部205で得た、比較元画像と比較先画像の差異部分の文字認識情報を比較し、特徴量比較において差異のあった領域での文字的な情報の違いを精査する。そして、出力部207は、OCR結果比較部206の比較結果を出力する。記憶部208は処理中のデータを記憶するメモリ、HDD等である。なお、これら各構成は、CPU101により統括的に制御されている。
The OCR
次に、本実施形態における比較元画像と比較先画像との比較処理の詳細について説明する。図3は、本実施形態に係る画像処理装置における比較処理手順の一例を示すフローチャートである。同図において、まずステップS301では、画像入力部201により比較元画像と比較先画像が読み込まれる。図4は、本実施形態に係る比較処理の概略を説明する図であり、このS301では、図4(a)に示すような比較元画像と比較先画像が読み込まれたものとする。なお、比較先画像については、この処理フローよりも前に予め読み込まれ、記憶部208にその情報が登録されていてもよい。
Next, details of the comparison process between the comparison source image and the comparison destination image in the present embodiment will be described. FIG. 3 is a flowchart illustrating an example of a comparison processing procedure in the image processing apparatus according to the present embodiment. In the figure, first in step S301, the
ステップS302では、画像特徴量群抽出部202が、比較元画像および比較先画像の両画像について局所特徴を計算する。まず、画像特徴量群抽出部202は、画像の回転があってもロバスト(robust)に抽出されるような局所的な特徴点(局所特徴点)を抽出する。この局所特徴点の抽出方法として、ここではHarris作用素を用いる(C.Harris and M.J. Stephens, “A combined corner and edge detector,” In Alvey Vision Conference, pages 147−152, 1988.参照)。
In step S302, the image feature quantity
具体的には、Harris作用素を作用させて得られた出力画像H上の画素について、当該画素及び当該画素の8近傍にある画素(合計9画素)の画素値を調べる。そして、当該画素が局所極大になる(当該9画素の中で当該画素の画素値が最大になる)点を局所特徴点として抽出する。ここで、当該画素が局所極大になったときでも、当該画素の値がしきい値以下の場合には局所特徴点として抽出しないようにする。なお、局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。 Specifically, with respect to the pixel on the output image H obtained by applying the Harris operator, the pixel values of the pixel and pixels in the vicinity of the pixel (eight pixels in total) (total nine pixels) are examined. Then, a point at which the pixel becomes a local maximum (a pixel value of the pixel becomes the maximum among the nine pixels) is extracted as a local feature point. Here, even when the pixel reaches a local maximum, it is not extracted as a local feature point if the value of the pixel is less than or equal to the threshold value. Note that any feature point extraction method is applicable as long as it is a method that can extract local feature points, not limited to the above-described feature point extraction method using the Harris operator.
そして、画像特徴量群抽出部202は、抽出した局所特徴点の特徴量(局所特徴)を算出する。局所特徴としては、SIFT、SURF、FAST等の公知の技術を利用することができる。また、比較先画像が記憶部208に予め登録されている場合には、前もって局所特徴を求めて記憶部208に記憶しておいてもよい。
Then, the image feature quantity
ステップS303で、画像特徴量比較部203は、比較元画像から比較先画像に対して投票処理を行い、投票数と対応点のペアを求める。ここでは、まず、比較先画像の局所特徴をVq、局所特徴に関連付けされている局所特徴点をQ、座標をQ(x’,y’)とする。また、比較元画像に存在する局所特徴をVs、局所特徴に関連付けされている局所特徴点をS、座標をS(x,y)とする。画像特徴量比較部203は、VqとVsとのベクトルベクトル特徴間距離を全ての組合せについて計算し、最短距離対応点リストを作成する。そして、計算したベクトル特徴間の距離が閾値Tv以下となり、かつ、最短距離となるようなVqとVsとの対応点ペアを抽出する。
In step S303, the image feature
ステップS304では、画像特徴量比較部203が、投票数が閾値以上か判断する。投票数が閾値未満の場合には、処理をステップS305に進め、比較元画像と比較先画像とは類似するものではないとして処理を終了する。
In step S304, the image feature
他方、投票数が閾値以上の場合には、処理をステップS306へ進める。そして、ステップS306にて、抽出した対応点ペアに対してRANSACを用い、比較元画像と比較先画像の特徴点位置の幾何関係を求め、幾何関係が正しいもの、すなわち正対応点を決定する。そして、画像特徴量比較部203は、正対応点の個数を求め、ペアリングスコアとする。それと同時に、対応点ペアで幾何関係を満たさない特徴点である非正対応点を決定し、その個数を求める。画像特徴量比較部203は、比較元画像および比較先画像それぞれの非正対応点を記憶部208に記憶する。なお、本ステップS306の処理の詳細は後述する。
On the other hand, if the number of votes is equal to or greater than the threshold, the process proceeds to step S306. In step S306, RANSAC is used for the extracted corresponding point pair to obtain the geometric relationship between the feature point positions of the comparison source image and the comparison destination image, and the correct geometric relationship, that is, the positive corresponding point is determined. Then, the image feature
ステップS307において、画像特徴量比較部203は、比較先画像上の正対応点から共通領域を特定する。具体的には、比較先画像における正対応点の分布に基づいて、正対応点を包含する領域を求めて、それを共通領域として特定する。領域の求め方として、簡易には正対応点を含む最外接矩形を求めればよい。なお、領域の形状は矩形に限らず、多角形や不定形状等の他の形態であっても構わない。図4に示す例では、比較元画像がある文書画像の一部であるのに対して、比較先画像はある文書画像全体であるため、ここでは、比較先画像上で共通領域を特定する。すなわち、比較元画像と比較先画像のどちらで共通領域を特定するか予め決められていてもよいが、好適には、比較元画像と比較先画像とで包含関係を推定し、より多くの領域をカバーする画像を選択して、その画像上で共通領域を特定する方がよい。
In step S <b> 307, the image feature
ここで、図4(b)に、ステップS302〜ステップS307の処理の概要を示す。同図において、○や×で示している個所が局所特徴を求める特徴点である。図4(b)では、RANSAC処理で局所特徴が類似し、その幾何関係を満足するものを正対応点として○で表示する。他方、局所特徴が類似するものが無い、または局所特徴が類似していても幾何関係を満足しない点を非正対応点として×で示す。図中の点線は、対応関係を表すものである。また、ステップS307までの処理によって、正対応点○の分布に基づき求めた共通領域を図4(b)の比較先画像上の黒い矩形で示している。 Here, FIG. 4B shows an outline of the processing in steps S302 to S307. In the figure, the points indicated by ○ and × are feature points for obtaining local features. In FIG. 4B, a local feature that is similar in the RANSAC process and satisfies the geometric relationship is indicated by a circle as a positive corresponding point. On the other hand, a point that does not satisfy the geometric relationship even if the local feature is not similar or the local feature is similar is indicated by x as a non-positive corresponding point. The dotted line in the figure represents the correspondence. Further, the common area obtained based on the distribution of the positive corresponding points ◯ by the processing up to step S307 is indicated by a black rectangle on the comparison target image in FIG.
続いて、ステップS308では、画像特徴量比較部203が、比較先画像上で特定された共通領域における非正対応点の特徴点群を求める。まず、画像特徴量比較部203は、比較元画像の非正対応点と対応点ペアにならなかった比較先画像の共通領域における特徴点(類似する対応点の無い特徴点)を求める。更に、比較先画像の非正対応点と対応点ペアにならなかった比較元画像の特徴点に対して、ステップS306で求まった幾何変換を行い、比較先画像の共通領域の中に射影されるものだけを選別し求める。なお、本実施形態では、対応点ペアにならなかった特徴点、すなわち、閾値Tvec内の距離の対応点が無かった特徴点も非正対応点に含めるものとする。
Subsequently, in step S308, the image feature
これらの結果の論理和を取ることにより、比較元画像及び比較先画像の共通領域における比較元画像と比較先画像の一致しない特徴点群が求まる。図4(c)には、ステップS308の処理結果を示しており、黒枠で示す共通領域内において、上記2種類の特徴点の両方が求められた様子を示している。 By calculating the logical sum of these results, a feature point group in which the comparison source image and the comparison destination image do not match in the common region of the comparison source image and the comparison destination image is obtained. FIG. 4C shows the processing result of step S308, and shows a state in which both of the two types of feature points are obtained in the common area indicated by a black frame.
本実施形態では、これら2種類の特徴点の論理和を取ることで、比較元画像と比較先画像とで個別に上記特徴点を求めた場合や、非正対応点あるいは対応点ペアにならなかった特徴点をそれぞれ単独で求めた場合よりも差異領域を拡張して特定することが出来る。特に、比較元画像と比較先画像とで画像全体が類似して一部領域で差異があるような場合は、例えば、背景の画像が同一で文字の部分のみに差異がある場合等が考えられる。このような場合、文字では局所特徴点が然程とれず、差異領域を大きく取れないこともあるが、上述のように2種類の特徴点の論理和を取ることで、差異領域を拡張して取ることが出来る。 In the present embodiment, by calculating the logical sum of these two types of feature points, the above feature points are obtained individually for the comparison source image and the comparison destination image, or they do not become non-positive corresponding points or corresponding point pairs. The difference area can be expanded and specified as compared with the case where the obtained feature points are obtained individually. In particular, when the entire image is similar between the comparison source image and the comparison destination image and there is a difference in a part of the area, for example, a case where the background image is the same and only the character portion is different is considered. . In such a case, local feature points cannot be taken so much in characters, and a large difference area may not be obtained, but the difference area is expanded by taking the logical sum of two types of feature points as described above. I can take it.
上記2種類の非正対応点に基づいて差異領域を決定する方法は、例えば、OCRにおける像域分離の手法を応用して決定すればよい。像域分離ではx方向、y方向に対する2値画像の黒画素の投影ヒストグラムを生成し文字や図の領域が推定するが、本実施形態では、比較先画像におけるx方向、y方向の非正対応点のヒストグラムより差異領域が決定される。簡易的には、x方向、y方向それぞれでヒストグラムの値が所定値以上となる区間を含む最外接矩形として決定される。本実施形態では、例えば図4(d)、(e)に示すように、x方向、y方向の非正対応点のヒストグラムから1以上の領域群が差異領域が決定される。 The method of determining the difference area based on the two types of non-corresponding points may be determined by applying an image area separation method in OCR, for example. In the image area separation, a projection histogram of a black pixel of a binary image with respect to the x direction and the y direction is generated and a region of a character or a figure is estimated, but in this embodiment, non-positive correspondence in the x direction and the y direction in the comparison target image. A difference area is determined from the histogram of the points. For simplicity, it is determined as a circumscribed rectangle including a section in which the value of the histogram is a predetermined value or more in each of the x direction and the y direction. In the present embodiment, for example, as shown in FIGS. 4D and 4E, one or more area groups are determined as different areas from the histogram of non-positive corresponding points in the x direction and the y direction.
ステップS309では、画像特徴量比較部203が、比較先画像上で決定された各差異領域において非正対応点数を求める。そして、非正対応点が所定の閾値に満たない領域は差異領域から除外する。これは、例えば文書ドキュメントの紙の汚れなどによるイレギュラで生じた特徴点の影響を排除し、例えば文字等のある程度の大きさを持つ領域に差異領域を限定するためである。なお、ここでは、各差異領域において非正対応点数を求めているが、各差異領域に対する非正対応点数(密度)を算出して、密度が所定値よりも低いものを除外するようにしてもよい。
In step S309, the image feature
ステップS310では、画像特徴量比較部203が、ステップS309で特定された差異領域を抽出する(切り出す)。本実施形態では、比較元画像は、回転・拡縮している可能性があるので、まず比較元画像を比較先画像との共通領域に位置合わせをした画像に変換した上で、比較元画像上での差異領域を得る。具体的には、ステップS306におけるRANSAC処理で求めた幾何変換のための係数(後述する図5における変換行列M、T)を用いて、比較元画像の各画素の幾何変換を行う。その上で、変換後の比較元画像と比較先画像それぞれから差異領域を切り出すようにする。図4(f)は、ステップS310の処理により比較元画像を、比較先画像との共通領域に合うように回転させる様子を示している。また、図4(g)は、変換後の比較元画像と比較先画像それぞれから差異領域を切り出す様子を示す図である。
In step S310, the image feature
ステップS311では、OCR処理部205が、ステップS310で得られた比較元画像および比較先画像の各差異領域に対してOCR処理を実施し、文字認識情報を取得する。本実施形態では、文字認識情報の認識結果は、処理の結果として得られた「文字」ないし「文字列」の情報とする。なお、OCR処理は一般的に公知の技術を利用すればよい。
In step S311, the
本実施形態では、比較元画像および比較先画像の各差異領域に対してOCR処理を行うにあたり、差異領域毎にOCR処理のための文字の2値化画像の抽出処理を実施する。一般的なOCR処理では、文字を含む画像全体に対して、文字画像とその他の画像を分離するために、濃度による2値化処理を行う。例えば、文字が黒であり、背景が淡い色のパターン画像であれば、画素の濃度の頻度分布は、背景に該当する部分と、文字に該当する部分の大きく二つの山(周囲の濃度に対して頻度分布が高い部分)が現れる。よって、この二つの山を分離する濃度値に閾値を設定することで、文字とそれ以外の部分の画素を切り分けることができるため、当該閾値の決定は比較的容易に行える。そして、当該閾値以上の濃度の画素を文字の画素と見なすことで、文字の2値化画像が得られる。 In the present embodiment, when performing the OCR process on each difference area of the comparison source image and the comparison target image, a character binary image extraction process for the OCR process is performed for each difference area. In general OCR processing, binarization processing based on density is performed on an entire image including characters in order to separate the character image from other images. For example, if the character is black and the background is a light pattern image, the frequency distribution of pixel density is roughly divided into two peaks (the surrounding density and the surrounding density). Part with a high frequency distribution). Therefore, by setting a threshold value for the density value that separates these two peaks, it is possible to separate the character and the pixels of the other portions, so that the threshold value can be determined relatively easily. A binary image of a character is obtained by regarding a pixel having a density equal to or higher than the threshold as a character pixel.
しかし、チラシやパンフレット、招待状のような印刷物の場合、背景は複雑なパターンや自然画であることがあり、また文字色も場所によって異なることがある。このような状況で同様な2値化処理を行ったとしても、適切な閾値を求めることは困難であり、文字画像を精度よく抽出することは困難である。これに対し、本実施形態のステップS311におけるOCR処理では、各差異領域の部分画像に限定して2値化処理を行うことで、文字とそれ以外の画素の分離を行える可能性が高くなる。すなわち、印刷画像であっても、文字が記載された部分に限定すれば、人が視認可能なコントラストを付けている場合が多く、閾値がうまく決められる可能性が高いためである。 However, in the case of printed materials such as flyers, brochures, and invitations, the background may be a complex pattern or a natural image, and the character color may differ depending on the location. Even if similar binarization processing is performed in such a situation, it is difficult to obtain an appropriate threshold value, and it is difficult to extract a character image with high accuracy. On the other hand, in the OCR process in step S311 of the present embodiment, it is highly possible that the character and other pixels can be separated by performing the binarization process only on the partial images of the different areas. That is, even if it is a printed image, if it is limited to a portion where characters are described, it is often the case that a contrast that humans can visually recognize is added, and there is a high possibility that the threshold value can be determined well.
本実施形態では、上述したように比較元画像と比較先画像との差異領域を求めているが、このような差異領域はチラシなどの印刷物の画像中の文字部分である可能性が高く、精度よく文字認識できることが期待される。図4(h)には、ステップS311の処理により、比較元画像および比較先画像の各差異領域から文字認識情報が取得される様子を概略的に示している。 In the present embodiment, as described above, the difference area between the comparison source image and the comparison target image is obtained. However, such a difference area is highly likely to be a character portion in an image of a printed matter such as a flyer, and is accurate. It is expected to be able to recognize characters well. FIG. 4H schematically shows how character recognition information is acquired from each difference region of the comparison source image and the comparison destination image by the process of step S311.
ステップS312では、OCR結果比較部206が、比較元画像と比較先画像の対応する差異部分から得た「文字」ないし「文字列」をそれぞれ比較する。そして、ステップS313で、出力部207が、上記比較した文字認識情報の差異の情報を出力する。本実施形態は、差異の情報の出力の仕方により限定されるものではないが、ここでは、認識した文字列の違いを出力する。図4の比較元画像と比較先画像との比較であれば、図4(e)のように、「6.8」と「12.31」の差異があるという情報を出力され、このような情報は、例えば、画像処理装置に備えられた表示部により表示される。また、例えば、OCR結果比較部206の比較結果をスコア化し、局所特徴量による投票から得られるスコアから減じることで、類似スコアに基づく画像検索の処理に供する等、他の構成をとるようにしてもよい。
In step S312, the OCR
次に、上述したステップS306の処理の詳細について図5を用いて説明する。図5は、RANSAC処理を用いた比較元画像と比較先画像の特徴点位置の幾何関係の算出のフローチャートである。 Next, details of the processing in step S306 described above will be described with reference to FIG. FIG. 5 is a flowchart for calculating the geometric relationship between the feature point positions of the comparison source image and the comparison destination image using the RANSAC process.
まず、記号の定義を行う。比較先画像の局所特徴をVq、局所特徴に関連付けされている局所特徴点をQ,座標をQ(x’,y’)とする。また、比較元画像に存在する局所特徴をVs、局所特徴に関連付けされている局所特徴点をS、座標をS(x,y)とする。 First, symbols are defined. It is assumed that the local feature of the comparison target image is Vq, the local feature point associated with the local feature is Q, and the coordinate is Q (x ′, y ′). Further, a local feature existing in the comparison source image is Vs, a local feature point associated with the local feature is S, and a coordinate is S (x, y).
ステップS501で、最終投票数を表す変数VoteMaxを0に初期化する。次に、ステップS502で、S303の処理結果である最短距離対応点リストを読み込む。その内容は、繰り返しになるが、計算したベクトル特徴間の距離が閾値Tv以下となり、かつ、最短距離となるようなVqとVsとの対応点ペアである。 In step S501, a variable VoteMax representing the final number of votes is initialized to zero. Next, in step S502, the shortest distance corresponding point list which is the processing result of S303 is read. The content is repeated, but is a corresponding point pair of Vq and Vs such that the calculated distance between the vector features is equal to or less than the threshold value Tv and the shortest distance.
これ以降、最短距離対応点リストに登録されたk番目の対応点について、当該対応点の局所特徴をそれぞれVq(k)とVs(k)と記載としベクトル特徴間の距離が閾値Tv以下となる特徴の個数をそれぞれNq(k)とNs(k)とする。更にVq(k)とVs(k)に対応付けられている局所特徴点をそれぞれQk、Sk、座標をQk(x’k,y’k)、Sk(xk,yk)などと添え字を合わせて記載する。またテップS303で作成された最短距離対応点リストに登録された対応点の組数をm組とする。 Thereafter, for the kth corresponding point registered in the shortest distance corresponding point list, the local features of the corresponding point are described as Vq (k) and Vs (k), respectively, and the distance between the vector features is equal to or less than the threshold Tv. Let the number of features be Nq (k) and Ns (k), respectively. Furthermore, local feature points associated with Vq (k) and Vs (k) are subscripts such as Qk and Sk, coordinates are Qk (x′k, y′k), Sk (x k , y k ), and the like. Are described together. Further, the number of pairs of corresponding points registered in the shortest distance corresponding point list created in step S303 is m.
次に、ステップS503で、類似度算出処理の反復カウント数を表す変数Countを0に初期化する。次に、ステップS504で、反復カウント数Countが予め定められた最大反復処理回数Rnを超えていないを判定する。ここで、超えている場合はステップS521へ進み、最終投票数VoteMaxを出力して、この処理を終了する。 In step S503, a variable Count indicating the number of iterations of the similarity calculation process is initialized to zero. In step S504, it is determined whether the iteration count number Count has not exceeded a predetermined maximum number of iterations Rn. Here, when it exceeds, it progresses to step S521, the final vote number VoteMax is output, and this process is complete | finished.
また、ステップS504で、反復カウント数Countが最大反復処理回数Rnを超えていない場合はステップS505へ進み、投票数を表す変数Voteを0に初期化する。次に、ステップS506で、当該最短距離対応点リストから対応点の組の座標を2組ランダムに抽出する。 If it is determined in step S504 that the iteration count number Count does not exceed the maximum number of iterations Rn, the process proceeds to step S505, and a variable Vote indicating the number of votes is initialized to zero. Next, in step S506, two sets of coordinates of corresponding point pairs are randomly extracted from the shortest distance corresponding point list.
ここで、これらの座標をQ1(x’1,y’1)、S1(x1,y1)及びQ2(x’2,y’2)、S2(x2,y2)と記載する。次に、ステップS507で、抽出したQ1(x’1,y’1)、S1(x1,y1)及びQ2(x’2,y’2)、S2(x2,y2)が式(1)に示す変換を満たしていると仮定し、(数式1)中の変数aからfを求める。ただし、図5に示すステップS507では、変数aからdで構成される行列をMで示し、変数eからfで構成される行列をTで示している。 Here, these coordinates are described as Q1 (x ′ 1 , y ′ 1 ), S1 (x 1 , y 1 ), Q2 (x ′ 2 , y ′ 2 ), and S2 (x 2 , y 2 ). Next, in step S507, the extracted Q1 (x ′ 1 , y ′ 1 ), S1 (x 1 , y 1 ), Q2 (x ′ 2 , y ′ 2 ), and S2 (x 2 , y 2 ) Assuming that the conversion shown in (1) is satisfied, f is obtained from the variable a in (Formula 1). However, in step S507 shown in FIG. 5, a matrix composed of variables a to d is denoted by M, and a matrix composed of variables e to f is denoted by T.
ここで、第1の実施形態では、簡略化のため、相似変換だけを考える。このとき、上記(数式1)は以下の(数式2)のように書き換えられる。
Here, in the first embodiment, only the similarity transformation is considered for simplification. At this time, the above (Formula 1) is rewritten as the following (Formula 2).
このとき、変数a、b、e、fはx’1、y’1、x1、y1、x’2、y’2、x2、y2を使って式(3)から式(6)で表される。
At this time, the variables a, b, e, and f are changed from Equation (3) to Equation (6) using x ′ 1 , y ′ 1 , x 1 , y 1 , x ′ 2 , y ′ 2 , x 2 , y 2. ).
次に、投票数集計手段の説明をステップS508からS517までの処理を用いて行う。
Next, the vote counting means will be described using the processing from step S508 to S517.
ステップS508で、上述のステップS505で当該最短距離対応点リストから選択した2組の点以外の点を選択するために、対応点選択変数kを3に初期化する。そして、ステップS509で、対応点選択変数kが当該最短距離対応点リストに登録されている対応点の組数mを超えていないかを判定する。ここで、超えている場合はステップS518へ処理を移すが、これについては後述する。ステップS509における判定で対応点選択変数kが当該最短距離対応点リストに登録されている対応点の組数mを超えていない場合はステップS510へ処理を移す。 In step S508, the corresponding point selection variable k is initialized to 3 in order to select a point other than the two sets of points selected from the shortest distance corresponding point list in step S505 described above. In step S509, it is determined whether or not the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. Here, if it exceeds, the process moves to step S518, which will be described later. If it is determined in step S509 that the corresponding point selection variable k does not exceed the number m of corresponding points registered in the shortest distance corresponding point list, the process proceeds to step S510.
このステップS510では、上述のステップS505で当該最短距離対応点リストからランダムに抽出した2組の点S1(x1,y1)及びS2(x2,y2)以外の点を当該最短距離対応点リストから抽出する。第1の実施形態では、抽出された点をSk(xk,yk)と記載する。 In this step S510, points other than the two sets of points S1 (x 1 , y 1 ) and S2 (x 2 , y 2 ) randomly extracted from the shortest distance corresponding point list in step S505 described above correspond to the shortest distance. Extract from the point list. In the first embodiment, the extracted point is described as Sk (x k , y k ).
次に、ステップS511で、Sk(xk,yk)が式(2)を使って移される座標Sk’(x’k,y’k)を求める。その後、ステップS512では、座標Sk’(x’k,y’k)と座標Qk(x’k,y’k)との幾何学的距離をユークリッド距離で計算し、当該ユークリッド距離が閾値Tdと比較し閾値以下であるか否かを判定する。当該ユークリッド距離が閾値Td以下の場合はステップS513へ進み、投票数Voteをインクリメントし、ステップS514でS‘kの座標を正対応点として記憶する。そして、ステップS515に進む。 Next, in step S511, coordinates Sk ′ (x ′ k , y ′ k ) to which Sk (x k , y k ) is transferred using the equation (2) are obtained . Thereafter, in step S512, the geometric distance between the coordinates Sk ′ (x ′ k , y ′ k ) and the coordinates Qk (x ′ k , y ′ k ) is calculated as the Euclidean distance, and the Euclidean distance is calculated from the threshold Td. A comparison is made to determine whether it is below the threshold. If the Euclidean distance is less than or equal to the threshold value Td, the process proceeds to step S513, the vote number Vote is incremented, and the coordinates of S′k are stored as positive corresponding points in step S514. Then, the process proceeds to step S515.
また、当該ユークリッド距離が閾値Tdより大きい場合は、ステップS516で対応ペアだったが幾何関係を満たさなかった特徴点数であるNG_Voteをインクリメントし、ステップS517で、S‘kの座標を非正対応点として記憶する。そして、ステップS515に進む。 If the Euclidean distance is greater than the threshold value Td, NG_Vote, which is the number of feature points that did not satisfy the geometrical relationship in step S516, is incremented. Remember as. Then, the process proceeds to step S515.
ステップS515では、対応点選択変数kをインクリメントし、ステップS509に戻り、最短距離対応点ペアリスト上の未処理のペアを抽出し、対応点選択変数kが当該最短距離対応点リストに登録されている対応点の組数mを超えるまで上述の処理を繰り返す。 In step S515, the corresponding point selection variable k is incremented, and the process returns to step S509 to extract an unprocessed pair on the shortest distance corresponding point pair list, and the corresponding point selection variable k is registered in the shortest distance corresponding point list. The above-described processing is repeated until the number m of corresponding points is exceeded.
次に、ステップS509で、対応点選択変数kが当該最短距離対応点リストに登録されている対応点の組数mを超えた場合の処理であるステップS518を説明する。ステップS518では、投票数Voteの値と最終投票数VoteMaxの値とを比較し、投票数Voteの値が最終投票数VoteMaxの値よりも大きい場合には、ステップS519へ処理を移す。 Next, step S518, which is a process when the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list in step S509, will be described. In step S518, the value of the vote number Vote and the value of the final vote number VoteMax are compared. If the value of the vote number Vote is larger than the value of the final vote number VoteMax, the process proceeds to step S519.
このステップS519では、最終投票数VoteMaxの値を投票数Voteの値で置き換えた後、ステップS520で反復カウント数Countをインクリメントし、上述のステップS504に処理を戻す。 In step S519, after the value of the final vote number VoteMax is replaced with the value of the vote number Vote, the iteration count number Count is incremented in step S520, and the process returns to step S504 described above.
また、ステップS518で、投票数Voteの値が最終投票数VoteMaxの値以下の場合にはステップS520へ処理を移し、反復カウント数Countをインクリメントし、上述のステップS504に処理を戻す。 If the value of the vote number Vote is equal to or smaller than the value of the final vote number VoteMax in step S518, the process proceeds to step S520, the repeat count number Count is incremented, and the process returns to step S504 described above.
なお、第1の実施形態におけるスコアの算出方法の説明では、相似変換だけを考えて説明したが、アフィン変換などその他の幾何学変換についても、ステップS507でそれぞれに応じた変換行列を求めることにより、対応可能である。例えば、アフィン変換の場合には、まずステップS506で、対応点の組の座標数を3とする。次に、ステップS507で、式(2)ではなく式(1)を使うこととし、ステップS506で選択した3組の対応点(合計6点)を使って変数aからfを求めればよい。 In the description of the score calculation method according to the first embodiment, only the similarity transformation has been considered. However, for other geometric transformations such as affine transformation, a transformation matrix corresponding to each is obtained in step S507. It is possible to respond. For example, in the case of affine transformation, first, in step S506, the number of coordinates of the set of corresponding points is set to 3. Next, in step S507, equation (1) is used instead of equation (2), and the three sets of corresponding points selected in step S506 (6 points in total) may be used to obtain f from variable a.
以上、本実施形態によれば、全体的に類似する画像同士を比較する際、画像領域内に存在する差異のある領域についてその領域をOCR処理することにより、精度よく比較可能になる。 As described above, according to the present embodiment, when comparing images that are generally similar to each other, it is possible to perform comparison with high accuracy by performing OCR processing on a region having a difference in the image region.
なお、本実施形態では、比較元画像と比較先画像との差異領域が「文字」ないし「文字列」情報である場合について説明したが、差異領域が「文字」ないし「文字列」以外であっても、効果を有するものである。本実施形態におけるSIFT等の回転・拡縮不変の特徴量ベースの類似度比較では、特徴点間に存在する線分情報の違いを捉えることが原理上難しい。これに対し、OCR処理は、文字に特化したものではあるが、線分の情報を捉えた類似クラス判定処理であると言える。よって、差異領域に対して同等のOCR処理モジュールを使って、同等の条件でOCR処理を行った場合、文字では無い領域に対しても、OCR処理結果として可読性はなくても統一性のある出力が得られる。差異領域の部分画像に線分的な違いがあれば、認識結果の違いとしてあらわれる。この時、例えば、文字認識結果の文字列ラティスをそのまま比較し、差異の大きさによって、文字的な情報の違いの大きさとして扱っても構わない。 In this embodiment, the case where the difference area between the comparison source image and the comparison destination image is “character” or “character string” information has been described. However, the difference area is other than “character” or “character string”. However, it has an effect. In principle, it is difficult to grasp the difference in line segment information existing between feature points in the rotation / scaling invariant feature amount-based similarity comparison such as SIFT in this embodiment. On the other hand, the OCR processing is specialized for characters, but can be said to be similar class determination processing that captures line segment information. Therefore, when OCR processing is performed under the same conditions using the same OCR processing module for the difference area, even if the area is not a character, the OCR processing result is not readable but has a uniform output. Is obtained. If there is a line segment difference in the partial image of the difference area, it will appear as a difference in recognition results. At this time, for example, the character string lattices of the character recognition result may be compared as they are, and may be treated as the difference in character information depending on the difference.
あるいは、OCR処理結果として、画像特徴量群抽出部202で得た特徴量とは異なる、文字認識固有の特徴量が得られる場合は、該特徴量で類似性を比較しても構わない。例えば、特徴量として、多次元ベクトルが得られるのであれば、ベクトル間の距離情報を利用してもよい。このように、本実施形態によれば、差異領域は必ずしも文字の領域であるとは限らない場合であっても、当該差異領域の文字的な情報の差異を捉えた比較が可能となる。
Alternatively, when a feature quantity unique to character recognition that is different from the feature quantity obtained by the image feature quantity
また、本実施形態において、画像正立処理部204は、比較元画像に対して、画像特徴量比較部203で求めたアフィン変換等の幾何変換係数によって回転・拡縮等の幾何変換処理を実施し、比較先画像と位置合わせを行うようにした。例えば、比較元画像としてスキャンされたイメージデータ、比較先画像としてラスタライズされた文書画像データというような、比較元画像と比較先画像とで条件が異なる場合でも、比較先画像に位置合わせをすることで、正立化することができる。これにより、後段のOCR処理部205で行うOCR処理を精度よく実施できる。
In the present embodiment, the image erecting
また、本実施形態において、OCR処理部205は、各差異領域の部分画像に限定して2値化処理を行うようにした。印刷画像であっても、文字が記載された部分に限定すれば、人が視認可能なコントラストを付けている場合が多く、閾値がうまく決められ、文字とそれ以外の画素の分離を行える可能性が高くなる。これにより、チラシなどの印刷物のような画像中の文字部分であっても、精度よく文字認識することが可能になる。
In the present embodiment, the
なお、上述の説明では、局所特徴として、輝度画像から得られるSIFTやSURFを特徴量の例に挙げたが、色差信号やRGBカラーチャネルでの局所特徴を用いることも可能である。また、図4の説明においては、比較元画像と比較先画像との差異領域が1つの例を示しているが、差異領域はいくつあても構わない。それぞれ、比較元と比較先の同領域のものであることがわかるように対応付けて処理を行えばよい。具体的には,ステップS309で非正対応点の密度の高い領域群を抽出した後,個々の領域毎にステップS311〜S312の処理を実施すればよい。これにより、比較元画像と比較先画像とで複数の差異領域がある場合、具体的には、チラシ等の印刷物に複数の異なる背景・文字フォントの文字領域がある場合であっても、それぞれの文字部の比較が可能になる。 In the above description, SIFT or SURF obtained from a luminance image is given as an example of the feature amount as a local feature. However, it is also possible to use a local feature in a color difference signal or an RGB color channel. In the description of FIG. 4, one example of the difference area between the comparison source image and the comparison destination image is shown, but any number of difference areas may be provided. The processing may be performed in association with each other so that it can be understood that the comparison source and the comparison destination are in the same region. Specifically, after extracting a group of regions having a high density of non-positive corresponding points in step S309, the processing in steps S311 to S312 may be performed for each region. Thereby, when there are a plurality of different areas between the comparison source image and the comparison destination image, specifically, even when there are a plurality of different background / character font character areas on a printed matter such as a flyer, Character parts can be compared.
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other Embodiments]
In addition, the present invention supplies software (program) for realizing the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and the computer of the system or apparatus (or CPU, MPU, etc.) programs Is read and executed. Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.
201 画像入力部
202 画像特徴量群抽出部
203 画像特徴量比較部
204 画像正立処理部
205 OCR処理部
206 OCR結果比較部
207 出力部
208 記憶部
DESCRIPTION OF
Claims (6)
前記入力された比較元画像と比較先画像との差異領域を推定する推定手段と、
前記推定された差異領域に対してOCR処理を実行するOCR処理手段と、
を有することを特徴とする画像処理装置。 An input means for inputting a comparison source image and a comparison destination image;
Estimating means for estimating a difference area between the input comparison source image and the comparison destination image;
OCR processing means for performing OCR processing on the estimated difference area;
An image processing apparatus comprising:
前記入力された比較元画像と比較先画像とから局所特徴点を抽出する抽出手段と、
前記抽出された局所特徴点について局所特徴を算出する算出手段と、
前記算出された局所特徴に基づいて、前記比較元画像と前記比較先画像とで対応関係にある前記局所特徴点を決定する第1の決定手段と、
前記決定された対応関係にある局所特徴点に基づいて、前記比較元画像と前記比較先画像との共通領域を推定する第1の推定手段と、
前記推定された共通領域において前記比較元画像と前記比較先画像とで対応関係のない局所特徴点を決定する第2の決定手段と、
前記決定された対応関係のない局所特徴点に基づいて、前記比較元画像と前記比較先画像との差異領域を推定する第2の推定手段と、
を有することを特徴とする請求項1に記載の画像処理装置。 The estimation means includes
Extraction means for extracting local feature points from the input comparison source image and comparison destination image;
Calculating means for calculating local features for the extracted local feature points;
First determination means for determining the local feature point in a correspondence relationship between the comparison source image and the comparison target image based on the calculated local feature;
First estimation means for estimating a common area between the comparison source image and the comparison destination image based on the determined local feature points in the correspondence relationship;
Second determining means for determining local feature points having no correspondence relationship between the comparison source image and the comparison destination image in the estimated common region;
Second estimation means for estimating a difference area between the comparison source image and the comparison destination image based on the determined local feature points having no corresponding relationship;
The image processing apparatus according to claim 1, further comprising:
前記入力された比較元画像と比較先画像との差異領域を推定し、
前記推定された差異領域に対してOCR処理を実行する、
ことを特徴とする画像処理方法。 Enter the comparison source image and the comparison destination image,
Estimating a difference area between the input comparison source image and the comparison destination image;
Performing OCR processing on the estimated difference area;
An image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018419A JP2017138743A (en) | 2016-02-02 | 2016-02-02 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018419A JP2017138743A (en) | 2016-02-02 | 2016-02-02 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017138743A true JP2017138743A (en) | 2017-08-10 |
Family
ID=59565052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018419A Pending JP2017138743A (en) | 2016-02-02 | 2016-02-02 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017138743A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159942A (en) * | 2018-03-14 | 2019-09-19 | 沖電気工業株式会社 | Information processing device, information processing system, information processing method, and program |
JP2020098399A (en) * | 2018-12-17 | 2020-06-25 | 凸版印刷株式会社 | Point granting system, point granting method, and program |
-
2016
- 2016-02-02 JP JP2016018419A patent/JP2017138743A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159942A (en) * | 2018-03-14 | 2019-09-19 | 沖電気工業株式会社 | Information processing device, information processing system, information processing method, and program |
JP7000935B2 (en) | 2018-03-14 | 2022-01-19 | 沖電気工業株式会社 | Information processing equipment, information processing system, information processing method and program |
JP2020098399A (en) * | 2018-12-17 | 2020-06-25 | 凸版印刷株式会社 | Point granting system, point granting method, and program |
JP7259312B2 (en) | 2018-12-17 | 2023-04-18 | 凸版印刷株式会社 | Point giving system, point giving method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10936911B2 (en) | Logo detection | |
TW201437925A (en) | Object identification device, method, and storage medium | |
JP5361524B2 (en) | Pattern recognition system and pattern recognition method | |
RU2619712C1 (en) | Optical character recognition of image series | |
JP2018206252A (en) | Image processing system, evaluation model construction method, image processing method, and program | |
JP2007025900A (en) | Image processor and image processing method | |
JP6435934B2 (en) | Document image processing program, image processing apparatus and character recognition apparatus using the program | |
US8306332B2 (en) | Image search method and device | |
JP2010176504A (en) | Image processor, image processing method, and program | |
JP2017138743A (en) | Image processing apparatus, image processing method, and program | |
JP2013218605A (en) | Image recognition device, image recognition method, and program | |
CN113095187A (en) | Examination paper correction method based on image feature matching alignment | |
JP2006252562A (en) | Image recognition method | |
JP5278093B2 (en) | Article related information providing method, apparatus, program, and recording medium | |
JP6017005B2 (en) | Image search apparatus, image search method and program | |
JP2017138742A (en) | Image processing apparatus, image processing method, and program | |
JP2005173128A (en) | Contour shape extractor | |
JP2019046184A (en) | Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program | |
JP5836728B2 (en) | Image search apparatus, image search method and program | |
JP2010092426A (en) | Image processing device, image processing method, and program | |
JP6668228B2 (en) | Subject identification device, method, and program | |
JP2006323511A (en) | Symbol-identifying method and device thereof | |
CN114565750A (en) | Method and system for processing paper test questions | |
JP2008102610A (en) | Image processor | |
JP4869364B2 (en) | Image processing apparatus and image processing method |