JP2003157408A - Distortion image associating method, device and program - Google Patents

Distortion image associating method, device and program

Info

Publication number
JP2003157408A
JP2003157408A JP2001353593A JP2001353593A JP2003157408A JP 2003157408 A JP2003157408 A JP 2003157408A JP 2001353593 A JP2001353593 A JP 2001353593A JP 2001353593 A JP2001353593 A JP 2001353593A JP 2003157408 A JP2003157408 A JP 2003157408A
Authority
JP
Japan
Prior art keywords
point
edge
image
vertical
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001353593A
Other languages
Japanese (ja)
Other versions
JP4128001B2 (en
Inventor
Hiroshi Kameyama
博史 亀山
Motoko Kuroiwa
素子 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2001353593A priority Critical patent/JP4128001B2/en
Publication of JP2003157408A publication Critical patent/JP2003157408A/en
Application granted granted Critical
Publication of JP4128001B2 publication Critical patent/JP4128001B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately and quickly associate a distorted input image of a form with a reference image having no distortion. SOLUTION: Three kinds of feature points (longitudinal and lateral edge points, lateral edge point and longitudinal edge point) are extracted from an image input from an image input portion 101 and cut out of a cut-out processing portion 102 by a feature point extracting portion 104, and the displacement between the corresponding point determined by Hough conversion and the corresponding point determined by an affine conversion efficiency is determined in a corresponding point detector 106, and the corresponding point is specified by using a triangular analogy ratio using as a reference point the corresponding point providing little displacement.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、歪みのない参照
画像の各特徴点をそれぞれ歪みを伴う入力画像の対応点
に対応付ける歪み画像の対応付け方法、装置およびプロ
グラムに関し、特に、歪みを伴う帳票の入力画像と歪み
のない参照画像とを迅速かつ正確に対応付けることがで
きる歪み画像の対応付け方法、装置およびプログラムに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distorted image associating method, device and program for associating each feature point of a reference image without distortion with a corresponding point of an input image with distortion, and more particularly to a form with distortion. The present invention relates to a distortion image associating method, device, and program capable of quickly and accurately associating an input image with a reference image without distortion.

【0002】[0002]

【従来の技術】帳票をスキャナで読み取る場合に、帳票
の膨らみ・ねじれなどによって図18に示すように罫線
が歪んだ帳票イメージとなることが多い。特に、オーバ
ーヘッド型スキャナを用いた場合には、かかる帳票の膨
らみなどの影響が帳票イメージの歪みとなって顕在化す
る。また、搬送速度の速いスキャナで帳票を読み取った
場合にも、搬送速度のわずかな変化により伸縮などの歪
みを伴った帳票イメージとなる。
2. Description of the Related Art When a document is read by a scanner, the document image often has a distorted ruled line as shown in FIG. 18 due to bulging or twisting of the document. In particular, when an overhead scanner is used, the influence of such a bulge of the form becomes a distortion of the form image and becomes apparent. Further, even when a form is read by a scanner having a high conveyance speed, a slight change in the conveyance speed produces a form image with distortion such as expansion and contraction.

【0003】これらのことから、歪みのある帳票イメー
ジである入力画像と参照画像とを対応付ける必要が生じ
る。このため、たとえば特開平11−3430号公報に
は、参照画像のエッジ画像を小ブロックに分割して各小
ブロックの探索範囲および優先度を決定し、各小ブロッ
クに対応する画像を入力画像の探索範囲内で探索する対
応付け方法が開示されている。この従来技術によれば、
線分や表などの特定の要素に依存することなく参照画像
と入力画像の対応付けをおこなうことができる。
For these reasons, it becomes necessary to associate the input image, which is a distorted form image, with the reference image. Therefore, for example, in Japanese Patent Laid-Open No. 11-3430, the edge image of the reference image is divided into small blocks, the search range and priority of each small block are determined, and the image corresponding to each small block is set as the input image. A matching method for searching within a search range is disclosed. According to this prior art,
The reference image and the input image can be associated with each other without depending on a specific element such as a line segment or a table.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この従
来技術によれば、縦、横それぞれのエッジについて参照
エッジ画像と入力エッジ画像との縦方向および横方向の
距離を基に推定位置からのずれ量を求めているので、縦
エッジしか持たないもの、横エッジしか持たないもの若
しくはエッジを持たないもののように特徴の少ないエッ
ジ画像の場合には、ずれ量が求まらないという問題があ
る。
However, according to this prior art, the amount of deviation from the estimated position is determined based on the vertical and horizontal distances between the reference edge image and the input edge image for each of the vertical and horizontal edges. Therefore, there is a problem that the shift amount cannot be obtained in the case of an edge image having few features such as one having only vertical edges, one having only horizontal edges, or one having no edges.

【0005】この発明は、上述した従来技術による問題
点を解消するためになされたものであって、歪みを伴う
帳票の入力画像とあらかじめ記憶した参照画像とを迅速
かつ正確に対応付けることができる歪み画像の対応付け
方法、装置およびプログラムを提供することを目的とす
る。
The present invention has been made in order to solve the above-mentioned problems caused by the prior art, and distortion in which an input image of a form with distortion and a reference image stored in advance can be quickly and accurately associated with each other. An object of the present invention is to provide an image associating method, device, and program.

【0006】[0006]

【課題を解決するための手段】上述した課題を解決し、
目的を達成するため、請求項1の発明に係る歪み画像の
対応付け方法は、歪みのない参照画像の各特徴点をそれ
ぞれ歪みを伴う入力画像の対応点に対応付ける歪み画像
の対応付け方法であって、前記参照画像のエッジ画像中
に所在する各エッジ点における方向ベクトルの横方向量
および縦方向量に基づいて、前記参照画像の縦横両エッ
ジ点、横エッジ点および縦エッジ点を特徴点として抽出
する特徴点抽出工程と、前記参照画像の各特徴点に対応
する前記入力画像上の対応点を検出する対応点検出工程
とを含んだことを特徴とする。
[Means for Solving the Problems]
In order to achieve the object, the method for associating a distorted image according to the invention of claim 1 is a method for associating a distorted image in which each feature point of a reference image without distortion is associated with a corresponding point of an input image with distortion. Based on the horizontal and vertical amounts of the direction vector at each edge point located in the edge image of the reference image, both vertical and horizontal edge points, horizontal edge points and vertical edge points of the reference image are used as feature points. It is characterized by including a feature point extracting step of extracting and a corresponding point detecting step of detecting a corresponding point on the input image corresponding to each characteristic point of the reference image.

【0007】また、請求項2の発明に係る歪み画像の対
応付け方法は、請求項1の発明において、前記特徴点抽
出工程は、前記参照画像のエッジ画像の各エッジ点を中
心とした所定の領域内の横方向量と縦方向量の加算値を
縦横両方向量とし、前記所定の領域内の横方向量および
縦方向量がそれぞれ所定の値以上であり、かつ、前記縦
横両方向量が最大となる点を前記縦横両エッジ点として
抽出する縦横両エッジ点抽出工程と、前記参照画像のエ
ッジ画像の各エッジ点を中心とした所定の領域内の横方
向量が所定の値以上であり、かつ、該横方向量が最大と
なる点を前記横エッジ点として抽出する横エッジ点抽出
工程と、前記参照画像のエッジ画像の各エッジ点を中心
とした所定の領域内の縦方向量が所定の値以上であり、
かつ、該縦方向量が最大となる点を前記縦エッジ点とし
て抽出する縦エッジ点抽出工程とを含んだことを特徴と
する。
The distortion image associating method according to a second aspect of the present invention is the method according to the first aspect, wherein the feature point extracting step is a predetermined centering on each edge point of the edge image of the reference image. The sum of the horizontal direction amount and the vertical direction amount in the area is defined as the vertical and horizontal direction amounts, and the horizontal direction amount and the vertical direction amount in the predetermined area are each a predetermined value or more, and the vertical and horizontal direction amount is the maximum. Vertical and horizontal both edge point extraction step of extracting the point as the vertical and horizontal both edge points, the horizontal amount in a predetermined region centered on each edge point of the edge image of the reference image is a predetermined value or more, and A horizontal edge point extraction step of extracting a point having the maximum horizontal direction amount as the horizontal edge point, and a vertical direction amount within a predetermined area centered on each edge point of the edge image of the reference image is predetermined. Greater than or equal to the value,
And a vertical edge point extracting step of extracting the point having the maximum amount in the vertical direction as the vertical edge point.

【0008】また、請求項3の発明に係る歪み画像の対
応付け方法は、請求項1または2の発明において、前記
特徴点抽出工程は、あるエッジ点を中心とする所定の領
域内の縦横両エッジ点、横エッジ点または縦エッジ点を
抽出した際に、前記エッジ画像の所定の領域内の画素値
を消去し、この消去したエッジ画像の特徴量に基づいて
次のエッジ点を抽出する処理を繰り返すことを特徴とす
る。
Further, the method of associating a distorted image according to a third aspect of the present invention is the method according to the first or second aspect, wherein the feature point extracting step is performed in both vertical and horizontal directions within a predetermined area centered on an edge point. When extracting an edge point, a horizontal edge point, or a vertical edge point, a pixel value in a predetermined area of the edge image is erased, and a next edge point is extracted based on the feature amount of the erased edge image. Is characterized by repeating.

【0009】また、請求項4の発明に係る歪み画像の対
応付け方法は、請求項1、2または3の発明において、
前記対応点検出工程は、前記参照画像の特徴点に対応す
る前記入力画像上の第1の対応点をハフ変換により算定
するハフ変換工程と、前記特徴点を前記対応点に変換す
るアフィン変換係数を算定するアフィン変換係数算定工
程と、前記ハフ変換工程で求めた第1の対応点と前記ア
フィン変換係数から求まる第2の対応点のずれ量を所定
のしきい値と比較して、該しきい値以下となる第3の対
応点を基準点とした三角形相似比により、ずれ量が前記
所定のしきい値を越える第4の対応点を特定する特徴点
特定工程とを含んだことを特徴とする。
Further, a method of associating a distorted image according to the invention of claim 4 is the method according to claim 1, 2 or 3,
The corresponding point detecting step calculates a first corresponding point on the input image corresponding to a characteristic point of the reference image by a Hough transform, and an affine transformation coefficient for converting the characteristic point to the corresponding point. And an affine transformation coefficient calculating step for calculating the above, comparing the deviation amount between the first corresponding point obtained in the Hough transformation step and the second corresponding point obtained from the affine transformation coefficient with a predetermined threshold value, And a feature point specifying step of specifying a fourth corresponding point whose shift amount exceeds the predetermined threshold value by a triangle similarity ratio with the third corresponding point which is less than or equal to the threshold value as a reference point. And

【0010】また、請求項5の発明に係る歪み画像の対
応付け方法は、請求項4の発明において、前記特徴点特
定工程は、前記第3の対応点を基準点とした三角形相似
比により求めた前記入力画像のエッジ画像上のエッジ点
を中心点としたハフ変換により評価量が最大となる前記
第4の対応点を特定することを特徴とする。
Further, the method for associating a distorted image according to a fifth aspect of the present invention is the method according to the fourth aspect, wherein the feature point specifying step is performed by a triangle similarity ratio with the third corresponding point as a reference point. It is characterized in that the fourth corresponding point having the maximum evaluation amount is specified by the Hough transform using the edge point on the edge image of the input image as a center point.

【0011】また、請求項6の発明に係る歪み画像の対
応付け装置は、歪みのない参照画像の各特徴点をそれぞ
れ歪みを伴う入力画像の対応点に対応付ける歪み画像の
対応付け装置であって、前記参照画像のエッジ画像中に
所在する各エッジ点における方向ベクトルの横方向量お
よび縦方向量に基づいて、前記参照画像の縦横両エッジ
点、横エッジ点および縦エッジ点を特徴点として抽出す
る特徴点抽出手段と、前記参照画像の各特徴点に対応す
る前記入力画像上の対応点を検出する対応点検出手段と
を備えたことを特徴とする。
The distortion image associating device according to the invention of claim 6 is a distortion image associating device for associating each feature point of a reference image without distortion with a corresponding point of an input image with distortion. Extracting both vertical and horizontal edge points, horizontal edge points and vertical edge points of the reference image as feature points based on the horizontal and vertical amounts of the direction vector at each edge point located in the edge image of the reference image And a corresponding point detecting means for detecting a corresponding point on the input image corresponding to each characteristic point of the reference image.

【0012】また、請求項7の発明に係る歪み画像の対
応付け装置は、請求項6の発明において、前記特徴点抽
出手段は、前記参照画像のエッジ画像の各エッジ点を中
心とした所定の領域内の横方向量と縦方向量の加算値を
縦横両方向量とし、前記所定の領域内の横方向量および
縦方向量がそれぞれ所定の値以上であり、かつ、前記縦
横両方向量が最大となる点を前記縦横両エッジ点として
抽出する縦横両エッジ点抽出手段と、前記参照画像のエ
ッジ画像の各エッジ点を中心とした所定の領域内の横方
向量が所定の値以上であり、かつ、該横方向量が最大と
なる点を前記横エッジ点として抽出する横エッジ点抽出
手段と、前記参照画像のエッジ画像の各エッジ点を中心
とした所定の領域内の縦方向量が所定の値以上であり、
かつ、該縦方向量が最大となる点を前記縦エッジ点とし
て抽出する縦エッジ点抽出手段とを備えたことを特徴と
する。
According to a seventh aspect of the present invention, there is provided the distortion image associating device according to the sixth aspect, wherein the feature point extracting means has a predetermined center point at each edge point of the edge image of the reference image. The sum of the horizontal direction amount and the vertical direction amount in the area is defined as the vertical and horizontal direction amounts, and the horizontal direction amount and the vertical direction amount in the predetermined area are each a predetermined value or more, and the vertical and horizontal direction amount is the maximum. Vertical and horizontal both edge point extraction means for extracting the point as the vertical and horizontal both edge points, and the horizontal amount within a predetermined area centered on each edge point of the edge image of the reference image is a predetermined value or more, and A horizontal edge point extracting means for extracting a point having the maximum horizontal direction amount as the horizontal edge point, and a vertical direction amount within a predetermined area centered on each edge point of the edge image of the reference image is predetermined. Greater than or equal to the value,
Further, it is characterized by further comprising a vertical edge point extraction means for extracting a point having the maximum vertical direction amount as the vertical edge point.

【0013】また、請求項8の発明に係る歪み画像の対
応付け装置は、請求項6または7の発明において、前記
対応点検出手段は、前記参照画像の特徴点に対応する前
記入力画像上の第1の対応点をハフ変換により算定する
ハフ変換手段と、前記特徴点を前記対応点に変換するア
フィン変換係数を算定するアフィン変換係数算定手段
と、前記ハフ変換手段で求めた第1の対応点と前記アフ
ィン変換係数から求まる第2の対応点のずれ量を所定の
しきい値と比較して、該しきい値以下となる第3の対応
点を基準点とした三角形相似比により、ずれ量が前記所
定のしきい値を越える第4の対応点を特定する特徴点特
定手段とを備えたことを特徴とする。
Further, in the distortion image associating device according to the invention of claim 8, in the invention of claim 6 or 7, the corresponding point detecting means is provided on the input image corresponding to the feature point of the reference image. Hough transform means for calculating a first corresponding point by Hough transform, affine transform coefficient calculating means for calculating an affine transform coefficient for converting the characteristic point into the corresponding point, and first correspondence obtained by the Hough transform means. The deviation amount between the point and the second corresponding point obtained from the affine transformation coefficient is compared with a predetermined threshold value, and the deviation is made by the triangle similarity ratio with the third corresponding point which is less than the threshold value as a reference point. And a feature point specifying means for specifying a fourth corresponding point whose amount exceeds the predetermined threshold value.

【0014】また、請求項9の発明に係るプログラム
は、請求項1〜5のいずれか一つに記載された方法をコ
ンピュータに実行させることで、そのプログラムを機械
読み取り可能となり、これによって、請求項1〜5のい
ずれか一つの動作をコンピュータによって実現すること
ができる。
Further, the program according to the invention of claim 9 can be machine-readable by causing a computer to execute the method described in any one of claims 1 to 5, whereby the program can be read. The operation of any one of items 1 to 5 can be realized by a computer.

【0015】[0015]

【発明の実施の形態】以下に添付図面を参照して、この
発明に係る歪み画像の対応付け方法、装置およびプログ
ラムの好適な実施の形態を詳細に説明する。なお、本実
施の形態では、帳票の画像を対応付ける場合について説
明することとする。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of a distortion image associating method, apparatus and program according to the present invention will be described in detail below with reference to the accompanying drawings. In the present embodiment, the case where the images of the forms are associated with each other will be described.

【0016】(画像対応付け装置の構成について)ま
ず、本実施の形態に係る画像対応付け装置の構成につい
て説明する。図1は、本実施の形態に係る画像対応付け
装置の構成を示す機能ブロック図である。同図に示すよ
うに、この画像対応付け装置100は、画像入力部10
1と、切出処理部102と、エッジ画像作成部103
と、特徴点抽出部104と、記憶部105と、対応点検
出部106とを有する。なお、請求項7の特徴点抽出手
段は特徴点抽出部104に対応し、請求項7の対応点検
出手段は対応点検出部106に対応する。
(Regarding the Configuration of the Image Matching Device) First, the configuration of the image matching device according to the present embodiment will be described. FIG. 1 is a functional block diagram showing the configuration of the image association device according to the present embodiment. As shown in the figure, the image associating device 100 includes an image input unit 10
1, a cutout processing unit 102, and an edge image creation unit 103
And a feature point extraction unit 104, a storage unit 105, and a corresponding point detection unit 106. The feature point extracting means of claim 7 corresponds to the feature point extracting section 104, and the corresponding point detecting means of claim 7 corresponds to the corresponding point detecting section 106.

【0017】ここで、この画像対応付け装置100は、
手書き文字が書き込まれた帳票の入力画像を受け付ける
対応付けモードと、この入力画像の比較の対象となるテ
ンプレート(参照画像)を受け付けるテンプレート登録
モードとで異なる処理をおこなう。具体的には、テンプ
レート登録モードの場合には、画像入力部101〜切出
処理部102〜エッジ画像作成部103〜特徴点抽出部
104〜記憶部105という処理の流れとなり、対応付
けモードの場合には、画像入力部101〜切出処理部1
02〜エッジ画像作成部103〜対応点検出部106と
いう処理の流れとなる。なお、両モードのモード切り替
えは、図示しない切替スイッチなどでおこなう。
Here, the image associating device 100 is
Different processing is performed in the association mode in which the input image of the form in which the handwritten characters are written is accepted and the template registration mode in which the template (reference image) to be compared with the input image is accepted. Specifically, in the case of the template registration mode, the processing flow of the image input unit 101, the cutout processing unit 102, the edge image creation unit 103, the feature point extraction unit 104, and the storage unit 105 is performed. Includes the image input unit 101 to the cutout processing unit 1
02-edge image creation unit 103-corresponding point detection unit 106. It should be noted that mode switching between both modes is performed by a changeover switch or the like not shown.

【0018】画像入力部101は、入力画像またはテン
プレートを入力する処理部であり、具体的には、入力画
像については、たとえばオーバーヘッド型スキャナなど
で取り込み、テンプレートについては、たとえば圧接型
スキャナなどで取り込む。ここでは、入力デバイスにつ
いてはいかなるものであっても良いが、入力画像には帳
票の膨らみなどに起因する歪みが存在し、テンプレート
にはかかる入力画像のような歪みが存在しないものとす
る。
The image input unit 101 is a processing unit for inputting an input image or a template. Specifically, the input image is captured by, for example, an overhead type scanner, and the template is captured by, for example, a pressure contact type scanner. . Here, any input device may be used, but it is assumed that the input image has distortion due to bulge of the form and the like, and the template does not have such distortion as the input image.

【0019】切出処理部102は、画像入力部101か
ら入力した入力画像またはテンプレートから対応付け対
象となる領域を切り出す処理部である。なお、入力画像
を切り出す場合には、歪みや位置ずれを考慮してテンプ
レートの場合よりもやや大きめに領域を切り出すことに
なる。
The cutout processing unit 102 is a processing unit that cuts out an area to be associated from the input image or the template input from the image input unit 101. When the input image is cut out, the region is cut out in a slightly larger size than in the case of the template in consideration of distortion and displacement.

【0020】エッジ画像作成部103は、切出処理部1
02により切り出された領域に対してたとえばソーベル
(sobel)オペレータなどの微分オペレータを適用し、
そのエッジ部分を強調した方向画像を作成する処理部で
ある。なお、かかる処理の結果得られる微分画像は、各
点における濃度勾配の方向ベクトルを画素値として持つ
ことになる。
The edge image creating unit 103 is a cutout processing unit 1.
A differential operator such as a Sobel operator is applied to the area cut out by 02,
It is a processing unit that creates a direction image in which the edge portion is emphasized. The differential image obtained as a result of such processing has the direction vector of the density gradient at each point as a pixel value.

【0021】特徴点抽出部104は、テンプレートのエ
ッジ画像の切り出した領域中に所在する各エッジ点にお
ける方向ベクトルの横方向量および縦方向量に基づい
て、縦横両エッジ点、横エッジ点、縦エッジ点および周
囲の点を特徴点として抽出する処理部である。具体的に
は、各エッジ点を中心とした所定の領域内の横方向量Nh
と縦方向量Nvの加算値を縦横両方向量Nhvとし、この領
域内の横方向量Nhおよび縦方向量Nvがそれぞれ所定の値
以上であり、かつ、縦横両方向量Nhvが最大となる点を
縦横両エッジ点とする。また、各エッジ点を中心とした
所定の領域内の横方向量Nhが所定の値以上であり、か
つ、この横方向量Nhが最大となる点を横エッジ点とし、
各エッジ点を中心とした所定の領域内の縦方向量Nvが所
定の値以上であり、かつ、この縦方向量Nvが最大となる
点を縦エッジ点とする。
The feature point extraction section 104 determines both vertical and horizontal edge points, horizontal edge points, and vertical edge points based on the horizontal and vertical amounts of the direction vector at each edge point located in the cut-out region of the edge image of the template. It is a processing unit that extracts edge points and surrounding points as feature points. Specifically, the lateral direction amount Nh within a predetermined area centered on each edge point
The sum of the vertical and horizontal directions Nv is the vertical and horizontal directions Nhv, and the points where the horizontal and vertical directions Nh and Nv in this area are equal to or greater than the specified values, and the vertical and horizontal directions Nhv are the maximum. Both edge points. Further, the lateral direction amount Nh in a predetermined area centered on each edge point is a predetermined value or more, and the point where the lateral direction amount Nh is the maximum is the lateral edge point,
A vertical edge point is a point in which a vertical direction amount Nv in a predetermined area centered on each edge point is a predetermined value or more and the vertical direction amount Nv is maximum.

【0022】図2は、方向量の計算概念を説明するため
の説明図である。同図(a)に示すようなエッジ画像が
存在する場合には、たとえば同図(b)に示すように各
画素には濃度勾配の方向ベクトルが格納されている。画
素aや画素fのような横エッジを持つ点の方向ベクトル
は縦向きとなり、画素cや画素dのような縦エッジを持
つ持つ点の方向ベクトルは横向きとなる。このことか
ら、横方向量はサイン関数(sin)で求められ、縦方向
量はコサイン関数(cos)で求める。よって、点(x,y)
における各方向量は、以下のようになり、図中の各画素
a〜fの方向量は同図(c)に示すものとなる。
FIG. 2 is an explanatory diagram for explaining the concept of calculating the direction amount. When an edge image as shown in FIG. 7A exists, for example, a density gradient direction vector is stored in each pixel as shown in FIG. The direction vector of a point having a horizontal edge such as the pixel a and the pixel f is vertical, and the direction vector of a point having a vertical edge such as the pixel c and the pixel d is horizontal. From this, the horizontal amount is obtained by the sine function (sin), and the vertical amount is obtained by the cosine function (cos). Therefore, the point (x, y)
The respective directional amounts in the above are as follows, and the directional amounts of the respective pixels a to f in the figure are as shown in FIG.

【0023】すなわち、方向ベクトルの向きをth(点
(x,y)におけるエッジ画像の値)とすると、 横方向量(Nh)=|sin(th)| 縦方向量(Nv)=|cos(th)| 縦横両方向量(Nhv)=Nh+Nv となる。
That is, assuming that the direction of the direction vector is th (the value of the edge image at the point (x, y)), the lateral direction amount (Nh) = | sin (th) | the longitudinal direction amount (Nv) = | cos ( th) | Amount in both vertical and horizontal directions (Nhv) = Nh + Nv.

【0024】なお、この特徴点抽出部104は、観測窓
を用いて縦横両エッジ点、横エッジ点、縦エッジ点ある
いは、縦横両エッジ点、縦エッジ点、横エッジ点の順序
で順次特徴点を抽出する。すなわち、観測窓の中心画素
の特徴点を抽出する場合には、該観測窓内の各画素の横
方向量、縦方向量および縦横両方向量を加算して、その
加算結果を中心画素の横方向量、縦方向量および縦横両
方向量とする。そして、これらの方向量が所定の条件を
満たす場合に、その中心画素を縦横両エッジ点、横エッ
ジ点または縦エッジ点とする。
The feature point extraction unit 104 uses the observation window to sequentially determine the feature points in the order of vertical and horizontal edge points, horizontal edge points, vertical edge points, or vertical and horizontal edge points, vertical edge points, horizontal edge points. To extract. That is, when extracting the feature point of the central pixel of the observation window, the horizontal direction amount, the vertical direction amount, and the vertical and horizontal direction amount of each pixel in the observation window are added, and the addition result is the horizontal direction of the central pixel. Amount, the amount in the vertical direction, and the amount in both the vertical and horizontal directions. Then, when these direction amounts satisfy a predetermined condition, the central pixel is set as both vertical and horizontal edge points, horizontal edge points, or vertical edge points.

【0025】そして、ある特徴点を抽出した場合にはこ
の領域内のエッジ画像の画素値を消去しつつ特徴点の抽
出を繰り返す。適切な間隔をもって特徴点を抽出するた
めである。周囲の点はテンプレートの境界上に等ピッチ
に取る(エッジ特徴には無関係)。
When a certain characteristic point is extracted, the extraction of the characteristic point is repeated while deleting the pixel values of the edge image in this area. This is because feature points are extracted at appropriate intervals. Surrounding points are evenly spaced on the boundaries of the template (regardless of edge features).

【0026】記憶部105は、特徴点抽出部104によ
り抽出された特徴点すなわち縦横両エッジ点、横エッジ
点、縦エッジ点および周囲の点及びエッジ画像を記憶す
る記憶部であり、記憶したデータは対応点検出部106
によりアクセスされる。
The storage unit 105 is a storage unit that stores the feature points extracted by the feature point extraction unit 104, that is, both vertical and horizontal edge points, horizontal edge points, vertical edge points, peripheral points, and edge images, and the stored data. Is the corresponding point detection unit 106
Accessed by.

【0027】対応点検出部106は、テンプレートと入
力画像の位置合わせをハフ変換により大まかにおこな
う。次に、テンプレートの特徴点と入力画像上の対応点
の位置合わせをハフ変換によりおこない、この特徴点を
対応点に変換するアフィン変換係数を算定し、ハフ変換
で求めた対応点とアフィン変換係数から求まる対応点の
ずれ量を求める。そして、求めたずれ量を所定のしきい
値と比較して、該しきい値以下となる対応点を基準点と
し、後述する三角形相似比によりずれ量が所定のしきい
値を越える特徴点に対応する対応点を特定する処理をお
こなっている。
The corresponding point detector 106 roughly aligns the template with the input image by Hough transform. Next, the feature points of the template and the corresponding points on the input image are aligned by the Hough transform, the affine transformation coefficient that transforms these feature points into the corresponding points is calculated, and the corresponding points and the affine transform coefficients obtained by the Hough transform are calculated. The shift amount of the corresponding point obtained from is calculated. Then, the calculated shift amount is compared with a predetermined threshold value, and corresponding points below the threshold value are used as reference points, and a feature point whose shift amount exceeds the predetermined threshold value is determined by a triangle similarity ratio described later. Processing for identifying the corresponding points is performed.

【0028】このように、この画像対応付け装置100
は、特徴点抽出部104により3種類の特徴点(縦横両
エッジ点、横エッジ点および縦エッジ点)を抽出すると
ともに、対応点検出部106では、ハフ変換で求めた対
応点とアフィン変換係数から求まる対応点のずれ量を求
め、このずれ量の少ない対応点を基準点とする三角形相
似比を使って対応点を特定している。
As described above, the image associating device 100
The feature point extraction unit 104 extracts three types of feature points (vertical and horizontal edge points, horizontal edge points, and vertical edge points), and the corresponding point detection unit 106 calculates corresponding points and affine transformation coefficients obtained by Hough transform. The shift amount of the corresponding point obtained from is obtained, and the corresponding point is specified by using the triangle similarity ratio with the corresponding point having the small shift amount as the reference point.

【0029】(テンプレート登録モード時の処理につい
て)次に、図1に示した画像対応付け装置100による
テンプレート登録モード時の処理手順について説明す
る。図3は、図1に示した画像対応付け装置100によ
るテンプレート登録モード時の処理手順を示すフローチ
ャートであり、図4は、テンプレート登録モード時のテ
ンプレートの一例を示す図である。
(Regarding Processing in Template Registration Mode) Next, a processing procedure in the template registration mode by the image associating device 100 shown in FIG. 1 will be described. 3 is a flowchart showing a processing procedure in the template registration mode by the image association apparatus 100 shown in FIG. 1, and FIG. 4 is a diagram showing an example of a template in the template registration mode.

【0030】図3に示すように、画像対応付け装置10
0が登録モードの場合には、図4(a)に示すような未
記入の帳票の歪みのない画像を画像入力部101から入
力すると(ステップS301)、切出処理部102が図
4(b)に示すような対象領域すなわちテンプレートを
切り出す(ステップS302)。具体的には、登録モー
ド時にはオペレータがマウス操作などによりテンプレー
トを切り出すことになる。その後、エッジ画像作成部1
03がこのテンプレートに微分オペレータを適用して図
4(c)に示すエッジ画像を取得する(ステップS30
3)。
As shown in FIG. 3, the image associating device 10
When 0 is the registration mode, when an image with no distortion of the blank form as shown in FIG. 4A is input from the image input unit 101 (step S301), the cutout processing unit 102 causes the cutout processing unit 102 to perform the processing illustrated in FIG. ) A target area, that is, a template is cut out (step S302). Specifically, in the registration mode, the operator cuts out the template by operating the mouse. After that, the edge image creation unit 1
03 applies the differential operator to this template to obtain the edge image shown in FIG. 4C (step S30).
3).

【0031】その後、図4(c)から特徴点抽出部10
4が同図(d)に示すような特徴点を抽出する(ステッ
プS304)。図5は、図4(d)の拡大図であり、同
図に示すように、図中に黒丸で示す縦横両エッジ点と、
ばつ(×)で示す横エッジ点と、黒三角で示す縦エッジ
点と、黒四角で示す周囲の点が特徴点として得られる。
After that, from FIG. 4C, the feature point extraction unit 10
4 extracts feature points as shown in FIG. 4D (step S304). FIG. 5 is an enlarged view of FIG. 4D. As shown in FIG. 5, both vertical and horizontal edge points indicated by black circles in the drawing,
Horizontal edge points indicated by crosses (x), vertical edge points indicated by black triangles, and surrounding points indicated by black squares are obtained as feature points.

【0032】そして、これらの特徴点が得られたなら
ば、この特徴点をテンプレートに対応付けて記憶部10
5に記憶し(ステップS305)、後述する対応点検出
部106の処理で利用できるようにする。
When these characteristic points are obtained, the characteristic points are associated with the template and stored in the storage unit 10.
5 (step S305) so that it can be used in the processing of the corresponding point detection unit 106 described later.

【0033】(対応付けモード時の処理について)次
に、図1に示した画像対応付け装置100による対応付
けモード時の処理手順について説明する。図6は、図1
に示した画像対応付け装置100による対応付けモード
時の処理手順を示すフローチャートであり、図7は、対
応付けモード時の入力画像などの一例を示す図である。
(Regarding Processing in Matching Mode) Next, the processing procedure in the matching mode by the image matching apparatus 100 shown in FIG. 1 will be described. 6 is shown in FIG.
9 is a flowchart showing a processing procedure in the association mode by the image association apparatus 100 shown in FIG. 7, and FIG. 7 is a diagram showing an example of an input image in the association mode.

【0034】図6に示すように、画像対応付け装置10
0が対応付けモードの場合には、画像入力部101から
歪みのある入力画像を入力すると(ステップS60
1)、切出処理部102が図7(a)に示すような入力
画像の一部を切り出す(ステップS602)。具体的に
は、帳票の種類を別途判別して読み取り対象とする所定
の領域を切り出すことになる。その後、エッジ画像作成
部103が微分オペレータを適用して図7(b)に示す
エッジ画像を取得する(ステップS603)。
As shown in FIG. 6, the image association device 10
When 0 is the association mode, when a distorted input image is input from the image input unit 101 (step S60).
1), the cutout processing unit 102 cuts out a part of the input image as shown in FIG. 7A (step S602). Specifically, the type of form is separately determined and a predetermined area to be read is cut out. After that, the edge image creating unit 103 applies the differential operator to obtain the edge image shown in FIG. 7B (step S603).

【0035】そして、記憶部105に記憶した同図
(c)に示したテンプレートのエッジ画像とハフ変換に
よりおおまかな位置合わせをおこなって移動量を求め
(ステップS604)、この移動量を考慮して同図
(d)に示すように各特徴点に対応する画素すなわち対
応点を検出する(ステップS605)。図8は、図7
(d)の拡大図であり、同図に示すように、図中に黒丸
で示す縦横両エッジ点の対応点と、ばつ(×)で示す横
エッジ点の対応点と、黒三角で示す縦エッジ点の対応点
と、黒四角で示す周囲の点の対応点が得られる。
Then, rough alignment is performed by the Hough transform with the edge image of the template shown in FIG. 7C stored in the storage unit 105 to obtain the movement amount (step S604), and the movement amount is taken into consideration. As shown in FIG. 6D, pixels corresponding to each feature point, that is, corresponding points are detected (step S605). 8 is shown in FIG.
It is an enlarged view of (d), as shown in the figure, corresponding points of vertical and horizontal edge points indicated by black circles, corresponding points of horizontal edge points indicated by crosses (x), and vertical points indicated by black triangles. The corresponding points of the edge points and the corresponding points of the surrounding points indicated by black squares are obtained.

【0036】なお、本実施の形態では、対応点を求める
までの処理のみについて説明するが、必要に応じて、対
応する特徴点間のずれ量(変位)に基づいて歪みを補正
した補正画像を作成することもできる(図7(e))。
In the present embodiment, only the processing until the corresponding points are obtained will be described. However, if necessary, a corrected image in which distortion is corrected based on the amount of displacement (displacement) between corresponding characteristic points can be obtained. It can also be created (FIG. 7 (e)).

【0037】(特徴点抽出処理について)次に、図1に
示した特徴点抽出部104による特徴点の抽出処理につ
いてさらに具体的に説明する。図9および図10は、図
1に示した特徴点抽出部104による特徴点の抽出処理
手順を示すフローチャートであり、図11および図12
は、特徴点抽出処理途中の画像データの一例を示す説明
図である。
(Regarding Feature Point Extraction Process) Next, the feature point extraction process by the feature point extraction unit 104 shown in FIG. 1 will be described more specifically. 9 and 10 are flowcharts showing the procedure of extracting the characteristic points by the characteristic point extracting unit 104 shown in FIG. 1, and FIGS.
FIG. 4 is an explanatory diagram showing an example of image data during a feature point extraction process.

【0038】図9および図10に示すように、この特徴
点抽出部104は、縦横両エッジ点、横エッジ点、縦エ
ッジ点の順序で特徴点を抽出する。まず、縦横両エッジ
点を抽出するために、図11(a)に示すようにテンプ
レートのエッジ画像のエッジ点を中心としたS×Sの大
きさの領域(観測窓)を設け、この観測窓内の縦横両方
向量(Nhv)、横方向量(Nh)、縦方向量(Nv)を算定
する(ステップS901)。具体的には、この観測窓内
の画素ごとの方向量をそれぞれ調べ、この方向量をそれ
ぞれ方向量ごとに加算して中心画素の方向量とする。こ
の処理を観測窓を動かしながら繰り返し、全ての画素の
方向量を求める。
As shown in FIGS. 9 and 10, the feature point extraction unit 104 extracts feature points in the order of vertical and horizontal edge points, horizontal edge points, and vertical edge points. First, in order to extract both vertical and horizontal edge points, as shown in FIG. 11A, an area (observation window) of size S × S centering on the edge point of the edge image of the template is provided, and this observation window The horizontal and vertical directions (Nhv), the horizontal direction (Nh), and the vertical direction (Nv) are calculated (step S901). Specifically, the direction amount for each pixel in this observation window is examined, and this direction amount is added for each direction amount to obtain the direction amount of the central pixel. This process is repeated while moving the observation window, and the direction quantities of all pixels are obtained.

【0039】そして、横方向量(Nh)および縦方向量
(Nv)がそれぞれ所定値、たとえばS/4よりも大き
く、かつ、縦横両方向量(Nhv)が最大となる点を縦横
両エッジ点とする(ステップS902)。
Then, the points in which the horizontal direction amount (Nh) and the vertical direction amount (Nv) are each larger than a predetermined value, for example, S / 4, and the vertical and horizontal direction amount (Nhv) is the maximum are both vertical and horizontal edge points. Yes (step S902).

【0040】ステップS902を満足する縦横両エッジ
点が存在する場合には(ステップS903肯定、図11
(b))、図11(b’)に示すように縦横両エッジ点
の周りのエッジ画像の一部(その縦横両エッジ点を中心
とする観測窓の内部全てのエッジ画像)を消去し(ステ
ップS904)、消去した画像を新たなエッジ画像とし
て(ステップS905)、再度各エッジ点に観測窓を当
てはめて方向量を算出し、繰り返し処理する(ステップ
S901〜S905)。
If there are vertical and horizontal edge points that satisfy step S902 (Yes at step S903, FIG. 11).
(B)), as shown in FIG. 11 (b '), a part of the edge image around both the vertical and horizontal edge points (all the edge images inside the observation window centering on the vertical and horizontal edge points) are deleted ( In step S904), the erased image is used as a new edge image (step S905), the observation window is applied to each edge point again to calculate the direction amount, and the process is repeated (steps S901 to S905).

【0041】そして、ステップS902を満足する縦横
両エッジ点がなくなると(ステップS903否定)、エ
ッジ画像の消去をおこなうことなくそのままステップS
906に移行する。そのときのエッジ画像は例えば図1
1(c)のようになっている。このようにして、縦横両
エッジ点の抽出処理を終えたならば、横エッジ点の抽出
処理に移行する。具体的には、横方向量(Nh)を算定し
た後(ステップS906)、この横方向量(Nh)が所定
値、たとえばS/4よりも大きく、かつ、横方向量(N
h)が最大となる点を横エッジ点とする(ステップS9
07)。
When there are no vertical or horizontal edge points satisfying step S902 (No at step S903), the edge image is not erased and step S is performed as it is.
Move to 906. The edge image at that time is, for example, as shown in FIG.
It is like 1 (c). When the process of extracting both the vertical and horizontal edge points is completed in this way, the process proceeds to the process of extracting the horizontal edge points. Specifically, after calculating the lateral direction amount (Nh) (step S906), the lateral direction amount (Nh) is larger than a predetermined value, for example, S / 4, and the lateral direction amount (Nh).
The point at which h) is the maximum is the horizontal edge point (step S9).
07).

【0042】そして、ステップS907を満足する横エ
ッジ点が存在する場合には(ステップS908肯定、図
12(a))、縦横両エッジ点の場合と同様に、横エッ
ジ点の周りのエッジ画像を消去し(ステップS90
9)、消去した画像を新たなエッジ画像として(ステッ
プS910)、再度、各エッジ点に観測窓を当てはめて
方向量を算出し、繰り返し処理する(ステップS906
〜S910)。ステップS907を満足する横エッジ点
が存在しなくなると(ステップS908否定)、エッジ
画像の消去をおこなうことなくそのままステップS91
1に移行する。このときのエッジ画像は例えば図12
(b)のようになっている。
If there is a horizontal edge point satisfying step S907 (Yes at step S908, FIG. 12A), the edge image around the horizontal edge point is set as in the case of both vertical and horizontal edge points. Erase (step S90
9), the erased image is used as a new edge image (step S910), the observation window is applied to each edge point again to calculate the direction amount, and the process is repeated (step S906).
~ S910). When there are no horizontal edge points that satisfy step S907 (No at step S908), the edge image is not erased and step S91 is directly performed.
Move to 1. The edge image at this time is, for example, as shown in FIG.
It looks like (b).

【0043】このようにして、横エッジ点の抽出処理を
終えたならば、縦エッジ点の抽出処理に移行する。具体
的には、縦方向量(Nv)を算定した後(ステップS91
1)、この縦方向量(Nv)が所定値、たとえばS/4よ
りも大きく、かつ、縦方向量(Nv)が最大となる点を縦
エッジ点とする(ステップS912)。
When the horizontal edge point extraction processing is completed in this way, the process moves to vertical edge point extraction processing. Specifically, after calculating the vertical direction amount (Nv) (step S91)
1) A point where the vertical direction amount (Nv) is larger than a predetermined value, for example, S / 4, and the vertical direction amount (Nv) is maximum is set as a vertical edge point (step S912).

【0044】そして、ステップS912を満足する縦エ
ッジ点が存在する場合には(ステップS913肯定、図
12(c))、縦エッジ点の周りのエッジ画像を消去し
(ステップS914)、消去した画像を新たなエッジ画
像として(ステップS915)、上記ステップS911
〜S915の処理を繰り返す。なお、ステップS912
を満足する縦エッジ点が存在しなくなると(ステップS
913否定)、エッジ画像の消去をおこなうことなく処
理を終了する。
If there is a vertical edge point satisfying step S912 (Yes at step S913, FIG. 12C), the edge image around the vertical edge point is erased (step S914), and the erased image is obtained. As a new edge image (step S915), and the above step S911.
~ The process of S915 is repeated. Note that step S912
If there is no vertical edge point that satisfies the condition (step S
(No at 913), the process ends without erasing the edge image.

【0045】なお、ここでは説明の便宜上その説明を省
略したが、観測窓内ですでに縦横両エッジ点が存在して
いる場合には、横エッジ点や縦エッジ点の抽出処理はお
こなわれず、縦横両エッジ点が存在せず、かつ、横エッ
ジ点が存在する場合にも、縦エッジ点は抽出されない。
Although the description is omitted here for convenience of explanation, when both vertical and horizontal edge points already exist in the observation window, the horizontal edge points and vertical edge points are not extracted, Even if both the vertical and horizontal edge points do not exist and the horizontal edge points do exist, the vertical edge points are not extracted.

【0046】(対応点の検出処理について)次に、図1
に示した対応点検出部106の処理手順について説明す
る。図13は、図1に示した対応点検出部106の処理
手順を示すフローチャートであり、図14は、対応点を
検出する際の画像の一例を示す図である。図13に示す
ように、ここでは縦横両エッジ点、横エッジ点、縦エッ
ジ点の順序で対応点を検出している。縦横両エッジ点
は、横エッジ点や縦エッジ点よりも対応付けの特徴を多
く持っているからである。
(Corresponding Point Detection Processing) Next, referring to FIG.
The processing procedure of the corresponding point detection unit 106 shown in will be described. FIG. 13 is a flowchart showing a processing procedure of the corresponding point detecting unit 106 shown in FIG. 1, and FIG. 14 is a diagram showing an example of an image when detecting corresponding points. As shown in FIG. 13, here, corresponding points are detected in the order of vertical and horizontal edge points, horizontal edge points, and vertical edge points. This is because both vertical and horizontal edge points have more features of association than horizontal edge points and vertical edge points.

【0047】同図に示すように、縦横両エッジ点に対応
する入力画像上の対応点をハフ変換により探索する(ス
テップS1301)。特徴点はエッジ上にあるので、対
応点も必ずエッジ上にあると考えられるため、ハフ変換
で求めた対応点から最も近い点を対応点とするのであ
る。その結果、図14(a)に示すように、縦横両エッ
ジ点(xi,yi)に対応する対応点(xi',yi')が得られ
る。
As shown in the figure, corresponding points on the input image corresponding to both vertical and horizontal edge points are searched by Hough transform (step S1301). Since the feature point is on the edge, the corresponding point is also considered to be on the edge without fail. Therefore, the point closest to the corresponding point obtained by the Hough transform is set as the corresponding point. As a result, as shown in FIG. 14A, corresponding points (xi ', yi') corresponding to both vertical and horizontal edge points (xi, yi) are obtained.

【0048】その後、縦横両エッジ点(xi,yi)を対応
点(xi',yi')に変換するアフィン変換係数を次式に示
す最小二乗法により求める(ステップS1302)。
After that, affine transformation coefficients for transforming both vertical and horizontal edge points (xi, yi) into corresponding points (xi ', yi') are obtained by the least square method shown in the following equation (step S1302).

【数1】 [Equation 1]

【0049】そして、対応点とアフィン変換係数で求め
た対応点のずれ量eiを算定し(ステップS1303)、
図14(b)に示すようにずれ量が大きい縦横両エッジ
点(ei>Cσ)とずれ量が小さい縦横両エッジ点(ei≦
Cσ)に分類する(ステップS1304)。そして、ず
れ量が小さい縦横両エッジ点だけでアフィン変換係数を
再度求める(ステップS1305)。Cは扱う入力画像
の歪の程度によって定められるべき係数であって、例え
ばC=1でよい。
Then, the shift amount ei between the corresponding point and the corresponding point obtained by the affine transformation coefficient is calculated (step S1303),
As shown in FIG. 14B, both vertical and horizontal edge points (ei> Cσ) with a large shift amount and vertical and horizontal edge points with a small shift amount (ei ≦ Cσ).
Cσ) (step S1304). Then, the affine transformation coefficient is obtained again only with respect to both the vertical and horizontal edge points having a small shift amount (step S1305). C is a coefficient that should be determined according to the degree of distortion of the input image to be handled, and may be C = 1, for example.

【0050】そして、ずれ量の大きな縦横両エッジ点に
ついては、三角形相似比を使って対応点を求める(ステ
ップS1306)。図15は、ずれ量の大きな縦横両エ
ッジ点の対応点の求め方を説明するための説明図であ
る。同図(a)に示す縦横両エッジ点1501が同図
(b)に示す対応点1502に対応付けられてしまう
と、ずれ量が大きくなってしまう。
For both vertical and horizontal edge points having a large displacement amount, corresponding points are obtained using the triangle similarity ratio (step S1306). FIG. 15 is an explanatory diagram for explaining how to obtain corresponding points of both vertical and horizontal edge points having a large shift amount. If both the vertical and horizontal edge points 1501 shown in FIG. 9A are associated with the corresponding points 1502 shown in FIG. 9B, the amount of deviation becomes large.

【0051】このため、この縦横両エッジ点1502
(同図(c)に示す点C)と、この点Cの左下に位置す
るずれ量の小さな縦横両エッジ点(同図(c)に示す点
B)と、点Cの右下に位置するずれ量の小さな縦横両エ
ッジ点(同図(c)に示す点A)とで形成される三角形
を考える。このように考えると、同図(d)に示すよう
に、点Aおよび点Bの対応点がそれぞれ点A'および点
B'となるので、三角形ABCと三角形A'B'C'の相似
比から、点Cの仮の対応点C'が求まる。この点C'の近
傍に求めたい点Cの対応点が存在するはずである。
Therefore, both vertical and horizontal edge points 1502
(Point C shown in FIG. 6C), vertical and horizontal edge points with a small shift amount located at the lower left of this point C (point B shown in FIG. 7C), and located at the lower right of point C. Consider a triangle formed by both vertical and horizontal edge points (point A shown in FIG. 7C) with a small displacement amount. Considering in this way, as shown in FIG. 7D, the corresponding points of points A and B become points A ′ and B ′, respectively, so that the similarity ratio between triangle ABC and triangle A′B′C ′ is From, a temporary corresponding point C ′ of the point C is obtained. There should be a corresponding point of the point C to be obtained near this point C ′.

【0052】すなわち、点A'の座標を(ax',ay')、点
C'の座標を(cx',cy')とし、ABおよびA'B'間の距
離をそれぞれABおよびA'B'とすると、
That is, the coordinates of the point A'is (ax ', ay'), the coordinates of the point C'is (cx ', cy'), and the distances AB and A'B 'are AB and A'B, respectively. ',

【数2】 によって点C'を求めることができる。[Equation 2] The point C ′ can be obtained by

【0053】そして、テンプレート上の縦横両エッジ点
Cの対応点を入力画像上の上記仮の点C'を中心とした
ハフ変換による探索で求める。このときの画像の一辺
は、ステップS1301でおこなったハフ変換の一辺よ
りも短くする。このように、ハフ変換の範囲を狭くする
ことで、より正確な対応点を求めることができる。
Then, the corresponding points of the vertical and horizontal edge points C on the template are obtained by a search by Hough transform centering on the temporary point C'on the input image. One side of the image at this time is made shorter than one side of the Hough transform performed in step S1301. In this way, by narrowing the range of Hough transform, more accurate corresponding points can be obtained.

【0054】図16は、2つの三角形の相似比を使って
ハフ変換のマッチング量を求めるときの参照点を説明す
るための説明図である。同図(c)において、点xS
は、縦横両エッジ点Cよりもx座標が小さく、かつ、点
Cとの距離が最短の点であり、点xLは縦横両エッジ点
Cよりもx座標が大きく、かつ、点Cとの距離が最短の
点である。
FIG. 16 is an explanatory diagram for explaining reference points when the matching amount of the Hough transform is obtained using the similarity ratio of two triangles. In the same figure (c), point xS
Is a point whose x-coordinate is smaller than both vertical and horizontal edge points C and has the shortest distance to the point C, and the point xL has a larger x-coordinate than both vertical and horizontal edge points C and the distance to the point C. Is the shortest point.

【0055】点ySおよび点yLはy座標に関して同様
な関係にある点である。また、それらの入力画像のエッ
ジ画像上での対応点をxS'、xL'、yS'、yL'とす
ると、ハフ変換では、次式に示す評価量が最大となる対
応点を求めることになる。Mはマッチング量、すなわち
ハフ変換における投票値である。 M−α×(|1−(v1'/v0')/(v1/v0)|2+|1−(v0'/v
2')/(v0/v2)|2 +|1−(v2'/v1')/(v2/v1)|2+|1−
(w1'/w0')/(w1/w0)|2 +|1−(w0'/w2')/(w0/w2)|2
|1−(w2'/w1')/(w2/w1)|2
The points yS and yL are similar with respect to the y coordinate.
It is a point that has a relationship. Also, edit the input images.
Let the corresponding points on the image be xS ', xL', yS ', yL'.
Then, in the Hough transform, the pair with the maximum evaluation amount given by
You will be asked for a response point. M is the matching amount,
This is the voting value in the Hough transform. M-α x (| 1- (v1 '/ v0') / (v1 / v0) |2+ | 1- (v0 '/ v
2 ') / (v0 / v2) |2 + | 1- (v2 '/ v1') / (v2 / v1) |2+ | 1-
(w1 '/ w0') / (w1 / w0) |2 + | 1- (w0 '/ w2') / (w0 / w2) |2+
| 1- (w2 '/ w1') / (w2 / w1) |2)

【0056】このようにして縦横両エッジ点の対応点を
検出したならば、横エッジ点の対応点、縦エッジ点の対
応点、境界上の特徴点の対応点を順次算定する(ステッ
プS1307〜S1309)。
When the corresponding points of the vertical and horizontal edge points are detected in this way, the corresponding points of the horizontal edge points, the corresponding points of the vertical edge points, and the corresponding points of the feature points on the boundary are sequentially calculated (steps S1307 to S1307). S1309).

【0057】具体的には、横エッジ点の対応点を求める
場合には、ずれ量が小さな特徴点(基準点)の中で横エ
ッジ点よりもx座標が小さく、かつ、横エッジ点との距
離が最短の点xSと、横エッジ点よりもx座標が大き
く、かつ、横エッジ点との距離が最短の点xLとを参照
点とし、縦横両エッジ点の場合と同様に回転度数と三角
形相似比を用いて入力画像のエッジ画像上でハフ変換の
中心点を求め、求めた中心点をハフ変換の中心点とし
て、次式の評価量が最大となる対応点を求める。
Specifically, when the corresponding point of the horizontal edge point is obtained, the x coordinate is smaller than that of the horizontal edge point among the feature points (reference points) having a small shift amount, and the horizontal edge point The point xS having the shortest distance and the point xL having a larger x coordinate than the horizontal edge point and having the shortest distance to the horizontal edge point are used as reference points, and the rotation frequency and the triangle are the same as in the case of both the vertical and horizontal edge points. Using the similarity ratio, the center point of the Hough transform is obtained on the edge image of the input image, and the obtained center point is used as the center point of the Hough transform, and the corresponding point having the maximum evaluation amount of the following equation is obtained.

【0058】M−2×α×(|1−(v1'/v0')/(v1/v0)
2+|1−(v0'/v2')/(v0/v2)|2+|1−(v2'/v1')/
(v2/v1)|2
M-2 × α × (│1- (v1 '/ v0') / (v1 / v0)
2 + | 1- (v0 '/ v2') / (v0 / v2) | 2 + | 1- (v2 '/ v1') /
(v2 / v1) | 2 )

【0059】また、縦エッジ点の対応点を求める場合に
は、基準点の中で縦エッジ点よりy座標が小さく、か
つ、縦エッジ点との距離が最短の点ySと、縦エッジ点
よりもy座標が大きく、かつ、縦エッジ点との距離が最
短の点yLとを参照点とし、縦横両エッジ点の場合と同
様に回転度数と三角形相似比を用いて入力画像のエッジ
画像上でハフ変換の中心点を求め、求めた中心点をハフ
変換の中心点として、次式の評価量が最大となる対応点
を求める。
Further, when the corresponding points of the vertical edge points are obtained, a point yS having a smaller y coordinate than the vertical edge points among the reference points and having the shortest distance to the vertical edge points, and the vertical edge points. In the edge image of the input image, the y-coordinate is large and the point yL having the shortest distance from the vertical edge point is used as a reference point, and the rotation frequency and the triangle similarity ratio are used as in the case of both the vertical and horizontal edge points. The center point of the Hough transform is obtained, and the obtained center point is used as the center point of the Hough transform to find the corresponding point that maximizes the evaluation amount of the following equation.

【0060】M−2×α×(|1−(w1'/w0')/(w1/w0)
2+|1−(w0'/w2')/(w0/w2)|2+|1−(w2'/w1')/
(w2/w1)|2
M-2 × α × (│1- (w1 '/ w0') / (w1 / w0)
2 + | 1- (w0 '/ w2') / (w0 / w2) | 2 + | 1- (w2 '/ w1') /
(w2 / w1) | 2 )

【0061】また、境界上の特徴点を求める場合には、
テンプレートの最も外側に、均等に位置し、画像を取り
囲むように特徴点を追加する。境界上の特徴点に対応す
る対応点は、アフィン変換式に代入して求める。
When the feature points on the boundary are to be obtained,
At the outermost part of the template, feature points are added evenly and surround the image. Corresponding points corresponding to the feature points on the boundary are obtained by substituting into the affine transformation formula.

【0062】(データ間の補間について)上記一連の説
明により、縦横両エッジ点、横エッジ点、縦エッジ点を
特徴点として求め、各特徴点に対応する対応点を求める
ことができるが、これらを用いると、データ間の補間を
おこなうこともできる。
(Regarding Interpolation between Data) According to the above series of description, both vertical and horizontal edge points, horizontal edge points, and vertical edge points can be obtained as feature points, and corresponding points corresponding to each feature point can be obtained. With, it is also possible to interpolate between data.

【0063】図17は、データ間の補間を説明するため
の説明図である。図17(a)に示すように、特徴点間
を結ぶドロネー三角形網を作り、各要素がどの三角形の
内側に位置するかを検索する。そして、求めた三角形頂
点の対応点の座標と各点における変位量から、各要素の
変位量を線形変換で求める。たとえば、図17(b)点
Aの変位量が(a1,a2)であり、点Bの変位量が(b1,b
2)である場合には、点Pの変位量(c1,c2)は、次式で
求めることができる。なお、αおよびβはベクトルOP
をベクトルOAおよびベクトルOBについて一次分解し
た係数である。
FIG. 17 is an explanatory diagram for explaining the interpolation between data. As shown in FIG. 17A, a Delaunay triangulation network connecting the feature points is created, and the inside of which triangle each element is located is searched. Then, the displacement amount of each element is obtained by linear conversion from the obtained coordinates of the corresponding points of the triangular vertices and the displacement amount at each point. For example, the displacement amount of the point A in FIG. 17B is (a1, a2), and the displacement amount of the point B is (b1, b2).
In the case of 2), the displacement amount (c1, c2) of the point P can be obtained by the following equation. Note that α and β are the vector OP
Is a coefficient obtained by linearly decomposing vector OA and vector OB.

【数3】 [Equation 3]

【0064】上述してきたように、本実施の形態によれ
ば、特徴点抽出部104により3種類の特徴点(縦横両
エッジ点、横エッジ点および縦エッジ点)を抽出すると
ともに、対応点検出部106では、ハフ変換で求めた対
応点とアフィン変換係数から求まる対応点のずれ量を求
め、このずれ量の少ない対応点を基準点とする三角形相
似比を使って対応点を特定するよう構成したので、歪み
を伴う帳票の入力画像と歪みのないテンプレートとを迅
速かつ正確に対応付けることができる。
As described above, according to the present embodiment, the feature point extraction unit 104 extracts three types of feature points (vertical and horizontal edge points, horizontal edge points and vertical edge points) and detects corresponding points. The unit 106 is configured to obtain a shift amount between the corresponding point obtained by the Hough transform and the corresponding point obtained from the affine transformation coefficient, and to specify the corresponding point using a triangle similarity ratio with the corresponding point having a small shift amount as a reference point. Therefore, the input image of the form with distortion and the template without distortion can be associated with each other quickly and accurately.

【0065】なお、本実施の形態では、帳票の画像を対
応付ける場合について説明したが、本発明はこれに限定
されるものではなく、帳票以外の他の画像を対応付ける
場合に適用することもできる。
In the present embodiment, the case where the images of the form are associated with each other has been described, but the present invention is not limited to this, and the invention can be applied to the case where images other than the form are associated with each other.

【0066】また、本実施の形態では、縦横両エッジ
点、縦エッジ点および横エッジ点をそれぞれ図2および
その説明により定義したが、本発明はこれに限定される
ものではなく、たとえば、縦横両エッジ点として枠のコ
ーナーを、横エッジ点および縦エッジ点として縦横両エ
ッジ点の内分点を、マニュアル操作でマウスでポイント
するよう構成することもできる。
Further, in the present embodiment, both vertical and horizontal edge points, vertical edge points, and horizontal edge points are defined by FIG. 2 and its description, but the present invention is not limited to this, and, for example, vertical and horizontal edge points. It is also possible to manually point the corners of the frame as both edge points and the internal division points of both horizontal and vertical edge points as horizontal edge points and vertical edge points with a mouse.

【0067】[0067]

【発明の効果】以上説明したように、請求項1の発明に
よれば、参照画像のエッジ画像中に所在する各エッジ点
における方向ベクトルの横方向量および縦方向量に基づ
いて、参照画像の縦横両エッジ点、横エッジ点および縦
エッジ点を特徴点として抽出し、参照画像の各特徴点に
対応する入力画像上の対応点を検出するよう構成したの
で、歪みを伴う入力画像と歪みのない参照画像とを迅速
かつ正確に対応付けることが可能な歪み画像の対応付け
方法が得られるという効果を奏する。
As described above, according to the first aspect of the invention, the reference image of the reference image is calculated based on the horizontal direction amount and the vertical direction amount of the direction vector at each edge point located in the edge image of the reference image. Both vertical and horizontal edge points, horizontal edge points, and vertical edge points are extracted as feature points, and the corresponding points on the input image corresponding to each feature point of the reference image are detected. An effect is obtained that a distorted image associating method capable of quickly and accurately associating with a non-reference image is obtained.

【0068】また、請求項2の発明によれば、参照画像
のエッジ画像の各エッジ点を中心とした所定の領域内の
横方向量と縦方向量の加算値を縦横両方向量とし、所定
の領域内の横方向量および縦方向量がそれぞれ所定の値
以上であり、かつ、縦横両方向量が最大となる点を縦横
両エッジ点として抽出し、参照画像のエッジ画像の各エ
ッジ点を中心とした所定の領域内の横方向量が所定の値
以上であり、かつ、該横方向量が最大となる点を横エッ
ジ点として抽出し、参照画像のエッジ画像の各エッジ点
を中心とした所定の領域内の縦方向量が所定の値以上で
あり、かつ、該縦方向量が最大となる点を縦エッジ点と
して抽出するよう構成したので、対応点に係る情報を多
く持つエッジ点を特徴点とし、もって正確な対応付けを
おこなうことが可能な歪み画像の対応付け方法が得られ
るという効果を奏する。
According to the second aspect of the present invention, the sum of the horizontal and vertical amounts within a predetermined area centered on each edge point of the edge image of the reference image is taken as the vertical and horizontal bidirectional amounts, and the predetermined amount is set. The horizontal and vertical amounts in the area are respectively greater than or equal to a predetermined value, and the points with the maximum vertical and horizontal directions are extracted as both vertical and horizontal edge points, and each edge point of the edge image of the reference image is set as the center. A point in which the lateral amount in the prescribed area is equal to or greater than a prescribed value and the lateral amount is maximized is extracted as a lateral edge point, and a predetermined value is set around each edge point of the edge image of the reference image. Since the point in which the vertical direction amount in the area is equal to or larger than a predetermined value and the vertical direction amount is maximum is extracted as a vertical edge point, an edge point having a lot of information about corresponding points is characterized. It is possible to make a point and to make an accurate correspondence. Mapping methods such distorted image is an effect that can be obtained.

【0069】また、請求項3の発明によれば、あるエッ
ジ点を中心とする所定の領域内の縦横両エッジ点、横エ
ッジ点または縦エッジ点を抽出した際に、エッジ画像の
所定の領域内の画素値を消去し、この消去したエッジ画
像の特徴量に基づいて次のエッジ点を抽出する処理を繰
り返すよう構成したので、処理の高速化を図ることが可
能な歪み画像の対応付け方法が得られるという効果を奏
する。
According to the third aspect of the present invention, when the vertical and horizontal both edge points, the horizontal edge points or the vertical edge points within a predetermined area centering on an edge point are extracted, the predetermined area of the edge image is extracted. Since it is configured to repeat the process of erasing the pixel value in the inside and extracting the next edge point based on the feature amount of the erased edge image, a distorted image associating method capable of speeding up the process The effect is obtained.

【0070】また、請求項4の発明によれば、参照画像
の特徴点に対応する入力画像上の第1の対応点をハフ変
換により算定し、特徴点を対応点に変換するアフィン変
換係数を算定し、第1の対応点とアフィン変換係数から
求まる第2の対応点のずれ量を所定のしきい値と比較し
て、該しきい値以下となる第3の対応点を基準点とした
三角形相似比により、ずれ量が前記所定のしきい値を越
える第4の対応点を特定するよう構成したので、ずれ量
が大きな対応点を効率良く再探索することが可能な歪み
画像の対応付け方法が得られるという効果を奏する。
According to the invention of claim 4, the first corresponding point on the input image corresponding to the characteristic point of the reference image is calculated by the Hough transform, and the affine transformation coefficient for converting the characteristic point into the corresponding point is calculated. The calculated amount of deviation between the first corresponding point and the second corresponding point obtained from the affine transformation coefficient is compared with a predetermined threshold value, and the third corresponding point that is less than the threshold value is used as a reference point. Since the fourth corresponding point having the deviation amount exceeding the predetermined threshold value is specified by the triangle similarity ratio, the correspondence of the distorted image can be efficiently searched again for the corresponding point having the large deviation amount. There is an effect that a method can be obtained.

【0071】また、請求項5の発明によれば、第3の対
応点を基準点とした三角形相似比により求めた入力画像
のエッジ画像上のエッジ点を中心点としたハフ変換によ
り評価量が最大となる前記第4の対応点を特定するよう
構成したので、ハフ変換の精度を上げつつ、迅速かつ効
率良く対応付けをおこなうことが可能な歪み画像の対応
付け方法が得られるという効果を奏する。
Further, according to the invention of claim 5, the evaluation amount is obtained by the Hough transform with the edge point on the edge image of the input image obtained by the triangle similarity ratio using the third corresponding point as the reference point as the center point. Since the fourth corresponding point that is the maximum is specified, it is possible to obtain the distorted image matching method capable of performing the matching quickly and efficiently while increasing the accuracy of the Hough transform. .

【0072】また、請求項6の発明によれば、参照画像
のエッジ画像中に所在する各エッジ点における方向ベク
トルの横方向量および縦方向量に基づいて、参照画像の
縦横両エッジ点、横エッジ点および縦エッジ点を特徴点
として抽出し、参照画像の各特徴点に対応する入力画像
上の対応点を検出するよう構成したので、歪みを伴う入
力画像と歪みのない参照画像とを迅速かつ正確に対応付
けることが可能な歪み画像の対応付け装置が得られると
いう効果を奏する。
According to the sixth aspect of the invention, the vertical and horizontal edge points of the reference image and the horizontal direction of the reference image are determined based on the horizontal and vertical amounts of the direction vector at each edge point located in the edge image of the reference image. Since edge points and vertical edge points are extracted as feature points and the corresponding points on the input image corresponding to each feature point of the reference image are detected, the input image with distortion and the reference image without distortion can be quickly processed. In addition, it is possible to obtain an apparatus for associating a distorted image that can be accurately associated.

【0073】また、請求項7の発明によれば、参照画像
のエッジ画像の各エッジ点を中心とした所定の領域内の
横方向量と縦方向量の加算値を縦横両方向量とし、所定
の領域内の横方向量および縦方向量がそれぞれ所定の値
以上であり、かつ、縦横両方向量が最大となる点を縦横
両エッジ点として抽出し、参照画像のエッジ画像の各エ
ッジ点を中心とした所定の領域内の横方向量が所定の値
以上であり、かつ、該横方向量が最大となる点を横エッ
ジ点として抽出し、参照画像のエッジ画像の各エッジ点
を中心とした所定の領域内の縦方向量が所定の値以上で
あり、かつ、該縦方向量が最大となる点を縦エッジ点と
して抽出するよう構成したので、対応点に係る情報を多
く持つエッジ点を特徴点とし、もって正確な対応付けを
おこなうことが可能な歪み画像の対応付け装置が得られ
るという効果を奏する。
According to the seventh aspect of the present invention, the sum of the horizontal and vertical amounts within a predetermined area centered on each edge point of the edge image of the reference image is defined as the vertical and horizontal bidirectional amounts, The horizontal and vertical amounts in the area are respectively greater than or equal to a predetermined value, and the points with the maximum vertical and horizontal directions are extracted as both vertical and horizontal edge points, and each edge point of the edge image of the reference image is set as the center. A point in which the lateral amount in the prescribed area is equal to or greater than a prescribed value and the lateral amount is maximized is extracted as a lateral edge point, and a predetermined value is set around each edge point of the edge image of the reference image. Since the point in which the vertical direction amount in the area is equal to or larger than a predetermined value and the vertical direction amount is maximum is extracted as a vertical edge point, an edge point having a lot of information about corresponding points is characterized. It is possible to make a point and to make an accurate correspondence. An effect that is obtained associating device such distorted image is.

【0074】また、請求項8の発明によれば、参照画像
の特徴点に対応する入力画像上の第1の対応点をハフ変
換により算定し、特徴点を対応点に変換するアフィン変
換係数を算定し、第1の対応点とアフィン変換係数から
求まる第2の対応点のずれ量を所定のしきい値と比較し
て、該しきい値以下となる第3の対応点を基準点とした
三角形相似比により、ずれ量が前記所定のしきい値を越
える第4の対応点を特定するよう構成したので、ずれ量
が大きな対応点を効率良く再探索することが可能な歪み
画像の対応付け装置が得られるという効果を奏する。
Further, according to the invention of claim 8, the first corresponding point on the input image corresponding to the characteristic point of the reference image is calculated by the Hough transform, and the affine transformation coefficient for converting the characteristic point into the corresponding point is calculated. The calculated amount of deviation between the first corresponding point and the second corresponding point obtained from the affine transformation coefficient is compared with a predetermined threshold value, and the third corresponding point that is less than the threshold value is used as a reference point. Since the fourth corresponding point having the deviation amount exceeding the predetermined threshold value is specified by the triangle similarity ratio, the correspondence of the distorted image can be efficiently searched again for the corresponding point having the large deviation amount. There is an effect that the device can be obtained.

【0075】また、請求項9の発明によれば、請求項1
〜5のいずれか一つに記載された方法をコンピュータに
実行させることで、そのプログラムを機械読み取り可能
となり、これによって、請求項1〜5のいずれか一つの
動作をコンピュータによって実現することが可能なプロ
グラムが得られるという効果を奏する。
According to the invention of claim 9, claim 1
By causing a computer to execute the method described in any one of claims 1 to 5, the program can be machine-readable, and thereby the operation of any one of claims 1 to 5 can be realized by the computer. There is an effect that various programs can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施の形態に係る画像対応付け装置
の構成を示す機能ブロック図である。
FIG. 1 is a functional block diagram showing a configuration of an image associating device according to an embodiment of the present invention.

【図2】方向量の計算概念を説明するための説明図であ
る。
FIG. 2 is an explanatory diagram for explaining a concept of calculating a direction amount.

【図3】図1に示した画像対応付け装置によるテンプレ
ート登録モード時の処理手順を示すフローチャートであ
る。
3 is a flowchart showing a processing procedure in a template registration mode by the image associating device shown in FIG.

【図4】テンプレート登録モード時のテンプレートの一
例を示す図である。
FIG. 4 is a diagram showing an example of a template in a template registration mode.

【図5】縦横両エッジ点を、横エッジ点および縦エッジ
点を示した図4(d)の拡大図である。
5 is an enlarged view of FIG. 4D showing vertical and horizontal edge points, a horizontal edge point and a vertical edge point.

【図6】図1に示した画像対応付け装置による対応付け
モード時の処理手順を示すフローチャートである。
6 is a flowchart showing a processing procedure in an associating mode by the image associating apparatus shown in FIG.

【図7】対応付けモード時の入力画像などの一例を示す
図である。
FIG. 7 is a diagram showing an example of an input image and the like in the association mode.

【図8】縦横両エッジ点を、横エッジ点および縦エッジ
点を示した図7(d)の拡大図である。
FIG. 8 is an enlarged view of FIG. 7D showing vertical and horizontal edge points, a horizontal edge point, and a vertical edge point.

【図9】図1に示した特徴点抽出部による特徴点の抽出
処理手順を示すフローチャート(1)である。
9 is a flowchart (1) showing a characteristic point extraction processing procedure by the characteristic point extraction unit shown in FIG. 1;

【図10】図1に示した特徴点抽出部による特徴点の抽
出処理手順を示すフローチャート(2)である。
10 is a flowchart (2) showing a procedure of extracting feature points by the feature point extracting section shown in FIG. 1.

【図11】特徴点抽出処理途中の画像データの一例を示
す説明図(1)である。
FIG. 11 is an explanatory diagram (1) illustrating an example of image data in the middle of feature point extraction processing.

【図12】特徴点抽出処理途中の画像データの一例を示
す説明図(2)である。
FIG. 12 is an explanatory diagram (2) illustrating an example of image data in the middle of feature point extraction processing.

【図13】図1に示した対応点検出部の処理手順を示す
フローチャートである。
13 is a flowchart showing a processing procedure of a corresponding point detection unit shown in FIG.

【図14】対応点を検出する際の画像の一例を示す図で
ある。
FIG. 14 is a diagram showing an example of an image when detecting corresponding points.

【図15】ずれ量の大きな縦横両エッジ点の対応点の求
め方を説明するための説明図である。
FIG. 15 is an explanatory diagram for explaining how to obtain corresponding points of both vertical and horizontal edge points having a large shift amount.

【図16】2つの三角形の相似比を使ってハフ変換のマ
ッチング量を求めるときの参照点を説明するための説明
図である。
FIG. 16 is an explanatory diagram for explaining reference points when a matching amount of Hough transform is calculated using a similarity ratio of two triangles.

【図17】データ間の補間を説明するための説明図であ
る。
FIG. 17 is an explanatory diagram for explaining interpolation between data.

【図18】入力画像に生ずる歪みを説明するための説明
図である。
FIG. 18 is an explanatory diagram for explaining distortion that occurs in an input image.

【符号の説明】[Explanation of symbols]

100 画像対応付け装置 101 画像入力部 102 切出処理部 103 エッジ画像作成部 104 特徴点抽出部 105 記憶部 106 対応点検出部 100 image matching device 101 Image input section 102 Cutting processing unit 103 Edge image creation unit 104 Feature point extraction unit 105 storage 106 corresponding point detector

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B029 BB03 CC29 EE12 5B057 AA11 CA08 CA12 CA16 CB08 CB12 CB16 CD12 CE15 DA08 DB02 DB09 DC05 DC13 DC16 DC34 DC36 DC39    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B029 BB03 CC29 EE12                 5B057 AA11 CA08 CA12 CA16 CB08                       CB12 CB16 CD12 CE15 DA08                       DB02 DB09 DC05 DC13 DC16                       DC34 DC36 DC39

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 歪みのない参照画像の各特徴点をそれぞ
れ歪みを伴う入力画像の対応点に対応付ける歪み画像の
対応付け方法であって、 前記参照画像のエッジ画像中に所在する各エッジ点にお
ける方向ベクトルの横方向量および縦方向量に基づい
て、前記参照画像の縦横両エッジ点、横エッジおよび縦
エッジ点を特徴点として抽出する特徴点抽出工程と、 前記参照画像の各特徴点に対応する前記入力画像上の対
応点を検出する対応点検出工程とを含んだことを特徴と
する歪み画像の対応付け方法。
1. A method of associating a distorted image in which each feature point of a reference image having no distortion is associated with a corresponding point of an input image accompanied by distortion, wherein at each edge point existing in the edge image of the reference image Corresponding to each feature point of the reference image, a feature point extraction step of extracting both vertical and horizontal edge points of the reference image, horizontal edge and vertical edge points as feature points based on the horizontal direction amount and the vertical direction amount of the direction vector. And a corresponding point detecting step of detecting corresponding points on the input image.
【請求項2】 前記特徴点抽出工程は、前記参照画像の
エッジ画像の各エッジ点を中心とした所定の領域内の横
方向量と縦方向量の加算値を縦横両方向量とし、前記所
定の領域内の横方向量および縦方向量がそれぞれ所定の
値以上であり、かつ、前記縦横両方向量が最大となる点
を前記縦横両エッジ点として抽出する縦横両エッジ点抽
出工程と、前記参照画像のエッジ画像の各エッジ点を中
心とした所定の領域内の横方向量が所定の値以上であ
り、かつ、該横方向量が最大となる点を前記横エッジ点
として抽出する横エッジ点抽出工程と、前記参照画像の
エッジ画像の各エッジ点を中心とした所定の領域内の縦
方向量が所定の値以上であり、かつ、該縦方向量が最大
となる点を前記縦エッジ点として抽出する縦エッジ点抽
出工程とを含んだことを特徴とする請求項1に記載の歪
み画像の対応付け方法。
2. The feature point extracting step determines a sum of a horizontal direction amount and a vertical direction amount within a predetermined region centered on each edge point of the edge image of the reference image as a vertical and horizontal direction amount, and determines the predetermined amount. A horizontal and vertical edge point extraction step of extracting, as the vertical and horizontal edge points, a point in which the horizontal and vertical amounts in the area are respectively equal to or greater than a predetermined value, and the vertical and horizontal directions are maximum. Horizontal edge point extraction for extracting, as the horizontal edge point, a point in which the horizontal amount within a predetermined area centering on each edge point of the edge image is equal to or more than a predetermined value and the horizontal amount is maximum. Steps, the vertical direction amount within a predetermined area centered on each edge point of the edge image of the reference image is a predetermined value or more, and the point where the vertical direction amount is maximum is the vertical edge point. Vertical edge point extraction step for extracting The method for associating a distorted image according to claim 1.
【請求項3】 前記特徴点抽出工程は、あるエッジ点を
中心とする所定の領域内の縦横両エッジ点、横エッジ点
または縦エッジ点を抽出した際に、前記エッジ画像の所
定の領域内の画素値を消去し、この消去したエッジ画像
の特徴量に基づいて次のエッジ点を抽出する処理を繰り
返すことを特徴とする請求項1または2に記載の歪み画
像の対応付け方法。
3. The feature point extracting step extracts a vertical edge and a horizontal edge point, a horizontal edge point, or a vertical edge point within a predetermined area centered on a certain edge point, and extracts the edge area within a predetermined area of the edge image. 3. The method for associating a distorted image according to claim 1 or 2, wherein the process of erasing the pixel value of, and extracting the next edge point based on the characteristic amount of the erased edge image is repeated.
【請求項4】 前記対応点検出工程は、前記参照画像の
特徴点に対応する前記入力画像上の第1の対応点をハフ
変換により算定するハフ変換工程と、前記特徴点を前記
対応点に変換するアフィン変換係数を算定するアフィン
変換係数算定工程と、前記ハフ変換工程で求めた第1の
対応点と前記アフィン変換係数から求まる第2の対応点
のずれ量を所定のしきい値と比較して、該しきい値以下
となる第3の対応点を基準点とした三角形相似比によ
り、ずれ量が前記所定のしきい値を越える第4の対応点
を特定する特徴点特定工程とを含んだことを特徴とする
請求項1、2または3に記載の歪み画像の対応付け方
法。
4. The Hough transform step of calculating a first corresponding point on the input image corresponding to the feature point of the reference image by Hough transform, and the feature point being the corresponding point. An affine transform coefficient calculating step of calculating the affine transform coefficient to be converted, and a deviation amount between the first corresponding point obtained in the Hough transform step and the second corresponding point obtained from the affine transform coefficient are compared with a predetermined threshold value. And a feature point specifying step of specifying a fourth corresponding point whose shift amount exceeds the predetermined threshold value by a triangle similarity ratio with a third corresponding point which is equal to or less than the threshold value as a reference point. The distortion image associating method according to claim 1, 2 or 3, wherein the distortion image associating method is included.
【請求項5】 前記特徴点特定工程は、前記第3の対応
点を基準点とした三角形相似比により求めた前記入力画
像のエッジ画像上のエッジ点を中心点としたハフ変換に
より評価量が最大となる前記第4の対応点を特定するこ
とを特徴とする請求項4に記載の歪み画像の対応付け方
法。
5. In the feature point specifying step, an evaluation amount is obtained by Hough transform with an edge point on an edge image of the input image obtained by a triangle similarity ratio using the third corresponding point as a reference point as a center point. The method of associating a distorted image according to claim 4, wherein the maximum corresponding fourth corresponding point is specified.
【請求項6】 歪みのない参照画像の各特徴点をそれぞ
れ歪みを伴う入力画像の対応点に対応付ける歪み画像の
対応付け装置であって、 前記参照画像のエッジ画像中に所在する各エッジ点にお
ける方向ベクトルの横方向量および縦方向量に基づい
て、前記参照画像の縦横両エッジ点、横エッジ点および
縦エッジ点を特徴点として抽出する特徴点抽出手段と、 前記参照画像の各特徴点に対応する前記入力画像上の対
応点を検出する対応点検出手段とを備えたことを特徴と
する歪み画像の対応付け装置。
6. A distortion image associating device for associating each feature point of an undistorted reference image with a corresponding point of an input image accompanied by distortion, in each edge point existing in the edge image of the reference image. Based on the horizontal direction amount and the vertical direction amount of the direction vector, both vertical and horizontal edge points of the reference image, feature point extraction means for extracting horizontal edge points and vertical edge points as feature points, and to each feature point of the reference image And a corresponding point detecting means for detecting corresponding points on the corresponding input image.
【請求項7】 前記特徴点抽出手段は、前記参照画像の
エッジ画像の各エッジ点を中心とした所定の領域内の横
方向量と縦方向量の加算値を縦横両方向量とし、前記所
定の領域内の横方向量および縦方向量がそれぞれ所定の
値以上であり、かつ、前記縦横両方向量が最大となる点
を前記縦横両エッジ点として抽出する縦横両エッジ点抽
出手段と、前記参照画像のエッジ画像の各エッジ点を中
心とした所定の領域内の横方向量が所定の値以上であ
り、かつ、該横方向量が最大となる点を前記横エッジ点
として抽出する横エッジ点抽出手段と、前記参照画像の
エッジ画像の各エッジ点を中心とした所定の領域内の縦
方向量が所定の値以上であり、かつ、該縦方向量が最大
となる点を前記縦エッジ点として抽出する縦エッジ点抽
出手段とを備えたことを特徴とする請求項6に記載の歪
み画像の対応付け装置。
7. The feature point extracting means sets an addition value of a horizontal direction amount and a vertical direction amount within a predetermined area centered on each edge point of the edge image of the reference image as a vertical and horizontal direction amount, and the predetermined amount. Vertical and horizontal edge point extraction means for extracting as points the vertical and horizontal edge points, the horizontal and vertical amounts in the region are respectively greater than or equal to a predetermined value, and the vertical and horizontal directions are maximum, and the reference image Horizontal edge point extraction for extracting, as the horizontal edge point, a point in which the horizontal amount within a predetermined area centering on each edge point of the edge image is equal to or more than a predetermined value and the horizontal amount is maximum. And a point in which a vertical direction amount in a predetermined area centered on each edge point of the edge image of the reference image is a predetermined value or more, and the maximum vertical direction amount is the vertical edge point. A vertical edge point extracting means for extracting; The distorted image associating device according to claim 6.
【請求項8】 前記対応点検出手段は、前記参照画像の
特徴点に対応する前記入力画像上の第1の対応点をハフ
変換により算定するハフ変換手段と、前記特徴点を前記
対応点に変換するアフィン変換係数を算定するアフィン
変換係数算定手段と、前記ハフ変換手段で求めた第1の
対応点と前記アフィン変換係数から求まる第2の対応点
のずれ量を所定のしきい値と比較して、該しきい値以下
となる第3の対応点を基準点とした三角形相似比によ
り、ずれ量が前記所定のしきい値を越える第4の対応点
を特定する特徴点特定手段とを備えたことを特徴とする
請求項6または7に記載の歪み画像の対応付け装置。
8. The corresponding point detecting means calculates a first corresponding point on the input image corresponding to a characteristic point of the reference image by a Hough transform, and the characteristic point to the corresponding point. An affine transform coefficient calculating means for calculating an affine transform coefficient to be converted, and a deviation amount between the first corresponding point obtained by the Hough transforming means and the second corresponding point obtained from the affine transform coefficient are compared with a predetermined threshold value. And a feature point specifying means for specifying a fourth corresponding point whose shift amount exceeds the predetermined threshold value by a triangle similarity ratio with the third corresponding point which is less than or equal to the threshold value as a reference point. The distortion image associating device according to claim 6 or 7, further comprising:
【請求項9】 前記請求項1〜5のいずれか一つに記載
された方法をコンピュータに実行させるプログラム。
9. A program that causes a computer to execute the method according to any one of claims 1 to 5.
JP2001353593A 2001-11-19 2001-11-19 Distortion image association method, apparatus, and program Expired - Fee Related JP4128001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001353593A JP4128001B2 (en) 2001-11-19 2001-11-19 Distortion image association method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001353593A JP4128001B2 (en) 2001-11-19 2001-11-19 Distortion image association method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2003157408A true JP2003157408A (en) 2003-05-30
JP4128001B2 JP4128001B2 (en) 2008-07-30

Family

ID=19165588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001353593A Expired - Fee Related JP4128001B2 (en) 2001-11-19 2001-11-19 Distortion image association method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4128001B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100362524C (en) * 2003-10-07 2008-01-16 索尼株式会社 Image matching method, program, and image matching system
JP2017508207A (en) * 2014-02-04 2017-03-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 2D image analyzer
KR101848235B1 (en) * 2016-12-01 2018-04-12 포항공과대학교 산학협력단 A distortion compensation method and device of photoacoustic imaging using optical coherence tomography
JP2020118483A (en) * 2019-01-21 2020-08-06 コニカミノルタ株式会社 Image inspection device, image forming system, image inspection method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100362524C (en) * 2003-10-07 2008-01-16 索尼株式会社 Image matching method, program, and image matching system
JP2017508207A (en) * 2014-02-04 2017-03-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 2D image analyzer
US10074031B2 (en) 2014-02-04 2018-09-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 2D image analyzer
US10192135B2 (en) 2014-02-04 2019-01-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 3D image analyzer for determining the gaze direction
US10592768B2 (en) 2014-02-04 2020-03-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Hough processor
KR101848235B1 (en) * 2016-12-01 2018-04-12 포항공과대학교 산학협력단 A distortion compensation method and device of photoacoustic imaging using optical coherence tomography
WO2018101623A1 (en) * 2016-12-01 2018-06-07 포항공과대학교 산학협력단 Method and device for correcting defocused photoacoustic image distortion using optical coherence tomography image
JP2020118483A (en) * 2019-01-21 2020-08-06 コニカミノルタ株式会社 Image inspection device, image forming system, image inspection method, and program
JP7342364B2 (en) 2019-01-21 2023-09-12 コニカミノルタ株式会社 Image inspection device, image forming system, image inspection method and program

Also Published As

Publication number Publication date
JP4128001B2 (en) 2008-07-30

Similar Documents

Publication Publication Date Title
JPS63145577A (en) Pattern data generating method
WO2020248497A1 (en) Picture scanning document processing method and apparatus, computer device, and storage medium
KR102114367B1 (en) An apparatus for generating training set for artificial neural network performing object area extraction
JPH06195504A (en) Method of extraction of field from scanning image of document and data-processing system
JPH08293001A (en) Image processing unit and method and optical character recognition unit and method
CN112560747A (en) Vehicle-mounted point cloud data-based lane boundary interactive extraction method
JP4950716B2 (en) Image processing system and scanning electron microscope apparatus
US6728392B1 (en) Shape comparison using a rotational variation metric and applications thereof
CA2652522A1 (en) Multi-tracking of video objects
JPH10171922A (en) Ruled line eraser and recording medium
JP4128001B2 (en) Distortion image association method, apparatus, and program
JPH03152670A (en) Graphic processor
JP4908867B2 (en) Geographic image processing system
Habib et al. Line-based modified iterated Hough transform for autonomous single-photo resection
JPH0981740A (en) Diagram input device
JP4143320B2 (en) Drawing conversion method, drawing conversion apparatus, drawing conversion program, and recording medium
JPH08194716A (en) Picture processing method and its device
JP2013061886A (en) Chemical structure diagram recognition system and computer program for chemical structure diagram recognition system
JP5074622B2 (en) Geographic image processing system
JP4080750B2 (en) Character extraction method, character extraction device, and program
JP2011028632A (en) Image processing apparatus, image processing method, program, and recording medium
EP0316003A2 (en) Line figure encoder
EP0316005A2 (en) Figure encoder
JP4159071B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium storing program for realizing the processing method
JP2001236464A (en) Method and device for character extraction and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041007

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees