JPH10162139A - Image processor, and medium where image processing program is recorded - Google Patents

Image processor, and medium where image processing program is recorded

Info

Publication number
JPH10162139A
JPH10162139A JP8317740A JP31774096A JPH10162139A JP H10162139 A JPH10162139 A JP H10162139A JP 8317740 A JP8317740 A JP 8317740A JP 31774096 A JP31774096 A JP 31774096A JP H10162139 A JPH10162139 A JP H10162139A
Authority
JP
Japan
Prior art keywords
image
correlation
image processing
frequency distribution
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8317740A
Other languages
Japanese (ja)
Inventor
Shinichi Okita
晋一 沖田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP8317740A priority Critical patent/JPH10162139A/en
Publication of JPH10162139A publication Critical patent/JPH10162139A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily and fast search a reference image from in an input image as to an image processor, which searches a specified reference image from an externally supplied input image, and a medium where the image processing program for actualizing the processor by using a computer. SOLUTION: The image processor, which searches, from the given input image, the specified reference image, is equipped with a reference means 1, which previously stores a frequency distribution Sρθ in a ρθ Hough space found by processing and input image by Hough transformation, a Hough transforming means 2, which transforms the input image into the frequency distribution Tρθ in the ρθ Hough space by Hough transformation, and a search means 3 which decides the correlation between the said frequency distribution Tρθ and frequency distribution sρθ and judges 'whehther or not a reference image in the input image' from whether or not they correlate to each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、与えられた入力画
像の中から、所定の参照画像を探査する画像処理装置、
およびその装置をコンピュータを用いて実現するための
画像処理プログラムを記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for searching for a predetermined reference image from a given input image,
And a medium recording an image processing program for realizing the apparatus using a computer.

【0002】[0002]

【従来の技術】従来、レーザー加工装置やステッパーで
は、加工対象のアライメントマークなどを自動認識して
位置合わせを行うものが実用化されている。また、文字
の自動認識を行う装置や、ベルトコンベアを流れる物品
の自動区分を行う装置も実用化されている。
2. Description of the Related Art Conventionally, a laser processing apparatus or a stepper has been put to practical use in which alignment is performed by automatically recognizing an alignment mark or the like to be processed. Also, a device for automatically recognizing characters and a device for automatically sorting articles flowing on a belt conveyor have been put to practical use.

【0003】これらの装置では、入力されたカメラの画
像や文字の画像の中から、予め登録された参照画像を探
査する処理が重要となる。このような画像処理に使用す
るため、入力画像の中から参照画像を探査する画像処理
装置や、そのための画像処理プログラムが開発されてい
る。近時、この種の画像処理装置としては、一般化ハフ
変換を利用したものがよく知られている。
In these apparatuses, it is important to search for a pre-registered reference image from an input camera image or character image. For use in such image processing, an image processing apparatus for searching for a reference image from an input image and an image processing program for the same have been developed. Recently, as this type of image processing apparatus, an apparatus using a generalized Hough transform is well known.

【0004】図13は、この種の一般化ハフ変換による
画像処理(従来例)を説明する図である。ここでは、入
力画像内から参照画像71を探査するケースについて説
明する。
FIG. 13 is a diagram for explaining image processing (conventional example) using this kind of generalized Hough transform. Here, a case where the reference image 71 is searched from the input image will be described.

【0005】まず、参照画像71が、画像処理装置に予
め登録される。この登録に際して、画像処理装置は、参
照画像71の上に基準点Rg(Xg,Yg)を設定す
る。この基準点Rgは、参照画像71の重心位置その他
の適当な位置に設定される。次に、画像処理装置は、参
照画像71の濃度値について画素ごとのグラジエントを
求め、このグラジエントの大きさ(エッジ強度)からエ
ッジラインを抽出する。
First, a reference image 71 is registered in the image processing apparatus in advance. At the time of this registration, the image processing apparatus sets a reference point Rg (Xg, Yg) on the reference image 71. The reference point Rg is set at the position of the center of gravity of the reference image 71 or another appropriate position. Next, the image processing apparatus obtains a gradient for each pixel with respect to the density value of the reference image 71, and extracts an edge line from the magnitude (edge strength) of the gradient.

【0006】画像処理装置は、このエッジラインの上の
いくつかの点を、画像の特徴を示す点Fj(以下「特徴
点Fj」という)に選定する。ここで、画像処理装置
は、特徴点Fjの個々について、下記(1)〜(4)の
処理を逐一実行する。
[0006] The image processing apparatus selects some points on the edge line as points Fj (hereinafter, referred to as "characteristic points Fj") indicating the characteristics of the image. Here, the image processing apparatus sequentially executes the following processes (1) to (4) for each of the feature points Fj.

【0007】(1)特徴点Fjのグラジエント方向に基
づいて、特徴点Fjにおけるエッジラインの接線方向θ
jを算出する。 (2)特徴点Fjにおけるエッジラインの接線と、特徴
点Fjおよび基準点Rgを結ぶ直線とがなす方位角φj
を算出する。 (3)特徴点Fjと基準点Rjとの距離rjを算出す
る。 (4)このように算出された値θj,φj,rjを組に
して、内部メモリ上の参照テーブル72に格納する。 以上の処理により、参照画像71をモデル表現した参照
テーブル72が完成する。
(1) Based on the gradient direction of the feature point Fj, the tangential direction θ of the edge line at the feature point Fj
j is calculated. (2) An azimuth φj formed by a tangent to the edge line at the feature point Fj and a straight line connecting the feature point Fj and the reference point Rg.
Is calculated. (3) The distance rj between the feature point Fj and the reference point Rj is calculated. (4) The values θj, φj, and rj thus calculated are grouped and stored in the reference table 72 on the internal memory. Through the above processing, the reference table 72 that represents the reference image 71 as a model is completed.

【0008】この参照テーブル72を用いて、次のよう
に参照画像71の探査が実行される。まず、画像処理装
置は、外部から入力画像を取り込み、入力画像の濃度値
のグラジエントを求める。画像処理装置は、このグラジ
エントの大きさ(エッジ強度)からエッジラインを抽出
する。画像処理装置は、このエッジライン上のいくつか
の点(X,Y)を、入力画像の特徴点Fiに選定する。
The search for the reference image 71 is performed using the reference table 72 as follows. First, the image processing apparatus takes in an input image from the outside and obtains a gradient of density values of the input image. The image processing apparatus extracts an edge line from the size of this gradient (edge intensity). The image processing apparatus selects some points (X, Y) on the edge line as the feature points Fi of the input image.

【0009】ここで、画像処理装置は、入力画像の特徴
点Fiの個々について、下記(1)〜(6)の処理を逐
一実行する。 (1)回転角θr,倍率Sを設定する。 (2)特徴点Fiのグラジエント方向に基づいて、特徴
点Fiにおけるエッジラインの接線方向θiを算出す
る。 (3)参照テーブル72の中から、「接線方向θiと回
転角θrとの加算値」に近い接線方向θjを探索する。 (4)参照テーブル72の中から、探索された接線方向
θjに対応する数値(rj,φj)を得る。 (5)これらの数値に基づいて Xc=X+rj・S・cos(θj+φj) ・・・(1) Yc=Y+rj・S・sin(θj+φj) ・・・(2) を算出し、基準点の候補Rc(Xc,Yc)を得る。 (6)このように得られたパラメータ値Xc,Yc,θ
r,Sに対応して、四次元パラメータ空間に設定された
累積値A(Xc,Yc,θr,S)をインクリメントす
る。
Here, the image processing apparatus executes the following processes (1) to (6) for each of the feature points Fi of the input image. (1) The rotation angle θr and the magnification S are set. (2) The tangent direction θi of the edge line at the feature point Fi is calculated based on the gradient direction of the feature point Fi. (3) Search the reference table 72 for a tangent direction θj close to “the sum of the tangent direction θi and the rotation angle θr”. (4) From the lookup table 72, a numerical value (rj, φj) corresponding to the searched tangential direction θj is obtained. (5) Based on these numerical values, Xc = X + rj · S · cos (θj + φj) (1) Yc = Y + rj · S · sin (θj + φj) (2) is calculated, and the reference point candidate Rc is calculated. (Xc, Yc) is obtained. (6) Parameter values Xc, Yc, θ thus obtained
The cumulative value A (Xc, Yc, θr, S) set in the four-dimensional parameter space is incremented corresponding to r and S.

【0010】以上の処理により、入力画像が、四次元パ
ラメータ空間上に一般化ハフ変換される。画像処理装置
は、このような一般化ハフ変換を、回転角θrおよび倍
率Sを所定の刻み値だけ変更しながら繰り返す。
With the above processing, the input image is subjected to a generalized Hough transform on a four-dimensional parameter space. The image processing apparatus repeats such a generalized Hough transform while changing the rotation angle θr and the magnification S by a predetermined step value.

【0011】仮に、入力画像内に参照画像が含まれてい
ると、累積値Aの度数分布には極大点が生じる。そこ
で、画像処理装置は、所定の閾値を超える累積値A(X
c,Yc,θr,S)を検出ポイントとして抽出する。
この検出ポイントのパラメータ値(Xc,Yc,θr,
S)に基づいて、回転角θrおよび倍率Sで線形写像さ
れた参照画像が、入力画像内の基準点(Xc,Yc)の
位置に存在することが推定される。
If the input image contains a reference image, the frequency distribution of the accumulated value A has a maximum point. Therefore, the image processing apparatus determines that the cumulative value A (X
c, Yc, θr, S) are extracted as detection points.
The parameter values (Xc, Yc, θr,
Based on S), it is estimated that the reference image linearly mapped with the rotation angle θr and the magnification S exists at the position of the reference point (Xc, Yc) in the input image.

【0012】[0012]

【発明が解決しようとする課題】ところで、上述のよう
な画像処理装置では、入力画像の特徴点Fiの数をNf
とし、回転角θrの刻み数をNθとし、倍率Sの刻み数
をNsとすると、(Nf・Nθ・Ns)回の膨大な演算
処理を実行しなければならないという問題点があった。
In the above-described image processing apparatus, the number of feature points Fi of the input image is set to Nf.
If the number of steps of the rotation angle θr is Nθ and the number of steps of the magnification S is Ns, there is a problem that a huge amount of calculation processing (Nf · Nθ · Ns) must be executed.

【0013】さらに、入力画像の画素単位に走査しなが
ら探査を行うような場合には、入力画像の画素サイズを
横Sx画素とし、縦Sy画素とすると、(Sx・Sy・
Nf・Nθ・Ns)回にも及ぶ膨大な演算処理を実行し
なければならないという問題点があった。
Further, in a case where the search is performed while scanning the input image in pixel units, if the pixel size of the input image is horizontal Sx pixels and vertical Sy pixels, (Sx · Sy ·
(Nf · Nθ · Ns).

【0014】このように膨大な演算処理を実行するた
め、参照画像の探査に必要な所要時間が長く、高速な画
像処理を要求される分野には適用できないという問題点
があった。そこで、請求項1に記載の発明では、入力画
像内から参照画像を簡便かつ迅速に探査することができ
る画像処理装置を提供することを目的とする。
As described above, since a huge amount of arithmetic processing is performed, the time required for searching for a reference image is long, and there is a problem that the method cannot be applied to a field requiring high-speed image processing. Therefore, an object of the present invention is to provide an image processing apparatus that can easily and quickly search for a reference image from an input image.

【0015】請求項2に記載の発明では、請求項1の目
的と併せて、入力画像内の参照画像が回転または拡大縮
小された状態においても、この参照画像を簡便かつ迅速
に探査することができる画像処理装置を提供することを
目的とする。
According to the second aspect of the present invention, in addition to the object of the first aspect, even when the reference image in the input image is rotated or scaled, the reference image can be easily and quickly searched. It is an object of the present invention to provide an image processing apparatus that can perform the processing.

【0016】請求項3に記載の発明では、請求項1の目
的と併せて、参照画像の特徴点数と、入力画像の特徴点
数とが相違している場合にも、参照画像の探査を的確に
行うことができる画像処理装置を提供することを目的と
する。
According to the third aspect of the present invention, in addition to the object of the first aspect, even when the number of feature points of the reference image is different from the number of feature points of the input image, the search of the reference image can be accurately performed. It is an object of the present invention to provide an image processing apparatus that can perform the processing.

【0017】請求項4に記載の発明では、請求項1の目
的と併せて、入力画像内から参照画像を一段と迅速に探
査することができる画像処理装置を提供することを目的
とする。
A fourth object of the present invention is to provide, in addition to the object of the first embodiment, an image processing apparatus capable of searching a reference image from an input image more quickly.

【0018】請求項5に記載の発明では、コンピュータ
を用いて請求項1〜3の画像処理装置を実現するための
画像処理プログラムが記録された媒体を、発明の一態様
として明示する。請求項6に記載の発明では、コンピュ
ータを用いて請求項4の画像処理装置を実現するための
画像処理プログラムが記録された媒体を、発明の一態様
として明示する。
According to a fifth aspect of the present invention, a medium on which an image processing program for realizing the image processing apparatus of the first to third aspects using a computer is specified as one aspect of the present invention. In a sixth aspect of the present invention, a medium in which an image processing program for realizing the image processing apparatus of the fourth aspect using a computer is recorded is explicitly described as one aspect of the present invention.

【0019】[0019]

【課題を解決するための手段】図1は、請求項1,2に
記載の発明に対応する原理ブロック図である。請求項1
に記載の発明は、与えられた入力画像から所定の参照画
像を探査する画像処理装置であって、参照画像にハフ変
換を施して求めたρθハフ空間上の度数分布Sρθを、
予め記憶する参照手段1と、入力画像にハフ変換を施
し、ρθハフ空間上の度数分布Tρθに変換するハフ変
換手段2と、ハフ変換手段2により変換された度数分布
Tρθと、参照手段1に記憶された度数分布Sρθとの
相関を判定し、その相関の有無により「入力画像内にお
ける参照画像の有無」を判断する探査手段3とを備えた
ことを特徴とする。
FIG. 1 is a principle block diagram corresponding to the first and second aspects of the present invention. Claim 1
The invention described in is an image processing apparatus for searching for a predetermined reference image from a given input image, the frequency distribution Sρθ on the ρθ Hough space obtained by performing a Hough transform on the reference image,
Reference means 1 stored in advance, Hough transform means 2 for performing an Hough transform on an input image to convert it into a frequency distribution Tρθ in a ρθ Hough space, and a frequency distribution Tρθ converted by the Hough transform means 2 A search means for determining a correlation with the stored frequency distribution Sρθ and determining “the presence or absence of a reference image in the input image” based on the presence or absence of the correlation;

【0020】請求項2に記載の発明は、請求項1に記載
の画像処理装置において、探査手段3は、 ρ=ρ/(ρの平均値) θ=θ−(θの平均値) に基づいて規格化されたρθハフ空間上において、入力
画像の度数分布Tρθと参照画像の度数分布Sρθとの
相関を判定し、その相関の有無により参照画像の有無を
判断することを特徴とする。
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the search means 3 is based on: ρ = ρ / (average value of ρ) θ = θ− (average value of θ) The correlation between the frequency distribution Tρθ of the input image and the frequency distribution Sρθ of the reference image is determined in the ρθ Hough space standardized in this manner, and the presence or absence of the reference image is determined based on the presence or absence of the correlation.

【0021】図2は、請求項3に記載の発明に対応する
原理ブロック図である。請求項3に記載の発明は、請求
項1または請求項2に記載の画像処理装置において、探
査手段3は、ハフ変換手段2により変換された度数分布
Tρθと、参照手段1に記憶された度数分布Sρθとの
相互相関係数を算出する相関算出手段3aと、相関算出
手段3aにより算出された相互相関係数に基づいて相関
を判定し、その相関の有無により参照画像の有無を判断
する相関判定手段3bとを備えたことを特徴とする。
FIG. 2 is a principle block diagram corresponding to the third aspect of the present invention. According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the search means 3 includes a frequency distribution Tρθ converted by the Hough transform means 2 and a frequency distribution stored in the reference means 1. A correlation calculating unit 3a for calculating a cross-correlation coefficient with the distribution Sρθ, and a correlation for determining a correlation based on the cross-correlation coefficient calculated by the correlation calculating unit 3a and determining the presence or absence of a reference image based on the presence or absence of the correlation. And determining means 3b.

【0022】図3は、請求項4に記載の発明に対応する
原理ブロック図である。請求項4に記載の発明は、請求
項1ないし請求項3のいずれか1項に記載の画像処理装
置において、入力画像に対して濃度値のグラジエントを
求めて、グラジエント方向が一致し、かつ連続するエッ
ジ群を抽出する連続エッジ抽出手段4と、連続エッジ抽
出手段4により抽出されたエッジ群の画素数を計数し、
参照画像におけるエッジ群の画素数との相関を判定する
エッジ判定手段5とを備え、探査手段3は、エッジ判定
手段5において相関有りと判定された入力画像と参照画
像とについて、請求項1〜3の探査を実行することを特
徴とする。
FIG. 3 is a block diagram showing the principle corresponding to the fourth aspect of the present invention. According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, a gradient of a density value is obtained for an input image, and the gradient directions are coincident and continuous. Continuous edge extracting means 4 for extracting a group of edges to be extracted, and counting the number of pixels of the edge group extracted by the continuous edge extracting means 4,
An edge determination unit (5) for determining a correlation with the number of pixels of an edge group in the reference image, wherein the search unit (3) determines the correlation between the input image and the reference image determined to be correlated by the edge determination unit (5). 3 is performed.

【0023】請求項5に記載の発明は、請求項1ないし
請求項3のいずれか1項に記載の画像処理装置をコンピ
ュータを用いて実現するための画像処理プログラムを記
録した媒体であって、コンピュータを、上記の参照手段
1,ハフ変換手段2および探査手段3として機能させる
ための画像処理プログラムを記録した媒体である。
According to a fifth aspect of the present invention, there is provided a medium recording an image processing program for realizing the image processing apparatus according to any one of the first to third aspects using a computer, This is a medium on which an image processing program for causing a computer to function as the above-mentioned reference means 1, Hough conversion means 2, and search means 3 is recorded.

【0024】請求項6に記載の発明は、請求項4に記載
の画像処理装置をコンピュータを用いて実現するための
画像処理プログラムを記録した媒体であって、コンピュ
ータを、上記の参照手段1,ハフ変換手段2,探査手段
3,連続エッジ抽出手段4およびエッジ判定手段5とし
て機能させるための画像処理プログラムを記録した媒体
である。
According to a sixth aspect of the present invention, there is provided a medium storing an image processing program for realizing the image processing apparatus according to the fourth aspect by using a computer, wherein the computer is provided with the above-mentioned reference means 1, This is a medium on which an image processing program for functioning as the Hough transform unit 2, the search unit 3, the continuous edge extracting unit 4, and the edge determining unit 5 is recorded.

【0025】(作用)請求項1にかかわる画像処理装置
では、ハフ変換手段2が、外部からの入力画像にハフ変
換を施し、ρθハフ空間上の度数分布Tρθに変換す
る。一方、参照手段1には、参照画像にハフ変換を施し
て得られたρθハフ空間上の度数分布Sρθが、予め記
憶されている。
(Function) In the image processing apparatus according to the first aspect, the Hough transform means 2 performs a Hough transform on an externally input image to convert it into a frequency distribution Tρθ in a ρθ Hough space. On the other hand, the frequency distribution Sρθ in the ρθ Hough space obtained by performing the Hough transform on the reference image is stored in the reference unit 1 in advance.

【0026】探査手段3は、ρθハフ空間上において、
これらの度数分布Tρθ,Sρθの相関を判定する。探
査手段3は、この相関の高さに応じて、入力画像内に参
照画像が存在するか否かを判断する。請求項2にかかわ
る画像処理装置では、探査手段3が、下式に基づいて規
格化されたρθハフ空間上において、入力画像の度数分
布Tρθと参照画像の度数分布Sρθとの相関を判定す
る。
The exploration means 3 is based on the ρθ Huff space,
The correlation between these frequency distributions Tρθ and Sρθ is determined. The search means 3 determines whether or not a reference image exists in the input image according to the level of the correlation. In the image processing apparatus according to the second aspect, the search means 3 determines the correlation between the frequency distribution Tρθ of the input image and the frequency distribution Sρθ of the reference image on the ρθ Hough space standardized based on the following equation.

【0027】 ρ=ρ/(ρの平均値) ・・・(3) θ=θ−(θの平均値) ・・・(4) 上記の(3)式では、入力画像の度数分布Tρθと参照
画像の度数分布Sρθとが、それぞれρ軸方向に規格化
されることにより、入力画像と参照画像との間における
倍率の違いが抑制される。
Ρ = ρ / (average value of ρ) (3) θ = θ− (average value of θ) (4) In the above expression (3), the frequency distribution Tρθ of the input image is By normalizing the frequency distribution Sρθ of the reference image in the ρ-axis direction, a difference in magnification between the input image and the reference image is suppressed.

【0028】一方、上記の(4)式では、入力画像の度
数分布Tρθと参照画像の度数分布Sρθとが、それぞ
れθ軸方向に規格化されることにより、入力画像と参照
画像との間における回転角の違いが抑制される。
On the other hand, in the above equation (4), the frequency distribution Tρθ of the input image and the frequency distribution Sρθ of the reference image are normalized in the θ-axis direction, so that a difference between the input image and the reference image is obtained. The difference in rotation angle is suppressed.

【0029】このように、規格化されたρθハフ空間上
では、入力画像と参照画像との間に本来存在する倍率お
よび回転角の違いを考慮せずに、相互の相関を判定する
ことができる。したがって、回転または拡大縮小された
参照画像を、入力画像内から簡便かつ迅速に探査するこ
とが可能となる。
As described above, in the standardized ρθ Hough space, the mutual correlation can be determined without considering the difference between the magnification and the rotation angle which originally exist between the input image and the reference image. . Therefore, it is possible to easily and quickly search the rotated or enlarged / reduced reference image from the input image.

【0030】請求項3にかかわる画像処理装置では、相
関算出手段3aが、入力画像の度数分布Tρθと、参照
画像の度数分布Sρθとをそれぞれ取り込み、これらの
度数分布について相互相関係数を算出する。相関判定手
段3bは、この相互相関係数の大きさに応じて、入力画
像内に参照画像が存在するか否かを判断する。
In the image processing apparatus according to the third aspect, the correlation calculating means 3a takes in the frequency distribution Tρθ of the input image and the frequency distribution Sρθ of the reference image, and calculates a cross-correlation coefficient for these frequency distributions. . The correlation determining unit 3b determines whether or not a reference image exists in the input image, according to the magnitude of the cross-correlation coefficient.

【0031】ここで、相互相関係数は、度数分布Tρ
θ,Sρθの間の共分散を、個々の度数分布の標準偏差
で規格化した値である。したがって、相互相関係数にお
いては、参照画像と入力画像との間の画素密度の違い
や、特徴点数の違いなどが適切に抑制される。例えば、
参照画像の特徴点数と入力画像の特徴点数とが異なり、
かつ度数分布Tρθ,Sρθの相関が極端に高い場合、 {Tρθ−(Tρθの平均値)}=A・{Sρθ−(Sρθの平均値)} ・・・(5) をほぼ満足する定数A(A>0)が存在する。この定数
Aの値は、特徴点数の違いにより生じる値である。この
ようなケースにおいても、相互相関係数の値は、Aの値
に一切かかわらず、ほぼ「1」の値を取る。
Here, the cross-correlation coefficient is represented by the frequency distribution Tρ
This is a value obtained by normalizing the covariance between θ and Sρθ by the standard deviation of each frequency distribution. Therefore, in the cross-correlation coefficient, a difference in pixel density between the reference image and the input image, a difference in the number of feature points, and the like are appropriately suppressed. For example,
The number of feature points of the reference image and the number of feature points of the input image are different,
And when the correlation between the frequency distributions Tρθ and Sρθ is extremely high, the constant A (A) which almost satisfies {Tρθ− (average value of Tρθ)} = A · {Sρθ− (average value of Sρθ)} A> 0) exists. The value of the constant A is a value generated due to a difference in the number of feature points. Even in such a case, the value of the cross-correlation coefficient takes a value of almost “1” regardless of the value of A.

【0032】このように、請求項3の発明では、相互相
関係数を用いて相関判定を行うことにより、画素密度や
特徴点数の違いを考慮せずに、度数分布Tρθ,Sρθ
の相関を的確に判定することができる。請求項4にかか
わる画像処理装置では、連続エッジ抽出手段4が、入力
画像に対して濃度値のグラジエントを求める。連続エッ
ジ抽出手段4は、このグラジエントの方向が一致し、か
つ連続するエッジ群を抽出する。
As described above, according to the third aspect of the present invention, by performing the correlation judgment using the cross-correlation coefficient, the frequency distributions Tρθ and Sρθ can be obtained without considering the difference in the pixel density and the number of feature points.
Can be accurately determined. In the image processing apparatus according to the fourth aspect, the continuous edge extracting means 4 obtains a gradient of a density value with respect to the input image. The continuous edge extracting means 4 extracts a group of edges having the same gradient direction and continuous.

【0033】エッジ判定手段5は、これらのエッジ群の
画素数をそれぞれ計数し、参照画像におけるエッジ群の
画素数との相関を判定する。このような相関判定は、エ
ッジ群の画素数の配分のみを簡便かつ迅速に比較するも
のである。したがって、この相関判定における「相関な
し」の判定に基づいて、入力画像内に参照画像が存在し
ないと即座に判断することができる。
The edge determining means 5 counts the number of pixels of each of the edge groups, and determines a correlation with the number of pixels of the edge group in the reference image. Such correlation determination simply and quickly compares only the distribution of the number of pixels of the edge group. Therefore, based on the determination of “no correlation” in the correlation determination, it can be immediately determined that there is no reference image in the input image.

【0034】しかしながら、画像の一部特徴に限って比
較を行うことになるので、この相関判定における「相関
あり」の判定のみに基づいて、入力画像内に参照画像が
存在すると即断することは困難である。そこで、このエ
ッジ群の画素数に関する相関判定を、探査手段3におけ
る探査候補の絞り込みに使用する。このような探査候補
の絞り込みにより、相関の可能性が低い画像を簡便かつ
迅速に除外し、探査処理に要する処理時間を大幅に短縮
することができる。
However, since the comparison is performed only for a part of the features of the image, it is difficult to immediately determine that the reference image exists in the input image based on only the “correlation” determination in the correlation determination. It is. Therefore, the correlation determination regarding the number of pixels of the edge group is used for narrowing down search candidates in the search means 3. By narrowing down the search candidates, an image having a low possibility of correlation can be easily and quickly excluded, and the processing time required for the search processing can be significantly reduced.

【0035】請求項5にかかわる媒体には、上記の参照
手段1,ハフ変換手段2および探査手段3をコンピュー
タを用いて実現するためのプログラムが記録される。こ
の媒体上のプログラムを、コンピュータにおいて実行す
ることにより、請求項1〜3のいずれか1項に記載の構
成要件が全て揃い、コンピュータが画像処理装置として
機能する。
In the medium according to claim 5, a program for realizing the above-mentioned reference means 1, Hough transform means 2 and search means 3 using a computer is recorded. When the program on this medium is executed by a computer, all of the constituent requirements according to any one of claims 1 to 3 are prepared, and the computer functions as an image processing device.

【0036】請求項6にかかわる媒体には、上記の参照
手段1,ハフ変換手段2,探査手段3,連続エッジ抽出
手段4およびエッジ判定手段5をコンピュータを用いて
実現するためのプログラムが記録される。この媒体上の
プログラムを、コンピュータにおいて実行することによ
り、請求項4に記載の構成要件が全て揃い、コンピュー
タが画像処理装置として機能する。
A program for realizing the above-mentioned reference means 1, Hough transform means 2, search means 3, continuous edge extraction means 4 and edge determination means 5 using a computer is recorded on the medium according to claim 6. You. By executing the program on this medium by a computer, all of the components described in claim 4 are completed, and the computer functions as an image processing device.

【0037】[0037]

【発明の実施の形態】以下、図面に基づいて本発明にお
ける実施の形態を説明する。図4は、請求項1〜6に対
応した実施形態のハード構成を示す図である。図4にお
いて、演算処理回路および制御回路など(図示せず)を
有するCPUボード11には、通常速度でデータなどの
やり取りを行うメインバス12と、高速度でデータなど
のやり取りを行う高速ローカルバス13とが接続され
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 4 is a diagram showing a hardware configuration of the embodiment according to the first to sixth aspects. In FIG. 4, a CPU board 11 having an arithmetic processing circuit and a control circuit (not shown) includes a main bus 12 for exchanging data and the like at a normal speed, and a high-speed local bus for exchanging data and the like at a high speed. 13 is connected.

【0038】このメインバス12にはディスクドライブ
部14が接続され、ディスクドライブ部14には、画像
処理プログラムなどが記録された記録媒体15が着脱さ
れる。また、メインバス12には、D/Aコンバータ1
6を介して表示装置17が接続される。さらに、メイン
バス12には、A/Dコンバータ18を介して撮像装置
19が接続される。
A disk drive unit 14 is connected to the main bus 12, and a recording medium 15 on which an image processing program and the like are recorded is attached to and detached from the disk drive unit 14. The main bus 12 includes a D / A converter 1
The display device 17 is connected via the display device 6. Further, an imaging device 19 is connected to the main bus 12 via an A / D converter 18.

【0039】また、メインバス12には、画像情報や度
数分布などを格納するメモリ20と、CPUボード11
からの指令に基づいて高速演算を実行する高速演算処理
部21とが接続される。一方、CPUボード11,メモ
リ20および高速演算処理部21は、高速ローカルバス
13を介して交互に接続される。
The main bus 12 includes a memory 20 for storing image information, frequency distribution, and the like, and a CPU board 11.
And a high-speed operation processing unit 21 for executing high-speed operation based on an instruction from the CPU. On the other hand, the CPU board 11, the memory 20, and the high-speed processing unit 21 are alternately connected via the high-speed local bus 13.

【0040】図5は、本実施形態の演算機能に関するブ
ロック図である。なお、この図5は、記録媒体15に記
録された画像処理プログラムをCPUボード11におい
て実行した際に、メモリ20および高速演算処理部21
などを用いて実現される機能をブロック単位に記載した
ものである。図5において、撮像装置19において撮像
された入力画像と、新規の参照画像とは、入力処理部3
1を介して微分処理部33に入力される。
FIG. 5 is a block diagram relating to the arithmetic function of this embodiment. FIG. 5 shows the memory 20 and the high-speed arithmetic processing unit 21 when the image processing program recorded on the recording medium 15 is executed on the CPU board 11.
The functions realized by using the above are described in block units. In FIG. 5, the input image captured by the imaging device 19 and the new reference image
1 is input to the differential processing unit 33.

【0041】この微分処理部33の出力は、ハフ変換部
34および連続エッジ抽出部35に入力され、ハフ変換
部34の出力は、規格化処理部36に入力される。規格
化処理部36の出力は、参照データ記憶部37および相
関係数演算部38に個別に入力され、一方、連続エッジ
抽出部35の出力は、画素計数部39に入力される。
The output of the differential processing unit 33 is input to a Hough conversion unit 34 and a continuous edge extraction unit 35, and the output of the Hough conversion unit 34 is input to a normalization processing unit 36. The output of the normalization processing unit 36 is individually input to the reference data storage unit 37 and the correlation coefficient calculation unit 38, while the output of the continuous edge extraction unit 35 is input to the pixel counting unit 39.

【0042】画素計数部39の出力は、参照データ記憶
部37およびエッジ類似性判定部40に個別に入力さ
れ、参照データ記憶部37の出力は、相関係数演算部3
8およびエッジ類似性判定部40に個別に入力される。
相関係数演算部38の出力と、エッジ類似性判定部40
の出力とは、個別に画像認識処理部41に入力される。
The output of the pixel counting section 39 is individually input to the reference data storage section 37 and the edge similarity determination section 40, and the output of the reference data storage section 37 is output to the correlation coefficient calculation section 3.
8 and the edge similarity determination unit 40 are individually input.
The output of the correlation coefficient calculator 38 and the edge similarity determiner 40
Is input to the image recognition processing unit 41 individually.

【0043】ここで、エッジ類似性判定部40から「エ
ッジ部に関して類似性がない」との判定が出力される
と、画像認識処理部41は、下記の指示(図5中に示す
点線部)を発する。すなわち、画像認識処理部41は、
ハフ変換部34,規格化処理部36および相関係数演算
部38に対し、「ハフ変換にかかわる処理」の中断を指
示し、かつ入力処理部31に対し次の処理の即時開始を
指示する。
Here, when the edge similarity determination unit 40 outputs a determination that “there is no similarity in the edge portion”, the image recognition processing unit 41 issues the following instruction (dotted line portion shown in FIG. 5). Emits. That is, the image recognition processing unit 41
It instructs the Hough transform unit 34, the normalization process unit 36, and the correlation coefficient calculation unit 38 to interrupt the “process related to Hough transform”, and instructs the input process unit 31 to immediately start the next process.

【0044】なお、請求項1に記載の発明と本実施形態
との対応関係については、参照手段1は参照データ記憶
部37に対応し、ハフ変換手段2はハフ変換部34に対
応し、探査手段3は相関係数演算部38および画像認識
処理部41に対応する。請求項2に記載の発明と本実施
形態との対応関係については、探査手段3は、規格化処
理部36,相関係数演算部38および画像認識処理部4
1に対応する。
As for the correspondence between the invention described in claim 1 and the present embodiment, the reference means 1 corresponds to the reference data storage section 37, the Hough conversion means 2 corresponds to the Hough conversion section 34, and The means 3 corresponds to the correlation coefficient calculator 38 and the image recognition processor 41. Regarding the correspondence between the invention described in claim 2 and the present embodiment, the search means 3 includes a normalization processing unit 36, a correlation coefficient calculation unit 38, and an image recognition processing unit 4
Corresponds to 1.

【0045】請求項3に記載の発明と本実施形態との対
応関係については、相関算出手段3aは相関係数演算部
38に対応し、相関判定手段3bは画像認識処理部41
に対応する。請求項4に記載の発明と本実施形態との対
応関係については、連続エッジ抽出手段4は連続エッジ
抽出部35に対応し、エッジ判定手段5は画素計数部3
9およびエッジ類似性判定部40に対応する。
As for the correspondence between the invention described in claim 3 and the present embodiment, the correlation calculating means 3a corresponds to the correlation coefficient calculating section 38, and the correlation determining means 3b corresponds to the image recognition processing section 41.
Corresponding to Regarding the correspondence between the invention described in claim 4 and the present embodiment, the continuous edge extraction unit 4 corresponds to the continuous edge extraction unit 35, and the edge determination unit 5 corresponds to the pixel counting unit 3
9 and the edge similarity determination unit 40.

【0046】請求項5に記載の発明と本実施形態との対
応関係については、画像処理プログラムが記録された媒
体が、記録媒体15に対応する。請求項6に記載の発明
と本実施形態との対応関係については、画像処理プログ
ラムが記録された媒体が、記録媒体15に対応する。図
6は、本実施形態のデータフローを示す図である。
Regarding the correspondence between the invention described in claim 5 and the present embodiment, the medium on which the image processing program is recorded corresponds to the recording medium 15. Regarding the correspondence between the invention described in claim 6 and the present embodiment, the medium on which the image processing program is recorded corresponds to the recording medium 15. FIG. 6 is a diagram illustrating a data flow according to the present embodiment.

【0047】以下、図5,図6を中心にして本実施形態
の動作を説明する。 (画像処理プログラムの起動)まず、CPUボード11
は、ディスクドライブ部14を用いて、記録媒体15か
ら画像処理プログラムを読み出す。CPUボード11
は、この画像処理プログラムを起動して、下記の動作を
実行する。
The operation of this embodiment will be described below with reference to FIGS. (Activation of Image Processing Program) First, the CPU board 11
Reads the image processing program from the recording medium 15 using the disk drive unit 14. CPU board 11
Starts this image processing program and executes the following operation.

【0048】(参照データの作成)まず、CPUボード
11は、新規の参照画像について参照データの作成を次
のように実行する。CPUボード11は、新規の参照画
像を、撮像装置19,ディスクドライブ部14またはメ
モリ20などから取り込む。
(Creation of Reference Data) First, the CPU board 11 executes creation of reference data for a new reference image as follows. The CPU board 11 captures a new reference image from the imaging device 19, the disk drive unit 14, the memory 20, or the like.

【0049】この参照画像は、入力処理部31において
平均化圧縮の処理が施される(ステップS1)。ここ
で、「平均化圧縮の処理」とは、例えば、画像を2×2
画素程度のブロックに区分し、各ブロックごとに濃度値
の平均値やメディアン値などをとることにより、画素数
を低減する処理である。この処理により、画像認識に必
要十分な程度まで参照画像の画素数が低減される。
The reference image is subjected to averaging compression processing in the input processing section 31 (step S1). Here, the “averaging compression process” means, for example, that an image is 2 × 2
This is a process of reducing the number of pixels by dividing into blocks of about pixels and taking an average value of density values, a median value, and the like for each block. By this processing, the number of pixels of the reference image is reduced to a necessary and sufficient degree for image recognition.

【0050】微分処理部33は、この平均化圧縮後の参
照画像に対して、図7(a)に示すPrewittのX
方向オペレータをかけ、濃度値のグラジエントのX成分
Gxを算出する(ステップS2)。なお、このGxは、
パターンエッジ方向のY成分と同意である。さらに、微
分処理部33は、平均化圧縮後の参照画像に対して、図
7(a)に示すPrewittのY方向オペレータをか
け、濃度値のグラジエントのY成分Gyを算出する(ス
テップS3)。なお、このGyは、パターンエッジ方向
のX成分と同意である。
The differential processing unit 33 applies a Prewitt X shown in FIG.
The direction operator is operated to calculate the X component Gx of the gradient of the density value (step S2). Note that this Gx is
This is the same as the Y component in the pattern edge direction. Further, the differential processing unit 33 applies the Prewitt Y-direction operator shown in FIG. 7A to the reference image after the averaging compression, and calculates the Y component Gy of the gradient of the density value (step S3). Gy is the same as the X component in the pattern edge direction.

【0051】微分処理部33は、各画素のグラジエント
(Gx,Gy)に基づいて、 エッジ強度|G|=(Gx2+Gy21/2 ・・・(6) を算出し、各画素のエッジ強度|G|を求める。微分処
理部33は、各画素のエッジ強度|G|を閾値判定し、
所定の閾値を越える画素を特徴点として抽出する(ステ
ップS4)。
The differential processing unit 33 calculates the edge intensity | G | = (Gx 2 + Gy 2 ) 1/2 (6) based on the gradient (Gx, Gy) of each pixel, and calculates Find the edge strength | G |. The differential processing unit 33 determines the edge intensity | G | of each pixel as a threshold value,
Pixels exceeding a predetermined threshold are extracted as feature points (step S4).

【0052】次に、微分処理部33は、特徴点のグラジ
エント(Gx,Gy)に基づいて、 勾配角θ=tan-1(Gy/Gx) ・・・(7) を算出し、この勾配角θを特徴点のデータとして記憶す
る(ステップS5)。なお、パターンエッジの方向角
は、tan-1(Gx/Gy)となる。連続エッジ抽出部3
5は、特徴点のデータから、勾配角θが所定範囲内で一
致し、かつ画素位置が連続した特徴点を、図8(α)に
示すエッジ群ごとに、個々のグループ(以下「エッジグ
ループ」という)に区分する。さらに、連続エッジ抽出
部35は、これらエッジグループの勾配角θについて平
均値θavを算出し、規格化を施した勾配角(θ−θav)
を求める。
Next, the differential processing unit 33 calculates a gradient angle θ = tan −1 (Gy / Gx) (7) based on the gradient (Gx, Gy) of the feature point, and calculates this gradient angle. θ is stored as feature point data (step S5). The direction angle of the pattern edge is tan -1 (Gx / Gy). Continuous edge extraction unit 3
5 shows, based on the data of the feature points, feature points in which the gradient angle θ matches within a predetermined range and the pixel positions are continuous are classified into individual groups (hereinafter referred to as “edge groups”) for each edge group shown in FIG. "). Further, the continuous edge extraction unit 35 calculates an average value θav for the gradient angles θ of these edge groups, and calculates a normalized gradient angle (θ−θav).
Ask for.

【0053】一方、画素計数部39は、各エッジグルー
プに含まれる特徴点数Nを計数し、特徴点の総数Mで割
った配分比(N/M)を算出する。画素計数部39は、
この特徴点数の配分比(N/M)と、規格化された勾配
角(θ−θav)とを組にして、参照データ記憶部37に
格納する(ステップS6)。その結果、参照データ記憶
部37には、図8(β)に示すようなエッジグループに
関する情報が蓄積される。
On the other hand, the pixel counting section 39 counts the number N of feature points included in each edge group, and calculates a distribution ratio (N / M) divided by the total number M of feature points. The pixel counting unit 39
The set of the distribution ratio (N / M) of the number of feature points and the standardized gradient angle (θ-θav) is stored in the reference data storage unit 37 (step S6). As a result, information relating to the edge group as shown in FIG.

【0054】一方、ハフ変換部34は、特徴点の位置座
標をXY両方向に平均化して、特徴点の重心位置を算出
する。この重心位置を原点として、各特徴点の位置座標
(x,y)を求める。
On the other hand, the Hough transform unit 34 calculates the barycentric position of the feature point by averaging the position coordinates of the feature point in both the X and Y directions. Using the position of the center of gravity as the origin, the position coordinates (x, y) of each feature point are obtained.

【0055】ハフ変換部34は、各特徴点ごとの位置座
標(x,y)と勾配角θとに基づいて、 垂線の長さρ=x・cosθ+y・sinθ ・・・(8) を算出する。なお、図9(a)に示すように、ここでの
垂線は、特徴点に位置するエッジの接線に向けて、原点
から下ろした垂線のことである。
The Hough transform unit 34 calculates a perpendicular length ρ = x · cos θ + y · sin θ (8) based on the position coordinates (x, y) and the gradient angle θ for each feature point. . Note that, as shown in FIG. 9A, the perpendicular here is a perpendicular that is lowered from the origin toward the tangent of the edge located at the feature point.

【0056】その結果、XY空間上で一直線上に並んで
いたQ個の特徴点が、図9(b)に示すように、ρθハ
フ空間上の一点(ρ,θ)における累積度数Qに変換さ
れる(ステップS7)。なお、図10は、ρθハフ空間
上の度数分布を立体的に示した説明図である。規格化処
理部36は、長さρの平均値ρavと、勾配角θの平均値
θavとに基づいて、 ρ=ρ/ρav ・・・(9) θ=θ−θav ・・・(10) を算出し、ρθハフ空間をρ軸方向およびθ軸方向に規
格化する(ステップS8)。
As a result, the Q feature points aligned in a straight line on the XY space are converted into the cumulative frequency Q at one point (ρ, θ) on the ρθ Hough space, as shown in FIG. Is performed (step S7). FIG. 10 is an explanatory diagram three-dimensionally showing a frequency distribution on the ρθ Hough space. The normalization processing unit 36 calculates ρ = ρ / ρav (9) θ = θ−θav (10) based on the average value ρav of the length ρ and the average value θav of the gradient angle θ. Is calculated, and the ρθ Hough space is normalized in the ρ-axis direction and the θ-axis direction (step S8).

【0057】このような規格化処理を施すことにより、
例えば、図11に示す各種の画像では、倍率や回転角の
違いが適正に抑制されて同じ度数分布が得られる。規格
化処理部36は、規格化されたρθハフ空間上における
参照画像の度数分布Sρθを参照データ記憶部37に格
納する。また、規格化処理部36は、参照画像の度数分
布Sρθを用いて、
By performing such a standardization process,
For example, in the various images shown in FIG. 11, differences in magnification and rotation angle are appropriately suppressed, and the same frequency distribution is obtained. The standardization processing unit 36 stores the frequency distribution Sρθ of the reference image in the standardized ρθ Hough space in the reference data storage unit 37. Further, the normalization processing unit 36 uses the frequency distribution Sρθ of the reference image,

【数1】 (Equation 1)

【数2】 を算出して、度数分布Sρθの標準偏差σsを求め、参
照データ記憶部37に格納する(ステップS9)。な
お、式中のnは、ρθハフ面上の標本数である。
(Equation 2) Is calculated, the standard deviation s of the frequency distribution Sρθ is obtained, and stored in the reference data storage unit 37 (step S9). Note that n in the expression is the number of samples on the ρθ Huff plane.

【0058】以上の動作により、新規の参照画像に対す
る参照データの作成が完了する。 (入力画像に対する画像認識処理)次に、入力画像に対
する画像認識の処理動作を説明する。
With the above operation, the creation of the reference data for the new reference image is completed. (Image Recognition Processing for Input Image) Next, the processing operation of image recognition for an input image will be described.

【0059】まず、CPUボード11は、入力画像を、
撮像装置19から取り込む。この入力画像は、入力処理
部31において平均化圧縮の処理が施される(ステップ
S11)。微分処理部33は、この平均化圧縮後の入力
画像に対して、PrewittのX方向オペレータをか
け、濃度値のグラジエントのX成分Gxを算出する(ス
テップS12)。
First, the CPU board 11 converts the input image into
Captured from the imaging device 19. This input image is subjected to averaging compression processing in the input processing unit 31 (step S11). The differential processing unit 33 applies an X direction operator of Prewitt to the input image after the averaging compression, and calculates an X component Gx of a gradient of the density value (step S12).

【0060】さらに、微分処理部33は、平均化圧縮後
の入力画像に対して、PrewittのY方向オペレー
タをかけ、濃度値のグラジエントのY成分Gyを算出す
る(ステップS13)。微分処理部33は、グラジエン
ト(Gx,Gy)の大きさを各画素ごとに算出し、エッ
ジ強度|G|を求める。
Further, the differential processing section 33 applies the Prewitt Y-direction operator to the input image after the averaging compression, and calculates the Y component Gy of the gradient of the density value (step S13). The differential processing unit 33 calculates the magnitude of the gradient (Gx, Gy) for each pixel, and obtains the edge strength | G |.

【0061】微分処理部33は、各画素のエッジ強度|
G|を閾値判定し、所定の閾値を越える画素を特徴点と
して抽出する(ステップS14)。次に、微分処理部3
3は、特徴点のグラジエント(Gx,Gy)の勾配角θ
を算出し、この勾配角θを特徴点のデータとして記憶す
る(ステップS15)。連続エッジ抽出部35は、特徴
点のデータから、勾配角θが所定範囲内で一致し、かつ
画素位置が連続した特徴点をエッジグループにグループ
分けする。さらに、連続エッジ抽出部35は、これらエ
ッジグループの勾配角θについて平均値θavを算出し、
規格化を施した勾配角(θ−θav)をエッジグループご
とに求める。
The differential processing unit 33 calculates the edge intensity | of each pixel.
G | is determined as a threshold, and pixels exceeding a predetermined threshold are extracted as feature points (step S14). Next, the differential processing unit 3
3 is the gradient angle θ of the gradient (Gx, Gy) of the feature point
Is calculated, and the gradient angle θ is stored as feature point data (step S15). The continuous edge extraction unit 35 groups feature points having the same gradient angle θ within a predetermined range and continuous pixel positions into edge groups from the feature point data. Further, the continuous edge extraction unit 35 calculates an average value θav for the gradient angles θ of these edge groups,
The normalized gradient angle (θ−θav) is obtained for each edge group.

【0062】一方、画素計数部39は、各エッジグルー
プの特徴点数Nを計数し、特徴点の総数Mで割った配分
比(N/M)を算出する。ここで、エッジ類似性判定部
40は、入力画像側の勾配角(θ−θav)および配分比
(N/M)が、参照データ記憶部37内のエッジグルー
プに関する情報と許容範囲内で一致するか否かを判定す
る。
On the other hand, the pixel counting section 39 counts the number N of feature points of each edge group, and calculates a distribution ratio (N / M) divided by the total number M of feature points. Here, the edge similarity determination unit 40 determines that the gradient angle (θ−θav) and the distribution ratio (N / M) on the input image side match the information on the edge group in the reference data storage unit 37 within the allowable range. It is determined whether or not.

【0063】許容範囲内で一致しない場合、画像認識処
理部41は、入力画像内に参照画像が存在しないと即断
して、画像認識の処理動作を中断する(ステップS2
2)。一方、許容範囲内で一致した場合、画像認識処理
部41は、入力画像内に参照画像が存在する可能性が高
いと判断して、ρθハフ空間上の画像認識処理を次のよ
うに開始する。
If they do not match within the allowable range, the image recognition processing section 41 immediately determines that there is no reference image in the input image and suspends the image recognition processing operation (step S2).
2). On the other hand, if they match within the allowable range, the image recognition processing unit 41 determines that there is a high possibility that the reference image exists in the input image, and starts the image recognition processing on the ρθ Hough space as follows. .

【0064】まず、ハフ変換部34は、入力画像の特徴
点について位置座標をXY両方向に平均化して、特徴点
の重心位置を算出する。この重心位置を原点として、各
特徴点の位置座標(x,y)を求める。ハフ変換部34
は、各特徴点ごとの位置座標(x,y)と勾配角θとを
(8)式に代入して、垂線の長さρを算出する(ステッ
プS17)。
First, the Hough transform unit 34 calculates the position of the center of gravity of the feature point by averaging the position coordinates of the feature point of the input image in both the X and Y directions. Using the position of the center of gravity as the origin, the position coordinates (x, y) of each feature point are obtained. Huff converter 34
Calculates the length ρ of the perpendicular by substituting the position coordinates (x, y) and the gradient angle θ for each feature point into equation (8) (step S17).

【0065】規格化処理部36は、長さρの平均値ρav
と、勾配角θの平均値θavとに基づいて、(9)式,
(10)式を算出し、ρθハフ空間をρ軸方向およびθ
軸方向に規格化する(ステップS18)。規格化処理部
36は、規格化されたρθハフ空間上における入力画像
の度数分布Tρθを用いて、
The standardization processing unit 36 calculates the average value ρav of the length ρ
And the average value θav of the gradient angle θ,
Equation (10) is calculated, and the ρθ Hough space is converted into the ρ axis direction and θ.
Normalization is performed in the axial direction (step S18). The normalization processing unit 36 uses the frequency distribution Tρθ of the input image on the standardized ρθ Hough space,

【数3】 (Equation 3)

【数4】 を算出して、度数分布Tρθの標準偏差σtを求める
(ステップS19)。なお、式中のmは、ρθハフ面上
の標本数である。
(Equation 4) To calculate the standard deviation σt of the frequency distribution Tρθ (step S19). Note that m in the equation is the number of samples on the ρθ Huff plane.

【0066】相関係数演算部38は、参照データ記憶部
37に格納された参照画像の度数分布Sρθと、入力画
像の度数分布Tρθとに対して、
The correlation coefficient calculator 38 calculates a frequency distribution Sρθ of the reference image stored in the reference data storage 37 and a frequency distribution Tρθ of the input image.

【数5】 を算出し、共分散Cstを求める(ステップS20)。
なお、(15)式中のkは、ρθハフ面上の標本数であ
る。
(Equation 5) Is calculated, and a covariance Cst is obtained (step S20).
Note that k in the expression (15) is the number of samples on the ρθ Huff plane.

【0067】さらに、相関係数演算部38は、参照デー
タ記憶部37に格納された参照画像の標準偏差σsを読
み出し、入力画像の標準偏差σtおよび共分散Cstの
値と併せて、
Further, the correlation coefficient calculating section 38 reads out the standard deviation s of the reference image stored in the reference data storage section 37 and, together with the standard deviation σt of the input image and the value of the covariance Cst,

【数6】 を算出し、度数分布Sρθ,Tρθの間の相互相関係数
Pを求める(ステップS21)。
(Equation 6) Is calculated, and a cross-correlation coefficient P between the frequency distributions Sρθ and Tρθ is obtained (step S21).

【0068】画像認識処理部41は、この相互相関係数
Pの絶対値を閾値判定する(ステップS22)。もし、
この絶対値が所定の閾値(例えば、0.8程度)を超え
た場合、画像認識処理部41は、入力画像内に参照画像
が存在すると判定する。一方、この絶対値が所定の閾値
を超えない場合、画像認識処理部41は、入力画像内に
参照画像が存在しないと判定する。
The image recognition processing section 41 determines the absolute value of the cross-correlation coefficient P as a threshold value (step S22). if,
When this absolute value exceeds a predetermined threshold (for example, about 0.8), the image recognition processing unit 41 determines that the reference image exists in the input image. On the other hand, when the absolute value does not exceed the predetermined threshold, the image recognition processing unit 41 determines that there is no reference image in the input image.

【0069】以上説明した動作により、本実施形態で
は、入力画像内に参照画像が存在するか否かを確実に判
定することができる。また、ρθハフ空間上では、画像
上の直線が一点に集約されるため、画像を構成する複雑
な線分が、単純な点の度数分布に変換される。したがっ
て、本実施形態では、点の度数分布について相関判定を
行えばよく、演算処理量を格段に低減することができ
る。
According to the operation described above, in this embodiment, it is possible to reliably determine whether or not a reference image exists in an input image. Further, in the ρθ Hough space, straight lines on the image are collected into one point, so that a complicated line segment forming the image is converted into a simple point frequency distribution. Therefore, in the present embodiment, it is only necessary to perform the correlation determination with respect to the frequency distribution of points, and the amount of calculation processing can be significantly reduced.

【0070】さらに、本発明では、単純な度数分布の形
式で参照画像を記録するので、参照画像の記憶に必要な
記憶容量を格段に節約することができる。特に、文字認
識を行う装置では、多数の参照画像を記録することにな
るので、本発明は非常に好適である。また、本実施形態
では、規格化されたρθハフ空間上において、相関判定
を行う。この規格化されたρθハフ空間上では、入力画
像と参照画像との間に本来存在する倍率および回転角の
違いを無視して、相互の相関を判定することができる。
そのため、回転または拡大縮小された参照画像を、入力
画像内から簡便かつ高速に探査することが可能となる。
Further, according to the present invention, since the reference image is recorded in the form of a simple frequency distribution, the storage capacity required for storing the reference image can be remarkably reduced. In particular, an apparatus that performs character recognition records a large number of reference images, and thus the present invention is very suitable. In the present embodiment, the correlation is determined on the normalized ρθ Hough space. In the standardized ρθ Hough space, the mutual correlation can be determined by ignoring the difference in the magnification and the rotation angle that originally exist between the input image and the reference image.
Therefore, the rotated or scaled-up reference image can be easily and quickly searched from the input image.

【0071】さらに、相関判定に相互相関係数Pを用い
ているので、参照画像と入力画像との間の「画素密度の
違い」や「特徴点数の違い」を考慮せずに、入力画像内
に参照画像が存在するか否かを判断することができる。
また、本実施形態では、画像認識の事前処理として、エ
ッジグループに関する情報を比較しているので、探査す
べき候補を的確に絞って、度数分布の相関判定を実施す
ることができる。したがって、画像認識に要する処理時
間を大幅に短縮することができる。
Further, since the cross-correlation coefficient P is used for the correlation judgment, the difference between the reference image and the input image is not taken into account in the input image without considering the “difference in pixel density” and “difference in the number of feature points”. Can be determined whether or not a reference image exists.
Further, in the present embodiment, since information on edge groups is compared as preprocessing for image recognition, it is possible to accurately narrow down candidates to be searched and perform correlation determination of the frequency distribution. Therefore, the processing time required for image recognition can be significantly reduced.

【0072】なお、上述した実施形態では、入力画像内
に参照画像が存在するか否かの判定のみを行っている
が、本発明の適用用途はこれに限定されるものではな
い。例えば、図12に示すように、入力画像の一部領域
を切り出して、その一部領域内に参照画像が存在するか
否かを、実施形態と同様に判定してもよい。また、この
一部領域を主走査および副走査することにより、参照画
像を含む一部領域を入力画像内から探索することもでき
る。
In the above-described embodiment, only the determination as to whether or not the reference image exists in the input image is performed, but the application of the present invention is not limited to this. For example, as shown in FIG. 12, a partial region of an input image may be cut out, and whether or not a reference image exists in the partial region may be determined in the same manner as in the embodiment. In addition, by performing main scanning and sub-scanning of this partial area, a partial area including the reference image can be searched from the input image.

【0073】また、上述した実施形態では、参照画像が
単数の場合について説明したが、本発明はこれに限定さ
れるものではない。複数の参照画像について実施形態と
同様の判定を逐次に行ってもよい。さらに、上述した実
施形態では、度数分布の相関判定に相互相関係数Pを用
いているが、本発明はこれに限定されるものではなく、
相関判定の手法ならばなんでもよい。例えば、残差逐次
検定法(SSDA法)や差分二乗和法などのマッチング
手法を用いて、度数分布の相関判定を行ってもよい。
Further, in the above-described embodiment, the case where a single reference image is used has been described, but the present invention is not limited to this. The same determination as in the embodiment may be sequentially performed on a plurality of reference images. Furthermore, in the above-described embodiment, the cross-correlation coefficient P is used for determining the correlation of the frequency distribution, but the present invention is not limited to this.
Any method can be used as long as it is a correlation determination method. For example, the correlation determination of the frequency distribution may be performed using a matching method such as a residual sequential test method (SSDA method) or a sum of squared difference method.

【0074】また、上述した実施形態では、度数分布の
相関判定のために、相互相関係数Pを算出しているが、
本発明はこれに限定されるものではなく、相互相関係数
に変換可能な数値を算出してもよい。
In the above-described embodiment, the cross-correlation coefficient P is calculated for determining the correlation of the frequency distribution.
The present invention is not limited to this, and a numerical value that can be converted into a cross-correlation coefficient may be calculated.

【数7】 例えば、上式を用いて、相互相関係数Pの二乗値(いわ
ゆる寄与率)を算出し、この二乗値の閾値判定により、
入力画像内に参照画像が存在するか否かを判定してもよ
い。このような構成では、相互相関係数Pの算出に必要
な平方根演算を省くことができるので好適である。
(Equation 7) For example, the square value (so-called contribution rate) of the cross-correlation coefficient P is calculated using the above equation, and the threshold value of this square value is determined.
It may be determined whether or not a reference image exists in the input image. Such a configuration is preferable because the square root operation required for calculating the cross-correlation coefficient P can be omitted.

【0075】さらに、上述した実施形態では、エッジ群
の各画素数Nを特徴点の総数Mで規格化しているが、本
発明はこれに限定されるものではない。例えば、エッジ
群の各画素数Nについて、相関判定を行うものでもよ
い。また、上述した実施形態では、画像処理プログラム
を記録した媒体の種類について述べていないが、本発明
は、この媒体の種類に限定されるものではない。例え
ば、ROM(読み出し専用メモリ),半導体記録媒体,
光記録媒体,磁気記録媒体または光磁気記録媒体などで
もよい。
Further, in the above embodiment, the number N of pixels in the edge group is normalized by the total number M of feature points, but the present invention is not limited to this. For example, a correlation determination may be made for each pixel number N of the edge group. In the above-described embodiment, the type of the medium on which the image processing program is recorded is not described, but the present invention is not limited to the type of the medium. For example, a ROM (read only memory), a semiconductor recording medium,
An optical recording medium, a magnetic recording medium or a magneto-optical recording medium may be used.

【0076】さらに、上述した実施形態では、画像のエ
ッジ部分を抽出して特徴点としているが、本発明はこの
処理を必ずしも必要とするものではない。例えば、白黒
の線画などでは、エッジ部分を抽出せずに、白または黒
のどちらかを特徴点とすればよい。また、上述した実施
形態では、Prewittのオペレータを使用して濃度
値のグラジエントを得ているが、空間微分フィルタなら
ば如何なるものでも使用できる。例えば、図7(b)に
示すようなSobelのオペレータなどを用いて、グラ
ジエントを算出してもよい。
Furthermore, in the above-described embodiment, an edge portion of an image is extracted and used as a feature point, but the present invention does not necessarily require this processing. For example, in a black and white line drawing or the like, either white or black may be used as a feature point without extracting an edge portion. In the above-described embodiment, the gradient of the density value is obtained by using the operator of Prewitt, but any spatial differential filter can be used. For example, the gradient may be calculated using a Sobel operator as shown in FIG. 7B.

【0077】さらに、上述した実施形態では、画像処理
プログラムの実行により一連の動作を行なっているが、
本発明はこれに限定されるものではない。例えば、図5
に示すような構成の一部もしくは全部を、ゲートアレイ
回路やカスタムICその他のハード構成に置き換えて実
現してもよい。また、上述した実施形態では、高速演算
処理部21を有する装置について述べたが、本発明はこ
れに限定されるものではない。例えば、一般的なコンピ
ュータを用いて、図6に示すようなデータ処理を行なっ
てもよい。
In the above-described embodiment, a series of operations are performed by executing the image processing program.
The present invention is not limited to this. For example, FIG.
A part or all of the configuration shown in FIG. 1 may be realized by replacing it with a gate array circuit, a custom IC, or another hardware configuration. Further, in the above-described embodiment, the apparatus including the high-speed operation processing unit 21 has been described, but the present invention is not limited to this. For example, data processing as shown in FIG. 6 may be performed using a general computer.

【0078】[0078]

【発明の効果】以上説明したように、請求項1に記載の
発明では、入力画像と参照画像とをρθハフ空間上で相
関判定することにより、入力画像内に参照画像が存在す
るか否かを確実に判定することができる。通常、ρθハ
フ空間上では、画像上の直線が一点に集約されるため、
画像を構成する複雑な線分は、単純な点の度数分布に変
換される。したがって、本発明では、単純な点の度数分
布について相関判定を行えばよいことが多く、相関判定
に所要する演算処理量を低減することができる。
As described above, according to the first aspect of the present invention, the correlation between the input image and the reference image is determined on the ρθ Hough space to determine whether or not the reference image exists in the input image. Can be reliably determined. Normally, in the ρθ Huff space, straight lines on the image are aggregated into one point,
Complex line segments that make up the image are converted to a simple point frequency distribution. Therefore, in the present invention, it is often necessary to perform the correlation determination on the frequency distribution of a simple point, and the amount of calculation processing required for the correlation determination can be reduced.

【0079】また、上記のように相関判定に所要する演
算処理量が低減されるので、参照画像の探査に所要する
時間を効率的に短縮することが可能となる。そのため、
高速な画像処理が要求される用途に好適である。さら
に、参照画像をビットマップ形式などで記録する場合に
比べ、本発明では、ρθハフ空間上の単純な度数分布の
形式で参照画像を記録すればよい。そのため、記憶すべ
き情報量が一般的に少なくなる。したがって、参照手段
の記憶容量を効率的に節約したり、従来よりも多数の参
照画像を記録することが可能となる。
In addition, since the amount of calculation required for the correlation determination is reduced as described above, it is possible to efficiently reduce the time required for searching for the reference image. for that reason,
It is suitable for applications requiring high-speed image processing. Further, in comparison with the case where the reference image is recorded in a bitmap format or the like, in the present invention, the reference image may be recorded in a simple frequency distribution format on the ρθ Hough space. Therefore, the amount of information to be stored generally decreases. Therefore, it is possible to efficiently save the storage capacity of the reference means, and to record a larger number of reference images than before.

【0080】特に、文字認識を行う装置では、多数の参
照画像を記録することになるので、本発明は非常に好適
である。請求項2に記載の発明では、規格化されたρθ
ハフ空間上において、度数分布の相関を判定する。この
規格化されたρθハフ空間上では、入力画像と参照画像
との間に本来存在する倍率および回転角の違いが抑制さ
れる。そのため、倍率や回転角の違いにそれ程左右され
ずに、相互の相関を的確に判定することができる。その
結果、回転または拡大縮小された参照画像についても、
入力画像内から簡便かつ高速に探査することが可能とな
る。
In particular, in a device for performing character recognition, a large number of reference images are recorded, so that the present invention is very suitable. According to the second aspect of the present invention, the standardized ρθ
The correlation of the frequency distribution is determined on the Hough space. In the standardized ρθ Hough space, differences in the magnification and the rotation angle that originally exist between the input image and the reference image are suppressed. Therefore, the mutual correlation can be accurately determined without being greatly affected by differences in magnification and rotation angle. As a result, even for rotated or scaled reference images,
It is possible to easily and quickly search from within the input image.

【0081】特に、従来の一般化ハフ変換を採用した画
像処理装置では、倍率と回転角とを広範囲にわたって細
かく変更しながら、複雑な演算処理を何度も繰り返す必
要があった。しかしながら、請求項2の発明では、倍率
や回転角の違いが簡単に抑制できるので、そのまま相関
判定を行ったり、あるいは、倍率や回転角を僅かにずら
して相関判定を行えば足りる。したがって、演算処理量
が一段と低減し、演算処理時間を大幅に短縮することが
可能となる。
In particular, in the conventional image processing apparatus employing the generalized Hough transform, it is necessary to repeat complicated arithmetic processing many times while finely changing the magnification and the rotation angle over a wide range. However, according to the second aspect of the present invention, since the difference between the magnification and the rotation angle can be easily suppressed, it is sufficient to perform the correlation determination as it is or to perform the correlation determination with the magnification and the rotation angle slightly shifted. Therefore, the amount of calculation processing is further reduced, and the calculation processing time can be significantly reduced.

【0082】請求項3に記載の発明では、相互相関係数
に基づいて度数分布の相関を判定する。したがって、参
照画像と入力画像との間における画素密度の違いや特徴
点数の違いにそれ程左右されずに、入力画像内に参照画
像が存在するか否かを的確に判断することができる。請
求項4にかかわる画像処理装置では、エッジ群の画素数
の配分を比較するので、探査すべき画像の候補を簡便か
つ迅速に絞り込むことができる。
According to the third aspect of the invention, the correlation of the frequency distribution is determined based on the cross-correlation coefficient. Therefore, it is possible to accurately determine whether or not the reference image exists in the input image, without being largely influenced by the difference in pixel density or the difference in the number of feature points between the reference image and the input image. In the image processing device according to the fourth aspect, since the distribution of the number of pixels of the edge group is compared, the candidates for the image to be searched can be simply and quickly narrowed down.

【0083】したがって、相関が低い画像を簡便かつ迅
速に除外し、探査処理に要する処理時間を効率的に短縮
することができる。請求項5にかかわる媒体では、この
媒体上の画像処理プログラムを、コンピュータにおいて
実行することにより、請求項1〜3のいずれか1項に記
載された構成要件が全て揃う。したがって、請求項1〜
3のいずれか1項に記載の画像処理装置として、コンピ
ュータを機能させることができる。
Therefore, an image having a low correlation can be easily and quickly excluded, and the processing time required for the search processing can be shortened efficiently. In the medium according to the fifth aspect, the image processing program on the medium is executed by a computer, so that all the components described in any one of the first to third aspects are completed. Therefore, claims 1 to
A computer may function as the image processing device according to any one of the items (3) to (3).

【0084】請求項6にかかわる媒体では、この媒体上
の画像処理プログラムを、コンピュータにおいて実行す
ることにより、請求項4に記載された構成要件が全て揃
う。したがって、請求項4に記載の画像処理装置とし
て、コンピュータを機能させることができる。
In the medium according to the sixth aspect, the image processing program on the medium is executed by a computer, so that all of the components described in the fourth aspect are completed. Therefore, the computer can function as the image processing device according to the fourth aspect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1,2に記載の発明に対応する原理ブロ
ック図である。
FIG. 1 is a principle block diagram corresponding to the first and second aspects of the present invention.

【図2】請求項3に記載の発明に対応する原理ブロック
図である。
FIG. 2 is a principle block diagram corresponding to the invention described in claim 3;

【図3】請求項4に記載の発明に対応する原理ブロック
図である。
FIG. 3 is a principle block diagram corresponding to the invention described in claim 4;

【図4】請求項1〜6に対応した実施形態のハード構成
を示す図である。
FIG. 4 is a diagram showing a hardware configuration of an embodiment according to claims 1 to 6;

【図5】記録媒体15に記録された画像処理プログラム
をCPUボード11において実行した際に、CPUボー
ド11,メモリ20および高速演算処理部21などを用
いて実現される機能をブロック単位に記載した図であ
る。
FIG. 5 shows, in block units, functions realized by using the CPU board 11, the memory 20, the high-speed processing unit 21, and the like when the image processing program recorded on the recording medium 15 is executed on the CPU board 11. FIG.

【図6】本実施形態のデータフローを示す図である。FIG. 6 is a diagram showing a data flow of the present embodiment.

【図7】空間上の微分フィルタの一例を示す図である。FIG. 7 is a diagram illustrating an example of a differential filter on space.

【図8】エッジグループに関する情報を説明する図であ
る。
FIG. 8 is a diagram illustrating information on an edge group.

【図9】ハフ変換を説明する図である。FIG. 9 is a diagram illustrating Hough transform.

【図10】ρθハフ空間上の度数分布を立体的に示した
説明図である。
FIG. 10 is an explanatory diagram three-dimensionally showing a frequency distribution on a ρθ Hough space.

【図11】ρθハフ空間上における規格化処理の説明図
である。
FIG. 11 is an explanatory diagram of a normalization process on a ρθ Hough space.

【図12】XY空間におけるパターンマッチングを説明
する図である。
FIG. 12 is a diagram illustrating pattern matching in an XY space.

【図13】一般化ハフ変換による代表的な画像処理(従
来例)を説明する図である。
FIG. 13 is a view for explaining typical image processing (conventional example) by generalized Hough transform.

【符号の説明】[Explanation of symbols]

1 参照手段 2 ハフ変換手段 3 探査手段 3a 相関算出手段 3b 相関判定手段 4 連続エッジ抽出手段 5 エッジ判定手段 11 CPUボード 12 メインバス 13 高速ローカルバス 14 ディスクドライブ部 15 記録媒体 16 D/Aコンバータ 17 表示装置 18 A/Dコンバータ 19 撮像装置 20 メモリ 21 高速演算処理部 31 入力処理部 33 微分処理部 34 ハフ変換部 35 連続エッジ抽出部 36 規格化処理部 37 参照データ記憶部 38 相関係数演算部 39 画素計数部 40 エッジ類似性判定部 41 画像認識処理部 72 参照テーブル DESCRIPTION OF SYMBOLS 1 Reference means 2 Hough conversion means 3 Exploration means 3a Correlation calculation means 3b Correlation determination means 4 Continuous edge extraction means 5 Edge determination means 11 CPU board 12 Main bus 13 High-speed local bus 14 Disk drive unit 15 Recording medium 16 D / A converter 17 Display device 18 A / D converter 19 Imaging device 20 Memory 21 High-speed operation processing unit 31 Input processing unit 33 Differential processing unit 34 Hough transform unit 35 Continuous edge extraction unit 36 Normalization processing unit 37 Reference data storage unit 38 Correlation coefficient operation unit 39 pixel counting unit 40 edge similarity determination unit 41 image recognition processing unit 72 reference table

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 与えられた入力画像から、所定の参照画
像を探査する画像処理装置であって、 前記参照画像にハフ変換を施して求めたρθハフ空間上
の度数分布を、予め記憶する参照手段と、 前記入力画像にハフ変換を施し、ρθハフ空間上の度数
分布に変換するハフ変換手段と、 前記ハフ変換手段により変換された度数分布と、前記参
照手段に記憶された度数分布との相関を判定し、前記相
関の有無により前記参照画像の有無を判断する探査手段
と、 を備えたことを特徴とする画像処理装置。
An image processing apparatus for searching a given reference image for a predetermined reference image from a given input image, wherein a frequency distribution in a ρθ Hough space obtained by performing a Hough transform on the reference image is stored in advance. Means, performing a Hough transform on the input image, a Hough transform means for converting to a frequency distribution on a ρθ Hough space, and a frequency distribution converted by the Hough transform means, and a frequency distribution stored in the reference means. A search unit that determines a correlation and determines the presence or absence of the reference image based on the presence or absence of the correlation.
【請求項2】 請求項1に記載の画像処理装置におい
て、 前記探査手段は、 ρ=ρ/(ρの平均値) θ=θ−(θの平均値) に基づいて規格化されたρθハフ空間上において、前記
入力画像の度数分布と前記参照画像の度数分布との相関
を判定し、前記相関の有無により前記参照画像の有無を
判断することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the search means includes a ρθ Huff normalized based on ρ = ρ / (average value of ρ) θ = θ− (average value of θ). An image processing apparatus, wherein a correlation between a frequency distribution of the input image and a frequency distribution of the reference image is determined in space, and the presence or absence of the reference image is determined based on the presence or absence of the correlation.
【請求項3】 請求項1または請求項2に記載の画像処
理装置において、 前記探査手段は、 前記ハフ変換手段により変換された度数分布と、前記参
照手段に記憶された度数分布との相互相関係数を算出す
る相関算出手段と、 前記相関算出手段により算出された相互相関係数に基づ
いて相関を判定し、前記相関の有無により前記参照画像
の有無を判断する相関判定手段とを備えたことを特徴と
する画像処理装置。
3. The image processing apparatus according to claim 1, wherein said searching means is configured to determine a correlation between a frequency distribution converted by said Hough conversion means and a frequency distribution stored in said reference means. Correlation calculating means for calculating the number of relations, and correlation determining means for determining a correlation based on the cross-correlation coefficient calculated by the correlation calculating means, and determining the presence or absence of the reference image based on the presence or absence of the correlation. An image processing apparatus characterized by the above-mentioned.
【請求項4】 請求項1ないし請求項3のいずれか1項
に記載の画像処理装置において、 前記入力画像に対し濃度値のグラジエントを求め、グラ
ジエント方向が一致し、かつ連続するエッジ群を抽出す
る連続エッジ抽出手段と、 前記連続エッジ抽出手段により抽出されたエッジ群の画
素数を計数し、前記参照画像におけるエッジ群の画素数
との相関を判定するエッジ判定手段とを備え、 前記探査手段は、 前記エッジ判定手段において相関有りと判定された入力
画像と参照画像とについて、前記探査を実行することを
特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein a gradient of a density value is obtained for the input image, and a group of edges having the same gradient direction and being continuous is extracted. Continuous edge extracting means, and edge determining means for counting the number of pixels of the edge group extracted by the continuous edge extracting means and determining a correlation with the number of pixels of the edge group in the reference image; The image processing apparatus according to claim 1, wherein the search is performed on the input image and the reference image determined to have a correlation by the edge determination unit.
【請求項5】 請求項1ないし請求項3のいずれか1項
に記載の画像処理装置をコンピュータを用いて実現する
ための画像処理プログラムを記録した媒体であって、 コンピュータを、前記参照手段,前記ハフ変換手段およ
び前記探査手段として機能させるための画像処理プログ
ラムを記録した媒体。
5. A medium storing an image processing program for realizing the image processing apparatus according to claim 1 using a computer, wherein the medium is a computer. A medium in which an image processing program for functioning as the Hough transform unit and the search unit is recorded.
【請求項6】 請求項4に記載の画像処理装置をコンピ
ュータを用いて実現するための画像処理プログラムを記
録した媒体であって、 コンピュータを、前記参照手段,前記ハフ変換手段,前
記探査手段,前記連続エッジ抽出手段および前記エッジ
判定手段として機能させるための画像処理プログラムを
記録した媒体。
6. A medium in which an image processing program for realizing the image processing apparatus according to claim 4 using a computer is recorded, wherein the computer is provided with the reference unit, the Hough conversion unit, the search unit, A medium in which an image processing program for functioning as the continuous edge extracting unit and the edge determining unit is recorded.
JP8317740A 1996-11-28 1996-11-28 Image processor, and medium where image processing program is recorded Pending JPH10162139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8317740A JPH10162139A (en) 1996-11-28 1996-11-28 Image processor, and medium where image processing program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8317740A JPH10162139A (en) 1996-11-28 1996-11-28 Image processor, and medium where image processing program is recorded

Publications (1)

Publication Number Publication Date
JPH10162139A true JPH10162139A (en) 1998-06-19

Family

ID=18091514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8317740A Pending JPH10162139A (en) 1996-11-28 1996-11-28 Image processor, and medium where image processing program is recorded

Country Status (1)

Country Link
JP (1) JPH10162139A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005124688A1 (en) * 2004-06-18 2005-12-29 Sony Corporation Image correlation method, image correlation device, and program
JP2006195696A (en) * 2005-01-13 2006-07-27 Sony Corp Image collating device, image collating method and program
JP2009055591A (en) * 2007-08-28 2009-03-12 Samsung Electronics Co Ltd Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity
US7720307B2 (en) 2003-10-07 2010-05-18 Sony Corporation Image matching method, program, and image matching system
JP2010118068A (en) * 2003-06-30 2010-05-27 Sony Corp Biometrics authentication apparatus, biometrics authentication method, blood-vessel information storing apparatus and blood-vessel information storing method
JP2012022359A (en) * 2010-07-12 2012-02-02 Fuji Xerox Co Ltd Image processing device and image processing program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118068A (en) * 2003-06-30 2010-05-27 Sony Corp Biometrics authentication apparatus, biometrics authentication method, blood-vessel information storing apparatus and blood-vessel information storing method
US7860279B2 (en) 2003-10-07 2010-12-28 Sony Corporation Image matching method, program, and image matching system
US7720307B2 (en) 2003-10-07 2010-05-18 Sony Corporation Image matching method, program, and image matching system
KR101038639B1 (en) 2003-10-07 2011-06-03 소니 주식회사 Image identification method and image identification apparatus
EP1758060A1 (en) * 2004-06-18 2007-02-28 Sony Corporation Image correlation method, image correlation device, and program
CN100371953C (en) * 2004-06-18 2008-02-27 索尼株式会社 Image correlation method, image correlation device, and program
EP1758060A4 (en) * 2004-06-18 2009-07-22 Sony Corp Image correlation method, image correlation device, and program
US7848576B2 (en) 2004-06-18 2010-12-07 Sony Corporation Image matching method, image matching apparatus, and program
WO2005124688A1 (en) * 2004-06-18 2005-12-29 Sony Corporation Image correlation method, image correlation device, and program
KR101122944B1 (en) * 2004-06-18 2012-03-22 소니 주식회사 Image correlation method, image correlation device, and program
JP2006195696A (en) * 2005-01-13 2006-07-27 Sony Corp Image collating device, image collating method and program
JP2009055591A (en) * 2007-08-28 2009-03-12 Samsung Electronics Co Ltd Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity
JP2012022359A (en) * 2010-07-12 2012-02-02 Fuji Xerox Co Ltd Image processing device and image processing program

Similar Documents

Publication Publication Date Title
US8452096B2 (en) Identifying descriptor for person or object in an image
US8351662B2 (en) System and method for face verification using video sequence
US8611662B2 (en) Text detection using multi-layer connected components with histograms
JP4712487B2 (en) Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program
US7689011B2 (en) Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications
EP2833288A1 (en) Face calibration method and system, and computer storage medium
US20070071289A1 (en) Feature point detection apparatus and method
JP2002157591A (en) System and method for recognizing object
JP2000105829A (en) Method and device for face parts image detection
US8027978B2 (en) Image search method, apparatus, and program
CN107273783A (en) Face identification system and its method
JP6278108B2 (en) Image processing apparatus, image sensor, and image processing method
KR101151435B1 (en) Apparatus and method of recognizing a face
CN108960246B (en) Binarization processing device and method for image recognition
JPH10162139A (en) Image processor, and medium where image processing program is recorded
JP3372419B2 (en) Object recognition method
US7231086B2 (en) Knowledge-based hierarchical method for detecting regions of interest
US7113637B2 (en) Apparatus and methods for pattern recognition based on transform aggregation
CN116664501A (en) Method for judging grain storage change based on image processing
Campadelli et al. A color based method for face detection
JP2005250786A (en) Image recognition method
JP4432623B2 (en) Image processing device
JP2002245404A (en) Program and device for segmenting area
JPH07128031A (en) Face-image recognition apparatus
JP2005267406A (en) Pattern detection method and device