JPH04349583A - Generalized hough transform circuit - Google Patents

Generalized hough transform circuit

Info

Publication number
JPH04349583A
JPH04349583A JP3121425A JP12142591A JPH04349583A JP H04349583 A JPH04349583 A JP H04349583A JP 3121425 A JP3121425 A JP 3121425A JP 12142591 A JP12142591 A JP 12142591A JP H04349583 A JPH04349583 A JP H04349583A
Authority
JP
Japan
Prior art keywords
address
point
data
image
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3121425A
Other languages
Japanese (ja)
Inventor
Mutsuo Sano
睦夫 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3121425A priority Critical patent/JPH04349583A/en
Publication of JPH04349583A publication Critical patent/JPH04349583A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/753Transform-based matching, e.g. Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To detect the recognition parameter with higher accuracy than the resolution of an input image at the time of generalized Hough transform. CONSTITUTION:With respect to a gradation image, a distance (rj) of a feature point and a reference point and an azimuth phij are stored in an address position of a reference table and from the gradation value data (rj) and the phij value of each picture element (x, y) of the gradation image, signals (x), (y) of an address generator 2, a signal theta of an angle generator 10, and a signal (s) of a size fluctuation correction rate generator 11, the address transform of x+ sXrjocos(theta+phij) and y+sXrjsin(theta+phij) is executed by an address transform part 5. A reciprocal ratio of a distance between a candidate point (xG', yG', thetas) and the corresponding point of an adjacent address is accumulated in an adjacent address position on a parameter accumulation memory 8 by an accumulation arithmetic part 7, a temporary maximum point being above a prescribed threshold is determined from accumulated data, the accumulated data of an adjacent address in the periphery of the maximum point is inputted, an interpolating operation is executed and a position of the maximum point is determined by a parameter determining part 12.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、例えば機械部品および
工具等の定型物体の画像認識を行う上で必要とされるパ
ターンマッチング回路に用いられる高精度な一般化ハフ
変換回路に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a highly accurate generalized Hough transform circuit used in a pattern matching circuit required for image recognition of regular objects such as mechanical parts and tools.

【0002】0002

【従来の技術】ノイズが多い入力画像中から、定型物体
の位置及び向き、サイズの変化量を検出するのが、一般
化ハフ変換である。一般化ハフ変換では、互いに重なり
合っていて、部分的にも欠けている対象に対しても適用
可能であり、工業上の応用にも幅広く用いられている。 一般化ハフ変換の手順及び回路構成について図3乃至図
7を用いて以下説明する。
2. Description of the Related Art Generalized Hough transform is used to detect the amount of change in the position, orientation, and size of a regular object from a noisy input image. The generalized Hough transform can be applied to objects that overlap and are partially missing, and is widely used in industrial applications. The procedure and circuit configuration of the generalized Hough transform will be described below with reference to FIGS. 3 to 7.

【0003】まず、図5に示す対象物体内に参照点R(
xG ,yG )を設定する。同時に、対象物体内にお
いて、任意の特徴点Zj(xj ,yj )を設定する
。特徴点は、一般に複数個(j=1,…M)存在し、各
特徴点に与えられる特徴値は、何であっても良い。通常
は、エッジの方向係数がよく用いられるが、ここでは、
説明を簡単にするために、TVカメラ等の撮像装置から
のアナログ信号をA/D変換して得られる濃淡画像値(
Nレベル:F1 ,…,Fi ,…,FN )そのもの
について説明する。まず、各特徴点に対してマッチング
処理用の参照データを次のように作成する。
First, a reference point R (
xG, yG). At the same time, an arbitrary feature point Zj (xj, yj) is set within the target object. Generally, there are a plurality of feature points (j=1, . . . M), and any feature value may be given to each feature point. Normally, the direction coefficient of the edge is often used, but here,
To simplify the explanation, we will use grayscale image values (
N level: F1,...,Fi,...,FN) itself will be explained. First, reference data for matching processing is created for each feature point as follows.

【0004】1)特徴点Zj(xj ,yj )と参照
点R(xG ,yG )との位置関係を規定する距離r
j と方位角φj からなる位置ベクトルを算出する。
1) Distance r that defines the positional relationship between feature point Zj (xj, yj) and reference point R (xG, yG)
A position vector consisting of j and azimuth φj is calculated.

【0005】2)図4に示す参照テーブルの中の特徴値
Fi 値に対応するアドレスに、特徴値Fi を有する
特徴点の位置ベクトル(rj ,φj )を全て書き込
む。
2) Write all the position vectors (rj, φj) of the feature points having the feature value Fi to the address corresponding to the feature value Fi value in the reference table shown in FIG.

【0006】以上が、参照データ作成時の処理であるが
、次に、パターンマッチング演算時の処理について、図
3に示す従来の一般化ハフ変換回路の回路ブロック図を
用いて説明する。
The above is the process for creating reference data. Next, the process for pattern matching calculation will be explained using the circuit block diagram of the conventional generalized Hough transform circuit shown in FIG.

【0007】x,yアドレスジェネレータ2からアドレ
ス信号x,yが、図6に示されるような濃淡値をもつ入
力画像を格納する濃淡画像メモリ3に供給され、濃淡値
f(x,y)が読み出される。読み出された濃淡値f(
x,y)を参照テーブルメモリ4の(rj ,φj )
列をアクセスするアドレスとして用い、前記アドレス位
置の(rj ,φj )列を順次読み出す。読み出され
たrj ,φj 値と、前記アドレスジェネレータ2か
ら供給されるアドレス信号x,yおよび物体の回転角度
の候補値を与える角度ジェネレータ10から供給される
角度信号φ、画像サイズの変動補正率の候補値を与える
補正率ジェネレータ11から供給される補正率信号sを
、アドレス変換部5の入力として、 xG ’=x+s×rcos(θ+φ)yG ’=y+
s×rsin(θ+φ)なるアドレス変換が実行され、
入力画像中の参照点候補アドレス(xG ’,yG ’
)が算出される。ここで、通常は、変換演算の高速化の
ため、sinθ,cosθテーブルメモリ9を参照する
方式がとられる。このようにして決定されたxG ’,
yG ’,θ,sをアドレスとして、パラメータ累算メ
モリ8(図7は、s固定のxG ’,yG’,θから構
成されるパラメータ累算メモリ構成例を示す)の対応す
るアドレス位置の値A(xG ’,yG ’,θ,s)
を累積演算部7により1だけインクリメントする。以上
の処理を、タイミング及び制御回路1より指定されたθ
およびsの変動範囲について、さらには、濃淡画像メモ
リ3の全領域について行い、その結果得られるパラメー
タ累積メモリ上の値に対して、パラメータ決定部15に
より、一定しきい値以上の極大値を与える点(xG”,
yG ”,θ”,s”)を検出し、それらの点を、対象
物体の位置xG ,yG および回転角度θ、サイズ変
動補正率S(画像入力倍率の変動等による画像サイズの
変動を表す)とする。
Address signals x, y are supplied from the x, y address generator 2 to a grayscale image memory 3 that stores an input image having grayscale values as shown in FIG. Read out. The read gray value f(
x, y) in table memory 4 (rj, φj)
Using the column as an address to access, the (rj, φj) column at the address position is sequentially read. The read rj and φj values, the address signals x and y supplied from the address generator 2, the angle signal φ supplied from the angle generator 10 that provides a candidate value for the rotation angle of the object, and the image size variation correction rate. The correction factor signal s supplied from the correction factor generator 11 that gives a candidate value of
An address conversion of s×rsin(θ+φ) is executed,
Reference point candidate address in input image (xG', yG'
) is calculated. Here, in order to speed up the conversion calculation, a method is usually used in which the sin θ, cos θ table memory 9 is referred to. xG' determined in this way,
With yG', θ, and s as addresses, the value of the corresponding address position of the parameter accumulation memory 8 (FIG. 7 shows an example of the parameter accumulation memory configuration consisting of xG', yG', and θ with fixed s) A(xG', yG', θ, s)
is incremented by 1 by the cumulative calculation unit 7. The above processing is performed using θ specified by the timing and control circuit 1.
This is performed for the variation range of Point (xG”,
yG", θ", s"), and convert those points into the target object's position xG, yG, rotation angle θ, and size variation correction rate S (represents image size variation due to variation in image input magnification, etc.) shall be.

【0008】[0008]

【発明が解決しようとする課題】このような手順及び構
成によって実現される一般化ハフ変換を用いたマッチン
グ処理では、濃淡画像メモリの画像の解像度以上の精度
で、認識対象のパラメータxG ,yG ,θ,sを算
出することはできない。また、一般化ハフ変化に対して
、次の事実が知られている。その事実は、一般化ハフ変
換では、入力となる濃淡画像のサイズ(画素数)をSx
×Syとし、特徴点数をNf、回転の刻み数をNθ、サ
イズ変動補正率の刻み数をNsとすれば、Sx×Sy×
Nf×Nθ×Ns回のアドレス変換を行わなければなら
ず、演算コストが天文学的数字になってしまうことであ
る。 ここで、濃淡画像のサイズ、即ち分解能を落とせば、近
似的にN5 のオーダーで演算コストが低減する。もし
、濃淡画像メモリ上の画像の解像度以上の精度でパラメ
ータが検出できるとしたら、濃淡画像メモリの画像の解
像度を粗くして、一般化ハフ変換の処理コストを減らし
た状態で、元の解像度相当のパラメータを検出できるこ
ととなり、その効果は非常に大きいものとなる。また、
画像入力装置の撮像素子数を上げることなく、更に光学
系の倍率も上げることなく、高精度のパラメータ検出を
したい場合にも、極めて有効である。
[Problems to be Solved by the Invention] In the matching process using the generalized Hough transform realized by such a procedure and configuration, the parameters xG , yG , and θ,s cannot be calculated. Furthermore, the following facts are known regarding the generalized Hough change. The fact is that in the generalized Hough transform, the size (number of pixels) of the input grayscale image is Sx
×Sy, the number of feature points is Nf, the number of rotation increments is Nθ, and the number of increments of size variation correction rate is Ns, then Sx×Sy×
Address conversion must be performed Nf×Nθ×Ns times, and the calculation cost becomes an astronomical number. Here, if the size of the grayscale image, that is, the resolution is reduced, the calculation cost will be approximately reduced on the order of N5. If the parameters can be detected with an accuracy higher than the resolution of the image in the grayscale image memory, then the resolution of the image in the grayscale image memory can be made coarser, and the processing cost of the generalized Hough transform can be reduced. parameters can be detected, and the effect is very large. Also,
It is also extremely effective when it is desired to detect parameters with high accuracy without increasing the number of image pickup elements in the image input device and without increasing the magnification of the optical system.

【0009】本発明は、上記に鑑みてなされたもので、
その目的とするところは、一般化ハフ変換において入力
画像の解像度以上の精度で認識パラメータを検出するこ
とができる高精度な一般化ハフ変換回路を提供すること
にある。
The present invention has been made in view of the above, and
The purpose is to provide a highly accurate generalized Hough transform circuit that can detect recognition parameters with an accuracy higher than the resolution of an input image in generalized Hough transform.

【0010】0010

【課題を解決するための手段】上記目的を達成するため
、本発明の一般化ハフ変換回路は、画像中の特徴点の対
応関係から対象物体の参照点(xG ,yG )の位置
および回転角θ、サイズ変動の補正率sを検出する一般
化ハフ変換回路であって、入力画像データまたは入力画
像データに対する特徴抽出処理を行って得られる特徴画
像データを濃淡画像として格納する濃淡画像メモリと、
参照データ作成時において前記濃淡画像メモリから読み
出された特徴点の濃淡値データをアドレス信号として前
記特徴点と参照点との距離rと方位角φを前記アドレス
位置に格納する参照テーブルと、パターンマッチング演
算時においてはアドレス発生器からのアドレス信号x,
yと該アドレス信号x,yにより前記濃淡画像メモリか
ら読み出された画素(x,y)における濃淡値データを
アドレス信号として前記参照テーブルから読み出した距
離rおよび方位角φの値、角度発生器からの信号θ、サ
イズ変動補正率発生器からの信号sを入力として、xG
 =x+s×rcos(θ+φ)およびyG =y+s
×rsin(θ+φ)のアドレス変換を行い、xG 値
およびyG 値を算出するアドレス変換部と、パラメー
タ累積メモリ上のアドレス(xG ,yG ,θ,s)
の近傍アドレスに対してアドレス位置(xG ,yG 
,θ,s)と近傍アドレス位置間の距離の逆比をパラメ
ータ累積メモリ上の前記近傍アドレス位置に累積する累
積演算部と、前記累積データから所定しきい値以上の仮
の極大点を決定し、該極大点周囲の近傍の累積データを
入力として補間演算を行うことにより高精度に真の極大
点の位置を与えるパラメータを決定するパラメータ決定
部とを有することを要旨とする。
[Means for Solving the Problems] In order to achieve the above object, the generalized Hough transform circuit of the present invention calculates the position and rotation angle of a reference point (xG, yG) of a target object from the correspondence of feature points in an image. θ, a generalized Hough transform circuit for detecting a size variation correction factor s, and a grayscale image memory that stores input image data or feature image data obtained by performing feature extraction processing on the input image data as a grayscale image;
a reference table that stores the distance r and azimuth angle φ between the feature point and the reference point at the address position using the gray value data of the feature point read from the gray image memory as an address signal when creating reference data; and a pattern. During the matching operation, the address signal x from the address generator,
y and the gray value data at the pixel (x, y) read from the gray image memory using the address signals x, y as address signals, and the values of the distance r and azimuth φ read from the reference table, and the angle generator. With the signal θ from the
=x+s×rcos(θ+φ) and yG =y+s
An address converter that converts the address of ×rsin (θ+φ) and calculates the xG value and yG value, and the address (xG, yG, θ, s) on the parameter accumulation memory.
The address position (xG , yG
, θ, s) and the inverse ratio of the distance between neighboring address positions in the neighboring address position on the parameter accumulation memory; , and a parameter determination unit that determines parameters that provide a true position of the maximum point with high accuracy by performing an interpolation calculation using accumulated data in the vicinity of the maximum point as input.

【0011】[0011]

【作用】本発明の一般化ハフ変換回路では、参照データ
作成時においては、濃淡画像に対して特徴点の濃淡値デ
ータをアドレス信号として特徴点と参照点との距離rj
と方位角φjを参照テーブルのアドレス位置に格納する
とともに、パターンマッチング演算時においては、濃淡
画像の各画素(x,y)における濃淡値データをアドレ
スとして参照テーブルから読み出したrjおよびφj値
、更にアドレス発生器からの信号x,y、角度発生器か
らの信号θ、サイズ変動補正率発生器からの信号sを入
力として、x+s×rjcos(θ+φj)およびy+
s×rjsin(θ+φj)のアドレス変換をアドレス
変換部で実行して参照点の候補(xG ’,yG ’)
を算出し、パラメータ累積メモリ上のアドレス(xG 
’,yG ’,θ,s)の近傍アドレスに対して候補点
(xG ’,yG ’,θ,s)と近傍アドレスの対応
点の間の距離の逆比をパラメータ累積メモリ上の近傍ア
ドレス位置に累積演算部で累積し、累積データから一定
しきい値以上の仮の極大点を決定し、極大点周囲の近傍
アドレスの累積データを入力として補間演算を行うこと
により高精度に真の極大点の位置を与えるパラメータを
パラメータ決定部で決定している。
[Operation] In the generalized Hough transform circuit of the present invention, when creating reference data, the distance rj between the feature point and the reference point is calculated using the gray value data of the feature point as an address signal for the gray image.
and azimuth φj are stored in the address position of the reference table, and at the time of pattern matching calculation, the gradation value data at each pixel (x, y) of the gradation image is used as an address to read out the rj and φj values from the reference table, and Using the signals x and y from the address generator, the signal θ from the angle generator, and the signal s from the size variation correction factor generator as input, x+s×rjcos(θ+φj) and y+
The address conversion unit executes address conversion of s×rjsin(θ+φj) to generate reference point candidates (xG', yG')
is calculated, and the address on the parameter cumulative memory (xG
', yG', θ, s), the inverse ratio of the distance between the candidate point (xG', yG', θ, s) and the corresponding point of the neighboring address is the parameter of the neighboring address position on the cumulative memory. The cumulative data is accumulated in the accumulation calculation section, a temporary maximum point above a certain threshold is determined from the accumulated data, and the true maximum point is calculated with high precision by performing interpolation calculation using the accumulated data of neighboring addresses around the maximum point as input. The parameter determining unit determines the parameters that give the position of the .

【0012】0012

【実施例】以下、図面を用いて本発明の実施例を説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Examples of the present invention will be described below with reference to the drawings.

【0013】図1は、本発明の一実施例の構成を示すブ
ロック図である。図1において、1は全体回路を統括・
制御するタイミングおよび制御回路、2は各画像メモリ
にx,yアドレスを供給するアドレスジェネレータ部、
3はTVカメラ等の撮像装置からのアナログ信号をA/
D変換して得られる入力画像または、その濃淡画像に対
して、認識対象に適した特徴抽出を行った結果得られる
特徴画像の濃淡値を格納する濃淡画像メモリである。こ
こで、濃淡画像メモリデータそのものが、認識率や外乱
に対するロバスト性に大きな影響を与える。例えば、工
具のような形状に意味のある対象に対しては、局所エリ
ア内でのエッジ方向の分散の度合を示すエッジ曲率特徴
などが適しているし、文字や図柄を含んだ対象に対して
は、モーメント量、コントラストや、局所エリア内での
エッジの頻度を示す複雑度特徴などが適している。また
、明度に直接関係する明るさのコントラストなどは、照
明条件の外乱変動に対しては、影響を受ける。このよう
な場合は、できるだけエッジなどの高周波成分をあたえ
る特徴を用いたほうが安定である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. In Figure 1, 1 supervises the entire circuit.
2 is an address generator unit that supplies x and y addresses to each image memory;
3 converts analog signals from imaging devices such as TV cameras into A/
This is a grayscale image memory that stores grayscale values of a feature image obtained as a result of extracting features suitable for a recognition target from an input image obtained by D conversion or a grayscale image thereof. Here, the grayscale image memory data itself has a great influence on the recognition rate and robustness against disturbances. For example, edge curvature features that indicate the degree of dispersion of edge directions within a local area are suitable for objects whose shape is meaningful, such as tools, and for objects containing characters or designs. Suitable examples include moment amount, contrast, and complexity features that indicate the frequency of edges within a local area. Furthermore, brightness contrast, which is directly related to brightness, is affected by disturbance fluctuations in illumination conditions. In such cases, it is more stable to use features that provide high frequency components, such as edges, as much as possible.

【0014】4は参照テーブルメモリであり、参照デー
タ作成時においては、従来の一般化ハフ変換と同様に、
前記濃淡画像メモリ3から読み出された特徴点の濃淡値
をアドレス信号として参照テーブルメモリの対応アドレ
ス位置に、前記特徴点と参照点との距離rと方位角φが
格納される。ここで、r,φは、できるだけ精度の高い
値を格納する必要がある。
4 is a reference table memory, and when creating reference data, as in the conventional generalized Hough transform,
The distance r and azimuth angle φ between the feature point and the reference point are stored in the corresponding address position of the reference table memory using the gray value of the feature point read from the gray image memory 3 as an address signal. Here, r and φ need to store values with as high precision as possible.

【0015】一方、パターンマッチング演算時では、ア
ドレスジェネレータ2より供給されるx,yアドレス位
置の濃淡画像メモリデータf(x,y)に対し、下記の
処理が行われる。
On the other hand, during the pattern matching calculation, the following processing is performed on the grayscale image memory data f(x,y) at the x and y address positions supplied from the address generator 2.

【0016】濃淡画像メモリ3から読み出されたデータ
f(x,y)値により指定される参照テーブルメモリ4
のアドレス位置に(rj ,φj )列の登録がなけれ
ば、処理を何も実行せず、濃淡画像メモリ3から次のデ
ータを読み出し、(rj ,φj )列があるか否かを
調べる。 (rj ,φj )列があれば、(rj ,φj )の
要素の個数分だけ、以下の処理を行う。
Reference table memory 4 specified by the data f(x,y) value read out from grayscale image memory 3
If the (rj, φj) column is not registered at the address position, no processing is performed, the next data is read from the grayscale image memory 3, and it is checked whether the (rj, φj) column exists. If there is a (rj, φj) sequence, the following processing is performed for the number of elements of (rj, φj).

【0017】・サイズ変動補正率ジェネレータ11より
、サイズ変動補正率信号sを認識対象のサイズが変動し
うる範囲内で、Δsのピッチでインクリメントして送出
し、下記の処理を行う。
The size variation correction factor generator 11 sends out the size variation correction factor signal s in increments at a pitch of Δs within the range in which the size of the object to be recognized can fluctuate, and performs the following processing.

【0018】・角度ジェネレータ10より、角度信号θ
を認識対象が回転しうる角度範囲内で、Δθのピッチで
インクリメントして送出し、下記の処理を行う。
Angle signal θ from the angle generator 10
is incremented at a pitch of Δθ within the angle range in which the recognition target can rotate, and is sent out, and the following processing is performed.

【0019】1)サイズ変動補正率ジェネレータ11か
ら供給される補正率信号s、角度ジェネレータ10から
供給される角度信号θ、参照テーブルから読み出された
位置ベクトル(rj ,φj )を入力として、アドレ
ス変換部5では、 xG ’:=x+s×rj cos(θ+φj )yG
 ’:=y+s×rj sin(θ+φj )のアドレ
ス変換が行われ、参照点の候補xG ’値,yG ’値
が算出される。この演算を高速に行うために、テーブル
メモリ9に示されるsinθ,cosθのルックアップ
テーブルを参照してもよい。ただし、xG’,yG ’
値は、整数ではなく、実数とする。
1) Using as input the correction factor signal s supplied from the size variation correction factor generator 11, the angle signal θ supplied from the angle generator 10, and the position vector (rj, φj) read from the reference table, the address is In the conversion unit 5, xG':=x+s×rj cos(θ+φj)yG
':=y+s×rj sin(θ+φj) address conversion is performed, and reference point candidate xG' and yG' values are calculated. In order to perform this calculation at high speed, a lookup table of sin θ and cos θ shown in the table memory 9 may be referred to. However, xG', yG'
The value must be a real number, not an integer.

【0020】2)前記演算より算出されたxG ’,y
G ’値とθ,s値で決定されるパラメータ空間上での
座標点をP(xG ’,yG ’,θ,s)としたとき
、n近傍重み係数検出部6では、以下の処理が行われる
。Pの近傍点と、P点との距離を算出する。距離は通常
のユークリッド距離とする。Pの近傍点は、θ,sが固
定のときは、4近傍点([xG ’],[yG ’],
θ,s)、([xG ’]+1,[yG ’],θ,s
)、([xG ’],[yG ’]+1,θ,s)、(
[xG ’]+1,[yG ’]+1,θ,s)とし、
sのみが固定のときは、下記の12近傍点(x,y4近
傍点×3)となる。
2) xG',y calculated from the above calculation
When the coordinate point on the parameter space determined by the G' value and the θ, s value is P(xG', yG', θ, s), the n-neighborhood weighting coefficient detection unit 6 performs the following processing. be exposed. The distance between points near P and point P is calculated. The distance is the normal Euclidean distance. When θ and s are fixed, the neighboring points of P are 4 neighboring points ([xG'], [yG'],
θ,s), ([xG']+1,[yG'],θ,s
), ([xG'], [yG']+1, θ, s), (
[xG']+1, [yG']+1,θ,s),
When only s is fixed, the following 12 neighboring points (x, y4 neighboring points x 3) will be used.

【0021】ただし、[]は、ガウス記号であり、整数
部分をとる。
[] is a Gauss symbol and takes an integer part.

【0022】([xG ’] ,[yG ’]  ,θ
   ,s) 、([xG ’]+1 ,[yG ’]
  ,θ   ,s) 、([xG ’] ,[yG 
’]+1,θ   ,s) 、([xG ’]+1 ,
[yG ’]+1,θ ,s) 、([xG ’] ,
[yG ’]  ,θ+1 ,s) 、([xG ’]
+1 ,[yG ’]  ,θ+1 ,s) 、([x
G ’] ,[yG ’]+1,θ+1 ,s) 、(
[xG ’]+1 ,[yG ’]+1,θ+1 ,s
) 、([xG ’] ,[yG ’]  ,θ−1 
,s) 、([xG ’]+1 ,[yG ’]  ,
θ−1 ,s) 、([xG ’] ,[yG ’]+
1,θ−1 ,s) 、([xG ’]+1 ,[yG
 ’]+1,θ−1 ,s)図2にその概念図を示す。 また、xG ’,yG ’,θ,sすべてが変数の場合
は、36近傍点(x,y4近傍点×3×3)となる。な
お、図2では、各Pは次のようになっている。
([xG'], [yG'], θ
,s) ,([xG']+1,[yG']
, θ , s) , ([xG'] , [yG
']+1, θ, s), ([xG']+1,
[yG']+1,θ,s), ([xG'],
[yG'], θ+1,s), ([xG']
+1 , [yG'] , θ+1 , s) , ([x
G'], [yG']+1, θ+1, s), (
[xG']+1, [yG']+1, θ+1, s
), ([xG'], [yG'], θ-1
,s), ([xG']+1,[yG'],
θ−1, s), ([xG'], [yG']+
1, θ−1, s), ([xG']+1, [yG
']+1, θ-1, s) A conceptual diagram is shown in FIG. Further, if xG', yG', θ, and s are all variables, there are 36 neighboring points (x, y4 neighboring points x 3 x 3). In addition, in FIG. 2, each P is as follows.

【0023】P      ;(xG ’,yG ’,
θ,s)P0,0,0 ;([xG ’]  ,[yG
 ’]  ,θ  ,s)P1,0,0 ;([xG 
’]+1,[yG ’]  ,θ  ,s)P0,1,
0 ;([xG ’]  ,[yG ’]+1,θ  
,s)P1,1,0 ;([xG ’]+1,[yG 
’]+1,θ  ,s)P0,0,1 ;([xG ’
]  ,[yG ’]  ,θ+1,s)P1,0,1
 ;([xG ’]+1,[yG ’]  ,θ+1,
s)P0,1,1 ;([xG ’]  ,[yG ’
]+1,θ+1,s)P1,1,1 ;([xG ’]
+1,[yG ’]+1,θ+1,s)P0,0,−1
;([xG ’]  ,[yG ’]  ,θ−1,s
)P1,0,−1;([xG ’]+1,[yG ’]
  ,θ−1,s)P0,1,−1;([xG ’] 
 ,[yG ’]+1,θ−1,s)P1,1,−1;
([xG ’]+1,[yG ’]+1,θ−1,s)
次に、算出された各近傍点の距離値から、各近傍点に対
する重み値を決定する。各近傍点までの距離値をdi 
(i=1,…,Np:Npは近傍点数)とすると、各近
傍点に対する重み値wi (i=1,…,Np)は、次
式で決定される。
P; (xG', yG',
θ,s)P0,0,0;([xG'],[yG
'], θ, s) P1, 0, 0; ([xG
']+1,[yG'],θ,s)P0,1,
0; ([xG'], [yG']+1, θ
,s)P1,1,0;([xG']+1,[yG
']+1,θ,s)P0,0,1;([xG'
] , [yG '] , θ+1, s) P1,0,1
;([xG']+1, [yG'], θ+1,
s) P0,1,1; ([xG'], [yG'
]+1,θ+1,s)P1,1,1;([xG']
+1,[yG']+1,θ+1,s)P0,0,-1
;([xG'],[yG'],θ-1,s
)P1,0,-1;([xG']+1,[yG']
,θ-1,s)P0,1,-1;([xG']
,[yG']+1,θ-1,s)P1,1,-1;
([xG']+1, [yG']+1, θ-1, s)
Next, a weight value for each neighboring point is determined from the calculated distance value of each neighboring point. The distance value to each neighboring point is di
(i=1,...,Np: Np is the number of neighboring points), then the weight value wi (i=1,..., Np) for each neighboring point is determined by the following equation.

【0024】wi =c/di  ただし、cは、Σwi =1の関係式により決まる係数
である。
wi =c/di where c is a coefficient determined by the relational expression Σwi =1.

【0025】ここで、上記演算を高速に行うために、距
離値算出演算および距離値からの重み値算出演算は、ル
ックアップテーブル参照型の演算構成とする必要がある
In order to perform the above calculations at high speed, the distance value calculation calculation and the weight value calculation calculation from the distance value need to be configured using a lookup table reference type.

【0026】3)パラメータ累積メモリ8上の各近傍点
のアドレス位置に、累積演算部7を介してn近傍重み係
数検出部6で算出されたwi を累積する。
3) The wi calculated by the n-neighborhood weight coefficient detection unit 6 is accumulated at the address position of each neighboring point on the parameter accumulation memory 8 via the accumulation calculation unit 7.

【0027】画素位置(x,y)は、左上隅から右下隅
まで走査され、上記処理が繰り返される。
The pixel position (x, y) is scanned from the upper left corner to the lower right corner, and the above process is repeated.

【0028】12は、パラメータ決定部であり、極大点
検出部13で決定されたパラメータ値に対して極大点近
傍補間演算部14でより高精度のパラメータ値を算出す
る。極大点検出部13では、パラメータ累積メモリデー
タに対して、タイミング及び制御回路1より指定された
しきい値以上の極大点を算出する。入力画像中に、認識
対象が複数ある場合は、一定しきい値以上の極大点が複
数存在する。また、極大点の算出方法としては、一定し
きい値で、パラメータ累積メモリA(xG ’,yG 
’,θ,s)を2値化し、公知の手法で、クラスタ重心
を算出することにより実現される。
Reference numeral 12 denotes a parameter determining unit, in which a local maximum point neighborhood interpolation calculating unit 14 calculates a parameter value with higher precision for the parameter value determined by the local maximum point detecting unit 13. The local maximum point detection unit 13 calculates local maximum points that are equal to or greater than a threshold value specified by the timing and control circuit 1 with respect to the parameter cumulative memory data. When there are multiple recognition targets in the input image, there are multiple local maximum points that are equal to or higher than a certain threshold. In addition, as a method of calculating the local maximum point, a constant threshold value is used to calculate the parameter cumulative memory A(xG', yG
', θ, s) and calculates the cluster centroid using a known method.

【0029】極大点近傍補間演算部14では、より精度
の高いパラメータ値検出が行われる。極大点検出部13
で検出された極大点周囲の近傍点がもつパラメータ累積
メモリ上の累積値をHi (i=1,…M;Mは近傍点
数)としたとき、各近傍点の座標及び累積値を次式のx
G ,yG ,θ,s,Hの変数に代入し、最小2乗法
を適用することにより、未知変数xG ”,yG ”,
θ”,s”,H”,a,b,c,dを決定する。
The local maximum point neighborhood interpolation calculation section 14 performs parameter value detection with higher accuracy. Maximum point detection unit 13
When the cumulative value in the parameter cumulative memory of the neighboring points around the local maximum point detected in is Hi (i=1,...M; M is the number of neighboring points), the coordinates and cumulative value of each neighboring point can be calculated using the following equation. x
By assigning to the variables G, yG, θ, s, H and applying the least squares method, the unknown variables xG ”, yG ”,
Determine θ”, s”, H”, a, b, c, and d.

【0030】     (xG −xG ”)2 /a2 +(xG 
−xG ”)2 /b2   +(θ−θ”)2 /c
2 +(s−s”)2 /d2 =−(H−H”)ここ
で算出されたパラメータ値であるxG ”,yG ”,
θ”,s”は、真のパラメータ値として、タイミング及
び制御回路1に送出される。近傍点の選択の仕方は、極
大点に隣接する点とする。従って、θ,sが固定である
と、最大8個、sのみが固定であると、最大24個、4
つのパラメータが全て変数であると、最大72個の近傍
点が存在するが、処理速度と、最小2乗法の演算精度の
関係により、近似点数が選択される。ただし、最小2乗
法の演算精度を十分確保するためには、未知変数の2倍
程度の近傍点が必要となる。
(xG −xG ”)2 /a2 + (xG
-xG ”)2 /b2 +(θ-θ”)2 /c
2 + (s-s”)2/d2 =-(H-H”) The parameter values calculated here are xG ”, yG ”,
θ'',s'' is sent to the timing and control circuit 1 as the true parameter value. Neighboring points are selected as points adjacent to the maximum point. Therefore, if θ and s are fixed, the maximum number is 8, and if only s is fixed, the maximum is 24, and 4
If all the parameters are variables, there will be a maximum of 72 neighboring points, but the number of approximate points is selected depending on the relationship between processing speed and calculation accuracy of the least squares method. However, in order to ensure sufficient calculation accuracy of the least squares method, approximately twice as many neighboring points as the unknown variable are required.

【0031】[0031]

【発明の効果】以上説明したように、本発明によれば、
補間演算処理により参照点を与える累積値の極大点を精
度よく求めることができるので、認識対象の位置、向き
、大きさの認識パラメータ検出を画像入力系の撮像素子
数を上げることなく、更に光学系の倍率も上げることな
く、高精度化できる。さらに、本発明を適用すれば、画
像の解像度を粗くして、一般化ハフ変換の処理コストを
減らした状態で、元の解像度相当のパラメータを検出で
きることとなり、演算時間および演算用メモリの削減の
上で大きな効果が期待される。
[Effects of the Invention] As explained above, according to the present invention,
Since the local maximum point of the cumulative value that provides the reference point can be determined with high accuracy through interpolation calculation processing, recognition parameter detection of the position, orientation, and size of the recognition target can be performed without increasing the number of image sensors in the image input system. High accuracy can be achieved without increasing the magnification of the system. Furthermore, by applying the present invention, parameters corresponding to the original resolution can be detected while reducing the processing cost of the generalized Hough transform by coarsening the resolution of the image, reducing calculation time and memory for calculation. A big effect is expected on the above.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】n近傍重み係数算出のための距離値算出の概念
図である。
FIG. 2 is a conceptual diagram of distance value calculation for n-neighborhood weight coefficient calculation.

【図3】従来の一般化ハフ変換回路の一例の構成を示す
ブロック図である。
FIG. 3 is a block diagram showing the configuration of an example of a conventional generalized Hough transform circuit.

【図4】従来の一般化ハフ変換回路の参照テーブルメモ
リの構成図である。
FIG. 4 is a configuration diagram of a reference table memory of a conventional generalized Hough transform circuit.

【図5】一般化ハフ変換の原理の説明図である。FIG. 5 is an explanatory diagram of the principle of generalized Hough transform.

【図6】一般化ハフ変換の原理の説明図である。FIG. 6 is an explanatory diagram of the principle of generalized Hough transform.

【図7】一般化ハフ変換の原理の説明図である。FIG. 7 is an explanatory diagram of the principle of generalized Hough transform.

【符号の説明】[Explanation of symbols]

1  タイミング・制御回路 2  x,yアドレスジェネレータ 3  濃淡画像メモリ 4  参照テーブルメモリ 5  アドレス変換部 6  n近傍重み係数検出部 7  累積演算部 8  パラメータ累積メモリ 9  テーブルメモリ 10  角度アドレスジェネレータ 11  サイズ変動補正率ジェネレータ12,15  
パラメータ決定部 13  極大点検出部 14  極大点近傍補間演算部
1 Timing/control circuit 2 Generator 12, 15
Parameter determination section 13 Maximum point detection section 14 Maximum point neighborhood interpolation calculation section

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  画像中の特徴点の対応関係から対象物
体の参照点(xG ,yG )の位置および回転角θ、
サイズ変動の補正率sを検出する一般化ハフ変換回路で
あって、入力画像データまたは入力画像データに対する
特徴抽出処理を行って得られる特徴画像データを濃淡画
像として格納する濃淡画像メモリと、参照データ作成時
において前記濃淡画像メモリから読み出された特徴点の
濃淡値データをアドレス信号として前記特徴点と参照点
との距離rと方位角φを前記アドレス位置に格納する参
照テーブルと、パターンマッチング演算時においてはア
ドレス発生器からのアドレス信号x,yと該アドレス信
号x,yにより前記濃淡画像メモリから読み出された画
素(x,y)における濃淡値データをアドレス信号とし
て前記参照テーブルから読出した距離rおよび方位角φ
の値、角度発生器からの信号θ、サイズ変動補正率発生
器からの信号sを入力として、xG =x+s×rco
s(θ+φ)およびyG =y+s×rsin(θ+φ
)のアドレス変換を行い、xG 値およびyG 値を算
出するアドレス変換部と、パラメータ累積メモリ上のア
ドレス(xG ,yG ,θ,s)の近傍アドレスに対
してアドレス位置(xG ,yG ,θ,s)と近傍ア
ドレス位置間の距離の逆比をパラメータ累積メモリ上の
前記近傍アドレス位置に累積する累積演算部と、前記累
積データから所定しきい値以上の仮の極大点を決定し、
該極大点周囲の近傍の累積データを入力として補間演算
を行うことにより高精度に真の極大点の位置を与えるパ
ラメータを決定するパラメータ決定部とを有することを
特徴とする一般化ハフ変換回路。
Claim 1: The position and rotation angle θ of the reference point (xG , yG ) of the target object are determined from the correspondence of feature points in the image.
A generalized Hough transform circuit that detects a correction factor s for size fluctuation, and includes a grayscale image memory that stores input image data or feature image data obtained by performing feature extraction processing on the input image data as a grayscale image, and reference data. A reference table that stores the distance r and azimuth angle φ between the feature point and the reference point at the address position using the gray value data of the feature point read from the gray image memory at the time of creation as an address signal, and a pattern matching calculation. Sometimes, the address signals x, y from an address generator and the gray value data at the pixel (x, y) read out from the gray image memory using the address signals x, y are read out from the reference table as address signals. distance r and azimuth φ
, the signal θ from the angle generator, and the signal s from the size variation correction factor generator as input, xG = x + s × rco
s(θ+φ) and yG =y+s×rsin(θ+φ
) to calculate the xG value and yG value, and the address conversion unit converts the address of address (xG , yG , θ, s) and an accumulation calculation unit that accumulates the inverse ratio of the distance between the address position and the neighboring address position in the neighboring address position on the parameter accumulation memory;
A generalized Hough transform circuit comprising: a parameter determination unit that determines parameters that provide a true position of the maximum point with high accuracy by performing an interpolation calculation using accumulated data in the vicinity of the maximum point as input.
JP3121425A 1991-05-27 1991-05-27 Generalized hough transform circuit Pending JPH04349583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3121425A JPH04349583A (en) 1991-05-27 1991-05-27 Generalized hough transform circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3121425A JPH04349583A (en) 1991-05-27 1991-05-27 Generalized hough transform circuit

Publications (1)

Publication Number Publication Date
JPH04349583A true JPH04349583A (en) 1992-12-04

Family

ID=14810830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3121425A Pending JPH04349583A (en) 1991-05-27 1991-05-27 Generalized hough transform circuit

Country Status (1)

Country Link
JP (1) JPH04349583A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718321B2 (en) 2006-08-16 2014-05-06 Cortexica Vision Systems Limited Method of image processing
CN109816724A (en) * 2018-12-04 2019-05-28 中国科学院自动化研究所 Three-dimensional feature extracting method and device based on machine vision

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718321B2 (en) 2006-08-16 2014-05-06 Cortexica Vision Systems Limited Method of image processing
US9424486B2 (en) 2006-08-16 2016-08-23 Cortexica Vision Systems Limited Method of image processing
CN109816724A (en) * 2018-12-04 2019-05-28 中国科学院自动化研究所 Three-dimensional feature extracting method and device based on machine vision
CN109816724B (en) * 2018-12-04 2021-07-23 中国科学院自动化研究所 Three-dimensional feature extraction method and device based on machine vision

Similar Documents

Publication Publication Date Title
CN107424160B (en) System and method for finding image central line by visual system
US5548326A (en) Efficient image registration
US9122954B2 (en) Performing a histogram using an array of addressable registers
US5890808A (en) Image processing method and apparatus for correlating a test image with a template
KR940006120B1 (en) Reference mark pattern detection device
EP0722149B1 (en) Hough transform with fuzzy gradient and fuzzy voting
JP2017091079A (en) Image processing device and method for extracting image of object to be detected from input data
JPH09501234A (en) Method for identifying spatial and rotational positions of properly marked objects in a digital image sequence
CN109784250B (en) Positioning method and device of automatic guide trolley
US6055334A (en) Image processing device and method for detecting the location of the feature of interest in an object image
CN115131444B (en) Calibration method based on monocular vision dispensing platform
US6122398A (en) Method of recognizing a screw hole and screwing method based on the recognition
US20190279022A1 (en) Object recognition method and device thereof
US7095893B2 (en) System and method for determining an image decimation range for use in a machine vision system
CN114037992A (en) Instrument reading identification method and device, electronic equipment and storage medium
JPH0810132B2 (en) Target pattern rotation angle detection method
JPS60179881A (en) Recognizing method of approximately circular outline
JPH04349583A (en) Generalized hough transform circuit
JP2009302731A (en) Image processing apparatus, image processing program, image processing method, and electronic device
JPH05157518A (en) Object recognizing apparatus
JPH0689341A (en) Component position detecting method
JPH03204783A (en) Image tracking device
JP2001194141A (en) Method for detecting position of moving body
KR19990088074A (en) Method for determining the position of an object by means of digital image processing
JP2632987B2 (en) Pattern matching circuit