JPH08161508A - Pattern detecting method - Google Patents

Pattern detecting method

Info

Publication number
JPH08161508A
JPH08161508A JP6306032A JP30603294A JPH08161508A JP H08161508 A JPH08161508 A JP H08161508A JP 6306032 A JP6306032 A JP 6306032A JP 30603294 A JP30603294 A JP 30603294A JP H08161508 A JPH08161508 A JP H08161508A
Authority
JP
Japan
Prior art keywords
pattern
value
brightness value
window
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6306032A
Other languages
Japanese (ja)
Inventor
Masafumi Yamamoto
雅史 山本
Atsushi Kutami
篤 久田見
Masanori Kobayashi
正典 小林
Hiroyuki Yoshida
博行 吉田
Hiroyuki Takahashi
弘行 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP6306032A priority Critical patent/JPH08161508A/en
Publication of JPH08161508A publication Critical patent/JPH08161508A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To provide the pattern detecting method which can detect the shape of a specific pattern in a picked-up image with higher precision than the resolution of pixels. CONSTITUTION: The shape of a pattern 30 is detected by bringing density information on an area which has an intermediate illuminance value positioned at the boundary part of the pattern 30 into consideration. When the border line of the pattern 30 is linear, a rough boundary line 40 is found and a window 50 which is extended almost at right angles tot the boundary line 40 is scanned along the border line 40 to estimate the real boundary position of the pattern.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮像された画像中の所
定パターンの形状または重心を検出するパターン検出方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern detecting method for detecting the shape or center of gravity of a predetermined pattern in a picked-up image.

【0002】[0002]

【従来の技術】カメラで撮像した画像を処理して物体の
位置を計測する場合、カメラのキャリブレーション(校
正)が必要不可欠である。カメラキャリブレーションと
は、世界座標系(絶対座標系)に対するカメラの位置と
向き、カメラの焦点距離・画像中心を求めることである
(特開平6−137840号公報参照)。
2. Description of the Related Art When processing an image picked up by a camera to measure the position of an object, calibration of the camera is indispensable. The camera calibration is to obtain the position and orientation of the camera with respect to the world coordinate system (absolute coordinate system), the focal length of the camera, and the image center (see Japanese Patent Laid-Open No. 6-137840).

【0003】三次元空間中の点Pi をカメラで撮像した
とき、画面中の点pi に投影されるものとする。そし
て、例えば図11に示すような、整列した複数の円パタ
ーン15が描かれているキャリブレーションプレート1
0を用いてカメラキャリブレーションを行なう場合、図
12に示すように、点Pi の座標(Xi ,Yi ,Zi
と点pi の座標(xi ,yi )が既知である必要があ
る。点Pi として、例えばキャリブレーションプレート
10に描かれている円パターン15の中心を用い、この
キャリブレーションプレート10を距離dずつ正確に移
動させることにより、座標が既知である点Pi (Xi
i ,Zi )を用意できる。そして、このキャリブレー
ションプレート10をカメラで撮像し、画像を処理して
円パターン15の中心を算出することにより、画面20
中の点pi の座標(xi ,yi )を求めることができ
る。
When a point P i in the three-dimensional space is imaged by a camera, it is projected on the point p i on the screen. Then, for example, the calibration plate 1 in which a plurality of aligned circular patterns 15 are drawn as shown in FIG.
When camera calibration is performed using 0, as shown in FIG. 12, the coordinates (X i , Y i , Z i ) of the point P i are set.
And the coordinates (x i , y i ) of the point p i need to be known. As the point P i , for example, the center of the circular pattern 15 drawn on the calibration plate 10 is used, and the calibration plate 10 is accurately moved by the distance d to obtain a point P i (X i) whose coordinates are known. ,
Y i , Z i ) can be prepared. Then, the calibration plate 10 is imaged by a camera, the image is processed, and the center of the circular pattern 15 is calculated.
The coordinates (x i , y i ) of the inside point p i can be obtained.

【0004】円パターン15の中心を算出する一般的な
方法として、入力画像を2値化し、円パターン15の重
心(=中心)を求めることが行われているが(特開昭6
3−19087号公報参照)、円パターン15の中心を
求めることの他に、正方形パターンの中心や頂点を用い
ることもできる。
As a general method for calculating the center of the circle pattern 15, the input image is binarized and the center of gravity (= center) of the circle pattern 15 is obtained (Japanese Patent Laid-Open No. 6-58242).
In addition to obtaining the center of the circular pattern 15, the center or the vertex of the square pattern can be used.

【0005】[0005]

【発明が解決しようとする課題】ところで、画像処理に
より物体の位置をより正確に計測するためには、カメラ
キャリブレーションをより正確に行うことが必要であ
り、そのために、画面20中での点pi の座標(xi
i )を正確に算出することが必要となる。しかしなが
ら、従来の円パターン15の重心(=中心)を求める方
法では、画像を2値化することによってパターン境界付
近での濃度情報が失われてしまうため、画素の分解能以
上の精度で円パターン15の重心を求めるのは不可能で
あった。
By the way, in order to more accurately measure the position of an object by image processing, it is necessary to perform more accurate camera calibration. coordinates of p i (x i ,
It is necessary to accurately calculate y i ). However, in the conventional method of obtaining the center of gravity (= center) of the circular pattern 15, since the density information near the pattern boundary is lost by binarizing the image, the circular pattern 15 is more accurate than the pixel resolution. It was impossible to find his center of gravity.

【0006】また、カメラキャリブレーションに正方形
のキャリブレーションパターンの頂点を用いる場合であ
っても、該正方形パターンの4辺を構成する直線を正確
に検出することが必要となるが、従来の正方形パターン
の4辺を検出する方法では、画像を2値化することによ
ってパターン境界付近での濃度情報が失われてしまうた
め、画素の分解能以上の精度で正方形の辺を求めるのは
不可能であった。
Even when the vertices of a square calibration pattern are used for camera calibration, it is necessary to accurately detect the straight lines forming the four sides of the square pattern. In the method of detecting the four sides, the density information near the pattern boundary is lost by binarizing the image, and thus it is impossible to obtain the side of the square with an accuracy higher than the resolution of the pixel. .

【0007】そこで、本発明は、パターンの形状または
重心を画素の分解能以上の精度で検出することができる
パターン検出方法を提供することを目的とする。
Therefore, an object of the present invention is to provide a pattern detection method capable of detecting the shape or center of gravity of a pattern with an accuracy higher than the resolution of pixels.

【0008】[0008]

【課題を解決するための手段】本発明は、請求項1に記
載されているように、撮像された画像中の所定パターン
の形状を検出するパターン検出方法であって、上記パタ
ーンの境界部分に位置する中間輝度値を有する領域の濃
度情報を加味して上記パターンの形状を検出することを
特徴とするものである。
According to a first aspect of the present invention, there is provided a pattern detecting method for detecting the shape of a predetermined pattern in a picked-up image, the method comprising: It is characterized in that the shape of the pattern is detected in consideration of the density information of the area having the intermediate brightness value.

【0009】上記パターンの境界部分に位置する中間輝
度値を有する領域の濃度情報を求める1つの態様におい
ては、請求項2に記載されているように、上記パターン
を含む所定領域中の画素の輝度値分布を算出し、該輝度
値分布に対して第1のしきい値と該第1のしきい値より
も高輝度の第2のしきい値とをそれぞれ設定し、上記第
1のしきい値以下の輝度値を有する画素の輝度値を上記
輝度値分布の最小輝度値に変換し、かつ上記第2のしき
い値以上の輝度値を有する画素の輝度値を上記輝度値分
布の最大輝度値に変換するとともに、上記第1および第
2のしきい値の間の中間輝度値を有する画素に対して、
上記最小輝度値と上記最大輝度値との間に分布する輝度
値を割り当てて正規化することに基づいて、上記パター
ンの境界部分に位置する中間輝度値を有する領域の濃度
情報を得ることができる。
In one aspect of obtaining the density information of an area having an intermediate brightness value located at the boundary portion of the pattern, as described in claim 2, the brightness of the pixel in the predetermined area including the pattern. A value distribution is calculated, and a first threshold value and a second threshold value having a higher brightness than the first threshold value are set for the brightness value distribution, and the first threshold value is set. A luminance value of a pixel having a luminance value less than or equal to a value is converted into a minimum luminance value of the luminance value distribution, and a luminance value of a pixel having a luminance value of the second threshold value or more is converted to the maximum luminance value of the luminance value distribution. A pixel having an intermediate luminance value between the first and second threshold values,
Based on allocating and normalizing the brightness values distributed between the minimum brightness value and the maximum brightness value, it is possible to obtain the density information of the region having the intermediate brightness value located at the boundary portion of the pattern. .

【0010】上記パターンの境界の検出に際しては、請
求項3に記載されているように、上記パターンの大略の
境界線を求め、該境界線に対してほぼ直交する方向に延
長されたパターン境界検出用ウインドウを上記大略の境
界線に沿って走査させて、該ウインドウの各走査位置に
おいて該ウインドウの延長方向に整列する中間輝度値を
有する画素を含む複数の画素の該ウインドウの延長方向
の輝度値の変化を曲線で近似させ、該曲線が所定の輝度
しきい値を横切る点から、上記パターンの真の境界位置
を推定することができる。
When detecting the boundary of the pattern, as described in claim 3, a general boundary line of the pattern is obtained, and a pattern boundary detection extended in a direction substantially orthogonal to the boundary line is detected. Brightness of the plurality of pixels in the extension direction of the window including a pixel having an intermediate brightness value aligned in the extension direction of the window at each scanning position of the window Can be approximated by a curve, and the true boundary position of the pattern can be estimated from the point where the curve crosses a predetermined brightness threshold value.

【0011】上記パターンの大略の境界線が直線状をな
す場合に、請求項4に記載されているように、上記ウイ
ンドウを上記大略の境界線に沿って直線的に走査させて
上記パターンの真の境界線を検出することができる。
When the boundary line of the pattern has a straight line shape, the window is linearly scanned along the boundary line so that the true pattern of the pattern is obtained. The boundary line of can be detected.

【0012】また本発明は、請求項5に記載されている
ように、撮像された画像中の所定パターンの重心を検出
するパターン検出方法であって、上記パターンの境界部
分に位置する中間輝度値を有する領域の輝度情報を加味
して上記パターンの重心を検出することを特徴とする。
According to a fifth aspect of the present invention, there is provided a pattern detecting method for detecting the center of gravity of a predetermined pattern in a picked-up image, wherein the intermediate luminance value is located at the boundary portion of the pattern. It is characterized in that the center of gravity of the pattern is detected by taking into consideration the luminance information of the region having.

【0013】上記パターンの境界部分に位置する中間輝
度値を有する領域の濃度情報を求める1つの態様におい
ては、請求項6に記載されているように、上記パターン
を含む所定領域中の画素の輝度値分布を算出し、該輝度
値分布に対して第1のしきい値と該第1のしきい値より
も高輝度の第2のしきい値とをそれぞれ設定し、上記第
1のしきい値以下の輝度値を有する画素の輝度値を上記
輝度値分布の最小輝度値に変換し、かつ上記第2のしき
い値以上の輝度値を有する画素の輝度値を上記輝度値分
布の最大輝度値に変換するとともに、上記第1および第
2のしきい値の間の中間輝度値を有する画素に対して、
上記最小輝度値と上記最大輝度値との間に分布する輝度
値を割り当てて正規化することに基づいて、上記パター
ンの境界部分に位置する中間輝度値を有する領域の濃度
情報を得ることができる。
In one aspect of obtaining the density information of the area having the intermediate brightness value located at the boundary portion of the pattern, as described in claim 6, the brightness of the pixel in the predetermined area including the pattern. A value distribution is calculated, and a first threshold value and a second threshold value having a higher brightness than the first threshold value are set for the brightness value distribution, and the first threshold value is set. A luminance value of a pixel having a luminance value less than or equal to a value is converted into a minimum luminance value of the luminance value distribution, and a luminance value of a pixel having a luminance value of the second threshold value or more is converted to the maximum luminance value of the luminance value distribution. A pixel having an intermediate luminance value between the first and second threshold values,
Based on allocating and normalizing the brightness values distributed between the minimum brightness value and the maximum brightness value, it is possible to obtain the density information of the region having the intermediate brightness value located at the boundary portion of the pattern. .

【0014】上記画像パターンが円または矩形である場
合、請求項7に記載されているように、上記画像パター
ンの両端の境界に跨がるように延長された重心検出用ウ
インドウをその延長方向とほぼ垂直な方向に走査させ
て、該ウインドウの各走査位置において該ウインドウの
延長方向に整列する中間輝度値を有する画素を含む複数
の画素からなる細長いパターン部分の重心をそれぞれ求
め、次いで、該重心の点列に近似する直線を算出する処
理を、上記ウインドウの互いに異なる方向への複数回の
走査毎に行なって、得られた複数本の上記直線の交点ま
たは該複数本の上記直線に対して最も近い点を上記パタ
ーンの重心と定めることができる。
When the image pattern is a circle or a rectangle, as described in claim 7, the barycenter detection window extended so as to extend over the boundaries of both ends of the image pattern is defined as the extension direction. Scanning is performed in a substantially vertical direction to determine the centroids of elongated pattern portions each including a plurality of pixels including pixels having an intermediate luminance value aligned in the extension direction of the window at each scanning position of the window, and then the centroids. The process of calculating a straight line that approximates the point sequence is performed for each of a plurality of scans in different directions of the window, and the obtained intersection points of the straight lines or the straight lines are obtained. The closest point can be defined as the center of gravity of the pattern.

【0015】その場合の好ましい実施例は、上記ウイン
ドウの走査を互いに垂直な2方向について行なうことに
より2本の直線を算出し、該2本の直線の交点を上記画
像パターンの重心と定めるようにすることである。
In a preferred embodiment in that case, two straight lines are calculated by scanning the window in two directions perpendicular to each other, and an intersection of the two straight lines is determined as the center of gravity of the image pattern. It is to be.

【0016】[0016]

【作用および発明の効果】請求項1または5に記載され
た発明によれば、画像中のパターンの境界部分に位置す
る中間輝度値を有する領域の濃度情報を加味して上記パ
ターンの形状または重心を検出しているから、パターン
の物体の形状または重心を高精度をもって検出すること
ができる。
According to the invention described in claim 1 or 5, the shape or the center of gravity of the pattern is added in consideration of the density information of the region having the intermediate luminance value located at the boundary portion of the pattern in the image. Is detected, the shape or the center of gravity of the pattern object can be detected with high accuracy.

【0017】特に、請求項2または6に記載された発明
によれば、上記パターンの境界部分に位置する中間輝度
値を有する画素の濃度情報を正規化して多値化している
ことにより、パターンの形状または重心を画素の分解能
以上の精度で正確に算出することが可能になり、円また
は矩形(正方形を含む)パターンを用いたカメラキャリ
ブレーションを行なうのに好適である。
In particular, according to the invention described in claim 2 or 6, the density information of the pixel having the intermediate luminance value located at the boundary portion of the pattern is normalized and multivalued. It is possible to accurately calculate the shape or the center of gravity with a resolution equal to or higher than the resolution of pixels, and this is suitable for performing camera calibration using a circular or rectangular (including square) pattern.

【0018】また、請求項3または7に記載された発明
によれば、パターン境界検出用ウインドウまたは重心検
出用ウインドウを走査させて、該ウインドウの各走査位
置におけるパターンの境界位置または部分重心を検出
し、これに基づいて、上記パターンの境界線または重心
を求めているから、パターンの形状または重心を容易に
検出することができる。
According to the invention described in claim 3 or 7, the pattern boundary detection window or the center of gravity detection window is scanned to detect the boundary position or partial center of gravity of the pattern at each scanning position of the window. However, since the boundary line or center of gravity of the pattern is obtained based on this, the shape or center of gravity of the pattern can be easily detected.

【0019】[0019]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0020】(実施例1)先ず初めに、画像中の所定パ
ターンの形状検出および重心検出の双方に適用し得る、
パターンの境界部分に位置する中間輝度値を有する領域
の濃度情報を得る方法の実施例について説明する。
(Embodiment 1) First, it can be applied to both the shape detection and the center of gravity detection of a predetermined pattern in an image.
An embodiment of a method of obtaining the density information of the area having the intermediate luminance value located at the boundary portion of the pattern will be described.

【0021】カメラキャリブレーションのために撮影す
るパターンを、図11に示すような、背景が白色、パタ
ーンが黒色の円である場合として、図1に示すように、
少数の円パターン15を含む視野(撮像画面)の面積を
S,視野中で円パターン15が占める面積をCとすると
き、全撮像画面に占める円パターン領域の割合Pは、P
=C/Sとなる。
As shown in FIG. 1, assuming that the pattern to be photographed for camera calibration is a circle with a white background and a black pattern, as shown in FIG.
When the area of the visual field (imaging screen) including a small number of circular patterns 15 is S and the area occupied by the circular pattern 15 in the visual field is C, the ratio P of the circular pattern area to the entire imaging screen is P.
= C / S.

【0022】ここで、視野の縦寸法をH、横寸法をWと
すると、S=H×Wであり、かつ円パターン15の1つ
の面積をSp、視野中の円パターン15の数をnとする
と、C=n×Spであるから、Pは次式で計算できる。
Assuming that the vertical dimension of the visual field is H and the horizontal dimension is W, S = H × W, one area of the circular pattern 15 is Sp, and the number of circular patterns 15 in the visual field is n. Then, since C = n × Sp, P can be calculated by the following equation.

【0023】P=C/S=(n×Sp)/(H×W) いま、撮像画面における図2に示すような面積Spを有
する1つの円パターン15のパターン領域(黒領域)1
5aの面積をSa、周辺部の境界領域(黒領域と白領域
との中間値領域)15bの面積をSbとして、境界領域
15bが円パターン15全体(境界領域15bを含む)
に占める割合をTとすると、 T=Sb/Sp=Sb/(Sa+Sb) 上記Tは経験的に決定され、例えば、T=0.1とな
る。
P = C / S = (n × Sp) / (H × W) Now, the pattern area (black area) 1 of one circular pattern 15 having an area Sp as shown in FIG.
The area of 5a is Sa, the area of the peripheral boundary area (the intermediate value area between the black area and the white area) 15b is Sb, and the boundary area 15b is the entire circular pattern 15 (including the boundary area 15b).
The ratio of T to T is: T = Sb / Sp = Sb / (Sa + Sb) The above T is empirically determined, for example, T = 0.1.

【0024】次に、図3に示すように、全画面の濃度ヒ
ストグラムを作成し、画面の全画素数をNとすると、各
領域の画素数は下記のようになる。
Next, as shown in FIG. 3, if a density histogram of the entire screen is created and the total number of pixels of the screen is N, the number of pixels in each area is as follows.

【0025】 パターン領域(黒領域)15a:N×P×(1−T) 境界領域(中間値領域)15b:N×P×T 背景領域(白領域) :N×(1−P) そこで、輝度の低い方からの累積画素数の全画面に対す
る割合がP×(1−T)になる輝度値XL を第1のしき
い値として、それ以下の輝度を有する画素をパターン領
域(黒領域)とみなし、その輝度値を0とする。同様に
輝度の高い方から(1−P)となる輝度値XH を第2の
しきい値として、それ以上の輝度を有する画素を背景領
域(白領域)とみなし、その輝度値を例えば輝度値を8
ビットの数で表す場合255とする。そして、図4に示
すように、この間の輝度値を有する境界領域(中間値領
域)の画素の輝度値を1から254に正規化すると、入
力画像の輝度値は図5に示すようになる。そして、この
入力画像を反転することにより、図6に示すように、背
景領域が0、パターン領域が255、境界領域が244
〜1の濃度値をとるようになる。すなわち、反転画像に
おける濃度値が1以上の領域がパターン領域15aと境
界領域15bとを含む円パターン15の領域であるか
ら、この濃度値1以上の領域をラベル付けして、同一ラ
ベルが付いた領域Ak の重心Gk (xk ,yk ),k=
1,2,…,nを下式から求めることによって、円パタ
ーン15の重心を高分解能をもって算出することができ
る。
Pattern area (black area) 15a: N × P × (1-T) Border area (intermediate value area) 15b: N × P × T Background area (white area): N × (1-P) The first threshold value is a brightness value XL at which the ratio of the cumulative number of pixels from the lower brightness side to the entire screen is P * (1-T), and pixels having brightness lower than that are used as pattern areas (black areas). ), And the brightness value is set to 0. Similarly, a luminance value X H that becomes (1-P) from the higher luminance is used as a second threshold value, and a pixel having a luminance higher than that is regarded as a background region (white region), and the luminance value is, for example, the luminance. Value 8
When expressed in the number of bits, it is set to 255. Then, as shown in FIG. 4, when the brightness values of the pixels in the boundary area (intermediate value area) having the brightness values in between are normalized from 1 to 254, the brightness value of the input image becomes as shown in FIG. Then, by inverting this input image, as shown in FIG. 6, the background area is 0, the pattern area is 255, and the boundary area is 244.
It takes a density value of ˜1. That is, since the area having the density value of 1 or more in the reverse image is the area of the circular pattern 15 including the pattern area 15a and the boundary area 15b, the area having the density value of 1 or more is labeled and given the same label. Center of gravity of region A k G k (x k , y k ), k =
By obtaining 1, 2, ..., N from the following equation, the center of gravity of the circular pattern 15 can be calculated with high resolution.

【0026】[0026]

【数1】 [Equation 1]

【0027】ただし、Nは領域Ak 内に含まれる画素の
数、xi ,yi は画面中での画素の座標値、I(xi
i )は(xi ,yi )の位置の画像の濃度値を表わ
す。
Here, N is the number of pixels included in the area A k , x i and y i are the coordinate values of the pixels on the screen, and I (x i ,
y i ) represents the density value of the image at the position of (x i , y i ).

【0028】したがって、従来のように単純に単一しき
い値で2値化するよりも高精度に、重心位置を算出する
ことができる。
Therefore, it is possible to calculate the position of the center of gravity with higher accuracy than in the conventional case where binarization is simply performed with a single threshold value.

【0029】なお、上記実施例では、中間の輝度値を有
する領域の輝度値を1から254までの段階に正規化し
ているが、これよりも少ない段階の正規化であっても、
高精度化が可能であり、どの程度の多段階化が適当であ
るかは、画像のダイナミックレンジに依存する。
In the above embodiment, the luminance value of the area having the intermediate luminance value is normalized to the stage of 1 to 254, but even if the number of stages is smaller than this,
It is possible to achieve high precision, and to what extent multiple steps are appropriate depends on the dynamic range of the image.

【0030】また上記処理を領域分割して行なうことに
より、撮像時の照明にムラがある場合でも、正確にパタ
ーンの重心G(x,y)を求めることができる。さら
に、1つの円パターン15を含む複数の領域に自動的に
分割することにより、パターンの撮像された大きさによ
らない検出が可能となる。実際の円パターン15の半径
をR、円パターンの間隔をDとすると、円パターン15
を含むD×Dの正方形の中に占める円パターン15の割
合は、2πR2 /D2 である。そして、上記分割に際し
ては、画面上で、円パターン15の中心間を2等分する
ように領域を分割し、それぞれの領域で上記の処理を行
なえば良い。
Further, by performing the above-described processing by dividing the area into regions, the center of gravity G (x, y) of the pattern can be accurately obtained even if the illumination at the time of image pickup is uneven. Furthermore, by automatically dividing into a plurality of regions including one circular pattern 15, it is possible to detect the pattern regardless of the imaged size. Assuming that the radius of the actual circle pattern 15 is R and the space between the circle patterns is D, the circle pattern 15
The ratio of the circular pattern 15 in the D × D square including is 2πR 2 / D 2 . Then, at the time of the above division, the area may be divided on the screen so as to divide the center of the circular pattern 15 into two equal parts, and the above processing may be performed for each area.

【0031】(実施例2)本実施例は、キャリブレーシ
ョンパターン30が図7(a)に示すように正方形であ
る場合に、正方形の辺を検出し、これら辺の交点を算出
することにより、正方形の4つの頂点をキャリブレーシ
ョンの特徴点として検出する方法である。
(Embodiment 2) In this embodiment, when the calibration pattern 30 is a square as shown in FIG. 7A, the sides of the square are detected and the intersections of these sides are calculated. This is a method of detecting four vertices of a square as calibration feature points.

【0032】正方形のキャリブレーションパターン30
の各辺は、画像の走査線方向に対してほぼ水平あるいは
垂直に配置しておく。これにより、画面上でほぼ水平あ
るいは垂直の線分として、正方形の辺を抽出することが
できる。
Square calibration pattern 30
The respective sides of are arranged substantially horizontally or vertically with respect to the scanning line direction of the image. As a result, the sides of the square can be extracted as line segments that are almost horizontal or vertical on the screen.

【0033】先ず、図7(a)の画像を微分して、図7
(b)に示すように水平方向のエッジを検出した後、ハ
フ(Hough)変換により、図7(c)に示すような
直線40を検出する。
First, the image of FIG. 7A is differentiated to obtain the image of FIG.
After detecting the horizontal edge as shown in (b), the straight line 40 as shown in FIG. 7 (c) is detected by Hough transform.

【0034】次に、図8にパターン境界部分の拡大図で
示すように、ハフ変換で求めた、パターン30の大略の
境界線を表す直線40に対してほぼ直交する方向に延長
された境界検出用ウインドウ50を用意し、該ウインド
ウ50をその延長方向と垂直な方向に直線40に沿って
走査させる。このウインドウ50は、例えば5画素分の
長さと1画素分の幅を有する。正方形パターン30を構
成する画素については、上記実施例1で述べたように、
例えば黒領域の輝度を0、白領域の輝度を255として
予め白、黒、中間値の輝度の多値正規化が行われている
ものとし、ウインドウ50内の画素の輝度値をIで表し
たとき、該ウインドウ50の各走査位置においてこのウ
インドウ50の延長方向に整列する中間輝度値を有する
画素を含む5個の画素の輝度値の変化を2次曲線で近似
させ、この近似曲線55が所定のしきい値(例えば12
7)を横切る点を算出することにより、正方形パターン
30の境界位置を推定する。そして、ウインドウ50の
各走査位置において推定した境界位置の点列を例えば最
小二乗法により直線化することにより、正方形パターン
30の真の境界線、すなわちパターン30の水平方向の
辺を検出することができる。なお、ウインドウは5画素
分の長さを有しているが、この長さは画像に応じて変更
も可能である。
Next, as shown in the enlarged view of the pattern boundary portion in FIG. 8, the boundary detection extended in a direction substantially orthogonal to the straight line 40 representing the approximate boundary line of the pattern 30 obtained by the Hough transform is detected. A window 50 for use is prepared, and the window 50 is scanned along the straight line 40 in a direction perpendicular to the extension direction thereof. The window 50 has a length of 5 pixels and a width of 1 pixel, for example. Regarding the pixels forming the square pattern 30, as described in the first embodiment,
For example, assuming that the brightness of the black area is 0 and the brightness of the white area is 255, multi-value normalization of the brightness of white, black, and intermediate values is performed in advance, and the brightness value of the pixel in the window 50 is represented by I. At this time, at each scanning position of the window 50, the change in the brightness value of five pixels including the pixels having the intermediate brightness value aligned in the extension direction of the window 50 is approximated by a quadratic curve, and the approximate curve 55 is predetermined. Threshold (eg 12
The boundary position of the square pattern 30 is estimated by calculating the points that cross 7). Then, the true boundary line of the square pattern 30, that is, the horizontal side of the pattern 30 can be detected by linearizing the point sequence of the boundary position estimated at each scanning position of the window 50 by, for example, the least square method. it can. The window has a length of 5 pixels, but this length can be changed according to the image.

【0035】このようにして、パターン30の水平方向
の辺が検出できたが、垂直方向の辺に関しても同様の走
査で検出できる。そして、水平・垂直の辺の交点を算出
することにより、正方形(矩形も同様)の4つの頂点を
キャリブレーションの特徴点として検出することができ
る。また、これに代わり、それぞれ対向する水平・垂直
の辺の中間点を通る直線の交点を特徴点として用いても
良い。
In this way, the horizontal side of the pattern 30 can be detected, but the vertical side can also be detected by the same scanning. Then, by calculating the intersections of the horizontal and vertical sides, it is possible to detect the four vertices of the square (the same applies to the rectangle) as the characteristic points of the calibration. Instead of this, the intersections of straight lines passing through the midpoints of the horizontal and vertical sides facing each other may be used as the feature points.

【0036】(実施例3)本実施例は、キャリブレーシ
ョンパターンの両端の境界に跨がるように延長された重
心検出用ウインドウをその延長方向とほぼ垂直に走査さ
せて、該ウインドウの各走査位置において該ウインドウ
の延長方向に整列する中間輝度値を有する画素を含む複
数の画素からなる細長いパターン部分の重心をそれぞれ
求め、次いで、該重心の点列に近似する直線を算出する
処理を、上記ウインドウの水平方向と垂直方向の走査に
おいてそれぞれ行って、得られた2本の直線の交点を上
記パターンの重心と定める方法である。
(Embodiment 3) In this embodiment, a barycenter detection window extended so as to straddle the boundaries of both ends of the calibration pattern is scanned substantially perpendicularly to its extension direction, and each scanning of the window is performed. At the position, the center of gravity of each elongated pattern portion including a plurality of pixels including pixels having an intermediate luminance value aligned in the extension direction of the window is obtained, and then the straight line approximate to the point sequence of the center of gravity is calculated. This is a method of performing the scanning in the horizontal direction and the scanning in the vertical direction of the window and determining the intersection of two obtained straight lines as the center of gravity of the pattern.

【0037】キャリブレーションパターンは正方形であ
る場合とし、正方形のパターン30の各辺は、画像の走
査線方向に対してほぼ水平あるいは垂直に配置しておく
ことが好ましい。そして、図9に示すように、それぞれ
パターン30の両端の境界に跨がる長さと1画素分の幅
を有して垂直方向および水平方向に延長された2つの重
心検出用ウインドウ60H,60Vを用意し、垂直方向
のウインドウ60Hを水平方向に、水平方向のウインド
ウ60Vを垂直方向にそれぞれ走査させる。ウインドウ
内に含まれる画素については、上記実施例1で述べたよ
うに、例えばパターン領域の輝度を0、背景領域の輝度
を255として白、黒、中間値の輝度の多値正規化を行
ない、ウインドウ60H,60Vの各走査位置において
該ウインドウ60H,60V内に含まれる矩形のパター
ン部分(1画素分の幅を有する)毎の重心(部分重心)
70を次式から求め、図8に示すような、互いにほぼ交
差する部分重心の点列80H,80Vを得る。
When the calibration pattern is a square, it is preferable that each side of the square pattern 30 is arranged substantially horizontally or vertically with respect to the scanning line direction of the image. Then, as shown in FIG. 9, two center-of-gravity detection windows 60H and 60V that extend in the vertical direction and the horizontal direction, respectively, each having a length that spans the boundaries of both ends of the pattern 30 and a width of one pixel, are provided. First, the vertical window 60H is scanned in the horizontal direction, and the horizontal window 60V is scanned in the vertical direction. As for the pixels included in the window, as described in the first embodiment, for example, the brightness of the pattern area is set to 0 and the brightness of the background area is set to 255, and multivalue normalization of the brightness of white, black, and intermediate values is performed, Center of gravity (partial center of gravity) of each rectangular pattern portion (having a width of one pixel) included in the windows 60H and 60V at each scanning position of the windows 60H and 60V.
70 is obtained from the following equation to obtain point sequences 80H and 80V of partial centers of gravity that substantially intersect each other as shown in FIG.

【0038】[0038]

【数2】 [Equation 2]

【0039】ただし、I(x)は画素の濃度、xはウイ
ンドウ上での位置である。
However, I (x) is the pixel density, and x is the position on the window.

【0040】次に、上記部分重心70の点列80H,8
0Vに対して、例えば最小二乗法を適用して上記2列の
点列80H,80Vにそれぞれ近似する2本の直線90
H,90Vを算出し、これら2本の直線90H,90V
の交点100を上記キャリブレーションパターン30の
重心として、これを特徴点として用いる。
Next, the point sequence 80H, 8 of the partial center of gravity 70
Two straight lines 90 that are applied to the 0V, for example, the least squares method and are approximated to the above-mentioned two point sequences 80H and 80V, respectively.
H, 90V is calculated and these two straight lines 90H, 90V
The intersection point 100 of is the center of gravity of the calibration pattern 30 and is used as the feature point.

【0041】本実施例によれば、上述のような処理を行
なうことにより、画像中の正方形パターン30の重心1
00を画素の分解能以上の精度で正確に算出することが
可能になり、正方形パターン30の重心100を用いた
カメラキャリブレーションを正確に行なうことができ
る。
According to this embodiment, the center of gravity 1 of the square pattern 30 in the image is obtained by performing the above-mentioned processing.
00 can be accurately calculated with a precision higher than the resolution of pixels, and camera calibration using the center of gravity 100 of the square pattern 30 can be accurately performed.

【0042】なお、本実施例では、ウインドウ60H,
60Vの走査方向を水平方向および垂直方向としている
が、この走査方向は、パターンの形状に応じて適当に選
択すれば良い。例えば、上記ウインドウの互いに異なる
方向への3回以上の走査を行って、得られた3本以上の
直線に対して最も近い点をパターンの重心と定めるよう
にしても良い。また、この重心検出方法は、パターンが
円の場合にも、走査範囲を直径の1/2程度に限定する
ことにより適用可能である。
In this embodiment, the window 60H,
Although the scanning direction of 60 V is the horizontal direction and the vertical direction, this scanning direction may be appropriately selected according to the shape of the pattern. For example, the window may be scanned three or more times in different directions, and the closest point to the obtained three or more straight lines may be determined as the center of gravity of the pattern. Further, this method of detecting the center of gravity can be applied by limiting the scanning range to about ½ of the diameter even when the pattern is a circle.

【0043】さらに、上述した実施例は、カメラキャリ
ブレーションのためのキャリブレーションパターンの形
状または重心を検出する方法であるが、これに限らず、
一般に撮像された画像パターンの形状または重心を求め
る方法として有用である。
Further, although the above-described embodiment is a method for detecting the shape or the center of gravity of the calibration pattern for camera calibration, the present invention is not limited to this.
Generally, it is useful as a method for obtaining the shape or the center of gravity of an imaged image pattern.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1における視野と画面との関係
を示す説明図
FIG. 1 is an explanatory diagram showing a relationship between a field of view and a screen according to a first embodiment of the present invention.

【図2】同 境界領域を含むパターンの説明図FIG. 2 is an explanatory diagram of a pattern including the boundary area.

【図3】同 ヒストグラムを用いた輝度しきい値の決定
方法の説明図
FIG. 3 is an explanatory diagram of a method of determining a brightness threshold value using the histogram.

【図4】同 中間値領域の正規化方法の説明図FIG. 4 is an explanatory diagram of a normalization method for the intermediate value region.

【図5】同 入力画像の各領域の正規化された輝度値を
示す特性図
FIG. 5 is a characteristic diagram showing a normalized luminance value of each area of the input image.

【図6】同 反転画像の各領域の正規化された輝度値を
示す特性図
FIG. 6 is a characteristic diagram showing normalized luminance values of respective regions of the reverse image.

【図7】本発明の実施例2におけるウインドウ走査のた
めの直線検出方法の説明図
FIG. 7 is an explanatory diagram of a straight line detection method for window scanning according to the second embodiment of the present invention.

【図8】同 ウインドウによる境界位置の検出方法の説
明図
FIG. 8 is an explanatory diagram of a boundary position detection method using the same window.

【図9】本発明の実施例3における正規化画像の走査方
法の説明図
FIG. 9 is an explanatory diagram of a normalized image scanning method according to the third embodiment of the present invention.

【図10】同 重心位置の算出方法の説明図FIG. 10 is an explanatory diagram of a method of calculating the same center of gravity position.

【図11】キャリブレーションプレートの正面図FIG. 11 is a front view of a calibration plate.

【図12】カメラキャリブレーションの説明図FIG. 12 is an explanatory diagram of camera calibration.

【符号の説明】[Explanation of symbols]

10 キャリブレーションプレート 15 キャリブレーションパターン(円) 20 画面 30 キャリブレーションパターン(正方形) 40 直線 50 境界検出用ウインドウ 55 近似曲線 60H,60V 重心検出用ウインドウ 70 部分重心 80H,80V 部分重心の点列 90H,90V 直線 100 重心 10 calibration plate 15 calibration pattern (circle) 20 screen 30 calibration pattern (square) 40 straight line 50 boundary detection window 55 approximate curve 60H, 60V centroid detection window 70 partial centroid 80H, 80V partial centroid point sequence 90H, 90V straight line 100 center of gravity

フロントページの続き (72)発明者 吉田 博行 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 (72)発明者 高橋 弘行 広島県安芸郡府中町新地3番1号 マツダ 株式会社内Front page continuation (72) Inventor Hiroyuki Yoshida 3-1, Fuchu-cho Shinchi, Aki-gun, Hiroshima Mazda Co., Ltd. (72) Inventor Hiroyuki Takahashi 3-1-1 Shinchu, Fuchu-cho, Aki-gun, Hiroshima Mazda Co., Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 撮像された画像中の所定パターンの形状
を検出するパターン検出方法であって、 上記パターンの境界部分に位置する中間輝度値を有する
領域の濃度情報を加味して上記パターンの形状を検出す
ることを特徴とするパターン検出方法。
1. A pattern detection method for detecting a shape of a predetermined pattern in a captured image, the shape of the pattern taking into account density information of an area having an intermediate luminance value located at a boundary portion of the pattern. A method for detecting a pattern, which comprises detecting
【請求項2】 上記パターンを含む所定領域中の画素の
輝度値分布を算出し、該輝度値分布に対して第1のしき
い値と該第1のしきい値よりも高輝度の第2のしきい値
とをそれぞれ設定し、上記第1のしきい値以下の輝度値
を有する画素の輝度値を上記輝度値分布の最小輝度値に
変換し、かつ上記第2のしきい値以上の輝度値を有する
画素の輝度値を上記輝度値分布の最大輝度値に変換する
とともに、上記第1および第2のしきい値の間の中間輝
度値を有する画素に対して、上記最小輝度値と上記最大
輝度値との間に分布する輝度値を割り当てて正規化する
ことにより、上記パターンの境界部分に位置する中間輝
度値を有する領域の濃度情報を得ることを特徴とする請
求項1に記載のパターン検出方法。
2. A brightness value distribution of pixels in a predetermined area including the pattern is calculated, and a first threshold value and a second brightness value higher than the first threshold value are calculated with respect to the brightness value distribution. And a threshold value of the first threshold value are converted to the minimum brightness value of the brightness value distribution of the pixel having a brightness value less than or equal to the first threshold value, and The luminance value of the pixel having the luminance value is converted into the maximum luminance value of the luminance value distribution, and the pixel having the intermediate luminance value between the first and second threshold values is set to the minimum luminance value. The density information of an area having an intermediate brightness value located at a boundary portion of the pattern is obtained by allocating and normalizing a brightness value distributed between the maximum brightness value and the maximum brightness value. Pattern detection method.
【請求項3】 上記パターンの大略の境界線を求め、該
境界線に対してほぼ直交する方向に延長されたパターン
境界検出用ウインドウを上記大略の境界線に沿って走査
させて、該ウインドウの各走査位置において該ウインド
ウの延長方向に整列する中間輝度値を有する画素を含む
複数の画素の該ウインドウの延長方向の輝度値の変化を
曲線で近似させ、該曲線が所定の輝度しきい値を横切る
点から、上記パターンの真の境界位置を推定することを
特徴とする請求項1または2に記載のパターン検出方
法。
3. An outline boundary line of the pattern is obtained, and a pattern boundary detection window extending in a direction substantially orthogonal to the boundary line is scanned along the outline boundary line to detect the pattern boundary detection window. At each scanning position, a change in the brightness value in the extension direction of the window of a plurality of pixels including pixels having an intermediate brightness value aligned in the extension direction of the window is approximated by a curve, and the curve sets a predetermined brightness threshold value. 3. The pattern detecting method according to claim 1, wherein the true boundary position of the pattern is estimated from a crossing point.
【請求項4】 上記パターンの大略の境界線が直線状を
なす場合に、上記ウインドウを上記大略の境界線に沿っ
て直線的に走査させて上記パターンの真の境界線を検出
することを特徴とする請求項3に記載のパターン検出方
法。
4. The true boundary line of the pattern is detected by linearly scanning the window along the rough boundary line when the rough boundary line of the pattern has a straight line shape. The pattern detection method according to claim 3.
【請求項5】 撮像された画像中のパターンの重心を検
出するパターン検出方法であって、 上記パターンの境界部分に位置する中間輝度値を有する
領域の濃度情報を加味して上記パターンの重心を検出す
ることを特徴とするパターン検出方法。
5. A pattern detecting method for detecting the center of gravity of a pattern in a captured image, wherein the center of gravity of the pattern is determined by adding density information of a region having an intermediate luminance value located at a boundary portion of the pattern. A pattern detection method characterized by detecting.
【請求項6】 上記パターンを含む所定領域中の画素の
輝度値分布を算出し、該輝度値分布に対して第1のしき
い値と該第1のしきい値よりも高輝度の第2のしきい値
とをそれぞれ設定し、上記第1のしきい値以下の輝度値
を有する画素の輝度値を上記輝度値分布の最小輝度値に
変換し、かつ上記第2のしきい値以上の輝度値を有する
画素の輝度値を上記輝度値分布の最大輝度値に変換する
とともに、上記第1および第2のしきい値の間の中間輝
度値を有する画素に対して、上記最小輝度値と上記最大
輝度値との間に分布する輝度値を割り当てて正規化する
ことにより、上記パターンの境界部分に位置する中間輝
度値を有する領域の濃度情報を得ることを特徴とする請
求項5に記載のパターン検出方法。
6. A brightness value distribution of pixels in a predetermined area including the pattern is calculated, and a first threshold value and a second brightness value higher than the first threshold value are calculated with respect to the brightness value distribution. And a threshold value of the first threshold value are converted to the minimum brightness value of the brightness value distribution of the pixel having a brightness value less than or equal to the first threshold value, and The luminance value of the pixel having the luminance value is converted into the maximum luminance value of the luminance value distribution, and the pixel having the intermediate luminance value between the first and second threshold values is set to the minimum luminance value. 6. The density information of a region having an intermediate brightness value located at a boundary portion of the pattern is obtained by allocating and normalizing a brightness value distributed between the maximum brightness value and the maximum brightness value. Pattern detection method.
【請求項7】 上記パターンの両端の境界部分に跨がる
ように延長された重心検出用ウインドウをその延長方向
とほぼ垂直な方向に走査させて、該ウインドウの各走査
位置において該ウインドウの延長方向に整列する中間輝
度値を有する画素を含む複数の画素からなる細長いパタ
ーン部分の重心をそれぞれ求め、次いで、該重心の点列
に近似する直線を算出する処理を、上記ウインドウの互
いに異なる方向への複数回の走査毎に行なって、得られ
た複数本の上記直線の交点または該複数本の上記直線に
対して最も近い点を上記パターンの重心と定めることを
特徴とする請求項5または6に記載のパターン検出方
法。
7. A barycenter detection window extended so as to straddle the boundary portions at both ends of the pattern is scanned in a direction substantially perpendicular to the extension direction, and the window is extended at each scanning position of the window. The process of calculating the center of gravity of each elongated pattern portion composed of a plurality of pixels including pixels having intermediate luminance values aligned in the respective directions, and then calculating a straight line approximate to the point sequence of the center of gravity is performed in different directions of the windows. 7. The intersection of the plurality of straight lines obtained or the point closest to the plurality of straight lines is determined as the center of gravity of the pattern by performing the scanning for each of the plurality of scans. The pattern detection method described in.
【請求項8】 上記ウインドウの走査を互いに垂直な2
方向について行なうことにより2本の直線を算出し、該
2本の直線の交点を上記画像パターンの重心と定めるこ
とを特徴とする請求項7に記載のパターン検出方法。
8. The scan of the window is perpendicular to each other.
8. The pattern detection method according to claim 7, wherein two straight lines are calculated by performing the calculation in the direction, and an intersection point of the two straight lines is determined as a center of gravity of the image pattern.
JP6306032A 1994-12-09 1994-12-09 Pattern detecting method Pending JPH08161508A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6306032A JPH08161508A (en) 1994-12-09 1994-12-09 Pattern detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6306032A JPH08161508A (en) 1994-12-09 1994-12-09 Pattern detecting method

Publications (1)

Publication Number Publication Date
JPH08161508A true JPH08161508A (en) 1996-06-21

Family

ID=17952256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6306032A Pending JPH08161508A (en) 1994-12-09 1994-12-09 Pattern detecting method

Country Status (1)

Country Link
JP (1) JPH08161508A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185274A (en) * 1997-09-10 1999-03-30 Fuji Heavy Ind Ltd Travel track detecting device for autonomous travel vehicle
JP2003078925A (en) * 2001-08-31 2003-03-14 Matsushita Electric Ind Co Ltd Camera calibration system and camera calibration method
JP2004170355A (en) * 2002-11-22 2004-06-17 Topcon Corp Automatic reflector tracking device
US7274820B2 (en) 2001-09-26 2007-09-25 Kabushiki Kaisha Toshiba Pattern evaluation system, pattern evaluation method and program
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185274A (en) * 1997-09-10 1999-03-30 Fuji Heavy Ind Ltd Travel track detecting device for autonomous travel vehicle
JP2003078925A (en) * 2001-08-31 2003-03-14 Matsushita Electric Ind Co Ltd Camera calibration system and camera calibration method
US7274820B2 (en) 2001-09-26 2007-09-25 Kabushiki Kaisha Toshiba Pattern evaluation system, pattern evaluation method and program
JP2004170355A (en) * 2002-11-22 2004-06-17 Topcon Corp Automatic reflector tracking device
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
JP4725821B2 (en) * 2008-08-05 2011-07-13 アイシン精機株式会社 Target location device
US8077199B2 (en) 2008-08-05 2011-12-13 Aisin Seiki Kabushiki Kaisha Target position identifying apparatus
JPWO2010016379A1 (en) * 2008-08-05 2012-01-19 アイシン精機株式会社 Target location device
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device

Similar Documents

Publication Publication Date Title
CN111243032B (en) Full-automatic detection method for checkerboard corner points
JP5699788B2 (en) Screen area detection method and system
CN109271937B (en) Sports ground marker identification method and system based on image processing
CN107993263B (en) Automatic calibration method for panoramic system, automobile, calibration device and storage medium
JP2013065304A (en) High-speed obstacle detection
TWI523778B (en) Lane offset warning system and method
US7489832B2 (en) Imaging apparatus, image processing method for imaging apparatus and recording medium
JPH08185521A (en) Mobile object counter
JP2012048484A (en) Image processing apparatus, image processing method, and program
CN112767497A (en) High-robustness calibration device based on circular calibration plate and positioning method
JP2020107290A (en) Adhering matter detection device and adhering matter detection method
JPH08161508A (en) Pattern detecting method
CN110717910B (en) CT image target detection method based on convolutional neural network and CT scanner
JP2003162719A (en) Detection of pattern in digital image
JP3455454B2 (en) Vehicle license plate recognition device
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JP2981382B2 (en) Pattern matching method
CN110717471B (en) B-ultrasonic image target detection method based on support vector machine model and B-ultrasonic scanner
JP3358997B2 (en) Engraved mark identification device
JP3436224B2 (en) Vehicle end detection device
Laureano et al. A topological approach for detection of chessboard patterns for camera calibration
CN214670725U (en) High robustness calibration device based on circular calibration plate
CN113269207B (en) Image feature point extraction method for grid structure light vision measurement
JPH10213417A (en) Detection of ic package position
JPH11351835A (en) Method for extracting contour line of cutting edge by processing taken image of tool