JPH0326986A - Marker detector - Google Patents

Marker detector

Info

Publication number
JPH0326986A
JPH0326986A JP1160867A JP16086789A JPH0326986A JP H0326986 A JPH0326986 A JP H0326986A JP 1160867 A JP1160867 A JP 1160867A JP 16086789 A JP16086789 A JP 16086789A JP H0326986 A JPH0326986 A JP H0326986A
Authority
JP
Japan
Prior art keywords
marker
predetermined threshold
variance
image
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1160867A
Other languages
Japanese (ja)
Inventor
Hiroshi Saito
浩 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP1160867A priority Critical patent/JPH0326986A/en
Publication of JPH0326986A publication Critical patent/JPH0326986A/en
Pending legal-status Critical Current

Links

Landscapes

  • Geophysics And Detection Of Objects (AREA)

Abstract

PURPOSE:To accurately detect the center position of a marker by providing a means taking an image containing a marker, a lightness sum/difference calculation means, a dispersion calculating means and a means judging a point where lightness sum/difference is the first predetermined threshold value or more and each dispersion is the second predetermined threshold value or less. CONSTITUTION:A dummy 4 rides in a car 3 and a state of the collision of the car 3 having a plurality of markers 1 against a wall 5 is photographed with a high speed camera 7 and reproduced by a reproduction control part 13 to be stored in an image memory 17. The output of a filtering operation part 23 is judged by a primary candidate point extraction part 25 and a dispersion value is evaluated at the first predetermined threshold value or more by a secondary candidate point extraction part 29 and the final determination of a marker position is performed at the second predetermined threshold value or less by a marker position calculating part 33. By this method, the center position of a marker can be accurately detected.

Description

【発明の詳細な説明】 [発明の目的〕 (産業上の利用分野) 本発明は、例えば自動車の衝突実験等に使用されるマー
カ検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a marker detection device used, for example, in automobile collision experiments.

(従来の技術) この種の従来のマーカ検出装置は、例えば第13図に示
すように、複数のマーカ1を貼りつけられた自動車3が
前方の壁5等に衝突する様子を高速度カメラ7によって
撮像して高速度写真記録装置9に記録し、この記録した
画像を再生v1置100で再生してモニタし、この再生
画像を人手により躬析している。そして、この解析によ
り自動車3に搭乗しているダミー人形の挙動、自動車の
破損状況等を把握し、車両の安全性確保の一助としてい
る。なお、カメラ7は自動車3とともに移動するように
なっている。
(Prior Art) As shown in FIG. 13, for example, a conventional marker detection device of this type uses a high-speed camera to monitor the collision of a car 3 to which a plurality of markers 1 are affixed to a wall 5 in front of it. This recorded image is reproduced and monitored by the reproduction v1 setting 100, and the reproduced image is manually analyzed. Through this analysis, the behavior of the dummy doll riding in the car 3, the state of damage to the car, etc. can be ascertained, thereby helping to ensure the safety of the car. Note that the camera 7 is designed to move together with the car 3.

また、従来、この種のマーカ検出装置に適用し得る特殊
形状の物体を検出する方法としては、例えば円形を検出
するハフ(Hough)の変換法が良く知られている。
Furthermore, as a conventional method for detecting a special-shaped object that can be applied to this type of marker detection device, for example, the Hough conversion method for detecting a circle is well known.

この方法は、画像上のエツジ強度の大きい点においてエ
ッジの法線方向を求め、別に用意した画像平面上で該エ
ッジから法線方向に所定半径Rだけ離れた点に投票を行
い、投票数の多い点を半径Rの円の中心と見なすh法で
ある(Pattern Recogn1tlon I,
etters第7@、第1号、37〜43頁、1988
年、R.R.DaVleS著参照)。
In this method, the normal direction of an edge is determined at a point on the image where the edge strength is large, and voting is performed on a separately prepared image plane at a point that is a predetermined radius R away from the edge in the normal direction. This is the h method, which considers the many points as the center of a circle with radius R (Pattern Recogn1tlon I,
etters No. 7@, No. 1, pp. 37-43, 1988
Year, R. R. (Reference: DaVleS).

(発明が解決しようとする課題) 上述した第13図に示す従来のマ一カ検出装置は、人手
による解析を利用しているので、作業者の疲労が大きい
とともに、作業者、そのコンディション等によるばらつ
きが大きいεいう問題がある。
(Problems to be Solved by the Invention) The conventional mica detection device shown in FIG. There is a problem of large variations in ε.

また、ハフの変換法による場合には、円形状を斜めから
見ると、楕円に見えるが、このような円形状の歪に対処
できないという問題がある。
Furthermore, when using Hough's transformation method, a circular shape looks like an ellipse when viewed from an angle, but there is a problem in that it cannot deal with such distortion of the circular shape.

本発明は、上記に鑑みてなされたもので、その目的とす
るところは、画像処理を自動的に行うとともに、マーカ
が歪んでも正確に中心位置を検出することができるマー
カ検出装置を提供することにある。
The present invention has been made in view of the above, and its purpose is to provide a marker detection device that can automatically perform image processing and accurately detect the center position even if the marker is distorted. It is in.

[発明の構成] (課題を解決するための手段) 上記目的を達成するため、本発明のマーカ検出装置は、
特定パターンのマーカを検出するマー力検出装置であっ
て、前記マーカを含む画像を撮像する撮像手段と、該撮
像手段で撮像した画像内にある線分上の第1の画素群の
明度和から、該第1−の画素群に直交する線分上の第2
の画素群の明度和を差し引いた明度和差を算出する明度
:fu差算出手段と、前記第1および第2の明度値の各
分散を算出する分散算出手段と、前記明度和差算出手段
で算出した明度和差が第1の所定のしきい値以上あり、
かつ前記分散算出手段で算出した各分散が第2の所定の
しきい値以下である点をマーカ中心と判断する判断手段
とを有することを要旨とする。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve the above object, the marker detection device of the present invention has the following features:
A marker force detection device that detects a marker of a specific pattern, comprising: an imaging means for imaging an image including the marker; and a brightness sum of a first group of pixels on a line segment in the image taken by the imaging means. , the second pixel group on the line segment perpendicular to the first pixel group
a brightness:fu difference calculating means for calculating a brightness sum difference obtained by subtracting the brightness sum of the pixel group; a variance calculating means for calculating each variance of the first and second brightness values; and a brightness sum difference calculating means. the calculated brightness sum difference is greater than or equal to a first predetermined threshold;
and determining means for determining that the point where each variance calculated by the variance calculating means is less than or equal to a second predetermined threshold value is the marker center.

(作用) 本発明のマーカ検出装置では、直交する第1および第2
の線分上の画素群の各明度和の絵を演算するとともに、
各明度値の分散を算出し、前記明度和差が第1の所定の
しきい値以上であり、前記各分散が第2の所定のしきい
値以下である点をマーカ中心と判断している。
(Function) In the marker detection device of the present invention, the first and second orthogonal
While calculating the picture of each brightness sum of the pixel group on the line segment,
The variance of each brightness value is calculated, and the point where the brightness sum difference is equal to or higher than a first predetermined threshold and each of the variances is equal to or lower than a second predetermined threshold is determined to be the center of the marker. .

(実施例) 以下、図面を用いて本発明の実施例を説明する。(Example) Embodiments of the present invention will be described below with reference to the drawings.

第1−図は本発明の一実施例に係わるマーカ検出装置の
Illl戊図である。同図に示すマーカ検出装置は、自
動車の衝突状態を撮像して解析する衝突写真解析装置に
適用したものであり、複数のマーカ1を貼りつけられた
自動車3が前方の壁5等に衝突する様子を自動車3とと
もに移動する高速度カメラ7によって撮像して高速度写
真記録装置9に記録し、この記録した画像を再生記憶部
11、マーカ位置抽出部1つおよび探索判定部35で画
像処理し、これにより自動車3が壁5等に衝突した場合
の自動車3に搭乗しているダミー人形4の挙動、自動車
の破損状況等を把握し、車両の安全性確保の一助とする
ものである。
FIG. 1 is an illustration of a marker detection device according to an embodiment of the present invention. The marker detection device shown in the figure is applied to a collision photo analysis device that images and analyzes the collision state of a car, and a car 3 to which a plurality of markers 1 are attached collides with a wall 5, etc. in front of it. The situation is imaged by a high-speed camera 7 that moves with the car 3 and recorded in a high-speed photo recording device 9, and the recorded image is image-processed by a reproduction storage unit 11, one marker position extraction unit, and a search determination unit 35. Through this, when the car 3 collides with a wall 5 or the like, the behavior of the dummy 4 riding in the car 3, the state of damage to the car, etc. can be grasped, and this helps to ensure the safety of the car.

前記再生記憶部1−1は、再生制御部13、A/D変換
部]5および画像メモリ17から構成され、またマーカ
位置抽出部1つは、フィルタパターン発生部21−、フ
ィルタリング演算部23、1次候補点抽出部25、分散
演算部27、2次候補点抽出部29、クラスタリング部
31およびマーカ位置算出部33から構威され、更に探
索判断部35は、対応探索部37および処理終了判断部
3つから構成されている。
The reproduction storage section 1-1 is composed of a reproduction control section 13, an A/D conversion section] 5, and an image memory 17, and one marker position extraction section includes a filter pattern generation section 21-, a filtering calculation section 23, It consists of a primary candidate point extraction section 25, a variance calculation section 27, a secondary candidate point extraction section 29, a clustering section 31, and a marker position calculation section 33. It consists of three parts.

第1図のマーカ検出装置において、ダミー人形4が乗り
、複数のマーカ1が貼りつけられた自動車3が壁5に衝
突する場合の衝突実験の様Tを高速度カメラ7で撮像し
た画像は高速度写真記録装置9に記録され、この記録さ
れた画像は再生記憶部11の再生制御部13によって再
生され、A/D変換部15によってディジタル画像信号
に変換され、画像データI (x,y)として画像メモ
リ17に記憶される。
In the marker detection device shown in FIG. 1, an image taken by a high-speed camera 7 of a collision test T in which a car 3 on which a dummy doll 4 is riding and a plurality of markers 1 are attached collides with a wall 5 is a high-speed image. The recorded image is recorded in the speed photographic recording device 9, and is reproduced by the reproduction control section 13 of the reproduction storage section 11, and converted into a digital image signal by the A/D conversion section 15, resulting in image data I (x, y). The image is stored in the image memory 17 as .

画像メモリ17に記憶された画像データI (x,y)
はマーカ位置抽出部】9に供給され、ここでマーカ位置
抽出処理が行われる。なお、ここで対象とするマーカ1
は、第2図に示すようにごく一般的に使用されている標
的であり、その大きさ、色、方向に対する制約は一切な
いものとする。
Image data I (x, y) stored in image memory 17
is supplied to the marker position extraction unit]9, where marker position extraction processing is performed. Note that the target marker 1 here is
As shown in FIG. 2, this is a very commonly used target, and there are no restrictions on its size, color, or direction.

マーカ位置抽出部19においては、画像メモリ17に記
憶された画像データI (x,y)からマーカ1を抽出
するためのフィルタリングに使用するために、フィルタ
パターン発生$21においてマーカ1の形状に類似した
パターンを生戊ずる。
In the marker position extracting unit 19, in order to use it for filtering to extract marker 1 from the image data I (x, y) stored in the image memory 17, a filter pattern similar to the shape of marker 1 is generated in the filter pattern generation $21. Create a new pattern.

すなわち、フィルタパターン発生部21−は、マーカ1
の方向に依存しない抽出結果を得るために、第3図に示
すような複数のフィルタパターン、第3図では4つのフ
ィルタパターンA,B,CおよびDを発生する。これら
のフィルタパターンは、13X13の画像メモリ4枚を
それぞれF A( X +V)+  Fs  (X.V
) ,Fc  (X+  V)+  Fo(x,y)と
し、第3図において一で示す画素に「2」を記憶し、口
で示す画素に「1」を記憶し、その他の画素には「0」
を記憶しておくことにより形威される。
That is, the filter pattern generating section 21- generates the marker 1
In order to obtain an extraction result that is independent of the direction, a plurality of filter patterns as shown in FIG. 3, four filter patterns A, B, C and D in FIG. 3, are generated. These filter patterns each have four 13x13 image memories F A (X + V) + Fs (X.V
), Fc (X+V)+Fo(x,y), and in FIG. 3, the pixel indicated by 1 stores "2", the pixel indicated by the mouth stores "1", and the other pixels store "2". 0"
By remembering this, it becomes effective.

画像メモリ17に記憶された画像データI (x,y)
は、フィルタパターン発生部21から発生する前記フィ
ルタパターンとともにフィルタリング演算部23に供給
され、画像データの中からマーカ1のパターンが抽出さ
れる。
Image data I (x, y) stored in image memory 17
is supplied to the filtering calculation section 23 together with the filter pattern generated from the filter pattern generation section 21, and the pattern of marker 1 is extracted from the image data.

このフィルタリング演算部23におけるフィルタリング
演算の原理を一例として第2図に示す方向を有するマー
カ1を抽出する場合について説明する。この第2図に示
すマーカ1は45@の方向の直線上には明るい点、すな
わち画素口が分布し、この直線に直交する方向の直線上
には暗い点、すなわち画素一が分布している。従って、
フィルタパターン発生部21から発生するフィルタパタ
ーンのうち第3図のフィルタパターンAを使用してフィ
ルタを作用させ、次式によって明度和の差Pを計算する
The principle of the filtering operation in the filtering operation unit 23 will be explained by taking as an example a case where a marker 1 having the direction shown in FIG. 2 is extracted. In the marker 1 shown in Fig. 2, bright points, that is, pixel openings, are distributed on a straight line in the direction of 45@, and dark points, that is, pixel 1, are distributed on a straight line that is orthogonal to this straight line. . Therefore,
Among the filter patterns generated by the filter pattern generating section 21, the filter pattern A shown in FIG. 3 is used to apply a filter, and the difference P in the brightness sum is calculated by the following equation.

P−1暗い部分口の明るさの総和 −暗い部分一の明るさの総和1・・・(1)この旧算し
た明度和の差Pは、マーカの中心位置において突出した
値を示す。
P-1 total brightness of dark part mouth - total brightness of dark part 1 1 (1) This difference P between the calculated brightness sums shows a prominent value at the center position of the marker.

したがって、このフィルタリング演算部23におけるフ
ィルタリング演算は、第4図に示す”ように、フィルタ
パターンAと原画像データI (x,y)との対応する
点に対して上式(1)を計算し、フィルタパターンの中
心に対応する点のデータがフィルタ出力データJA  
(X,y)として出力される。
Therefore, the filtering operation in the filtering operation unit 23 is performed by calculating the above equation (1) for the corresponding points of the filter pattern A and the original image data I (x, y), as shown in FIG. , the data of the point corresponding to the center of the filter pattern is the filter output data JA
It is output as (X, y).

すなわち、フィルタリング演算部23からのフィルタ出
力は、各フィルタを原画像1 (x,y)に作用される
ように次式に示す演算を行うことにより得られる。
That is, the filter output from the filtering calculation unit 23 is obtained by performing the calculation shown in the following equation so that each filter is applied to the original image 1 (x, y).

但し、F A (x,y)−2,F A (x’.y’
)−1但し、F a (x.y)−2.F a (x’
.y’)−1但し、F c (x,y)−2,F c 
(x’,y’)−1但し、F o (x.y)−2,F
 D (x’,y”)−1フィルタリング演算部23か
らのフィルタ出力データJA  (X,y)は、1次候
補点抽出部25に供給され、ここでフィルタリング結果
が突出した値であるか否かが判定される。これは、フィ
ルタ出力データJ^ (x,y)を第1の所定のしきい
値(実験等により決める)Thlと比較し、JA(x,
y)≧Thlである時、PA  (X+  y)−1と
し、PA  (X.  y)<Thlである時、PA 
 (x,y)−0とすることにより行い、この結果得ら
れたPA  (X.y)−1である点を一次候補点と呼
ぶ。
However, F A (x, y)-2, F A (x'.y'
)-1 However, F a (x.y)-2. F a (x'
.. y')-1 However, F c (x, y)-2, F c
(x', y')-1 However, F o (x.y)-2, F
D (x', y'')-1 The filter output data JA (X, y) from the filtering calculation unit 23 is supplied to the primary candidate point extraction unit 25, where it is determined whether the filtering result is an outstanding value or not. This is done by comparing the filter output data J^ (x, y) with a first predetermined threshold Thl (determined by experiment etc.) and
When y)≧Thl, PA (X+ y)-1, and when PA (X. y)<Thl, PA
(x,y)-0, and the resulting point with PA (X.y)-1 is called a primary candidate point.

すなわち、各一次候補点PA  (X,  3’), 
 PB(x, y) ,Pc (x, y) r Po
 <x, y)は次式のようになる。
That is, each primary candidate point PA (X, 3'),
PB (x, y) , Pc (x, y) r Po
<x, y) is as follows.

?のままマーカ位置として出力すると、誤抽出をきたす
恐れがある。これはたまたまマーカと同じ明度分布を有
する領域をビックアップしてしまうことによる。従って
、マーカの位置を絞り込むために、1次候補点抽出部2
5の出力を分散演算部27に供給し、この分散演算部2
7において前述した暗い画素一の領域の分散VAI(X
I  Y)と明るい画素口の領域の分散vA■(x.y
)をそれぞれ算出する。この結果算出される分散VAI
(X.y).V^2(X,y)は真のマーカ部において
両方とも小さな値になる。
? If the marker position is output as is, there is a risk of incorrect extraction. This is because an area that happens to have the same brightness distribution as the marker is surprised. Therefore, in order to narrow down the marker positions, the primary candidate point extraction unit 2
5 is supplied to the distributed calculation unit 27, and this distributed calculation unit 2
7, the variance VAI(X
I Y) and the variance vA■(x.y
) are calculated respectively. Variance VAI calculated as a result
(X.y). Both V^2(X, y) have small values in the true marker part.

分散の算出は、PA  (X,y)−1,P3  (X
,y)−1,Pc  (x,y)−1,Po  (x,
y)−1の点について次式の計算を行って得られる。
Calculation of variance is PA (X,y)-1,P3 (X
,y)-1,Pc (x,y)-1,Po (x,
It is obtained by calculating the following equation for the point y)-1.

V ^宜 (x++    y+) 1次候補点抽出部25で得られた一次候補点を但し、F
 A (x,y)− 2 V^2(X y+  ) Vc+(X yI ) 但し、F A(!’,y’)= 1 V8+(  X+  r   Y+  )但し、F c
 (x=y)− 2 VC2  (  xI ,   YI )但し、F a
 (x.y)− 2 ?Il■ ( X Y+  ) 但し、F c (x’.y’)− 1 VDI  (  XI  , yj ) 但し、F3(x’,y“>− 1 但し、F o (++,y)− 2 VD2(X y+  ) 1次候補点抽出部25で算出された分散値は、2次候補
点抽出部2つに供給され、この分散値の評価が行われる
。これは、第2の所定のしきい値(実験等により決める
)Th2に対してP A  ( X +y)−1であり
、VA 1 (X,y):=Th2であり、かつvA2
(x,y)≦Th2である時、QA(x,y)=1とし
、それ以外である時、QA(x,y)−0とすることに
よって行われる。このようにして得られたQA  (X
,y) −1である点を2次候補点と呼ぶ。
V ^yi (x++ y+) The primary candidate point obtained by the primary candidate point extraction unit 25 is
A (x,y)- 2 V^2(X y+) Vc+(X yI) However, F A(!', y')= 1 V8+(X+ r Y+) However, F c
(x=y)-2 VC2 (xI, YI) However, F a
(x.y)-2? Il ■ ( X y+ ) The variance value calculated by the primary candidate point extraction unit 25 is supplied to two secondary candidate point extraction units, and the variance value is evaluated. For Th2 (determined by experiment, etc.), P A (X + y)-1, VA 1 (X, y):=Th2, and vA2
This is done by setting QA(x,y)=1 when (x,y)≦Th2, and setting QA(x,y)-0 otherwise. QA (X
, y) -1 is called a secondary candidate point.

すなわち、各2候補点Q^ (X,Y),QB(x, 
y) , Qc (x, y) , Qo (x, y
)は次式のようになる。
That is, each two candidate points Q^ (X, Y), QB(x,
y) , Qc (x, y) , Qo (x, y
) is as follows.

1  −  P  A  (x,y)−1  ThつV
A+  (x,y)≦7JQA  (x,y)  − 
      fpつVAI (1.1>≦Th,0・・
・other 1.  −  P  B  (x,y)−1  かつV
al  (x+  y)≦Th,Q [l (x,y)
 一       かつVJ (x+  !)≦Th,
0−other 1−P  c  (x,y)−1  かつvc+ (x
,y)≦Th,Q c  (X ,y)  一#クVC
2 (Zl 7 )≦Tb20・・・other 1  −  P  o  (x,y)−1  かつVJ
  (x,y)≦Th2Qo(x,y)  一    
  か’lVD2 (L y)≦Th,0・・・oth
er 2次候補点抽出部2つで処理された後は、クラスタリン
グ部31において真のマーカ位置を更に絞り込まれる。
1 - P A (x, y) - 1 Th V
A+ (x, y)≦7JQA (x, y) −
fp VAI (1.1>≦Th,0...
・other 1. - P B (x,y)-1 and V
al (x+ y)≦Th,Q [l (x, y)
1 and VJ (x+!)≦Th,
0-other 1-P c (x,y)-1 and vc+ (x
, y)≦Th, Q c (X , y) 1 #k VC
2 (Zl 7 )≦Tb20...other 1 - P o (x,y)-1 and VJ
(x,y)≦Th2Qo(x,y) -
ka'lVD2 (L y)≦Th,0...oth
After being processed by the two secondary candidate point extraction units, the true marker positions are further narrowed down by the clustering unit 31.

このクラスタリング処理は第5図に示すフローに従って
行われる。
This clustering process is performed according to the flow shown in FIG.

第5図においては、まず前述したように1次候補点抽出
部25において1、次候補点PA  (X,y)−1を
抽出し(ステップ11.0)、更に2次候補点抽出部2
9において前述したように2次候補点QA  (X,y
)−1を抽出する(ステソプ120)。それから、この
抽出した2次候補点の中からフィルタ出力JA  (X
,y)が最も高い点Rを探し(ステップ130)、この
抽出したR点の座標(x,y)をメモリに記憶し、この
Rの近傍点を除去する(ステップ140)というクラス
タリング処理が行われる。この処理は2次候補点QA(
x,y)=1の点が無くなるまで行われる(ステップ1
50)。
In FIG. 5, first, as described above, the primary candidate point extraction unit 25 extracts the 1st and secondary candidate points PA (X, y)-1 (step 11.0), and then the secondary candidate point extraction unit 2
9, the secondary candidate point QA (X, y
)-1 (Stethop 120). Then, filter output JA (X
. be exposed. This process is performed using the secondary candidate point QA (
x, y) = 1 until there are no more points (step 1
50).

第6図(a)はこのクラスタリング処理を更に詳細に示
すフローチャートである。同図において、まずマーカの
Xおよびy座標値Rx (v)およびRy (v)をク
リアし、マーカの個数を表す添字Vを1とし(v=1)
、フィルタ出力データJA(x.y)の最大値Sを蓄積
するエリアを0とし(S−0) 、更に画像メモ、り1
7のアドレスyおよびXをそれぞれ0にする(y−0,
x=0)(ステップ200〜240)。それから、ステ
ップ230,240で設定された画像メモリ17のアド
レス(x,y)の点が2次候補点Q^ (X,y)−1
であるか否かをチェックする(ステップ250)。2次
候補点でない場合には、ステップ230.240に戻っ
てXおよびyの各々について0〜最大値のすべてについ
て行い、2次候補点QA  (X,y)=1でなくなる
まで行い、この2次候補点が無くなった時、処理終了と
なる(ステップ320)。
FIG. 6(a) is a flowchart showing this clustering process in more detail. In the same figure, first clear the X and y coordinate values Rx (v) and Ry (v) of the markers, and set the subscript V representing the number of markers to 1 (v=1).
, set the area for accumulating the maximum value S of the filter output data JA (x.y) to 0 (S-0), and further set the image memo, Ri1.
Set addresses y and X of 7 to 0 respectively (y-0,
x=0) (steps 200-240). Then, the point at the address (x, y) of the image memory 17 set in steps 230 and 240 is the secondary candidate point Q^ (X, y)-1
It is checked whether it is (step 250). If it is not a secondary candidate point, return to steps 230 and 240 and repeat the process for all values from 0 to the maximum value for each of X and y until the secondary candidate point QA (X, y) is no longer equal to 1. When there are no more next candidate points, the process ends (step 320).

ステップ250で2次候補点QA  (X,y)=1を
検出した場合には、フィルタ出力データJ^(x,.y
)の最大値SからがぞすメモリI7のアドレスx,yに
対応するフィルタ出力データJA(x,y)を引いた値
が0より大きいか否かをチェックし、2次候補点の中で
フィルタ出力データJA  (X.y)が最大である点
を探す(ステップ260)。この最大点のフィルタ出力
データJA(x,y)を最大値Sとするとともに、この
場合の画像メモリ17のアドレレスx,y,すなわちこ
の場合のマーカ位置のx,y座標をそれぞれt,Uとす
る(ステップ270)。この座標t,uをそれぞれマー
カのXおよびy座標の確定値Rx(V)およびRy (
v)とする(ステップ280)この確定したマーカのX
およびy座標に対して所定の定数αを減算した座標Xm
Rx (v)一αおよびY−Ry(v)一αを算出する
とともに(ステップ290)、第6図(b)に示すよう
に、この座II X − R x ( v ) − a
およびY−Ry (v)一αから座標X−Rx (v)
+aおよびY−Ry(V)+αまでの範囲内にある2次
候補点QA(x,y)をすべて0にする(ステップ30
0)。
If the secondary candidate point QA (X, y) = 1 is detected in step 250, the filter output data J^(x, .y
) is checked to see if the value obtained by subtracting the filter output data JA (x, y) corresponding to the addresses x, y of the memory I7 from the maximum value S is greater than 0, and Find the point where the filter output data JA (X.y) is maximum (step 260). Let the filter output data JA (x, y) at this maximum point be the maximum value S, and let the addresses x, y of the image memory 17 in this case, that is, the x, y coordinates of the marker position in this case, be t and U, respectively. (step 270). These coordinates t and u are respectively defined values Rx (V) and Ry (
v) (step 280) X of this confirmed marker
and the coordinate Xm obtained by subtracting a predetermined constant α from the y coordinate
While calculating Rx (v) - α and Y-Ry (v) - α (step 290), as shown in FIG. 6(b), this locus II
and Y-Ry (v) from the coordinates X-Rx (v)
+a and Y−Ry(V)+α, all secondary candidate points QA(x,y) are set to 0 (step 30
0).

それから、マーカ個数Vを1だけ増加して更新し(ステ
ップ310)、ステップ220に戻り、同様に処理を繰
り返す。
Then, the number of markers V is updated by incrementing it by 1 (step 310), and the process returns to step 220 to repeat the same process.

以上のようなクラスタリング処理の結果、2次候補点の
中でフィルタ出力データJA  (X,y)が最も高い
点のみが検出され、その近傍点は0に除去される。第7
図はこのようなクラスタリング処理した結果から生成さ
れた配列Rx (v) , Ry (v)を示す表であ
る。
As a result of the above clustering process, only the point with the highest filter output data JA (X, y) is detected among the secondary candidate points, and its neighboring points are removed to zero. 7th
The figure is a table showing arrays Rx (v) and Ry (v) generated from the results of such clustering processing.

クラスタリング部31におけるクラスタリング処理によ
り求められたマーカ位置に対しては、マーカ位置算出部
33において更にマーカ位置の最終決定が行われる。こ
れは、クラスタリング部3】で決定したマーカ位置(x
 i,  y i)の近傍の3×3の画素に対して、次
の演算を行うことによって実現される。
For the marker positions determined by the clustering process in the clustering unit 31, the final determination of the marker positions is further performed in the marker position calculation unit 33. This is the marker position (x
This is achieved by performing the following calculation on 3×3 pixels in the vicinity of i, y i).

このようにして得られた座標を真のマーカ位置(xi,
yf)とするものである。
The coordinates obtained in this way are converted to the true marker position (xi,
yf).

上式(2).(3)によって2次元ヒストグラムJA 
 (X.y)の3X3近傍の重心位置が算出されるが、
これによりマーカ位置抽出の高精度化が図れる。すなわ
ち、画素以下のオーダでマーカ泣置を算出できる。
Above formula (2). (3) Two-dimensional histogram JA
The center of gravity position near 3X3 of (X.y) is calculated,
This makes it possible to increase the accuracy of marker position extraction. That is, marker positions can be calculated on the order of pixels or less.

更に詳細には、マーカ位置の最終決定処理は、第8図の
フローチャートに示すように行われる。
More specifically, the final determination process of the marker position is performed as shown in the flowchart of FIG.

第8図において、まずマーカの個数V。を1とし、この
マーカ個数v0をVとし、Rx (v),Ry(v)が
Oであるか否かをチェックする(ステップ410 〜4
30).Rx (v).Ry (v)が0でない場合に
は、3X3近傍内でJA  (X,y)の重心位置を計
算する(ステップ440)。それから、マーカ個数Vを
+1増加し、ステップ430に戻り、Rx (v),R
y (v)=0を検出するまで繰り返す(ステップ45
0)。ステップ430でRx (v)=Ry (v)=
0を検出した場合には、マーカ個数■をvOとして記憶
して処理を終了する(ステップ460)。なお、上記処
理はフィルタAに対する処理であり、フィルタB,C,
Dを作用させた場合には、上記処理をステップ420の
位置からスタートさせる。
In FIG. 8, first, the number of markers V. is set to 1, this number of markers v0 is set to V, and it is checked whether Rx (v) and Ry (v) are O (steps 410 to 4).
30). Rx (v). If Ry (v) is not 0, calculate the center of gravity position of JA (X, y) within the 3X3 neighborhood (step 440). Then, the number of markers V is increased by +1, the process returns to step 430, and Rx (v), R
Repeat until y(v)=0 is detected (step 45
0). In step 430, Rx (v)=Ry (v)=
If 0 is detected, the marker number ■ is stored as vO, and the process ends (step 460). Note that the above processing is for filter A, and filters B, C,
If D is applied, the above process is started from the position of step 420.

以上説明したフィルタパターン発生部21からマーカ位
置算出部33までに行われる各処理を第3図のフィルタ
パターンA,B,C,Dの各々に対して実施することに
より、原画像1(x,y)内のマーカを第9図に示すよ
うにすべて抽出することができる。
The original image 1 (x, All markers in y) can be extracted as shown in FIG.

すなわち、以上の処理で得られた結果(X (v)Y 
(V) )をプロットし、抽出結果をKi(x,y)と
する。ここで、Ki (x,y)はi番目の原画]象I
t  (x,y)から得られたに対するマー力抽出結果
であるとし、抽出した点にはKi(x,y)■1、その
他の点にはKi  (X.y> −aをプロットする。
In other words, the result obtained by the above processing (X (v)Y
(V) ) and let the extraction result be Ki(x,y). Here, Ki (x, y) is the i-th original image] elephant I
t (x, y), Ki (x, y) 1 is plotted at the extracted point, and Ki (X.y> -a is plotted at the other points).

また、X (v) ,  Y (v)は整数データでな
いため、K t (x+  y)のプロットに際しては
、それに最も近い整数データとしてプロットする。この
ようにプロヅトした結果が第9図である。
Furthermore, since X (v) and Y (v) are not integer data, when plotting K t (x+y), they are plotted as integer data closest to it. The result produced in this way is shown in FIG.

以上説明したマーカ位置抽出部1つの処理フローが第1
0図に示されているものである。
The processing flow of one marker position extraction unit explained above is the first
This is what is shown in Figure 0.

マーカ位置抽出部19で抽出されたマーカは探索判断部
35に供給され、まず対応検索部37においてl番目の
マーカ抽出結果とi+1番目のマー力抽出結果の対応付
けを行い、とのマーカがどこに移動したかを判断する。
The marker extracted by the marker position extraction unit 19 is supplied to the search determination unit 35, and first, the correspondence search unit 37 correlates the l-th marker extraction result with the i+1-th marker force extraction result, and determines where the marker is. Determine whether it has moved.

この処理は、2枚のマーカ抽出結果であるi番目のマー
カ抽出結果Ki (x,y)とi+1番目のマーカ抽出
結果Kt+1 (x,y)との間で第11図に示すよう
に距離d以内の点を対応付けることにより行われる。な
お、第11図において、「O」以内で「・」で示すi番
目のマーカ抽出結果Kiに最も近いrxJで示すi+1
番目のマー力抽出結果Ki+1を探す。
This process is performed by creating a distance d between the i-th marker extraction result Ki (x, y) and the i+1-th marker extraction result Kt+1 (x, y), which are the two marker extraction results, as shown in FIG. This is done by matching the points within the range. In FIG. 11, i+1, indicated by rxJ, is the closest to the i-th marker extraction result Ki, indicated by "・" within "O".
Search for the th power extraction result Ki+1.

2枚の画像を取得した時間間隔が十分短いと仮定すると
、マーカの移動量はごくわずかであると考えられるため
、その移動量はd以下であると考えて、第12図に示す
フローチャートによって本処理は実現される。
Assuming that the time interval between the acquisition of the two images is sufficiently short, the amount of movement of the marker is considered to be very small. Processing is accomplished.

第12図において、座標x,yをOとし、この座標に対
するマーカ抽出結果Ki (x,y)が1であるか否か
をチェックし、マーカ位置を検出する(ステップ710
,720)。この検出したマ一力位置を(x,y)とす
る。なお、このステップ720の処理をx−0〜最大値
およびy−o〜最大値のすべてについて行って処理を終
了する(ステップ720,810)。
In FIG. 12, the coordinates x, y are set to O, and it is checked whether the marker extraction result Ki (x, y) for these coordinates is 1, and the marker position is detected (step 710).
, 720). Let this detected mechanical force position be (x, y). Note that the process of step 720 is performed for all of x-0 to maximum value and y-o to maximum value, and the process ends (steps 720, 810).

次のステップ730では、別の座標X′およびy″をそ
れぞれOに設定し、距11Dに定数βを代入する。なお
、定数βは十分大きな値とする。ステップ730で設定
したx−  y−に対するマー力抽出結果Ki+1 (
X=,V−’)が1であるか否かをチェックし、マーカ
位置を検出する(ステップ750)。なお、このステッ
プ750の処理もステップ720と同様にX′およびy
′のそれぞれに対してO〜最大値のすべてについて行う
In the next step 730, other coordinates X' and y'' are set to O, respectively, and a constant β is substituted for the distance 11D. Note that the constant β is set to a sufficiently large value. The force extraction result Ki+1 (
It is checked whether X=, V-') is 1 and the marker position is detected (step 750). Note that the processing in step 750 is similar to step 720 in that X′ and y
′ for all values from O to the maximum value.

ステップ720および750で検出した2つのマーカ位
置(x,y)および(x−.y−)の間の距離がDより
小さいか否かチェックする(ステップ760)。ステッ
プ760のチェックの結果、両者間の距離がD以下の場
合には、このDを(x,y)および(x−.y−)間の
距離で置き換え、X′およびy″をそれぞれXおよびY
としてご己憶する(ステップ770,780). Ki−←1 (x”,y−)−1の点をすべて検索した
後、Dがしきい値d以下であるか否かをチェックし、し
きい値d以下である場合には、( X +y)および(
X,Y)は同一マーカを表すものとして、両座標間を直
線で接続する(ステップ790,800)。なお、直線
描画はDDAアルゴリズムで行えばよい。Ki  (x
,y)−1の点をすべて検索して、本処理を終了する(
ステップ810)。
Check whether the distance between the two marker positions (x, y) and (x-.y-) detected in steps 720 and 750 is smaller than D (step 760). As a result of the check in step 760, if the distance between them is less than or equal to D, replace D with the distance between (x, y) and (x-.y-), and replace X' and y'' with X and Y
(steps 770, 780). Ki−←1 After searching all the points of (x”, y−)−1, check whether D is less than or equal to the threshold d, and if it is less than or equal to the threshold d, ( +y) and (
X, Y) represent the same marker, and a straight line connects both coordinates (steps 790, 800). Note that straight line drawing may be performed using the DDA algorithm. Ki (x
, y)-1 and terminate this process (
step 810).

なお、ステップ790において、算出したDがしきい値
dより大きい場合には、KL  (x,y)で画像化さ
れたマーカがKi+1 (x,Y)では隠れてしまった
ものと判断する。本処理によって第11図に示すような
対応付け結果が得られるのである。
Note that in step 790, if the calculated D is larger than the threshold value d, it is determined that the marker imaged at KL (x, y) is hidden at Ki+1 (x, Y). Through this process, a matching result as shown in FIG. 11 is obtained.

終了処理判断部3つにおいて、以上の一連の処理が終了
したと判断されると、再生制御部13から次のコマを再
生するりような指示、すなわち「1コマ送り信号」が出
力され、次のコマに対して同++mにマーカ抽出および
対応付けの一連の処理が行われる。
When the three end processing determining units determine that the series of processes described above have been completed, the playback control unit 13 outputs an instruction to play the next frame, that is, a “one frame advance signal”, and the next frame is output. A series of processes of extracting markers and associating them is performed on the same frame.

[発明の効果] 以上説明したように、本発明によれば、直交する第1お
よび第2の線分上の画素群の各明度和の差を演算すると
ともに、各明度値の分散を算出し、前記明度和差を第1
の所定のしきい値以」二であり、前記各分散が第2の所
定のしきい値以下である点をマーカ中心と判断している
ので、マーカ位置の検出を従来のような人手でなく画像
処理により自動的に行うことができ、作業の効率化を図
ることができるとともに、また例えば自動車の衝突実験
のようにマーカが歪んだとしても正確にマーカの中心位
置を検出することができる。
[Effects of the Invention] As described above, according to the present invention, the difference between the brightness sums of the pixel groups on the first and second orthogonal line segments is calculated, and the variance of each brightness value is calculated. , the lightness sum difference is the first
The marker position is determined to be the center of the marker at the point where each variance is less than or equal to the second predetermined threshold. This can be done automatically through image processing, making it possible to improve work efficiency, and even if the marker is distorted, such as in a car crash experiment, the center position of the marker can be accurately detected.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例に係わるマーカ検出装置の構
或図、第2図は第1図のマーカ検出装置に使用されるマ
ーカの形状を示す図、第3図は第1図のマーカ検出装置
に使用されるフィルタパターンを示す図、第4図は第1
図のマーカ検出装置に使用されているフィルタリング演
算部におけるフィルタリング演算の説明図、第5図は第
1図のマーカ検出装置に使用されているクラスタリング
部におけるクラスタリング処理のIE要を示す説明図、
第6図はクラスタリング部のクラスタリング処理を示す
フローチャート、第7図はクラスタリング部のクラスタ
リング処理の結果を示す図、第8図は第1図のマーカ検
出装置に使用されているマーカ位置算出部のマーカ位置
の最終決定処理を示すフローチャート、第9図は第1図
のマーカ検出装置に使用されているマーカ位置算出部に
よるマーカ抽出処理を示す説明図、第10図は第1−図
のマーカ検出装置に使用されているマーカ位置抽出部の
作用を示すフローチャート、第11図はマーカ位置算出
部におけるマーカの対応付けに示す説明図、第12図は
第1図のマーカ検出装置に使用されている対応探索部の
作用を示すフローチャート、第13図は従来のマーカ検
出処理を示す説明図である。 1・・・マーカ 7・・・高速度カメラ 9・・・高速度写真記録装置 11・・・再生記憶部 19・・・マーカ位置抽出部 21・・・フィルタパターン発生部 23・・・フィルタリング演算部 25・・・1次候補点抽出部 27・・・分散演算部 2つ・・・2次候補点抽出部 31・・・クラスタリング部 33・・・マーカ位置算出部 37・・・対応探索部
FIG. 1 is a diagram showing the structure of a marker detection device according to an embodiment of the present invention, FIG. 2 is a diagram showing the shape of a marker used in the marker detection device of FIG. 1, and FIG. 3 is a diagram showing the shape of a marker used in the marker detection device of FIG. Figure 4 shows the filter pattern used in the marker detection device.
FIG. 5 is an explanatory diagram showing the IE essentials of clustering processing in the clustering unit used in the marker detection device of FIG. 1;
FIG. 6 is a flowchart showing the clustering process of the clustering unit, FIG. 7 is a diagram showing the results of the clustering process of the clustering unit, and FIG. 8 is a flowchart showing the clustering process of the clustering unit. FIG. 8 is a flowchart showing the clustering process of the clustering unit. A flowchart showing the final position determination process, FIG. 9 is an explanatory diagram showing the marker extraction process by the marker position calculation unit used in the marker detection device of FIG. 1, and FIG. 10 is the marker detection device of FIGS. 11 is an explanatory diagram showing the association of markers in the marker position calculation section, and FIG. 12 is a flowchart showing the operation of the marker position extraction section used in the marker detection device of FIG. 1. FIG. 13 is a flowchart showing the operation of the search section, and is an explanatory diagram showing conventional marker detection processing. 1... Marker 7... High speed camera 9... High speed photo recording device 11... Reproduction storage section 19... Marker position extraction section 21... Filter pattern generation section 23... Filtering calculation Section 25...Primary candidate point extraction section 27...Two variance calculation sections...Secondary candidate point extraction section 31...Clustering section 33...Marker position calculation section 37...Correspondence search section

Claims (1)

【特許請求の範囲】[Claims] (1)特定パターンのマーカを検出するマーカ検出装置
であって、前記マーカを含む画像を撮像する撮像手段と
、該撮像手段で撮像した画像内にある線分上の第1の画
素群の明度和から、該第1の画素群に直交する線分上の
第2の画素群の明度和を差し引いた明度和差を算出する
明度和差算出手段と、前記第1および第2の明度値の各
分散を算出する分散算出手段と、前記明度和差算出手段
で算出した明度和差が第1の所定のしきい値以上あり、
かつ前記分散算出手段で算出した各分散が第2の所定の
しきい値以下である点をマーカ中心と判断する判断手段
とを有することを特徴とするマーカ検出装置。
(1) A marker detection device that detects a specific pattern of markers, including an imaging device that captures an image including the marker, and a brightness of a first pixel group on a line segment in the image captured by the imaging device. a brightness sum difference calculating means for calculating a brightness sum difference by subtracting a brightness sum of a second pixel group on a line segment perpendicular to the first pixel group from the sum; a variance calculation means for calculating each variance and a brightness sum difference calculated by the brightness sum difference calculation means is equal to or greater than a first predetermined threshold;
and determining means for determining that a point where each variance calculated by the variance calculating means is less than or equal to a second predetermined threshold value is the marker center.
JP1160867A 1989-06-26 1989-06-26 Marker detector Pending JPH0326986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1160867A JPH0326986A (en) 1989-06-26 1989-06-26 Marker detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1160867A JPH0326986A (en) 1989-06-26 1989-06-26 Marker detector

Publications (1)

Publication Number Publication Date
JPH0326986A true JPH0326986A (en) 1991-02-05

Family

ID=15724088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1160867A Pending JPH0326986A (en) 1989-06-26 1989-06-26 Marker detector

Country Status (1)

Country Link
JP (1) JPH0326986A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020245298A1 (en) * 2019-06-07 2020-12-10 4Activesystems Gmbh System for determining the position of moveable dummy elements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020245298A1 (en) * 2019-06-07 2020-12-10 4Activesystems Gmbh System for determining the position of moveable dummy elements

Similar Documents

Publication Publication Date Title
Drost et al. 3d object detection and localization using multimodal point pair features
JP5214533B2 (en) Person tracking method, person tracking apparatus, and person tracking program
CN106683119B (en) Moving vehicle detection method based on aerial video image
CN111160249A (en) Multi-class target detection method of optical remote sensing image based on cross-scale feature fusion
WO2022121283A1 (en) Vehicle key point information detection and vehicle control
CN110414507A (en) Licence plate recognition method, device, computer equipment and storage medium
CN109409208A (en) A kind of vehicle characteristics extraction and matching process based on video
US20070058856A1 (en) Character recoginition in video data
CN108921895A (en) A kind of sensor relative pose estimation method
Zhang et al. License plate localization in unconstrained scenes using a two-stage CNN-RNN
CN108960115A (en) Multi-direction Method for text detection based on angle point
CN110189375A (en) A kind of images steganalysis method based on monocular vision measurement
CN113393439A (en) Forging defect detection method based on deep learning
CN110120013A (en) A kind of cloud method and device
JP2000207693A (en) Obstacle detector on vehicle
Thakoor et al. Structural signatures for passenger vehicle classification in video
CN115631210A (en) Edge detection method and device
CN113689331B (en) Panoramic image stitching method under complex background
CN110321869A (en) Personnel&#39;s detection and extracting method based on Multiscale Fusion network
LaLonde et al. Fully convolutional deep neural networks for persistent multi-frame multi-object detection in wide area aerial videos
JPH0326986A (en) Marker detector
Nguyen et al. Triple detector based on feature pyramid network for license plate detection and recognition system in unusual conditions
CN113159158A (en) License plate correction and reconstruction method and system based on generation countermeasure network
Doman et al. Construction of cascaded traffic sign detector using generative learning
JP2006010652A (en) Object-detecting device