JPH04260979A - Detecting and tracking system for mobile objection - Google Patents

Detecting and tracking system for mobile objection

Info

Publication number
JPH04260979A
JPH04260979A JP3314304A JP31430491A JPH04260979A JP H04260979 A JPH04260979 A JP H04260979A JP 3314304 A JP3314304 A JP 3314304A JP 31430491 A JP31430491 A JP 31430491A JP H04260979 A JPH04260979 A JP H04260979A
Authority
JP
Japan
Prior art keywords
module
filter
mobile
moving object
objection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3314304A
Other languages
Japanese (ja)
Inventor
Hidenori Inai
秀則 井内
Piitaa Makurokurin Nairu
ナイル・ピーター・マクロクリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPH04260979A publication Critical patent/JPH04260979A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To offer a system for detecting the motion of plural mobile objections included in a continued image frame and tracking an intended specific mobile objection. CONSTITUTION:After calculating an optical flow from the luminance information of respective picture elements in a continued image frame by a simplified MOC filter 104, motion information relating to the boundary of a mobile objection identified by the optical flow is converted by a time space normalizing filter 105 for time spatially averaging and regulating the motion information so as to be concentrated into the center of the mobile objection, projection distribution is applied to the converted data by a feature extracting filter 106 and the distributed data are converted into one-dimensional speed information and then inputted to a competition type neural network 102 having three-layer structure. A box (window) including the specific intended mobile objection is defined from the center information and contour information of the mobile objection is defined in order to track the mobile objection, the shape information of the mobile objection in the box is extracted by a feature extracting filter 108 and inputted to a novel filter neural network 109 having one-layer structure to recognize the shape of the mobile objection.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は移動物体の検出、追跡を
行なうシステムに関する。さらに詳しくは、複数の移動
物体の検出、追跡を人間の視覚機能を模倣したニューラ
ルネットワーク技術を応用することにより実時間で行な
うことを可能にする移動物体の検出、追跡を行なうシス
テムに関する。物流システム管理、自立型ロボットの視
覚などの応用が考えられる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for detecting and tracking moving objects. More specifically, the present invention relates to a system for detecting and tracking moving objects that can detect and track multiple moving objects in real time by applying neural network technology that imitates human visual function. Possible applications include logistics system management and autonomous robot vision.

【0002】0002

【従来の技術】ビデオ映像上の明点の追跡技術について
は、米国特許第4644397号「ビデオ映像に於ける
明点を他の明点の干渉を除外しながら意図する明点のみ
を追跡する方法」(METHOD OF PROCES
SING A VIDEO IMAGE TO TRA
CK A BRIGHT SPOT AND TO P
ROTECT SAID TRACKING FROM
 INTERFERENCE FROM OTHER 
BRIGHT SPOTS)が挙げられる。従来の技術
は、ほぼ円形に近い移動物体に対して、それを包含する
ような仮想的なウィンドウを設け、この仮想ウィンドウ
内での移動前後の二つの画像の相関が最も大きくなる方
向に仮想ウィンドウを移動することによって追跡を行な
っていた。
[Prior Art] Regarding a technology for tracking bright points on a video image, see US Pat. ”(METHOD OF PROCES
SING A VIDEO IMAGE TO TRA
CK A BRIGHT SPOT AND TO P
ROTECT SAID TRACKING FROM
INTERFERENCE FROM OTHER
BRIGHT SPOTS). In conventional technology, a virtual window is created to encompass a nearly circular moving object, and the virtual window is opened in the direction that maximizes the correlation between the two images before and after the movement within this virtual window. Tracking was done by moving the .

【0003】0003

【発明が解決しようとする課題】移動物体の輪郭点に関
する速度情報(オプティカルフロー)は物体の輝度が一
様である場合には物体の輪郭点に於いてのみ求められる
。速度情報は、速さと移動方向の2成分からなるが、一
つの塊としての、移動物体についての速度情報を求める
ためには物体の輪郭点における速度情報を何らかの手段
により統合する必要がある。しかしながら、一般的には
、この目的のためには最初に移動物体を他の移動物体、
あるいは静止物体から分離することが必要となる。
[Problem to be Solved by the Invention] Velocity information (optical flow) regarding the contour points of a moving object can be obtained only at the contour points of the object when the brightness of the object is uniform. Velocity information consists of two components, speed and moving direction, but in order to obtain velocity information about a moving object as a single mass, it is necessary to integrate velocity information at contour points of the object by some means. However, in general, for this purpose, a moving object must first be connected to another moving object,
Or it may be necessary to separate it from a stationary object.

【0004】上記従来技術は、予め設けられた仮想ウィ
ンドウ内に入ってくる他の移動点に対しては、これを排
除するための別のサブウインドウを用意するという手段
を用いて追跡すべき移動点に対してサブウインドウ内の
移動点が与える影響を除外していた。このために追跡す
べき移動点の数が増大すると新たなサブウィンドウを計
算し設定するための処理時間が増大するという問題があ
った。
[0004] In the above-mentioned prior art, the movement to be tracked is determined by preparing another sub-window to exclude other moving points that enter a pre-provided virtual window. The influence of moving points within the subwindow on points was excluded. For this reason, there is a problem in that as the number of moving points to be tracked increases, the processing time for calculating and setting a new sub-window increases.

【0005】本発明の目的は、画面上の移動物体の数に
よらず追跡に要する処理を一定時間で実行する移動物体
の検出追跡システム、及び移動物体の画面上での他の移
動物体との衝突、他の物体による隠蔽に影響を受けない
移動物体の検出追跡システムを提供することにある。
An object of the present invention is to provide a moving object detection and tracking system that executes the processing required for tracking in a fixed time regardless of the number of moving objects on the screen, and a system for detecting and tracking moving objects that performs the processing required for tracking in a fixed time regardless of the number of moving objects on the screen. An object of the present invention is to provide a moving object detection and tracking system that is not affected by collision or concealment by other objects.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、まず、連続する2つの画像フレームに対して簡単化
MOCフィルタを適用することにより移動物体の輪郭に
関する動き情報(オプティカルフロー)を計算する。簡
単化MOCフィルタは3つの処理段階(空間フィルタに
よる方向別エッジ検出部、時間フィルタによる輝度差検
出部、空間フィルタと時間フィルタの積和組合せ部)か
ら構成されるオプティカルフロー算出フィルタである。 次に、オプティカルフローに対して時空間規格化フィル
タを移動方向毎に適用することにより、移動物体に関す
る移動方向毎の速さ情報を規格化して抽出する。移動物
体に関する速さ情報の移動方向、及び移動方向に垂直な
方向への一次元投影分布をとった後、方向(移動方向、
投影分布方向)ごとの局所極大値検出ニューラルネット
ワークに入力する。局所極大値検出ニューラルネットワ
ークは3層構造の競合型ニューラルネットワークである
[Means for solving the problem] In order to achieve the above object, first, motion information (optical flow) regarding the outline of a moving object is calculated by applying a simplified MOC filter to two consecutive image frames. do. The simplified MOC filter is an optical flow calculation filter that includes three processing stages (directional edge detection section using a spatial filter, brightness difference detection section using a temporal filter, and product-sum combination section of a spatial filter and a temporal filter). Next, by applying a spatio-temporal normalization filter to the optical flow for each direction of movement, speed information regarding the moving object for each direction of movement is standardized and extracted. After taking the one-dimensional projection distribution of the velocity information regarding the moving object in the direction of movement and in the direction perpendicular to the direction of movement, the direction (direction of movement,
input to the local maximum detection neural network for each projection distribution direction). The local maximum value detection neural network is a competitive neural network with a three-layer structure.

【0007】次に、局所極大値検出ニューラルネットワ
ークにより検出された移動物体の中心、輪郭情報から移
動物体を包含する箱を定義し、この箱の中で新奇性フィ
ルタニューラルネットワークにより物体認識を行なう。
Next, a box containing the moving object is defined from the center and contour information of the moving object detected by the local maximum value detection neural network, and object recognition is performed within this box by the novelty filter neural network.

【0008】[0008]

【作用】連続する2つの画像フレームに対して簡単化M
OCフィルタを適用することにより移動物体の輪郭に関
する動き情報(オプティカルフロー)が計算される。簡
単化MOCフィルタは物体の輝度によらない速度情報の
計算が可能であることが特徴である。オプティカルフロ
ー情報を移動方向毎に時空間規格化フィルタに入力する
ことにより一つの塊としての、移動物体に関する規格化
された速さ情報を抽出することができる。移動物体に関
する速度情報の一次元投影分布波形を方向(移動方向、
投影分布方向)ごとに局所極大値検出ニューラルネット
ワークに入力して投影分布方向ごとに、各移動方向に対
応する局所極大値検出ニューラルネットワークの出力を
比較し、最大値を検出することにより各移動物体の中心
の座標、及び移動方向を決定することができる。この競
合型の局所極大値検出ニューラルネットワークは、外部
入力信号の局所極大値を時間の経過と共に先鋭化する、
ダイナミック動作をする短期メモリとして動作する。競
合型の局所極大値検出ニューラルネットワーク群により
求められる移動物体の中心情報、及びオプティカルフロ
ーにより求められる輪郭情報を用いることにより移動物
体を包含する箱(ウィンドウ)を定義することができる
。この箱(ウィンドウ)の中の移動物体に対して新奇性
フィルタニューラルネットワークを適用する。新奇性フ
ィルタニューラルネットワークは、学習したパターンに
対して新奇なパターン部分を出力するニューラルネット
ワークである。新奇性フィルタの持つこの性質により他
の移動物体との衝突、他の物体による隠蔽が発生した場
合にも、追跡すべき移動物体が学習パターンとして記憶
されていれば、追跡すべき移動物体の形状を連想出力で
きる。このために他の移動物体との衝突、他の物体によ
る隠蔽に影響を受けない物体認識が可能になる。
[Action] Simplify M for two consecutive image frames
Motion information (optical flow) regarding the contour of the moving object is calculated by applying the OC filter. The simplified MOC filter is characterized in that velocity information can be calculated without depending on the brightness of the object. By inputting the optical flow information to the spatio-temporal normalization filter for each direction of movement, it is possible to extract normalized speed information regarding the moving object as a single block. The one-dimensional projected distribution waveform of velocity information about a moving object is expressed in the direction (moving direction,
Each moving object is The coordinates of the center of and the direction of movement can be determined. This competitive local maximum value detection neural network sharpens the local maximum value of the external input signal over time.
It acts as a dynamic short-term memory. A box (window) containing the moving object can be defined by using the center information of the moving object obtained by the competitive local maximum detection neural network group and the contour information obtained by the optical flow. A novelty filter neural network is applied to the moving object within this box (window). A novelty filter neural network is a neural network that outputs a novel pattern part for a learned pattern. Due to this property of the novelty filter, even if a collision with another moving object or concealment by another object occurs, if the moving object to be tracked is memorized as a learning pattern, the shape of the moving object to be tracked is can be output associatively. This makes it possible to recognize objects that are not affected by collisions with other moving objects or concealment by other objects.

【0009】[0009]

【実施例】以下、本発明の一実施例を詳細に説明する。 図1は本発明に基づく移動物体の検出追跡システムの構
成図を示している。センサ101はビットマップ画像を
動き検出サブシステム(IPLS)102、動き追跡サ
ブシステム(MTS)103に供給する。動き検出サブ
システム(IPLS)102では、センサ101により
得られる画像に対して簡単化MOCフィルタ104、及
び時空間規格化フィルタ105により動き情報を抽出す
るための画像情報処理を行なった後、特徴抽出1フィル
タ106により一次元動き情報特徴を抽出して局所極大
値検出ニューラルネットワーク群107で移動物体の中
心情報を検出する。
[Embodiment] An embodiment of the present invention will be described in detail below. FIG. 1 shows a block diagram of a moving object detection and tracking system according to the present invention. The sensor 101 provides bitmap images to a motion detection subsystem (IPLS) 102 and a motion tracking subsystem (MTS) 103. A motion detection subsystem (IPLS) 102 performs image information processing to extract motion information using a simplified MOC filter 104 and a spatio-temporal normalization filter 105 on the image obtained by the sensor 101, and then performs feature extraction. 1 filter 106 extracts one-dimensional motion information features, and a local maximum value detection neural network group 107 detects center information of the moving object.

【0010】動き追跡サブシステム(MTS)103で
は、センサ101により得られる画像から動き検出サブ
システム(IPLS)102で得られる移動物体の中心
情報を用いることにより移動物体を包含する箱領域を切
りだし、箱領域内の画像から特徴抽出2フィルタ108
により移動物体に関する形状情報を抽出した後、新奇性
フィルタニューラルネッワーク109により追跡すべき
移動物体認識を行ない、この結果を用いて意図する移動
物体を視野の中心に捉えるようにセンサ駆動部110を
駆動する。
The motion tracking subsystem (MTS) 103 cuts out a box region containing the moving object from the image obtained by the sensor 101 by using the center information of the moving object obtained by the motion detection subsystem (IPLS) 102. , Feature extraction 2 filter 108 from the image within the box area
After extracting shape information regarding the moving object, the novelty filter neural network 109 recognizes the moving object to be tracked, and uses this result to drive the sensor drive unit 110 to capture the intended moving object at the center of the field of view. do.

【0011】まず、動き検出サブシステム(IPLS)
102について詳細に説明する。センサ101により得
られる連続画像フレームの画素輝度情報をIij(t1
),Iij(t2),...と記述する。ここでi,j
は画素の位置を、t1、t2は時刻を示す。これらの画
素輝度情報は簡単化MOCフィルタ104に入力される
。簡単化MOCフィルタ104は3層の構造を持ち、連
続する画像フレームの同一位置の画素における方向毎の
移動量、即ちオプティカルフローを計算する。このオプ
ティカルフロー算出フィルタは、S.Grossber
g,M.Rudd著「A Neural Archit
ecture for Visual Motion 
Perception* Groupand Elem
ent Apparent Motion」,Neur
al Network Vol2,pp421−450
(1989)、またはS.Grossberg著「Th
e Adaptive Brain II」,Else
vir(1987)に詳細に記述されている。簡単化M
OCフィルタ104の出力信号をUij(k,t)と表
す。ここでi,jは画素の位置を、kは方向を、tは時
刻を示す。方向分解能は8であるとする。簡単化MOC
フィルタ104は、現在取り込んでいる画像のエッジを
検出し、かつ現在取り込んでいる画像と直前に取り込ん
だ画像の輝度情報とを比較することにより、k=0〜7
に対応する8方向の輪郭速度情報、即ちオプティカルフ
ローUij(k,t)を算出する。オプティカルフロー
Uij(k,t)は、時空間規格化フィルタ105によ
り時空間的に平均化、規格化されてVij(k,t)に
変換される。変換式は次式(1)に基づく。
First, the motion detection subsystem (IPLS)
102 will be explained in detail. The pixel brightness information of continuous image frames obtained by the sensor 101 is expressed as Iij(t1
), Iij(t2), . .. .. It is described as follows. Here i, j
indicates the pixel position, and t1 and t2 indicate the time. These pixel brightness information are input to simplified MOC filter 104. The simplified MOC filter 104 has a three-layer structure and calculates the amount of movement in each direction of pixels at the same position in consecutive image frames, that is, the optical flow. This optical flow calculation filter is based on S. Grossber
g, M. “A Neural Archit” by Rudd.
ecture for Visual Motion
Perception* Group Elem
ENT APPARENT MOTION”, Neur
al Network Vol2, pp421-450
(1989), or S. Grossberg, “Th
e Adaptive Brain II”, Else
vir (1987). Simplification M
The output signal of the OC filter 104 is expressed as Uij(k,t). Here, i and j indicate the position of the pixel, k indicates the direction, and t indicates the time. It is assumed that the directional resolution is 8. Simplified MOC
The filter 104 detects the edge of the currently captured image and compares the brightness information of the currently captured image with the image captured immediately before, so that k=0 to 7.
Contour velocity information in eight directions corresponding to , that is, optical flow Uij (k, t) is calculated. The optical flow Uij (k, t) is spatiotemporally averaged and normalized by the spatiotemporal normalization filter 105 and converted into Vij (k, t). The conversion formula is based on the following formula (1).

【0012】0012

【数1】 εdVij(k,t)/dt = −αVij(k,t
) + (A−Vij(k,t))NEij − Vi
j(k,t)NIij    (1)ここで、 εは時定数、 NEij  =  Uij(k,t)、NIij = 
ΣGσ(u,v)U(i+u)(j+v)(k,t)、
(u,v)≠(0,0) Gσ(u,v)=(1/2πσ)exp(−(u2+v
2)/2σ2)である。
[Equation 1] εdVij (k, t)/dt = −αVij (k, t
) + (A-Vij(k,t))NEij-Vi
j (k, t) NIij (1) where ε is a time constant, NEij = Uij (k, t), NIij =
ΣGσ(u,v)U(i+u)(j+v)(k,t),
(u, v)≠(0,0) Gσ(u,v)=(1/2πσ)exp(−(u2+v
2)/2σ2).

【0013】式(1)は、Vij(k,t)の値が0と
Aとの間に入るように速度を規格化する。即ち飛び抜け
て大きい速度成分を有する移動物体が他の移動物体の速
度の大きさ情報に与える影響が抑止される。さらに、時
空間規格化フィルタ105は簡単化MOCフィルタ10
4の出力信号Uij(k,t)の局所的な時空間平均化
を行なう、非常に短期の記憶メモリとしても役割を果た
す。上記の処理過程を図2、3、4を用いて図式的に示
す。
Equation (1) normalizes the speed so that the value of Vij(k,t) falls between 0 and A. That is, the influence of a moving object having an extremely large velocity component on velocity magnitude information of other moving objects is suppressed. Furthermore, the spatio-temporal normalization filter 105 is the simplified MOC filter 10
It also serves as a very short-term storage memory that performs local spatio-temporal averaging of the output signals Uij(k,t) of 4. The above processing steps are schematically illustrated using FIGS. 2, 3, and 4.

【0014】図2に於いて、3個の物体がシーンに存在
しており、その中の1個の物体は静止物体であり、他の
2個の物体は異なる速度で右方向に移動している。Vi
j(k,t)は特徴抽出1フィルタ106で8方向毎に
それぞれ、移動方向、及び移動方向に垂直な方向に沿っ
た投影分布がとられ、Sx,k、Sy,kに変換される
In FIG. 2, three objects exist in the scene, one of which is stationary, and the other two objects are moving to the right at different speeds. There is. Vi
The feature extraction 1 filter 106 calculates the projection distribution of j(k,t) along the movement direction and the direction perpendicular to the movement direction for each of the eight directions, and converts it into Sx,k and Sy,k.

【0015】図4にこの投影分布の計算過程を図式的に
示す。この結果、2個の移動物体については中心情報は
Sx,k、Sy,kの極大値に反映されることになる。
FIG. 4 schematically shows the process of calculating this projection distribution. As a result, for the two moving objects, the center information will be reflected in the maximum values of Sx,k and Sy,k.

【0016】図5に移動物体中心情報を出力する局所極
大値検出ニューラルネットワーク群107の中のひとつ
のニューラルネットワークの詳細な構造を示す。局所極
大値検出ニューラルネットワークは、F1、F2、F3
で示す3層構造を持つ。入力信号SkはF1、F3層に
同時に入力される。F2、F3層は同じ層の他のノード
(ニューロン)から負の抑制性の入力を、自身のノード
(ニューロン)からは正の興奮性の入力を受ける競合型
の構造を持つ。これら同一層内の結合の値は変化しない
。Xk、Ykは移動物体の中心座標を示しておりF2層
に出力される。インスターと呼ぶF1層からF2層に至
る結合、及び上記の同一層内での結合によってF2層の
ノード活性値Xjは次式(2)により決定される。
FIG. 5 shows the detailed structure of one of the local maximum value detection neural networks 107 that outputs moving object center information. The local maximum value detection neural network is F1, F2, F3
It has a three-layer structure shown in . The input signal Sk is simultaneously input to the F1 and F3 layers. The F2 and F3 layers have a competitive structure in which they receive negative inhibitory inputs from other nodes (neurons) in the same layer and positive excitatory inputs from their own nodes (neurons). The values of these connections within the same layer do not change. Xk and Yk indicate the center coordinates of the moving object and are output to the F2 layer. The node activation value Xj of the F2 layer is determined by the following equation (2) by the connections from the F1 layer to the F2 layer called instars and the connections within the same layer described above.

【0017】[0017]

【数2】                          
 n  dXj/dt = −αXj + (A − 
Xj)[ΣWjiSi + f(Xj)] − XjΣ
f(Xi)        (2)         
                 i=0     
            i≠j   F1層からF2層に至る結合値wijは次式(3)
で与えられるインスター学習則により決定される。
[Math 2]
ndXj/dt = −αXj + (A −
Xj) [ΣWjiSi + f(Xj)] − XjΣ
f(Xi) (2)
i=0
i≠j The coupling value wij from the F1 layer to the F2 layer is expressed by the following formula (3)
It is determined by the instar learning rule given by .

【0018】[0018]

【数3】 dwij/dt =e(t)(Si−wij)Xj  
                         
         (3)ここで、e(t)は時間の経
過と共に減衰する単調減衰関数である。
[Formula 3] dwij/dt = e(t)(Si-wij)Xj

(3) Here, e(t) is a monotonous decay function that decays over time.

【0019】アウトスター学習則と呼ぶF2からF3層
に至る結合、及び上記の同一層内での結合によってF3
層のノード活性値Ykは次式(4)により決定される。
[0019] Through the connection from F2 to F3 layer called the outstar learning rule and the connection within the same layer described above,
The node activation value Yk of the layer is determined by the following equation (4).

【0020】[0020]

【数4】                          
 ndYk/dt = −αYk + (A − Yk
)[ΣZkjXj + g(Xj) + Sk] − 
YkΣg(Yi)   (4)           
               j=0       
               i≠k   F2からF3層に至る結合値zkjは次式(5)で
与えられるアウトスター学習則により決定される。
[Math 4]
ndYk/dt = −αYk + (A − Yk
) [ΣZkjXj + g(Xj) + Sk] −
YkΣg(Yi) (4)
j=0
i≠k The connection value zkj from F2 to F3 layer is determined by the outstar learning rule given by the following equation (5).

【0021】[0021]

【数5】 dzkj/dt =e(t)(Yk−zkj)Xj  
                         
         (5)ここで、e(t)は式(3)
と同様の時間の経過と共に減衰する単調減衰関数である
[Formula 5] dzkj/dt = e(t)(Yk-zkj)Xj

(5) Here, e(t) is the formula (3)
It is a monotonous decay function that decays over time, similar to .

【0022】以上の式に基づいて、局所極大値検出ニュ
ーラルネットワーク群107は追跡されるべき各移動物
体の動き分布の学習を行なう。F1層からF2層の結合
はいわゆる整合フィルタとして動作し、F1層のノード
活性値から形成される信号のピークを尖鋭化すると同時
に不要なノイズ成分を除去する。F2層は短期メモリと
して動作し、信号Siのピークを短期的に保持すると同
時にF3層からのフィードバック結合によって長期メモ
リとしても動作する。この結果、追跡すべき移動物体が
一時的に他の移動物体、あるいは静止物体によって隠滅
した場合にも、中心座標は式(2)で形成される短期メ
モリ内に記憶維持されているため、後で再び出現した場
合には、すぐさま追跡を開始することが可能になる。局
所極大値検出ニューラルネットワークはART1ネット
ワークのサブセットであると考えられる。ART1ニュ
ーラルネットワークの動作の詳細は、「The Aug
mented ART1 NEural Networ
k」,IJCNN−91(Seattle),proc
eedings,VolII,pp469−472.に
記述されている。
Based on the above equations, the local maximum value detection neural network group 107 learns the motion distribution of each moving object to be tracked. The combination of the F1 layer and the F2 layer operates as a so-called matched filter, sharpening the peak of the signal formed from the node activation values of the F1 layer and removing unnecessary noise components. The F2 layer operates as a short-term memory, holding the peak of the signal Si in the short term, and at the same time operates as a long-term memory through feedback coupling from the F3 layer. As a result, even if the moving object to be tracked is temporarily obscured by another moving object or a stationary object, the center coordinates are stored in the short-term memory formed by equation (2), so that they can be tracked later. If it reappears, you can immediately start tracking it. The local maximum detection neural network is considered to be a subset of the ART1 network. For more information on how the ART1 neural network works, see “The Aug.
Mented ART1 NEural Network
k”, IJCNN-91 (Seattle), proc
eedings, Vol II, pp469-472. It is described in

【0023】次に、図1に於いて、動き追跡サブシステ
ム(MTS)103はセンサ101により得られる画像
から局所極大値検出ニューラルネットワーク群107に
より出力される中心情報Xk、Ykを利用して切りだし
た画像内に於いて、特徴抽出2フィルタ108を用いる
ことにより物体の形状に関する特徴を抽出する。物体の
形状を認識するように教育された新奇性フィルタニュー
ラルネットワーク109で物体の形状の新奇部分を連想
出力することにより、他の移動物体との衝突、あるいは
他の移動物体、静止物体による隠滅が発生した場合にも
、意図する追跡移動物体の形状を連想出力することがで
きる。このために追跡を確実に続行することが可能にな
る。エッジ検出、フーリエ変換、一般化ハフ変換などの
方法が、形状、輪郭記述のため用いられる。
Next, in FIG. 1, the motion tracking subsystem (MTS) 103 cuts the image obtained by the sensor 101 using the center information Xk, Yk output by the local maximum value detection neural network group 107. In the captured image, features related to the shape of the object are extracted by using the feature extraction 2 filter 108. The novelty filter neural network 109, trained to recognize the shape of an object, associates and outputs novel parts of the shape of the object, thereby preventing collisions with other moving objects, or being obscured by other moving or stationary objects. Even when this occurs, the shape of the intended tracked moving object can be output associatively. This makes it possible to continue tracking reliably. Methods such as edge detection, Fourier transform, and generalized Hough transform are used for shape and contour description.

【0024】図6に局所極大値検出ニューラルネットワ
ーク群107から出力される移動物体に関する中心情報
Xk、Ykを中心として移動物体を包含する箱を決定す
る過程を示す。この図の中の物体は図2のそれに対応し
ている。2個の移動物体の中心情報601、602は物
体を分離するための箱602、603によって分離でき
る。物体605はセンサ101から得られる画像中に含
まれているが、静止しているために動きの情報は得られ
ず、これを包含する箱も生成されない。
FIG. 6 shows the process of determining a box containing a moving object centered on the center information Xk, Yk regarding the moving object output from the local maximum value detection neural network group 107. The objects in this figure correspond to those in FIG. Center information 601 and 602 of two moving objects can be separated by boxes 602 and 603 for separating the objects. Although the object 605 is included in the image obtained from the sensor 101, since it is stationary, no information about its movement can be obtained, and a box containing it is not generated.

【0025】図7に新奇性フィルタニューラルネットワ
ーク109の構成を示す。新奇性フィルタの原理、応用
については、T.Kohonen著「Self−org
anization and Associative
 Memory」(Springer−Verlag,
1989)、またはE.Ardizzore著「App
lication of the Novelty F
ilter to Motion Analysis」
(INNC1990,Paris,pp46−49)に
記述されている。新奇性フィルタニューラルネットワー
クは互いに相互結合された一層構造の完全相互結合型の
ニューラルネットワークであり、各ノードの活性値Xi
(t)は式(6)に従って変化する。
FIG. 7 shows the configuration of the novelty filter neural network 109. Regarding the principles and applications of novelty filters, see T. “Self-org” by Kohonen
anization and association
Memory” (Springer-Verlag,
1989), or E. “App” by Ardizzore
lication of the Novelty F
Ilter to Motion Analysis”
(INNC 1990, Paris, pp46-49). The novelty filter neural network is a fully interconnected neural network with a single layer structure, and the activation value Xi of each node is
(t) varies according to equation (6).

【0026】[0026]

【数6】  Xi(t+1) = Xi(t) + ΣWji(t
)Xj(t)                   
             (6)         
         i≠j   学習則は次式(7)で与えられる。
[Formula 6] Xi(t+1) = Xi(t) + ΣWji(t
)Xj(t)
(6)
i≠j The learning rule is given by the following equation (7).

【0027】[0027]

【数7】 dwij/dt = −αXiXj         
                         
             (7)上記の式(7)より
、入力形状パターンが長時間ネットワークに提示されて
いると各ノードの活性値出力Xi(t)は徐々に0に近
づく。学習モード時には、学習すべき形状パターンはあ
る一定の時間(t=t1)の間だけ提示される。。この
間、重みの値wijは入力形状パターンを学習し、逆に
各ノードの活性値出力Xi(t)は徐々に0に近づく。 t1の値を適切な値に選ぶことによって一回のパターン
提示により学習は収束する。学習モード時以外の通常時
には、パターン提示時間はt1からt2(例えば、t1
の1以上の正の整数倍)へと減少させる。この結果、提
示された形状パターンが学習済みのパターンに等しい場
合には、各ノードの活性値出力Xi(t)は徐々に0に
近づく。 また、完全な学習パターンに対して一部分が欠けている
パターンが提示された場合には、欠けている部分のパタ
ーンが新奇パターンとして連想出力される。追跡すべき
物体の形状の学習が終了すると、物体どうしの重なりな
どの影響を受けずに追跡が可能となる。
[Formula 7] dwij/dt = −αXiXj

(7) From the above equation (7), if the input shape pattern is presented to the network for a long time, the activation value output Xi(t) of each node gradually approaches 0. In the learning mode, the shape pattern to be learned is presented only for a certain period of time (t=t1). . During this time, the weight value wij learns the input shape pattern, and conversely, the activation value output Xi(t) of each node gradually approaches zero. By selecting an appropriate value for t1, learning converges with one pattern presentation. In normal times other than learning mode, the pattern presentation time varies from t1 to t2 (for example, t1
(a positive integer multiple of 1 or more). As a result, if the presented shape pattern is equal to the learned pattern, the activation value output Xi(t) of each node gradually approaches zero. Furthermore, when a pattern with a part missing from a complete learning pattern is presented, the pattern with the missing part is output as an associated novel pattern. Once the learning of the shape of the object to be tracked is completed, tracking becomes possible without being affected by objects overlapping each other.

【0028】図8を用いて原理を説明する。801は左
から右に移動する物体を、802は物体801の前を通
過する物体で物体801の前部の一部分を隠している。 この重なりあう時間が非常に短い時間の場合には、新奇
性フィルタの性質から物体801の前部の輪郭を連想出
力することができるために、物体801の完全な形状を
再現することが可能である。
The principle will be explained using FIG. 801 is an object moving from left to right, and 802 is an object passing in front of the object 801, which partially hides the front part of the object 801. If this overlapping time is very short, the front outline of the object 801 can be output associatively due to the nature of the novelty filter, so it is possible to reproduce the complete shape of the object 801. be.

【0029】次に、図1に示した移動物体の検出追跡シ
ステムの一実装例を示す。図9に於いて、901は画像
センサとしての一般的なCCDカメラ、902はMei
ko社のM10筐体に内蔵された画像取り込みのための
ボード、903はM10筐体に内蔵された画像表示のた
めのボードである。取り込まれた画像フレームはトラン
スヒ゜ュータバス904を介して4枚構成のMeiko
社のIn−Sunトランスヒ゜ュータボード905上の
インモス社製T800トランスヒ゜ュータにより構成さ
れるトランスヒ゜ュータネットワーク内で処理される。 1枚のボードには16台のインモス社製トランスヒ゜ュ
ータが搭載されているので、全部で64台のT800ト
ランスヒ゜ュータを処理モジュールとして使用すること
ができる。図1における、動き検出サブシステム(IP
LS)102、動き追跡サブシステム(MTS)103
は上記In−Sunトランスヒ゜ュータネットワーク上
に実装された。物体追跡の結果は画像表示ボード907
に直結されたモニタスクリーン906、Sun4/37
0のモニタスクリーン908、Macintoshのモ
ニタスクリーン909に表示される。Sun4/370
のモニタスクリーン908、Macintoshのモニ
タスクリーン909への表示については、X−Wind
owを用いる。2台の模型列車911の画像をCCDカ
メラ901で撮ることにより画像の入力を行なう。橋や
トンネルを動いている模型列車911のそばに置くこと
によって衝突、隠蔽の時間制御を行なう。
Next, an implementation example of the moving object detection and tracking system shown in FIG. 1 will be described. In FIG. 9, 901 is a general CCD camera as an image sensor, 902 is a Mei
A board 903 is a board for displaying images built into the M10 casing manufactured by Ko Corporation for capturing images. The captured image frames are sent to a four-frame Meiko via a transducer bus 904.
The data are processed within a transducer network comprised of Inmos T800 transducers on In-Sun transducer boards 905. Since 16 Inmos transducers are mounted on one board, a total of 64 T800 transducers can be used as processing modules. The motion detection subsystem (IP
LS) 102, motion tracking subsystem (MTS) 103
was implemented on the In-Sun transducer network described above. The object tracking results are displayed on the image display board 907
Monitor screen 906 directly connected to Sun4/37
0 monitor screen 908 and Macintosh monitor screen 909. Sun4/370
Regarding the display on the monitor screen 908 and Macintosh monitor screen 909, please refer to the X-Wind
Use ow. Images are input by taking images of two model trains 911 with a CCD camera 901. Collision and concealment time can be controlled by placing bridges and tunnels near the moving model train 911.

【0030】図10に実装した、動き検出サブシステム
(IPLS)102、動き追跡サブシステム(MTS)
103のモジュールブロック図を示す。図中の箱はT8
00トランスヒ゜ュータで動くコンパイル済のコードモ
ジュールを示す。例えば、コードモジュール1005、
1006、1007、1008a、1008bなどは標
準OCCAMコンパイラでコンパイルしたものであり、
コードモジュール1002、1003、1004は標準
C言語コンパイラでコンパイルしたものである。シリン
ダ1009a、1009b、1011はパイプライン状
に接続したT800トランスヒ゜ュータを示す。各ブロ
ックを接続する矢線は、各コードモジュール間の双方向
通信路を示す。
Motion Detection Subsystem (IPLS) 102, Motion Tracking Subsystem (MTS), implemented in FIG.
103 shows a module block diagram of 103. The box in the diagram is T8
A compiled code module running on a 00 transducer is shown. For example, code module 1005,
1006, 1007, 1008a, 1008b, etc. were compiled with the standard OCCAM compiler,
Code modules 1002, 1003, and 1004 were compiled with a standard C language compiler. Cylinders 1009a, 1009b, and 1011 represent T800 transducers connected in a pipeline. Arrows connecting each block indicate bidirectional communication paths between each code module.

【0031】シリンダ1001はSunOS4.03に
基づくUNIXファイルシステムである。CS_HOS
Tモジュール1002を介してトランスヒ゜ュータネッ
トワークとUNIXファイルシステム1001との通信
を行なう。Sun4/370のモニタスクリーン908
、Macintoshのモニタスクリーン909、UN
IXファイルシステム1001との通信のためににCS
_HOSTモジュール1002が使用される。
Cylinder 1001 is a UNIX file system based on SunOS 4.03. CS_HOS
Communication between the transmitter network and the UNIX file system 1001 is performed via the T module 1002. Sun4/370 monitor screen 908
, Macintosh monitor screen 909, UN
CS for communication with IX file system 1001
_HOST module 1002 is used.

【0032】TTYモジュール1003は、FGモジュ
ール1005が標準ビデオ信号を正しくサンプリングで
きるように初期化するためのパラメータ設定を行なうた
めのモジュールである。FGモジュール1005は、P
AL、NTSCなどの如何なる標準ビデオ信号を表示、
処理画面の大きさによらずに正しくサンプリングする。 TTYモジュール1003、GFXモジュール1004
はCS_HOSTモジュール1002の機能を補完する
制御モジュールであり、通常はCS_HOSTモジュー
ル1002を介してFGモジュール1005、FDモジ
ュール1007などから構成されるトランスヒ゜ュータ
ネットワークとUNIXファイルシステム1001との
入出力が実行される。なお、これらTTYモジュール1
003、GFXモジュール1004はC言語で記述され
るが、標準添付される英国Meiko社のCS−TOO
LSライブラリによりトランスヒ゜ュータネットワーク
、UNIXファイルシステム1001との双方向通信が
可能である。GFXモジュール1004は必要に応じて
FDモジュール1007のグラフィックモードを切り替
えるために使用される。例えば、追跡が成功している場
合に、これを通知する目的で追跡移動物体をアイコン描
画するためには、GFXモジュール1004からのコマ
ンドによりグラフィックモードを切り替えることで行な
う。なお、FDモジュール1007は上記二つのモード
(通常表示モード、アイコン描画モード)での動作を可
能にするために、FGモジュール1005から送られる
画像を更新しながらアイコン画像との表示切り替えを行
なうための2画面切り換え機能を持つ。
The TTY module 1003 is a module for setting parameters for initializing the FG module 1005 so that it can correctly sample a standard video signal. The FG module 1005 is P
Displays any standard video signal such as AL, NTSC, etc.
To correctly sample regardless of the size of a processing screen. TTY module 1003, GFX module 1004
is a control module that complements the functions of the CS_HOST module 1002, and normally input/output between the UNIX file system 1001 and a transfer network consisting of the FG module 1005, FD module 1007, etc. is performed via the CS_HOST module 1002. . In addition, these TTY modules 1
003, the GFX module 1004 is written in C language, but the CS-TOO from Meiko Co., Ltd., which is included as standard, is written in C language.
The LS library allows bidirectional communication with the transfer network and the UNIX file system 1001. The GFX module 1004 is used to switch the graphic mode of the FD module 1007 as necessary. For example, in order to draw an icon of the tracked moving object in order to notify when the tracking is successful, the graphic mode is switched by a command from the GFX module 1004. Note that in order to enable operation in the above two modes (normal display mode, icon drawing mode), the FD module 1007 uses a function to switch the display between the icon image and the icon image while updating the image sent from the FG module 1005. It has a 2-screen switching function.

【0033】FGモジュール1005は画像の取り込み
を制御するための制御ソフトウェア、及び他のモジュー
ル(1003,1004,1006)との通信を行なう
ための通信コードからなる。FGモジュール1005は
カメラから画像を取り込んでBUFFモジュール100
6に画像を転送する。また、システムの動作開始時には
TTYモジュール1003からの命令に基づいて画像取
り込みのための各種のパラメータ設定(標準ビデオ信号
の選択、表示、処理画面の大きさなどの設定)を行なう
。画像の取り込みが開始されると画像を水平に2分割し
て、2本のチャンネルを介してBUFFモジュール10
06に画像の転送を行なう。他のモジュールと同様にF
Gモジュール1005は、数多くの並行プロセスの集ま
りにより実装されている。例えばそのうちの一つは画像
の取り込みのためのハードウェア制御プロセスであり、
他の大部分のプロセスは他のモジュール(TTYモジュ
ール1003、GFXモジュール1004、BUFFモ
ジュール1006)とのデータ通信を効率的に並行に実
行するためのものである。 例えば、データ通信ルーチンはTCP/IPなどの標準
ネットワークプロトコルを使用するように実装されてい
る。BUFFモジュール1006も同様に、数多くの並
行プロセスがリンクを介しての高速通信を実現している
。なお本文では、リンクと通信チャネルを同義語として
使用する。BUFFモジュール1006の主たる目的は
、FGモジュール1005からの出力をバッファリング
してMaster1モジュール(1008a)、Mas
ter2モジュール(1008b)に二つに分割して転
送することである。二つのモジュールに処理を分割する
理由は、なるべく多くのT800トランスヒ゜ュータで
同一処理を同時間に並列実行することにより画像の転送
に要するオーバヘッド時間を最小限に抑えつつ、全体と
しての処理時間を短縮することにある。前述のようにB
UFFモジュール1006は、画像を二つに等分割して
、各々の分割画像をMaster1モジュール(100
8a)、Master2モジュール(1008b)に転
送する。BUFFモジュール1006はまた、Mast
er1モジュール(1008a)、Master2モジ
ュール(1008b)から画像データ、及びグラフィッ
ク命令を受け取る。前記の通り、FGモジュール100
5からのグラフィックモードを切り替えのための命令、
Master1モジュール(1008a)、Maste
r2モジュール(1008b)からの画像データを同一
のリンクを通して自動的に切り替えて転送する必要上、
厳密なプロトコルを設定した。このモジュールでも上記
二種類の通信は並行プロセスとして実行することにより
実装された。FDモジュール1007は画像表示用モニ
タスクリーン906の画面表示動作の制御を実行する。
The FG module 1005 consists of control software for controlling image capture and communication codes for communicating with other modules (1003, 1004, 1006). The FG module 1005 takes in images from the camera and sends them to the BUFF module 100.
Transfer the image to 6. Furthermore, when the system starts operating, various parameter settings for image capture (setting of standard video signal selection, display, processing screen size, etc.) are performed based on commands from the TTY module 1003. When image capture starts, the image is divided into two horizontally and sent to the BUFF module 10 via two channels.
06, the image is transferred. F like other modules
G module 1005 is implemented by a collection of many parallel processes. For example, one of them is a hardware-controlled process for image capture,
Most of the other processes are for efficiently performing data communication with other modules (TTY module 1003, GFX module 1004, BUFF module 1006) in parallel. For example, data communication routines are implemented using standard network protocols such as TCP/IP. Similarly, the BUFF module 1006 has many parallel processes achieving high-speed communication via links. Note that in this text, link and communication channel are used synonymously. The main purpose of the BUFF module 1006 is to buffer the output from the FG module 1005 and send it to the Master1 module (1008a) and the Master1 module (1008a).
The data is divided into two parts and transferred to the ter2 module (1008b). The reason for dividing the processing into two modules is to minimize the overhead time required for image transfer and shorten the overall processing time by executing the same processing in parallel at the same time on as many T800 transducers as possible. It's about doing. As mentioned above, B
The UFF module 1006 divides the image into two equal parts and sends each divided image to the Master1 module (100
8a) and transferred to the Master2 module (1008b). BUFF module 1006 also
Image data and graphic instructions are received from the er1 module (1008a) and the Master2 module (1008b). As mentioned above, the FG module 100
Instructions for switching graphics modes from 5,
Master1 module (1008a), Master
Due to the need to automatically switch and transfer image data from the r2 module (1008b) through the same link,
Strict protocols were set. In this module as well, the above two types of communication were implemented by executing them as parallel processes. The FD module 1007 controls the screen display operation of the image display monitor screen 906.

【0034】Master1モジュール(1008a)
、Master2モジュール(1008b)は画像を簡
単化MOCフィルタ104の各パイプライン(1009
a、1009b)の中のT800トランスヒ゜ュータの
数と同じ数の小さいブロック画像に分割する。図10に
於いて、実際には各パイプラインは、20台のT800
トランスヒ゜ュータから構成されている。Master
1モジュール(1008a)、Master2モジュー
ル(1008b)は同一構成のモジュールであるので、
便宜上Master1モジュール(1008a)につい
てのみ説明する。Master1モジュール(1008
a)は、簡単化MOCフィルタパイプラインモジュール
(1009a)に20分割された画像を送り、後に表示
の必要がある場合には、簡単化MOCフィルタの処理結
果画像Vij(k,t),nを受け取るが、通常は一次
元部分投影分布量Sx,k,n、Sy,k,nを受け取
る。ここで添字nは各分割画像に対し各部分量が得られ
るということを反映した、各分割画像に対応する添字を
示す。上記一次元部分投影分布量はMaster1モジ
ュール(1008a)の制御により、リンクを介してB
UFF2モジュール1010に集計されて一次元投影分
布量Sx,k、Sy,kが求められる。この同じリンク
を介して2分割された画像データIij(t)もBUF
F2モジュール1010に送られて、新奇性フィルタニ
ューラルネットワークモジュール1012での処理に用
いられる。また、全てのリンクは双方向性の通信路であ
るためにグラフィックコマンドの転送路、BUFF2モ
ジュール1010、局所極大値検出ニューラルネットワ
ークモジュール1011、あるいは新奇性フィルタニュ
ーラルネットワークモジュール1012の出力画像の転
送路としても使用される。簡単化MOCフィルタパイプ
ラインモジュール(簡単化MOCフィルタモジュール(
1009a)、簡単化MOCフィルタモジュール(10
09b))もMaster1モジュール(1008a)
、Master2モジュール(1008b)と同様に、
同一構成のモジュールであり、それぞれ20台のT80
0トランスヒ゜ュータからなる。各T800トランスヒ
゜ュータでは全く同じスレーブモジュール1009cが
その上で走る。各スレーブモジュール1009cは各々
最初のマスタモジュール(Master1モジュール(
1008a)、Master2モジュール(1008b
))に直接接続されているモジュール、及び最後尾のモ
ジュールを除いては、互いに両隣のモジュールに接続さ
れている。
Master1 module (1008a)
, the Master2 module (1008b) applies each pipeline (1009) of the MOC filter 104 to simplify the image.
The image is divided into as many small block images as the number of T800 transducers in (a, 1009b). In Figure 10, each pipeline actually consists of 20 T800 units.
It consists of a transformer. Master
Since the Master 1 module (1008a) and Master 2 module (1008b) have the same configuration,
For convenience, only the Master1 module (1008a) will be described. Master1 module (1008
In a), the 20-divided image is sent to the simplified MOC filter pipeline module (1009a), and if it is necessary to display it later, the simplified MOC filter processing result image Vij (k, t),n is sent to the simplified MOC filter pipeline module (1009a). Usually, one-dimensional partial projection distribution amounts Sx,k,n and Sy,k,n are received. Here, the subscript n indicates a subscript corresponding to each divided image, reflecting the fact that each partial amount is obtained for each divided image. The one-dimensional partial projection distribution amount is transmitted to B via a link under the control of the Master 1 module (1008a).
The data are aggregated in the UFF2 module 1010 to obtain one-dimensional projection distribution amounts Sx,k and Sy,k. Image data Iij(t) divided into two via this same link is also BUF
It is sent to the F2 module 1010 and used for processing in the novelty filter neural network module 1012. In addition, since all links are bidirectional communication paths, they can be used as transfer paths for graphic commands, output images of the BUFF2 module 1010, the local maximum value detection neural network module 1011, or the novelty filter neural network module 1012. is also used. Simplified MOC filter pipeline module (Simplified MOC filter module (
1009a), simplified MOC filter module (10
09b)) also Master1 module (1008a)
, similar to the Master2 module (1008b),
Modules with the same configuration, each with 20 T80
Consists of 0 transducers. Each T800 transducer has an identical slave module 1009c running on it. Each slave module 1009c is the first master module (Master1 module).
1008a), Master2 module (1008b
)) and the last module are connected to modules on both sides of each other.

【0035】各スレーブモジュール1009cは、数多
くの並行プロセスから構成されるが、特に入力される画
像と処理結果Vij(k,t),nをバッファリングす
るためのリング状の入出力バッファを持つことにより効
率的なバッファリングを行なっている。スレーブモジュ
ール1009cは、入力リングバッファから取り出した
画像Uij(k,t)nに対して逐次、簡単化MOCフ
ィルタ104処理、時空間規格化フィルタ105処理を
行なうことによりVij(k,t),nを計算する。さ
らにVij(k,t),nに対して、特徴抽出1フィル
タ106処理を行なうことによりSx,k,n、Sy,
k,nを計算する。 各スレーブモジュール1009cは、出力結果データを
隣あうモジュールのリンクに出力することにより自動的
にこれらの処理結果がマスタモジュール(Master
1モジュール(1008a)、Master2モジュー
ル(1008b))まで転送されるように設計されてい
る。BUFF2モジュール1010は、Master1
モジュール1009a、及びMaster2モジュール
1009bを介して、全ての一次元部分投影分布量Sx
,k,n、Sy,k,nを受け取ることにより一次元投
影分布量Sx,k、Sy,kを計算する。また、Mas
ter1モジュール1009a、及びMaster2モ
ジュール1009bから送られる、半分に分割された画
像を統合することで原画像Iijを得る。
Each slave module 1009c is composed of many parallel processes, and in particular has a ring-shaped input/output buffer for buffering input images and processing results Vij(k,t),n. This provides more efficient buffering. The slave module 1009c sequentially performs the simplified MOC filter 104 processing and the spatio-temporal normalization filter 105 processing on the image Uij(k,t)n extracted from the input ring buffer, thereby obtaining Vij(k,t),n. Calculate. Furthermore, by performing feature extraction 1 filter 106 processing on Vij (k, t), n, Sx, k, n, Sy,
Calculate k and n. Each slave module 1009c automatically transfers these processing results to the master module by outputting the output result data to the link of the adjacent module.
1 module (1008a), Master 2 module (1008b)). BUFF2 module 1010 is Master1
Through the module 1009a and the Master2 module 1009b, all one-dimensional partial projection distribution amounts Sx
, k, n, Sy, k, n, one-dimensional projection distribution amounts Sx, k, Sy, k are calculated. Also, Mas
The original image Iij is obtained by integrating the half-divided images sent from the ter1 module 1009a and the Master2 module 1009b.

【0036】BUFF2モジュール1010は、局所極
大値検出ニューラルネットワークモジュール1011に
対して投影分布量Sx,k、Sy,kを送る。局所極大
値検出ニューラルネットワークモジュール1011に於
いて、投影分布方向(X、Y)ごとに、各移動方向に対
応する局所極大値検出ニューラルネットワーク107か
らの8つの出力を比較し、最大値を検出することにより
移動物体の中心情報(移動方向、中心座標)が求められ
る。BUFF2モジュール1010は、新奇性フィルタ
ニューラルネットワークモジュール1012に対して原
画像Iijを送る。新奇性フィルタニューラルネットワ
ークモジュール1012に於いて、原画像Iijから移
動物体を包含する箱(ウィンドウ)領域が求められる。 さらに、この箱(ウィンドウ)領域内で特徴抽出2フィ
ルタ108により求められた、形状に関する特徴量は新
奇性フィルタ109に入力される。BUFF2モジュー
ル1010は新奇性フィルタ109の出力をデコード解
釈することによりセンサ駆動回路110を駆動する。実
際の実装では、局所極大値検出ニューラルネットワーク
モジュール1011は、16台のT800トランスヒ゜
ュータから構成されている。 局所極大値検出ニューラルネットワークモジュール10
11は16個の局所極大値検出ニューラルネットワーク
107から構成されている。新奇性フィルタモジュール
1012は1台のT800トランスヒ゜ュータから構成
されている。
The BUFF2 module 1010 sends the projection distribution amounts Sx,k and Sy,k to the local maximum value detection neural network module 1011. In the local maximum value detection neural network module 1011, eight outputs from the local maximum value detection neural network 107 corresponding to each movement direction are compared for each projection distribution direction (X, Y), and the maximum value is detected. As a result, center information (moving direction, center coordinates) of the moving object can be obtained. The BUFF2 module 1010 sends the original image Iij to the novelty filter neural network module 1012. In the novelty filter neural network module 1012, a box (window) region containing the moving object is determined from the original image Iij. Further, the feature amount related to the shape obtained by the feature extraction 2 filter 108 within this box (window) area is input to the novelty filter 109. The BUFF2 module 1010 drives the sensor drive circuit 110 by decoding and interpreting the output of the novelty filter 109. In the actual implementation, the local maximum detection neural network module 1011 consists of 16 T800 transducers. Local maximum value detection neural network module 10
11 is composed of 16 local maximum value detection neural networks 107. Novelty filter module 1012 consists of one T800 transformer.

【0037】[0037]

【発明の効果】局所極大値検出ニューラルネットワーク
を用いることにより、移動物体の中心の移動方向を容易
に検出できるという効果、新奇性フィルタニューラルネ
ットワークを用いることにより他の静止、移動物体が追
跡されるべき移動物体に与える、衝突、隠蔽などの短期
的影響を排除することにより追跡能力が向上するという
効果がある。
[Effects of the invention] By using the local maximum value detection neural network, the moving direction of the center of a moving object can be easily detected, and by using the novelty filter neural network, other stationary and moving objects can be tracked. This has the effect of improving tracking ability by eliminating short-term effects such as collisions and concealment on moving objects.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】図1は本発明による移動物体の検出追跡システ
ムのブロック図である。
FIG. 1 is a block diagram of a moving object detection and tracking system according to the present invention.

【図2】図2は移動物体の速度成分が生成される様子を
説明するためのブロック図である。
FIG. 2 is a block diagram for explaining how a velocity component of a moving object is generated.

【図3】図3は移動物体の速度成分が生成される様子を
説明するためのブロック図である。
FIG. 3 is a block diagram for explaining how a velocity component of a moving object is generated.

【図4】図4は移動物体の速度成分が生成される様子を
説明するためのブロック図である。
FIG. 4 is a block diagram for explaining how a velocity component of a moving object is generated.

【図5】図5は、入力の局所極大値を検出する3層構造
のニューラルネットワークの構成を示した図である。
FIG. 5 is a diagram showing the configuration of a three-layer neural network that detects local maximum values of input.

【図6】図6は移動物体を速度情報によって分離する過
程を示した模式図である。
FIG. 6 is a schematic diagram showing a process of separating moving objects based on velocity information.

【図7】図7は新奇性フィルタとして動作する1層構造
のニューラルネットワークの構成を示した図である。
FIG. 7 is a diagram showing the configuration of a one-layer neural network that operates as a novelty filter.

【図8】図8は追跡移動物体と他の移動物体の衝突の様
子を示した図である。
FIG. 8 is a diagram showing a collision between a tracked moving object and another moving object.

【図9】図9は本発明に基づいて実際に実装されたシス
テムのブロック図を示す。
FIG. 9 shows a block diagram of a system actually implemented according to the invention.

【図10】図10は図9をより詳細に説明するための図
である。
FIG. 10 is a diagram for explaining FIG. 9 in more detail.

【符号の説明】[Explanation of symbols]

101…センサ 102…動き検出サブシステム(IPLS,Inter
estingPoint Locator Subsy
stem) 103…動き追跡サブシステムモジュール(MTS,M
otion Tracking Subsystem) 104…簡単化MOC(Motion Oriente
d Contrast)フィルタ105…時空間規格化
フィルタ 106…特徴抽出1フィルタ 107…局所極大値検出ニューラルネットワーク群(C
DNN,Centroid Detection Ne
ural Netwwork)108…特徴抽出2フィ
ルタ 109…新奇性フィルタニューラルネットワーク110
…センサ駆動回路 601…移動物体1(矩形) 602…移動物体2(円形) 603…移動物体1を包含する箱(ウィンドウ)604
…移動物体2を包含する箱(ウィンドウ)605…静止
物体 801…追跡移動物体 802…他の静止、または移動物体 901…CCDカメラ 902…画像取り込みボード 903…Meiko社製M10筐体 904…Meiko社製M10筐体(画像取り込みボー
ド、画像表示ボードを内蔵)とSun4/ 370(64台のトランスヒ゜ュータを内蔵)を結合す
るトランスヒ゜ュータバス 905…Sun4/370(64台のトランスヒ゜ュー
タ)906…画像表示用のモニタスクリーン907…画
像表示ボード 908…Sun4/370のモニタスクリーン(X−W
indow)909…Macintoshのモニタスク
リーン(X−Window)910…イーサーネット 911…2台の模型列車 1001…Unixファイルシステム 1002…トランスヒ゜ュータネットワークホスト(C
S_HOST)モジュール 1003…TTY(端末画面)モジュール1004…G
FX(グラフィック)モジュール1005…FG(画像
取り込み)モジュール1006…BUFFモジュール 1007…FD(画像表示)モジュール1008a…M
aster1モジュール1008b…Master2モ
ジュール1009a…簡単化MOCフィルタパイプライ
ン11009b…簡単化MOCフィルタパイプライン2
1009c…簡単化MOCフィルタパイプラインを構成
するスレーブモジュール 1010…BUFF2モジュール 1011…局所極大値検出ニューラルネットワークモジ
ュール(CDNN,Centroid Detecti
on Neural Netwwork)1012…新
奇性フィルタニューラルネットワークモジュール
101...Sensor 102...Motion detection subsystem (IPLS, Inter
estingPoint Locator Subsy
stem) 103...Motion tracking subsystem module (MTS, M
104...Simplified MOC (Motion Tracking Subsystem) 104...Simplified MOC (Motion Tracking Subsystem)
d Contrast) filter 105...Spatio-temporal normalization filter 106...Feature extraction 1 filter 107...Local maximum value detection neural network group (C
DNN, Centroid Detection Ne
ural Network) 108... Feature extraction 2 filter 109... Novelty filter neural network 110
...Sensor drive circuit 601...Moving object 1 (rectangle) 602...Moving object 2 (circular) 603...Box (window) containing moving object 1 604
…Box (window) containing moving object 2 605…Stationary object 801…Tracking moving object 802…Other stationary or moving object 901…CCD camera 902…Image capture board 903…Meiko M10 housing 904…Meiko Corporation A transformer bus 905 that connects a Sun4/370 (built-in 64 transformers) with a M10 chassis (with built-in image capture board and image display board) made by Manufacturer Co., Ltd....Sun4/370 (64 transformers) 906...image display Monitor screen 907 for...Image display board 908...Monitor screen for Sun4/370 (X-W
indow) 909...Macintosh monitor screen (X-Window) 910...Ethernet 911...Two model trains 1001...Unix file system 1002...Transfer network host (C
S_HOST) module 1003...TTY (terminal screen) module 1004...G
FX (graphics) module 1005...FG (image capture) module 1006...BUFF module 1007...FD (image display) module 1008a...M
aster1 module 1008b...Master2 module 1009a...Simplified MOC filter pipeline 11009b...Simplified MOC filter pipeline 2
1009c...Slave module configuring the simplified MOC filter pipeline 1010...BUFF2 module 1011...Local maximum value detection neural network module (CDNN, Centroid Detection)
on Neural Network) 1012...Novelty Filter Neural Network Module

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】画像入力装置により取り込まれる連続する
画像フレームの画像上の各画素の輝度変化により求めら
れ、移動物体の境界点における各移動方向ごとの動き情
報(オプティカフロー)を求めるための第一の手段、動
き情報(オプティカルフロー)から物体に関する速度情
報を抽出するための第二の手段、第二の手段より得られ
る速度情報の投影分布をとるための第三の手段、第三の
手段により得られる投影分布量を入力として投影分布量
の局所極大値を出力するため、三層型のニューラルネッ
トワークにより構成される第四の手段を移動物体の検出
手段として有し、移動物体に関する形状情報を抽出する
ための第五の手段、形状情報を連想記憶するため、一層
型のニューラルネットワークにより構成される第六の手
段、特定の移動物体を視野の中心に捉えるための第七の
手段を移動物体の追跡手段として有することを特徴とす
る移動物体の検出追跡システム。
Claims: 1. A method for determining motion information (optical flow) for each moving direction at a boundary point of a moving object, which is determined by the luminance change of each pixel on an image of consecutive image frames captured by an image input device. one means, a second means for extracting velocity information regarding an object from motion information (optical flow), a third means for taking a projection distribution of velocity information obtained from the second means, a third means In order to output the local maximum value of the projected distribution amount by inputting the projected distribution amount obtained by The fifth means is to extract shape information, the sixth means consists of a single-layer neural network for associative memory of shape information, and the seventh means is to move a specific moving object to the center of the field of view. What is claimed is: 1. A moving object detection and tracking system, characterized by having the system as an object tracking means.
【請求項2】上記第一の手段により得られる動き情報(
オプティカルフロー)を時空間的に平均、規格化した後
、上記第三の手段に入力することを上記第二の手段とす
ることを特徴とする請求項1記載の移動物体の検出追跡
システム。
Claim 2: Motion information obtained by the first means (
2. The moving object detection and tracking system according to claim 1, wherein said second means inputs said optical flow to said third means after being averaged and normalized spatiotemporally.
【請求項3】上記第五の手段に於いて、上記第四の手段
により求められる中心情報を中心として移動物体を包含
する箱を設けることにより移動物体に関する画像情報を
切り出すことを特徴とする請求項1記載の移動物体の検
出追跡システム。
3. In the fifth means, image information regarding the moving object is cut out by providing a box containing the moving object centered on the center information obtained by the fourth means. 2. The moving object detection and tracking system according to item 1.
【請求項4】上記第七の手段に於いて、移動物体の中の
特定の物体を追跡するために画像入力装置を駆動するた
めの駆動装置を有することを特徴とする請求項1記載の
移動物体の検出追跡システム。
4. The movement according to claim 1, wherein the seventh means includes a driving device for driving an image input device to track a specific object among the moving objects. Object detection and tracking system.
JP3314304A 1990-11-28 1991-11-28 Detecting and tracking system for mobile objection Pending JPH04260979A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9025797.3 1990-11-28
GB909025797A GB9025797D0 (en) 1990-11-28 1990-11-28 Motion target tracking system

Publications (1)

Publication Number Publication Date
JPH04260979A true JPH04260979A (en) 1992-09-16

Family

ID=10686076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3314304A Pending JPH04260979A (en) 1990-11-28 1991-11-28 Detecting and tracking system for mobile objection

Country Status (2)

Country Link
JP (1) JPH04260979A (en)
GB (2) GB9025797D0 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008109347A (en) * 2006-10-25 2008-05-08 Konica Minolta Opto Inc Monitoring system
CN102541417A (en) * 2010-12-30 2012-07-04 株式会社理光 Multi-object tracking method and system in virtual touch screen system
JP2014535098A (en) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド Motion recognition apparatus and method using event-based vision sensor
JP2018013913A (en) * 2016-07-20 2018-01-25 沖電気工業株式会社 Behavior recognition device, behavior recognition method, learning method and program
CN109343363A (en) * 2018-10-30 2019-02-15 清华大学 Movement TT&C system based on optical oomputing

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638281A (en) * 1991-01-31 1997-06-10 Ail Systems, Inc. Target prediction and collision warning system
US5613039A (en) * 1991-01-31 1997-03-18 Ail Systems, Inc. Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network
US5289993A (en) * 1991-08-30 1994-03-01 Mcwilliams Joel K Method and apparatus for tracking an aimpoint with arbitrary subimages
US5390133A (en) * 1992-09-30 1995-02-14 Martin Marietta Corporation Image processor for target detection and tracking
DE19880174D2 (en) * 1997-02-21 2000-01-05 Rolf Eckmiller Active camera system capable of learning
CN103903278A (en) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 Moving target detection and tracking system
US9613273B2 (en) 2015-05-19 2017-04-04 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and method for object tracking

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2566218B1 (en) * 1984-06-15 1988-06-24 Sfim PROCESS FOR PROCESSING A VIDEO IMAGE FOR TRACKING A LUMINOUS OBJECT AND PROTECTING THIS TRACKING AGAINST INTERFERENCERS IN THE FORM OF OTHER LUMINOUS OBJECTS
US5008833A (en) * 1988-11-18 1991-04-16 California Institute Of Technology Parallel optoelectronic neural network processors
GB8925298D0 (en) * 1989-11-09 1990-08-08 Marconi Gec Ltd Object tracking
JP2728222B2 (en) * 1990-05-25 1998-03-18 キヤノン株式会社 Information recording / reproducing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008109347A (en) * 2006-10-25 2008-05-08 Konica Minolta Opto Inc Monitoring system
CN102541417A (en) * 2010-12-30 2012-07-04 株式会社理光 Multi-object tracking method and system in virtual touch screen system
JP2014535098A (en) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド Motion recognition apparatus and method using event-based vision sensor
US9389693B2 (en) 2011-10-14 2016-07-12 Samsung Electronics Co., Ltd. Apparatus and method for recognizing motion by using an event-based vision sensor
JP2018013913A (en) * 2016-07-20 2018-01-25 沖電気工業株式会社 Behavior recognition device, behavior recognition method, learning method and program
CN109343363A (en) * 2018-10-30 2019-02-15 清华大学 Movement TT&C system based on optical oomputing

Also Published As

Publication number Publication date
GB9025797D0 (en) 1991-01-09
GB9125376D0 (en) 1992-01-29
GB2253109A (en) 1992-08-26

Similar Documents

Publication Publication Date Title
US20240028896A1 (en) Method and system for activity classification
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
US20190392587A1 (en) System for predicting articulated object feature location
CN105912980A (en) Unmanned plane and unmanned plane system
US10990170B2 (en) Eye tracking method, electronic device, and non-transitory computer readable storage medium
CN105825268A (en) Method and system for data processing for robot action expression learning
KR20170014491A (en) Method and device for recognizing motion
JPH04260979A (en) Detecting and tracking system for mobile objection
Darrell et al. A virtual mirror interface using real-time robust face tracking
CN109508636A (en) Vehicle attribute recognition methods, device, storage medium and electronic equipment
EP3286056A1 (en) System and method for a full lane change aid system with augmented reality technology
US20220351547A1 (en) Gesture analysis method and device, and computer-readable storage medium
US10861169B2 (en) Method, storage medium and electronic device for generating environment model
Abed et al. Python-based Raspberry Pi for hand gesture recognition
KR100769461B1 (en) Stereo vision system
CN115661336A (en) Three-dimensional reconstruction method and related device
Kyrkou C 3 Net: end-to-end deep learning for efficient real-time visual active camera control
Putro et al. An efficient face detector on a cpu using dual-camera sensors for intelligent surveillance systems
WO2022009944A1 (en) Video analysis device, wide-area monitoring system, and method for selecting camera
Tur et al. Isolated sign recognition with a siamese neural network of RGB and depth streams
US10735660B2 (en) Method and device for object identification
CN114663796A (en) Target person continuous tracking method, device and system
CN117916773A (en) Method and system for simultaneous pose reconstruction and parameterization of 3D mannequins in mobile devices
WO2023277877A1 (en) 3d semantic plane detection and reconstruction
KR102420924B1 (en) 3D gaze estimation method and apparatus using multi-stream CNNs