JPH03132467A - Moving object identifying device - Google Patents

Moving object identifying device

Info

Publication number
JPH03132467A
JPH03132467A JP27090689A JP27090689A JPH03132467A JP H03132467 A JPH03132467 A JP H03132467A JP 27090689 A JP27090689 A JP 27090689A JP 27090689 A JP27090689 A JP 27090689A JP H03132467 A JPH03132467 A JP H03132467A
Authority
JP
Japan
Prior art keywords
image
moving object
neural network
items
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27090689A
Other languages
Japanese (ja)
Inventor
Yuji Fujiwara
藤原 裕二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27090689A priority Critical patent/JPH03132467A/en
Publication of JPH03132467A publication Critical patent/JPH03132467A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To identify a moving object easily and certainly by detecting the image or sound of/from the object which is in transient through a specified place, analyzing a plurality of characteristic items, and selecting the classification items for the object. CONSTITUTION:When a moving object previously furnished with a plurality of classification items such as type, category, and identification number is going to pass a certain place, this point of passage is detected by a means 1, while another means 2 detects the image of the passing object or sound generated therefrom. Further, a means 3 analyzes a plurality of previously specified characteristic items on the basis of the detected image or sound. On the basis of the result therefrom a neural network means 4 specifies the classification items to which the moving object having passed the specified place belongs. A means 5 outputs the identification information on the specified classification items. Identification of the moving object is thereby performed easily and certainly.

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、各種交通システムにおいて、車両等の移動体
を識別する移動体識別装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Field of Industrial Application) The present invention relates to a mobile object identification device for identifying moving objects such as vehicles in various transportation systems.

(従来の技術) 鉄道などの交通システムにおいては、中央制御指令セン
ター等が各列車の運行を管理するために、所定個所を通
過する各車両に関して、運行番号その他の各種の情報を
確認しておく必要がある。
(Prior art) In transportation systems such as railways, in order for a central control center to manage the operation of each train, it checks the operation number and other various information for each vehicle passing through a predetermined location. There is a need.

この確認を行うだめの方策として、第1に、各車両毎に
発振器、共振器等の送信装置を取付けると共に、所定個
所に受信装置を設置しておくシステムがある。このシテ
ムによれば、送信装置からの送信信号のデータに基いて
、受信装置は車両の種別ばかりでなく、車両識別番号ま
で判別することができる。
As a method for carrying out this confirmation, firstly, there is a system in which a transmitting device such as an oscillator or a resonator is installed in each vehicle, and a receiving device is installed at a predetermined location. According to this system, the receiving device can determine not only the type of vehicle but also the vehicle identification number based on the data of the transmission signal from the transmitting device.

また、第2の方策として、特定の場所に重量センサを設
置し、通過列車の重量を測定することにより、この列車
の車種(例えば、特急列車か普通列車か等)のみを識別
するシステムがある。尤も、このシステムは列車の車種
のみの識別で充分な場合に限られることになる。
In addition, as a second measure, there is a system that identifies only the type of train (for example, whether it is a limited express train or a local train) by installing a weight sensor at a specific location and measuring the weight of the passing train. . However, this system is limited to cases where it is sufficient to identify only the type of train.

そして、第3の方策として、所定個所にカメラあるいは
マイクを設置しておき、カメラが捉えた車両識別番号、
あるいはマイクが捉えた音等を、一定のアルゴリズムに
基いて処理することにより必要な情報を得るようにした
システムかある。
As a third measure, a camera or microphone is installed at a predetermined location, and the vehicle identification number captured by the camera is
Alternatively, there is a system that obtains the necessary information by processing the sound etc. captured by a microphone based on a certain algorithm.

(発明が解決しようとする課題) しかしながら、第1の方策の場合には、各車両毎に送信
装置を取付けなければならないためコストが増大し、ま
た、送信受信に関する操作上の負担も増大する結果とな
る。特に、各企業系列の私鉄が乗入れている区間の管理
を行う場合、前記送信装置の取付けを自社車両に対して
行う分にはさして問題とならないが、この取付けを他社
車両に対しては強制しにくいという事情もある。
(Problem to be Solved by the Invention) However, in the case of the first method, the cost increases because a transmitting device must be installed in each vehicle, and the operational burden associated with transmitting and receiving increases. becomes. In particular, when managing sections that are operated by private railways affiliated with various companies, it is not a big problem if the transmitting device is installed on the company's own vehicles, but it is not necessary to force this installation on other companies' vehicles. There are also circumstances that make it difficult.

また、第2の方策の場合には、重量センサの設置スペー
スの確保等が必ずしも容易ではなく、さらに、各列車の
車種毎の重量が、識別可能な程度に充分に異なったもの
であるという条件が必要となる。
In addition, in the case of the second measure, it is not necessarily easy to secure installation space for the weight sensor, and there is also a condition that the weight of each car type of each train is sufficiently different to be distinguishable. Is required.

そして、第3の方策の場合には、カメラ、マイクの設置
場所における自然環境によって、識別精度が大きく変動
するという問題がある。例えば、昼間と夜間、あるいは
晴天と雨天とでは画像状態が大きく異なり、また、周囲
の騒音レベルによっては、これらの騒音と列車の通過音
とを明瞭に識別できない場合がある。
In the case of the third measure, there is a problem in that the identification accuracy varies greatly depending on the natural environment where the camera and microphone are installed. For example, image conditions differ greatly between daytime and nighttime, or between sunny and rainy weather, and depending on the ambient noise level, it may not be possible to clearly distinguish between these noises and the sound of a passing train.

本発明は上記事情に鑑みなされたものであり、車両に対
する送信装置の取付け、特定場所への重量センサの設置
などを必要とせず、しかも自然環境に左右されることな
く常に安定した識別精度が得られる移動体識別装置を提
供しようとするものである。
The present invention has been developed in view of the above circumstances, and does not require the installation of a transmitting device on a vehicle or the installation of a weight sensor in a specific location, and moreover provides stable identification accuracy regardless of the natural environment. The aim is to provide a mobile object identification device that can

〔発明の構成〕[Structure of the invention]

(課題を解決するための手段) 本発明は上記課題を解決するための手段として、型式1
種別1識別番号その他の分類項目が予め設定されている
移動体が所定個所を通過するときに、この移動体の画像
、またはこの移動体から発生される音声を検出する画像
・音声検出手段と、前記画像・音声検出手段により検出
された画像または音声に基いて、予め設定された複数の
特徴項目の解析を行う特徴項目解析手段と、前記特徴項
目解析手段の解析により得られた複数の解析信号に基い
て、前記所定個所を通過した移動体が属する前記分類項
目を特定するニューラルネットワーク手段と、前記ニュ
ーラルネットワーク手段により特定された前記分類項目
に関する情報を出力する識別情報出力手段とを備えた構
成としである。
(Means for Solving the Problems) The present invention provides, as a means for solving the above problems, type 1
an image/sound detection means for detecting an image of the moving object or a sound generated from the moving object when the moving object whose type 1 identification number and other classification items are preset passes a predetermined location; a feature item analysis unit that analyzes a plurality of preset feature items based on the image or audio detected by the image/audio detection unit; and a plurality of analysis signals obtained by analysis of the feature item analysis unit. A configuration comprising: a neural network means for specifying the classification item to which the moving object that has passed the predetermined location belongs based on the above; and an identification information output means for outputting information regarding the classification item specified by the neural network means. It's Toshide.

(作 用) 移動体が所定個所を通過するとき、画像・音用検出手段
はこの移動体の画像、またはこの移動体の通過に伴なっ
て発生される音声を検出する。
(Function) When a moving object passes a predetermined location, the image/sound detection means detects an image of the moving object or a sound generated as the moving object passes.

特徴項目解析手段は、この検出により得られた画像また
は音声に基き、予め設定されている複数の特徴項目につ
いての解析を行い、その解析信号をニューラルネットワ
ーク手段に出力する。
The feature item analysis means analyzes a plurality of preset feature items based on the image or sound obtained by this detection, and outputs the analysis signal to the neural network means.

ニューラルネットワーク手段は、この解析信号に基いて
、予め定められている複数の分類項目の中から、所定個
所を通過した移動体が属する可能性が最も高いと思われ
るものを選択し、これを移動体の分類項目として特定す
る。
Based on this analysis signal, the neural network means selects the classification item to which the moving object that has passed through the predetermined location is most likely to belong from among a plurality of predetermined classification items, and moves the selected classification item. Specify as a body classification item.

識別情報出力手段は、このように特定された分類項目に
関する情報の出力を行う。
The identification information output means outputs information regarding the classification item specified in this way.

(実施例) 以下、本発明の実施例を第1図乃至第6図に基き説明す
る。
(Example) Hereinafter, an example of the present invention will be described based on FIGS. 1 to 6.

第1図は本発明の概略構成を示すブロック図である。す
なわち、通過時点検知手段1は、移動体が所定地点を通
過した時点を検知し、検知信号を画像・音声検出手段2
に送出するようになっている。
FIG. 1 is a block diagram showing a schematic configuration of the present invention. That is, the passage time detection means 1 detects the time when the moving body passes a predetermined point, and sends a detection signal to the image/audio detection means 2.
It is designed to be sent to

画像・音声検出手段2は、この検知信号が入力されると
、移動体の画像または音声の検出を開始し、画像信号ま
たは音声信号を特徴項目解析手段3に出力する。
When this detection signal is input, the image/sound detection means 2 starts detecting the image or sound of the moving body, and outputs the image signal or the sound signal to the characteristic item analysis means 3.

特徴項目解析手段3は、この画像信号または音声信号に
ついて、予め定められている複数の特徴項目について解
析を行ない、その特徴量を示す解析信号をニューラルネ
ットワーク手段4に出力する。例えば画像信号の場合で
あれば映像の万石、各色の強さ等について、対象画像の
面積、コーナー数、各色成分の濃淡値等を求める。また
、音7N信号の場合であれば、音の高低等について平均
周波数等を求めるようになっている。
The feature item analysis means 3 analyzes a plurality of predetermined feature items for this image signal or audio signal, and outputs an analysis signal indicating the feature amount to the neural network means 4. For example, in the case of an image signal, the area of the target image, the number of corners, the shading value of each color component, etc. are determined with respect to the image quality, the intensity of each color, etc. Further, in the case of a sound 7N signal, the average frequency etc. of the pitch etc. of the sound are determined.

ニューラルネットワーク手段4は、これらの解析信号を
人力層に人力し、中間層を介して、通過時点検知手段1
が検知した移動体が属する、型式。
The neural network means 4 inputs these analytical signals to the human power layer, and passes them through the intermediate layer to the passing point detection means 1.
The model to which the moving object detected belongs.

社則、識別番号等の分類項目につき、いずれか−を推定
し、特定するようになっている。
For classification items such as company regulations and identification numbers, one of the two is estimated and specified.

そして、識別情報出力手段5は、この特定された分類項
目についての情報を、デイスプレィ等の表示機器あるい
はその他の周辺機器に出力する。
Then, the identification information output means 5 outputs information about the specified classification item to a display device such as a display or other peripheral devices.

なお、ニューラルネットワーク手段4は、いわゆるパッ
クプロパゲーション機能と呼ばれる学習機能を有するも
のである。そして、ニューラルネットワーク手段4が特
定した分類項目か、万一間違っていたことがわかった場
合には、学習用データ人力手段6から与えられるデータ
により、この間違った分類項目を出力するに至った推論
過程を是正できるようになっている。したがって、以後
は、ニューラルネットワーク手段4の入力層に同じよう
な解析信号が入力されても、正しい分類項目を特定する
ことができる。
Note that the neural network means 4 has a learning function called a so-called pack propagation function. If the classification item specified by the neural network means 4 is found to be incorrect, the data given from the training data human power means 6 is used to perform the inference that led to the output of this incorrect classification item. The process can now be corrected. Therefore, from now on, even if similar analysis signals are input to the input layer of the neural network means 4, the correct classification item can be specified.

制御部7は以上の各手段1〜6の全体の動作を制御する
ようになっている。
The control section 7 is designed to control the overall operation of each of the above-mentioned means 1 to 6.

第2図は、この第1図に示した概略構成をさらに詳しく
示したブロック図である。
FIG. 2 is a block diagram showing the schematic configuration shown in FIG. 1 in more detail.

この図において、通過時点検知手段1は、移動体の通過
を検知するセンサ1gと、このセンサlaからのセンサ
信号を制御用バス8を介して制御部7に送出するセンサ
入力部1bとから構成されている。このセンサ1aは、
超音波や光を利用するセンサ素子と、鉄道でよく用いら
れる軌道回路とで構成されている。
In this figure, the passage point detection means 1 is composed of a sensor 1g that detects the passage of a moving object, and a sensor input section 1b that sends a sensor signal from the sensor la to the control section 7 via the control bus 8. has been done. This sensor 1a is
It consists of a sensor element that uses ultrasonic waves and light, and a track circuit often used in railways.

画像・音声検出手段2は、移動体の撮影を行うカメラ2
a及びそのビデオ信号を入力するビデオ入力部2bと、
移動体の音声を検出するマイク2C及びその音声信号を
入力する音用入力部2dとから構成されている。このビ
デオ人力部2bは制御用バス8及び画像バス9に接続さ
れており、音声人力部2dは制御用バス8及び音声デー
タバス10に接続されている。
The image/audio detection means 2 includes a camera 2 that photographs a moving object.
a and a video input section 2b for inputting the video signal thereof;
It is composed of a microphone 2C that detects the voice of a moving body and a sound input section 2d that inputs the voice signal. The video human power section 2b is connected to the control bus 8 and the image bus 9, and the audio human power section 2d is connected to the control bus 8 and the audio data bus 10.

特徴項目解)h手段3は、制御用バス8及び画像バス9
に接続された画像メモリ3a及び画像処理部3bと、制
御用バス8及び音声データバス10に接続された音声メ
モリ3c及び音声処理部3dとから構成されている。そ
して、画像メモリ3aは二つのエリア3al”a2を有
しており、音声メモリ3cも二つのエリア3cl”c2
を有している。
Feature item solution) The h means 3 is a control bus 8 and an image bus 9.
It is comprised of an image memory 3a and an image processing section 3b connected to the control bus 8 and an audio data bus 10, and an audio memory 3c and an audio processing section 3d connected to the control bus 8 and the audio data bus 10. The image memory 3a has two areas 3al''a2, and the audio memory 3c also has two areas 3cl''c2.
have.

ニューラルネットワーク手段4は、制御用バス8に接続
されたニューラルネットワーク手段4aを有している。
The neural network means 4 has a neural network means 4 a connected to the control bus 8 .

識別情報出力手段5は、制御用バス8に接続された出力
インタフェース5aを有しており、この出力インタフェ
ース5aは、CRT等の表示機器を有する周辺システム
11に接続されている。
The identification information output means 5 has an output interface 5a connected to the control bus 8, and this output interface 5a is connected to a peripheral system 11 having a display device such as a CRT.

学習用データ入力手段6は、制御用バス8に接続された
入出力インタフェース6aと、このインタフェース6a
に接続された入出力装置6bとから構成されている。
The learning data input means 6 includes an input/output interface 6a connected to the control bus 8, and an input/output interface 6a connected to the control bus 8.
The input/output device 6b is connected to the input/output device 6b.

制御部7は、制御用バス8に接続された演算制御部7a
を有している。
The control unit 7 includes an arithmetic control unit 7a connected to a control bus 8.
have.

次に、このように構成される本実施例の動作について説
明する。いま、第3図に示すように、n両の車両E1.
E2.・・・、Enからなる電車を移動体として考え、
先頭車両E1の通過がセンサ1aにより検知されたとす
る。すると、このセンサ信号はセンサ入力部1b、コネ
クタボックス12を介して制御部7に送られる。
Next, the operation of this embodiment configured as described above will be explained. Now, as shown in FIG. 3, n vehicles E1.
E2. ..., consider a train consisting of En as a moving object,
Assume that the passage of the leading vehicle E1 is detected by the sensor 1a. Then, this sensor signal is sent to the control section 7 via the sensor input section 1b and the connector box 12.

制御部7は、このセンサ信号を受は取ると直ちに動作指
令信号をカメラ2aに送り、カメラ2aに2両目の車両
E2を撮影させるようにする。
Immediately upon receiving this sensor signal, the control section 7 sends an operation command signal to the camera 2a to cause the camera 2a to photograph the second vehicle E2.

カメラ2aからのビデオ信号はビデオ入力部2bにより
画像信号に変換され、第4図(a)に示すような画像が
画像メモリ3aのエリア3,1に記憶される。この記憶
された画像は画像処理部3bによって、予め定められて
いる特徴項目が解析される。この特徴項目としては、例
えば、色の各成分(赤、緑、青)の濃度、2値化したと
きの被写体の面積やコーナーの数がある。
The video signal from the camera 2a is converted into an image signal by the video input section 2b, and an image as shown in FIG. 4(a) is stored in areas 3 and 1 of the image memory 3a. This stored image is analyzed for predetermined characteristic items by the image processing section 3b. These characteristic items include, for example, the density of each color component (red, green, blue), the area of the object when it is binarized, and the number of corners.

第4図(a)の電車の場合には、赤成分の数が強くなっ
ている。第4図(b)は第4図(a)の画像を2値化処
理したものであるが、これによれば被写体の面積は大き
く、コーナーの数は比較的少くなっている。この第4図
(b)の画像は画像メモリ3aのエリア3a2に記憶さ
れる。
In the case of the train in FIG. 4(a), the number of red components is strong. FIG. 4(b) is a binarized image of FIG. 4(a), which shows that the area of the subject is large and the number of corners is relatively small. The image shown in FIG. 4(b) is stored in area 3a2 of image memory 3a.

また、第5図(a)は貨物列車が通過する場合を示す画
像であるが、この場合は全成分の数が強くなっている。
Further, FIG. 5(a) is an image showing a case where a freight train passes, and in this case, the number of all components is strong.

そして、第5図(a)の画像を2値化した第5図(b)
の画像によれば、被写体の面積は小さく、コーナーの数
は比較的多いことがわかる。
FIG. 5(b) is a binarized image of FIG. 5(a).
According to the image, the area of the subject is small and the number of corners is relatively large.

次いで、画像メモリ3aのエリア3at”a2に記憶さ
れた第4図(a)、(b)の画像データはニューラルネ
ットワーク手段4のニューラルネットワーク演算部4a
に送出され、所定の特徴量に基いて、通過電車が属する
と考えられるいずれか−の分類項目が特定される。
Next, the image data of FIGS. 4(a) and 4(b) stored in the area 3at''a2 of the image memory 3a is processed by the neural network calculation section 4a of the neural network means 4.
The classification item to which the passing train is thought to belong is specified based on a predetermined feature amount.

つまり、第6図に示すように、まず、画像メモリ3aの
エリア3al” a2から所定の特徴項目についての特
徴量が、ニューラルネットワーク演算部4a内の入力層
の各点P1.P2.・・・、Pxに入力される。
That is, as shown in FIG. 6, first, the feature amount for a predetermined feature item is extracted from the area 3al''a2 of the image memory 3a at each point P1, P2, . . . in the input layer in the neural network calculation unit 4a. , Px.

そして、各点Pt 、 P2 、・・・、Pnからは中
間層の各点Q、、Q2.・・・、Q、の各点に向けて所
定の割合のレベルで信号が出力される。例えば点P1に
入力された信号のレベルが1であるとすると、点P か
ら出力される信号U1□、U1゜、・・・Ul、の信号
のレベルはそれぞれ0. 2. 0. 3゜・・・、0
.05などのようになる(但し、U11+U ・・・+
U −1)。同様に、点P2に入力され12     
+y た信号のレベルが3であるとすれば、点P2から1 2 出力される信号U2□、U2゜、・・・、U2.の信号
のレベルはそれぞれ0.45. 0. 2.・・・、 
0. 08などのようになる(但し、U2□+U22・
・・+U2.−3)。
Then, from each point Pt, P2, . . . , Pn, each point Q, , Q2 . . . , Q, a signal is outputted at a predetermined level to each point. For example, if the level of the signal input to point P1 is 1, the levels of the signals U1□, U1°, . . . Ul, output from point P are 0. 2. 0. 3゜...,0
.. 05 etc. (However, U11+U...+
U-1). Similarly, 12 is input to point P2.
If the level of the +y signal is 3, the signals U2□, U2°, . . . , U2 . The signal level of each is 0.45. 0. 2. ...,
0. 08 etc. (However, U2□+U22・
...+U2. -3).

中間層の各点Q1.Q2.・・・、Q、は、このように
入力層の各点P1.P2.・・・、Pxから送られてき
た信号の総和量に基いて、今度は出力層の各点R,,R
2,・・・、R7に向けて所定の割合のレベルで信号を
出力する。
Each point Q1 of the middle layer. Q2. . . , Q, in this way correspond to each point P1 . P2. ..., based on the total amount of signals sent from Px, each point R,,R of the output layer
2, . . . outputs a signal at a predetermined level to R7.

そして、出力層の各点Rt 、 R2、・・・、R7に
おける各信号レベルが求められ、各点R,,R2゜・・
・、Rのうち点R2のレベルが最も高いものであったと
する。すると、これによってニューラルネットワーク演
算部4aは、センサ1aが通過を検出した電車Ei 、
  R2、・・・、Eoは急行列車であると特定する。
Then, each signal level at each point Rt, R2,..., R7 of the output layer is determined, and each signal level at each point R,, R2°...
. , R, point R2 has the highest level. Then, the neural network calculation unit 4a calculates the train Ei whose passing was detected by the sensor 1a,
It is specified that R2, . . . , Eo are express trains.

このような、所定個所を通過した電車E1゜E 2 、
・・・、Enが急行列車であるという情報は、識別情報
出力手段5の出力インタフェース5aを介して、周辺シ
ステム11の表示機器等に表示されることになる。
The train E1゜E2 that passed through such a predetermined place,
..., the information that En is an express train is displayed on the display device of the peripheral system 11 via the output interface 5a of the identification information output means 5.

ところで、ニューラルネットワーク演算部4aにおける
特定は非常に正確なものであるが、この特定が誤ってい
る場合が全黙考えられないわけではない。このような場
合、オペレータは、特定の誤りに気が付いた段階で、学
習用データ入力手段6の入出力装置6bを操作し、入出
力インタフェース6aを介して、学習用データをニュー
ラルネットワーク演算部4aに入力させる。これによっ
て、ニューラルネットワーク演算部4aにおけるパック
プロパゲーション機能が発揮され、その人力層から出力
層に至る間の推論過程が是正され、以後は、同様の環境
、条件であっても正しい特定が行なわれるようになる。
By the way, although the specification in the neural network calculation unit 4a is very accurate, it is not impossible to think of a case where this specification is incorrect. In such a case, when the operator notices a specific error, the operator operates the input/output device 6b of the learning data input means 6 and sends the learning data to the neural network calculation section 4a via the input/output interface 6a. Let them input. As a result, the pack propagation function in the neural network calculation unit 4a is activated, the inference process from the human power layer to the output layer is corrected, and henceforth, correct identification is performed even under similar environments and conditions. It becomes like this.

以上説明したような電車E、、E、、、・・・、E。Trains E,,E,,...,E as explained above.

の識別方法では、発振器、共振器のような送信装置を車
両に取付ける必要はなく、また、重量センサを設置する
際のスペース上の問題も生じることがない。そして、解
析された所定の特徴項目に基いて、ニューラルネットワ
ークが電車Et 、  R2。
With the above identification method, it is not necessary to attach a transmitting device such as an oscillator or a resonator to the vehicle, and there is no problem in terms of space when installing a weight sensor. Then, based on the analyzed predetermined feature items, the neural network calculates the trains Et and R2.

・・・、E の種別を特定しているので、時刻、気象n 等の自然環境条件によって、この特定についての精度が
左右されることはない。
Since the type of .

また、対象となる車両の種別毎に個有のアルゴリズムを
持つ必要がないため、新たな対象車種の追加、変更等も
、ニューラルネットワークの学習機能を用いて簡単に行
うことができる。
Furthermore, since there is no need to have a unique algorithm for each type of target vehicle, adding or changing new target vehicle types can be easily done using the learning function of the neural network.

なお、本発明は次の実施態様をも包含するものである。Note that the present invention also includes the following embodiments.

(イ) 第2図の構成における画像・音声検出手段2は
、画像と音声の双方を検出できるようになっているが、
画像または音声のいずれか一方のみ検出するものでもよ
い。
(b) The image/sound detection means 2 in the configuration shown in FIG. 2 is capable of detecting both images and sounds;
It may be possible to detect only either images or sounds.

(ロ) 第2図では、制御用パス81画像バス9゜音声
データバス10を共用して、各手段相互の接続を行なっ
ているが、シリアルインタフェース等を用いた1対1の
構成により、必要な個所のみを接続するようにしてもよ
い。
(b) In Fig. 2, the control path 81, image bus 9, and audio data bus 10 are shared to connect each means, but a one-to-one configuration using a serial interface etc. It may also be possible to connect only certain points.

(ハ) 第2図では、演算制御部7aとニューラルネッ
トワーク演算部4aとが互いに独立して制御用バス8に
接続されているが、演算制御部7aの内部にニューラル
ネットワーク演算部4aを設ける構成としてもよく、ま
た、両者をバックエンドに接続する構成としてもよい。
(C) In FIG. 2, the arithmetic control section 7a and the neural network arithmetic section 4a are connected to the control bus 8 independently from each other, but the configuration is such that the neural network arithmetic section 4a is provided inside the arithmetic control section 7a. Alternatively, both may be connected to the back end.

(ニ) 第2図における画像バス9.音声データバス1
0に人出力インタフェースを介して画像モニタ機器、音
声モニタ機器を接続し、画像メモリ3a内のエリア3a
l’  3a2及び音声メモリ3C内のエリア3゜1,
3o2に記憶される画像、音声をモニタすることもでき
る。
(d) Image bus 9 in Figure 2. Audio data bus 1
0 through the human output interface, and connect the image monitor device and the audio monitor device to the area 3a in the image memory 3a.
l' 3a2 and area 3゜1 in audio memory 3C,
It is also possible to monitor images and sounds stored in 3o2.

(ホ) 上記実施例では、移動体として電車を想定し、
鉄道での踏切制御や運行制御に用いる場合を説明したが
、その他高速道路の料金所等で自動車の種別を識別する
場合にも有効である。
(E) In the above example, a train is assumed as a moving object,
Although we have described the case where this method is used for railroad crossing control and operation control, it is also effective for identifying the type of vehicle at expressway toll gates, etc.

あるいは、さらに、陸上の乗物に限らず、飛行機、船な
ど空、海での乗物についても本発明の適用を期待するこ
とができる。
Furthermore, the present invention can be expected to be applied not only to land vehicles but also to air and sea vehicles such as airplanes and ships.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明によれば、所定個所を通過する移動
体の画像または音声を検出し、予め設定 5 6 した複数の特徴項目の解析に基いてニューラルネットワ
ーク手段が移動体の分類項目を特定し、この特定した分
類項目の情報を出力する構成としたので、移動体に対す
る送信装置等の取付け、あるいは特定場所への重量セン
サの設置などを必要とせず、しかも自然環境に左右され
ずに常に安定した精度で移動体を識別することが可能と
なる。
As described above, according to the present invention, the neural network means detects the image or sound of a moving object passing a predetermined location, and identifies the classification item of the moving object based on the analysis of a plurality of preset feature items. However, since the configuration is configured to output information on the identified classification items, there is no need to attach a transmitting device to the moving object or install a weight sensor in a specific location, and moreover, it can be used at any time regardless of the natural environment. It becomes possible to identify moving objects with stable accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例の概略構成を示すブロック図、
第2図は第1図における各手段の接続例を示す概略図、
第3図乃至第6図は本発明の実施例の動作説明図である
。 2・・・画像・音声検出手段、3・・・特徴項目解析手
段、4・・・ニューラルネットワーク手段、5・・・識
別情報出力手段。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention;
FIG. 2 is a schematic diagram showing an example of connection of each means in FIG. 1;
3 to 6 are explanatory diagrams of the operation of the embodiment of the present invention. 2... Image/audio detection means, 3... Feature item analysis means, 4... Neural network means, 5... Identification information output means.

Claims (1)

【特許請求の範囲】  型式、種別、識別番号その他の分類項目が予め設定さ
れている移動体が所定個所を通過するときに、この移動
体の画像、またはこの移動体から発生される音声を検出
する画像・音声検出手段と、前記画像・音声検出手段に
より検出された画像または音声に基いて、予め設定され
た複数の特徴項目の解析を行う特徴項目解析手段と、 前記特徴項目解析手段の解析により得られた複数の解析
信号に基いて、前記所定個所を通過した移動体が属する
前記分類項目を特定するニューラルネットワーク手段と
、 前記ニューラルネットワーク手段により特定された前記
分類項目に関する情報を出力する識別情報出力手段と、 を備えた移動体識別装置。
[Claims] When a moving object whose model, type, identification number, and other classification items are set in advance passes through a predetermined location, an image of the moving object or sound generated by the moving object is detected. an image/audio detection means for analyzing a plurality of preset feature items based on the image or audio detected by the image/audio detection means; and an analysis of the feature item analysis means. neural network means for identifying the classification item to which the moving object that has passed the predetermined location belongs, based on a plurality of analytical signals obtained by the method; and an identification device for outputting information regarding the classification item specified by the neural network means. A mobile object identification device comprising: an information output means;
JP27090689A 1989-10-18 1989-10-18 Moving object identifying device Pending JPH03132467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27090689A JPH03132467A (en) 1989-10-18 1989-10-18 Moving object identifying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27090689A JPH03132467A (en) 1989-10-18 1989-10-18 Moving object identifying device

Publications (1)

Publication Number Publication Date
JPH03132467A true JPH03132467A (en) 1991-06-05

Family

ID=17492635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27090689A Pending JPH03132467A (en) 1989-10-18 1989-10-18 Moving object identifying device

Country Status (1)

Country Link
JP (1) JPH03132467A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5966178A (en) * 1997-06-05 1999-10-12 Fujitsu Limited Image processing apparatus with interframe interpolation capabilities
KR20200033818A (en) * 2020-03-18 2020-03-30 박창식 System for monitoring train traffic information based on sound

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209582A (en) * 1988-02-17 1989-08-23 Iizeru:Kk Picture recognizing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209582A (en) * 1988-02-17 1989-08-23 Iizeru:Kk Picture recognizing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5966178A (en) * 1997-06-05 1999-10-12 Fujitsu Limited Image processing apparatus with interframe interpolation capabilities
KR20200033818A (en) * 2020-03-18 2020-03-30 박창식 System for monitoring train traffic information based on sound

Similar Documents

Publication Publication Date Title
AU766052B2 (en) Method and apparatus for using machine vision to detect relative locomotive position on parallel tracks
US5467402A (en) Distributed image recognizing system and traffic flow instrumentation system and crime/disaster preventing system using such image recognizing system
US8150105B2 (en) Inspection using three-dimensional profile information
US6404455B1 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
CN108091141B (en) License plate recognition system
US20220270376A1 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
CN107004347A (en) Drive decision maker and detection means
Sun et al. Vehicle reidentification using multidetector fusion
US11887453B2 (en) Luminaire network with sensors
JP2000244897A (en) State recognition system and state recognition display generation method
CN101015200A (en) Camera and camera device
JP2000163685A (en) Traffic flow monitoring system
JP2018155753A (en) Vehicle-mounted exhaust gas analyzer, exhaust gas analysis system, information processing device, program for exhaust gas analysis system, and exhaust gas analysis method
CN108369781A (en) The method for the dangerous situation that at least one sensor for evaluating by vehicle detects, the method for the method of the presentation for controlling warning against danger and for rendering warning against danger
EP0955557A3 (en) Method and system for detecting/classifying objects
WO2008097015A1 (en) A perceive system of harmful-gas emitting vehicles and method thereby
JP3361399B2 (en) Obstacle detection method and device
WO2022139027A1 (en) Device, method, and system for determining speeding of ship on basis of artificial intelligence
JPH03132467A (en) Moving object identifying device
Sachenko et al. Development of the flexible traffic control system using the LabView and ThingSpeak
US20230177959A1 (en) Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and learned model creation system
JPWO2020003764A1 (en) Image processors, mobile devices, and methods, and programs
JP2002162343A (en) Judgement method of road surface condition by visual picture type road surface condition finding equipment
JP7424394B2 (en) Vehicle monitoring system, vehicle monitoring method, and vehicle monitoring device
JPH1123250A (en) Instrument for measuring length of object, object-monitoring device, instrument for measuring length of vehicle, and vehicle-monitoring device