JP2007280407A - Traffic terminal device and accident detection system - Google Patents

Traffic terminal device and accident detection system Download PDF

Info

Publication number
JP2007280407A
JP2007280407A JP2007120937A JP2007120937A JP2007280407A JP 2007280407 A JP2007280407 A JP 2007280407A JP 2007120937 A JP2007120937 A JP 2007120937A JP 2007120937 A JP2007120937 A JP 2007120937A JP 2007280407 A JP2007280407 A JP 2007280407A
Authority
JP
Japan
Prior art keywords
sound
accident
data
terminal device
control center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007120937A
Other languages
Japanese (ja)
Inventor
Masahiro Totani
昌弘 戸谷
Masanori Aoki
正憲 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2007120937A priority Critical patent/JP2007280407A/en
Publication of JP2007280407A publication Critical patent/JP2007280407A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traffic terminal device and an accident detection system having high detection accuracy. <P>SOLUTION: The accident detection system is constructed of: terminal devices 100a and 100b installed in a plurality of places; and a control center managing the terminal devices 100a and 100b. When a shock sound is inputted via microphones 106a and 106b in the terminal devices 100a and 100b, an accident determination parts 120a and 120b with a learning function determine whether the shock sound is caused by an accident. The shock sound is sent to an accident determination part 41 with a learning function in the control center. The accident determination part 41 with a learning function on the control center side has a neural network, and carries out learning based on the sent sound data. The learning result is sent to the accident determination parts 120a and 120b with a learning function in the terminal devices 100a and 100b. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は交通端末装置および事故検出システムに関し、特に道路の付近で発生した音声を入力し、その音声が事故により生じた音声であるか否かを判定することで事故を検出する交通端末装置および事故検出システムに関する。   The present invention relates to a traffic terminal device and an accident detection system, and more particularly to a traffic terminal device that detects an accident by inputting voice generated near a road and determining whether the voice is generated by an accident. It relates to an accident detection system.

従来より交通事故発生の直前および直後に関するデータを効率よく収集し、そのデータによって事故の発生メカニズムを解明するための交通事故自動記録装置が知られている。このような装置に関する技術として、以下の文献が知られている。   2. Description of the Related Art Conventionally, a traffic accident automatic recording device is known for efficiently collecting data immediately before and after the occurrence of a traffic accident, and elucidating the occurrence mechanism of the accident based on the data. The following documents are known as techniques relating to such an apparatus.

特開平4−338900号公報においては、事故の有無を衝撃音を検出することで判定し、その事故発生前後の映像と音響とを時刻、場所、および信号機の情報とともに記録する交通事故状況記録装置が開示されている。   In Japanese Patent Laid-Open No. 4-338900, a traffic accident situation recording device that determines the presence or absence of an accident by detecting an impact sound and records video and sound before and after the occurrence of the accident together with time, location, and traffic signal information. Is disclosed.

特開平8−263785号公報においては、音圧の判定を行なうことで事故が発生したか否かを判定し、事故発生前後の映像と音響とを記録する装置が開示されている。この文献にはデータを管制センターに伝送することや、音と映像の回線を1本にすることや、ビデオテープの残量が少なくなったら警告をすることなどが開示されている。   Japanese Patent Application Laid-Open No. 8-263785 discloses an apparatus for determining whether or not an accident has occurred by determining sound pressure and recording video and sound before and after the accident. This document discloses that data is transmitted to a control center, a single line of sound and video is used, and a warning is issued when the remaining amount of video tape is low.

特開平10−142042号公報においては、音響データのパワースペクトルを求め、そのパターンによって事故が発生したか否かを判定する事故音検出回路が開示されている。これは、従来までの事故判定アルゴリズムが音圧のみによるものであった点を改めたものである。   Japanese Patent Application Laid-Open No. 10-142022 discloses an accident sound detection circuit that obtains a power spectrum of acoustic data and determines whether or not an accident has occurred according to the pattern. This is a revision of the conventional accident determination algorithm based only on sound pressure.

しかしながら、上述のアルゴリズムによって事故を検出する場合、事故以外の事象を事故と判定するケースが多く、事故検出精度に問題があることが指摘されている(たとえば「交通事故自動記録装置(TAAMS)による交通事故の発生メカニズムに関する研究」;科学警察研究所報告交通編Vol.38,No.2,p.12−29,1997年7月)。   However, when an accident is detected by the above-described algorithm, it is pointed out that there are many cases in which an event other than an accident is determined as an accident, and there is a problem in the accident detection accuracy (for example, “by the traffic accident automatic recording device (TAAMS) "Study on the mechanism of the occurrence of traffic accidents"; Science Traffic Research Institute Report Traffic Vol.38, No.2, p.12-29, July 1997).

上述の問題が生じる原因として、事故判定の方法が、測定された音響のパワースペクトルや自己相関などのパターンと、事故発生のモデルパターンとの比較によるものであることなどが挙げられる。すなわち、従来のように線形的なパターン比較による判定のみでは十分な検出精度が得られないのである。   The cause of the above-mentioned problem is that the accident determination method is based on a comparison between a pattern such as a measured acoustic power spectrum or autocorrelation and a model pattern of the accident occurrence. That is, sufficient detection accuracy cannot be obtained only by determination based on a linear pattern comparison as in the prior art.

そこでこの発明は、検出精度の高い交通端末装置および事故検出システムを提供することを目的としている。   Therefore, an object of the present invention is to provide a traffic terminal device and an accident detection system with high detection accuracy.

上記目的を達成するためこの発明のある局面に従うと、交通端末装置は、音声データを入力する入力手段と、入力された音声データのうち、その音圧に基づいて衝撃音であると判定された音の周波数分布を抽出する周波数分布抽出手段と、抽出された周波数分布に基づいて、入力された音声データの発生要因を判定する判定手段と、映像データを入力する映像入力手段と、過去最新の一定時間分の入力された映像をエンドレスに記録するエンドレス記録手段と、映像データを蓄積する蓄積手段とを備え、エンドレス記録手段は、判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、蓄積手段に、車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の映像データを記録し、判定手段は、ニューラルネットワークを備え、ニューラルネットワークは、抽出された周波数分布に応じた音声データの発生要因を判定する。   In order to achieve the above object, according to one aspect of the present invention, the traffic terminal device is determined to be an impact sound based on the sound pressure of the input means for inputting the sound data and the input sound data. A frequency distribution extracting unit that extracts a frequency distribution of sound; a determination unit that determines a generation factor of input audio data based on the extracted frequency distribution; a video input unit that inputs video data; An endless recording unit that records an input video for a predetermined time endlessly and a storage unit that accumulates video data. The endless recording unit determines whether the generation factor determined by the determination unit is a vehicle collision sound and a sudden In the case of at least one of the brake sounds, video data before and after the occurrence of at least one of the vehicle collision sound and the sudden brake sound is recorded in the storage means. And, judging means comprises a neural network, the neural network determines the cause of the audio data corresponding to the extracted frequency distribution.

好ましくは交通端末装置は、信号機の表示する信号現示の状況を取得する信号状況取得手段をさらに備え、エンドレス記録手段は、さらに信号現示データをエンドレスに記録し、蓄積手段は、さらに信号現示データを蓄積し、エンドレス記録手段は、判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、蓄積手段に、車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の信号現示データを記録する。   Preferably, the traffic terminal device further includes signal status acquisition means for acquiring the status of the signal display displayed by the traffic light, the endless recording means further records the signal display data endlessly, and the storage means further includes the signal display status. The endless recording means stores the indication data in the storage means when the cause determined by the determination means is at least one of a vehicle collision sound and a sudden brake sound. Signal display data before and after the occurrence of at least one of the brake sounds is recorded.

好ましくは交通端末装置は、取得した信号現示の状況を文字データにする文字作成手段と、入力された映像データと作成された文字データとを合成する映像合成手段とをさらに備え、エンドレス記録手段は、合成された映像を記録する。   Preferably, the traffic terminal device further includes character creation means for converting the acquired signal display status into character data, and video composition means for synthesizing the input video data and the created character data, and an endless recording means. Records the synthesized video.

好ましくはエンドレス記録手段は、入力された音声データを併せてエンドレスに記録し、判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、蓄積手段に、車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の音声データを記録する。   Preferably, the endless recording means records the input voice data endlessly, and accumulates when the generation factor determined by the determination means is at least one of a collision sound and a sudden brake sound of the vehicle. The means records voice data before and after the occurrence of at least one of the collision sound and sudden braking sound of the vehicle.

好ましくは交通端末装置は、ニューラルネットワークを構成するソフトウェア、またはニューラルネットワークを制御するパラメータが外部から書換え可能である。   Preferably, the traffic terminal device can rewrite software constituting the neural network or parameters for controlling the neural network from the outside.

この発明の他の局面に従うと、事故検出システムは、上述のいずれかに記載の交通端末装置と、交通端末装置に接続される管制センターの装置とを備え、交通端末装置は、判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、管制センターの装置に、車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の映像データを送信する。   According to another aspect of the present invention, an accident detection system includes any of the traffic terminal devices described above and a control center device connected to the traffic terminal device, and the traffic terminal device is determined by a determination unit. When the generated cause is at least one of a collision sound and a sudden braking sound of the vehicle, images before and after the occurrence of at least one of the collision sound and the sudden braking sound of the vehicle in the control center device Send data.

好ましくは事故検出システムは、ニューラルネットワークを構成するソフトウェア、またはニューラルネットワークを制御するパラメータが管制センターの装置から書換え可能である。   Preferably, in the accident detection system, software constituting the neural network or parameters for controlling the neural network can be rewritten from the device of the control center.

これらの発明に従うと学習に基づいて事故が生じたか否かの判定が行なわれるため、検出精度の高い交通端末装置および事故検出システムを提供することが可能となる。   According to these inventions, since it is determined whether or not an accident has occurred based on learning, it is possible to provide a traffic terminal device and an accident detection system with high detection accuracy.

<第1の実施の形態>
図1は本発明の第1の実施の形態における事故検出システムの構成を示す斜視図である。図を参照して、事故検出システムは、互いに異なる場所(この実施の形態においては互いに異なる交差点)に設けられる複数の端末装置100a,100bと、それらに接続される管制センター4とから構成される。
<First Embodiment>
FIG. 1 is a perspective view showing the configuration of an accident detection system according to the first embodiment of the present invention. Referring to the drawing, the accident detection system includes a plurality of terminal devices 100a and 100b provided at different locations (intersections different from each other in this embodiment), and control center 4 connected thereto. .

端末装置100a,100bのそれぞれには、信号機102a,102bが接続されている。また、端末装置100a,100bはそれぞれ交差点付近の映像と音声とを入力するためのカメラ104a,104bとマイク106a,106bとを備えている。   Signal devices 102a and 102b are connected to the terminal devices 100a and 100b, respectively. The terminal devices 100a and 100b include cameras 104a and 104b and microphones 106a and 106b for inputting video and audio near the intersection, respectively.

管制センター4は、通信回線用モデム43と、制御装置42と、ニューラルネットワークを含む学習機能付事故判定部41とを備えている。   The control center 4 includes a communication line modem 43, a control device 42, and an accident determination unit 41 with a learning function including a neural network.

本実施の形態における事故検出システムでは、さまざまな地点(さまざまな交差点)やさまざまな時刻に起きた事故のデータを管制センター4で集中管理し、事故検出システムを学習させながら、システムの知能化、高度化を図ることで、事故判定精度を向上させている。本実施の形態において採用されている学習システムは、線形もしくは非線形な対応づけから、交差点で発生した事象を学習させ、事故が発生したか否かを判定するものである。この実施の形態においては、学習システムとしてニューラルネットワークを用いている。ただし、学習機能を有するシステムであればカオスやファジィなどを用いたシステムを用いることも可能である。   In the accident detection system according to the present embodiment, the data of accidents occurring at various points (various intersections) and various times are centrally managed by the control center 4, and the accident detection system is learned while making the system intelligent. Increasing the sophistication improves accident determination accuracy. The learning system employed in the present embodiment learns an event that has occurred at an intersection from a linear or non-linear association, and determines whether an accident has occurred. In this embodiment, a neural network is used as a learning system. However, a system using chaos or fuzzy can be used as long as the system has a learning function.

図2は、端末装置100a,100bの詳細を説明するためのブロック図である。図を参照して、各端末装置には信号機102a,102bが接続されており、各端末装置100a,100bはカメラ104a,104bと、マイク106a,106bと、文字作成部108a,108bと合成部110a,110bと、エンドレス記録再生部112a,112bと、データ蓄積部114a,114bと、音圧判定部116a,116bと、データ加工部118a,118bと、ニューラルネットワーク(NN)を含む学習機能付事故判定部120a,120bとを備えている。   FIG. 2 is a block diagram for explaining the details of the terminal devices 100a and 100b. Referring to the figure, signal devices 102a and 102b are connected to each terminal device, and each terminal device 100a and 100b has cameras 104a and 104b, microphones 106a and 106b, character creation units 108a and 108b, and composition unit 110a. 110b, endless recording / playback units 112a and 112b, data storage units 114a and 114b, sound pressure determination units 116a and 116b, data processing units 118a and 118b, and an accident determination with a learning function including a neural network (NN) Parts 120a and 120b.

学習機能付事故判定部120a,120bは、管制センターの学習機能付事故判定部41から学習結果を受取る。また、学習機能付事故判定部120a,120bは入力された音声が事故(特定の原因)により生じた音声であるか否かを判定し、その判定結果を判定信号としてエンドレス記録再生部112a,112bに送信する。事故が生じたと判定されたときに、データ蓄積部114a,114bはエンドレス記録再生部112a,112bからデータを読出し記録する。   The accident determination unit with learning function 120a, 120b receives the learning result from the accident determination unit with learning function 41 of the control center. Further, the accident determination units with learning function 120a and 120b determine whether or not the input voice is a voice caused by an accident (a specific cause), and the endless recording / reproducing units 112a and 112b with the determination result as a determination signal. Send to. When it is determined that an accident has occurred, the data storage units 114a and 114b read and record data from the endless recording / reproducing units 112a and 112b.

文字作成部108a,108bは、交差点における時刻、場所およびその時点での信号機102a,102bの状況(信号現示)のデータを文字データにし、出力する。   The character creation units 108a and 108b convert the data of the time and place at the intersection and the situation (signal display) of the traffic lights 102a and 102b at that time into character data and output them.

合成部110a,110bは、カメラ104a,104bからの映像と、その映像に対応する文字作成部108a,108bの出力結果を映像上に合成する。   The synthesizing units 110a and 110b synthesize the video from the cameras 104a and 104b and the output results of the character creation units 108a and 108b corresponding to the video on the video.

エンドレス記録再生部112a,112bは、マイク106a,106bから音声(交通音響)を収集し、過去最新の一定時間分のデータを更新しながら、常時エンドレスに記録する。またエンドレス記録再生部112a,112bは同様に合成部110a,110bが出力する映像を、過去最新の一定時間分のデータを更新しながら常時エンドレスに記録する。   The endless recording / playback units 112a and 112b collect voices (traffic sounds) from the microphones 106a and 106b, and record them endlessly while updating the latest data for a certain period of time. Similarly, the endless recording / reproducing units 112a and 112b record the video output from the synthesizing units 110a and 110b constantly and endlessly while updating data for a certain past time.

音圧発生部116a,116bはマイク106a,106bからの音声データ(入力音響データ)が衝撃音であるか否かを判定し、衝撃音であると判定した場合に、その衝撃音データを選び出してデータ加工部118a,118bに出力する。   The sound pressure generators 116a and 116b determine whether or not the sound data (input sound data) from the microphones 106a and 106b is an impact sound, and when it is determined that the sound is an impact sound, select the impact sound data. The data is output to the data processing units 118a and 118b.

データ加工部118a,118bは、音圧判定部116a,116bから出力された衝撃音データを音響信号の周波数分布や時系列の音圧データなどに加工し、学習機能付事故判定部120a,120bに出力する。また、データ加工部118a,118bは回線を通じて管制センター4の学習機能付事故判定部41へ加工されたデータを伝送する。   The data processing units 118a and 118b process the impact sound data output from the sound pressure determination units 116a and 116b into a frequency distribution of sound signals, time-series sound pressure data, and the like, and send them to the accident determination units 120a and 120b with a learning function. Output. The data processing units 118a and 118b transmit the processed data to the accident determination unit 41 with a learning function of the control center 4 through a line.

管制センター4における学習機能付事故判定部41は伝送されてきた加工データに基づき学習を行なう。端末100a,100bに含まれる学習機能付事故判定部120a,120bは、管制センター4における学習機能付事故判定部41の学習結果を、回線を用いて入力する。これにより、各端末100a,100bにおいて学習結果が反映される。これは、具体的には管制センター4における学習機能付事故判定部41のソフトウェアを一定時間ごとに各端末装置100a,100bにコピーするものである。   The accident determination unit 41 with a learning function in the control center 4 performs learning based on the transmitted processing data. The accident determination units with learning function 120a and 120b included in the terminals 100a and 100b input the learning result of the accident determination unit with learning function 41 in the control center 4 using a line. Thereby, a learning result is reflected in each terminal 100a, 100b. Specifically, the software of the accident determination unit with learning function 41 in the control center 4 is copied to each terminal device 100a, 100b at regular intervals.

端末装置100a,100bの学習機能付事故判定部120a,120bは、データ加工部118a,118bからのデータを入力して、衝撃音の発生要因を判定する。判定結果に基づいて、学習機能付事故判定部120a,120bはエンドレス記録再生部112a,112bに判定信号を与える。   The accident determination units 120a and 120b with learning function of the terminal devices 100a and 100b input data from the data processing units 118a and 118b and determine the cause of the impact sound. Based on the determination result, the accident determination unit with learning function 120a, 120b gives a determination signal to the endless recording / reproducing units 112a, 112b.

判定信号に基づいてエンドレス記録再生部112a,112bは、衝撃音が発生した前後の映像データおよび音響データをデータ蓄積部114a,114bに送信する。   Based on the determination signal, the endless recording / playback units 112a and 112b transmit video data and audio data before and after the impact sound is generated to the data storage units 114a and 114b.

図3は、事故検出システムの学習手順を示すフローチャートである。以下各ステップで行なわれる処理について説明する。   FIG. 3 is a flowchart showing a learning procedure of the accident detection system. Hereinafter, processing performed in each step will be described.

[ステップS1]
まず、事故検出システムに予め収録済の交差点における衝撃音のデータを順次入力する。入力データとしては、たとえば音響データを周波数解析した周波数分布データの波形などが挙げられる。その衝突音がいかなる要因による衝突音であるかについて、人間が教師信号を与えてやることで、事故検出システムは学習を行なう。たとえば、入力された衝撃音データが車両の衝突音、クラクション音、サイレン音、急ブレーキ音であるなどの信号を人間は入力する。
[Step S1]
First, data of impact sounds at intersections prerecorded in the accident detection system are sequentially input. Examples of the input data include a waveform of frequency distribution data obtained by frequency analysis of acoustic data. The accident detection system learns when a human gives a teacher signal as to what causes the collision sound. For example, a human inputs a signal such as the input impact sound data is a vehicle collision sound, a horn sound, a siren sound, or a sudden brake sound.

[ステップS3]
ステップS1である程度のデータを学習したシステムを実地に導入する。
[Step S3]
In step S1, a system that has learned a certain amount of data is introduced into the field.

[ステップS5,S7]
実地に導入した事故検出システムによって感知されたN番目の衝撃音データは、学習機能付事故判定部120a,120bによりいかなる要因により発生した衝撃音であるかが判定される。たとえば、車両の衝突音であるか、クラクション音であるか、サイレン音であるか、急ブレーキ音であるかが学習機能付事故判定部120a,120bにより判定される。
[Steps S5 and S7]
The Nth impact sound data sensed by the accident detection system introduced in the actual field is determined by the learning function-equipped accident determination units 120a and 120b for any cause. For example, the accident determination unit with learning function 120a, 120b determines whether the sound is a collision sound of a vehicle, a horn sound, a siren sound, or a sudden brake sound.

[ステップS9]
衝撃音データと判定結果の対応づけは、管制センター4の学習機能付事故判定部41の学習機能によって自動的に学習される。
[Step S9]
The correspondence between the impact sound data and the determination result is automatically learned by the learning function of the accident determining unit 41 with the learning function of the control center 4.

[ステップS11]
その後に入力される(N+1)番目の衝撃音データにおいては、N番目のデータを学習させた後の事故検出システムによって、いかなる要因の衝撃音であるかが判定される。その衝撃音データと判定結果との対応づけは、自動的に事故検出システムの学習機能により学習される。
[Step S11]
In the (N + 1) th impact sound data inputted thereafter, it is determined by the accident detection system after learning the Nth data which factor the impact sound is. The correspondence between the impact sound data and the determination result is automatically learned by the learning function of the accident detection system.

このように、本実施の形態においては1つ1つの衝撃音データを学習機能付事故判定部で判定させると同時に、そのデータの判定結果の対応づけを学習させ、事故判定部を知能化させることで、事故判定精度を向上させることができる。   As described above, in the present embodiment, each impact sound data is determined by the accident determination unit with a learning function, and at the same time, the correspondence of the determination result of the data is learned to make the accident determination unit intelligent. Thus, the accident determination accuracy can be improved.

上述のように、端末装置100a,100bにおける学習機能付事故判定部120a,120bは衝撃音が何であるかの判定を行なう。また、管制センター4の学習機能付事故判定部41は衝撃音の学習を行なう。そして、一定期間が経過すると、管制センター4の学習機能付事故判定部41のソフトウェアは、端末装置100a,100bにおける学習機能付事故判定部120a,120bへコピーされる。   As described above, the learning function-equipped accident determination units 120a and 120b in the terminal devices 100a and 100b determine what the impact sound is. Moreover, the accident determination part 41 with a learning function of the control center 4 learns an impact sound. When a certain period of time elapses, the software of the accident determination unit with learning function 41 of the control center 4 is copied to the accident determination units with learning function 120a and 120b in the terminal devices 100a and 100b.

図4は、そのコピーの動作を示すフローチャートである。
図を参照して、ステップS101で、端末装置100a,100bにより音響データが収集され、ステップS103で衝撃音については端末装置100a,100b側の学習機能付事故判定部120a,120bでその音が何によるものか判定される。衝撃音のデータはステップS105で管制センターに転送され、ステップS107で管制センター4の学習機能付事故判定部41は音響データの学習を行なう。
FIG. 4 is a flowchart showing the copying operation.
Referring to the figure, in step S101, acoustic data is collected by the terminal devices 100a and 100b. In step S103, the impact sound is detected by the learning function-equipped accident determination units 120a and 120b on the terminal devices 100a and 100b side. It is judged whether it is due to. The impact sound data is transferred to the control center in step S105, and the accident determination unit with learning function 41 of the control center 4 learns acoustic data in step S107.

このステップS101〜S107の動作は、一定期間継続し、繰返し行なわれる。
一定時間が経過したのであれば、ステップS109で、管制センター4の学習機能付事故判定部41内の事故判定ソフトウェアが、端末装置100a,100bの学習機能付事故判定部120a,120bにコピーされる。
The operations of steps S101 to S107 are continued for a certain period and repeated.
If the predetermined time has elapsed, in step S109, the accident determination software in the accident determination unit 41 with learning function of the control center 4 is copied to the accident determination units 120a and 120b with learning function of the terminal devices 100a and 100b. .

コピーされるのは、事故判定用のソフトウェアそのものである。それ以外にもたとえばそのソフトウェアを制御する上で使用されるパラメータの数値のみをコピーするといった方法も考えられる。これにより、衝撃音の判定のための基準が変更される。   What is copied is the accident detection software itself. In addition, for example, a method of copying only the numerical values of parameters used for controlling the software is also conceivable. Thereby, the reference | standard for determination of an impact sound is changed.

さらに、次の一定期間が経過した後に(S111〜S117)、管制センター側から各端末装置に事故判定用のソフトウェアのコピーが行なわれる(S119)。   Furthermore, after the next fixed period has passed (S111 to S117), the accident determination software is copied from the control center side to each terminal device (S119).

このような動作を一定期間経過ごとに繰返し行なう。ソフトウェアをコピーする目的は、各端末において記録すべき事象の判断(映像および音響データの取捨選択)を行なわせるためである。この判断は、具体的には車両の衝突音や急ブレーキ音が発生したと判断された場合に記録し、クラクション音やサイレン音の場合は記録しないというような基準に沿って行なわれる。   Such an operation is repeated every certain period. The purpose of copying the software is to make the judgment of events to be recorded in each terminal (selection of video and audio data). Specifically, this determination is made in accordance with a standard such that recording is performed when it is determined that a vehicle collision sound or a sudden braking sound has occurred, and recording is not performed for a horn sound or siren sound.

このような手順で学習された学習機能付事故判定部が十分な学習を行ない、これ以上の精度向上が必要ないと判断された場合、管制センター4から各端末装置100a,100bへのコピーは中止するようにしてもよい。なお、精度向上の必要性の有無は、事故判定ソフトウェアの使用するパラメータの値の変動値が予め定めた基準値以下になったというような状況で判断することが考えられる。   When the accident determination unit with a learning function learned by such a procedure performs sufficient learning and it is determined that further accuracy improvement is not necessary, copying from the control center 4 to each terminal device 100a, 100b is canceled. You may make it do. Note that it is conceivable to determine whether or not the accuracy needs to be improved in a situation where the fluctuation value of the parameter value used by the accident determination software is equal to or less than a predetermined reference value.

このように、本実施の形態における事故検出システムでは、学習機能付事故判定部により音響データの判断における学習が行なわれるため、事故の検出精度の高いシステムを提供することができる。   As described above, in the accident detection system according to the present embodiment, learning in determination of acoustic data is performed by the accident determination unit with a learning function, so that a system with high accident detection accuracy can be provided.

<第2の実施の形態>
上述の第1の実施の形態においては複数の端末装置を用意し、複数の端末装置から得られた音響データを管制センター4で集中して管理および学習することとしたが、第2の実施の形態においては端末装置は単独で稼働し、単独で音響データを収集し学習を行なう。
<Second Embodiment>
In the first embodiment described above, a plurality of terminal devices are prepared, and the acoustic data obtained from the plurality of terminal devices is centrally managed and learned at the control center 4, but the second embodiment In the embodiment, the terminal device operates alone and collects and learns acoustic data independently.

図5は、第2の実施の形態における端末装置の構成を示すブロック図である。図を参照して端末装置は、第1の実施の形態と同じく信号機102と、文字作成部108と、カメラ104と、合成部110と、エンドレス記録再生部112と、データ蓄積部114と、マイク106と、音圧判定部116と、データ加工部118と、学習機能付事故判定部120とを備える。   FIG. 5 is a block diagram illustrating a configuration of the terminal device according to the second embodiment. Referring to the figure, as in the first embodiment, the terminal device includes a traffic light 102, a character creation unit 108, a camera 104, a synthesis unit 110, an endless recording / playback unit 112, a data storage unit 114, and a microphone. 106, a sound pressure determination unit 116, a data processing unit 118, and an accident determination unit 120 with a learning function.

本実施の形態においては学習機能付事故判定部120は第1の実施の形態のように事故の判定を行なうのみではなく、収集された音響データに基づき学習を行なう。   In the present embodiment, the accident determination unit 120 with a learning function not only determines an accident as in the first embodiment, but also learns based on the collected acoustic data.

本実施の形態においても、学習により高精度な事故の検出を行なうことができる。
<第3の実施の形態>
第3の実施の形態における事故検出システムは、事故の判定および学習について端末装置側では一切行なわずに、管制センター側で行なうことを特徴としている。このような方法を採用すると、大量のデータを瞬時に管制センターに転送する必要がある。将来的にデータ通信技術の進歩とともに、データ送信の大容量化および高速化が実現されれば、このようなシステムは実現可能であり、人間が事故データを端末装置のデータ蓄積部から取出す手間を省き、かつ事故発生直後にその事後前後の映像を管制センターで確認することができるものと考えられる。
Also in this embodiment, it is possible to detect an accident with high accuracy by learning.
<Third Embodiment>
The accident detection system according to the third embodiment is characterized in that accident determination and learning are not performed at the terminal device side but at the control center side. If such a method is adopted, it is necessary to transfer a large amount of data to the control center instantly. Such a system is feasible if the capacity and speed of data transmission are increased along with the advancement of data communication technology in the future, and humans will not have to take out accident data from the data storage unit of the terminal device. It is considered that the video before and after the accident can be confirmed at the control center immediately after the accident.

図6は本発明の第3の実施の形態における事故検出システムの構成を示すブロック図である。端末装置100a,100b側に、信号機102a,102bと、カメラ104a,104bと、マイク106a,106bと、文字作成部108a,108bと、合成部110a,110bと、エンドレス記録再生部112a,112bと、音圧判定部116a,116bとが設けられている点は第1の実施の形態におけるそれと同様である。しかしながら、本実施の形態においては管制センター側にデータ蓄積部150a,150bと音響データ加工部150a,150bとが備えられている点で相違する。   FIG. 6 is a block diagram showing a configuration of an accident detection system according to the third embodiment of the present invention. On the terminal device 100a, 100b side, traffic lights 102a, 102b, cameras 104a, 104b, microphones 106a, 106b, character creation units 108a, 108b, synthesis units 110a, 110b, endless recording / playback units 112a, 112b, The point that the sound pressure determination units 116a and 116b are provided is the same as that in the first embodiment. However, the present embodiment is different in that the data storage units 150a and 150b and the acoustic data processing units 150a and 150b are provided on the control center side.

以下に第3の実施の形態における事故検出システムの動作について説明する。まず、予め収集された音響データを管制センターの学習機能付事故判定部41に入力し、音響データとその発生要因の対応づけを学習させる。学習の具体的な手順については上述のとおりである。   The operation of the accident detection system in the third embodiment will be described below. First, the acoustic data collected in advance is input to the accident determination unit 41 with a learning function of the control center, and the correspondence between the acoustic data and the generation factor is learned. The specific procedure for learning is as described above.

端末装置で収集された音響データが音圧判定部116a,116bで衝撃音によるものであると判定された場合、その判定信号はエンドレス記録再生部112a,112bに送られる。すると、衝撃音発生前後の音響データとともに、その地点、時刻、信号機102a,102bの情報が合成された映像データが、逐次管制センターに伝送される。   When the acoustic data collected by the terminal device is determined to be due to the impact sound by the sound pressure determination units 116a and 116b, the determination signal is sent to the endless recording / playback units 112a and 112b. Then, together with the acoustic data before and after the occurrence of the impact sound, video data in which the information on the point, time, and traffic lights 102a and 102b is synthesized is sequentially transmitted to the control center.

伝送されたデータのうち、音響データは音響データ加工部152aで加工される。加工後のデータ形式については第1の実施の形態と同様である。加工後の音響データは、学習機能付事故判定部41に入力される。そして、学習機能付事故判定部41はその衝撃音がいかなる要因によって発生したものかを判定する。判定結果によってそのデータの取捨選択が行なわれ、蓄積すべきと判定されるものについては、学習機能付事故判定部41が蓄積指令をデータ蓄積部150a,150bに出力する。この指令に基づき音響データおよび映像データはまとめてデータ蓄積部150a,150bに格納される。取捨選択の判断基準については前述のとおりである。   Of the transmitted data, the acoustic data is processed by the acoustic data processing unit 152a. The data format after processing is the same as in the first embodiment. The processed acoustic data is input to the accident determining unit 41 with a learning function. And the accident determination part 41 with a learning function determines what kind of factor caused the impact sound. The data is selected according to the determination result, and for those determined to be stored, the accident determination unit with learning function 41 outputs a storage command to the data storage units 150a and 150b. Based on this command, the audio data and the video data are collectively stored in the data storage units 150a and 150b. The criteria for selection are as described above.

さらに、その音響データと判定結果との対応づけを学習機能付事故判定部41は自動的に学習する。学習方法についても、前述のとおりである。   Furthermore, the accident determination unit with learning function 41 automatically learns the correspondence between the acoustic data and the determination result. The learning method is also as described above.

本実施の形態においては、事故についての判定と学習とを管制センターで集中して行なうことができる。これにより、端末装置のハードウェア構成を簡略化することができる。   In the present embodiment, determination and learning about an accident can be performed at a control center in a concentrated manner. Thereby, the hardware configuration of the terminal device can be simplified.

上述のように、本発明においては事故検出システムにおいて学習機能が備えられている。そして、単なる線形的なパターン認識による判定のみならず、非線形的な対応づけも視野に入れて判定が行なわれている(たとえばニューラルネットワークによる判定)。   As described above, in the present invention, a learning function is provided in the accident detection system. The determination is performed not only by the simple pattern recognition but also by taking into account the non-linear association (for example, determination by a neural network).

また、第1の実施の形態および第3の実施の形態においては複数の地点により収集された音響データを管制センターに集中させて管理を行なっているため、学習効果を高めることができる。   Further, in the first embodiment and the third embodiment, the acoustic data collected from a plurality of points is concentrated and managed in the control center, so that the learning effect can be enhanced.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の第1の実施の形態における事故検出システムの構成を示す斜視図である。It is a perspective view which shows the structure of the accident detection system in the 1st Embodiment of this invention. 事故検出システムのブロック図である。It is a block diagram of an accident detection system. 事故検出システムの学習手順を示すフローチャートである。It is a flowchart which shows the learning procedure of an accident detection system. 管制センターから端末装置へのソフトウェアのコピーの手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of a software copy from a control center to a terminal device. 本発明の第2の実施の形態における端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal device in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における事故検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the accident detection system in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

41 学習機能付事故判定部、100 端末装置、102 信号機、104 カメラ、106 マイク、112 エンドレス記録再生部、114 データ蓄積部、116 音圧判定部、118 データ加工部、120 学習機能付事故判定部。   41 accident determination unit with learning function, 100 terminal device, 102 traffic light, 104 camera, 106 microphone, 112 endless recording / playback unit, 114 data storage unit, 116 sound pressure determination unit, 118 data processing unit, 120 accident determination unit with learning function .

Claims (7)

音声データを入力する入力手段と、
前記入力された音声データのうち、その音圧に基づいて衝撃音であると判定された音の周波数分布を抽出する周波数分布抽出手段と、
前記抽出された周波数分布に基づいて、前記入力された音声データの発生要因を判定する判定手段と、
映像データを入力する映像入力手段と、
過去最新の一定時間分の前記入力された映像をエンドレスに記録するエンドレス記録手段と、
映像データを蓄積する蓄積手段とを備え、
前記エンドレス記録手段は、前記判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、前記蓄積手段に、前記車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の映像データを記録し、
前記判定手段は、ニューラルネットワークを備え、
前記ニューラルネットワークは、前記抽出された周波数分布に応じた前記音声データの発生要因を判定する、交通端末装置。
Input means for inputting voice data;
A frequency distribution extracting means for extracting a frequency distribution of a sound determined to be an impact sound based on the sound pressure of the input voice data;
Determination means for determining a generation factor of the input voice data based on the extracted frequency distribution;
Video input means for inputting video data;
Endless recording means for recording the input video for a predetermined time in the past in an endless manner;
Storage means for storing video data,
The endless recording means, when the generation factor determined by the determination means is at least one of a vehicle collision sound and a sudden brake sound, stores the vehicle collision sound and sudden brake sound in the storage means. Record the video data before and after the occurrence of at least one of
The determination means includes a neural network,
The said neural network is a traffic terminal device which determines the generation | occurrence | production factor of the said audio | voice data according to the extracted frequency distribution.
信号機の表示する信号現示の状況を取得する信号状況取得手段をさらに備え、
前記エンドレス記録手段は、さらに前記信号現示データをエンドレスに記録し、
前記蓄積手段は、さらに前記信号現示データを蓄積し、
前記エンドレス記録手段は、前記判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、前記蓄積手段に、前記車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の信号現示データを記録する、請求項1に記載の交通端末装置。
It further comprises signal status acquisition means for acquiring the status of signal display displayed by the traffic light,
The endless recording means further records the signal display data endlessly,
The storage means further stores the signal display data,
The endless recording means, when the generation factor determined by the determination means is at least one of a vehicle collision sound and a sudden brake sound, stores the vehicle collision sound and sudden brake sound in the storage means. The traffic terminal device according to claim 1, wherein signal display data before and after occurrence of at least one of the signals is recorded.
前記取得した信号現示の状況を文字データにする文字作成手段と、
前記入力された映像データと前記作成された文字データとを合成する映像合成手段とをさらに備え、
前記エンドレス記録手段は、前記合成された映像を記録する、請求項2に記載の交通端末装置。
Character creation means for converting the acquired signal display status into character data;
Video synthesis means for synthesizing the input video data and the created character data;
The traffic terminal apparatus according to claim 2, wherein the endless recording unit records the synthesized video.
前記エンドレス記録手段は、前記入力された音声データを併せてエンドレスに記録し、前記判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、前記蓄積手段に、前記車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の音声データを記録する、請求項1から3のいずれかに記載の交通端末装置。   The endless recording unit records the input voice data together in an endless manner, and when the generation factor determined by the determination unit is at least one of a vehicle collision sound and a sudden brake sound, The traffic terminal apparatus according to any one of claims 1 to 3, wherein voice data before and after at least one of a collision sound and a sudden braking sound of the vehicle is recorded in the storage means. 前記ニューラルネットワークを構成するソフトウェア、または前記ニューラルネットワークを制御するパラメータが外部から書換え可能である、請求項1から4のいずれかに記載の交通端末装置。   The traffic terminal device according to any one of claims 1 to 4, wherein software constituting the neural network or parameters for controlling the neural network can be rewritten from the outside. 請求項1から5のいずれかに記載の交通端末装置と、
前記交通端末装置に接続される管制センターの装置とを備え、
前記交通端末装置は、前記判定手段で判定された発生要因が、車両の衝突音および急ブレーキ音のうちの少なくとも1つである場合に、前記管制センターの装置に、前記車両の衝突音および急ブレーキ音のうちの少なくとも1つが発生した前後の映像データを送信する、事故検出システム。
The traffic terminal device according to any one of claims 1 to 5,
A control center device connected to the traffic terminal device,
When the generation factor determined by the determination means is at least one of a vehicle collision sound and a sudden brake sound, the traffic terminal device transmits the vehicle collision sound and a sudden sound to the control center device. An accident detection system that transmits video data before and after the occurrence of at least one of the brake sounds.
前記ニューラルネットワークを構成するソフトウェア、または前記ニューラルネットワークを制御するパラメータが前記管制センターの装置から書換え可能である、請求項6に記載の事故検出システム。   The accident detection system according to claim 6, wherein software constituting the neural network or parameters for controlling the neural network can be rewritten from an apparatus of the control center.
JP2007120937A 2007-05-01 2007-05-01 Traffic terminal device and accident detection system Pending JP2007280407A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007120937A JP2007280407A (en) 2007-05-01 2007-05-01 Traffic terminal device and accident detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007120937A JP2007280407A (en) 2007-05-01 2007-05-01 Traffic terminal device and accident detection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10334401A Division JP2000163687A (en) 1998-11-25 1998-11-25 Device and system for detecting accident

Publications (1)

Publication Number Publication Date
JP2007280407A true JP2007280407A (en) 2007-10-25

Family

ID=38681715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007120937A Pending JP2007280407A (en) 2007-05-01 2007-05-01 Traffic terminal device and accident detection system

Country Status (1)

Country Link
JP (1) JP2007280407A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116273B1 (en) 2010-05-03 2012-03-14 연세대학교 산학협력단 Apparatus and Method for Traffic Accident Recognition
KR101266326B1 (en) 2011-12-27 2013-05-22 전자부품연구원 Accident cognition device and method
KR101792141B1 (en) * 2017-04-28 2017-11-20 주식회사 핸디소프트 Automatic response service system and method for confirming traffic accident
US20190302766A1 (en) * 2018-03-28 2019-10-03 Micron Technology, Inc. Black Box Data Recorder with Artificial Intelligence Processor in Autonomous Driving Vehicle
US10795380B1 (en) * 2020-01-27 2020-10-06 safeXai, Inc. System and method for event-based vehicle operation
US10846955B2 (en) 2018-03-16 2020-11-24 Micron Technology, Inc. Black box data recorder for autonomous driving vehicle
US11094148B2 (en) 2018-06-18 2021-08-17 Micron Technology, Inc. Downloading system memory data in response to event detection
KR102382215B1 (en) * 2020-10-20 2022-04-01 김규현 Acoustic accident detection system through accident sound deep learning
US11373466B2 (en) 2019-01-31 2022-06-28 Micron Technology, Inc. Data recorders of autonomous vehicles
US11410475B2 (en) 2019-01-31 2022-08-09 Micron Technology, Inc. Autonomous vehicle data recorders
US11782605B2 (en) 2018-11-29 2023-10-10 Micron Technology, Inc. Wear leveling for non-volatile memory using data write counters

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57166296U (en) * 1981-04-09 1982-10-20
JPS63258382A (en) * 1987-04-16 1988-10-25 三菱電機株式会社 Elevator controller
JPH02238599A (en) * 1989-03-13 1990-09-20 Toyota Motor Corp Road state confirmation device for vehicle
JPH04338900A (en) * 1991-05-16 1992-11-26 Ono Denki Kk Traffic accident condition recorder
JPH06344839A (en) * 1993-06-11 1994-12-20 Mitsubishi Motors Corp Alarm and guide device for vehicle
JPH07220193A (en) * 1994-01-28 1995-08-18 Nagoya Denki Kogyo Kk Traffic condition discriminating device
JPH08263785A (en) * 1995-03-27 1996-10-11 Mitsubishi Denki Eng Kk Traffic monitoring device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57166296U (en) * 1981-04-09 1982-10-20
JPS63258382A (en) * 1987-04-16 1988-10-25 三菱電機株式会社 Elevator controller
JPH02238599A (en) * 1989-03-13 1990-09-20 Toyota Motor Corp Road state confirmation device for vehicle
JPH04338900A (en) * 1991-05-16 1992-11-26 Ono Denki Kk Traffic accident condition recorder
JPH06344839A (en) * 1993-06-11 1994-12-20 Mitsubishi Motors Corp Alarm and guide device for vehicle
JPH07220193A (en) * 1994-01-28 1995-08-18 Nagoya Denki Kogyo Kk Traffic condition discriminating device
JPH08263785A (en) * 1995-03-27 1996-10-11 Mitsubishi Denki Eng Kk Traffic monitoring device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116273B1 (en) 2010-05-03 2012-03-14 연세대학교 산학협력단 Apparatus and Method for Traffic Accident Recognition
KR101266326B1 (en) 2011-12-27 2013-05-22 전자부품연구원 Accident cognition device and method
KR101792141B1 (en) * 2017-04-28 2017-11-20 주식회사 핸디소프트 Automatic response service system and method for confirming traffic accident
US11676431B2 (en) 2018-03-16 2023-06-13 Micron Technology, Inc. Black box data recorder for autonomous driving vehicle
US10846955B2 (en) 2018-03-16 2020-11-24 Micron Technology, Inc. Black box data recorder for autonomous driving vehicle
US20190302766A1 (en) * 2018-03-28 2019-10-03 Micron Technology, Inc. Black Box Data Recorder with Artificial Intelligence Processor in Autonomous Driving Vehicle
WO2019190675A1 (en) * 2018-03-28 2019-10-03 Micron Technology, Inc. Black box data recorder with artificial intelligence processor in autonomous driving vehicle
CN111918805A (en) * 2018-03-28 2020-11-10 美光科技公司 Black box data recorder with artificial intelligence processor in autonomous driving vehicle
US11094148B2 (en) 2018-06-18 2021-08-17 Micron Technology, Inc. Downloading system memory data in response to event detection
US11756353B2 (en) 2018-06-18 2023-09-12 Micron Technology, Inc. Downloading system memory data in response to event detection
US11782605B2 (en) 2018-11-29 2023-10-10 Micron Technology, Inc. Wear leveling for non-volatile memory using data write counters
US11373466B2 (en) 2019-01-31 2022-06-28 Micron Technology, Inc. Data recorders of autonomous vehicles
US11410475B2 (en) 2019-01-31 2022-08-09 Micron Technology, Inc. Autonomous vehicle data recorders
US11670124B2 (en) 2019-01-31 2023-06-06 Micron Technology, Inc. Data recorders of autonomous vehicles
US10795380B1 (en) * 2020-01-27 2020-10-06 safeXai, Inc. System and method for event-based vehicle operation
KR102382215B1 (en) * 2020-10-20 2022-04-01 김규현 Acoustic accident detection system through accident sound deep learning

Similar Documents

Publication Publication Date Title
JP2007280407A (en) Traffic terminal device and accident detection system
KR102025652B1 (en) Method and apparatus for training sound event detection model
CN1894740B (en) Information processing system, information processing method, and information processing program
CN109300471A (en) Merge place intelligent video monitoring method, the apparatus and system of sound collection identification
US7636663B2 (en) On-vehicle acoustic control system and method
CN104933825B (en) The alarm method and device of a kind of mobile terminal
CN102576562B (en) Automatic generation of metadata for audio dominance effects
CN106339692B (en) A kind of fatigue driving state information determines method and system
JP6376005B2 (en) Digest video generator
Gatto et al. Audio-based machine learning model for traffic congestion detection
CN105184896A (en) Collision detection device, event data recorder comprising same as well as collision detection processing method
WO2011025460A1 (en) Method and system for event detection
Hollosi et al. Enhancing wireless sensor networks with acoustic sensing technology: use cases, applications & experiments
Zinemanas et al. MAVD: A dataset for sound event detection in urban environments.
EP2028651A1 (en) Method and apparatus for detection of specific input signal contributions
Arce et al. FIWARE based low-cost wireless acoustic sensor network for monitoring and classification of urban soundscape
CN106559635A (en) A kind of player method and device of multimedia file
JPH07306692A (en) Speech recognizer and sound inputting device
JP2000163687A (en) Device and system for detecting accident
JP6681965B2 (en) Apparatus and method for extracting learning target image for autonomous driving
CN113539298B (en) Sound big data analysis and calculation imaging system based on cloud edge end
JP2016126436A (en) Image recognition evaluation system and image recognition evaluation apparatus
JP4859130B2 (en) Monitoring system
KR102397563B1 (en) Method and apparatus for training sound event detection model
CN208848375U (en) A kind of road test information acquisition system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A02 Decision of refusal

Effective date: 20100831

Free format text: JAPANESE INTERMEDIATE CODE: A02