JP2020140401A - Abnormality monitoring system, and, abnormality monitoring method - Google Patents

Abnormality monitoring system, and, abnormality monitoring method Download PDF

Info

Publication number
JP2020140401A
JP2020140401A JP2019034791A JP2019034791A JP2020140401A JP 2020140401 A JP2020140401 A JP 2020140401A JP 2019034791 A JP2019034791 A JP 2019034791A JP 2019034791 A JP2019034791 A JP 2019034791A JP 2020140401 A JP2020140401 A JP 2020140401A
Authority
JP
Japan
Prior art keywords
unit
sensor data
control unit
acquisition unit
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019034791A
Other languages
Japanese (ja)
Inventor
彬光 落合
Akimitsu OCHIAI
彬光 落合
雅人 矢島
Masahito Yajima
雅人 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019034791A priority Critical patent/JP2020140401A/en
Publication of JP2020140401A publication Critical patent/JP2020140401A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

To improve accuracy in monitoring abnormality of security.SOLUTION: An abnormality monitoring system comprises: a sensor data acquisition unit 48 which acquires sensor data from a sensor which detects abnormality in security of a motorcycle; a periphery information acquisition unit 42 which acquires periphery information indicating a state around the motorcycle; a learning unit 23 which performs learning by artificial intelligence based on the sensor data acquired by the sensor data acquisition unit 48 and the periphery information acquired by the periphery information acquisition unit 42 and generates a learnt model for determining the abnormality in the security and erroneous detection; and a determination unit 24 which uses the learnt model learnt by the learning unit 23 to determine the abnormality in the security and the erroneous detection based on the sensor data acquired by the sensor data acquisition unit 48 and the periphery information acquired by the periphery information acquisition unit 42.SELECTED DRAWING: Figure 1

Description

本発明は、異常監視システム、及び、異常監視方法に関する。 The present invention relates to an abnormality monitoring system and an abnormality monitoring method.

車両などの移動体の盗難やいたずらを防止するために、センサが移動体に発生した振動を検出することによって、セキュリティの異常を監視する技術が知られている。また、車両のドアまたはトランクを開けた際の、車両内に生じる空気圧変化に基づいて、警報信号など必要な盗難防止装置を作動させる技術が知られている(例えば、特許文献1参照)。 In order to prevent theft and mischief of moving objects such as vehicles, there is known a technique for monitoring security abnormalities by detecting vibration generated in the moving objects. Further, there is known a technique of operating a necessary anti-theft device such as an alarm signal based on a change in air pressure generated in the vehicle when the door or trunk of the vehicle is opened (see, for example, Patent Document 1).

特開2004−078365号公報Japanese Unexamined Patent Publication No. 2004-078365

従来の技術では、センサが、例えば、雨、風、雷、近隣住人の接触、騒音などを検出した際にも、セキュリティの異常を誤検出してしまい、不用意に警報が作動するおそれがある。ところが、誤検出を抑制するために、センサの閾値を高く設定してしまうと、セキュリティの異常を正しく検出できなくなるおそれがある。このように、セキュリティの異常の有無の監視の精度には改善の余地がある。 In the conventional technology, when the sensor detects, for example, rain, wind, lightning, contact with neighbors, noise, etc., a security abnormality may be erroneously detected and an alarm may be activated carelessly. .. However, if the threshold value of the sensor is set high in order to suppress erroneous detection, there is a risk that a security abnormality cannot be detected correctly. As described above, there is room for improvement in the accuracy of monitoring the presence or absence of security abnormalities.

本発明は、上記に鑑みてなされたものであって、セキュリティの異常の監視の精度を向上することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the accuracy of monitoring abnormalities in security.

上述した課題を解決し、目的を達成するために、本発明に係る異常監視システムは、前記移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得部と、移動体の周辺の状態を示す周辺情報を取得する周辺情報取得部と、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習部と、前記学習部が学習した前記学習済みモデルを使用して、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the abnormality monitoring system according to the present invention includes a sensor data acquisition unit that acquires sensor data from a sensor that detects a security abnormality of the moving body, and a peripheral portion of the moving body. Learning by artificial intelligence based on the peripheral information acquisition unit that acquires the peripheral information indicating the state of, the sensor data acquired by the sensor data acquisition unit, and the peripheral information acquired by the peripheral information acquisition unit, A learning unit that generates a trained model for determining a security abnormality and a false detection, and the sensor data acquired by the sensor data acquisition unit using the trained model learned by the learning unit. It is characterized by including a determination unit for determining a security abnormality and an erroneous detection based on the peripheral information acquired by the peripheral information acquisition unit.

本発明に係る異常監視方法は、前記移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得ステップと、移動体の周辺の状態を示す周辺情報を取得する周辺情報取得ステップと、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習ステップと、前記学習ステップにおいて学習した前記学習済みモデルを使用して、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定ステップと、を含む。 The abnormality monitoring method according to the present invention includes a sensor data acquisition step of acquiring sensor data from a sensor that detects a security abnormality of the moving body, and a peripheral information acquisition step of acquiring peripheral information indicating a state around the moving body. , Learned by artificial intelligence based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step, and learned to determine a security abnormality and false detection. Based on the learning step for generating a model, the sensor data acquired in the sensor data acquisition step using the learned model learned in the learning step, and the peripheral information acquired in the peripheral information acquisition step. It includes a determination step for determining a security abnormality and a false positive.

本発明によれば、セキュリティの異常の監視の精度を向上することができるという効果を奏する。 According to the present invention, there is an effect that the accuracy of monitoring an abnormality in security can be improved.

図1は、第一実施形態に係る異常監視システムの構成例の一例を示す概略図である。FIG. 1 is a schematic view showing an example of a configuration example of the abnormality monitoring system according to the first embodiment. 図2は、第一実施形態に係る異常監視装置の構成例を示す概略図である。FIG. 2 is a schematic view showing a configuration example of the abnormality monitoring device according to the first embodiment. 図3は、複数の異常監視装置から取得したセンサデータと周辺情報との一例を説明する図である。FIG. 3 is a diagram illustrating an example of sensor data and peripheral information acquired from a plurality of abnormality monitoring devices. 図4は、第一実施形態に係るサーバ装置における学習処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing a flow of learning processing in the server device according to the first embodiment. 図5は、第一実施形態に係る異常監視装置における切断監視処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing a flow of disconnection monitoring processing in the abnormality monitoring device according to the first embodiment. 図6は、第一実施形態に係る異常監視装置における監視処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing a flow of monitoring processing in the abnormality monitoring device according to the first embodiment. 図7は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. 図8は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. 図9は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. 図10は、第一実施形態に係るサーバ装置における判定処理の流れを示すフローチャートである。FIG. 10 is a flowchart showing a flow of determination processing in the server device according to the first embodiment. 図11は、第二実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。FIG. 11 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to the second embodiment. 図12は、第二実施形態に係る異常監視装置の構成例を示す概略図である。FIG. 12 is a schematic view showing a configuration example of the abnormality monitoring device according to the second embodiment. 図13は、第三実施形態に係る異常監視装置の構成例を示す概略図である。FIG. 13 is a schematic view showing a configuration example of the abnormality monitoring device according to the third embodiment. 図14は、第四実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。FIG. 14 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to a fourth embodiment. 図15は、第四実施形態に係る異常監視装置の構成例を示す概略図である。FIG. 15 is a schematic view showing a configuration example of the abnormality monitoring device according to the fourth embodiment.

以下に添付図面を参照して、本発明に係る異常監視システム、及び、異常監視方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the abnormality monitoring system and the abnormality monitoring method according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

[第一実施形態]
図1は、第一実施形態に係る異常監視システムの構成例の一例を示す概略図である。図2は、第一実施形態に係る異常監視装置の構成例を示す概略図である。異常監視システム1は、人工知能(AI:Artificial Intelligence)の機械学習によって生成した学習モデルを使用して、例えば、自動二輪車、自転車、小型船舶のような移動体の盗難、いたずらのようなセキュリティの異常の有無を監視する。機械学習の一例としては、教師データを使用する教師あり学習、または、教師データを使用しない教師なし学習のディープラーニングによって学習させて、学習済みモデルとして多層ニューラルネットワーク(以下、「DNN」という。)を生成する。ディープラーニングは、DNNを使用した判定の精度が向上するように、DNNの重みの更新を繰り返し実行して、DNNを使用した判定結果が良好になるようにDNNの重みを導出する機械学習の一手法である。機械学習の手法は限定されない。
[First Embodiment]
FIG. 1 is a schematic view showing an example of a configuration example of the abnormality monitoring system according to the first embodiment. FIG. 2 is a schematic view showing a configuration example of the abnormality monitoring device according to the first embodiment. The anomaly monitoring system 1 uses a learning model generated by machine learning of artificial intelligence (AI) to prevent theft of moving objects such as motorcycles, bicycles, and small vessels, and security such as mischief. Monitor for abnormalities. As an example of machine learning, a multi-layer neural network (hereinafter referred to as "DNN") is trained as a trained model by learning by deep learning of supervised learning using supervised learning or unsupervised learning not using teacher data. To generate. Deep learning is a type of machine learning that repeatedly updates the weights of DNNs so that the accuracy of judgments using DNNs is improved, and derives the weights of DNNs so that the judgment result using DNNs is good. It is a method. Machine learning methods are not limited.

異常監視システム1は、例えば、自動二輪車、自転車、小型船舶のような移動体の盗難、いたずらのようなセキュリティの異常の有無を監視する。本実施形態では、移動体が自動二輪車であるものとして説明するが、これに限定されない。異常監視システム1は、サーバ装置10と、複数の自動二輪車にそれぞれ配置された異常監視装置30とを含む。 The abnormality monitoring system 1 monitors, for example, the presence or absence of security abnormalities such as theft of moving objects such as motorcycles, bicycles, and small vessels, and mischief. In the present embodiment, the moving body will be described as a motorcycle, but the present invention is not limited to this. The abnormality monitoring system 1 includes a server device 10 and an abnormality monitoring device 30 arranged on each of a plurality of motorcycles.

サーバ装置10は、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成する。サーバ装置10は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。サーバ装置10は、通信部11と、記憶部12と、制御部20とを含む。 The server device 10 uses the sensor data acquired from the plurality of abnormality monitoring devices 30 and peripheral information to generate a DNN as a learned model for determining a security abnormality and a false detection. When the server device 10 acquires the sensor data for determination and the peripheral information from the abnormality monitoring device 30, the server device 10 uses the DNN to determine a security abnormality and an erroneous detection. The server device 10 includes a communication unit 11, a storage unit 12, and a control unit 20.

通信部11は、通信ユニットである。通信部11は、異常監視装置30との通信を可能にする。本実施形態では、通信部11は、異常監視システム1が正常に動作している場合、常時、異常監視装置30と通信可能である。 The communication unit 11 is a communication unit. The communication unit 11 enables communication with the abnormality monitoring device 30. In the present embodiment, the communication unit 11 can always communicate with the abnormality monitoring device 30 when the abnormality monitoring system 1 is operating normally.

記憶部12は、複数の異常監視装置30から取得した、異常監視システム1で使用する教師データである、センサデータと周辺情報とを関連付けたデータを記録する。記憶部12は、制御部20の学習部23によって生成されたDNNモデルを記憶する。 The storage unit 12 records data obtained by associating sensor data with peripheral information, which is teacher data used in the abnormality monitoring system 1, acquired from a plurality of abnormality monitoring devices 30. The storage unit 12 stores the DNN model generated by the learning unit 23 of the control unit 20.

周辺情報は、日時の情報、曜日の情報、季節の情報、自動二輪車の周辺の気象状態を示す気象情報、自動二輪車の周辺における物体の検出を示す物体検出情報、自動二輪車の周辺の音声を示す音声情報、および、自動二輪車の駐輪位置を示す位置情報の少なくともいずれかを含む。周辺情報は、例えば、インターネット上から取得可能な自動二輪車の周辺のイベント開催などを示す情報、自動二輪車の周辺の警察車両または救急車両の出動情報、または、自動二輪車の周辺の街頭に設置された監視カメラが撮影した監視カメラ映像データであってもよい。 Peripheral information includes date and time information, daytime information, seasonal information, weather information indicating the weather conditions around the motorcycle, object detection information indicating the detection of an object around the motorcycle, and sound around the motorcycle. It includes at least one of voice information and position information indicating the parking position of the motorcycle. Peripheral information is, for example, information that indicates that an event is held around the motorcycle, which can be obtained from the Internet, information on the dispatch of police vehicles or ambulance vehicles around the motorcycle, or information on the streets around the motorcycle. It may be the surveillance camera video data taken by the surveillance camera.

本実施形態では、周辺情報は、センサデータの取得時刻に対応して撮影された、自動二輪車の周辺を撮影した映像データから取得する。例えば、映像データに画像処理を行うことによって、自動二輪車の周辺の気象情報と物体検出情報と位置情報とが取得可能である。また、周辺情報は、センサデータの取得時刻に対応して録音された音声データ(音声情報)から取得してもよい。さらに、周辺情報は、センサデータの取得時刻に対応して取得された、自動二輪車の現在位置の位置情報から取得してもよい。 In the present embodiment, the peripheral information is acquired from the video data of the periphery of the motorcycle, which is captured corresponding to the acquisition time of the sensor data. For example, by performing image processing on video data, it is possible to acquire weather information, object detection information, and position information around the motorcycle. Further, the peripheral information may be acquired from the voice data (voice information) recorded corresponding to the acquisition time of the sensor data. Further, the peripheral information may be acquired from the position information of the current position of the motorcycle, which is acquired corresponding to the acquisition time of the sensor data.

図3を用いて、教師データである、センサデータと周辺情報とについて説明する。図3は、複数の異常監視装置から取得したセンサデータと周辺情報との一例を説明する図である。例えば、ユーザAから取得したセンサデータであるデータAに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Aと映像データAと音声データAとが記憶されている。位置情報Aと、サーバ装置10が外部から取得した気象情報とから、自動二輪車の駐輪位置の周辺地域では、強い雨が降っていたことがわかる。また、映像データAに画像処理を行うことによって、自動二輪車の周辺は強い雨が降っていたことがわかる。さらに、音声データAに大きな雨音が録音されていれば、自動二輪車の周辺は強い雨が降っていたことがわかる。 The sensor data and peripheral information, which are teacher data, will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of sensor data and peripheral information acquired from a plurality of abnormality monitoring devices. For example, in association with data A, which is sensor data acquired from user A, the sensor data acquisition time, whether or not it was a false detection, and peripheral information corresponding to the sensor data acquisition time include position information A and video data A. The voice data A is stored. From the position information A and the weather information acquired from the outside by the server device 10, it can be seen that it was raining heavily in the area around the motorcycle parking position. Further, by performing image processing on the video data A, it can be seen that heavy rain has fallen around the motorcycle. Further, if a loud rain sound is recorded in the voice data A, it can be seen that heavy rain has fallen around the motorcycle.

例えば、ユーザBから取得したセンサデータであるデータBに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Bと映像データBと音声データBとが記憶されている。映像データBに画像処理を行うことによって、自動二輪車の周辺では物体が存在していたことがわかる。 For example, in association with data B, which is sensor data acquired from user B, the sensor data acquisition time, whether or not it was a false detection, and peripheral information corresponding to the sensor data acquisition time include position information B and video data B. The voice data B is stored. By performing image processing on the video data B, it can be seen that an object existed around the motorcycle.

例えば、ユーザCから取得したセンサデータであるデータCに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Cと映像データCと音声データCとが記憶されている。映像データCに画像処理を行うことによって、自動二輪車の周辺は人物が存在していたことがわかる。さらに、音声データCに人物の話し声が録音されていれば、自動二輪車の周辺は人物が存在していたことがわかる。 For example, in association with the data C which is the sensor data acquired from the user C, the sensor data acquisition time, whether or not it was a false detection, and the peripheral information corresponding to the sensor data acquisition time include the position information C and the video data C. The voice data C is stored. By performing image processing on the video data C, it can be seen that a person existed around the motorcycle. Further, if the voice of the person is recorded in the voice data C, it can be seen that the person exists around the motorcycle.

例えば、ユーザDから取得したセンサデータであるデータDに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Dと映像データDと音声データDとが記憶されている。位置情報Dと自動二輪車の周辺の警察車両または救急車両の出動情報とから、緊急車両が出動した時間に、自動二輪車が消防署の近くに駐輪していたことがわかる。また、映像データDに画像処理を行うことによって、自動二輪車の周辺で赤色灯が点灯した緊急車両が走行していたことがわかる。さらに、音声データDにサイレン音が録音されていれば、自動二輪車の周辺でサイレン音が鳴っていたことがわかる。 For example, in association with the data D which is the sensor data acquired from the user D, the sensor data acquisition time, whether or not it was a false detection, and the position information D and the video data D as peripheral information corresponding to the sensor data acquisition time. The audio data D is stored. From the position information D and the dispatch information of the police vehicle or ambulance vehicle around the motorcycle, it can be seen that the motorcycle was parked near the fire station at the time when the emergency vehicle was dispatched. Further, by performing image processing on the video data D, it can be seen that an emergency vehicle in which the red light is lit is running around the motorcycle. Further, if the siren sound is recorded in the voice data D, it can be seen that the siren sound is sounding around the motorcycle.

制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御部20は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。制御部20は、通信制御部21と、データ取得部22と、学習部23と、判定部24と、記憶制御部25とを有する。 The control unit 20 is, for example, an arithmetic processing unit (control device) composed of a CPU (Central Processing Unit) or the like. The control unit 20 loads the stored program into the memory and executes the instructions included in the program. The control unit 20 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 20 and the like. The control unit 20 includes a communication control unit 21, a data acquisition unit 22, a learning unit 23, a determination unit 24, and a memory control unit 25.

通信制御部21は、通信部11を介して、複数の異常監視装置30との通信を制御する。通信制御部21は、常時、異常監視装置30との通信状態を監視する。 The communication control unit 21 controls communication with the plurality of abnormality monitoring devices 30 via the communication unit 11. The communication control unit 21 constantly monitors the communication status with the abnormality monitoring device 30.

データ取得部22は、複数の異常監視装置30からセンサデータと周辺情報とを取得する。データ取得部22は、取得したセンサデータと周辺情報とを記憶制御部25に出力する。 The data acquisition unit 22 acquires sensor data and peripheral information from a plurality of abnormality monitoring devices 30. The data acquisition unit 22 outputs the acquired sensor data and peripheral information to the storage control unit 25.

学習部23は、センサデータと周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する。学習部23は、教師データであるセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNの重みを学習する。DNNの構成と重みとをDNNモデルと呼ぶ。学習部23における学習は、公知のディープラーニングにおける学習と同様の方法で実行すればよい。 The learning unit 23 learns by artificial intelligence based on the sensor data and peripheral information, and generates a learned model for determining a security abnormality and a false detection. The learning unit 23 learns the weight of DNN as a learned model for determining a security abnormality and a false detection by using sensor data which is teacher data and peripheral information. The structure and weight of the DNN are called the DNN model. The learning in the learning unit 23 may be executed in the same manner as the learning in the known deep learning.

例えば、学習部23は、「セキュリティの異常」である場合のセンサデータと周辺情報とをDNNに入力してディープラーニングを実行する。そして、「セキュリティの異常」であると正しい判定結果が出力されるか、「誤検出」であると誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。また、学習部23は、「誤検出」である場合のセンサデータと周辺情報とをDNNに入力してディープラーニングを実行する。そして、「誤検出」であると正しい判定結果が出力されるか、「セキュリティの異常」であると誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。このような処理を繰り返し行うことによって、学習の結果として学習済みの重みを求める。学習部23は、DNNの重みを含むDNNモデルを記憶部12へ出力する。 For example, the learning unit 23 inputs the sensor data in the case of “security abnormality” and peripheral information into the DNN and executes deep learning. Then, the weight during learning is updated based on whether a correct determination result is output if it is a "security abnormality" or an erroneous determination result is output if it is a "false positive". In addition, the learning unit 23 inputs the sensor data and peripheral information in the case of "false positive" to the DNN to execute deep learning. Then, the weight during learning is updated based on whether a correct determination result is output if it is "erroneous detection" or an erroneous determination result is output if it is "security abnormality". By repeating such processing, the learned weight is obtained as a result of learning. The learning unit 23 outputs a DNN model including the weight of the DNN to the storage unit 12.

例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから強い雨を認識した期間、位置情報と気象情報とから自動二輪車の駐輪位置の周辺地域では強い雨が降っていたと判定される期間、または、音声データに大きな雨音が録音されていた期間とが一致または近接しているデータが蓄積されている場合、強い雨を原因とする誤検出を学習可能である。また、強い雨による振動を誤検出しないように、気象情報に応じたセキュリティ異常を学習可能である。 For example, the learning unit 23 is strong in the area around the bicycle parking position of the motorcycle based on the period when the sensor data exceeds the threshold value, the period when heavy rain is recognized from the video data which is the surrounding information, and the position information and the weather information. Learn false positives due to heavy rain when data is accumulated that matches or is close to the period when it is determined that it was raining, or the period when a loud rain sound was recorded in the audio data. It is possible. In addition, it is possible to learn security abnormalities according to weather information so as not to erroneously detect vibrations caused by heavy rain.

例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから強風を認識した期間とが一致または近接しているデータが蓄積されている場合、強風を原因とする誤検出を学習可能である。また、強風による振動を誤検出しないように、気象情報に応じたセキュリティ異常を学習可能である。 For example, when the learning unit 23 accumulates data in which the period when the sensor data becomes equal to or higher than the threshold value and the period when the strong wind is recognized from the video data which is the peripheral information are coincident or close to each other, the cause is the strong wind. It is possible to learn false positives. In addition, it is possible to learn security abnormalities according to weather information so as not to erroneously detect vibrations caused by strong winds.

例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから自動二輪車の近くを通過する物体を認識した期間とが一致または近接しているデータが蓄積されている場合、物体の通過を原因とする誤検出を学習可能である。また、物体の通過による振動を誤検出しないように、物体検出情報に応じたセキュリティ異常を学習可能である。 For example, the learning unit 23 accumulates data in which the period when the sensor data exceeds the threshold value and the period when the object passing near the motorcycle is recognized from the video data which is the peripheral information coincide with or are close to each other. If so, it is possible to learn false positives caused by the passage of objects. In addition, it is possible to learn security abnormalities according to the object detection information so that vibration due to the passage of the object is not erroneously detected.

例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから自動二輪車の近くを通過する人物を認識した期間、または、音声データCに人物の話し声が録音されていた期間とが一致または近接しているデータが蓄積されている場合、人物の通過を原因とする誤検出を学習可能である。また、人物の通過による振動を誤検出しないように、物体検出情報、および、人物の話し声を示す音声情報に応じたセキュリティ異常を学習可能である。 For example, the learning unit 23 records a period in which the sensor data exceeds the threshold value, a period in which a person passing near the motorcycle is recognized from the video data which is peripheral information, or a voice of the person is recorded in the voice data C. When data that matches or is close to the period in which it was used is accumulated, it is possible to learn false positives caused by the passage of a person. In addition, it is possible to learn security abnormalities according to the object detection information and the voice information indicating the voice of the person so as not to erroneously detect the vibration caused by the passage of the person.

例えば、学習部23は、センサデータが閾値以上になった期間と、位置情報Dと自動二輪車の周辺の警察車両または救急車両の出動情報とから緊急車両が出動したと判定される期間、周辺情報である映像データから緊急車両を検出した期間、または、音声データにサイレン音が録音されていた期間とが一致または近接しているデータが蓄積されている場合、サイレン音が原因の誤検出を学習可能である。また、サイレン音による振動を誤検出しないように、サイレン音を示す音声情報、駐輪位置を示す位置情報、および、緊急車両の出動情報に応じたセキュリティ異常を学習可能である。 For example, the learning unit 23 has a period in which the sensor data exceeds the threshold value, a period in which the emergency vehicle is determined to be dispatched from the position information D and the dispatch information of the police vehicle or the ambulance vehicle around the motorcycle, and the peripheral information. When the period when an emergency vehicle is detected from the video data, or the data that matches or is close to the period when the siren sound was recorded in the audio data is accumulated, the false detection caused by the siren sound is learned. It is possible. In addition, it is possible to learn the voice information indicating the siren sound, the position information indicating the bicycle parking position, and the security abnormality according to the dispatch information of the emergency vehicle so as not to erroneously detect the vibration due to the siren sound.

例えば、学習部23は、周辺情報から自動二輪車の駐輪位置が騒音による振動の大きい幹線道路沿いまたは高架下であるデータが蓄積されている場合、騒音が原因の誤検出を学習可能である。また、騒音による振動を誤検出しないように、駐輪位置に応じたセキュリティ異常を学習可能である。 For example, the learning unit 23 can learn erroneous detection due to noise when data is accumulated from the surrounding information that the parking position of the motorcycle is along a highway or under an overpass where vibration is large due to noise. In addition, it is possible to learn security abnormalities according to the bicycle parking position so as not to erroneously detect vibration due to noise.

例えば、学習部23は、周辺情報から自動二輪車の周辺で花火大会のような騒音による振動の大きいイベントが開催されている日時のデータが蓄積されている場合、イベントの騒音が原因の誤検出を学習可能である。また、イベントの騒音による振動を誤検出しないように、イベントの開催日時に応じたセキュリティ異常を学習可能である。 For example, when the learning unit 23 accumulates data on the date and time when an event with a large vibration due to noise such as a fireworks display is held around the motorcycle from the surrounding information, the learning unit 23 falsely detects the cause of the noise of the event. It is possible to learn. In addition, it is possible to learn security abnormalities according to the date and time of the event so as not to erroneously detect vibration due to the noise of the event.

学習部23は、センサデータと周辺情報と操作制御部53が取得した判断情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成してもよい。例えば、学習部23は、センサデータが閾値以上であっても、ユーザが誤検出であると判断したことを示す操作情報が蓄積されている場合、誤検出を学習可能である。 The learning unit 23 learns by artificial intelligence based on the sensor data, peripheral information, and the judgment information acquired by the operation control unit 53, and generates a learned model for determining a security abnormality and a false detection. May be good. For example, even if the sensor data is equal to or greater than the threshold value, the learning unit 23 can learn the erroneous detection when the operation information indicating that the user has determined that the erroneous detection is accumulated is accumulated.

学習部23は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新して記憶部12へ出力する。 The learning unit 23 updates the DNN model and outputs it to the storage unit 12 every time data is acquired from the data acquisition unit 22, at a predetermined period, or at a desired timing.

学習部23は、生成したDNNモデルに応じて、異常監視装置30のセンサ判定部49の処理で使用するセンサデータの適切な閾値を取得する。取得した適切な閾値は、異常監視装置30へ送信される。 The learning unit 23 acquires an appropriate threshold value of the sensor data used in the processing of the sensor determination unit 49 of the abnormality monitoring device 30 according to the generated DNN model. The acquired appropriate threshold value is transmitted to the abnormality monitoring device 30.

判定部24について説明する。判定部24は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。より詳しくは、判定部24は、記憶部12から学習されたDNNモデルを読み出してDNNを再現し、判定用のセンサデータと周辺情報とがセキュリティの異常であるか誤検出であるかを判定する。判定部24における判定は、公知のディープラーニングにおける判定と同様の方法で実行すればよい。 The determination unit 24 will be described. When the determination unit 24 acquires the sensor data for determination and the peripheral information from the abnormality monitoring device 30, the determination unit 24 uses DNN to determine whether the security is abnormal or erroneous detection. More specifically, the determination unit 24 reads the DNN model learned from the storage unit 12 to reproduce the DNN, and determines whether the sensor data for determination and the peripheral information are security abnormalities or false positives. .. The determination in the determination unit 24 may be executed by the same method as the determination in the known deep learning.

記憶制御部25は、データ取得部22が取得したセンサデータと周辺情報とを、記憶部12に異常監視システム1で使用する教師データとして記憶させる。記憶制御部25は、データ取得部22がデータを取得すると記憶部12に記憶させた教師データを更新する。記憶制御部25は、学習部23がDNNモデルを生成または更新するごとに、記憶部12に記憶させたDNNモデルを更新する。 The storage control unit 25 stores the sensor data acquired by the data acquisition unit 22 and peripheral information in the storage unit 12 as teacher data to be used in the abnormality monitoring system 1. When the data acquisition unit 22 acquires the data, the storage control unit 25 updates the teacher data stored in the storage unit 12. The storage control unit 25 updates the DNN model stored in the storage unit 12 every time the learning unit 23 generates or updates the DNN model.

異常監視装置30は、例えば、自動二輪車に配置されている。本実施形態では、異常監視装置30は、自動二輪車用のドライブレコーダとセキュリティ機器との機能を有する一体の装置として説明する。異常監視装置30は、通信部31と、GPS受信部32と、カメラ33と、マイクロフォン34と、加速度センサ35と、スピーカ36と、操作部37と、記憶部39と、制御部40とを含む。 The abnormality monitoring device 30 is arranged, for example, in a motorcycle. In the present embodiment, the abnormality monitoring device 30 will be described as an integrated device having a function of a drive recorder for a motorcycle and a security device. The abnormality monitoring device 30 includes a communication unit 31, a GPS receiving unit 32, a camera 33, a microphone 34, an acceleration sensor 35, a speaker 36, an operation unit 37, a storage unit 39, and a control unit 40. ..

異常監視装置30は、自動二輪車の駐輪中、セキュリティの異常を監視する。異常監視装置30は、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常を判定させる。異常監視装置30は、セキュリティの異常があると判定された場合、警報音声を出力したり、ユーザに通知したりする。センサは、例えば、加速度センサ、人感センサ、温度センサ、圧力センサなどを含む。本実施形態では、加速度センサを使用する場合について説明するが、センサはこれに限定されず、他のセンサでもよいし、複数種類のセンサが配置されていてもよい。 The abnormality monitoring device 30 monitors a security abnormality while the motorcycle is parked. The abnormality monitoring device 30 determines a security abnormality that has occurred in the motorcycle by the server device 10 based on the sensor data detected by the sensor arranged on the motorcycle and the video data obtained by the camera 33 taking a picture of the surroundings. Let me. When it is determined that there is a security abnormality, the abnormality monitoring device 30 outputs an alarm voice or notifies the user. Sensors include, for example, acceleration sensors, motion sensors, temperature sensors, pressure sensors and the like. In the present embodiment, the case where the acceleration sensor is used will be described, but the sensor is not limited to this, and other sensors may be used, or a plurality of types of sensors may be arranged.

通信部31は、通信ユニットである。通信部31は、サーバ装置10との通信を可能にする。本実施形態では、通信部31は、異常監視システム1が正常に動作している場合、常時、サーバ装置10と通信可能である。 The communication unit 31 is a communication unit. The communication unit 31 enables communication with the server device 10. In the present embodiment, the communication unit 31 can always communicate with the server device 10 when the abnormality monitoring system 1 is operating normally.

GPS受信部32は、図示しないGPS衛星から電波を受信する。GPS受信部32は、受信した電波の信号を制御部40の位置情報取得部43へ出力する。 The GPS receiving unit 32 receives radio waves from GPS satellites (not shown). The GPS receiving unit 32 outputs the signal of the received radio wave to the position information acquisition unit 43 of the control unit 40.

カメラ33は、自動二輪車の周辺の映像データを撮影するカメラである。カメラ33は、1台であってもよいし、複数台であってもよい。カメラ33は、自動二輪車のエンジンがONされている間は、ドライブレコーダのカメラとして機能する。本実施形態では、カメラ33は、自動二輪車の駐輪中、加速度センサ35が所定の閾値以上の加速度を検出すると撮影を開始して、例えば、数10秒程度の所定期間の映像データを保存可能である。カメラ33は、撮影した映像データを制御部40の映像データ取得部44へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。カメラ33は、制御部40のセンサ判定部49の判定結果に基づいて、撮影を開始して、撮影した映像データを映像データ取得部44へ出力する。 The camera 33 is a camera that captures video data around the motorcycle. The number of cameras 33 may be one or a plurality. The camera 33 functions as a drive recorder camera while the motorcycle engine is on. In the present embodiment, the camera 33 starts shooting when the acceleration sensor 35 detects an acceleration equal to or higher than a predetermined threshold value while the motorcycle is parked, and can store video data for a predetermined period of, for example, about several tens of seconds. Is. The camera 33 outputs the captured video data to the video data acquisition unit 44 of the control unit 40. The video data is, for example, a moving image composed of an image of 30 frames per second. The camera 33 starts shooting based on the determination result of the sensor determination unit 49 of the control unit 40, and outputs the captured video data to the video data acquisition unit 44.

マイクロフォン34は、自動二輪車の周辺の音声データを取得するマイクロフォンである。マイクロフォン34は、1台であってもよいし、複数台であってもよい。マイクロフォン34は、取得した音声データを制御部40の音声データ取得部45へ出力する。 The microphone 34 is a microphone that acquires voice data around a motorcycle. The number of microphones 34 may be one or a plurality. The microphone 34 outputs the acquired voice data to the voice data acquisition unit 45 of the control unit 40.

加速度センサ35は、自動二輪車に対して生じる加速度を検出するセンサである。加速度センサ35は、例えば、自動二輪車に対するいたずらなどによる衝撃が加えられたこと、または、自動二輪車を倒されたり移動されたりすることによって姿勢が変化したことを、加速度によって検出する。加速度センサ35は、検出結果であるセンサデータを制御部40のセンサデータ取得部48に出力する。加速度センサ35は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、自動二輪車の前後方向、左右方向、および上下方向である。 The acceleration sensor 35 is a sensor that detects the acceleration generated on the motorcycle. The acceleration sensor 35 detects by acceleration that, for example, an impact due to mischief on the motorcycle has been applied, or that the posture has changed due to the motorcycle being knocked down or moved. The acceleration sensor 35 outputs the sensor data, which is the detection result, to the sensor data acquisition unit 48 of the control unit 40. The acceleration sensor 35 is, for example, a sensor that detects acceleration in three axial directions. The three-axis directions are the front-rear direction, the left-right direction, and the up-down direction of the motorcycle.

スピーカ36は、音声出力装置である。スピーカ36は、出力制御部52から出力された音声信号に基づき、警告の音声を出力する。 The speaker 36 is an audio output device. The speaker 36 outputs a warning voice based on the voice signal output from the output control unit 52.

操作部37は、異常監視装置30に対する各種操作を受付可能である。例えば、操作部37は、警報音声が出力された際に、警報音声の出力を停止する機能を有する。例えば、操作部37は、警報音声が出力された際などに、ユーザが誤検出を判断した操作を受け付ける。操作部37は、操作情報を制御部40の操作制御部(ユーザ判断情報取得部)53に出力する。操作部37は、異常監視装置30に配置されていてもよいし、自動二輪車の車体のいずれかに配置されていてもよいし、ユーザが使用している電子機器の操作部であってもよい。 The operation unit 37 can accept various operations on the abnormality monitoring device 30. For example, the operation unit 37 has a function of stopping the output of the alarm sound when the alarm sound is output. For example, the operation unit 37 accepts an operation in which the user determines a false detection, such as when an alarm voice is output. The operation unit 37 outputs the operation information to the operation control unit (user judgment information acquisition unit) 53 of the control unit 40. The operation unit 37 may be arranged in the abnormality monitoring device 30, may be arranged in any of the vehicle bodies of the motorcycle, or may be an operation unit of the electronic device used by the user. ..

記憶部39は、異常監視装置30におけるデータの一時記憶などに用いられる。記憶部39は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、メモリカードなどの記憶部である。または、通信部31を介して無線接続される外部記憶部であってもよい。記憶部39は、制御部40の映像記憶制御部46から出力された制御信号に基づいて、映像データを記録する。 The storage unit 39 is used for temporary storage of data in the abnormality monitoring device 30 and the like. The storage unit 39 is, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage unit such as a memory card. Alternatively, it may be an external storage unit that is wirelessly connected via the communication unit 31. The storage unit 39 records video data based on the control signal output from the video storage control unit 46 of the control unit 40.

制御部40は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部40は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には図示しない内部メモリが含まれ、内部メモリは制御部40におけるデータの一時記憶などに用いられる。 The control unit 40 is, for example, an arithmetic processing unit (control device) composed of a CPU or the like. The control unit 40 loads the stored program into the memory and executes the instructions included in the program. The control unit 40 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 40 and the like.

制御部40は、異常監視装置30の各機能、具体的には、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37と、制御部40との接続状態を常時監視する切断監視処理を実行する。例えば、第三者が意図的に異常監視装置30を破壊した場合、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37と、制御部40との接続が切断される可能性が高い。制御部40は、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37との少なくともいずれかの配線が切断されるなどして接続が切断されたことを検出した場合、直ちに、警報音声の出力と、ユーザへの通知とを実行する。 The control unit 40 includes each function of the abnormality monitoring device 30, specifically, a communication unit 31, a GPS reception unit 32, a camera 33, an acceleration sensor 35, a storage unit 39, a speaker 36, an operation unit 37, and a control unit 40. Executes a disconnection monitoring process that constantly monitors the connection status of. For example, when a third party intentionally destroys the abnormality monitoring device 30, the communication unit 31, the GPS receiving unit 32, the camera 33, the acceleration sensor 35, the storage unit 39, the speaker 36, the operating unit 37, and the control unit 40 Is likely to be disconnected. The control unit 40 is disconnected by disconnecting at least one of the wiring of the communication unit 31, the GPS receiving unit 32, the camera 33, the acceleration sensor 35, the storage unit 39, the speaker 36, and the operation unit 37. When it is detected, the alarm sound is output and the user is notified immediately.

制御部40は、通信制御部41と、位置情報取得部43と映像データ取得部44と音声データ取得部45とを含む周辺情報取得部42と、映像記憶制御部46と、駐輪検出部47と、センサデータ取得部48と、センサ判定部49と、判定結果取得部51と、出力制御部52と、操作制御部53とを有する。 The control unit 40 includes a communication control unit 41, a peripheral information acquisition unit 42 including a position information acquisition unit 43, a video data acquisition unit 44, and an audio data acquisition unit 45, a video storage control unit 46, and a bicycle parking detection unit 47. A sensor data acquisition unit 48, a sensor determination unit 49, a determination result acquisition unit 51, an output control unit 52, and an operation control unit 53.

通信制御部41は、通信部31を介して、サーバ装置10との通信を制御する。本実施形態では、通信制御部41は、センサデータ取得部48が取得したセンサデータと、位置情報取得部43が取得した位置情報と、映像データ取得部44が取得した映像データと、音声データ取得部45が取得した音声データとをサーバ装置10へ送信するよう制御する。通信制御部41は、常時、サーバ装置10との通信状態を監視する。 The communication control unit 41 controls communication with the server device 10 via the communication unit 31. In the present embodiment, the communication control unit 41 acquires sensor data acquired by the sensor data acquisition unit 48, position information acquired by the position information acquisition unit 43, video data acquired by the video data acquisition unit 44, and audio data. The voice data acquired by the unit 45 is controlled to be transmitted to the server device 10. The communication control unit 41 constantly monitors the communication status with the server device 10.

周辺情報取得部42は、位置情報取得部43と映像データ取得部44と音声データ取得部45とによって、自動二輪車の周辺の状態を示す周辺情報を取得する。 The peripheral information acquisition unit 42 acquires peripheral information indicating the surrounding state of the motorcycle by the position information acquisition unit 43, the video data acquisition unit 44, and the audio data acquisition unit 45.

位置情報取得部43は、GPS受信部32が受信した電波に基づいて、自動二輪車の現在の位置情報を公知の方法によって算出する。本実施形態では、位置情報取得部43が取得した位置情報は、周辺情報に含まれる。 The position information acquisition unit 43 calculates the current position information of the motorcycle based on the radio waves received by the GPS reception unit 32 by a known method. In the present embodiment, the position information acquired by the position information acquisition unit 43 is included in the peripheral information.

映像データ取得部44は、自動二輪車の周辺を撮影した映像データを取得する。より詳しくは、映像データ取得部44は、自動二輪車に配置されたカメラ33が出力した、自動二輪車の周辺の映像データを取得して、映像記憶制御部46に出力する。映像データは、周辺情報に含まれる。 The video data acquisition unit 44 acquires video data obtained by photographing the periphery of the motorcycle. More specifically, the video data acquisition unit 44 acquires the video data around the motorcycle output by the camera 33 arranged on the motorcycle and outputs it to the video storage control unit 46. The video data is included in the peripheral information.

音声データ取得部45は、自動二輪車の周辺の音声を録音した音声データを取得する。より詳しくは、音声データ取得部45は、自動二輪車に配置されたマイクロフォン34が出力した、自動二輪車の周辺の音声データを取得する。音声データは、周辺情報に含まれる。 The voice data acquisition unit 45 acquires voice data obtained by recording the voice around the motorcycle. More specifically, the voice data acquisition unit 45 acquires voice data around the motorcycle, which is output by the microphone 34 arranged on the motorcycle. Audio data is included in the peripheral information.

映像記憶制御部46は、撮影した映像データを、例えばH.264やMPEG−4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。ファイルとして生成される映像データの期間は、一例として60秒であるが、これには限定されない。また、映像データは、カメラ33が撮影した映像に加えて音声が含まれたデータであってもよい。映像記憶制御部46は、ファイル化された映像データを、記憶部39に記録させる制御を行う。 The video storage control unit 46 uses, for example, H.A. It converts to any file format encoded by any type of codec such as 264 or MPEG-4 (Moving Picture Experts Group), for example, MP4 format. The period of the video data generated as a file is, for example, 60 seconds, but is not limited to this. Further, the video data may be data including audio in addition to the video captured by the camera 33. The video storage control unit 46 controls the storage unit 39 to record the filed video data.

駐輪検出部47は、自動二輪車から取得する情報に基づいて、自動二輪車が駐輪状態にあること、言い換えると、セキュリティの異常を監視する監視処理を開始する状態になったことを検出する。 Based on the information acquired from the motorcycle, the bicycle parking detection unit 47 detects that the motorcycle is in the parked state, in other words, is in the state of starting the monitoring process for monitoring the security abnormality.

自動二輪車が駐輪状態であるとは、例えば5秒以上の時間、速度がゼロとなったこと、エンジン停止などの状態である。または、ユーザ操作など任意のトリガが発生したとき、自動二輪車が駐輪状態であると判断してもよい。 The state in which the motorcycle is parked means, for example, a state in which the speed becomes zero for a time of 5 seconds or more, the engine is stopped, or the like. Alternatively, when an arbitrary trigger such as a user operation occurs, it may be determined that the motorcycle is in the parked state.

センサデータ取得部48は、自動二輪車のセキュリティの異常を検出するセンサからセンサデータを取得する。本実施形態では、センサデータ取得部48は、加速度センサ35のセンサデータを取得する。センサデータ取得部48は、取得したセンサデータをセンサ判定部49へ出力する。 The sensor data acquisition unit 48 acquires sensor data from a sensor that detects an abnormality in the security of a motorcycle. In the present embodiment, the sensor data acquisition unit 48 acquires the sensor data of the acceleration sensor 35. The sensor data acquisition unit 48 outputs the acquired sensor data to the sensor determination unit 49.

センサ判定部49は、加速度センサ35のセンサデータに基づいて、自動二輪車に対するいたずらなどによる衝撃、または、自動二輪車を倒されたり移動されたりすることによる姿勢の変化の有無を判定する。より詳しくは、センサ判定部49は、加速度センサ35によって閾値以上の加速度が検出されたか否かを検出する。閾値は、自動二輪車に対するいたずらなどによる衝撃が加えられた場合、または、自動二輪車の姿勢が変化した場合に、検出され得る加速度の値である。センサ判定部49は、閾値以上の加速度を検出したと判定する場合、いたずらなどによる衝撃または姿勢の変化があったと判定する。センサ判定部49は、閾値以上の加速度を検出したと判定しない場合、いたずらなどによる衝撃および姿勢の変化はないと判定する。 Based on the sensor data of the acceleration sensor 35, the sensor determination unit 49 determines whether or not there is an impact due to mischief on the motorcycle or a change in posture due to the motorcycle being knocked down or moved. More specifically, the sensor determination unit 49 detects whether or not the acceleration sensor 35 has detected an acceleration equal to or greater than the threshold value. The threshold value is a value of acceleration that can be detected when an impact such as mischief is applied to the motorcycle or when the posture of the motorcycle changes. When the sensor determination unit 49 determines that the acceleration equal to or higher than the threshold value is detected, it determines that the impact or the posture has changed due to mischief or the like. When the sensor determination unit 49 does not determine that the acceleration equal to or higher than the threshold value is detected, it determines that there is no impact or change in posture due to mischief or the like.

センサ判定部49において使用される閾値は、サーバ装置10においてDNNモデルが更新されるごとに更新される。 The threshold value used in the sensor determination unit 49 is updated every time the DNN model is updated in the server device 10.

判定結果取得部51は、センサ判定部49の判定結果に応じて、サーバ装置10によってセキュリティの異常の有無を判定させて判定結果を取得する。より詳しくは、判定結果取得部51は、センサ判定部49がいたずらなどによる衝撃または姿勢の変化があったと判定する場合、通信制御部41を介して判定用のセンサデータと周辺情報とをサーバ装置10へ送信して、セキュリティの異常の有無を判定させる。判定結果取得部51は、サーバ装置10から判定結果を取得する。 The determination result acquisition unit 51 acquires the determination result by having the server device 10 determine the presence or absence of a security abnormality according to the determination result of the sensor determination unit 49. More specifically, when the determination result acquisition unit 51 determines that the sensor determination unit 49 has an impact or a change in posture due to mischief or the like, the determination result acquisition unit 51 transmits the determination sensor data and peripheral information to the server device via the communication control unit 41. It is transmitted to 10 to determine whether or not there is a security abnormality. The determination result acquisition unit 51 acquires the determination result from the server device 10.

出力制御部52は、判定結果取得部51が取得した判定結果に基づいて、警報音声の出力を制御する。より詳しくは、出力制御部52は、判定結果が誤検出ではなくセキュリティの異常であることを示す場合、スピーカ36から警報音声を出力するように音声信号を出力する。 The output control unit 52 controls the output of the alarm sound based on the determination result acquired by the determination result acquisition unit 51. More specifically, when the determination result indicates that the determination result is not a false detection but a security abnormality, the output control unit 52 outputs a voice signal so as to output an alarm sound from the speaker 36.

また、出力制御部52は、異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、スピーカ36から警報音声を出力するように音声信号を出力する。さらに、出力制御部52は、異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、ユーザが使用している電子機器などに対して通知を出力するように制御信号を出力する。 Further, when it is determined that the connection between each function of the abnormality monitoring device 30 and the control unit 40 is disconnected, the output control unit 52 outputs a voice signal so as to output an alarm sound from the speaker 36. Further, the output control unit 52 controls to output a notification to the electronic device or the like used by the user when it is determined that the connection between each function of the abnormality monitoring device 30 and the control unit 40 is disconnected. Output a signal.

操作制御部53は、操作部37が受け付けた操作の操作情報を取得する。例えば、操作制御部53は、警報音声が出力された際に、警報音声の出力を停止する操作を示す警報停止操作情報を取得する。例えば、操作制御部53は、警報音声が出力された際などに、ユーザが誤検出と判断した場合には、ユーザが誤検出を判断した操作を示す判断情報を取得する。 The operation control unit 53 acquires the operation information of the operation received by the operation unit 37. For example, the operation control unit 53 acquires the alarm stop operation information indicating the operation of stopping the output of the alarm sound when the alarm sound is output. For example, when the user determines that the erroneous detection is made when the alarm voice is output, the operation control unit 53 acquires the determination information indicating the operation for which the user has determined the erroneous detection.

次に、図4ないし図10を用いて、異常監視システムの異常診断方法及び作用について説明する。図4は、第一実施形態に係るサーバ装置における学習処理の流れを示すフローチャートである。図5は、第一実施形態に係る異常監視装置における切断監視処理の流れを示すフローチャートである。図6は、第一実施形態に係る異常監視装置における監視処理の流れを示すフローチャートである。図7は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図8は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図9は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図10は、第一実施形態に係るサーバ装置における判定処理の流れを示すフローチャートである。 Next, the abnormality diagnosis method and operation of the abnormality monitoring system will be described with reference to FIGS. 4 to 10. FIG. 4 is a flowchart showing a flow of learning processing in the server device according to the first embodiment. FIG. 5 is a flowchart showing a flow of disconnection monitoring processing in the abnormality monitoring device according to the first embodiment. FIG. 6 is a flowchart showing a flow of monitoring processing in the abnormality monitoring device according to the first embodiment. FIG. 7 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 8 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 9 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 10 is a flowchart showing a flow of determination processing in the server device according to the first embodiment.

図4を用いて、サーバ装置10における学習処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、複数の異常監視装置30からセンサデータと周辺情報とを取得する(ステップS101)。制御部20は、記憶制御部25によって、取得したセンサデータと周辺情報とを記憶部12に記憶させる。制御部20は、ステップS102へ進む。 The learning process in the server device 10 will be described with reference to FIG. In the server device 10, the control unit 20 acquires sensor data and peripheral information from the plurality of abnormality monitoring devices 30 by the data acquisition unit 22 (step S101). The control unit 20 stores the acquired sensor data and peripheral information in the storage unit 12 by the storage control unit 25. The control unit 20 proceeds to step S102.

制御部20は、学習部23によって、記憶部12に記憶された、複数の異常監視装置30のセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNの重みを人工知能によって学習する(ステップS102)。制御部20は、ステップS103へ進む。 The control unit 20 uses the sensor data and peripheral information of the plurality of abnormality monitoring devices 30 stored in the storage unit 12 by the learning unit 23 as a DNN as a learned model for determining a security abnormality and a false detection. The weight of is learned by artificial intelligence (step S102). The control unit 20 proceeds to step S103.

制御部20は、記憶制御部25によって、生成した学習済みモデルを記憶部12に保存する(ステップS103)。制御部20は、処理を終了する。 The control unit 20 stores the learned model generated by the storage control unit 25 in the storage unit 12 (step S103). The control unit 20 ends the process.

このようにして、異常監視システム1の異常監視装置30における処理が実行される前に、サーバ装置10において、あらかじめ学習済みモデルが生成されている。サーバ装置10は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新する。 In this way, the trained model is generated in advance in the server device 10 before the processing in the abnormality monitoring device 30 of the abnormality monitoring system 1 is executed. The server device 10 updates the DNN model every time data is acquired from the data acquisition unit 22, at a predetermined period, or at a desired timing.

図5を用いて、異常監視装置30における切断監視処理について説明する。異常監視装置30において、制御部40は、異常監視装置30の各機能と制御部40との接続が切断されたか否かを判定する(ステップS201)。通信制御部41によって、接続が切断されたと判定する場合(ステップS201でYes)、ステップS202へ進む。異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、異常監視装置30が第三者によって意図的に破壊された可能性が高いので、直ちに警報音声の出力と、ユーザへ通知することが好ましい。通信制御部41によって、異常監視装置30の各機能と制御部40との接続が切断されたと判定しない場合(ステップS201でNo)、ステップS201の処理を再度実行する。 The disconnection monitoring process in the abnormality monitoring device 30 will be described with reference to FIG. In the abnormality monitoring device 30, the control unit 40 determines whether or not the connection between each function of the abnormality monitoring device 30 and the control unit 40 is disconnected (step S201). When the communication control unit 41 determines that the connection has been disconnected (Yes in step S201), the process proceeds to step S202. When it is determined that the connection between each function of the abnormality monitoring device 30 and the control unit 40 is disconnected, it is highly possible that the abnormality monitoring device 30 has been intentionally destroyed by a third party, so an alarm sound is output immediately. , It is preferable to notify the user. If the communication control unit 41 does not determine that the connection between each function of the abnormality monitoring device 30 and the control unit 40 has been disconnected (No in step S201), the process of step S201 is executed again.

接続が切断されたと判定する場合(ステップS201でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声を出力するように音声信号を出力する(ステップS202)。制御部40は、ステップS203へ進む。 When it is determined that the connection is disconnected (Yes in step S201), the control unit 40 outputs a voice signal by the output control unit 52 so as to output an alarm sound from the speaker 36 (step S202). The control unit 40 proceeds to step S203.

制御部40は、出力制御部52によって、ユーザが使用している電子機器などに対して通知を出力するように制御信号を出力する(ステップS203)。制御部40は、ステップS204へ進む。 The control unit 40 outputs a control signal by the output control unit 52 so as to output a notification to an electronic device or the like used by the user (step S203). The control unit 40 proceeds to step S204.

制御部40は、操作制御部53によって、警報解除操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS204)。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS204でYes)、ステップS205へ進む。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS204でNo)、ステップS206へ進む。 The control unit 40 determines whether or not the operation control unit 53 has acquired the operation information indicating that the alarm release operation has been executed (step S204). When the control unit 40 determines that the operation information indicating that the alarm release operation has been executed has been acquired (Yes in step S204), the control unit 40 proceeds to step S205. If the control unit 40 does not determine that the operation information indicating that the alarm release operation has been executed has been acquired (No in step S204), the control unit 40 proceeds to step S206.

警報解除操作が実行されたと判定する場合(ステップS204でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS205)。制御部40は、処理を終了する。 When it is determined that the alarm release operation has been executed (Yes in step S204), the control unit 40 stops the output of the voice signal by the output control unit 52 so as to stop the output of the alarm sound from the speaker 36 (step S205). .. The control unit 40 ends the process.

警報解除操作が実行されたと判定しない場合(ステップS204でNo)、制御部40は、ステップS201で接続が切断されたと判定した状態における異常監視装置30の各機能と制御部40との接続状態を示す情報とともに、センサデータと位置データと映像データとを、サーバ装置10へ送信する(ステップS206)。制御部40は、処理を終了する。 If it is not determined that the alarm release operation has been executed (No in step S204), the control unit 40 determines the connection state between each function of the abnormality monitoring device 30 and the control unit 40 in the state in which the connection is determined to be disconnected in step S201. The sensor data, the position data, and the video data are transmitted to the server device 10 together with the indicated information (step S206). The control unit 40 ends the process.

図6を用いて、異常監視装置30における監視処理について説明する。異常監視装置30において、制御部40は、センサデータ取得部48によって、加速度センサ35からセンサデータとして加速度を取得する(ステップS211)。制御部40は、ステップS212へ進む。 The monitoring process in the abnormality monitoring device 30 will be described with reference to FIG. In the abnormality monitoring device 30, the control unit 40 acquires acceleration as sensor data from the acceleration sensor 35 by the sensor data acquisition unit 48 (step S211). The control unit 40 proceeds to step S212.

制御部40は、センサ判定部49によって、センサデータである加速度が閾値以上であるか否かを判定する(ステップS212)。制御部40は、センサ判定部49によって、加速度が閾値以上であると判定する場合(ステップS212でYes)、ステップS213へ進む。制御部40は、センサ判定部49によって、加速度が閾値以上であると判定しない場合(ステップS212でNo)、ステップS211の処理を再度実行する。 The control unit 40 determines whether or not the acceleration, which is the sensor data, is equal to or greater than the threshold value by the sensor determination unit 49 (step S212). When the sensor determination unit 49 determines that the acceleration is equal to or higher than the threshold value (Yes in step S212), the control unit 40 proceeds to step S213. If the sensor determination unit 49 does not determine that the acceleration is equal to or greater than the threshold value (No in step S212), the control unit 40 re-executes the process of step S211.

制御部40は、判定結果取得処理を実行する(ステップS213)。制御部40は、処理を終了する。 The control unit 40 executes the determination result acquisition process (step S213). The control unit 40 ends the process.

図7を用いて、図6に示すフローチャートのステップS213の判定結果取得処理について説明する。制御部40は、カメラ33を起動して、撮影を開始する(ステップS221)。制御部40は、ステップS222へ進む。 The determination result acquisition process in step S213 of the flowchart shown in FIG. 6 will be described with reference to FIG. 7. The control unit 40 activates the camera 33 and starts shooting (step S221). The control unit 40 proceeds to step S222.

制御部40は、判定結果取得部51によって、センサ判定部49が閾値以上の加速度を検出したと判定した状態における、加速度センサ35のセンサデータと、位置情報取得部43が取得した位置情報と、ステップS221で撮影を開始した映像データとを判定用のデータとしてサーバ装置10へ送信する(ステップS222)。制御部40は、ステップS223へ進む。 The control unit 40 determines that the sensor determination unit 49 has detected an acceleration equal to or higher than the threshold value by the determination result acquisition unit 51, and the sensor data of the acceleration sensor 35 and the position information acquired by the position information acquisition unit 43. The video data that started shooting in step S221 is transmitted to the server device 10 as determination data (step S222). The control unit 40 proceeds to step S223.

制御部40は、判定結果取得部51によって、サーバ装置10から判定結果を取得したか否かを判定する(ステップS223)。制御部40は、判定結果を取得したと判定する場合(ステップS223でYes)、ステップS224へ進む。制御部40は、判定結果を取得したと判定しない場合(ステップS223でNo)、ステップS223の処理を再度実行する。 The control unit 40 determines whether or not the determination result has been acquired from the server device 10 by the determination result acquisition unit 51 (step S223). When the control unit 40 determines that the determination result has been acquired (Yes in step S223), the control unit 40 proceeds to step S224. If the control unit 40 does not determine that the determination result has been acquired (No in step S223), the control unit 40 re-executes the process of step S223.

判定結果を取得したと判定する場合(ステップS223でYes)、制御部40は、判定結果がセキュリティの異常であるか否かを判定する(ステップS224)。制御部40は、判定結果がセキュリティの異常であると判定する場合(ステップS224でYes)、ステップS225へ進む。制御部40は、判定結果がセキュリティの異常であると判定しない場合(ステップS224でNo)、ステップS226へ進む。 When it is determined that the determination result has been acquired (Yes in step S223), the control unit 40 determines whether or not the determination result is a security abnormality (step S224). When the control unit 40 determines that the determination result is a security abnormality (Yes in step S224), the control unit 40 proceeds to step S225. If the control unit 40 does not determine that the determination result is a security abnormality (No in step S224), the control unit 40 proceeds to step S226.

制御部40は、判定結果がセキュリティの異常であると判定する場合(ステップS224でYes)、異常時処理を実行する(ステップS225)。制御部40は、処理を終了する。 When the control unit 40 determines that the determination result is a security abnormality (Yes in step S224), the control unit 40 executes an abnormality processing (step S225). The control unit 40 ends the process.

判定結果がセキュリティの異常であると判定しない場合(ステップS224でNo)、制御部40は、判定結果が誤検出であるか否かを判定する(ステップS226)。制御部40は、判定結果が誤検出であると判定する場合(ステップS226でYes)、ステップS227へ進む。制御部40は、判定結果が誤検出であると判定しない場合(ステップS226でNo)、言い換えると、サーバ装置10で判定できなかった場合、ステップS228へ進む。 When the determination result is not determined to be a security abnormality (No in step S224), the control unit 40 determines whether or not the determination result is an erroneous detection (step S226). When the control unit 40 determines that the determination result is an erroneous detection (Yes in step S226), the control unit 40 proceeds to step S227. If the control unit 40 does not determine that the determination result is an erroneous detection (No in step S226), in other words, if the server device 10 cannot determine, the control unit 40 proceeds to step S228.

制御部40は、判定結果が誤検出であると判定する場合(ステップS226でYes)、出力制御部52によって、ユーザへ誤検出した旨を通知する処理を行う(ステップS227)。誤検出の通知は、音声をスピーカ36から出力してもよいし、ユーザが使用している電子機器などに対して出力してもよい。制御部40は、処理を終了する。 When the control unit 40 determines that the determination result is an erroneous detection (Yes in step S226), the output control unit 52 performs a process of notifying the user of the erroneous detection (step S227). The false detection notification may be output from the speaker 36, or may be output to an electronic device or the like used by the user. The control unit 40 ends the process.

制御部40は、判定結果が誤検出であると判定しない場合(ステップS226でNo)、ユーザによる判断処理を実行する(ステップS228)。制御部40は、処理を終了する。 If the control unit 40 does not determine that the determination result is an erroneous detection (No in step S226), the control unit 40 executes a determination process by the user (step S228). The control unit 40 ends the process.

図8を用いて、図7に示すフローチャートのステップS225の異常時処理について説明する。制御部40は、出力制御部52によって、警報音声をスピーカ36から出力するように音声信号を出力する(ステップS231)。制御部40は、ステップS232へ進む。 The abnormality processing in step S225 of the flowchart shown in FIG. 7 will be described with reference to FIG. The control unit 40 outputs a voice signal by the output control unit 52 so as to output the alarm sound from the speaker 36 (step S231). The control unit 40 proceeds to step S232.

制御部40は、出力制御部52によって、セキュリティの異常があった旨を警告する通知を、ユーザが使用している電子機器などに対して出力するように制御信号を出力する(ステップS232)。この場合、出力制御部52は、ユーザが使用している電子機器などに対して、撮影した映像データを送信する。ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断する。制御部40は、ステップS233へ進む。 The control unit 40 outputs a control signal by the output control unit 52 so as to output a notification warning that a security abnormality has occurred to an electronic device or the like used by the user (step S232). In this case, the output control unit 52 transmits the captured video data to the electronic device or the like used by the user. The user checks the video data and determines whether the security is abnormal or falsely detected. The control unit 40 proceeds to step S233.

制御部40は、操作制御部53によって、警報解除操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS233)。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS233でYes)、ステップS234へ進む。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS233でNo)、ステップS236へ進む。 The control unit 40 determines whether or not the operation control unit 53 has acquired the operation information indicating that the alarm release operation has been executed (step S233). When the control unit 40 determines that the operation information indicating that the alarm release operation has been executed has been acquired (Yes in step S233), the control unit 40 proceeds to step S234. If the control unit 40 does not determine that the operation information indicating that the alarm release operation has been executed has been acquired (No in step S233), the control unit 40 proceeds to step S236.

警報解除操作が実行されたと判定する場合(ステップS233でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS234)。制御部40は、ステップS235へ進む。 When it is determined that the alarm release operation has been executed (Yes in step S233), the control unit 40 stops the output of the voice signal by the output control unit 52 so as to stop the output of the alarm sound from the speaker 36 (step S234). .. The control unit 40 proceeds to step S235.

制御部40は、サーバ装置10へ送信した判定用のデータに、ユーザによって警報が解除されたことを示す情報を追加して、サーバ装置10へ送信する(ステップS235)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。 The control unit 40 adds information indicating that the alarm has been canceled by the user to the determination data transmitted to the server device 10, and transmits the data to the server device 10 (step S235). The server device 10 updates the teacher data stored in the storage unit 12 based on the acquired determination data. The control unit 40 ends the process.

警報解除操作が実行されたと判定しない場合(ステップS233でNo)、制御部40は、サーバ装置10へ送信した判定用のデータと、警報が解除されていないことを示す情報とを、サーバ装置10へ送信する(ステップS236)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。 When it is not determined that the alarm release operation has been executed (No in step S233), the control unit 40 transmits the determination data transmitted to the server device 10 and the information indicating that the alarm has not been released to the server device 10. (Step S236). The server device 10 updates the teacher data stored in the storage unit 12 based on the acquired determination data. The control unit 40 ends the process.

図9を用いて、図7に示すフローチャートのステップS228のユーザ判断処理について説明する。制御部40は、出力制御部52によって、警報音声をスピーカ36から出力するように音声信号を出力する(ステップS241)。制御部40は、ステップS242へ進む。 The user judgment process of step S228 of the flowchart shown in FIG. 7 will be described with reference to FIG. The control unit 40 outputs a voice signal by the output control unit 52 so as to output the alarm sound from the speaker 36 (step S241). The control unit 40 proceeds to step S242.

制御部40は、出力制御部52によって、セキュリティの異常が判定できなかった旨を警告する通知を、ユーザが使用している電子機器などに対して出力するように制御信号を出力する(ステップS242)。この場合、出力制御部52は、ユーザが使用している電子機器などに対して、撮影した映像データを送信する。ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断する。制御部40は、ステップS243へ進む。 The control unit 40 outputs a control signal so that the output control unit 52 outputs a notification warning that the security abnormality could not be determined to the electronic device or the like used by the user (step S242). ). In this case, the output control unit 52 transmits the captured video data to the electronic device or the like used by the user. The user checks the video data and determines whether the security is abnormal or falsely detected. The control unit 40 proceeds to step S243.

制御部40は、操作制御部53によって、誤検出判断操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS243)。制御部40は、誤検出判断操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS243でYes)、ステップS244へ進む。制御部40は、誤検出判断操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS243でNo)、ステップS246へ進む。 The control unit 40 determines whether or not the operation control unit 53 has acquired the operation information indicating that the erroneous detection determination operation has been executed (step S243). When the control unit 40 determines that the operation information indicating that the false detection determination operation has been executed has been acquired (Yes in step S243), the control unit 40 proceeds to step S244. If the control unit 40 does not determine that the operation information indicating that the false detection determination operation has been executed has been acquired (No in step S243), the control unit 40 proceeds to step S246.

誤検出判断操作が実行されたと判定する場合(ステップS243でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS244)。制御部40は、ステップS245へ進む。 When it is determined that the false detection determination operation has been executed (Yes in step S243), the control unit 40 stops the output of the voice signal by the output control unit 52 so as to stop the output of the alarm sound from the speaker 36 (step S244). ). The control unit 40 proceeds to step S245.

制御部40は、サーバ装置10へ送信した判定用のデータに、誤検出であるとユーザが判断したことを示す情報を追加して、サーバ装置10へ送信する(ステップS245)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。 The control unit 40 adds information indicating that the user has determined that the error has been detected to the determination data transmitted to the server device 10, and transmits the data to the server device 10 (step S245). The server device 10 updates the teacher data stored in the storage unit 12 based on the acquired determination data. The control unit 40 ends the process.

誤検出判断操作が実行されたと判定しない場合(ステップS243でNo)、制御部40は、サーバ装置10へ送信した判定用のデータと、セキュリティの異常であるとユーザが判断したことを示す情報とを、サーバ装置10へ送信する(ステップS246)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。 When it is not determined that the false detection determination operation has been executed (No in step S243), the control unit 40 includes the determination data transmitted to the server device 10 and information indicating that the user has determined that the security is abnormal. Is transmitted to the server device 10 (step S246). The server device 10 updates the teacher data stored in the storage unit 12 based on the acquired determination data. The control unit 40 ends the process.

図10を用いて、サーバ装置10における判定処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、異常監視装置30から判定用のセンサデータと周辺情報とを取得する(ステップS111)。制御部20は、ステップS112へ進む。 The determination process in the server device 10 will be described with reference to FIG. In the server device 10, the control unit 20 acquires the sensor data for determination and the peripheral information from the abnormality monitoring device 30 by the data acquisition unit 22 (step S111). The control unit 20 proceeds to step S112.

制御部20は、判定部24によって、DNNを使用して、判定用のセンサデータと周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する(ステップS112)。制御部20は、ステップS113へ進む。 The control unit 20 uses the DNN to determine the security abnormality and the false detection based on the sensor data for determination and the peripheral information by the determination unit 24 (step S112). The control unit 20 proceeds to step S113.

制御部20は、通信制御部21によって、異常監視装置30へ判定結果を送信する(ステップS113)。制御部20は、処理を終了する。 The control unit 20 transmits the determination result to the abnormality monitoring device 30 by the communication control unit 21 (step S113). The control unit 20 ends the process.

このようにして、サーバ装置10では、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いた人工知能による機械学習によって、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成する。サーバ装置10は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。 In this way, in the server device 10, DNN as a learned model for determining a security abnormality and a false detection by machine learning by artificial intelligence using sensor data acquired from a plurality of abnormality monitoring devices 30 and peripheral information. To generate. When the server device 10 acquires the sensor data for determination and the peripheral information from the abnormality monitoring device 30, the server device 10 uses the DNN to determine a security abnormality and an erroneous detection.

異常監視装置30では、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常をDNNを使用して判定させる。 In the abnormality monitoring device 30, based on the sensor data detected by the sensor placed on the motorcycle and the video data obtained by the camera 33 taking a picture of the surroundings, the server device 10 causes the server device 10 to detect a security abnormality generated in the motorcycle by DNN. To make a judgment using.

上述したように、本実施形態では、サーバ装置10において、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いた人工知能による機械学習によって、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成することができる。本実施形態では、サーバ装置10において、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定することができる。 As described above, in the present embodiment, in the server device 10, a security abnormality and a false detection are determined by machine learning by artificial intelligence using sensor data acquired from a plurality of abnormality monitoring devices 30 and peripheral information. DNN can be generated as a trained model. In the present embodiment, when the server device 10 acquires the sensor data for determination and the peripheral information from the abnormality monitoring device 30, the DNN can be used to determine a security abnormality and an erroneous detection.

本実施形態によれば、人工知能による機械学習によって、セキュリティの異常である状態と、誤検出である状態とを、DNNモデルを生成して、適切に判定することができる。これにより、本実施形態は、自動二輪車の周辺情報に応じて、誤検出を低減することができる。 According to the present embodiment, by machine learning by artificial intelligence, a DNN model can be generated to appropriately determine a state in which a security is abnormal and a state in which a false detection is made. As a result, the present embodiment can reduce erroneous detection according to the peripheral information of the motorcycle.

本実施形態では、異常監視装置30において、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常をDNNを使用して判定させることができる。このようにして、本実施形態によれば、自動二輪車の駐輪中、セキュリティの異常を高精度に監視することができる。 In the present embodiment, the server device 10 generates the abnormality for the motorcycle based on the sensor data detected by the sensor arranged on the motorcycle and the video data obtained by the camera 33 in the periphery of the abnormality monitoring device 30. Security anomalies can be determined using DNN. In this way, according to the present embodiment, it is possible to monitor the security abnormality with high accuracy while the motorcycle is parked.

[第二実施形態]
図11、図12を参照しながら、本実施形態に係る異常監視システム1について説明する。図11は、第二実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。図12は、第二実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、第一実施形態の異常監視装置30が有する機能を、異常監視用の撮影装置30Aと、異常監視装置30Bとに分けて備えた点で第一実施形態と異なる。撮影装置30Aと異常監視装置30Bとの各機能の基本的な構成は第一実施形態の異常監視装置30と同様である。以下の説明においては、異常監視装置30と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
[Second Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to the second embodiment. FIG. 12 is a schematic view showing a configuration example of the abnormality monitoring device according to the second embodiment. The present embodiment is different from the first embodiment in that the functions of the abnormality monitoring device 30 of the first embodiment are provided separately for the photographing device 30A for abnormality monitoring and the abnormality monitoring device 30B. The basic configuration of each function of the photographing device 30A and the abnormality monitoring device 30B is the same as that of the abnormality monitoring device 30 of the first embodiment. In the following description, components similar to the abnormality monitoring device 30 are designated by the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted.

異常監視用の撮影装置30Aは、自動二輪車用のドライブレコーダの機能を有する。撮影装置30Aは、通信部31Aと、GPS受信部32Aと、カメラ33Aと、記憶部39Aと、制御部40Aとを含む。撮影装置30Aは、撮影した映像データをサーバ装置10へ送信する。 The photographing device 30A for abnormality monitoring has a function of a drive recorder for a motorcycle. The photographing device 30A includes a communication unit 31A, a GPS receiving unit 32A, a camera 33A, a storage unit 39A, and a control unit 40A. The photographing device 30A transmits the photographed video data to the server device 10.

制御部40Aは、通信制御部41Aと、位置情報取得部43Aと映像データ取得部44Aと音声データ取得部45Aとを含む周辺情報取得部42Aと、映像記憶制御部46Aとを有する。 The control unit 40A includes a communication control unit 41A, a peripheral information acquisition unit 42A including a position information acquisition unit 43A, a video data acquisition unit 44A, and an audio data acquisition unit 45A, and a video storage control unit 46A.

異常監視装置30Bは、自動二輪車用のセキュリティ機器の機能を有する。異常監視装置30Bは、通信部31Bと、加速度センサ35Bと、スピーカ36Bと、操作部37Bと、制御部40Bとを含む。異常監視装置30Bは、センサデータをサーバ装置10へ送信する。 The abnormality monitoring device 30B has a function of a security device for a motorcycle. The abnormality monitoring device 30B includes a communication unit 31B, an acceleration sensor 35B, a speaker 36B, an operation unit 37B, and a control unit 40B. The abnormality monitoring device 30B transmits the sensor data to the server device 10.

制御部40Bは、通信制御部41Bと、駐輪検出部47Bと、センサデータ取得部48Bと、センサ判定部49Bと、判定結果取得部51Bと、出力制御部52Bと、操作制御部53Bとを有する。 The control unit 40B includes a communication control unit 41B, a bicycle parking detection unit 47B, a sensor data acquisition unit 48B, a sensor determination unit 49B, a determination result acquisition unit 51B, an output control unit 52B, and an operation control unit 53B. Have.

サーバ装置10は、撮影装置30Aから受信した周辺情報である映像データと位置情報と音声データと、異常監視装置30Bから受信したセンサデータとを対応付けて処理を実行する。 The server device 10 executes processing by associating video data, position information, and audio data, which are peripheral information received from the photographing device 30A, with sensor data received from the abnormality monitoring device 30B.

上述したように、本実施形態は、撮影装置30Aと異常監視装置30Bとに分けて構成することができる。本実施形態によれば、異常監視装置30Bを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。本実施形態によれば、自動二輪車の駐輪中、セキュリティの異常を監視していることを、第三者に気が付かれにくくすることができる。 As described above, the present embodiment can be divided into the photographing device 30A and the abnormality monitoring device 30B. According to the present embodiment, the abnormality monitoring device 30B can be arranged at a position where it is difficult to see from the outside or inside the vehicle body of the motorcycle. According to the present embodiment, it is possible to make it difficult for a third party to notice that the security abnormality is being monitored while the motorcycle is parked.

[第三実施形態]
図13を参照しながら、本実施形態に係る異常監視システム1について説明する。図13は、第三実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、第一実施形態の異常監視装置30からカメラ機能を除いた点で第一実施形態と異なる。異常監視装置30Cの各機能の基本的な構成は第一実施形態の異常監視装置30と同様である。
[Third Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIG. FIG. 13 is a schematic view showing a configuration example of the abnormality monitoring device according to the third embodiment. This embodiment is different from the first embodiment in that the camera function is removed from the abnormality monitoring device 30 of the first embodiment. The basic configuration of each function of the abnormality monitoring device 30C is the same as that of the abnormality monitoring device 30 of the first embodiment.

異常監視装置30Cは、通信部31Cと、GPS受信部32Cと、加速度センサ35Cと、記憶部39Cと、スピーカ36Cと、操作部37Cと、制御部40Cとを含む。 The abnormality monitoring device 30C includes a communication unit 31C, a GPS receiving unit 32C, an acceleration sensor 35C, a storage unit 39C, a speaker 36C, an operation unit 37C, and a control unit 40C.

制御部40Cは、通信制御部41Cと、位置情報取得部43Cと映像データ取得部44Cと音声データ取得部45Cとを含む周辺情報取得部42Cと、映像記憶制御部46Cと,駐輪検出部47Cと、センサデータ取得部48Cと、センサ判定部49Cと、判定結果取得部51Cと、出力制御部52Cと、操作制御部53Cとを有する。映像データ取得部44Cは、外部のカメラから映像データを取得する。音声データ取得部45Cは、外部のマイクロフォンから音声データを取得する。 The control unit 40C includes a communication control unit 41C, a peripheral information acquisition unit 42C including a position information acquisition unit 43C, a video data acquisition unit 44C, and an audio data acquisition unit 45C, a video storage control unit 46C, and a bicycle parking detection unit 47C. It has a sensor data acquisition unit 48C, a sensor determination unit 49C, a determination result acquisition unit 51C, an output control unit 52C, and an operation control unit 53C. The video data acquisition unit 44C acquires video data from an external camera. The voice data acquisition unit 45C acquires voice data from an external microphone.

上述したように、本実施形態は、異常監視装置30Cからカメラ機能を除いて構成することができる。本実施形態によれば、異常監視装置30Cを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。 As described above, the present embodiment can be configured by removing the camera function from the abnormality monitoring device 30C. According to the present embodiment, the abnormality monitoring device 30C can be arranged at a position where it is difficult to see from the outside or inside the vehicle body of the motorcycle.

[第四実施形態]
図14、図15を参照しながら、本実施形態に係る異常監視システム1について説明する。図14は、第四実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。図15は、第四実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、異常監視用の撮影装置30Dがカメラ機能を有していない点で第二実施形態と異なる。
[Fourth Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIGS. 14 and 15. FIG. 14 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to a fourth embodiment. FIG. 15 is a schematic view showing a configuration example of the abnormality monitoring device according to the fourth embodiment. This embodiment is different from the second embodiment in that the photographing device 30D for abnormality monitoring does not have a camera function.

撮影装置30Dは、通信部31Dと、GPS受信部32Dと、記憶部39Dと、制御部40Dとを含む。 The photographing device 30D includes a communication unit 31D, a GPS receiving unit 32D, a storage unit 39D, and a control unit 40D.

制御部40Dは、通信制御部41Dと、位置情報取得部43Dと映像データ取得部44Dと音声データ取得部45Dとを含む周辺情報取得部42Dと、映像記憶制御部46Dとを有する。映像データ取得部44Dは、外部のカメラから映像データを取得する。音声データ取得部45Dは、外部のマイクロフォンから音声データを取得する。 The control unit 40D includes a communication control unit 41D, a peripheral information acquisition unit 42D including a position information acquisition unit 43D, a video data acquisition unit 44D, and an audio data acquisition unit 45D, and a video storage control unit 46D. The video data acquisition unit 44D acquires video data from an external camera. The voice data acquisition unit 45D acquires voice data from an external microphone.

異常監視装置30Eは、通信部31Eと、加速度センサ35Eと、スピーカ36Eと、操作部37Eと、制御部40Eとを含む。 The abnormality monitoring device 30E includes a communication unit 31E, an acceleration sensor 35E, a speaker 36E, an operation unit 37E, and a control unit 40E.

制御部40Eは、通信制御部41Eと、駐輪検出部47Eと、センサデータ取得部48Eと、センサ判定部49Eと、判定結果取得部51Eと、出力制御部52Eと、操作制御部53Eとを有する。 The control unit 40E includes a communication control unit 41E, a bicycle parking detection unit 47E, a sensor data acquisition unit 48E, a sensor determination unit 49E, a determination result acquisition unit 51E, an output control unit 52E, and an operation control unit 53E. Have.

上述したように、本実施形態は、撮影装置30Dと異常監視装置30Eとに分けて構成し、さらに、異常監視装置30Cからカメラ機能を除いて構成することができる。本実施形態によれば、撮影装置30Dと異常監視装置30Eとを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。 As described above, the present embodiment can be configured separately by the photographing device 30D and the abnormality monitoring device 30E, and further, the abnormality monitoring device 30C can be configured by removing the camera function. According to the present embodiment, the photographing device 30D and the abnormality monitoring device 30E can be arranged at a position where it is difficult to see from the outside or inside the vehicle body of the motorcycle.

さて、これまで本発明に係る異常監視システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 By the way, although the abnormality monitoring system 1 according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiment.

図示した異常監視システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況等に応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the abnormality monitoring system 1 shown in the figure is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.

異常監視システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラム等によって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the abnormality monitoring system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by linking these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

上記において、ステップS227においても、ユーザが使用している電子機器などに対して通知を出力する際に、撮影した映像データを送信するようにしてもよい。これにより、ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断できるようにしてもよい。 In the above, also in step S227, the captured video data may be transmitted when the notification is output to the electronic device or the like used by the user. As a result, the user may be able to check the video data and determine whether it is a security abnormality or a false positive.

さらに、自動二輪車が盗難の被害にあった場合、検出されたセンサデータと周辺情報とを、外部のサーバ装置に保存して、盗難車の特定などに使用できるようにしてもよい。 Further, when the motorcycle is damaged by theft, the detected sensor data and peripheral information may be stored in an external server device so that the motorcycle can be used for identifying the stolen vehicle.

1 異常監視システム
10 サーバ装置
20 制御部
23 学習部
24 判定部
30 異常監視装置
33 カメラ
35 加速度センサ(センサ)
40 制御部
42 周辺情報取得部
43 位置情報取得部
44 映像データ取得部
47 駐輪検出部
48 センサデータ取得部
49 センサ判定部
51 判定結果取得部
53 操作制御部(ユーザ判断情報取得部)
1 Abnormality monitoring system 10 Server device 20 Control unit 23 Learning unit 24 Judgment unit 30 Abnormality monitoring device 33 Camera 35 Accelerometer (sensor)
40 Control unit 42 Peripheral information acquisition unit 43 Position information acquisition unit 44 Video data acquisition unit 47 Bicycle parking detection unit 48 Sensor data acquisition unit 49 Sensor judgment unit 51 Judgment result acquisition unit 53 Operation control unit (user judgment information acquisition unit)

Claims (5)

移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得部と、
移動体の周辺の状態を示す周辺情報を取得する周辺情報取得部と、
前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習部と、
前記学習部が学習した前記学習済みモデルを使用して、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定部と、
を備えることを特徴とする異常監視システム。
A sensor data acquisition unit that acquires sensor data from a sensor that detects security abnormalities on a moving object,
Peripheral information acquisition unit that acquires peripheral information indicating the surrounding state of the moving body,
A trained model for determining a security abnormality and a false detection by learning by artificial intelligence based on the sensor data acquired by the sensor data acquisition unit and the peripheral information acquired by the peripheral information acquisition unit. With the learning department that generates
Using the learned model learned by the learning unit, a security abnormality and erroneous detection are made based on the sensor data acquired by the sensor data acquisition unit and the peripheral information acquired by the peripheral information acquisition unit. Judgment unit that determines
An abnormality monitoring system characterized by being equipped with.
前記周辺情報は、前記移動体の周辺の気象状態を示す気象情報、前記移動体の周辺における物体の検出を示す物体検出情報、前記移動体の周辺の音声を示す音声情報、および、前記移動体の現在位置を示す位置情報の少なくともいずれかを含む、
請求項1に記載の異常監視システム。
The peripheral information includes meteorological information indicating the weather state around the moving body, object detection information indicating the detection of an object in the vicinity of the moving body, audio information indicating the sound around the moving body, and the moving body. Contains at least one of the location information that indicates the current location of
The abnormality monitoring system according to claim 1.
前記周辺情報取得部は、前記移動体に配置された撮影部が撮影した、前記移動体の周辺の映像データを取得する映像データ取得部、を含む、
請求項1または2に記載の異常監視システム。
The peripheral information acquisition unit includes a video data acquisition unit that acquires video data around the moving body, which is captured by a photographing unit arranged on the moving body.
The abnormality monitoring system according to claim 1 or 2.
誤検出であるとユーザが判断した判断結果を示す判断情報を取得するユーザ判断情報取得部、
を備え、
前記学習部は、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報と、前記ユーザ判断情報取得部が取得した前記判断情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する、
請求項1から3のいずれか一項に記載の異常監視システム。
User judgment information acquisition unit that acquires judgment information indicating the judgment result that the user has judged to be a false positive
With
The learning unit uses artificial intelligence based on the sensor data acquired by the sensor data acquisition unit, the peripheral information acquired by the peripheral information acquisition unit, and the determination information acquired by the user judgment information acquisition unit. Train to generate a trained model for determining security anomalies and false positives,
The abnormality monitoring system according to any one of claims 1 to 3.
移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得ステップと、
移動体の周辺の状態を示す周辺情報を取得する周辺情報取得ステップと、
前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習ステップと、
前記学習ステップにおいて学習した前記学習済みモデルを使用して、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定ステップと、
を含む異常監視方法。
The sensor data acquisition step to acquire sensor data from the sensor that detects the security abnormality of the moving object,
Peripheral information acquisition step to acquire peripheral information indicating the surrounding state of the moving body,
A trained model for determining a security abnormality and a false detection by learning by artificial intelligence based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step. With learning steps to generate
Using the trained model learned in the learning step, a security abnormality and erroneous detection are made based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step. And the judgment step to judge
Abnormality monitoring method including.
JP2019034791A 2019-02-27 2019-02-27 Abnormality monitoring system, and, abnormality monitoring method Pending JP2020140401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019034791A JP2020140401A (en) 2019-02-27 2019-02-27 Abnormality monitoring system, and, abnormality monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019034791A JP2020140401A (en) 2019-02-27 2019-02-27 Abnormality monitoring system, and, abnormality monitoring method

Publications (1)

Publication Number Publication Date
JP2020140401A true JP2020140401A (en) 2020-09-03

Family

ID=72264874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019034791A Pending JP2020140401A (en) 2019-02-27 2019-02-27 Abnormality monitoring system, and, abnormality monitoring method

Country Status (1)

Country Link
JP (1) JP2020140401A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220118052A (en) * 2021-02-18 2022-08-25 인플랩 주식회사 Theft detection system for two-wheeled vehicles using impact detection technology
JP7488908B2 (en) 2020-09-30 2024-05-22 本田技研工業株式会社 Monitoring device, vehicle, monitoring method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104670155A (en) * 2015-02-09 2015-06-03 上海交通大学 VSAS (Vehicle Security Alarm System) based on cloud vehicle networking
JP2017091381A (en) * 2015-11-13 2017-05-25 パナソニックIpマネジメント株式会社 Security device and security system
JP2018005884A (en) * 2016-06-27 2018-01-11 株式会社Jvcケンウッド Image recording device, image recording method, and image recording program
US20180108369A1 (en) * 2016-10-19 2018-04-19 Ford Global Technologies, Llc Vehicle Ambient Audio Classification Via Neural Network Machine Learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104670155A (en) * 2015-02-09 2015-06-03 上海交通大学 VSAS (Vehicle Security Alarm System) based on cloud vehicle networking
JP2017091381A (en) * 2015-11-13 2017-05-25 パナソニックIpマネジメント株式会社 Security device and security system
JP2018005884A (en) * 2016-06-27 2018-01-11 株式会社Jvcケンウッド Image recording device, image recording method, and image recording program
US20180108369A1 (en) * 2016-10-19 2018-04-19 Ford Global Technologies, Llc Vehicle Ambient Audio Classification Via Neural Network Machine Learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7488908B2 (en) 2020-09-30 2024-05-22 本田技研工業株式会社 Monitoring device, vehicle, monitoring method, and program
KR20220118052A (en) * 2021-02-18 2022-08-25 인플랩 주식회사 Theft detection system for two-wheeled vehicles using impact detection technology
KR102490788B1 (en) 2021-02-18 2023-01-20 인플랩 주식회사 Theft detection system for two-wheeled vehicles using impact detection technology

Similar Documents

Publication Publication Date Title
US11433855B2 (en) Intelligent detection and alerting of potential intruders
US10061013B2 (en) Mobile gunshot detection
US9947152B2 (en) Vehicle visual and non-visual data recording system
US20200312063A1 (en) Safety for vehicle users
JP4726586B2 (en) Car drive recorder
ES2293531T3 (en) ALARM SYSTEM.
CN111063162A (en) Silent alarm method and device, computer equipment and storage medium
JP6532106B2 (en) Monitoring device, monitoring method and program for monitoring
US20240046664A1 (en) Cloud-controlled vehicle security system
CN110503802A (en) Driving accident judgment method and system based on automobile data recorder
JP2020140401A (en) Abnormality monitoring system, and, abnormality monitoring method
US11562570B2 (en) Vehicle damage identification and incident management systems and methods
WO2011025460A1 (en) Method and system for event detection
WO2016132251A1 (en) Device and method for monitoring a vehicle, particularly for the management of loss events
CN111051171A (en) Detection of anomalies within an autonomous vehicle
WO2020195706A1 (en) Recording system and recording method
CN114463928B (en) Intelligent alarm method and system
JP2005075253A (en) Accident situation record reporting device
JP7447626B2 (en) Information processing method, information processing device, program and information processing system
US11089451B2 (en) Automatic incident detection and reporting
US20210122332A1 (en) System for providing vehicle security, monitoring and alerting
KR20200136736A (en) Multi object detection system using deep running based on closed circuit television image
KR20060122029A (en) Apparatus and method of surveillance in car
WO2021199311A1 (en) Monitoring device, monitoring method, and recording medium
KR19980026652A (en) Vehicle anti-theft device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230322