JP2020140401A - Abnormality monitoring system, and, abnormality monitoring method - Google Patents
Abnormality monitoring system, and, abnormality monitoring method Download PDFInfo
- Publication number
- JP2020140401A JP2020140401A JP2019034791A JP2019034791A JP2020140401A JP 2020140401 A JP2020140401 A JP 2020140401A JP 2019034791 A JP2019034791 A JP 2019034791A JP 2019034791 A JP2019034791 A JP 2019034791A JP 2020140401 A JP2020140401 A JP 2020140401A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sensor data
- control unit
- acquisition unit
- abnormality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Burglar Alarm Systems (AREA)
Abstract
Description
本発明は、異常監視システム、及び、異常監視方法に関する。 The present invention relates to an abnormality monitoring system and an abnormality monitoring method.
車両などの移動体の盗難やいたずらを防止するために、センサが移動体に発生した振動を検出することによって、セキュリティの異常を監視する技術が知られている。また、車両のドアまたはトランクを開けた際の、車両内に生じる空気圧変化に基づいて、警報信号など必要な盗難防止装置を作動させる技術が知られている(例えば、特許文献1参照)。 In order to prevent theft and mischief of moving objects such as vehicles, there is known a technique for monitoring security abnormalities by detecting vibration generated in the moving objects. Further, there is known a technique of operating a necessary anti-theft device such as an alarm signal based on a change in air pressure generated in the vehicle when the door or trunk of the vehicle is opened (see, for example, Patent Document 1).
従来の技術では、センサが、例えば、雨、風、雷、近隣住人の接触、騒音などを検出した際にも、セキュリティの異常を誤検出してしまい、不用意に警報が作動するおそれがある。ところが、誤検出を抑制するために、センサの閾値を高く設定してしまうと、セキュリティの異常を正しく検出できなくなるおそれがある。このように、セキュリティの異常の有無の監視の精度には改善の余地がある。 In the conventional technology, when the sensor detects, for example, rain, wind, lightning, contact with neighbors, noise, etc., a security abnormality may be erroneously detected and an alarm may be activated carelessly. .. However, if the threshold value of the sensor is set high in order to suppress erroneous detection, there is a risk that a security abnormality cannot be detected correctly. As described above, there is room for improvement in the accuracy of monitoring the presence or absence of security abnormalities.
本発明は、上記に鑑みてなされたものであって、セキュリティの異常の監視の精度を向上することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the accuracy of monitoring abnormalities in security.
上述した課題を解決し、目的を達成するために、本発明に係る異常監視システムは、前記移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得部と、移動体の周辺の状態を示す周辺情報を取得する周辺情報取得部と、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習部と、前記学習部が学習した前記学習済みモデルを使用して、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the abnormality monitoring system according to the present invention includes a sensor data acquisition unit that acquires sensor data from a sensor that detects a security abnormality of the moving body, and a peripheral portion of the moving body. Learning by artificial intelligence based on the peripheral information acquisition unit that acquires the peripheral information indicating the state of, the sensor data acquired by the sensor data acquisition unit, and the peripheral information acquired by the peripheral information acquisition unit, A learning unit that generates a trained model for determining a security abnormality and a false detection, and the sensor data acquired by the sensor data acquisition unit using the trained model learned by the learning unit. It is characterized by including a determination unit for determining a security abnormality and an erroneous detection based on the peripheral information acquired by the peripheral information acquisition unit.
本発明に係る異常監視方法は、前記移動体のセキュリティの異常を検出するセンサからセンサデータを取得するセンサデータ取得ステップと、移動体の周辺の状態を示す周辺情報を取得する周辺情報取得ステップと、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習ステップと、前記学習ステップにおいて学習した前記学習済みモデルを使用して、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定ステップと、を含む。 The abnormality monitoring method according to the present invention includes a sensor data acquisition step of acquiring sensor data from a sensor that detects a security abnormality of the moving body, and a peripheral information acquisition step of acquiring peripheral information indicating a state around the moving body. , Learned by artificial intelligence based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step, and learned to determine a security abnormality and false detection. Based on the learning step for generating a model, the sensor data acquired in the sensor data acquisition step using the learned model learned in the learning step, and the peripheral information acquired in the peripheral information acquisition step. It includes a determination step for determining a security abnormality and a false positive.
本発明によれば、セキュリティの異常の監視の精度を向上することができるという効果を奏する。 According to the present invention, there is an effect that the accuracy of monitoring an abnormality in security can be improved.
以下に添付図面を参照して、本発明に係る異常監視システム、及び、異常監視方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the abnormality monitoring system and the abnormality monitoring method according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.
[第一実施形態]
図1は、第一実施形態に係る異常監視システムの構成例の一例を示す概略図である。図2は、第一実施形態に係る異常監視装置の構成例を示す概略図である。異常監視システム1は、人工知能(AI:Artificial Intelligence)の機械学習によって生成した学習モデルを使用して、例えば、自動二輪車、自転車、小型船舶のような移動体の盗難、いたずらのようなセキュリティの異常の有無を監視する。機械学習の一例としては、教師データを使用する教師あり学習、または、教師データを使用しない教師なし学習のディープラーニングによって学習させて、学習済みモデルとして多層ニューラルネットワーク(以下、「DNN」という。)を生成する。ディープラーニングは、DNNを使用した判定の精度が向上するように、DNNの重みの更新を繰り返し実行して、DNNを使用した判定結果が良好になるようにDNNの重みを導出する機械学習の一手法である。機械学習の手法は限定されない。
[First Embodiment]
FIG. 1 is a schematic view showing an example of a configuration example of the abnormality monitoring system according to the first embodiment. FIG. 2 is a schematic view showing a configuration example of the abnormality monitoring device according to the first embodiment. The anomaly monitoring system 1 uses a learning model generated by machine learning of artificial intelligence (AI) to prevent theft of moving objects such as motorcycles, bicycles, and small vessels, and security such as mischief. Monitor for abnormalities. As an example of machine learning, a multi-layer neural network (hereinafter referred to as "DNN") is trained as a trained model by learning by deep learning of supervised learning using supervised learning or unsupervised learning not using teacher data. To generate. Deep learning is a type of machine learning that repeatedly updates the weights of DNNs so that the accuracy of judgments using DNNs is improved, and derives the weights of DNNs so that the judgment result using DNNs is good. It is a method. Machine learning methods are not limited.
異常監視システム1は、例えば、自動二輪車、自転車、小型船舶のような移動体の盗難、いたずらのようなセキュリティの異常の有無を監視する。本実施形態では、移動体が自動二輪車であるものとして説明するが、これに限定されない。異常監視システム1は、サーバ装置10と、複数の自動二輪車にそれぞれ配置された異常監視装置30とを含む。
The abnormality monitoring system 1 monitors, for example, the presence or absence of security abnormalities such as theft of moving objects such as motorcycles, bicycles, and small vessels, and mischief. In the present embodiment, the moving body will be described as a motorcycle, but the present invention is not limited to this. The abnormality monitoring system 1 includes a
サーバ装置10は、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成する。サーバ装置10は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。サーバ装置10は、通信部11と、記憶部12と、制御部20とを含む。
The
通信部11は、通信ユニットである。通信部11は、異常監視装置30との通信を可能にする。本実施形態では、通信部11は、異常監視システム1が正常に動作している場合、常時、異常監視装置30と通信可能である。
The
記憶部12は、複数の異常監視装置30から取得した、異常監視システム1で使用する教師データである、センサデータと周辺情報とを関連付けたデータを記録する。記憶部12は、制御部20の学習部23によって生成されたDNNモデルを記憶する。
The
周辺情報は、日時の情報、曜日の情報、季節の情報、自動二輪車の周辺の気象状態を示す気象情報、自動二輪車の周辺における物体の検出を示す物体検出情報、自動二輪車の周辺の音声を示す音声情報、および、自動二輪車の駐輪位置を示す位置情報の少なくともいずれかを含む。周辺情報は、例えば、インターネット上から取得可能な自動二輪車の周辺のイベント開催などを示す情報、自動二輪車の周辺の警察車両または救急車両の出動情報、または、自動二輪車の周辺の街頭に設置された監視カメラが撮影した監視カメラ映像データであってもよい。 Peripheral information includes date and time information, daytime information, seasonal information, weather information indicating the weather conditions around the motorcycle, object detection information indicating the detection of an object around the motorcycle, and sound around the motorcycle. It includes at least one of voice information and position information indicating the parking position of the motorcycle. Peripheral information is, for example, information that indicates that an event is held around the motorcycle, which can be obtained from the Internet, information on the dispatch of police vehicles or ambulance vehicles around the motorcycle, or information on the streets around the motorcycle. It may be the surveillance camera video data taken by the surveillance camera.
本実施形態では、周辺情報は、センサデータの取得時刻に対応して撮影された、自動二輪車の周辺を撮影した映像データから取得する。例えば、映像データに画像処理を行うことによって、自動二輪車の周辺の気象情報と物体検出情報と位置情報とが取得可能である。また、周辺情報は、センサデータの取得時刻に対応して録音された音声データ(音声情報)から取得してもよい。さらに、周辺情報は、センサデータの取得時刻に対応して取得された、自動二輪車の現在位置の位置情報から取得してもよい。 In the present embodiment, the peripheral information is acquired from the video data of the periphery of the motorcycle, which is captured corresponding to the acquisition time of the sensor data. For example, by performing image processing on video data, it is possible to acquire weather information, object detection information, and position information around the motorcycle. Further, the peripheral information may be acquired from the voice data (voice information) recorded corresponding to the acquisition time of the sensor data. Further, the peripheral information may be acquired from the position information of the current position of the motorcycle, which is acquired corresponding to the acquisition time of the sensor data.
図3を用いて、教師データである、センサデータと周辺情報とについて説明する。図3は、複数の異常監視装置から取得したセンサデータと周辺情報との一例を説明する図である。例えば、ユーザAから取得したセンサデータであるデータAに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Aと映像データAと音声データAとが記憶されている。位置情報Aと、サーバ装置10が外部から取得した気象情報とから、自動二輪車の駐輪位置の周辺地域では、強い雨が降っていたことがわかる。また、映像データAに画像処理を行うことによって、自動二輪車の周辺は強い雨が降っていたことがわかる。さらに、音声データAに大きな雨音が録音されていれば、自動二輪車の周辺は強い雨が降っていたことがわかる。
The sensor data and peripheral information, which are teacher data, will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of sensor data and peripheral information acquired from a plurality of abnormality monitoring devices. For example, in association with data A, which is sensor data acquired from user A, the sensor data acquisition time, whether or not it was a false detection, and peripheral information corresponding to the sensor data acquisition time include position information A and video data A. The voice data A is stored. From the position information A and the weather information acquired from the outside by the
例えば、ユーザBから取得したセンサデータであるデータBに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Bと映像データBと音声データBとが記憶されている。映像データBに画像処理を行うことによって、自動二輪車の周辺では物体が存在していたことがわかる。 For example, in association with data B, which is sensor data acquired from user B, the sensor data acquisition time, whether or not it was a false detection, and peripheral information corresponding to the sensor data acquisition time include position information B and video data B. The voice data B is stored. By performing image processing on the video data B, it can be seen that an object existed around the motorcycle.
例えば、ユーザCから取得したセンサデータであるデータCに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Cと映像データCと音声データCとが記憶されている。映像データCに画像処理を行うことによって、自動二輪車の周辺は人物が存在していたことがわかる。さらに、音声データCに人物の話し声が録音されていれば、自動二輪車の周辺は人物が存在していたことがわかる。 For example, in association with the data C which is the sensor data acquired from the user C, the sensor data acquisition time, whether or not it was a false detection, and the peripheral information corresponding to the sensor data acquisition time include the position information C and the video data C. The voice data C is stored. By performing image processing on the video data C, it can be seen that a person existed around the motorcycle. Further, if the voice of the person is recorded in the voice data C, it can be seen that the person exists around the motorcycle.
例えば、ユーザDから取得したセンサデータであるデータDに対応付けて、センサデータ取得時刻と、誤検出であったか否かと、センサデータ取得時刻に対応する周辺情報として、位置情報Dと映像データDと音声データDとが記憶されている。位置情報Dと自動二輪車の周辺の警察車両または救急車両の出動情報とから、緊急車両が出動した時間に、自動二輪車が消防署の近くに駐輪していたことがわかる。また、映像データDに画像処理を行うことによって、自動二輪車の周辺で赤色灯が点灯した緊急車両が走行していたことがわかる。さらに、音声データDにサイレン音が録音されていれば、自動二輪車の周辺でサイレン音が鳴っていたことがわかる。 For example, in association with the data D which is the sensor data acquired from the user D, the sensor data acquisition time, whether or not it was a false detection, and the position information D and the video data D as peripheral information corresponding to the sensor data acquisition time. The audio data D is stored. From the position information D and the dispatch information of the police vehicle or ambulance vehicle around the motorcycle, it can be seen that the motorcycle was parked near the fire station at the time when the emergency vehicle was dispatched. Further, by performing image processing on the video data D, it can be seen that an emergency vehicle in which the red light is lit is running around the motorcycle. Further, if the siren sound is recorded in the voice data D, it can be seen that the siren sound is sounding around the motorcycle.
制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御部20は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。制御部20は、通信制御部21と、データ取得部22と、学習部23と、判定部24と、記憶制御部25とを有する。
The control unit 20 is, for example, an arithmetic processing unit (control device) composed of a CPU (Central Processing Unit) or the like. The control unit 20 loads the stored program into the memory and executes the instructions included in the program. The control unit 20 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 20 and the like. The control unit 20 includes a communication control unit 21, a data acquisition unit 22, a
通信制御部21は、通信部11を介して、複数の異常監視装置30との通信を制御する。通信制御部21は、常時、異常監視装置30との通信状態を監視する。
The communication control unit 21 controls communication with the plurality of
データ取得部22は、複数の異常監視装置30からセンサデータと周辺情報とを取得する。データ取得部22は、取得したセンサデータと周辺情報とを記憶制御部25に出力する。
The data acquisition unit 22 acquires sensor data and peripheral information from a plurality of
学習部23は、センサデータと周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する。学習部23は、教師データであるセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNの重みを学習する。DNNの構成と重みとをDNNモデルと呼ぶ。学習部23における学習は、公知のディープラーニングにおける学習と同様の方法で実行すればよい。
The
例えば、学習部23は、「セキュリティの異常」である場合のセンサデータと周辺情報とをDNNに入力してディープラーニングを実行する。そして、「セキュリティの異常」であると正しい判定結果が出力されるか、「誤検出」であると誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。また、学習部23は、「誤検出」である場合のセンサデータと周辺情報とをDNNに入力してディープラーニングを実行する。そして、「誤検出」であると正しい判定結果が出力されるか、「セキュリティの異常」であると誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。このような処理を繰り返し行うことによって、学習の結果として学習済みの重みを求める。学習部23は、DNNの重みを含むDNNモデルを記憶部12へ出力する。
For example, the
例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから強い雨を認識した期間、位置情報と気象情報とから自動二輪車の駐輪位置の周辺地域では強い雨が降っていたと判定される期間、または、音声データに大きな雨音が録音されていた期間とが一致または近接しているデータが蓄積されている場合、強い雨を原因とする誤検出を学習可能である。また、強い雨による振動を誤検出しないように、気象情報に応じたセキュリティ異常を学習可能である。
For example, the
例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから強風を認識した期間とが一致または近接しているデータが蓄積されている場合、強風を原因とする誤検出を学習可能である。また、強風による振動を誤検出しないように、気象情報に応じたセキュリティ異常を学習可能である。
For example, when the
例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから自動二輪車の近くを通過する物体を認識した期間とが一致または近接しているデータが蓄積されている場合、物体の通過を原因とする誤検出を学習可能である。また、物体の通過による振動を誤検出しないように、物体検出情報に応じたセキュリティ異常を学習可能である。
For example, the
例えば、学習部23は、センサデータが閾値以上になった期間と、周辺情報である映像データから自動二輪車の近くを通過する人物を認識した期間、または、音声データCに人物の話し声が録音されていた期間とが一致または近接しているデータが蓄積されている場合、人物の通過を原因とする誤検出を学習可能である。また、人物の通過による振動を誤検出しないように、物体検出情報、および、人物の話し声を示す音声情報に応じたセキュリティ異常を学習可能である。
For example, the
例えば、学習部23は、センサデータが閾値以上になった期間と、位置情報Dと自動二輪車の周辺の警察車両または救急車両の出動情報とから緊急車両が出動したと判定される期間、周辺情報である映像データから緊急車両を検出した期間、または、音声データにサイレン音が録音されていた期間とが一致または近接しているデータが蓄積されている場合、サイレン音が原因の誤検出を学習可能である。また、サイレン音による振動を誤検出しないように、サイレン音を示す音声情報、駐輪位置を示す位置情報、および、緊急車両の出動情報に応じたセキュリティ異常を学習可能である。
For example, the
例えば、学習部23は、周辺情報から自動二輪車の駐輪位置が騒音による振動の大きい幹線道路沿いまたは高架下であるデータが蓄積されている場合、騒音が原因の誤検出を学習可能である。また、騒音による振動を誤検出しないように、駐輪位置に応じたセキュリティ異常を学習可能である。
For example, the
例えば、学習部23は、周辺情報から自動二輪車の周辺で花火大会のような騒音による振動の大きいイベントが開催されている日時のデータが蓄積されている場合、イベントの騒音が原因の誤検出を学習可能である。また、イベントの騒音による振動を誤検出しないように、イベントの開催日時に応じたセキュリティ異常を学習可能である。
For example, when the
学習部23は、センサデータと周辺情報と操作制御部53が取得した判断情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成してもよい。例えば、学習部23は、センサデータが閾値以上であっても、ユーザが誤検出であると判断したことを示す操作情報が蓄積されている場合、誤検出を学習可能である。
The
学習部23は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新して記憶部12へ出力する。
The
学習部23は、生成したDNNモデルに応じて、異常監視装置30のセンサ判定部49の処理で使用するセンサデータの適切な閾値を取得する。取得した適切な閾値は、異常監視装置30へ送信される。
The
判定部24について説明する。判定部24は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。より詳しくは、判定部24は、記憶部12から学習されたDNNモデルを読み出してDNNを再現し、判定用のセンサデータと周辺情報とがセキュリティの異常であるか誤検出であるかを判定する。判定部24における判定は、公知のディープラーニングにおける判定と同様の方法で実行すればよい。
The determination unit 24 will be described. When the determination unit 24 acquires the sensor data for determination and the peripheral information from the
記憶制御部25は、データ取得部22が取得したセンサデータと周辺情報とを、記憶部12に異常監視システム1で使用する教師データとして記憶させる。記憶制御部25は、データ取得部22がデータを取得すると記憶部12に記憶させた教師データを更新する。記憶制御部25は、学習部23がDNNモデルを生成または更新するごとに、記憶部12に記憶させたDNNモデルを更新する。
The
異常監視装置30は、例えば、自動二輪車に配置されている。本実施形態では、異常監視装置30は、自動二輪車用のドライブレコーダとセキュリティ機器との機能を有する一体の装置として説明する。異常監視装置30は、通信部31と、GPS受信部32と、カメラ33と、マイクロフォン34と、加速度センサ35と、スピーカ36と、操作部37と、記憶部39と、制御部40とを含む。
The
異常監視装置30は、自動二輪車の駐輪中、セキュリティの異常を監視する。異常監視装置30は、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常を判定させる。異常監視装置30は、セキュリティの異常があると判定された場合、警報音声を出力したり、ユーザに通知したりする。センサは、例えば、加速度センサ、人感センサ、温度センサ、圧力センサなどを含む。本実施形態では、加速度センサを使用する場合について説明するが、センサはこれに限定されず、他のセンサでもよいし、複数種類のセンサが配置されていてもよい。
The
通信部31は、通信ユニットである。通信部31は、サーバ装置10との通信を可能にする。本実施形態では、通信部31は、異常監視システム1が正常に動作している場合、常時、サーバ装置10と通信可能である。
The
GPS受信部32は、図示しないGPS衛星から電波を受信する。GPS受信部32は、受信した電波の信号を制御部40の位置情報取得部43へ出力する。
The
カメラ33は、自動二輪車の周辺の映像データを撮影するカメラである。カメラ33は、1台であってもよいし、複数台であってもよい。カメラ33は、自動二輪車のエンジンがONされている間は、ドライブレコーダのカメラとして機能する。本実施形態では、カメラ33は、自動二輪車の駐輪中、加速度センサ35が所定の閾値以上の加速度を検出すると撮影を開始して、例えば、数10秒程度の所定期間の映像データを保存可能である。カメラ33は、撮影した映像データを制御部40の映像データ取得部44へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。カメラ33は、制御部40のセンサ判定部49の判定結果に基づいて、撮影を開始して、撮影した映像データを映像データ取得部44へ出力する。
The
マイクロフォン34は、自動二輪車の周辺の音声データを取得するマイクロフォンである。マイクロフォン34は、1台であってもよいし、複数台であってもよい。マイクロフォン34は、取得した音声データを制御部40の音声データ取得部45へ出力する。
The
加速度センサ35は、自動二輪車に対して生じる加速度を検出するセンサである。加速度センサ35は、例えば、自動二輪車に対するいたずらなどによる衝撃が加えられたこと、または、自動二輪車を倒されたり移動されたりすることによって姿勢が変化したことを、加速度によって検出する。加速度センサ35は、検出結果であるセンサデータを制御部40のセンサデータ取得部48に出力する。加速度センサ35は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、自動二輪車の前後方向、左右方向、および上下方向である。
The
スピーカ36は、音声出力装置である。スピーカ36は、出力制御部52から出力された音声信号に基づき、警告の音声を出力する。
The
操作部37は、異常監視装置30に対する各種操作を受付可能である。例えば、操作部37は、警報音声が出力された際に、警報音声の出力を停止する機能を有する。例えば、操作部37は、警報音声が出力された際などに、ユーザが誤検出を判断した操作を受け付ける。操作部37は、操作情報を制御部40の操作制御部(ユーザ判断情報取得部)53に出力する。操作部37は、異常監視装置30に配置されていてもよいし、自動二輪車の車体のいずれかに配置されていてもよいし、ユーザが使用している電子機器の操作部であってもよい。
The
記憶部39は、異常監視装置30におけるデータの一時記憶などに用いられる。記憶部39は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、メモリカードなどの記憶部である。または、通信部31を介して無線接続される外部記憶部であってもよい。記憶部39は、制御部40の映像記憶制御部46から出力された制御信号に基づいて、映像データを記録する。
The
制御部40は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部40は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には図示しない内部メモリが含まれ、内部メモリは制御部40におけるデータの一時記憶などに用いられる。 The control unit 40 is, for example, an arithmetic processing unit (control device) composed of a CPU or the like. The control unit 40 loads the stored program into the memory and executes the instructions included in the program. The control unit 40 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 40 and the like.
制御部40は、異常監視装置30の各機能、具体的には、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37と、制御部40との接続状態を常時監視する切断監視処理を実行する。例えば、第三者が意図的に異常監視装置30を破壊した場合、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37と、制御部40との接続が切断される可能性が高い。制御部40は、通信部31とGPS受信部32とカメラ33と加速度センサ35と記憶部39とスピーカ36と操作部37との少なくともいずれかの配線が切断されるなどして接続が切断されたことを検出した場合、直ちに、警報音声の出力と、ユーザへの通知とを実行する。
The control unit 40 includes each function of the
制御部40は、通信制御部41と、位置情報取得部43と映像データ取得部44と音声データ取得部45とを含む周辺情報取得部42と、映像記憶制御部46と、駐輪検出部47と、センサデータ取得部48と、センサ判定部49と、判定結果取得部51と、出力制御部52と、操作制御部53とを有する。
The control unit 40 includes a
通信制御部41は、通信部31を介して、サーバ装置10との通信を制御する。本実施形態では、通信制御部41は、センサデータ取得部48が取得したセンサデータと、位置情報取得部43が取得した位置情報と、映像データ取得部44が取得した映像データと、音声データ取得部45が取得した音声データとをサーバ装置10へ送信するよう制御する。通信制御部41は、常時、サーバ装置10との通信状態を監視する。
The
周辺情報取得部42は、位置情報取得部43と映像データ取得部44と音声データ取得部45とによって、自動二輪車の周辺の状態を示す周辺情報を取得する。
The peripheral
位置情報取得部43は、GPS受信部32が受信した電波に基づいて、自動二輪車の現在の位置情報を公知の方法によって算出する。本実施形態では、位置情報取得部43が取得した位置情報は、周辺情報に含まれる。
The position
映像データ取得部44は、自動二輪車の周辺を撮影した映像データを取得する。より詳しくは、映像データ取得部44は、自動二輪車に配置されたカメラ33が出力した、自動二輪車の周辺の映像データを取得して、映像記憶制御部46に出力する。映像データは、周辺情報に含まれる。
The video
音声データ取得部45は、自動二輪車の周辺の音声を録音した音声データを取得する。より詳しくは、音声データ取得部45は、自動二輪車に配置されたマイクロフォン34が出力した、自動二輪車の周辺の音声データを取得する。音声データは、周辺情報に含まれる。
The voice
映像記憶制御部46は、撮影した映像データを、例えばH.264やMPEG−4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。ファイルとして生成される映像データの期間は、一例として60秒であるが、これには限定されない。また、映像データは、カメラ33が撮影した映像に加えて音声が含まれたデータであってもよい。映像記憶制御部46は、ファイル化された映像データを、記憶部39に記録させる制御を行う。
The video
駐輪検出部47は、自動二輪車から取得する情報に基づいて、自動二輪車が駐輪状態にあること、言い換えると、セキュリティの異常を監視する監視処理を開始する状態になったことを検出する。
Based on the information acquired from the motorcycle, the bicycle
自動二輪車が駐輪状態であるとは、例えば5秒以上の時間、速度がゼロとなったこと、エンジン停止などの状態である。または、ユーザ操作など任意のトリガが発生したとき、自動二輪車が駐輪状態であると判断してもよい。 The state in which the motorcycle is parked means, for example, a state in which the speed becomes zero for a time of 5 seconds or more, the engine is stopped, or the like. Alternatively, when an arbitrary trigger such as a user operation occurs, it may be determined that the motorcycle is in the parked state.
センサデータ取得部48は、自動二輪車のセキュリティの異常を検出するセンサからセンサデータを取得する。本実施形態では、センサデータ取得部48は、加速度センサ35のセンサデータを取得する。センサデータ取得部48は、取得したセンサデータをセンサ判定部49へ出力する。
The sensor
センサ判定部49は、加速度センサ35のセンサデータに基づいて、自動二輪車に対するいたずらなどによる衝撃、または、自動二輪車を倒されたり移動されたりすることによる姿勢の変化の有無を判定する。より詳しくは、センサ判定部49は、加速度センサ35によって閾値以上の加速度が検出されたか否かを検出する。閾値は、自動二輪車に対するいたずらなどによる衝撃が加えられた場合、または、自動二輪車の姿勢が変化した場合に、検出され得る加速度の値である。センサ判定部49は、閾値以上の加速度を検出したと判定する場合、いたずらなどによる衝撃または姿勢の変化があったと判定する。センサ判定部49は、閾値以上の加速度を検出したと判定しない場合、いたずらなどによる衝撃および姿勢の変化はないと判定する。
Based on the sensor data of the
センサ判定部49において使用される閾値は、サーバ装置10においてDNNモデルが更新されるごとに更新される。
The threshold value used in the
判定結果取得部51は、センサ判定部49の判定結果に応じて、サーバ装置10によってセキュリティの異常の有無を判定させて判定結果を取得する。より詳しくは、判定結果取得部51は、センサ判定部49がいたずらなどによる衝撃または姿勢の変化があったと判定する場合、通信制御部41を介して判定用のセンサデータと周辺情報とをサーバ装置10へ送信して、セキュリティの異常の有無を判定させる。判定結果取得部51は、サーバ装置10から判定結果を取得する。
The determination result
出力制御部52は、判定結果取得部51が取得した判定結果に基づいて、警報音声の出力を制御する。より詳しくは、出力制御部52は、判定結果が誤検出ではなくセキュリティの異常であることを示す場合、スピーカ36から警報音声を出力するように音声信号を出力する。
The
また、出力制御部52は、異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、スピーカ36から警報音声を出力するように音声信号を出力する。さらに、出力制御部52は、異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、ユーザが使用している電子機器などに対して通知を出力するように制御信号を出力する。
Further, when it is determined that the connection between each function of the
操作制御部53は、操作部37が受け付けた操作の操作情報を取得する。例えば、操作制御部53は、警報音声が出力された際に、警報音声の出力を停止する操作を示す警報停止操作情報を取得する。例えば、操作制御部53は、警報音声が出力された際などに、ユーザが誤検出と判断した場合には、ユーザが誤検出を判断した操作を示す判断情報を取得する。
The
次に、図4ないし図10を用いて、異常監視システムの異常診断方法及び作用について説明する。図4は、第一実施形態に係るサーバ装置における学習処理の流れを示すフローチャートである。図5は、第一実施形態に係る異常監視装置における切断監視処理の流れを示すフローチャートである。図6は、第一実施形態に係る異常監視装置における監視処理の流れを示すフローチャートである。図7は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図8は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図9は、第一実施形態に係る異常監視装置における処理の流れを示すフローチャートである。図10は、第一実施形態に係るサーバ装置における判定処理の流れを示すフローチャートである。 Next, the abnormality diagnosis method and operation of the abnormality monitoring system will be described with reference to FIGS. 4 to 10. FIG. 4 is a flowchart showing a flow of learning processing in the server device according to the first embodiment. FIG. 5 is a flowchart showing a flow of disconnection monitoring processing in the abnormality monitoring device according to the first embodiment. FIG. 6 is a flowchart showing a flow of monitoring processing in the abnormality monitoring device according to the first embodiment. FIG. 7 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 8 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 9 is a flowchart showing a processing flow in the abnormality monitoring device according to the first embodiment. FIG. 10 is a flowchart showing a flow of determination processing in the server device according to the first embodiment.
図4を用いて、サーバ装置10における学習処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、複数の異常監視装置30からセンサデータと周辺情報とを取得する(ステップS101)。制御部20は、記憶制御部25によって、取得したセンサデータと周辺情報とを記憶部12に記憶させる。制御部20は、ステップS102へ進む。
The learning process in the
制御部20は、学習部23によって、記憶部12に記憶された、複数の異常監視装置30のセンサデータと周辺情報とを用いて、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNの重みを人工知能によって学習する(ステップS102)。制御部20は、ステップS103へ進む。
The control unit 20 uses the sensor data and peripheral information of the plurality of
制御部20は、記憶制御部25によって、生成した学習済みモデルを記憶部12に保存する(ステップS103)。制御部20は、処理を終了する。
The control unit 20 stores the learned model generated by the
このようにして、異常監視システム1の異常監視装置30における処理が実行される前に、サーバ装置10において、あらかじめ学習済みモデルが生成されている。サーバ装置10は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新する。
In this way, the trained model is generated in advance in the
図5を用いて、異常監視装置30における切断監視処理について説明する。異常監視装置30において、制御部40は、異常監視装置30の各機能と制御部40との接続が切断されたか否かを判定する(ステップS201)。通信制御部41によって、接続が切断されたと判定する場合(ステップS201でYes)、ステップS202へ進む。異常監視装置30の各機能と制御部40との接続が切断されたと判定される場合、異常監視装置30が第三者によって意図的に破壊された可能性が高いので、直ちに警報音声の出力と、ユーザへ通知することが好ましい。通信制御部41によって、異常監視装置30の各機能と制御部40との接続が切断されたと判定しない場合(ステップS201でNo)、ステップS201の処理を再度実行する。
The disconnection monitoring process in the
接続が切断されたと判定する場合(ステップS201でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声を出力するように音声信号を出力する(ステップS202)。制御部40は、ステップS203へ進む。
When it is determined that the connection is disconnected (Yes in step S201), the control unit 40 outputs a voice signal by the
制御部40は、出力制御部52によって、ユーザが使用している電子機器などに対して通知を出力するように制御信号を出力する(ステップS203)。制御部40は、ステップS204へ進む。
The control unit 40 outputs a control signal by the
制御部40は、操作制御部53によって、警報解除操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS204)。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS204でYes)、ステップS205へ進む。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS204でNo)、ステップS206へ進む。
The control unit 40 determines whether or not the
警報解除操作が実行されたと判定する場合(ステップS204でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS205)。制御部40は、処理を終了する。
When it is determined that the alarm release operation has been executed (Yes in step S204), the control unit 40 stops the output of the voice signal by the
警報解除操作が実行されたと判定しない場合(ステップS204でNo)、制御部40は、ステップS201で接続が切断されたと判定した状態における異常監視装置30の各機能と制御部40との接続状態を示す情報とともに、センサデータと位置データと映像データとを、サーバ装置10へ送信する(ステップS206)。制御部40は、処理を終了する。
If it is not determined that the alarm release operation has been executed (No in step S204), the control unit 40 determines the connection state between each function of the
図6を用いて、異常監視装置30における監視処理について説明する。異常監視装置30において、制御部40は、センサデータ取得部48によって、加速度センサ35からセンサデータとして加速度を取得する(ステップS211)。制御部40は、ステップS212へ進む。
The monitoring process in the
制御部40は、センサ判定部49によって、センサデータである加速度が閾値以上であるか否かを判定する(ステップS212)。制御部40は、センサ判定部49によって、加速度が閾値以上であると判定する場合(ステップS212でYes)、ステップS213へ進む。制御部40は、センサ判定部49によって、加速度が閾値以上であると判定しない場合(ステップS212でNo)、ステップS211の処理を再度実行する。
The control unit 40 determines whether or not the acceleration, which is the sensor data, is equal to or greater than the threshold value by the sensor determination unit 49 (step S212). When the
制御部40は、判定結果取得処理を実行する(ステップS213)。制御部40は、処理を終了する。 The control unit 40 executes the determination result acquisition process (step S213). The control unit 40 ends the process.
図7を用いて、図6に示すフローチャートのステップS213の判定結果取得処理について説明する。制御部40は、カメラ33を起動して、撮影を開始する(ステップS221)。制御部40は、ステップS222へ進む。
The determination result acquisition process in step S213 of the flowchart shown in FIG. 6 will be described with reference to FIG. 7. The control unit 40 activates the
制御部40は、判定結果取得部51によって、センサ判定部49が閾値以上の加速度を検出したと判定した状態における、加速度センサ35のセンサデータと、位置情報取得部43が取得した位置情報と、ステップS221で撮影を開始した映像データとを判定用のデータとしてサーバ装置10へ送信する(ステップS222)。制御部40は、ステップS223へ進む。
The control unit 40 determines that the
制御部40は、判定結果取得部51によって、サーバ装置10から判定結果を取得したか否かを判定する(ステップS223)。制御部40は、判定結果を取得したと判定する場合(ステップS223でYes)、ステップS224へ進む。制御部40は、判定結果を取得したと判定しない場合(ステップS223でNo)、ステップS223の処理を再度実行する。
The control unit 40 determines whether or not the determination result has been acquired from the
判定結果を取得したと判定する場合(ステップS223でYes)、制御部40は、判定結果がセキュリティの異常であるか否かを判定する(ステップS224)。制御部40は、判定結果がセキュリティの異常であると判定する場合(ステップS224でYes)、ステップS225へ進む。制御部40は、判定結果がセキュリティの異常であると判定しない場合(ステップS224でNo)、ステップS226へ進む。 When it is determined that the determination result has been acquired (Yes in step S223), the control unit 40 determines whether or not the determination result is a security abnormality (step S224). When the control unit 40 determines that the determination result is a security abnormality (Yes in step S224), the control unit 40 proceeds to step S225. If the control unit 40 does not determine that the determination result is a security abnormality (No in step S224), the control unit 40 proceeds to step S226.
制御部40は、判定結果がセキュリティの異常であると判定する場合(ステップS224でYes)、異常時処理を実行する(ステップS225)。制御部40は、処理を終了する。 When the control unit 40 determines that the determination result is a security abnormality (Yes in step S224), the control unit 40 executes an abnormality processing (step S225). The control unit 40 ends the process.
判定結果がセキュリティの異常であると判定しない場合(ステップS224でNo)、制御部40は、判定結果が誤検出であるか否かを判定する(ステップS226)。制御部40は、判定結果が誤検出であると判定する場合(ステップS226でYes)、ステップS227へ進む。制御部40は、判定結果が誤検出であると判定しない場合(ステップS226でNo)、言い換えると、サーバ装置10で判定できなかった場合、ステップS228へ進む。
When the determination result is not determined to be a security abnormality (No in step S224), the control unit 40 determines whether or not the determination result is an erroneous detection (step S226). When the control unit 40 determines that the determination result is an erroneous detection (Yes in step S226), the control unit 40 proceeds to step S227. If the control unit 40 does not determine that the determination result is an erroneous detection (No in step S226), in other words, if the
制御部40は、判定結果が誤検出であると判定する場合(ステップS226でYes)、出力制御部52によって、ユーザへ誤検出した旨を通知する処理を行う(ステップS227)。誤検出の通知は、音声をスピーカ36から出力してもよいし、ユーザが使用している電子機器などに対して出力してもよい。制御部40は、処理を終了する。
When the control unit 40 determines that the determination result is an erroneous detection (Yes in step S226), the
制御部40は、判定結果が誤検出であると判定しない場合(ステップS226でNo)、ユーザによる判断処理を実行する(ステップS228)。制御部40は、処理を終了する。 If the control unit 40 does not determine that the determination result is an erroneous detection (No in step S226), the control unit 40 executes a determination process by the user (step S228). The control unit 40 ends the process.
図8を用いて、図7に示すフローチャートのステップS225の異常時処理について説明する。制御部40は、出力制御部52によって、警報音声をスピーカ36から出力するように音声信号を出力する(ステップS231)。制御部40は、ステップS232へ進む。
The abnormality processing in step S225 of the flowchart shown in FIG. 7 will be described with reference to FIG. The control unit 40 outputs a voice signal by the
制御部40は、出力制御部52によって、セキュリティの異常があった旨を警告する通知を、ユーザが使用している電子機器などに対して出力するように制御信号を出力する(ステップS232)。この場合、出力制御部52は、ユーザが使用している電子機器などに対して、撮影した映像データを送信する。ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断する。制御部40は、ステップS233へ進む。
The control unit 40 outputs a control signal by the
制御部40は、操作制御部53によって、警報解除操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS233)。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS233でYes)、ステップS234へ進む。制御部40は、警報解除操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS233でNo)、ステップS236へ進む。
The control unit 40 determines whether or not the
警報解除操作が実行されたと判定する場合(ステップS233でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS234)。制御部40は、ステップS235へ進む。
When it is determined that the alarm release operation has been executed (Yes in step S233), the control unit 40 stops the output of the voice signal by the
制御部40は、サーバ装置10へ送信した判定用のデータに、ユーザによって警報が解除されたことを示す情報を追加して、サーバ装置10へ送信する(ステップS235)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。
The control unit 40 adds information indicating that the alarm has been canceled by the user to the determination data transmitted to the
警報解除操作が実行されたと判定しない場合(ステップS233でNo)、制御部40は、サーバ装置10へ送信した判定用のデータと、警報が解除されていないことを示す情報とを、サーバ装置10へ送信する(ステップS236)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。
When it is not determined that the alarm release operation has been executed (No in step S233), the control unit 40 transmits the determination data transmitted to the
図9を用いて、図7に示すフローチャートのステップS228のユーザ判断処理について説明する。制御部40は、出力制御部52によって、警報音声をスピーカ36から出力するように音声信号を出力する(ステップS241)。制御部40は、ステップS242へ進む。
The user judgment process of step S228 of the flowchart shown in FIG. 7 will be described with reference to FIG. The control unit 40 outputs a voice signal by the
制御部40は、出力制御部52によって、セキュリティの異常が判定できなかった旨を警告する通知を、ユーザが使用している電子機器などに対して出力するように制御信号を出力する(ステップS242)。この場合、出力制御部52は、ユーザが使用している電子機器などに対して、撮影した映像データを送信する。ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断する。制御部40は、ステップS243へ進む。
The control unit 40 outputs a control signal so that the
制御部40は、操作制御部53によって、誤検出判断操作が実行されたことを示す操作情報が取得されたか否かを判定する(ステップS243)。制御部40は、誤検出判断操作が実行されたことを示す操作情報が取得されたと判定する場合(ステップS243でYes)、ステップS244へ進む。制御部40は、誤検出判断操作が実行されたことを示す操作情報が取得されたと判定しない場合(ステップS243でNo)、ステップS246へ進む。
The control unit 40 determines whether or not the
誤検出判断操作が実行されたと判定する場合(ステップS243でYes)、制御部40は、出力制御部52によって、スピーカ36から警報音声の出力を停止するよう音声信号の出力を停止する(ステップS244)。制御部40は、ステップS245へ進む。
When it is determined that the false detection determination operation has been executed (Yes in step S243), the control unit 40 stops the output of the voice signal by the
制御部40は、サーバ装置10へ送信した判定用のデータに、誤検出であるとユーザが判断したことを示す情報を追加して、サーバ装置10へ送信する(ステップS245)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。
The control unit 40 adds information indicating that the user has determined that the error has been detected to the determination data transmitted to the
誤検出判断操作が実行されたと判定しない場合(ステップS243でNo)、制御部40は、サーバ装置10へ送信した判定用のデータと、セキュリティの異常であるとユーザが判断したことを示す情報とを、サーバ装置10へ送信する(ステップS246)。なお、サーバ装置10では、取得した判定用のデータに基づいて、記憶部12に記憶された教師データを更新する。制御部40は、処理を終了する。
When it is not determined that the false detection determination operation has been executed (No in step S243), the control unit 40 includes the determination data transmitted to the
図10を用いて、サーバ装置10における判定処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、異常監視装置30から判定用のセンサデータと周辺情報とを取得する(ステップS111)。制御部20は、ステップS112へ進む。
The determination process in the
制御部20は、判定部24によって、DNNを使用して、判定用のセンサデータと周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する(ステップS112)。制御部20は、ステップS113へ進む。 The control unit 20 uses the DNN to determine the security abnormality and the false detection based on the sensor data for determination and the peripheral information by the determination unit 24 (step S112). The control unit 20 proceeds to step S113.
制御部20は、通信制御部21によって、異常監視装置30へ判定結果を送信する(ステップS113)。制御部20は、処理を終了する。
The control unit 20 transmits the determination result to the
このようにして、サーバ装置10では、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いた人工知能による機械学習によって、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成する。サーバ装置10は、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定する。
In this way, in the
異常監視装置30では、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常をDNNを使用して判定させる。
In the
上述したように、本実施形態では、サーバ装置10において、複数の異常監視装置30から取得したセンサデータと周辺情報とを用いた人工知能による機械学習によって、セキュリティの異常と誤検出とを判定する学習済みモデルとしてDNNを生成することができる。本実施形態では、サーバ装置10において、異常監視装置30から判定用のセンサデータと周辺情報とを取得した場合、DNNを使用してセキュリティの異常と誤検出とを判定することができる。
As described above, in the present embodiment, in the
本実施形態によれば、人工知能による機械学習によって、セキュリティの異常である状態と、誤検出である状態とを、DNNモデルを生成して、適切に判定することができる。これにより、本実施形態は、自動二輪車の周辺情報に応じて、誤検出を低減することができる。 According to the present embodiment, by machine learning by artificial intelligence, a DNN model can be generated to appropriately determine a state in which a security is abnormal and a state in which a false detection is made. As a result, the present embodiment can reduce erroneous detection according to the peripheral information of the motorcycle.
本実施形態では、異常監視装置30において、自動二輪車に配置したセンサが検出したセンサデータと、カメラ33が周辺を撮影した映像データとに基づいて、サーバ装置10によって、自動二輪車に対して発生したセキュリティの異常をDNNを使用して判定させることができる。このようにして、本実施形態によれば、自動二輪車の駐輪中、セキュリティの異常を高精度に監視することができる。
In the present embodiment, the
[第二実施形態]
図11、図12を参照しながら、本実施形態に係る異常監視システム1について説明する。図11は、第二実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。図12は、第二実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、第一実施形態の異常監視装置30が有する機能を、異常監視用の撮影装置30Aと、異常監視装置30Bとに分けて備えた点で第一実施形態と異なる。撮影装置30Aと異常監視装置30Bとの各機能の基本的な構成は第一実施形態の異常監視装置30と同様である。以下の説明においては、異常監視装置30と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
[Second Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to the second embodiment. FIG. 12 is a schematic view showing a configuration example of the abnormality monitoring device according to the second embodiment. The present embodiment is different from the first embodiment in that the functions of the
異常監視用の撮影装置30Aは、自動二輪車用のドライブレコーダの機能を有する。撮影装置30Aは、通信部31Aと、GPS受信部32Aと、カメラ33Aと、記憶部39Aと、制御部40Aとを含む。撮影装置30Aは、撮影した映像データをサーバ装置10へ送信する。
The photographing
制御部40Aは、通信制御部41Aと、位置情報取得部43Aと映像データ取得部44Aと音声データ取得部45Aとを含む周辺情報取得部42Aと、映像記憶制御部46Aとを有する。
The
異常監視装置30Bは、自動二輪車用のセキュリティ機器の機能を有する。異常監視装置30Bは、通信部31Bと、加速度センサ35Bと、スピーカ36Bと、操作部37Bと、制御部40Bとを含む。異常監視装置30Bは、センサデータをサーバ装置10へ送信する。
The
制御部40Bは、通信制御部41Bと、駐輪検出部47Bと、センサデータ取得部48Bと、センサ判定部49Bと、判定結果取得部51Bと、出力制御部52Bと、操作制御部53Bとを有する。
The
サーバ装置10は、撮影装置30Aから受信した周辺情報である映像データと位置情報と音声データと、異常監視装置30Bから受信したセンサデータとを対応付けて処理を実行する。
The
上述したように、本実施形態は、撮影装置30Aと異常監視装置30Bとに分けて構成することができる。本実施形態によれば、異常監視装置30Bを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。本実施形態によれば、自動二輪車の駐輪中、セキュリティの異常を監視していることを、第三者に気が付かれにくくすることができる。
As described above, the present embodiment can be divided into the photographing
[第三実施形態]
図13を参照しながら、本実施形態に係る異常監視システム1について説明する。図13は、第三実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、第一実施形態の異常監視装置30からカメラ機能を除いた点で第一実施形態と異なる。異常監視装置30Cの各機能の基本的な構成は第一実施形態の異常監視装置30と同様である。
[Third Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIG. FIG. 13 is a schematic view showing a configuration example of the abnormality monitoring device according to the third embodiment. This embodiment is different from the first embodiment in that the camera function is removed from the
異常監視装置30Cは、通信部31Cと、GPS受信部32Cと、加速度センサ35Cと、記憶部39Cと、スピーカ36Cと、操作部37Cと、制御部40Cとを含む。
The
制御部40Cは、通信制御部41Cと、位置情報取得部43Cと映像データ取得部44Cと音声データ取得部45Cとを含む周辺情報取得部42Cと、映像記憶制御部46Cと,駐輪検出部47Cと、センサデータ取得部48Cと、センサ判定部49Cと、判定結果取得部51Cと、出力制御部52Cと、操作制御部53Cとを有する。映像データ取得部44Cは、外部のカメラから映像データを取得する。音声データ取得部45Cは、外部のマイクロフォンから音声データを取得する。
The
上述したように、本実施形態は、異常監視装置30Cからカメラ機能を除いて構成することができる。本実施形態によれば、異常監視装置30Cを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。
As described above, the present embodiment can be configured by removing the camera function from the
[第四実施形態]
図14、図15を参照しながら、本実施形態に係る異常監視システム1について説明する。図14は、第四実施形態に係る異常監視用の撮影装置の構成例を示す概略図である。図15は、第四実施形態に係る異常監視装置の構成例を示す概略図である。本実施形態は、異常監視用の撮影装置30Dがカメラ機能を有していない点で第二実施形態と異なる。
[Fourth Embodiment]
The abnormality monitoring system 1 according to the present embodiment will be described with reference to FIGS. 14 and 15. FIG. 14 is a schematic view showing a configuration example of an imaging device for abnormality monitoring according to a fourth embodiment. FIG. 15 is a schematic view showing a configuration example of the abnormality monitoring device according to the fourth embodiment. This embodiment is different from the second embodiment in that the photographing
撮影装置30Dは、通信部31Dと、GPS受信部32Dと、記憶部39Dと、制御部40Dとを含む。
The photographing
制御部40Dは、通信制御部41Dと、位置情報取得部43Dと映像データ取得部44Dと音声データ取得部45Dとを含む周辺情報取得部42Dと、映像記憶制御部46Dとを有する。映像データ取得部44Dは、外部のカメラから映像データを取得する。音声データ取得部45Dは、外部のマイクロフォンから音声データを取得する。
The
異常監視装置30Eは、通信部31Eと、加速度センサ35Eと、スピーカ36Eと、操作部37Eと、制御部40Eとを含む。
The
制御部40Eは、通信制御部41Eと、駐輪検出部47Eと、センサデータ取得部48Eと、センサ判定部49Eと、判定結果取得部51Eと、出力制御部52Eと、操作制御部53Eとを有する。
The
上述したように、本実施形態は、撮影装置30Dと異常監視装置30Eとに分けて構成し、さらに、異常監視装置30Cからカメラ機能を除いて構成することができる。本実施形態によれば、撮影装置30Dと異常監視装置30Eとを外部から見えにくい位置や、自動二輪車の車体の内部に配置することができる。
As described above, the present embodiment can be configured separately by the photographing
さて、これまで本発明に係る異常監視システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 By the way, although the abnormality monitoring system 1 according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiment.
図示した異常監視システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況等に応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the abnormality monitoring system 1 shown in the figure is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.
異常監視システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラム等によって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the abnormality monitoring system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by linking these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.
上記において、ステップS227においても、ユーザが使用している電子機器などに対して通知を出力する際に、撮影した映像データを送信するようにしてもよい。これにより、ユーザは、映像データを確認して、セキュリティの異常であるか誤検出であるかを判断できるようにしてもよい。 In the above, also in step S227, the captured video data may be transmitted when the notification is output to the electronic device or the like used by the user. As a result, the user may be able to check the video data and determine whether it is a security abnormality or a false positive.
さらに、自動二輪車が盗難の被害にあった場合、検出されたセンサデータと周辺情報とを、外部のサーバ装置に保存して、盗難車の特定などに使用できるようにしてもよい。 Further, when the motorcycle is damaged by theft, the detected sensor data and peripheral information may be stored in an external server device so that the motorcycle can be used for identifying the stolen vehicle.
1 異常監視システム
10 サーバ装置
20 制御部
23 学習部
24 判定部
30 異常監視装置
33 カメラ
35 加速度センサ(センサ)
40 制御部
42 周辺情報取得部
43 位置情報取得部
44 映像データ取得部
47 駐輪検出部
48 センサデータ取得部
49 センサ判定部
51 判定結果取得部
53 操作制御部(ユーザ判断情報取得部)
1
40
Claims (5)
移動体の周辺の状態を示す周辺情報を取得する周辺情報取得部と、
前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習部と、
前記学習部が学習した前記学習済みモデルを使用して、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定部と、
を備えることを特徴とする異常監視システム。 A sensor data acquisition unit that acquires sensor data from a sensor that detects security abnormalities on a moving object,
Peripheral information acquisition unit that acquires peripheral information indicating the surrounding state of the moving body,
A trained model for determining a security abnormality and a false detection by learning by artificial intelligence based on the sensor data acquired by the sensor data acquisition unit and the peripheral information acquired by the peripheral information acquisition unit. With the learning department that generates
Using the learned model learned by the learning unit, a security abnormality and erroneous detection are made based on the sensor data acquired by the sensor data acquisition unit and the peripheral information acquired by the peripheral information acquisition unit. Judgment unit that determines
An abnormality monitoring system characterized by being equipped with.
請求項1に記載の異常監視システム。 The peripheral information includes meteorological information indicating the weather state around the moving body, object detection information indicating the detection of an object in the vicinity of the moving body, audio information indicating the sound around the moving body, and the moving body. Contains at least one of the location information that indicates the current location of
The abnormality monitoring system according to claim 1.
請求項1または2に記載の異常監視システム。 The peripheral information acquisition unit includes a video data acquisition unit that acquires video data around the moving body, which is captured by a photographing unit arranged on the moving body.
The abnormality monitoring system according to claim 1 or 2.
を備え、
前記学習部は、前記センサデータ取得部が取得した前記センサデータと、前記周辺情報取得部が取得した前記周辺情報と、前記ユーザ判断情報取得部が取得した前記判断情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する、
請求項1から3のいずれか一項に記載の異常監視システム。 User judgment information acquisition unit that acquires judgment information indicating the judgment result that the user has judged to be a false positive
With
The learning unit uses artificial intelligence based on the sensor data acquired by the sensor data acquisition unit, the peripheral information acquired by the peripheral information acquisition unit, and the determination information acquired by the user judgment information acquisition unit. Train to generate a trained model for determining security anomalies and false positives,
The abnormality monitoring system according to any one of claims 1 to 3.
移動体の周辺の状態を示す周辺情報を取得する周辺情報取得ステップと、
前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて人工知能によって学習して、セキュリティの異常と誤検出とを判定するための学習済みモデルを生成する学習ステップと、
前記学習ステップにおいて学習した前記学習済みモデルを使用して、前記センサデータ取得ステップにおいて取得した前記センサデータと、前記周辺情報取得ステップにおいて取得した前記周辺情報とに基づいて、セキュリティの異常と誤検出とを判定する判定ステップと、
を含む異常監視方法。 The sensor data acquisition step to acquire sensor data from the sensor that detects the security abnormality of the moving object,
Peripheral information acquisition step to acquire peripheral information indicating the surrounding state of the moving body,
A trained model for determining a security abnormality and a false detection by learning by artificial intelligence based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step. With learning steps to generate
Using the trained model learned in the learning step, a security abnormality and erroneous detection are made based on the sensor data acquired in the sensor data acquisition step and the peripheral information acquired in the peripheral information acquisition step. And the judgment step to judge
Abnormality monitoring method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034791A JP2020140401A (en) | 2019-02-27 | 2019-02-27 | Abnormality monitoring system, and, abnormality monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034791A JP2020140401A (en) | 2019-02-27 | 2019-02-27 | Abnormality monitoring system, and, abnormality monitoring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020140401A true JP2020140401A (en) | 2020-09-03 |
Family
ID=72264874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019034791A Pending JP2020140401A (en) | 2019-02-27 | 2019-02-27 | Abnormality monitoring system, and, abnormality monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020140401A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220118052A (en) * | 2021-02-18 | 2022-08-25 | 인플랩 주식회사 | Theft detection system for two-wheeled vehicles using impact detection technology |
JP7488908B2 (en) | 2020-09-30 | 2024-05-22 | 本田技研工業株式会社 | Monitoring device, vehicle, monitoring method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104670155A (en) * | 2015-02-09 | 2015-06-03 | 上海交通大学 | VSAS (Vehicle Security Alarm System) based on cloud vehicle networking |
JP2017091381A (en) * | 2015-11-13 | 2017-05-25 | パナソニックIpマネジメント株式会社 | Security device and security system |
JP2018005884A (en) * | 2016-06-27 | 2018-01-11 | 株式会社Jvcケンウッド | Image recording device, image recording method, and image recording program |
US20180108369A1 (en) * | 2016-10-19 | 2018-04-19 | Ford Global Technologies, Llc | Vehicle Ambient Audio Classification Via Neural Network Machine Learning |
-
2019
- 2019-02-27 JP JP2019034791A patent/JP2020140401A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104670155A (en) * | 2015-02-09 | 2015-06-03 | 上海交通大学 | VSAS (Vehicle Security Alarm System) based on cloud vehicle networking |
JP2017091381A (en) * | 2015-11-13 | 2017-05-25 | パナソニックIpマネジメント株式会社 | Security device and security system |
JP2018005884A (en) * | 2016-06-27 | 2018-01-11 | 株式会社Jvcケンウッド | Image recording device, image recording method, and image recording program |
US20180108369A1 (en) * | 2016-10-19 | 2018-04-19 | Ford Global Technologies, Llc | Vehicle Ambient Audio Classification Via Neural Network Machine Learning |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7488908B2 (en) | 2020-09-30 | 2024-05-22 | 本田技研工業株式会社 | Monitoring device, vehicle, monitoring method, and program |
KR20220118052A (en) * | 2021-02-18 | 2022-08-25 | 인플랩 주식회사 | Theft detection system for two-wheeled vehicles using impact detection technology |
KR102490788B1 (en) | 2021-02-18 | 2023-01-20 | 인플랩 주식회사 | Theft detection system for two-wheeled vehicles using impact detection technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11433855B2 (en) | Intelligent detection and alerting of potential intruders | |
US10061013B2 (en) | Mobile gunshot detection | |
US9947152B2 (en) | Vehicle visual and non-visual data recording system | |
US20200312063A1 (en) | Safety for vehicle users | |
JP4726586B2 (en) | Car drive recorder | |
ES2293531T3 (en) | ALARM SYSTEM. | |
CN111063162A (en) | Silent alarm method and device, computer equipment and storage medium | |
JP6532106B2 (en) | Monitoring device, monitoring method and program for monitoring | |
US20240046664A1 (en) | Cloud-controlled vehicle security system | |
CN110503802A (en) | Driving accident judgment method and system based on automobile data recorder | |
JP2020140401A (en) | Abnormality monitoring system, and, abnormality monitoring method | |
US11562570B2 (en) | Vehicle damage identification and incident management systems and methods | |
WO2011025460A1 (en) | Method and system for event detection | |
WO2016132251A1 (en) | Device and method for monitoring a vehicle, particularly for the management of loss events | |
CN111051171A (en) | Detection of anomalies within an autonomous vehicle | |
WO2020195706A1 (en) | Recording system and recording method | |
CN114463928B (en) | Intelligent alarm method and system | |
JP2005075253A (en) | Accident situation record reporting device | |
JP7447626B2 (en) | Information processing method, information processing device, program and information processing system | |
US11089451B2 (en) | Automatic incident detection and reporting | |
US20210122332A1 (en) | System for providing vehicle security, monitoring and alerting | |
KR20200136736A (en) | Multi object detection system using deep running based on closed circuit television image | |
KR20060122029A (en) | Apparatus and method of surveillance in car | |
WO2021199311A1 (en) | Monitoring device, monitoring method, and recording medium | |
KR19980026652A (en) | Vehicle anti-theft device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230322 |