JP2020087036A - Monitoring apparatus, monitoring system, monitoring method, and program - Google Patents

Monitoring apparatus, monitoring system, monitoring method, and program Download PDF

Info

Publication number
JP2020087036A
JP2020087036A JP2018221560A JP2018221560A JP2020087036A JP 2020087036 A JP2020087036 A JP 2020087036A JP 2018221560 A JP2018221560 A JP 2018221560A JP 2018221560 A JP2018221560 A JP 2018221560A JP 2020087036 A JP2020087036 A JP 2020087036A
Authority
JP
Japan
Prior art keywords
data
image data
unit
point cloud
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221560A
Other languages
Japanese (ja)
Other versions
JP7347775B2 (en
Inventor
青木 教之
Noriyuki Aoki
教之 青木
大輝 横田
Daiki Yokota
大輝 横田
真則 高岡
Masanori Takaoka
真則 高岡
研二 河野
Kenji Kono
研二 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2018221560A priority Critical patent/JP7347775B2/en
Publication of JP2020087036A publication Critical patent/JP2020087036A/en
Application granted granted Critical
Publication of JP7347775B2 publication Critical patent/JP7347775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • General Factory Administration (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a monitoring apparatus and so on which can contribute to monitoring under various states of a site.SOLUTION: A monitoring apparatus according to the present invention has an imaging unit for converting motion picture data into image data if captured data from a monitoring camera is motion picture data, a point group making unit for converting three-dimensional data into point group data if the captured data is the three-dimensional data, a predication model generating unit for generating, in a first mode, a prediction model through machine learning with using the image data or the point group data, a model determining unit for determining, in a second mode, change of a monitoring object included in the data by comparing the image data or the point group data with the prediction model, and a reference value determining unit for measuring a predetermined mode of the monitoring object included in the point group data in the second mode and for determining the change of the monitoring object by comparing the measured value with a preset reference value.SELECTED DRAWING: Figure 14

Description

本発明は、監視装置、監視システム、監視方法、及びプログラムに関する。 The present invention relates to a monitoring device, a monitoring system, a monitoring method, and a program.

ガラス工場、製鉄所などの工場では、工場の屋外若しくは屋内に設置された原料ヤードで、ガラスの原料である珪砂、鉄鋼の原料である鉄鉱石などの原材料を保管している。原料ヤードに保管された原材料は、スタッカ、リクレーマなどのヤード機械で高炉等に搬送される。原料ヤード、高炉等の現場の監視(巡視、巡回点検、環境整備、清掃、保守点検など)の際、作業員が徒歩、又は、移動体(車等)に乗って定期的に現場に出向いて、作業者が目視したり、カメラで撮影し、撮影した画像を確認して、現場を監視している。 In factories such as glass factories and steel mills, raw materials such as silica sand which is a raw material of glass and iron ore which is a raw material of steel are stored in a raw material yard installed outdoors or indoors of the factory. Raw materials stored in the raw material yard are transferred to a blast furnace or the like by a yard machine such as a stacker or a reclaimer. When monitoring the site of raw material yard, blast furnace, etc. (patrol, patrol inspection, environmental maintenance, cleaning, maintenance inspection, etc.), workers go to the site regularly on foot or on a moving body (car etc.) The operator monitors the site by visually checking it or taking a picture with a camera and checking the taken image.

現場に出向いて監視する方法では、いくつかの問題がある。例えば、人手に任せた現場の監視は、広域範囲に及ぶため、多大な時間が掛かる。また、原材料の形態は様々であるため、作業者の確認が感覚的になったり、作業者の経験に依存して、監視基準がばらつく可能性がある。さらに、原材料は様々な種類があるので、単なる監視だけでなく原材料の性質を把握する必要がある。 There are several problems with the onsite visit and monitoring method. For example, manual monitoring of a site takes a long time because it covers a wide area. In addition, since there are various forms of raw materials, there is a possibility that the confirmation of the operator becomes sensuous, and the monitoring standard varies depending on the experience of the operator. Furthermore, since there are various types of raw materials, it is necessary to understand the properties of the raw materials as well as simple monitoring.

このような問題を解決するために、現場に設置された可視カメラ及び赤外線カメラを用いて、現場の監視を自動的かつ連続的に行うことができる方法がある(例えば、特許文献1参照)。 In order to solve such a problem, there is a method capable of automatically and continuously monitoring the site by using a visible camera and an infrared camera installed on the site (for example, refer to Patent Document 1).

特開平7−298248号公報JP-A-7-298248

以下の分析は、本願発明者により与えられる。 The following analysis is given by the inventor of the present application.

しかしながら、監視手段として特許文献1に記載された可視カメラや赤外線カメラだけでなく、原材料の形態や種類、顧客の要望に応じて、様々な種類のカメラを用いて現場の様々な状況を監視できるようになることが期待される。 However, as the monitoring means, not only the visible camera and the infrared camera described in Patent Document 1, but also various types of cameras can be used to monitor various situations in the field according to the form and type of raw materials and the customer's request. Is expected to be.

本発明の主な課題は、現場の様々な状況を監視することに貢献することができる監視装置、監視システム、監視方法、及びプログラムを提供することである。 A main object of the present invention is to provide a monitoring device, a monitoring system, a monitoring method, and a program that can contribute to monitoring various situations in the field.

第1の視点に係る監視装置は、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する画像化部と、前記撮影データが3次元データであるときに前記3次元データを点群データに変換する点群化部と、第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する予測モデル作成部と、前記第1モードとは異なる第2モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、前記予測モデル作成部で作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するモデル判定部と、前記第2モードのときに、前記点群化部で変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する基準値判定部と、を備える。 The monitoring device according to the first aspect is an imaging unit that converts the moving image data into image data when the shooting data from the monitoring camera that shoots the base is moving image data, and the shooting data is three-dimensional data. Sometimes a point grouping unit for converting the three-dimensional data into point group data, and in the first mode, the image data converted by the image forming unit, or the image data converted by the point grouping unit. A prediction model creation unit that creates a prediction model by machine learning using point cloud data or other image data when the shooting data is image data, and a second mode different from the first mode. Sometimes, the image data converted by the imaging unit, or the point group data converted by the point grouping unit, or the other image data when the shooting data is image data, By comparing the prediction model created by the prediction model creation unit, a model determination unit that determines a change in the monitoring target included in the image data or the point cloud data or the other image data, In the second mode, the predetermined form of the monitoring target included in the point cloud data converted by the point cloud forming unit is measured, and the measured value and a preset reference value are measured. And a reference value determination unit that determines a change in the monitored object.

第2の視点に係る監視システムは、拠点を撮影する監視カメラと、前記第1の視点に係る監視装置と、を備える。 The monitoring system according to the second viewpoint includes a monitoring camera that captures an image of the site and a monitoring device according to the first viewpoint.

第3の視点に係る監視方法は、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換するステップと、前記撮影データが3次元データであるときに前記3次元データを点群データに変換するステップと、第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成するステップと、前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するステップと、前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定するステップと、を含む。 The monitoring method according to the third aspect includes a step of converting the moving image data into image data when the shooting data from the surveillance camera that shoots the base is moving image data, and when the shooting data is three-dimensional data. Converting the three-dimensional data into point cloud data; and in the first mode, the converted image data, the converted point cloud data, or the captured data is image data. Machine learning is used to create a prediction model using other image data, and the converted image data or the converted point cloud data in the second mode different from the first mode. Or, the image data is included in the image data, the point cloud data, or the other image data by comparing the other image data when the image data is image data with the created prediction model. A step of determining a change of the monitored object, the predetermined mode of the monitored object included in the converted point cloud data is measured in the second mode, and the measured value is set in advance. Determining a change in the monitored object by comparing the measured reference value with the determined reference value.

第4の視点に係るプログラムは、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する処理と、前記撮影データが3次元データであるときに前記3次元データを点群データに変換する処理と、第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する処理と、前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定する処理と、前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する処理と、をハードウェア資源に実行させる。 The program according to the fourth aspect is a process of converting the moving image data into image data when the image data from the surveillance camera that shoots the base is moving image data, and the process when the image data is three-dimensional data. The process of converting three-dimensional data into point cloud data, and the process of converting the image data converted in the first mode, or the converted point cloud data, or the photographing data being image data Process of creating a prediction model by machine learning using the image data of, and in the second mode different from the first mode, the converted image data, or the converted point cloud data, Alternatively, the image data is included in the image data, the point cloud data, or the other image data by comparing the other image data when the captured data is image data with the created prediction model. The process of determining the change of the monitoring target, and measuring the predetermined form of the monitoring target included in the converted point cloud data in the second mode, and measuring the measured value, preset The hardware resource is caused to execute a process of determining a change in the monitored object by comparing the measured value with the reference value.

なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。 The program can be recorded in a computer-readable storage medium. The storage medium may be a non-transient one such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. Further, the present disclosure may be embodied as a computer program product.

前記第1〜第4の視点によれば、現場の様々な状況を監視することに貢献することができる。 According to the first to fourth aspects, it is possible to contribute to monitoring various situations at the site.

実施形態1に係る監視システムの構成を模式的に示したブロック図である。1 is a block diagram schematically showing a configuration of a monitoring system according to a first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置の詳細な構成を模式的に示したブロック図である。1 is a block diagram schematically showing a detailed configuration of a monitoring device in the monitoring system according to the first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置の学習モードの動画データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically showing a processing path of moving image data in a learning mode of the monitoring device in the monitoring system according to the first embodiment. 実施形態1に係る監視システムにおける監視装置の学習モードの画像データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically showing a processing path of image data in a learning mode of the monitoring device in the monitoring system according to the first embodiment. 実施形態1に係る監視システムにおける監視装置の学習モードの三次元データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically showing a processing path of three-dimensional data in a learning mode of the monitoring device in the monitoring system according to the first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置の運用モードの動画データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically showing a processing path of moving image data in an operation mode of the monitoring device in the monitoring system according to the first embodiment. 実施形態1に係る監視システムにおける監視装置の運用モードの画像データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically illustrating a processing path of image data in an operation mode of a monitoring device in the monitoring system according to the first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置の運用モードの三次元データの処理経路を模式的に示した図である。FIG. 3 is a diagram schematically showing a processing path of three-dimensional data in the operation mode of the monitoring device in the monitoring system according to the first embodiment. 実施形態1に係る監視システムにおける監視装置の画像化部の動作を模式的に示したフローチャート図である。3 is a flow chart diagram schematically showing the operation of the imaging unit of the monitoring device in the monitoring system according to the first embodiment. FIG. 実施形態1に係る監視システムにおける監視装置の点群化部の動作を模式的に示したフローチャート図である。FIG. 3 is a flow chart diagram schematically showing the operation of the point cloud unit of the monitoring device in the monitoring system according to the first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置のモデル判定部の動作を模式的に示したフローチャート図である。FIG. 3 is a flowchart diagram schematically showing the operation of a model determination unit of the monitoring device in the monitoring system according to the first exemplary embodiment. 実施形態1に係る監視システムにおける監視装置の基準値判定部の動作を模式的に示したフローチャート図である。FIG. 3 is a flow chart diagram schematically showing the operation of the reference value determination unit of the monitoring device in the monitoring system according to the first embodiment. 実施形態2に係る監視システムの構成を模式的に示したブロック図である。It is a block diagram which showed typically the structure of the monitoring system which concerns on Embodiment 2. 実施形態3に係る監視装置の構成を模式的に示したブロック図である。9 is a block diagram schematically showing the configuration of a monitoring device according to a third embodiment. FIG. ハードウェア資源の構成を模式的に示したブロック図である。It is the block diagram which showed the structure of the hardware resource typically.

以下に説明する本開示では、モード1に係る監視装置及びその変形モードを適宜選択して組み合わせることができる。 In the present disclosure described below, it is possible to appropriately select and combine the monitoring device according to Mode 1 and its modification mode.

前記モード1に係る監視装置として、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する画像化部を備える。前記監視装置は、前記撮影データが3次元データであるときに前記3次元データを点群データに変換する点群化部を備える。前記監視装置は、第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する予測モデル作成部を備える。前記監視装置は、前記第1モードとは異なる第2モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、前記予測モデル作成部で作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するモデル判定部を備える。前記監視装置は、前記第2モードのときに、前記点群化部で変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する基準値判定部を備える。 The monitoring device according to the mode 1 includes an imaging unit that converts the moving image data into image data when the shooting data from the monitoring camera that shoots the site is moving image data. The monitoring device includes a point cloud conversion unit that converts the three-dimensional data into point cloud data when the captured data is three-dimensional data. In the monitoring device, in the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or the imaging data is image data. A prediction model creation unit that creates a prediction model by machine learning using other image data at this time is provided. The monitoring device, in a second mode different from the first mode, the image data converted by the imaging unit, or the point cloud data converted by the point cloud unit, or the By comparing the other image data when the shooting data is image data and the prediction model created by the prediction model creation unit, the image data or the point cloud data or the other image data And a model determination unit that determines a change in the monitored object included in. In the second mode, the monitoring device measures a predetermined form of the monitoring target object included in the point cloud data converted by the point cloud forming unit, and sets a measured value and a preset value. And a reference value determination unit that determines a change in the monitored object by comparing the reference value with the reference value.

前記モード1に係る監視装置の変形モードとして、前記監視カメラからのデータの出力経路を制御する第1経路制御部を備える。前記監視装置は、前記画像化部又は前記点群化部若しくは前記第1経路制御部からのデータの出力経路を制御する第2経路制御部を備える。前記第1経路制御部は、前記撮影データが動画データであるときに、前記動画データを前記画像化部に向けて出力する。前記第1経路制御部は、前記撮影データが3次元データであるときに、前記3次元データを前記点群化部に向けて出力する。前記第1経路制御部は、前記撮影データが画像データであるときの前記他の画像データを第2経路制御部に向けて出力する。前記第2経路制御部は、前記第1モードのときに、前記画像化部からの前記画像データ、又は、前記点群化部からの前記点群データ、若しくは、前記第1経路制御部からの前記他の画像データを前記モデル作成部に向けて出力する。前記第2経路制御部は、前記第2モードのときに、前記画像化部からの前記画像データ、又は、前記第1経路制御部からの前記他の画像データを前記モデル判定部に向けて出力し、若しくは、前記点群化部からの前記点群データを前記モデル判定部及び前記基準値判定部に向けて出力する。前記監視装置は、前記監視カメラからの前記撮影データを取得して前記第1経路制御部に向けて出力するデータ取得部を備える。前記監視装置は、前記モデル判定部及び前記基準値判定部の少なくとも1つからの判定結果を出力する出力部を備える。前記出力部は、前記判定結果を前記データ取得部に向けて出力する。前記データ取得部は、前記出力部からの前記判定結果に基づいて前記監視対象物の変化を確認し、変化の程度に応じて前記監視カメラからの前記撮影データを取得する時間間隔を調整する。前記撮影データは、時刻情報、位置情報、カメラ情報及び対象物情報の少なくとも1つの情報を含む。前記判定結果は、前記時刻情報、前記位置情報、前記カメラ情報及び前記対象物情報の少なくとも1つの情報を含む。前記画像化部は、前記動画データから、予め設定されたサンプリング周期で前記画像データを切り出し、切り出した前記画像データを所定の画像処理することによって、前記動画データから前記画像データに変換する。前記所定の画像処理は、精細化、高解像度化、ノイズ除去、低解像度化、オープニング処理、及び、モルフォロジー変換の少なくとも1つの処理である。前記点群化部は、前記3次元データを1次点群データに変換し、変換された前記1次点群データに基づいてモデルデータを生成し、生成された前記モデルデータを2次点群データに変換することによって、前記3次元データを前記点群データに変換する。前記点群化部は、変換された前記点群データに対してフィルタ処理を実行する。前記監視装置は、前記第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データに予測モデル用ラベルを付与し、前記予測モデル用ラベルが付与されたデータを前記予測モデル作成部に向けて出力するラベル付与部を備える。 As a modification mode of the monitoring device according to the mode 1, a first path control unit that controls an output path of data from the monitoring camera is provided. The monitoring device includes a second route control unit that controls an output route of data from the imaging unit, the point grouping unit, or the first route control unit. The first path control unit outputs the moving image data to the imaging unit when the captured data is moving image data. The first path control unit outputs the three-dimensional data toward the point grouping unit when the captured data is three-dimensional data. The first route control unit outputs the other image data when the captured data is image data to the second route control unit. The second route control unit, in the first mode, the image data from the imaging unit, the point cloud data from the point grouping unit, or the first route control unit. The other image data is output to the model creating unit. The second route control unit outputs the image data from the imaging unit or the other image data from the first route control unit to the model determination unit in the second mode. Alternatively, the point cloud data from the point cloud forming unit is output to the model determining unit and the reference value determining unit. The monitoring device includes a data acquisition unit that acquires the shooting data from the monitoring camera and outputs the shooting data to the first route control unit. The monitoring device includes an output unit that outputs a determination result from at least one of the model determination unit and the reference value determination unit. The output unit outputs the determination result to the data acquisition unit. The data acquisition unit confirms a change in the monitored object based on the determination result from the output unit, and adjusts a time interval for acquiring the imaging data from the monitoring camera according to the degree of the change. The shooting data includes at least one of time information, position information, camera information, and object information. The determination result includes at least one of the time information, the position information, the camera information, and the object information. The imaging unit converts the moving image data into the image data by cutting out the image data from the moving image data at a preset sampling cycle and subjecting the cut out image data to predetermined image processing. The predetermined image processing is at least one of finer definition, higher resolution, noise removal, lower resolution, opening processing, and morphological conversion. The point cloud conversion unit converts the three-dimensional data into primary point cloud data, generates model data based on the converted primary point cloud data, and uses the generated model data as a secondary point cloud. By converting it into data, the three-dimensional data is converted into the point cloud data. The point grouping unit performs a filtering process on the converted point group data. In the monitoring device, in the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or the imaging data is image data. A label assigning unit is provided which assigns a prediction model label to other image data at a certain time and outputs the data to which the prediction model label is assigned, to the prediction model creating unit.

本開示では、モード2に係る監視システム及びその変形モードを適宜選択して組み合わせることができる。 In the present disclosure, the monitoring system according to the mode 2 and its modification mode can be appropriately selected and combined.

前記モード2に係る監視システムとして、拠点を撮影する監視カメラと、前記モード1に係る監視装置と、を備える。 The monitoring system according to the mode 2 includes a monitoring camera that captures an image of a site and a monitoring device according to the mode 1.

前記モード2に係る監視システムの変形モードとして、前記監視カメラを搭載するとともに、衛星測位装置を搭載し、かつ、前記監視装置と通信可能にする通信部を有する自動運転車両を備える。前記自動運転車両は、前記衛星測位装置で測位した測位情報を、前記監視カメラで撮影された前記撮影データに含めて、前記通信部を介して前記監視装置に送信する。 As a modified mode of the surveillance system according to the mode 2, the self-driving vehicle is equipped with the surveillance camera, a satellite positioning device, and a communication unit capable of communicating with the surveillance device. The self-driving vehicle includes the positioning information measured by the satellite positioning device in the image data captured by the surveillance camera, and transmits the information to the monitoring device via the communication unit.

本開示では、モード3に係る監視方法として、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換するステップと、前記撮影データが3次元データであるときに前記3次元データを点群データに変換するステップと、第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成するステップと、前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するステップと、前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定するステップと、を含む。 In the present disclosure, as a monitoring method according to Mode 3, a step of converting the moving image data into image data when the imaged data from the surveillance camera that shoots the site is moving image data, and the captured data is three-dimensional data. Sometimes the step of converting the three-dimensional data into point cloud data, and in the first mode, the converted image data, or the converted point cloud data or the photographing data is image data. When the second mode different from the first mode and the step of creating a prediction model by machine learning using the other image data of time, the converted image data or the converted point is used. Group data, or by comparing the other image data when the shooting data is image data with the created prediction model, the image data or the point cloud data or the other image data A step of determining a change of the monitoring target included in the second mode, measuring a predetermined form of the monitoring target included in the converted point cloud data in the second mode, and a measured value; Determining a change in the monitored object by comparing it with a preset reference value.

本開示では、モード4に係るプログラムとして、拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する処理と、前記撮影データが3次元データであるときに前記3次元データを点群データに変換する処理と、第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する処理と、前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定する処理と、前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する処理と、をハードウェア資源に実行させる。 In the present disclosure, as a program related to mode 4, when the shooting data from the surveillance camera that shoots the base is moving image data, a process of converting the moving image data into image data, and when the shooting data is three-dimensional data A process of converting the three-dimensional data into point cloud data, and in the first mode, the converted image data, the converted point cloud data, or the photographing data is image data. Process of creating a prediction model by machine learning using another image data of the above, and the converted image data or the converted point group in the second mode different from the first mode. By comparing the data, or the other image data when the photographing data is image data, and the created prediction model, to the image data or the point cloud data or the other image data. A process of determining a change in the included monitoring target, measuring a predetermined form of the monitoring target included in the converted point cloud data in the second mode, and measuring the measured value in advance; The hardware resource is caused to execute a process of determining a change in the monitored object by comparing the set reference value.

以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。 Hereinafter, embodiments will be described with reference to the drawings. Note that, in the present application, when reference numerals are attached to the drawings, they are for the purpose of helping understanding only, and are not intended to be limited to the illustrated modes. The following embodiments are merely examples and do not limit the present invention. Further, the connecting lines between blocks in the drawings and the like referred to in the following description include both bidirectional and unidirectional. The unidirectional arrows schematically show the flow of main signals (data), and do not exclude bidirectionality. Further, although not explicitly shown in the circuit diagram, block diagram, internal configuration diagram, connection diagram, etc. disclosed in the present disclosure, an input port and an output port exist at each of the input end and the output end of each connection line. The input/output interface is similar.

[実施形態1]
実施形態1に係る監視システムについて図面を用いて説明する。図1は、実施形態1に係る監視システムの構成を模式的に示したブロック図である。図2は、実施形態1に係る監視システムにおける監視装置の詳細な構成を模式的に示したブロック図である。図3〜図8は、実施形態1に係る監視システムにおける監視装置の各種データの処理経路を模式的に示した図である。
[Embodiment 1]
The monitoring system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing the configuration of the monitoring system according to the first embodiment. FIG. 2 is a block diagram schematically showing a detailed configuration of the monitoring device in the monitoring system according to the first embodiment. 3 to 8 are diagrams schematically showing processing paths of various data of the monitoring device in the monitoring system according to the first embodiment.

監視システム1は、拠点50a〜50n(例えば、原料ヤード、倉庫、工場、搬送経路、高炉等)に存在する監視対象物(以下「対象物」という場合がある)を監視(点検)するシステムである。監視システム1は、監視装置10と、監視カメラ30a〜30nと、ネットワーク40と、を有する。 The monitoring system 1 is a system for monitoring (inspecting) an object to be monitored (hereinafter may be referred to as “object”) existing in the bases 50a to 50n (eg, raw material yard, warehouse, factory, transfer route, blast furnace, etc.). is there. The monitoring system 1 includes a monitoring device 10, monitoring cameras 30a to 30n, and a network 40.

ここで、監視対象物として、例えば、原料ヤードや倉庫における原材料、工場、高炉、搬送経路における落鉱落炭等とすることができる。 Here, the monitored object may be, for example, a raw material in a raw material yard or a warehouse, a factory, a blast furnace, or a fallen mine coal in a transfer route.

監視装置10は、監視カメラ30a〜30nを用いて拠点50a〜50nに存在する対象物を監視する装置である(図1参照)。監視装置10は、ネットワーク40を介して監視カメラ30a〜30nと通信可能に接続されている。監視装置10は、データ取得部11と、経路制御部12と、画像化部13と、点群化部14と、経路制御部15と、ラベル付与部16と、予測モデル作成部17と、モデル判定部18と、基準値判定部19と、出力部20と、を有する(図2参照)。監視装置10には、例えば、プロセッサ、メモリ、ネットワークインタフェイス等を含むハードウェア資源(例えば、情報処理装置、コンピュータ)を用いることができる。この場合、ハードウェア資源は、プログラムを記憶するメモリを利用しながら、プロセッサにおいて当該プログラムを実行することにより、仮想的な、データ取得部11、経路制御部12、画像化部13、点群化部14、経路制御部15、ラベル付与部16、予測モデル作成部17、モデル判定部18、基準値判定部19、及び、出力部20を実現するようにしてもよい。 The monitoring device 10 is a device that monitors the objects existing at the bases 50a to 50n using the monitoring cameras 30a to 30n (see FIG. 1). The monitoring device 10 is communicatively connected to the monitoring cameras 30a to 30n via a network 40. The monitoring device 10 includes a data acquisition unit 11, a route control unit 12, an imaging unit 13, a point grouping unit 14, a route control unit 15, a labeling unit 16, a prediction model creation unit 17, and a model. It has the judgment part 18, the reference value judgment part 19, and the output part 20 (refer FIG. 2). For the monitoring device 10, for example, hardware resources including a processor, a memory, a network interface, etc. (for example, an information processing device, a computer) can be used. In this case, the hardware resource is a virtual data acquisition unit 11, a route control unit 12, an imaging unit 13, a point cloud, by executing the program in a processor while using a memory that stores the program. You may make it implement|achieve the part 14, the path|route control part 15, the label provision part 16, the prediction model preparation part 17, the model determination part 18, the reference value determination part 19, and the output part 20.

データ取得部11は、監視カメラ(図1の30a〜30n)で撮影された撮影データを、ネットワーク(図1の40)を介して取得する機能部である(図2参照)。データ取得部11は、ネットワーク(図1の40)を介して監視カメラ(図1の30a〜30n)と通信可能に接続されている。データ取得部11は、取得した撮影データを経路制御部12に向けて出力する(図3〜図8参照)。データ取得部11で取得する撮影データは、様々な撮影形式の監視カメラ(図1の30a〜30n;赤外線カメラ、ハイパースペクトルカメラ、RGB(Red Green Blue)カメラ、3次元センサ、デプスセンサ等)で撮影された撮影データ(動画データ、画像データ、3次元データ等)を用いることができる。 The data acquisition unit 11 is a functional unit that acquires imaging data captured by the surveillance camera (30a to 30n in FIG. 1) via the network (40 in FIG. 1) (see FIG. 2). The data acquisition unit 11 is communicatively connected to the surveillance cameras (30a to 30n in FIG. 1) via the network (40 in FIG. 1). The data acquisition unit 11 outputs the acquired shooting data to the route control unit 12 (see FIGS. 3 to 8). The image data acquired by the data acquisition unit 11 is imaged by monitoring cameras of various imaging formats (30a to 30n in FIG. 1; infrared camera, hyperspectral camera, RGB (Red Green Blue) camera, three-dimensional sensor, depth sensor, etc.). The captured image data (moving image data, image data, three-dimensional data, etc.) can be used.

ここで、撮影データは、監視カメラ30a〜30nで撮影されたデータであり、動画データ、画像データ、3次元データのいずれかである。 Here, the shooting data is data shot by the surveillance cameras 30a to 30n, and is any of moving image data, image data, and three-dimensional data.

経路制御部12は、データ取得部11で取得した撮影データの出力経路を制御する機能部(第1経路制御部)である(図2参照)。経路制御部12は、撮影データの種別(動画データ、画像データ、3次元データ)を判断する。経路制御部12は、撮影データが動画データ(赤外線カメラ、ハイパースペクトルカメラ、RGBカメラ等で撮影した動画データ)であるときに、当該動画データを画像化部13に向けて出力する(図3、図6参照)。経路制御部12は、撮影データが画像データ(赤外線カメラ、ハイパースペクトルカメラ、RGBカメラ等で撮影した静止画データ)であるときに、当該画像データを経路制御部15に向けて出力する(図4、図7参照)。経路制御部12は、撮影データが3次元データ(例えば、3次元カメラ、デプスセンサ等で撮影した3次元データ)であるときに、当該3次元データを点群化部14に向けて出力する(図5、図8参照)。 The route control unit 12 is a functional unit (first route control unit) that controls the output route of the imaging data acquired by the data acquisition unit 11 (see FIG. 2 ). The route control unit 12 determines the type of moving image data (moving image data, image data, 3D data). When the captured data is moving image data (moving image data captured by an infrared camera, a hyperspectral camera, an RGB camera, etc.), the path control unit 12 outputs the moving image data to the imaging unit 13 (FIG. 3, FIG. (See FIG. 6). When the captured data is image data (still image data captured by an infrared camera, a hyperspectral camera, an RGB camera, etc.), the route control unit 12 outputs the image data to the route control unit 15 (FIG. 4). , See FIG. 7). When the captured data is three-dimensional data (for example, three-dimensional data captured by a three-dimensional camera, a depth sensor, etc.), the path control unit 12 outputs the three-dimensional data to the point grouping unit 14 (Fig. 5, see FIG. 8).

画像化部13は、経路制御部12からの動画データを画像データに変換する機能部である(図2参照)。画像化部13は、動画データから、予め設定されたサンプリング周期で画像データを切り出し、切り出した画像データを所定の画像処理(例えば、精細化、高解像度化、ノイズ除去、低解像度化、オープニング処理、モルフォロジー変換等)することによって、動画データから画像データに変換する。なお、画像処理は、必要に応じて、省略することができる。画像化部13は、変換された画像データを経路制御部15に向けて出力する(図3、図6参照)。 The imaging unit 13 is a functional unit that converts the moving image data from the route control unit 12 into image data (see FIG. 2). The imaging unit 13 cuts out image data from the moving image data at a preset sampling cycle, and performs predetermined image processing on the cut-out image data (for example, finer definition, higher resolution, noise removal, lower resolution, opening processing). , Morphological conversion, etc.) to convert the moving image data into image data. The image processing can be omitted if necessary. The imaging unit 13 outputs the converted image data to the route control unit 15 (see FIGS. 3 and 6).

点群化部14は、経路制御部12からの3次元データを点群データに変換する機能部である(図2参照)。点群化部14は、3次元データを1次点群データに変換し、変換された1次点群データに基づいてモデルデータ(例えば、CAD(Computer Aided Design)データ)を生成し、生成されたモデルデータを2次点群データに変換することによって、3次元データを点群データに変換する。点群データに変換した際、点群化部14は、必要に応じて、点群データに対してフィルタ処理を実行し、はずれ点群の除去やダウンサンプリングを行うようにしてもよく、予測モデル作成部17で機械学習する部分以外の点群を除去するようにしてもよい。なお、モデルデータの生成、及び、モデルデータの点群データへの変換は、必要に応じて、省略することができる。点群化部14は、変換された点群データ(モデルデータを生成した場合は2次点群データ)を経路制御部15に向けて出力する(図5、図8参照)。ここで、点群化部14において3次元データを点群データに変換しているのは、3次元カメラやデプスセンサで撮影された3次元データはフォーマットがメーカ固有で統一されていないことが多いため画一的な処理が行い難いのに対し、点群データはフォーマットが統一されて画一的な処理が行い易いからである。 The point grouping unit 14 is a functional unit that converts the three-dimensional data from the route control unit 12 into point group data (see FIG. 2). The point cloud conversion unit 14 converts three-dimensional data into primary point cloud data, generates model data (for example, CAD (Computer Aided Design) data) based on the converted primary point cloud data, and is generated. The three-dimensional data is converted into the point cloud data by converting the model data into the secondary point cloud data. When converted into point cloud data, the point cloud conversion unit 14 may perform filter processing on the point cloud data as necessary to remove the outlying point cloud or perform downsampling. You may make it remove the point cloud other than the part which machine-learns in the preparation part 17. The generation of model data and the conversion of model data into point cloud data can be omitted if necessary. The point cloud forming unit 14 outputs the converted point cloud data (secondary point cloud data when model data is generated) to the route control unit 15 (see FIGS. 5 and 8). Here, the point cloud conversion unit 14 converts the three-dimensional data into the point cloud data because the format of the three-dimensional data captured by the three-dimensional camera or the depth sensor is not unique to each manufacturer in many cases. This is because the uniform processing is difficult to perform, but the format of the point cloud data is unified, and uniform processing is easy to perform.

経路制御部15は、画像化部13からの画像データ、及び、経路制御部12からの画像データ、並びに、点群化部14からの点群データの出力経路を制御する機能部(第2経路制御部)である(図2参照)。経路制御部15は、学習モードのときに、画像化部13からの画像データ、又は、経路制御部12からの画像データ、若しくは、点群化部14からの点群データをラベル付与部16に向けて出力する(図3、図4、図5参照)。経路制御部15は、運用モードのときに、画像化部13からの画像データ、又は、経路制御部12からの画像データをモデル判定部18に向けて出力する(図6、図7参照)。経路制御部15は、運用モードのときに、点群化部14からの点群データをモデル判定部18及び基準値判定部19に向けて出力する(図8参照)。 The route control unit 15 controls the output route of the image data from the imaging unit 13, the image data from the route control unit 12, and the point cloud data from the point cloud unit 14 (second route). Control unit) (see FIG. 2). In the learning mode, the route control unit 15 sends the image data from the imaging unit 13, the image data from the route control unit 12, or the point cloud data from the point cloud unit 14 to the labeling unit 16. Output (see FIGS. 3, 4, and 5). In the operation mode, the route control unit 15 outputs the image data from the imaging unit 13 or the image data from the route control unit 12 to the model determination unit 18 (see FIGS. 6 and 7). In the operation mode, the route control unit 15 outputs the point cloud data from the point cloud forming unit 14 to the model determining unit 18 and the reference value determining unit 19 (see FIG. 8).

ここで、学習モードとは、予測モデル作成部17において機械学習(有用な規則、ルール、知識表現、判断基準等の特徴を抽出)するときのモード(第1モード)である。運用モードとは、モデル判定部18及び基準値判定部19において通常運用(判定処理)するときのモード(第2モード)である。 Here, the learning mode is a mode (first mode) for machine learning (extracting features such as useful rules, rules, knowledge representations, judgment criteria) in the prediction model creation unit 17. The operation mode is a mode (second mode) for normal operation (judgment processing) in the model judgment unit 18 and the reference value judgment unit 19.

ラベル付与部16は、学習モードのときに、経路制御部15からのデータ(画像データ、点群データ)に予測モデル用ラベルを付与する機能部である(図2参照)。ラベル付与部16は、予測モデル用ラベルが付与されたデータ(ラベル付きデータ)を予測モデル作成部17に向けて出力する。 The label assigning unit 16 is a functional unit that assigns a prediction model label to the data (image data, point cloud data) from the route control unit 15 in the learning mode (see FIG. 2 ). The labeling unit 16 outputs the data (labeled data) to which the prediction model label is attached to the prediction model creation unit 17.

予測モデル作成部17は、ラベル付与部16からのラベル付きデータを用いて機械学習(有用な規則、ルール、知識表現、判断基準等の特徴を抽出)して予測モデルを作成する機能部である。予測モデルは、機械学習によって抽出された特徴(予測される対象物の特徴)を有する対象物(オブジェクト)に係るモデル(データ)であり、モデル判定部18における判定基準となる。予測モデル作成部17は、作成された予測モデルをモデル判定部18に向けて出力する。 The prediction model creation unit 17 is a functional unit that creates a prediction model by machine learning (extracting features such as useful rules, rules, knowledge representations, judgment criteria) using labeled data from the labeling unit 16. .. The prediction model is a model (data) related to an object (object) having a feature (feature of the object to be predicted) extracted by machine learning, and serves as a criterion for the model determination unit 18. The prediction model creation unit 17 outputs the created prediction model to the model determination unit 18.

モデル判定部18は、経路制御部15からのデータ(画像データ、点群データ)と、予測モデル作成部17で作成された対応する予測モデルと、を比較することにより、当該データに含まれる対象物の変化を判定する機能部である(図2、図6〜図8参照)。モデル判定部18は、予測モデル作成部17で作成された最新の予測モデルを保持する。判定では、温度(データが赤外線カメラ由来の画像データの場合)、成分(データがハイパースペクトルカメラ由来の画像データの場合)、見た目(データがRGBカメラ由来の画像データの場合)、点群(データが3次元カメラ由来の点群データの場合)で判定することができる。対象物の変化の判定では、対象物有りの確信度(%)、対象物無しの確信度(%)を用いて判定を実施することができる。例えば、対象物有と判断された確信度が85%以上のものを対象物有りと最終的に判断するように判定を行うことができる。確信度は判定したい状況に応じてチューニングすることが可能である。また、対象物の変化の判定では、データに含まれる対象物が予測モデルに対してどの程度(例えば、何%)変化しているかを判定することができ、変化が上限及び下限の範囲内にあるか否かを判定することができる。モデル判定部18は、対象物の変化の判定に係る結果(判定結果)を出力部20に向けて出力する。判定結果には、時刻情報、位置情報、カメラ情報、対象物情報等を含めることができる。 The model determination unit 18 compares the data (image data, point cloud data) from the route control unit 15 with the corresponding prediction model created by the prediction model creation unit 17 to determine the target included in the data. It is a functional unit that determines a change in an object (see FIGS. 2 and 6 to 8 ). The model determination unit 18 holds the latest prediction model created by the prediction model creation unit 17. In the judgment, temperature (when the data is image data from an infrared camera), component (when the data is image data from a hyperspectral camera), appearance (when the data is image data from an RGB camera), point cloud (data) Is a point cloud data derived from a three-dimensional camera). In the determination of the change of the target object, the determination can be performed using the certainty factor (%) with the target object and the certainty factor (%) with no target object. For example, it is possible to make a final determination that an object has a certainty factor of 85% or more that is determined to have an object. The certainty factor can be tuned according to the situation to be determined. Further, in the determination of the change of the target object, it is possible to determine how much (for example, what percentage) the target object included in the data is changing with respect to the prediction model, and the change is within the upper limit and the lower limit. It can be determined whether or not there is. The model determination unit 18 outputs the result (determination result) related to the determination of the change of the object to the output unit 20. The determination result can include time information, position information, camera information, object information, and the like.

基準値判定部19は、経路制御部15からの点群データに含まれる対象物の所定形態に係る計測値(例えば、体積、形状の大きさ、面積等の形態の計測値)と、予め設定された基準値と、を比較することにより、当該対象物の変化を判定する機能部である(図2、図8参照)。基準値判定部19は、経路制御部15からの点群データから対象物に係る点群を抽出する。基準値判定部19は、抽出された対象物に係る点群に基づいて当該対象物の所定形態を計測する。基準値判定部19は、学習モードでは、計測された対象物に係る所定形態の計測値を基準値として保持する。基準値については、計測される対象物に係る所定形態に応じて予め設定され、例えば、体積、形状の大きさ、面積等とすることができる。基準値判定部19は、運用モードでは、計測された対象物に係る所定形態の計測値と、予め設定された基準値と、を比較することにより、当該対象物の変化を判定する。対象物の変化の判定では、対象物に係る所定形態の計測値が基準値に対してどの程度(例えば、何%)変化しているかを判定することができ、変化の程度が上限及び下限の範囲内にあるか否かを判定することができる。基準値判定部19は、対象物の変化の判定に係る結果(判定結果)を出力部20に向けて出力する。判定結果には、時刻情報、位置情報、カメラ情報、対象物情報等を含めることができる。 The reference value determination unit 19 presets a measurement value (for example, a measurement value of a shape such as volume, shape size, or area) related to a predetermined shape of the object included in the point cloud data from the route control unit 15. It is a functional unit that determines a change in the target object by comparing the calculated reference value (see FIGS. 2 and 8). The reference value determination unit 19 extracts the point cloud related to the object from the point cloud data from the route control unit 15. The reference value determination unit 19 measures the predetermined form of the target object based on the extracted point group of the target object. In the learning mode, the reference value determination unit 19 holds the measured value of the predetermined form of the measured object as the reference value. The reference value is set in advance according to the predetermined form of the object to be measured, and can be, for example, the volume, the size of the shape, the area, or the like. In the operation mode, the reference value determination unit 19 determines a change in the target object by comparing the measured value of the measured target object in a predetermined form with a preset reference value. In the determination of the change of the object, it is possible to determine how much (for example,%) the measured value of the predetermined form related to the object is changing with respect to the reference value, and the degree of change is the upper limit and the lower limit. It can be determined whether or not it is within the range. The reference value determination unit 19 outputs the result (determination result) related to the determination of the change of the target object to the output unit 20. The determination result can include time information, position information, camera information, object information, and the like.

出力部20は、モデル判定部18又は基準値判定部19からの判定結果を出力(表示、送信、音声出力、印刷等)する機能部である(図2参照)。出力部20は、判定結果をデータ取得部11に向けて出力するようにし、データ取得部11にて、判定結果に基づいて対象物の変化を確認し、変化の程度に応じて監視カメラ30a〜30nからの撮影データを取得する時間間隔を調整するようにしてもよい。例えば、対象物の変化が大きければ撮影データを取得する時間間隔を短くし、対象物の変化が小さければ撮影データを取得する時間間隔を長くすることができる。撮影データを取得する時間間隔を短くすることで、対象物の変化を早期かつ正確に把握することができ、撮影データを取得する時間間隔を長くすることで、システムの消費電力を抑えることができる。出力部20として、例えば、表示を行うディスプレイ、データ転送を行うインタフェイス、音声を出力するスピーカ、印刷を行うプリンタその他の出力手段を用いることができ、図示しない通信部及びネットワークを介して有線又は無線により通信可能に接続された出力部を有する情報端末等を用いてもよい。 The output unit 20 is a functional unit that outputs (display, transmission, voice output, print, etc.) the determination result from the model determination unit 18 or the reference value determination unit 19 (see FIG. 2). The output unit 20 outputs the determination result to the data acquisition unit 11, the data acquisition unit 11 confirms the change of the target object based on the determination result, and the monitoring cameras 30a to 30a... You may make it adjust the time interval which acquires the imaging|photography data from 30n. For example, if the change of the object is large, the time interval for acquiring the shooting data can be shortened, and if the change of the object is small, the time interval for acquiring the shooting data can be lengthened. By shortening the time interval for capturing image data, changes in the target object can be grasped quickly and accurately, and by increasing the time interval for capturing image data, the power consumption of the system can be suppressed. .. As the output unit 20, for example, a display for displaying, an interface for transferring data, a speaker for outputting voice, a printer for printing, or other output means can be used. Wired or via a communication unit and a network (not shown). You may use the information terminal etc. which have an output part connected so that communication by wireless may be possible.

監視カメラ30a〜30nは、監視対象物(対象物)を撮影するカメラ(センサを含む)である(図1参照)。監視カメラ30a〜30nは、撮影した対象物に係る撮影データ(動画データ、画像データ、3次元データのいずれか)を生成し、生成された撮影データを監視装置10のデータ取得部(図2〜図8の11)に向けて出力する。監視カメラ30a〜30nは、データ取得部(図2〜図8の11)での撮影データを取得する時間間隔に応じて撮影データを出力するようにしてもよい。監視カメラ30a〜30nには、各種カメラを用いることができる。撮影データには、時刻情報、位置情報、カメラ情報、対象物情報等を含めることができる。 The monitoring cameras 30a to 30n are cameras (including sensors) that capture a monitoring target (target) (see FIG. 1). The monitoring cameras 30a to 30n generate shooting data (any of moving image data, image data, and three-dimensional data) related to a shot target object, and generate the shooting data in the data acquisition unit (FIG. 2 to FIG. 2) of the monitoring device 10. It outputs to 11) of FIG. The monitoring cameras 30a to 30n may output the shooting data according to the time intervals at which the data acquisition unit (11 in FIGS. 2 to 8) acquires the shooting data. Various cameras can be used as the monitoring cameras 30a to 30n. The shooting data can include time information, position information, camera information, object information, and the like.

監視カメラ30a〜30nは、多数の拠点50a〜50nに設置される。監視カメラ30a〜30nは、顧客の要望に応じて各種のカメラが選択される。監視カメラ30a〜30nは、拠点50a〜50nごとに1台だけでなく2台以上設置してもよく、1つの拠点に異なる種類のカメラを複数台設置してもよい。顧客に対して対象物を監視する際に、どのような目的で何をどの範囲で監視したいのかの要望を確認する。これにより、顧客の要望に応じたサービス展開を柔軟に組み合わせることができる。 The surveillance cameras 30a to 30n are installed at a number of bases 50a to 50n. Various cameras are selected as the monitoring cameras 30a to 30n according to the customer's request. The monitoring cameras 30a to 30n may be installed not only one for each of the bases 50a to 50n but also two or more, and a plurality of cameras of different types may be installed in one base. When monitoring the object to the customer, confirm the request for what purpose and what range to monitor. As a result, it is possible to flexibly combine the service development according to the customer's request.

監視カメラ30a〜30nには、例えば、赤外線カメラ、ハイパースペクトルカメラ、RGBカメラ、3次元カメラ、デプスセンサ等を用いることができる。 An infrared camera, a hyperspectral camera, an RGB camera, a three-dimensional camera, a depth sensor, or the like can be used as the monitoring cameras 30a to 30n.

例えば、落鉱落炭を対象物とする場合、落鉱落炭は発火のおそれもあることから、監視カメラ30a〜30nには、温度を検出することが可能な赤外線カメラを用いることができる。赤外線カメラによれば、温度情報により落鉱落炭の温度変化を抽出することができる。これにより、人の目には見えない温度での判定が可能である。 For example, when a fallen mine coal is used as an object, since the fallen mine coal may be ignited, infrared cameras capable of detecting temperature can be used as the monitoring cameras 30a to 30n. According to the infrared camera, it is possible to extract the temperature change of the fallen mine coal from the temperature information. As a result, it is possible to make a determination at a temperature invisible to the human eye.

また、工場の敷地には落鉱落炭だけでなく土やその他の成分の堆積物も存在していることから、監視カメラ30a〜30nには、成分を検出することが可能なハイパースペクトルカメラを用いることができる。ハイパースペクトルカメラによれば、波長情報により落鉱落炭の成分を抽出することができる。これにより、人の目には見えない成分での判定が可能である。 In addition, since not only lignite and lignite but also deposits of soil and other components are present on the site of the factory, the monitoring cameras 30a to 30n are hyperspectral cameras capable of detecting the components. Can be used. With the hyperspectral camera, it is possible to extract the components of the fallen mine coal from the wavelength information. As a result, it is possible to make a determination with a component that is not visible to the human eye.

また、対象物の「見た目」の特徴を検出する場合、監視カメラ30a〜30nには、RGBカメラを用いることができる。RGBカメラによれば、見た目のテクスチャ情報などにより落鉱落炭を抽出することができる。これにより、人の見た目での判定と同様な判定が可能である。 Further, when detecting the "visual appearance" of the object, RGB cameras can be used as the monitoring cameras 30a to 30n. According to the RGB camera, it is possible to extract fallen mine coal based on the appearance texture information and the like. As a result, it is possible to make the same determination as the human visual determination.

さらに、対象物の形状の大きさや体積を検出する場合、監視カメラ30a〜30nには、3次元カメラやデプスセンサを用いることができる。3次元カメラやデプスセンサを用いれば、人の目では計測できない3次元データを活用して、不定形な対象物(原材料、落鉱落炭)の正確な形状の大きさや体積の検出が可能となり、原材料の在庫管理を行い、不足する原材料を自動的に発注することができ、また、落鉱落炭の堆積管理を行い、清掃を行う場所やタイミングを絞り込むことができる。3次元カメラは、屋内/屋外撮影、撮影距離、撮影制度に応じて、3D−LiDAR(Light Detection And Ranging)、ToF(Time of Flight)カメラ、ステレオカメラなど多数の種類が存在し、撮影された3次元データのフォーマットが異なるが、点群化部14で画一的な処理が可能であるので、どのような種類の3次元カメラでもお客様の用途に応じて選択することができる。 Further, when detecting the size and volume of the shape of the object, a three-dimensional camera or a depth sensor can be used as the monitoring cameras 30a to 30n. If a 3D camera or depth sensor is used, it is possible to detect the exact size and volume of irregularly shaped objects (raw materials, fallen coal) using 3D data that cannot be measured by the human eye. It is possible to manage the stock of raw materials and automatically place an order for the shortage of raw materials. Also, it is possible to manage the deposition of lignite lignite and narrow down the place and timing for cleaning. There are many types of 3D cameras, such as 3D-LiDAR (Light Detection And Ranging), ToF (Time of Flight) cameras, and stereo cameras, depending on indoor/outdoor shooting, shooting distance, and shooting system. Although the format of the three-dimensional data is different, uniform processing can be performed by the point grouping unit 14, so any type of three-dimensional camera can be selected according to the customer's application.

なお、1つの拠点50a〜50nに1種類の監視カメラ30a〜30nのみを設置した場合、対象物の変化の判定が困難なことがあるが、1つの拠点50a〜50nに複数種類の監視カメラ30a〜30nを設置して複数種類の判定結果を得てフュージョンさせることにより、効果的に対象物の変化の判定を行うことができる。 If only one type of surveillance camera 30a to 30n is installed in one base 50a to 50n, it may be difficult to determine the change of the object, but one base 50a to 50n has a plurality of types of surveillance cameras 30a. It is possible to effectively determine the change of the target object by installing ˜30n and obtaining a plurality of types of determination results to perform fusion.

ネットワーク40は、監視装置10と監視カメラ30a〜30nとを有線又は無線により通信可能に接続する情報通信網である(図1参照)。ネットワーク40には、例えば、LAN(Local Area Network)、PAN(Personal Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)等を用いることができる。 The network 40 is an information communication network that connects the monitoring device 10 and the monitoring cameras 30a to 30n so that they can communicate with each other in a wired or wireless manner (see FIG. 1). The network 40 includes, for example, a LAN (Local Area Network), a PAN (Personal Area Network), a CAN (Campus Area Network), a MAN (Metropolitan Area Network), a WAN (Wide Area Network), and a GAN (Global Area Network). Can be used.

次に、実施形態1に係る監視システムにおける監視装置の画像化部の動作について図面を用いて説明する。図9は、実施形態1に係る監視システムにおける監視装置の画像化部の動作を模式的に示したフローチャート図である。なお、監視システム1及び監視装置10の構成部については、図1及び図2を参照されたい。 Next, the operation of the imaging unit of the surveillance device in the surveillance system according to the first embodiment will be described with reference to the drawings. FIG. 9 is a flowchart diagram schematically showing the operation of the imaging unit of the monitoring device in the monitoring system according to the first embodiment. Please refer to FIG. 1 and FIG. 2 for the components of the monitoring system 1 and the monitoring device 10.

まず、画像化部13は、経路制御部12からの動画データ(監視カメラ30a〜30n(赤外線カメラ、ハイパースペクトルカメラ、RGBカメラ等)で撮影した動画データ)を取得する(ステップA1)。 First, the imaging unit 13 acquires moving image data (moving image data captured by the monitoring cameras 30a to 30n (infrared cameras, hyperspectral cameras, RGB cameras, etc.)) from the route control unit 12 (step A1).

次に、画像化部13は、ステップA1で取得した動画データから予め設定されたサンプリング周期で画像データを切り出す(ステップA2)。 Next, the imaging unit 13 cuts out image data from the moving image data acquired in step A1 at a preset sampling cycle (step A2).

次に、画像化部13は、ステップA2で切り出された画像データを精細化(例えば、高解像度化、ノイズ除去)する(ステップA3)。 Next, the imaging unit 13 refines the image data cut out in step A2 (for example, increases resolution and removes noise) (step A3).

最後に、画像化部13は、ステップA3で精細化された画像データを経路制御部15に向けて出力し(ステップA4)、その後、終了する。 Finally, the imaging unit 13 outputs the image data refined in step A3 to the route control unit 15 (step A4), and then ends.

次に、実施形態1に係る監視システムにおける監視装置の点群化部の動作について図面を用いて説明する。図10は、実施形態1に係る監視システムにおける監視装置の点群化部の動作を模式的に示したフローチャート図である。なお、監視システム1及び監視装置10の構成部については、図1及び図2を参照されたい。 Next, the operation of the point grouping unit of the monitoring device in the monitoring system according to the first embodiment will be described with reference to the drawings. FIG. 10 is a flowchart diagram schematically showing the operation of the point grouping unit of the monitoring device in the monitoring system according to the first embodiment. Please refer to FIG. 1 and FIG. 2 for the components of the monitoring system 1 and the monitoring device 10.

まず、点群化部14は、経路制御部12からの3次元データを取得する(ステップB1)。 First, the point grouping unit 14 acquires the three-dimensional data from the route control unit 12 (step B1).

次に、点群化部14は、ステップB1で取得した3次元データを1次点群データに変換する(ステップB2)。 Next, the point cloud forming unit 14 converts the three-dimensional data acquired in step B1 into primary point cloud data (step B2).

次に、点群化部14は、ステップB2で変換された1次点群データに基づいてモデルデータ(例えば、CADデータ)を生成する(ステップB3)。 Next, the point cloud formation part 14 produces|generates model data (for example, CAD data) based on the primary point cloud data converted by step B2 (step B3).

次に、点群化部14は、ステップB3で生成されたモデルデータを2次点群データに変換する(ステップB4)。 Next, the point cloud forming unit 14 converts the model data generated in step B3 into secondary point cloud data (step B4).

最後に、点群化部14は、ステップB4で変換された2次点群データを経路制御部15に向けて出力し(ステップB5)、その後、終了する。 Finally, the point cloud forming unit 14 outputs the secondary point cloud data converted in step B4 to the route control unit 15 (step B5), and thereafter ends.

次に、実施形態1に係る監視システムにおける監視装置のモデル判定部の動作について図面を用いて説明する。図11は、実施形態1に係る監視システムにおける監視装置のモデル判定部の動作を模式的に示したフローチャート図である。なお、監視システム1及び監視装置10の構成部については、図1及び図2を参照されたい。ここでは、予め予測モデル作成部17により予測モデルが作成され、作成された予測モデルがモデル判定部18に保持されているものとする。 Next, the operation of the model determination unit of the monitoring device in the monitoring system according to the first embodiment will be described with reference to the drawings. FIG. 11 is a flow chart diagram schematically showing the operation of the model determination unit of the monitoring device in the monitoring system according to the first embodiment. Please refer to FIG. 1 and FIG. 2 for the components of the monitoring system 1 and the monitoring device 10. Here, it is assumed that the prediction model creation unit 17 creates a prediction model in advance, and the created prediction model is held in the model determination unit 18.

まず、モデル判定部18は、経路制御部15からのデータ(画像データ、点群データ(モデルデータを生成した場合は2次点群データ))を取得する(ステップC1)。 First, the model determination unit 18 acquires data (image data, point cloud data (secondary point cloud data when model data is generated)) from the route control unit 15 (step C1).

次に、モデル判定部18は、ステップC1で取得したデータと、予測モデル作成部17で作成された対応する予測モデルと、を比較する(ステップC2)。 Next, the model determination unit 18 compares the data acquired in step C1 with the corresponding prediction model created by the prediction model creation unit 17 (step C2).

次に、モデル判定部18は、ステップC2での比較により、ステップC1で取得したデータに含まれた対象物の変化を判定する(ステップC3)。 Next, the model determination unit 18 determines the change in the object included in the data acquired in step C1 by the comparison in step C2 (step C3).

最後に、モデル判定部18は、ステップC3での判定に係る結果(判定結果)を出力部20に向けて出力し(ステップC4)、その後、終了する。 Finally, the model determination unit 18 outputs the result (determination result) related to the determination in step C3 to the output unit 20 (step C4), and then ends.

次に、実施形態1に係る監視システムにおける監視装置の基準値判定部の動作について図面を用いて説明する。図12は、実施形態1に係る監視システムにおける監視装置の基準値判定部の動作を模式的に示したフローチャート図である。なお、監視システム1及び監視装置10の構成部については、図1及び図2を参照されたい。 Next, the operation of the reference value determination unit of the monitoring device in the monitoring system according to the first embodiment will be described with reference to the drawings. FIG. 12 is a flowchart diagram schematically showing the operation of the reference value determination unit of the monitoring device in the monitoring system according to the first embodiment. Please refer to FIG. 1 and FIG. 2 for the components of the monitoring system 1 and the monitoring device 10.

まず、基準値判定部19は、経路制御部15からの点群データを取得する(ステップD1)。 First, the reference value determination unit 19 acquires the point cloud data from the route control unit 15 (step D1).

次に、基準値判定部19は、ステップD1で取得した点群データから対象物に係る点群を抽出する(ステップD2)。 Next, the reference value determination unit 19 extracts the point cloud relating to the object from the point cloud data acquired in step D1 (step D2).

次に、基準値判定部19は、ステップD2で抽出された対象物に係る点群に基づいて当該対象物の所定形態を計測する(ステップD3)。 Next, the reference value determination unit 19 measures the predetermined form of the target object based on the point cloud related to the target object extracted in step D2 (step D3).

次に、基準値判定部19は、ステップD3で計測された対象物に係る所定形態の計測値(例えば、体積、形状の大きさ等の形態の計測値)と、予め設定された基準値と、を比較する(ステップD4)。 Next, the reference value determination unit 19 sets a predetermined measurement value (for example, a measurement value of a shape such as a volume or a shape size) of the object measured in step D3, and a preset reference value. , Are compared (step D4).

次に、基準値判定部19は、ステップD4での比較により、ステップD1で取得した点群データに含まれた対象物の変化を判定する(ステップD5)。 Next, the reference value determination unit 19 determines the change in the object included in the point cloud data acquired in step D1 by the comparison in step D4 (step D5).

最後に、基準値判定部19は、ステップD5での対象物の変化の判定に係る結果(判定結果)を出力部20に向けて出力し(ステップD6)、その後、終了する。 Finally, the reference value determination unit 19 outputs the result (determination result) regarding the determination of the change of the target object in step D5 to the output unit 20 (step D6), and then ends.

以上のような監視システム1は、スマートファクトリ分野における原材料の管理、鉱業分野における落鉱落炭の管理、食品製造業の分野における原材料の管理、廃棄物処理業の分野における廃棄物の管理、各種施設におけるトイレ掃除の管理等に利用することができる。 The monitoring system 1 as described above is used for the management of raw materials in the field of smart factories, the management of fallen coal and coal in the field of mining, the management of raw materials in the field of food manufacturing, the management of waste in the field of waste treatment, and various types of management. It can be used for managing toilet cleaning at the facility.

実施形態1によれば、以下のような効果を奏する。 According to the first embodiment, the following effects are achieved.

第1の効果は、お客さまの要望に応じて最適な種類の監視カメラ30a〜30nを選択することが可能となるので、現場の様々な状況を監視することに貢献することができる。 The first effect is that it is possible to select the most suitable type of monitoring cameras 30a to 30n according to the customer's request, which can contribute to monitoring various situations in the field.

第2の効果は、撮影した撮影データの中から監視対象物の形状、大きさ、体積、温度、成分等を検出することができるので、作業員の見た目だけでは判別がつかない要素についても監視することができる。 The second effect is that it is possible to detect the shape, size, volume, temperature, component, etc. of the monitored object from the captured image data, so that the operator can also monitor the elements that cannot be discriminated from the appearance alone. can do.

第3の効果は、監視したい場所に監視カメラ30a〜30nを設置することで、作業員が現場に出向かずに遠隔地で、監視対象物の形状、大きさ、体積、温度、成分等を監視することができ、監視業務を効率化させることができる。 The third effect is that by installing the monitoring cameras 30a to 30n at the place to be monitored, the worker can monitor the shape, size, volume, temperature, composition, etc. of the monitored object at a remote place without going to the site. It is possible to improve the efficiency of the monitoring work.

第4の効果は、監視対象物の検出内容に応じて基準値を設定することで、監視対象物の異常を検出することができる。 A fourth effect is that it is possible to detect an abnormality of the monitored object by setting the reference value according to the detected content of the monitored object.

第5の効果は、1つの監視システム1に様々な監視カメラ30a〜30nをフュージョンさせて活用し、監視業務自体の品質向上を図ることができる。 The fifth effect is that various monitoring cameras 30a to 30n are fused and utilized in one monitoring system 1 to improve the quality of the monitoring operation itself.

第6の効果は、監視を定常的に実施しているだけでなく、監視対象物の状況変化に応じて、監視を行う時間間隔を調整することができるので、監視システム1の消費電力を抑えることができる。 The sixth effect is that not only is the monitoring constantly performed, but also the time interval for monitoring can be adjusted according to the change in the status of the monitored object, so the power consumption of the monitoring system 1 is suppressed. be able to.

第7の効果は、監視カメラ30a〜30nとして3次元カメラを活用することで、位置の取得が可能になり、清掃すべき場所、発注すべき対象を絞り込むことができ、広範囲な点検・監視を実現することができる。 The seventh effect is that by utilizing a three-dimensional camera as the monitoring cameras 30a to 30n, the position can be acquired, the place to be cleaned and the object to be ordered can be narrowed down, and a wide range of inspection and monitoring can be performed. Can be realized.

第8の効果は、原材料の在庫管理においては、自動的に不足する対象物の発注を行ったり、在庫補充後の安定した状態までをライフサイクルとして管理することができる。また、落鉱落炭の堆積管理においては、清掃を行うタイミングを知らせることができる。 The eighth effect is that in inventory management of raw materials, it is possible to automatically place an order for a shortage of objects or manage a stable state after inventory replenishment as a life cycle. In addition, the timing of cleaning can be notified in the management of sedimentation of fallen coal.

[実施形態2]
実施形態2に係る監視システムについて図面を用いて説明する。図13は、実施形態2に係る監視システムの構成を模式的に示したブロック図である。
[Embodiment 2]
A monitoring system according to the second embodiment will be described with reference to the drawings. FIG. 13 is a block diagram schematically showing the configuration of the monitoring system according to the second embodiment.

実施形態2は、実施形態1の変形例であり、拠点50a〜50nごとに監視カメラを設置するのをやめ、監視カメラ30(1つの監視カメラ、複数種類の監視カメラでも可)及び通信部80(無線通信部)を搭載した自動運転車両60を用いて、監視対象物が存在する拠点50a〜50nを巡回して、撮影データを、通信部80及びネットワーク40を介して監視装置10で取得できるようにしたものである。自動運転車両60は、衛星測位装置70(例えば、GPS;Global Positioning System)を搭載している。衛星測位装置70で測位した測位情報は、撮影データに含めて、通信部80及びネットワーク40を介して監視装置10に送信される。監視装置10は、当該測位情報により撮影データの撮影位置を特定することができる。その他の構成は実施形態1と同様である。 The second embodiment is a modified example of the first embodiment, in which the monitoring cameras are not installed for each of the bases 50a to 50n, and the monitoring cameras 30 (one monitoring camera, a plurality of types of monitoring cameras may be used) and the communication unit 80. Using the self-driving vehicle 60 equipped with the (wireless communication unit), the monitoring apparatus 10 can be acquired through the communication unit 80 and the network 40 by patrolling the bases 50a to 50n where the monitored object exists. It was done like this. The autonomous driving vehicle 60 is equipped with a satellite positioning device 70 (for example, GPS; Global Positioning System). The positioning information measured by the satellite positioning device 70 is included in the captured data and transmitted to the monitoring device 10 via the communication unit 80 and the network 40. The monitoring device 10 can specify the shooting position of the shooting data based on the positioning information. Other configurations are similar to those of the first embodiment.

実施形態2によれば、実施形態1と同様に、現場の様々な状況を監視することに貢献することができる。 According to the second embodiment, similarly to the first embodiment, it is possible to contribute to monitoring various situations at the site.

[実施形態3]
実施形態3に係る監視装置について図面を用いて説明する。図14は、実施形態3に係る監視装置の構成を模式的に示したブロック図である。
[Third Embodiment]
A monitoring device according to the third embodiment will be described with reference to the drawings. FIG. 14 is a block diagram schematically showing the configuration of the monitoring device according to the third embodiment.

監視装置10は、監視カメラ30を用いて拠点50に存在する監視対象物を監視する装置である(図14参照)。監視装置10は、画像化部13と、点群化部14と、予測モデル作成部17と、モデル判定部18と、基準値判定部19と、を備える。 The monitoring device 10 is a device that monitors a monitoring target existing in the base 50 using the monitoring camera 30 (see FIG. 14 ). The monitoring device 10 includes an imaging unit 13, a point grouping unit 14, a prediction model creation unit 17, a model determination unit 18, and a reference value determination unit 19.

画像化部13は、拠点50を撮影する監視カメラ30からの撮影データが動画データであるときに当該動画データを画像データに変換する(図14参照)。 The imaging unit 13 converts the moving image data into image data when the shooting data from the surveillance camera 30 that shoots the site 50 is moving image data (see FIG. 14 ).

点群化部14は、撮影データが3次元データであるときに当該3次元データを点群データに変換する(図14参照)。 The point cloud forming unit 14 converts the three-dimensional data into point cloud data when the captured data is three-dimensional data (see FIG. 14).

予測モデル作成部17は、第1モードのときに、画像化部13で変換された画像データ、又は、点群化部14で変換された点群データ、若しくは、撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する(図14参照)。 When the prediction model creation unit 17 is in the first mode, when the image data converted by the imaging unit 13 or the point cloud data converted by the point cloud unit 14 or the shooting data is image data Machine learning is used to create a prediction model using the other image data (see FIG. 14).

モデル判定部18は、第1モードとは異なる第2モードのときに、画像化部13で変換された画像データ、又は、点群化部14で変換された点群データ、若しくは、撮影データが画像データであるときの他の画像データと、予測モデル作成部17で作成された予測モデルと、を比較することにより、画像データ又は点群データ若しくは他の画像データに含まれる監視対象物の変化を判定する。 In the second mode different from the first mode, the model determination unit 18 determines whether the image data converted by the imaging unit 13 or the point group data converted by the point grouping unit 14 or the imaging data is acquired. By comparing the other image data that is image data with the prediction model created by the prediction model creation unit 17, the change of the monitoring target included in the image data, the point cloud data, or the other image data. To judge.

基準値判定部19と、第2モードのときに、点群化部14で変換された点群データに含まれる監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、監視対象物の変化を判定する。 In the reference value determination unit 19 and the second mode, the predetermined form of the monitoring target included in the point cloud data converted by the point cloud formation unit 14 is measured, and the measured value and the preset value are set. The change of the monitored object is determined by comparing with the reference value.

実施形態3によれば、実施形態1と同様に、現場の様々な状況を監視することに貢献することができる。 According to the third embodiment, similarly to the first embodiment, it is possible to contribute to monitoring various situations at the site.

なお、実施形態1〜3に係る監視装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図15に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源100は、内部バス104により相互に接続される、プロセッサ101、メモリ102、ネットワークインタフェイス103等を備える。 The monitoring device according to the first to third embodiments can be configured by so-called hardware resources (information processing device, computer), and the monitoring device having the configuration illustrated in FIG. 15 can be used. For example, the hardware resource 100 includes a processor 101, a memory 102, a network interface 103, etc., which are interconnected by an internal bus 104.

なお、図15に示す構成は、ハードウェア資源100のハードウェア構成を限定する趣旨ではない。ハードウェア資源100は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ101等のユニットの数も図15の例示に限定する趣旨ではなく、例えば、複数のプロセッサ101がハードウェア資源100に含まれていてもよい。プロセッサ101には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。 The configuration illustrated in FIG. 15 is not intended to limit the hardware configuration of the hardware resource 100. The hardware resource 100 may include hardware (not shown) (for example, an input/output interface). Alternatively, the number of units such as the processor 101 included in the device is not limited to the example illustrated in FIG. 15, and a plurality of processors 101 may be included in the hardware resource 100, for example. As the processor 101, for example, a CPU (Central Processing Unit), MPU (Micro Processor Unit), GPU (Graphics Processing Unit), or the like can be used.

メモリ102には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。 As the memory 102, for example, RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), or the like can be used.

ネットワークインタフェイス103には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。 As the network interface 103, for example, a LAN (Local Area Network) card, a network adapter, a network interface card, or the like can be used.

ハードウェア資源100の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ102に格納されたプログラムをプロセッサ101が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。 The function of the hardware resource 100 is realized by the processing module described above. The processing module is realized by the processor 101 executing a program stored in the memory 102, for example. In addition, the program can be downloaded via a network or updated using a storage medium storing the program. Further, the processing module may be realized by a semiconductor chip. That is, the function performed by the processing module may be realized by executing software on some hardware.

上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 The whole or part of the exemplary embodiments disclosed above can be described as, but not limited to, the following supplementary notes.

[付記1]
本発明では、前記第1の視点に係る監視装置の形態が可能であり、以下の通りである。
拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する画像化部と、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換する点群化部と、
第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する予測モデル作成部と、
前記第1モードとは異なる第2モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、前記予測モデル作成部で作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するモデル判定部と、
前記第2モードのときに、前記点群化部で変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する基準値判定部と、
を備える、
監視装置。
[Appendix 1]
In the present invention, the form of the monitoring device according to the first aspect is possible, and is as follows.
An imaging unit that converts the moving image data into image data when the shooting data from the surveillance camera that shoots the base is moving image data,
A point cloud conversion unit that converts the three-dimensional data into point cloud data when the captured data is three-dimensional data;
In the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or another image when the shooting data is image data A predictive model creation unit that creates a predictive model by machine learning using data,
In the second mode different from the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or the photographing data is image data. When the other image data and the prediction model created by the prediction model creation unit are compared, a monitoring target included in the image data, the point cloud data, or the other image data. A model determination unit that determines changes in objects,
In the second mode, the predetermined form of the monitoring target included in the point cloud data converted by the point cloud forming unit is measured, and the measured value and a preset reference value are measured. By comparing the reference value determination unit for determining the change of the monitored object,
With
Monitoring equipment.

[付記2]
前記監視カメラからのデータの出力経路を制御する第1経路制御部と、
前記画像化部又は前記点群化部若しくは前記第1経路制御部からのデータの出力経路を制御する第2経路制御部と、
をさらに備え、
前記第1経路制御部は、
前記撮影データが動画データであるときに、前記動画データを前記画像化部に向けて出力し、
前記撮影データが3次元データであるときに、前記3次元データを前記点群化部に向けて出力し、
前記撮影データが画像データであるときの前記他の画像データを第2経路制御部に向けて出力し、
前記第2経路制御部は、
前記第1モードのときに、前記画像化部からの前記画像データ、又は、前記点群化部からの前記点群データ、若しくは、前記第1経路制御部からの前記他の画像データを前記モデル作成部に向けて出力し、
前記第2モードのときに、前記画像化部からの前記画像データ、又は、前記第1経路制御部からの前記他の画像データを前記モデル判定部に向けて出力し、若しくは、前記点群化部からの前記点群データを前記モデル判定部及び前記基準値判定部に向けて出力する、
付記1記載の監視装置。
[Appendix 2]
A first path control unit for controlling an output path of data from the surveillance camera;
A second route control unit that controls an output route of data from the imaging unit, the point grouping unit, or the first route control unit;
Further equipped with,
The first route control unit,
When the shooting data is moving image data, the moving image data is output toward the imaging unit,
When the photographed data is three-dimensional data, the three-dimensional data is output toward the point grouping unit,
Outputting the other image data when the photographing data is image data, toward the second path control unit,
The second route control unit,
In the first mode, the image data from the imaging unit, the point cloud data from the point clouding unit, or the other image data from the first path control unit is used as the model. Output to the creation section,
In the second mode, the image data from the imaging unit or the other image data from the first path control unit is output toward the model determination unit, or the point cloud formation is performed. Outputting the point cloud data from the unit toward the model determination unit and the reference value determination unit,
The monitoring device according to attachment 1.

[付記3]
前記監視カメラからの前記撮影データを取得して前記第1経路制御部に向けて出力するデータ取得部と、
前記モデル判定部及び前記基準値判定部の少なくとも1つからの判定結果を出力する出力部と、
をさらに備え、
前記出力部は、前記判定結果を前記データ取得部に向けて出力し、
前記データ取得部は、前記出力部からの前記判定結果に基づいて前記監視対象物の変化を確認し、変化の程度に応じて前記監視カメラからの前記撮影データを取得する時間間隔を調整する、
付記2記載の監視装置。
[Appendix 3]
A data acquisition unit that acquires the shooting data from the surveillance camera and outputs the shooting data to the first route control unit;
An output unit that outputs a determination result from at least one of the model determination unit and the reference value determination unit;
Further equipped with,
The output unit outputs the determination result toward the data acquisition unit,
The data acquisition unit confirms a change in the monitoring target object based on the determination result from the output unit, and adjusts a time interval for acquiring the imaging data from the monitoring camera according to the degree of the change,
The monitoring device according to attachment 2.

[付記4]
前記撮影データは、時刻情報、位置情報、カメラ情報及び対象物情報の少なくとも1つの情報を含み、
前記判定結果は、前記時刻情報、前記位置情報、前記カメラ情報及び前記対象物情報の少なくとも1つの情報を含む、
付記3記載の監視装置。
[Appendix 4]
The photographing data includes at least one of time information, position information, camera information, and object information,
The determination result includes at least one of the time information, the position information, the camera information, and the object information,
The monitoring device according to attachment 3.

[付記5]
前記画像化部は、前記動画データから、予め設定されたサンプリング周期で前記画像データを切り出し、切り出した前記画像データを所定の画像処理することによって、前記動画データから前記画像データに変換する、
付記1乃至4のいずれか一に記載の監視装置。
[Appendix 5]
The imaging unit converts the moving image data into the image data by cutting out the image data from the moving image data at a preset sampling cycle, and subjecting the cut out image data to predetermined image processing,
The monitoring device according to any one of appendices 1 to 4.

[付記6]
前記所定の画像処理は、精細化、高解像度化、ノイズ除去、低解像度化、オープニング処理、及び、モルフォロジー変換の少なくとも1つの処理である、
付記5記載の監視装置。
[Appendix 6]
The predetermined image processing is at least one of finer definition, higher resolution, noise removal, lower resolution, opening processing, and morphology conversion.
The monitoring device according to attachment 5.

[付記7]
前記点群化部は、前記3次元データを1次点群データに変換し、変換された前記1次点群データに基づいてモデルデータを生成し、生成された前記モデルデータを2次点群データに変換することによって、前記3次元データを前記点群データに変換する、
付記1乃至6のいずれか一に記載の監視装置。
[Appendix 7]
The point cloud conversion unit converts the three-dimensional data into primary point cloud data, generates model data based on the converted primary point cloud data, and uses the generated model data as a secondary point cloud. Converting the three-dimensional data into the point cloud data by converting into data
7. The monitoring device according to any one of appendices 1 to 6.

[付記8]
前記点群化部は、変換された前記点群データに対してフィルタ処理を実行する、
付記7記載の監視装置。
[Appendix 8]
The point grouping unit performs a filter process on the converted point group data,
The monitoring device according to attachment 7.

[付記9]
前記第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データに予測モデル用ラベルを付与し、前記予測モデル用ラベルが付与されたデータを前記予測モデル作成部に向けて出力するラベル付与部をさらに備える、
付記1乃至6のいずれか一に記載の監視装置。
[Appendix 9]
In the first mode, when the image data converted by the imaging unit, the point cloud data converted by the point cloud unit, or the shooting data is image data, A label for a prediction model is attached to the image data, and the label attachment unit that outputs the data attached with the label for the prediction model toward the prediction model creation unit is further provided.
7. The monitoring device according to any one of appendices 1 to 6.

[付記10]
本発明では、前記第2の視点に係る監視システムの形態が可能であり、以下の通りである。
拠点を撮影する監視カメラと、
付記1乃至9のいずれか一に記載の監視装置と、
を備える、
監視システム。
[Appendix 10]
In the present invention, the form of the monitoring system according to the second aspect is possible, and is as follows.
A surveillance camera that shoots the base,
A monitoring device according to any one of appendices 1 to 9;
With
Monitoring system.

[付記11]
前記監視カメラを搭載するとともに、衛星測位装置を搭載し、かつ、前記監視装置と通信可能にする通信部を有する自動運転車両をさらに備え、
前記自動運転車両は、前記衛星測位装置で測位した測位情報を、前記監視カメラで撮影された前記撮影データに含めて、前記通信部を介して前記監視装置に送信する、
付記10記載の監視システム。
[Appendix 11]
In addition to mounting the surveillance camera, a satellite positioning device is mounted, and further comprising an autonomous vehicle having a communication unit capable of communicating with the monitoring device,
The self-driving vehicle includes the positioning information measured by the satellite positioning device in the captured data captured by the surveillance camera, and transmits the information to the monitoring device via the communication unit.
The monitoring system according to attachment 10.

[付記12]
本発明では、前記第3の視点に係る監視方法の形態が可能であり、以下の通りである。
拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換するステップと、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換するステップと、
第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成するステップと、
前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するステップと、
前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定するステップと、
を含む、
監視方法。
[Appendix 12]
In the present invention, the form of the monitoring method according to the third aspect is possible, and is as follows.
A step of converting the moving image data into image data when the shooting data from the surveillance camera shooting the base is moving image data,
Converting the three-dimensional data into point cloud data when the imaging data is three-dimensional data;
In the first mode, machine learning is performed to perform a prediction model using the converted image data, the converted point cloud data, or other image data when the imaging data is image data. To create
In the second mode different from the first mode, the converted image data, or the converted point cloud data, or the other image data when the shooting data is image data, By comparing the created prediction model, by determining the change of the monitoring target included in the image data or the point cloud data or the other image data,
In the second mode, by measuring a predetermined form of the monitored object included in the converted point cloud data, by comparing the measured value and a preset reference value, Determining a change in the monitored object,
including,
Monitoring method.

[付記13]
本発明では、前記第4の視点に係るプログラムの形態が可能であり、以下の通りである。
拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する処理と、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換する処理と、
第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する処理と、
前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定する処理と、
前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する処理と、
をハードウェア資源に実行させる、
プログラム。
[Appendix 13]
In the present invention, the form of the program according to the fourth aspect is possible, and is as follows.
A process of converting the video data into image data when the shooting data from the surveillance camera shooting the base is video data;
A process of converting the three-dimensional data into point cloud data when the photographing data is three-dimensional data;
In the first mode, machine learning is performed to perform a prediction model using the converted image data, the converted point cloud data, or other image data when the imaging data is image data. And the process of creating
In the second mode different from the first mode, the converted image data, or the converted point cloud data, or the other image data when the shooting data is image data, By comparing the created prediction model, the process of determining the change of the monitoring target included in the image data or the point cloud data or the other image data,
In the second mode, by measuring a predetermined form of the monitored object included in the converted point cloud data, by comparing the measured value and a preset reference value, A process of determining a change in the monitored object,
Causes a hardware resource to execute,
program.

なお、上記の特許文献の開示を、本書に引用をもって繰り込むものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。 The disclosures of the above patent documents are incorporated herein by reference. Modifications and adjustments of the exemplary embodiments and examples are possible within the scope of the entire disclosure (including claims and drawings) of the present invention and based on the basic technical concept of the invention. In addition, various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the scope of the entire disclosure of the present invention (necessary) Can be selected). That is, it goes without saying that the present invention includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and the drawings and the technical idea. Regarding the numerical values and numerical ranges described in the present application, it is considered that arbitrary intermediate values, lower numerical values, and small ranges are described even if not explicitly stated.

1 監視システム
10 監視装置
11 データ取得部
12 経路制御部
13 画像化部
14 点群化部
15 経路制御部
16 ラベル付与部
17 予測モデル作成部
18 モデル判定部
19 基準値判定部
20 出力部
30、30a〜30n 監視カメラ
40 ネットワーク
50、50a〜50n 拠点
60 自動運転車両
70 衛星測位装置
80 通信部
100 ハードウェア資源
101 プロセッサ
102 メモリ
103 ネットワークインタフェイス
104 内部バス
DESCRIPTION OF SYMBOLS 1 monitoring system 10 monitoring device 11 data acquisition unit 12 route control unit 13 imaging unit 14 point grouping unit 15 route control unit 16 label assigning unit 17 prediction model creating unit 18 model determining unit 19 reference value determining unit 20 output unit 30, 30a to 30n Surveillance camera 40 Network 50, 50a to 50n Location 60 Self-driving vehicle 70 Satellite positioning device 80 Communication unit 100 Hardware resource 101 Processor 102 Memory 103 Network interface 104 Internal bus

Claims (10)

拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する画像化部と、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換する点群化部と、
第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する予測モデル作成部と、
前記第1モードとは異なる第2モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、前記予測モデル作成部で作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するモデル判定部と、
前記第2モードのときに、前記点群化部で変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する基準値判定部と、
を備える、
監視装置。
An imaging unit that converts the moving image data into image data when the shooting data from the surveillance camera that shoots the base is moving image data,
A point cloud conversion unit that converts the three-dimensional data into point cloud data when the captured data is three-dimensional data;
In the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or another image when the shooting data is image data A predictive model creation unit that creates a predictive model by machine learning using data,
In the second mode different from the first mode, the image data converted by the imaging unit, the point group data converted by the point grouping unit, or the photographing data is image data. When the other image data and the prediction model created by the prediction model creation unit are compared, a monitoring target included in the image data, the point cloud data, or the other image data. A model determination unit that determines changes in objects,
In the second mode, the predetermined form of the monitoring target included in the point cloud data converted by the point cloud forming unit is measured, and the measured value and a preset reference value are measured. By comparing the reference value determination unit for determining the change of the monitored object,
With
Monitoring equipment.
前記監視カメラからのデータの出力経路を制御する第1経路制御部と、
前記画像化部又は前記点群化部若しくは前記第1経路制御部からのデータの出力経路を制御する第2経路制御部と、
をさらに備え、
前記第1経路制御部は、
前記撮影データが動画データであるときに、前記動画データを前記画像化部に向けて出力し、
前記撮影データが3次元データであるときに、前記3次元データを前記点群化部に向けて出力し、
前記撮影データが画像データであるときの前記他の画像データを第2経路制御部に向けて出力し、
前記第2経路制御部は、
前記第1モードのときに、前記画像化部からの前記画像データ、又は、前記点群化部からの前記点群データ、若しくは、前記第1経路制御部からの前記他の画像データを前記予測モデル作成部に向けて出力し、
前記第2モードのときに、前記画像化部からの前記画像データ、又は、前記第1経路制御部からの前記他の画像データを前記モデル判定部に向けて出力し、若しくは、前記点群化部からの前記点群データを前記モデル判定部及び前記基準値判定部に向けて出力する、
請求項1記載の監視装置。
A first path control unit for controlling an output path of data from the surveillance camera;
A second route control unit that controls an output route of data from the imaging unit, the point grouping unit, or the first route control unit;
Further equipped with,
The first route control unit,
When the shooting data is moving image data, the moving image data is output toward the imaging unit,
When the photographed data is three-dimensional data, the three-dimensional data is output toward the point grouping unit,
Outputting the other image data when the photographing data is image data, toward the second path control unit,
The second route control unit,
In the first mode, the image data from the imaging unit, the point cloud data from the point cloud unit, or the other image data from the first route control unit is predicted. Output to the model creation section,
In the second mode, the image data from the imaging unit or the other image data from the first path control unit is output toward the model determination unit, or the point cloud formation is performed. Outputting the point cloud data from the unit toward the model determination unit and the reference value determination unit,
The monitoring device according to claim 1.
前記監視カメラからの前記撮影データを取得して前記第1経路制御部に向けて出力するデータ取得部と、
前記モデル判定部及び前記基準値判定部の少なくとも1つからの判定結果を出力する出力部と、
をさらに備え、
前記出力部は、前記判定結果を前記データ取得部に向けて出力し、
前記データ取得部は、前記出力部からの前記判定結果に基づいて前記監視対象物の変化を確認し、変化の程度に応じて前記監視カメラからの前記撮影データを取得する時間間隔を調整する、
請求項2記載の監視装置。
A data acquisition unit that acquires the shooting data from the surveillance camera and outputs the shooting data to the first route control unit;
An output unit that outputs a determination result from at least one of the model determination unit and the reference value determination unit;
Further equipped with,
The output unit outputs the determination result toward the data acquisition unit,
The data acquisition unit confirms a change in the monitoring target object based on the determination result from the output unit, and adjusts a time interval for acquiring the imaging data from the monitoring camera according to the degree of the change,
The monitoring device according to claim 2.
前記画像化部は、前記動画データから、予め設定されたサンプリング周期で前記画像データを切り出し、切り出した前記画像データを所定の画像処理することによって、前記動画データから前記画像データに変換する、
請求項1乃至3のいずれか一に記載の監視装置。
The imaging unit converts the moving image data into the image data by cutting out the image data from the moving image data at a preset sampling cycle, and subjecting the cut out image data to predetermined image processing,
The monitoring device according to claim 1.
前記点群化部は、前記3次元データを1次点群データに変換し、変換された前記1次点群データに基づいてモデルデータを生成し、生成された前記モデルデータを2次点群データに変換することによって、前記3次元データを前記点群データに変換する、
請求項1乃至4のいずれか一に記載の監視装置。
The point cloud conversion unit converts the three-dimensional data into primary point cloud data, generates model data based on the converted primary point cloud data, and uses the generated model data as a secondary point cloud. Converting the three-dimensional data into the point cloud data by converting into data
The monitoring device according to claim 1.
前記第1モードのときに、前記画像化部で変換された前記画像データ、又は、前記点群化部で変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データに予測モデル用ラベルを付与し、前記予測モデル用ラベルが付与されたデータを前記予測モデル作成部に向けて出力するラベル付与部をさらに備える、
請求項1乃至5のいずれか一に記載の監視装置。
In the first mode, when the image data converted by the imaging unit, the point cloud data converted by the point cloud unit, or the shooting data is image data, A label for a prediction model is attached to the image data, and the label attachment unit that outputs the data attached with the label for the prediction model toward the prediction model creation unit is further provided.
The monitoring device according to claim 1.
拠点を撮影する監視カメラと、
請求項1乃至6のいずれか一に記載の監視装置と、
を備える、
監視システム。
A surveillance camera that shoots the base,
A monitoring device according to any one of claims 1 to 6,
With
Monitoring system.
前記監視カメラを搭載するとともに、衛星測位装置を搭載し、かつ、前記監視装置と通信可能にする通信部を有する自動運転車両をさらに備え、
前記自動運転車両は、前記衛星測位装置で測位した測位情報を、前記監視カメラで撮影された前記撮影データに含めて、前記通信部を介して前記監視装置に送信する、
請求項7記載の監視システム。
In addition to mounting the surveillance camera, a satellite positioning device is mounted, and further comprising an autonomous vehicle having a communication unit capable of communicating with the monitoring device,
The self-driving vehicle includes the positioning information measured by the satellite positioning device in the captured data captured by the surveillance camera, and transmits the information to the monitoring device via the communication unit.
The monitoring system according to claim 7.
拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換するステップと、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換するステップと、
第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成するステップと、
前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定するステップと、
前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定するステップと、
を含む、
監視方法。
A step of converting the moving image data into image data when the shooting data from the surveillance camera shooting the base is moving image data,
Converting the three-dimensional data into point cloud data when the imaging data is three-dimensional data;
In the first mode, machine learning is performed to perform a prediction model using the converted image data, the converted point cloud data, or other image data when the imaging data is image data. To create
In the second mode different from the first mode, the converted image data, or the converted point cloud data, or the other image data when the shooting data is image data, By comparing the created prediction model, by determining the change of the monitoring target included in the image data or the point cloud data or the other image data,
In the second mode, by measuring a predetermined form of the monitored object included in the converted point cloud data, by comparing the measured value and a preset reference value, Determining a change in the monitored object,
including,
Monitoring method.
拠点を撮影する監視カメラからの撮影データが動画データであるときに前記動画データを画像データに変換する処理と、
前記撮影データが3次元データであるときに前記3次元データを点群データに変換する処理と、
第1モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの他の画像データを用いて、機械学習して予測モデルを作成する処理と、
前記第1モードとは異なる第2モードのときに、変換された前記画像データ、又は、変換された前記点群データ、若しくは、前記撮影データが画像データであるときの前記他の画像データと、作成された前記予測モデルと、を比較することにより、前記画像データ又は前記点群データ若しくは前記他の画像データに含まれる監視対象物の変化を判定する処理と、
前記第2モードのときに、変換された前記点群データに含まれる前記監視対象物の所定形態を計測し、計測された計測値と、予め設定された基準値と、を比較することにより、前記監視対象物の変化を判定する処理と、
をハードウェア資源に実行させる、
プログラム。
A process of converting the video data into image data when the shooting data from the surveillance camera shooting the base is video data;
A process of converting the three-dimensional data into point cloud data when the photographing data is three-dimensional data;
In the first mode, machine learning is performed to perform a prediction model using the converted image data, the converted point cloud data, or other image data when the imaging data is image data. And the process of creating
In the second mode different from the first mode, the converted image data, or the converted point cloud data, or the other image data when the shooting data is image data, By comparing the created prediction model, the process of determining the change of the monitoring target included in the image data or the point cloud data or the other image data,
In the second mode, by measuring a predetermined form of the monitored object included in the converted point cloud data, by comparing the measured value and a preset reference value, A process of determining a change in the monitored object,
Causes a hardware resource to execute,
program.
JP2018221560A 2018-11-27 2018-11-27 Monitoring device, monitoring system, monitoring method, and program Active JP7347775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018221560A JP7347775B2 (en) 2018-11-27 2018-11-27 Monitoring device, monitoring system, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221560A JP7347775B2 (en) 2018-11-27 2018-11-27 Monitoring device, monitoring system, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2020087036A true JP2020087036A (en) 2020-06-04
JP7347775B2 JP7347775B2 (en) 2023-09-20

Family

ID=70908273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221560A Active JP7347775B2 (en) 2018-11-27 2018-11-27 Monitoring device, monitoring system, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP7347775B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112506081A (en) * 2020-11-30 2021-03-16 苏州迈创信息技术有限公司 Public toilet environment monitoring system for security protection
CN115588265A (en) * 2022-12-12 2023-01-10 华能酒泉风电有限责任公司 Intelligent monitoring system of wind power plant
CN117666510A (en) * 2023-12-07 2024-03-08 湖州成鑫钢化玻璃有限公司 Production control system and method for toughened glass

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293141A (en) * 1996-04-24 1997-11-11 Hitachi Ltd Mobile object detection device
JP2017102838A (en) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
WO2018179361A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
JP2018185208A (en) * 2017-04-25 2018-11-22 富士通株式会社 Change detection program, change detector, and change detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293141A (en) * 1996-04-24 1997-11-11 Hitachi Ltd Mobile object detection device
JP2017102838A (en) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
WO2018179361A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
JP2018185208A (en) * 2017-04-25 2018-11-22 富士通株式会社 Change detection program, change detector, and change detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112506081A (en) * 2020-11-30 2021-03-16 苏州迈创信息技术有限公司 Public toilet environment monitoring system for security protection
CN115588265A (en) * 2022-12-12 2023-01-10 华能酒泉风电有限责任公司 Intelligent monitoring system of wind power plant
CN115588265B (en) * 2022-12-12 2023-04-07 华能酒泉风电有限责任公司 Intelligent monitoring system of wind power plant
CN117666510A (en) * 2023-12-07 2024-03-08 湖州成鑫钢化玻璃有限公司 Production control system and method for toughened glass

Also Published As

Publication number Publication date
JP7347775B2 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP2020087036A (en) Monitoring apparatus, monitoring system, monitoring method, and program
US9928605B2 (en) Real-time cascaded object recognition
KR101846074B1 (en) Security system and security process and security controller of throw trash, by detected humans action or shape image
US20200159195A1 (en) Selective data feedback for industrial edge system
JP2011081715A (en) Monitoring system and monitoring method
JP7406451B2 (en) programmable logic controller
CN104192371A (en) Device and method for detecting bar lack in cigarette box based on multi-camera network
JP2010003177A (en) Image processor
WO2020105669A1 (en) Volume measurement device, system, method, and program
CN102601131A (en) Steel billet surface quality online detection device
CN105234951A (en) Intelligent guiding type mechanical arm vision system and work method thereof
CN105306882B (en) The method and apparatus for finding out the setting that the sensor unit that processing unit connects uses
CN103647347A (en) In-substation equipment state inspection and management system based on precise video recognition
JP2017142613A (en) Information processing device, information processing system, information processing method and information processing program
WO2020175589A1 (en) Information providing system
CN108230624A (en) Mountain landslide supervision system based on CC2530
US20200160208A1 (en) Model sharing among edge devices
CN112422818B (en) Intelligent screen dropping remote detection method based on multivariate image fusion
KR101917622B1 (en) Leakage detection method using background modeling method
JP7139987B2 (en) Process information acquisition system, process information acquisition method, and process information acquisition program
JP7097207B2 (en) Building management system, learning device, position determination device, and position determination method
CN203788047U (en) Patrol management system for state of equipment in transformer station based on video accurate recognition
CN109186557A (en) A kind of unmanned plane 3D scanning imaging system
JP2019197541A (en) Device and method for extracting and sending data in production site picture, device and method for receiving extracted data in production site picture, and system for sending and receiving extracted data in production site picture
CN115296193A (en) Intelligent inspection system and method for transformer substation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230831

R151 Written notification of patent or utility model registration

Ref document number: 7347775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151