JP2022120480A - Analysis system, analysis device, analysis method, and program - Google Patents

Analysis system, analysis device, analysis method, and program Download PDF

Info

Publication number
JP2022120480A
JP2022120480A JP2021017395A JP2021017395A JP2022120480A JP 2022120480 A JP2022120480 A JP 2022120480A JP 2021017395 A JP2021017395 A JP 2021017395A JP 2021017395 A JP2021017395 A JP 2021017395A JP 2022120480 A JP2022120480 A JP 2022120480A
Authority
JP
Japan
Prior art keywords
image
region
images
normal
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021017395A
Other languages
Japanese (ja)
Inventor
匡史 北山
Tadashi Kitayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2021017395A priority Critical patent/JP2022120480A/en
Publication of JP2022120480A publication Critical patent/JP2022120480A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce the man-hours required by a maintenance person to classify images of a device.SOLUTION: An image analysis system 20 includes an imaging apparatus 130 for imaging a device, and an analysis device 100 which analyzes an image of the device. The imaging apparatus 130 transmits an image to the analysis device 100. The analysis device 100 receives an operation to select a plurality of normal images indicating a normal state of the device from among a plurality of accumulated images, extracts a first feature quantity and a second feature quantity of each of the normal images, defines an area that includes all of the normal images in a coordinate space formed of the first feature quantity and the second feature quantity, receives an operation to select a new normal image from among the accumulated images, and recalculates a range of the area on the basis of the fact that the new normal image is not included in the area.SELECTED DRAWING: Figure 1

Description

本開示は、画像の解析システムに関し、より特定的には、機器の状態を示す画像の解析技術に関する。 TECHNICAL FIELD The present disclosure relates to an image analysis system, and more particularly to an image analysis technique that indicates the state of equipment.

発電所または変電所等のように多くの機器を備える施設では、機器の保全と経年劣化による異常等を早期発見するために巡視点検が行われている。巡視点検において、保守員は、施設を直接訪問して、各機器に設置されている計器の確認または機器状態の目視確認を行う。 2. Description of the Related Art In facilities such as power plants and substations that have a large number of devices, patrol inspections are carried out in order to maintain the devices and to detect abnormalities due to aged deterioration at an early stage. In the patrol inspection, maintenance personnel visit the facility directly to check the gauges installed in each device or to visually check the state of the device.

コスト削減や保全業務の効率化の観点から、施設の敷地内に監視カメラを設置して、監視カメラでの撮影画像を遠隔地で確認する点検方式が検討されている。監視カメラを利用することで、現地への保守員の派遣人数、または、訪問頻度の削減が期待されている。 From the viewpoint of reducing costs and improving the efficiency of maintenance work, an inspection method is being studied in which surveillance cameras are installed on the premises of facilities and the images captured by the surveillance cameras are checked from a remote location. The use of surveillance cameras is expected to reduce the number of maintenance personnel dispatched to the site or the frequency of visits.

しかしながら、変電所等の機器は、非常に故障の発生頻度が低いため、異常画像を蓄積するために非常に長い期間を要する。そのため、機械学習の学習データの用意が困難であり、AI(Artificial Intelligence)を用いた機器の異常の監視が困難である。 However, since equipment such as substations has a very low frequency of failures, it takes a very long period of time to accumulate abnormal images. Therefore, it is difficult to prepare learning data for machine learning, and it is difficult to monitor equipment abnormalities using AI (Artificial Intelligence).

異常画像の蓄積に関し、例えば、特開平5-149728号公報(特許文献1)は、「単一のサンプル画像から不良品サンプルの画像を人為的に編集」できる画像処理装置を開示している。この画像処理装置は、「特徴抽出部と学習判定部とを有する。特徴抽出部はテレビカメラより画像信号を入力して特徴量を抽出し特徴データ列を生成する。学習判定部は特徴データ列を入力し、予め教示用の画像より生成された判定パラメータを用いて認識処理を行う。この画像処理装置はサンプル画像および教示用の画像を記憶する画像メモリを有し、教示に際してCPUは入力装置より入力された画像編集情報に基づき前記サンプル画像より教示用の画像を編集して画像メモリへ書き込み、この画像を用いて前記判定パラメータの生成が行われる」というものである([要約]参照)。 Regarding accumulation of abnormal images, for example, Japanese Patent Application Laid-Open No. 5-149728 (Patent Document 1) discloses an image processing apparatus capable of "artificially editing defective sample images from a single sample image". This image processing apparatus has a "feature extraction unit and a learning determination unit. The feature extraction unit receives an image signal from a television camera, extracts a feature amount, and generates a feature data string. is input, and recognition processing is performed using determination parameters generated in advance from images for teaching.This image processing apparatus has an image memory for storing sample images and images for teaching. A teaching image is edited from the sample image based on the image editing information input from the sample image, written in the image memory, and the determination parameter is generated using this image” (see [Summary]). .

特開平5-149728号公報JP-A-5-149728

特許文献1に開示された技術によると、実環境で発生した異常画像を生成することはできず、機器の異常判定を正常に行うことができない可能性がある。その結果、保守員は、パターンマッチングまたは機械学習等のために、長期間にわたり監視カメラにより撮像された膨大な画像を分類する必要がある。したがって、保守員による画像の分類の工数を削減するための技術が必要とされている。 According to the technique disclosed in Patent Literature 1, it is impossible to generate an abnormal image that occurs in the actual environment, and there is a possibility that the abnormality determination of the device cannot be performed normally. As a result, maintenance personnel need to classify a large number of images captured by surveillance cameras over a long period of time for purposes such as pattern matching or machine learning. Therefore, there is a need for a technique for reducing the man-hours required for image classification by maintenance personnel.

本開示は、上記のような背景に鑑みてなされたものであって、ある局面における目的は、保守員による画像の分類の工数を削減する技術を提供することにある。 The present disclosure has been made in view of the background as described above, and an object in one aspect is to provide a technique for reducing man-hours for image classification by maintenance personnel.

ある実施の形態に従うと画像の解析システムが提供される、解析システムは、機器を撮像する撮像装置と、機器の画像を解析する解析装置とを備える。撮像装置は、画像を解析装置に送信する。解析装置は、蓄積した複数の画像の中から、機器の状態が正常であることを示す複数の正常画像を選択する操作を受け付け、複数の正常画像の各々の第1の特徴量および第2の特徴量を抽出し、第1の特徴量および第2の特徴量からなる座標空間において、複数の正常画像を全て含む領域を定義し、蓄積した複数の画像の中から、新たな正常画像を選択する操作を受け付け、新たな正常画像が領域に含まれないことに基づいて、領域の範囲を再計算する。 According to one embodiment, an image analysis system is provided. The analysis system comprises an imaging device for imaging equipment and an analysis device for analyzing the image of the equipment. The imaging device transmits the image to the analysis device. The analysis device accepts an operation of selecting a plurality of normal images indicating that the state of the device is normal from among the plurality of accumulated images, and calculates the first feature amount and the second characteristic amount of each of the plurality of normal images. A feature amount is extracted, a region including all of the plurality of normal images is defined in a coordinate space composed of the first feature amount and the second feature amount, and a new normal image is selected from the accumulated plurality of images. Then, based on the fact that the new normal image is not included in the region, the range of the region is recalculated.

ある実施の形態に従うと、保守員による画像の分類の工数を削減することが可能である。 According to an embodiment, it is possible to reduce man-hours for image classification by maintenance personnel.

この開示内容の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本開示に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of this disclosure will become apparent from the following detailed description of the disclosure taken in conjunction with the accompanying drawings.

ある実施の形態に従う解析システム20の構成の一例を示す図である。It is a figure showing an example of composition of analysis system 20 according to an embodiment. 画像を分類するための閾値の一例を示す図である。FIG. 4 is a diagram showing an example of thresholds for classifying images; 画像から抽出する特徴量の第1の例を示す図である。FIG. 4 is a diagram showing a first example of feature amounts extracted from an image; 画像から抽出する特徴量の第2の例を示す図である。FIG. 10 is a diagram showing a second example of feature amounts extracted from an image; 画像を分類するための閾値の更新機能の第1の例を示す図である。FIG. 10 illustrates a first example of a threshold update function for classifying images; 画像を分類するための閾値の更新機能の第2の例を示す図である。FIG. 10 illustrates a second example of a threshold updating function for classifying images; 正常画像のフィルタの生成機能の一例を示す図である。FIG. 10 is a diagram illustrating an example of a normal image filter generation function; 撮像時刻および日照条件が画像に及ぼす影響の一例を示す図である。FIG. 5 is a diagram showing an example of the influence of imaging time and sunshine conditions on an image; 解析装置100として使用される情報処理装置900のハードウェア構成の一例を示す図である。3 is a diagram showing an example of a hardware configuration of an information processing device 900 used as an analysis device 100; FIG. 解析装置100の内部処理の一例を示す図である。3 is a diagram showing an example of internal processing of the analysis device 100; FIG.

以下、図面を参照しつつ、本開示に係る技術思想の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。なお、これ以降の説明では、複数の同一の構成に対して言及する場合、構成123A,123Bのように表現することがある。また、それらを総称する場合は、構成123と表現する。
<A.システム構成>
図1は、本実施の形態に従う解析システム20の構成の一例を示す図である。解析システム20は、発電所、変電所または工場等の任意の施設10に設置された機器140の画像を収集し、かつ、解析し得る。解析システム20により収集された画像は、パターンマッチングによる機器140の異常判定、機器140の異常判定を行うためのモデルの機械学習、または、目視検査のために使用され得る。監視対象の機器140は、例えば、変電所に設置される開閉器、変圧器、または、任意の施設に設置される任意の機器を含み得る。
Hereinafter, embodiments of the technical concept according to the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated. In the following description, when referring to a plurality of identical configurations, they may be expressed as configurations 123A and 123B. Moreover, when collectively referring to them, they are expressed as a configuration 123 .
<A. System configuration>
FIG. 1 is a diagram showing an example of the configuration of analysis system 20 according to the present embodiment. Analysis system 20 may collect and analyze images of equipment 140 installed in any facility 10, such as a power plant, substation, or factory. Images collected by analysis system 20 may be used for anomaly determination of device 140 by pattern matching, machine learning of models for determining anomalies of device 140, or visual inspection. The monitored equipment 140 may include, for example, a switchgear installed at a substation, a transformer, or any equipment installed at any facility.

(a.システムの構成要素)
解析システム20は、解析装置100と、端末110と、アクセスポイント(Access Point(AP))120と、監視カメラ130とを含む。解析装置100と、端末110と、アクセスポイント120と、監視カメラ130とは、ローカルネットワーク40を介して相互に接続されている。また、解析装置100または端末110は、施設10の外部の広域ネットワークに接続されていてもよい。ある局面において、解析システム20は、解析装置100のみを含み、施設10に予め設置されている端末、アクセスポイントおよび監視カメラと連携してもよい。
(a. System components)
Analysis system 20 includes analysis device 100 , terminal 110 , access point (AP) 120 , and surveillance camera 130 . Analysis device 100 , terminal 110 , access point 120 , and monitoring camera 130 are interconnected via local network 40 . Also, the analysis device 100 or the terminal 110 may be connected to a wide area network outside the facility 10 . In a certain aspect, analysis system 20 may include only analysis device 100 and cooperate with terminals, access points, and surveillance cameras installed in facility 10 in advance.

監視カメラ130は、施設10内の機器140を撮像する。また、監視カメラ130は、施設10内のローカルネットワーク40を介して、画像を解析装置100に送信する。画像は、機器140本体の発錆または漏油等の異常を検出するために使用され得る。ある局面において、複数の監視カメラ130が施設10内に設置されていてもよい。また、他の局面において、監視カメラ130は、画像の代わりに映像を撮影して、当該映像を解析装置100に送信してもよい。さらに、他の局面において、監視カメラ130は、固定式のカメラ、レール上を走行する移動式のカメラ、ドローンに搭載されたカメラ、自走式ロボット等に搭載されたカメラ、または、これらの組み合わせ等により実現され得る。 The monitoring camera 130 images the equipment 140 inside the facility 10 . Also, the monitoring camera 130 transmits the image to the analysis device 100 via the local network 40 within the facility 10 . The image can be used to detect anomalies such as rusting or oil leakage in the device 140 body. In one aspect, multiple surveillance cameras 130 may be installed within facility 10 . Also, in another aspect, monitoring camera 130 may capture a video instead of an image and transmit the video to analysis device 100 . Furthermore, in another aspect, surveillance camera 130 is a fixed camera, a mobile camera running on a rail, a camera mounted on a drone, a camera mounted on a self-propelled robot, or a combination thereof. etc.

解析装置100は、監視カメラ130から取得した画像(または映像)に、撮像対象の機器140の情報、例えば、メーカー、機種、型式、機器140のカテゴリー、または、使用開始時期等を関連付けて、当該画像をハードディスク等の記憶装置(図示せず)に保存する。解析装置100は、画像の特徴量の抽出機能、当該特徴量に基づく画像を分類するための閾値の算出、および、正常画像のフィルタリング機能等を備える。これらの機能の詳細については後述する。 The analysis device 100 associates an image (or video) acquired from the monitoring camera 130 with information of the device 140 to be imaged, such as the manufacturer, model, model, category of the device 140, or start time of use, etc. The image is saved in a storage device (not shown) such as a hard disk. The analysis apparatus 100 has a function of extracting a feature amount of an image, a function of calculating a threshold value for classifying images based on the feature amount, a function of filtering normal images, and the like. Details of these functions will be described later.

なお、本実施の形態において、「正常画像」とは、撮像された機器140の状態が正常であることを示す画像である。逆に、「異常画像」とは、撮像された機器140の状態が異常であることを示す画像である。例えば、機器140の発錆または漏油等が画像Aから確認できる場合、画像Aは異常画像に分類される。逆に、いかなる機器140の異常も画像Aから確認できない場合、画像Aは正常画像に分類される。「画像を分類するための閾値」は、画像を正常画像または異常画像のいずれかに分類するための閾値である。 In the present embodiment, the “normal image” is an image indicating that the imaged device 140 is in a normal state. Conversely, an “abnormal image” is an image indicating that the imaged device 140 is in an abnormal state. For example, when rusting or oil leakage of the device 140 can be confirmed from the image A, the image A is classified as an abnormal image. Conversely, if no device 140 anomalies can be identified from image A, then image A is classified as a normal image. 'threshold for classifying image' is the threshold for classifying an image as either normal or abnormal.

端末110は、例えば、施設10の保守員により、解析装置100に蓄積された画像を確認するために使用される。端末110は、施設10内部に設置されてもよいし、外部の監視所30等に設置されてもよい。保守員は、端末110を使用して、解析装置100に蓄積された複数の画像を確認して、各画像を正常画像または異常画像に分類する。保守員によって分類された正常画像および異常画像は、解析装置100において、画像を分類するための閾値の算出、および、画像のフィルタリング機能に使用され得る。 The terminal 110 is used, for example, by maintenance personnel of the facility 10 to check the images accumulated in the analysis device 100 . The terminal 110 may be installed inside the facility 10 or may be installed at an external monitoring station 30 or the like. A maintenance worker uses the terminal 110 to check a plurality of images accumulated in the analysis device 100 and classify each image into a normal image or an abnormal image. The normal images and abnormal images classified by the maintenance personnel can be used in the analysis device 100 for the calculation of thresholds for classifying the images and the image filtering function.

ある局面において、解析システム20は、施設内の制御室等に配置されてもよい。他の局面において、解析システム20の一部は、施設の外部に配置されてもよい。その場合、例えば、解析装置100は、クラウド環境内に仮想的に構築されてもよいし、サーバーであってもよい。 In one aspect, analysis system 20 may be located in a facility, such as in a control room. In other aspects, portions of analysis system 20 may be located external to the facility. In that case, for example, analysis device 100 may be virtually constructed in a cloud environment or may be a server.

(b.システムの動作概要)
解析システム20は、主に、機器140の画像の収集、画像の分類、画像を分類するための閾値の生成、正常画像のフィルタの生成、画像を分類するための閾値の更新、および、異常画像の検出の6つの機能を備える。以下、各機能の概要について説明する。
(b. Overview of system operation)
Analysis system 20 is primarily used for collecting images of device 140, classifying the images, generating thresholds for classifying images, generating filters for normal images, updating thresholds for classifying images, and abnormal images. It has six functions of detection of An outline of each function will be described below.

機器140の画像の収集機能は、施設10内の1または複数の監視カメラ130により、1または複数の機器140の画像を撮像する機能である。監視カメラ130は、一定間隔で機器140の画像を撮像し、当該画像を解析装置100に送信し得る。ある局面において、監視カメラ130は、予め定められた時間間隔(例えば、2時間毎)で、機器140の画像を撮像し得る。他の局面において、監視カメラ130は、予め定められた日照条件(晴れの日等)を満たす場合のみ、機器140の画像を撮像してもよい。こうすることで、解析装置100は、近い条件で撮像された画像を収集することができる。 The function of collecting images of equipment 140 is a function of capturing images of one or more equipment 140 using one or more monitoring cameras 130 in facility 10 . The monitoring camera 130 can capture images of the equipment 140 at regular intervals and transmit the images to the analysis device 100 . In one aspect, surveillance camera 130 may capture images of device 140 at predetermined time intervals (eg, every two hours). In another aspect, surveillance camera 130 may capture images of device 140 only when predetermined lighting conditions (such as sunny days) are met. By doing so, the analysis device 100 can collect images captured under similar conditions.

解析装置100は、近い条件で撮像された画像のみを解析対象とすることで、パターンマッチング、機械学習モデル、または、保守員による目視検査等により、高精度に機器140の異常を検出し得る。ある局面において、監視カメラ130は、監視カメラ130の撮像素子(光センサ-)によって得られた輝度により、予め定められた日照条件が満たされているか否かを判定してもよい。 Analysis apparatus 100 analyzes only images captured under similar conditions, so that pattern matching, machine learning models, visual inspection by maintenance personnel, or the like can detect abnormalities in equipment 140 with high accuracy. In one aspect, surveillance camera 130 may determine whether or not a predetermined sunshine condition is satisfied based on the luminance obtained by the imaging device (optical sensor) of surveillance camera 130 .

画像の分類機能は、解析装置100が保守員からの入力に基づいて、画像を分類する機能である。保守員は、端末110を介して、解析装置100に蓄積された複数の画像の各々を閲覧することができる。また、保守員は、端末110を介して、これらの各画像を正常画像または異常画像のいずれかに分類するための操作を行い得る。 The image classification function is a function for the analysis device 100 to classify images based on input from maintenance personnel. A maintenance person can browse each of the plurality of images accumulated in the analysis device 100 via the terminal 110 . Also, maintenance personnel can perform an operation via the terminal 110 to classify each of these images as either a normal image or an abnormal image.

解析装置100は、保守員の入力操作に基づいて、各画像に正常画像であることを示す情報、または、異常画像であることを示す情報を紐付けて記憶部に格納する。保守員は、解析装置100に蓄積された全ての画像を分類する必要はなく、その一部の画像のみを分類すればよい。 The analysis device 100 associates each image with information indicating that it is a normal image or information indicating that it is an abnormal image, and stores the information in the storage unit based on the input operation by the maintenance personnel. Maintenance personnel do not need to classify all the images accumulated in the analysis device 100, but only need to classify some of the images.

画像を分類するための閾値の生成機能は、保守員により正常画像に分類された画像の集合(以下、「正常画像の集合」と表す)の1または複数の特徴量を抽出し、当該特徴量に基づいて、画像を分類するための閾値を算出する。 The function of generating a threshold value for classifying images extracts one or more feature values from a set of images classified as normal images by maintenance personnel (hereinafter referred to as a “set of normal images”), and extracts the feature values , a threshold for classifying the image is calculated.

ある局面において、解析装置100は、正常画像の集合のみを用いて、画像を分類するための閾値を生成してもよい。他の局面において、解析装置100は、正常画像の集合と、保守員により異常画像に分類された画像の集合(以下、「異常画像の集合」と表す)の両方を用いて、画像を分類するための閾値を生成してもよい。画像を分類するための閾値の生成機能の詳細については、図2~図4を参照して説明する。 In one aspect, analysis device 100 may generate a threshold for classifying images using only a set of normal images. In another aspect, analysis device 100 classifies images using both a set of normal images and a set of images classified as abnormal images by maintenance personnel (hereinafter referred to as "abnormal image set"). may generate a threshold for Details of the threshold generation function for classifying images are described with reference to FIGS.

正常画像のフィルタの生成機能は、保守員が解析装置100に蓄積された画像を参照するときに使用するフィルタを生成する。解析装置100に蓄積された複数の画像は、十分な異常画像が揃うまで、保守員により正常画像または異常画像のいずれかに分類される必要がある。しかしながら、機器140に異常が発生する頻度が低いため、保守員は膨大な量の画像を確認する必要がある。 The normal image filter generation function generates a filter to be used when the maintenance personnel refers to the images accumulated in the analysis device 100 . The plurality of images accumulated in the analysis device 100 must be classified as either normal images or abnormal images by maintenance personnel until sufficient abnormal images are collected. However, since the frequency of occurrence of abnormality in the device 140 is low, maintenance personnel need to check a huge amount of images.

そこで、解析装置100は、フィルタリングにより、明らかに正常画像である可能性が高い画像については、保守員の目視対象の画像から除外する。フィルタは、画像を分類するための閾値に基づいて生成され得る。ある局面において、解析装置100は、当該フィルタにより、明らかに正常画像である可能性が高い画像を削除してもよい。この場合、解析装置100は、画像の記憶容量を削減することができる。他の局面において、解析装置100は、明らかに正常画像である可能性が高い画像に、目視対象の画像から除外するためのフラグを設定するだけでもよい。正常画像のフィルタの生成機能の詳細については、図7を参照して説明する。 Therefore, the analysis apparatus 100 filters out images that are clearly likely to be normal images from images to be viewed by maintenance personnel. A filter may be generated based on a threshold for classifying the image. In a certain aspect, analysis device 100 may delete images that are clearly likely to be normal images using the filter. In this case, the analysis apparatus 100 can reduce the image storage capacity. In another aspect, analysis device 100 may simply set a flag for excluding an image that is clearly likely to be a normal image from images to be viewed. Details of the normal image filter generation function will be described with reference to FIG.

異常画像の判定のための閾値の更新機能は、保守員により新たに分類された正常画像の集合、または、正常画像の集合および異常画像の集合に基づいて、画像を分類するための閾値を算出し直す機能である。画像を分類するための閾値の更新機能の詳細については、図5および図6を参照して説明する。 The threshold update function for determining abnormal images calculates a threshold for classifying images based on a set of normal images newly classified by maintenance personnel, or a set of normal images and a set of abnormal images. It is a function to redo. Details of the threshold update function for classifying images are described with reference to FIGS. 5 and 6. FIG.

異常画像の検出機能は、画像を分類するための閾値に基づいて、監視カメラ130により撮像された画像が異常画像であるか否かを判定する機能である。ある局面において、解析装置100は、一定数以上の異常画像を検出した場合、これらの異常画像にも基づいてパターンマッチングのモデル、または、機械学習モデルを生成し、これらのモデルにより異常画像の判定を行ってもよい。
<B.画像の解析手順>
次に、画像を分類するための閾値の生成機能について、図2~図4を参照して説明する。以下の説明では、解析装置100は、各画像から第1の特徴量と、第2の特徴料とを抽出するが、これは一例であり特徴量の抽出方法はこれに限られない。ある局面において、解析装置100は、各画像から、1以上の任意の数の特徴量を抽出してもよい。
The abnormal image detection function is a function of determining whether an image captured by the monitoring camera 130 is an abnormal image based on a threshold for classifying the image. In one aspect, when the analysis device 100 detects a certain number or more of abnormal images, it generates a pattern matching model or a machine learning model also based on these abnormal images, and determines abnormal images based on these models. may be performed.
<B. Image analysis procedure>
Next, the function of generating thresholds for classifying images will be described with reference to FIGS. 2 to 4. FIG. In the following description, the analysis apparatus 100 extracts a first feature amount and a second feature amount from each image, but this is an example and the feature amount extraction method is not limited to this. In a certain aspect, analysis device 100 may extract any number of feature amounts equal to or greater than one from each image.

図2は、画像を分類するための閾値の一例を示す図である。画像を分類するための閾値の生成手順は、2通り考えられる。図2を参照して、第1の閾値の生成手順と、第2の閾値の生成手順とについて説明する。 FIG. 2 is a diagram showing an example of thresholds for classifying images. There are two conceivable procedures for generating thresholds for classifying images. A first threshold generation procedure and a second threshold generation procedure will be described with reference to FIG.

第1の閾値の生成手順では、解析装置100は正常画像の集合のみを使用する。まず、解析装置100は、保守員によって分類された正常画像の集合に含まれる各画像から、第1の特徴量と、第2の特徴量とを取得する。 In the first threshold generation procedure, analysis device 100 uses only a set of normal images. First, the analysis device 100 acquires a first feature amount and a second feature amount from each image included in a set of normal images classified by maintenance personnel.

次に、解析装置100は、第1の特徴量および第2の特徴量からなる二次元空間に、各正常画像の点220をプロットする。例えば、画像Aの座標は、(画像Aの第1の特徴量、画像Aの第2の特徴量)になる。 Next, analysis device 100 plots points 220 of each normal image in a two-dimensional space composed of the first feature amount and the second feature amount. For example, the coordinates of image A are (the first feature amount of image A, the second feature amount of image A).

次に、解析装置100は、全ての正常画像を含む領域200を定義する。ある局面において、解析装置100は、全ての正常画像の点を含む円を領域200としてもよい。他の局面において、解析装置100は、全ての正常画像の点を含む楕円を領域200としてもよい。また、他の局面において、解析装置100は、全ての正常画像の点を含む任意の形状を領域200としてもよい。二次元空間において、当該領域200の境界が、画像を分類するための閾値になる。 Analysis device 100 then defines a region 200 that includes all normal images. In a certain aspect, analysis device 100 may set region 200 as a circle containing all normal image points. In another aspect, analysis device 100 may define region 200 as an ellipse that includes all normal image points. In another aspect, analysis device 100 may set region 200 to an arbitrary shape including all normal image points. In two-dimensional space, the boundary of the region 200 becomes the threshold for classifying the image.

第2の閾値の生成手順では、解析装置100は正常画像の集合および異常画像の集合の両方を使用する。まず、解析装置100は、保守員によって分類された正常画像の集合または異常画像のいずれかに含まれる各画像から、第1の特徴量と、第2の特徴量とを取得する。次に、解析装置100は、第1の特徴量および第2の特徴量からなる二次元空間に、各正常画像の点220と、各異常画像の点230とをプロットする。 In the second threshold generation procedure, analysis device 100 uses both a set of normal images and a set of abnormal images. First, the analysis apparatus 100 acquires a first feature amount and a second feature amount from each image included in either a set of normal images classified by maintenance personnel or an abnormal image. Next, analysis device 100 plots points 220 of each normal image and points 230 of each abnormal image in a two-dimensional space composed of the first feature amount and the second feature amount.

次に、解析装置100は、全ての正常画像を含む領域200を定義する。ある局面において、解析装置100は、全ての正常画像の点を含む円を領域200としてもよい。他の局面において、解析装置100は、全ての正常画像の点を含む楕円を領域200としてもよい。また、他の局面において、解析装置100は、全ての正常画像の点を含む任意の形状を領域200としてもよい。 Analysis device 100 then defines a region 200 that includes all normal images. In a certain aspect, analysis device 100 may set region 200 as a circle containing all normal image points. In another aspect, analysis device 100 may define region 200 as an ellipse that includes all normal image points. In another aspect, analysis device 100 may set region 200 to an arbitrary shape including all normal image points.

第1の閾値の生成手順と異なり、解析装置100は、領域200に異常画像の点230が含まれるか否かを判定する。領域200に異常画像の点230が含まれることに基づいて、領域200の境界位置を調節して、領域200に異常画像の点230が含まれないようにする。 Unlike the procedure for generating the first threshold, the analysis device 100 determines whether the region 200 includes the point 230 of the abnormal image. Based on the inclusion of the abnormal image point 230 in the area 200 , the boundary position of the area 200 is adjusted so that the area 200 does not include the abnormal image point 230 .

本実施の形態に示す例において、解析装置100は画像から2つの特徴量を抽出しているが、特徴量の数はこれに限られない。ある局面において、解析装置100は、画像から任意の数の特徴量を抽出してもよい。そして、解析装置100は、任意の次元空間に画像の点をプロットしてもよい。 In the example shown in this embodiment, analysis apparatus 100 extracts two feature amounts from an image, but the number of feature amounts is not limited to this. In one aspect, analysis device 100 may extract any number of feature quantities from an image. Analysis device 100 may then plot the points of the image in an arbitrary dimensional space.

ある局面において、解析装置100は、第1の閾値の生成手順または第2の閾値の生成手順において、予め定められたアルゴリズム(例えば、全ての正常画像の点から中心または重心位置を取得して、当該重心から最も遠い位置にある正常画像の点までを円の半径に設定する等)に基づいて、領域200を定義してもよい。他の局面において、解析装置100は、機械学習により得られたモデルに基づいて、領域200を定義してもよい。その場合、解析装置100は、任意の形状の領域200を定義し得る。解析装置100は、領域200に基づいて、監視カメラ130から新たに受信する画像を正常画像または異常画像のいずれかに分類し得る。 In one aspect, analysis device 100 uses a predetermined algorithm (for example, obtains the center or barycenter position from all normal image points in the first threshold generation procedure or the second threshold generation procedure, The area 200 may be defined based on the radius of a circle set to the farthest point of the normal image from the center of gravity. In another aspect, analysis device 100 may define region 200 based on a model obtained by machine learning. In that case, analysis device 100 may define region 200 of arbitrary shape. Analysis device 100 can classify an image newly received from surveillance camera 130 as either a normal image or an abnormal image based on region 200 .

図3は、画像から抽出する特徴量の第1の例を示す図である。図3に示す例では、解析装置100は、監視カメラ130から受信した画像310のRGB(Red, Green, Blue)要素の内、任意の2つの要素を特徴量として抽出し得る。一例として、解析装置100は、画像310に含まれるR画素数を第1の特徴量として、画像310に含まれるG画素数を第2の特徴量として抽出し得る。ある局面において、解析装置100は、1以上の任意の数の要素を特徴量として抽出してもよい。他の局面において、解析装置100は、監視カメラ130から受信した画像310のCMYK(Cyan, Magenta, Yellow, Key plate)要素の内、1以上の任意の数の要素を特徴量として抽出してもよい。解析装置100は、各色の画素数を示す第1の特徴量および第2の特徴量に基づいて、各画像310の点320を二次元空間にプロットし得る。 FIG. 3 is a diagram showing a first example of feature amounts extracted from an image. In the example shown in FIG. 3, the analysis device 100 can extract any two elements among the RGB (Red, Green, Blue) elements of the image 310 received from the surveillance camera 130 as feature amounts. As an example, the analysis device 100 may extract the number of R pixels included in the image 310 as a first feature amount and the number of G pixels included in the image 310 as a second feature amount. In one aspect, analysis device 100 may extract any number of elements equal to or greater than one as feature amounts. In another aspect, analysis device 100 extracts an arbitrary number of one or more elements among CMYK (Cyan, Magenta, Yellow, Key plate) elements of image 310 received from surveillance camera 130 as feature amounts. good. Analysis device 100 can plot points 320 of each image 310 in two-dimensional space based on the first feature amount and the second feature amount indicating the number of pixels of each color.

図4は、画像から抽出する特徴量の第2の例を示す図である。図4に示す例では、解析装置100は、監視カメラ130から受信した画像410の局所的特徴点415に基づく、任意の2つの特徴量を抽出し得る。ある局面において、解析装置100は、特徴量の抽出のアルゴリズムとして、SIFT(Scale-Invariant Feature Transform)、HOG(Histogram of Oriented Gradients)、SURF(Speeded Up Robust Features)、BRIEF(Binary Robust Independent Elementary Features)、または、ORB(Oriented FAST and Rotated BRIEF)等を使用し得る。ある局面において、解析装置100は、一つのアルゴリズムのみを使用してもよいし、複数のアルゴリズムを使用してもよい。解析装置100は、これらのアルゴリズムから得られた第1の特徴量および第2の特徴量に基づいて、各画像410の点420を二次元空間にプロットし得る。 FIG. 4 is a diagram showing a second example of feature amounts extracted from an image. In the example shown in FIG. 4 , analysis device 100 can extract any two feature quantities based on local feature points 415 of image 410 received from surveillance camera 130 . In one aspect, analysis apparatus 100 uses SIFT (Scale-Invariant Feature Transform), HOG (Histogram of Oriented Gradients), SURF (Speeded Up Robust Features), BRIEF (Binary Robust Independent Elementary Features) as algorithms for extracting features. , ORB (Oriented FAST and Rotated BRIEF), etc. can be used. In a certain aspect, analysis device 100 may use only one algorithm, or may use multiple algorithms. Analysis device 100 can plot points 420 of each image 410 in two-dimensional space based on the first feature amount and the second feature amount obtained from these algorithms.

ある局面において、解析装置100は、図3を参照して説明した方法と、図4を参照して説明した方法とを組み合わせて、画像の特徴量を抽出してもよい。例えば、第1の特徴量はR画素数であり、第2の特徴量はSIFTにより求められた局所的特徴点の特徴量であってもよい。他の局面において、解析装置100は、画像の特徴量の抽出のために、ニューラルネットワークを用いた機械学習モデルを使用してもよい。その場合、当該機械学習モデルは、解析装置100に蓄積された複数の画像を学習データとして使用し得る。解析装置100が当該機械学習モデルの学習処理を実行してもよいし、他の装置が機械学習モデルの学習処理を実行してもよい。 In one aspect, analysis device 100 may combine the method described with reference to FIG. 3 and the method described with reference to FIG. 4 to extract the feature amount of the image. For example, the first feature amount may be the number of R pixels, and the second feature amount may be the feature amount of local feature points obtained by SIFT. In another aspect, analysis device 100 may use a machine learning model using a neural network for extracting image feature quantities. In that case, the machine learning model can use a plurality of images accumulated in the analysis device 100 as learning data. The analysis apparatus 100 may execute the learning process of the machine learning model, or another apparatus may execute the learning process of the machine learning model.

図5は、画像を分類するための閾値の更新機能の第1の例を示す図である。図5を参照して、画像を分類するための閾値の更新機能の第1の例について説明する。図2を参照して説明したように、二次元空間において、当該領域200の境界が、画像を分類するための閾値になる。 FIG. 5 is a diagram showing a first example of a threshold updating function for classifying images. A first example of a threshold updating function for classifying images will be described with reference to FIG. As described with reference to FIG. 2, in two-dimensional space, the boundary of the region 200 is the threshold for classifying the image.

一例として、解析装置100は、保守員からの操作を受け付けて、新たな正常画像の点550Aを二次元空間に追加したとする。当該新たな正常画像は、解析装置100の画像の分類機能によって予め正常画像に分類されている画像である。ある局面において、解析装置100は、解析装置100に備えられた入力機器から保守員の操作を受け付けてもよい。他の局面において、解析装置100は、端末110から保守員の操作を受信してもよい。 As an example, assume that analysis device 100 receives an operation from a maintenance worker and adds a new normal image point 550A to the two-dimensional space. The new normal image is an image preliminarily classified as a normal image by the image classification function of the analysis device 100 . In a certain aspect, analysis device 100 may receive an operation by a maintenance person from an input device provided in analysis device 100 . In another aspect, analysis device 100 may receive maintenance personnel's operation from terminal 110 .

新たに追加された正常画像の点550Aが、領域200の外側であったとする。この場合、解析装置100は、領域200を正常画像の点550Aの座標方法に拡張する。正常画像の点550Aは、第2の特徴量が大きい。そのため、拡張後の領域500Aは、元の領域200に対して、第2の特徴量の軸の正の方向に拡張される。 Suppose that the newly added normal image point 550A was outside the region 200 . In this case, analysis device 100 expands region 200 to the coordinate method of point 550A of the normal image. The point 550A of the normal image has a large second feature amount. Therefore, the expanded region 500A is expanded in the positive direction of the second feature amount axis with respect to the original region 200 .

別の例として、解析装置100は、保守員からの操作を受け付けて、新たな正常画像の点550Bを二次元空間に追加したとする。この場合、解析装置100は、領域200を正常画像の点550Bの座標方法に拡張する。正常画像の点550Bは、第1の特徴量が小さい。そのため、拡張後の領域500Bは、元の領域200に対して、第1の特徴量の軸の負の方向に拡張される。 As another example, assume that analysis device 100 receives an operation from maintenance personnel and adds a new normal image point 550B to the two-dimensional space. In this case, analysis device 100 extends region 200 to the coordinate method of point 550B of the normal image. A point 550B of the normal image has a small first feature amount. Therefore, the expanded region 500B is expanded with respect to the original region 200 in the negative direction of the first feature amount axis.

上記のように、解析装置100は、新たに追加された正常画像の点が、領域200に含まれない場合、当該領域200を新たに追加された正常画像の点の座標方向に拡張することで、画像を分類するための閾値(領域200の境界)を更新し得る。ある局面において、領域200が円または楕円である場合、拡張によって、その中心点が新たに追加された正常画像の点の方向に移動してもよい。 As described above, when the newly added normal image point is not included in the region 200, the analysis device 100 expands the region 200 in the coordinate direction of the newly added normal image point. , may update the thresholds (boundaries of region 200) for classifying the image. In one aspect, if the region 200 is a circle or an ellipse, the dilation may move its center point toward the newly added normal image point.

図5に示す例では、領域200は、円または楕円の形状を維持したまま拡張されているが、拡張方法はこれに限られない。ある局面において、解析装置100は、新たに追加された正常画像の点を含むように、正常画像の領域200を任意の形状に変化させてもよい。 In the example shown in FIG. 5, the area 200 is expanded while maintaining the circular or elliptical shape, but the expansion method is not limited to this. In one aspect, analysis device 100 may change normal image region 200 into an arbitrary shape so as to include newly added normal image points.

また、他の局面において、解析装置100は、ニューラルネットワークを用いた機械学習モデルにより、正常画像の領域200を更新してもよい。その場合、当該機械学習モデルは、二次元空間上での正常画像の点を学習データとして使用し得る。解析装置100が当該機械学習モデルの学習処理を実行してもよいし、他の装置が機械学習モデルの学習処理を実行してもよい。 In another aspect, analysis device 100 may update normal image region 200 by a machine learning model using a neural network. In that case, the machine learning model can use normal image points on the two-dimensional space as training data. The analysis apparatus 100 may execute the learning process of the machine learning model, or another apparatus may execute the learning process of the machine learning model.

図6は、画像を分類するための閾値の更新機能の第2の例を示す図である。図6を参照して、画像を分類するための閾値の更新機能の第2の例について説明する。図6に示す第2の例は、図5に示す第1の例と異なり、領域200は、形状を維持した状態で拡大され得る。 FIG. 6 is a diagram showing a second example of a threshold updating function for classifying images. A second example of a threshold update function for classifying images will be described with reference to FIG. The second example shown in FIG. 6 differs from the first example shown in FIG. 5 in that the region 200 can be enlarged while maintaining its shape.

解析装置100は、保守員からの操作を受け付けて、新たな正常画像の点650を二次元空間に追加したとする。当該新たな正常画像は、解析装置100の画像の分類機能によって予め正常画像に分類されている画像である。ある局面において、解析装置100は、解析装置100に備えられた入力装置(図示せず)から保守員の操作を受け付けてもよい。他の局面において、解析装置100は、端末110から保守員の操作を受信してもよい。 It is assumed that analysis device 100 has received an operation from maintenance personnel and added a new normal image point 650 to the two-dimensional space. The new normal image is an image preliminarily classified as a normal image by the image classification function of the analysis device 100 . In a certain aspect, analysis device 100 may receive a maintenance worker's operation from an input device (not shown) provided in analysis device 100 . In another aspect, analysis device 100 may receive maintenance personnel's operation from terminal 110 .

新たに追加された正常画像の点650が、領域200の外側であったとする。この場合、解析装置100は、正常画像の点650を含むように、領域200を拡大する。拡大後の領域600は、領域200と同じ形状を維持しつつ、新たに追加された正常画像の点650を含む。領域200が円または楕円であった場合、単純に半径距離が増加する。 Suppose that the newly added normal image point 650 was outside the region 200 . In this case, analysis device 100 expands region 200 to include point 650 of the normal image. Region 600 after enlargement maintains the same shape as region 200 but includes newly added normal image points 650 . If the region 200 were a circle or an ellipse, the radial distance would simply increase.

ある局面において、解析装置100が一次元空間または三次元以上の空間に、各画像の点をプロットした場合においても、図5または図6を参照して説明した手順と同様の手順により、画像を分類するための閾値を更新し得る。また、他の局面において、解析装置100は、新しい正常画像および新しい異常画像に基づいて、画像を分類するための閾値を更新してもよい。その場合、解析装置100は、領域200が新しい正常画像を含み、かつ、領域200が新しい異常画像を含まないように、領域200を調節する。 In a certain aspect, even when analysis device 100 plots the points of each image in a one-dimensional space or a space of three or more dimensions, the image is plotted in the same manner as the procedure described with reference to FIG. 5 or FIG. Thresholds for classification may be updated. In another aspect, analysis device 100 may update thresholds for classifying images based on new normal images and new abnormal images. In that case, analysis device 100 adjusts region 200 so that region 200 contains the new normal image and region 200 does not contain the new abnormal image.

図7は、正常画像のフィルタの生成機能の一例を示す図である。図7を参照して、正常画像のフィルタの生成機能およびその使用手順について説明する。監視カメラ130は、随時撮像した画像を解析装置100に送信し続ける。保守員は、これらの画像を確認し、正常画像または異常画像のいずれかに分類する必要がある。フィルタは、この保守員による画像の分類作業の工数を削減するために使用され得る。 FIG. 7 is a diagram illustrating an example of a normal image filter generation function. A normal image filter generation function and its use procedure will be described with reference to FIG. The surveillance camera 130 continues to transmit captured images to the analysis device 100 as needed. Maintenance personnel must verify these images and classify them as either normal or abnormal images. Filters can be used to reduce the man-hours of this image classification work by maintenance personnel.

第1に、解析装置100は、保守員が選択した正常画像の最初のサンプルに基づいて、領域200を定義し得る(領域200の境界の座標を算出し得る)。例えば、保守員が、監視カメラ130が撮像した1000枚の画像を正常画像として選択する操作を解析装置100に入力したとする。解析装置100は、正常画像として選択された1000枚の画像の特徴量を抽出して、正常画像の領域200を定義する。 First, analysis device 100 can define region 200 (calculate the coordinates of the boundary of region 200) based on the first sample of the normal image selected by maintenance personnel. For example, assume that a maintenance worker inputs an operation to the analysis device 100 to select 1000 images captured by the monitoring camera 130 as normal images. The analysis device 100 extracts feature amounts of 1000 images selected as normal images, and defines a normal image region 200 .

第2に、解析装置100は、正常画像の領域200が円である場合、円の中心から一定半径以内にある点が示す正常画像を目視対象の画像から除外するフィルタを生成する。図7に示す例では、フィルタは、円(領域200)の中心から半径R2以内の領域(画像を目視対象の画像から除外する領域700)にある点が示す正常画像を目視対象の画像から除外する。逆に、フィルタは、円(領域200)の中心から半径R2より外側かつ、半径R1以内の領域にある点が示す正常画像を目視対象の画像に含める。また、フィルタは、円(領域200)にある点が示す画像も目視対象の画像に含める。 Second, when the normal image region 200 is a circle, the analysis device 100 generates a filter for excluding normal images indicated by points within a certain radius from the center of the circle from the images to be viewed. In the example shown in FIG. 7, the filter excludes normal images indicated by points in an area (area 700 where the image is excluded from the image to be viewed) within a radius R2 from the center of the circle (area 200) from the image to be viewed. do. Conversely, the filter includes normal images indicated by points outside the radius R2 and within the radius R1 from the center of the circle (region 200) in the image to be viewed. The filter also includes the image indicated by the points in the circle (region 200) in the viewed image.

ある局面において、半径R2は、半径R1と一定の比率になるように算出されてもよいし、半径R1およびR2の差分が予め定められた値になるように算出されてもよい。また、領域200が楕円、または円以外の任意の形状の場合、解析装置100は、領域200を予め定められた割合で縮小することで、画像を目視対象の画像から除外する領域700を定義してもよい。 In one aspect, the radius R2 may be calculated to have a constant ratio with the radius R1, or may be calculated so that the difference between the radii R1 and R2 is a predetermined value. Further, when the region 200 has an arbitrary shape other than an ellipse or a circle, the analysis device 100 reduces the region 200 at a predetermined ratio to define a region 700 where the image is excluded from the image to be viewed. may

第3に、解析装置100は、新たに監視カメラ130から新しい複数の画像(例えば、10000枚)を受信したとする。新しい複数の画像の中の7000枚が、円(領域200)の中心から半径R2以内の領域にある場合、解析装置100は、フィルタにより、これらの7000枚の画像を目視対象の画像から除外する。逆に、新しい複数の画像の中の残りの3000枚は、円(領域200)の中心から半径R2より外側の領域にあるため、解析装置100は、これらの3000枚の画像を目視対象の画像に含める。 Third, assume that the analysis device 100 newly receives a plurality of new images (10,000 images, for example) from the monitoring camera 130 . If 7000 of the new images are within the radius R2 from the center of the circle (region 200), the analysis device 100 filters out these 7000 images from the images to be viewed. . Conversely, since the remaining 3000 images in the plurality of new images are in the area outside the radius R2 from the center of the circle (area 200), the analysis device 100 regards these 3000 images as images of the visual target. include in

ある画像Aの点の座標値が領域200の中心の座標値に近い場合、当該画像Aは正常画像である可能性が高い。逆に、ある画像Bの点の座標値が領域200の境界付近にある場合、当該画像Bは正常画像または異常画像のどちらであるのかを自動で判別することが困難である。そのためフィルタは、領域200の中心に比較的近い画像のみを目視対象の画像から除外する。 If the coordinate values of a point in image A are close to the coordinate values of the center of region 200, there is a high possibility that image A is a normal image. Conversely, if the coordinate values of a point of a certain image B are near the boundary of the region 200, it is difficult to automatically determine whether the image B is a normal image or an abnormal image. Therefore, the filter excludes only images relatively close to the center of region 200 from the viewed image.

ある局面において、解析装置100は、監視カメラ130から新しい画像を受信するごとに、フィルタで画像を分類して、自動的に、目視対象の画像から除外された画像を正常画像に分類してもよい。他の局面において、解析装置100は、監視カメラ130から新しい画像を受信するごとに、フィルタで画像を分類して、自動的に、目視対象の画像から除外された画像を削除してもよい。こうすることにより、解析装置100は、画像の記憶容量を削減し得る。 In one aspect, each time a new image is received from surveillance camera 130, analysis device 100 classifies the image with a filter, and automatically classifies the image excluded from the target image as a normal image. good. In another aspect, each time a new image is received from surveillance camera 130, analysis device 100 may classify the image with a filter and automatically remove images that have been excluded from the viewed images. By doing so, the analysis apparatus 100 can reduce the storage capacity of images.

また、他の局面において、新しい画像の点が領域200の外側にある場合、解析装置100は、当該新しい画像に、潜在的な異常画像であることを示すフラグを設定してもよい。その場合、解析装置100は、潜在的な異常画像であることを示すフラグを設定された画像を優先的に保守員に提示してもよい。また、他の局面において、解析装置100は、端末110から目視対象の画像の要求を受信したことに基づいて、目視対象の画像を端末110に送信し得る。 Also, in another aspect, if the point of the new image is outside the region 200, the analysis device 100 may set a flag indicating that the new image is a potential abnormal image. In that case, the analysis device 100 may preferentially present the image with a flag indicating that it is a potential abnormal image to the maintenance personnel. In another aspect, analysis device 100 may transmit the image of the viewing target to terminal 110 based on having received a request for the image of the viewing target from terminal 110 .

前述したように、保守員は、パターンマッチングまたは機械学習等のために、長期間にわたり監視カメラにより撮像された長期間にわたる膨大な画像を分類する必要がある。しかしながら、機器140に異常が発生する頻度が低いため、解析装置100は膨大な数の正常画像を含むことが予測される。そこで、解析装置100は、上記のフィルタリング機能を提供することで、保守員の画像の目視作業の工数を削減し得る。 As described above, maintenance personnel need to classify a large number of images captured by surveillance cameras over a long period of time for purposes such as pattern matching or machine learning. However, since the frequency of occurrence of abnormality in the device 140 is low, the analysis device 100 is expected to contain a huge number of normal images. Therefore, the analysis device 100 can reduce the number of man-hours required for visual inspection of images by maintenance personnel by providing the filtering function described above.

図8は、撮像時刻および日照条件が画像に及ぼす影響の一例を示す図である。画像810,820,830,840は、同一の監視カメラ130により撮像した画像である。各画像は、異なる時刻または日照条件において撮像されている。例えば、画像810および画像820は、撮像時刻が大きく異なるため、画像全体の輝度が著しく異なる。また、画像810および画像830を比較すると、日照条件等により、陰の落ちる位置および全体的な明暗等に変化が生じることがわかる。 FIG. 8 is a diagram showing an example of the effects of imaging time and sunshine conditions on an image. Images 810 , 820 , 830 and 840 are images captured by the same surveillance camera 130 . Each image was taken at a different time of day or lighting condition. For example, the image 810 and the image 820 are captured at significantly different times, so the brightness of the entire image is significantly different. Also, when the image 810 and the image 830 are compared, it can be seen that the position where the shadow falls and the overall brightness and the like change depending on the sunshine conditions and the like.

そのため、監視カメラ130は、予め定められた日照条件および/または時刻において、同一の機器140を撮像することで、環境による画像の特徴量のバラツキを抑制し得る。環境による画像の特徴量のバラツキが抑制されることにより、画像を分類するための閾値(領域200の境界)およびフィルタの精度が向上し得る。 Therefore, monitoring camera 130 can suppress variations in image feature amounts due to the environment by capturing images of the same device 140 under predetermined sunshine conditions and/or times. By suppressing the variation in the feature amount of the image due to the environment, the accuracy of the threshold (boundary of the region 200) and the filter for classifying the image can be improved.

ある局面において、解析装置100は、予め定められた日照条件および/または時刻の条件の設定を監視カメラ130に送信してもよい。他の局面において、監視カメラ130は、画像センサーまたは光センサーにより、画像の輝度(光量)を解析し、画像が予め定められた日照条件で撮像されたか否かを判定してもよい。また、他の局面において、解析装置100は、画像の輝度を解析し、画像が予め定められた日照条件で撮像されたか否かを判定してもよい。画像が予め定められた日照条件で撮像されていない場合、監視カメラ130は、自動的に、または、解析装置100からの指令を受信したことに基づいて、前回の撮像から一定時間の経過後に、新たに機器140を撮像し直してもよい。 In one aspect, analysis device 100 may transmit a setting of predetermined sunshine conditions and/or time conditions to monitoring camera 130 . In another aspect, surveillance camera 130 may analyze the luminance (light amount) of an image using an image sensor or a photosensor to determine whether the image was captured under predetermined sunlight conditions. In another aspect, analysis device 100 may analyze brightness of an image and determine whether or not the image was captured under a predetermined sunshine condition. When the image is not captured under the predetermined sunshine conditions, the monitoring camera 130 automatically or based on receiving a command from the analysis device 100 after a certain period of time has elapsed since the previous image capturing, An image of the device 140 may be newly captured.

図9は、解析装置100として使用される情報処理装置900のハードウェア構成の一例を示す図である。ある局面において、解析装置100は、図1~図8を参照して説明した処理を図9に示すハードウェア上でプログラムとして実行してもよい。他の局面において、情報処理装置900は、端末110として使用されてもよい。情報処理装置900は、CPU(Central Processing Unit)1と、1次記憶装置2と、2次記憶装置3と、外部機器インターフェイス4と、入力インターフェイス5と、出力インターフェイス6と、通信インターフェイス7とを含む。 FIG. 9 is a diagram showing an example of the hardware configuration of an information processing device 900 used as the analysis device 100. As shown in FIG. In one aspect, analysis apparatus 100 may execute the processes described with reference to FIGS. 1 to 8 as a program on the hardware shown in FIG. In another aspect, information processing device 900 may be used as terminal 110 . The information processing device 900 includes a CPU (Central Processing Unit) 1, a primary storage device 2, a secondary storage device 3, an external device interface 4, an input interface 5, an output interface 6, and a communication interface 7. include.

CPU1は、情報処理装置900の各種機能を実現するためのプログラムを実行し得る。CPU1は、例えば、少なくとも1つの集積回路によって構成される。集積回路は、例えば、少なくとも1つのCPU、少なくとも1つのFPGA(Field Programmable Gate Array)、またはこれらの組み合わせ等によって構成されてもよい。 The CPU 1 can execute programs for realizing various functions of the information processing device 900 . The CPU 1 is composed of, for example, at least one integrated circuit. The integrated circuit may be composed of, for example, at least one CPU, at least one FPGA (Field Programmable Gate Array), or a combination thereof.

1次記憶装置2は、CPU1によって実行されるプログラムと、CPU1によって参照されるデータとを格納する。ある局面において、1次記憶装置2は、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)等によって実現されてもよい。 The primary storage device 2 stores programs executed by the CPU 1 and data referenced by the CPU 1 . In one aspect, the primary storage device 2 may be realized by a DRAM (Dynamic Random Access Memory), an SRAM (Static Random Access Memory), or the like.

2次記憶装置3は、不揮発性メモリーであり、CPU1によって実行されるプログラムおよびCPU1によって参照されるデータを格納してもよい。その場合、CPU1は、2次記憶装置3から1次記憶装置2に読み出されたプログラムを実行し、2次記憶装置3から1次記憶装置2に読み出されたデータを参照する。ある局面において、2次記憶装置3は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)またはフラッシュメモリー等によって実現されてもよい。 The secondary storage device 3 is a non-volatile memory and may store programs executed by the CPU 1 and data referred to by the CPU 1 . In that case, the CPU 1 executes the program read from the secondary storage device 3 to the primary storage device 2 and refers to the data read from the secondary storage device 3 to the primary storage device 2 . In one aspect, the secondary storage device 3 is implemented by a HDD (Hard Disk Drive), SSD (Solid State Drive), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash memory, or the like. may

外部機器インターフェイス4は、プリンター、スキャナーおよび外付けHDD等の任意の外部機器に接続され得る。ある局面において、外部機器インターフェイス4は、USB(Universal Serial Bus)端子等によって実現されてもよい。 The external device interface 4 can be connected to arbitrary external devices such as printers, scanners and external HDDs. In one aspect, the external device interface 4 may be realized by a USB (Universal Serial Bus) terminal or the like.

入力インターフェイス5は、キーボード、マウス、タッチパッドまたはゲームパッド等の任意の入力装置に接続され得る。ある局面において、入力インターフェイス5は、USB端子、PS/2端子およびBluetooth(登録商標)モジュール等によって実現されてもよい。 The input interface 5 can be connected to any input device such as a keyboard, mouse, touchpad or gamepad. In one aspect, the input interface 5 may be realized by a USB terminal, a PS/2 terminal, a Bluetooth (registered trademark) module, or the like.

出力インターフェイス6は、ブラウン管ディスプレイ、液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイ等の任意の出力装置に接続され得る。ある局面において、出力インターフェイス6は、USB端子、D-sub端子、DVI(Digital Visual Interface)端子およびHDMI(登録商標)(High-Definition Multimedia Interface)端子等によって実現されてもよい。 The output interface 6 can be connected to any output device such as a CRT display, a liquid crystal display, or an organic EL (Electro-Luminescence) display. In one aspect, the output interface 6 may be realized by a USB terminal, a D-sub terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, or the like.

通信インターフェイス7は、有線または無線のネットワーク機器と接続される。ある局面において、通信インターフェイス7は、有線LAN(Local Area Network)ポートおよびWi-Fi(登録商標)(Wireless Fidelity)モジュール等によって実現されてもよい。他の局面において、通信インターフェイス7は、TCP/IP(Transmission Control Protocol/Internet Protocol)、UDP(User Datagram Protocol)等の通信プロトコルを用いてデータを送受信してもよい。 The communication interface 7 is connected to wired or wireless network equipment. In one aspect, the communication interface 7 may be realized by a wired LAN (Local Area Network) port, a Wi-Fi (registered trademark) (Wireless Fidelity) module, or the like. In another aspect, the communication interface 7 may transmit and receive data using communication protocols such as TCP/IP (Transmission Control Protocol/Internet Protocol) and UDP (User Datagram Protocol).

図10は、解析装置100の内部処理の一例を示す図である。ある局面において、CPU1は、図10の処理を行うためのプログラムを2次記憶装置3から1次記憶装置2に読み込んで、当該プログラムを実行してもよい。他の局面において、当該処理の一部または全部は、当該処理を実行するように構成された回路素子の組み合わせとしても実現され得る。 FIG. 10 is a diagram showing an example of internal processing of the analysis device 100. As shown in FIG. In one aspect, CPU 1 may load a program for performing the process of FIG. 10 from secondary storage device 3 to primary storage device 2 and execute the program. In other aspects, part or all of the process may also be implemented as a combination of circuit elements configured to perform the process.

ステップS1010において、CPU1は、正常画像を取得する。より具体的には、CPU1は、通信インターフェイス7を介して、監視カメラ130から画像を取得し、画像を2次記憶装置3に格納する。次に、CPU1は、入力インターフェイス5または通信インターフェイス7を介して、保守員から正常画像を選択する操作を受け付ける。ある局面において、CPU1は、複数の正常画像(正常画像の集合)を取得し得る。 In step S1010, CPU 1 obtains a normal image. More specifically, CPU 1 acquires an image from surveillance camera 130 via communication interface 7 and stores the image in secondary storage device 3 . Next, the CPU 1 receives an operation of selecting a normal image from the maintenance personnel via the input interface 5 or the communication interface 7 . In one aspect, the CPU 1 can acquire a plurality of normal images (set of normal images).

ステップS1020において、CPU1は、正常画像の特徴量を抽出する。また、CPU1は、各正常画像の特徴量に基づいて、各正常画像の点を特徴量の多次元空間にプロットする。ある局面において、多次元空間は、一次元空間、二次元空間、または三次元以上の空間であってもよい。 In step S1020, CPU 1 extracts the feature amount of the normal image. Further, the CPU 1 plots the points of each normal image in the multidimensional space of the feature amount based on the feature amount of each normal image. In one aspect, the multi-dimensional space may be a one-dimensional space, a two-dimensional space, or a space with three or more dimensions.

ステップS1030において、CPU1は、正常画像の境界を定義する。本ステップの処理は、図2を参照して説明した、全ての正常画像の点を含む領域200を定義する処理に相当する。 In step S1030, CPU 1 defines the boundaries of the normal image. The processing of this step corresponds to the processing of defining the region 200 including all the normal image points described with reference to FIG.

ステップS1040において、CPU1は、確認不要な画像の境界を定義する。確認不要な画像とは、保守員による目視対象の画像から除外される画像である。本ステップの処理は、図7を参照して説明した、画像を目視対象の画像から除外する領域700を定義する処理、および、領域700に基づくフィルタを生成する処理に相当する。 In step S1040, CPU 1 defines boundaries of images that do not require confirmation. An image that does not require confirmation is an image that is excluded from images to be viewed by maintenance personnel. The processing of this step corresponds to the processing of defining a region 700 for excluding an image from the image to be viewed and the processing of generating a filter based on the region 700 described with reference to FIG.

ステップS1050において、CPU1は、新しい正常画像が、ステップS1020にて取得した正常画像に追加されたか否かを判定する。CPU1は、新しい正常画像がステップS1020にて取得した正常画像に追加されたと判定した場合(ステップS1050にてYES)、制御をステップS1060に移す。そうでない場合(ステップS1050にてNO)、CPU1は、制御をステップS1080に移す。 In step S1050, CPU 1 determines whether a new normal image has been added to the normal images obtained in step S1020. When CPU 1 determines that a new normal image has been added to the normal image acquired in step S1020 (YES in step S1050), CPU 1 shifts the control to step S1060. Otherwise (NO in step S1050), CPU 1 shifts the control to step S1080.

ステップS1060において、CPU1は、正常画像の境界(領域200)を定義し直す。本ステップの処理は、図5および図6を参照して説明した領域200を更新する処理に相当する。ステップS1070において、CPU1は、確認不要な画像の境界(領域700の境界)を定義する。ステップS1060にて正常画像の境界が変化したため、CPU1は、確認不要な画像の境界を再度定義する。 In step S1060, CPU 1 redefines the boundary (area 200) of the normal image. The processing of this step corresponds to the processing of updating the area 200 described with reference to FIGS. In step S1070, the CPU 1 defines boundaries of images that do not require confirmation (boundaries of the area 700). Since the boundary of the normal image has changed in step S1060, the CPU 1 redefines the boundary of the confirmation unnecessary image.

ステップS1080において、CPU1は、学習終了の操作を受け付けたか否かを判定する。CPU1は、学習終了の操作を受け付けたと判定した場合(ステップS1080にてYES)、処理を終了する。そうでない場合(ステップS1080にてNO)、CPU1は、制御をステップS1060に移す。 In step S1080, CPU 1 determines whether or not an operation to end learning has been accepted. When CPU 1 determines that an operation for ending learning has been received (YES in step S1080), CPU 1 ends the process. Otherwise (NO in step S1080), CPU 1 shifts the control to step S1060.

以上説明した通り、解析システム20は、正常画像のサンプルに基づいて、正常画像および異常画像を判別するための閾値を算出する機能を備える。この機能により、解析システム20は、異常画像のサンプルが少ない状況下でも、画像を正常画像または異常画像のいずれかに分類する機能を提供し得る。 As described above, the analysis system 20 has a function of calculating a threshold value for distinguishing normal images and abnormal images based on samples of normal images. With this feature, analysis system 20 may provide the ability to classify images as either normal or abnormal, even in situations where the sample of abnormal images is small.

さらに、解析システム20は、正常画像である可能性が高い画像を目視対象の画像から除外するためのフィルタを生成する機能を備える。これらの機能により、解析システム20は、保守員の画像の目視作業の工数を削減し得る。 Furthermore, the analysis system 20 has a function of generating a filter for excluding images that are likely to be normal images from the images to be viewed. With these functions, the analysis system 20 can reduce the number of man-hours required for visual inspection of images by maintenance personnel.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内で全ての変更が含まれることが意図される。また、実施の形態および各変形例において説明された開示内容は、可能な限り、単独でも、組合わせても、実施することが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of the claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of the claims. In addition, it is intended that the disclosure content described in the embodiment and each modified example can be implemented singly or in combination as much as possible.

1 CPU、2 1次記憶装置、3 2次記憶装置、4 外部機器インターフェイス、5 入力インターフェイス、6 出力インターフェイス、7 通信インターフェイス、10 施設、20 解析システム、30 監視所、40 ローカルネットワーク、100 解析装置、110 端末、120 アクセスポイント、130 監視カメラ、200,500,600,700 領域、310,410,810,820,830,840 画像、415 局所的特徴点、900 情報処理装置。 1 CPU, 2 primary storage device, 3 secondary storage device, 4 external device interface, 5 input interface, 6 output interface, 7 communication interface, 10 facility, 20 analysis system, 30 monitoring station, 40 local network, 100 analysis device , 110 terminal, 120 access point, 130 surveillance camera, 200,500,600,700 area, 310,410,810,820,830,840 image, 415 local feature point, 900 information processing apparatus.

Claims (25)

機器を撮像する撮像装置と、
前記機器の画像を解析する解析装置とを備え、
前記撮像装置は、前記画像を前記解析装置に送信し、
前記解析装置は、
蓄積した複数の前記画像の中から、前記機器の状態が正常であることを示す複数の正常画像を選択する操作を受け付け、
前記複数の正常画像の各々の第1の特徴量および第2の特徴量を抽出し、
前記第1の特徴量および前記第2の特徴量からなる座標空間において、前記複数の正常画像を全て含む領域を定義し、
蓄積した複数の前記画像の中から、新たな正常画像を選択する操作を受け付け、
前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算する、解析システム。
an imaging device for imaging the equipment;
and an analysis device that analyzes the image of the device,
The imaging device transmits the image to the analysis device,
The analysis device is
Receiving an operation of selecting a plurality of normal images indicating that the state of the device is normal from among the plurality of accumulated images;
Extracting a first feature amount and a second feature amount of each of the plurality of normal images,
defining a region including all of the plurality of normal images in a coordinate space consisting of the first feature amount and the second feature amount;
Receiving an operation to select a new normal image from among the plurality of accumulated images,
An analysis system that recalculates the extent of the region based on the lack of the new normal image in the region.
前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算することは、前記新たな正常画像の座標を含むように、前記領域の半径を大きくすることを含む、請求項1に記載の解析システム。 Recalculating the extent of the region based on the new normal image not being included in the region includes increasing the radius of the region to include the coordinates of the new normal image. , an analysis system according to claim 1. 前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算することは、前記領域を前記新たな正常画像の座標の方向に向けて拡大することを含む、請求項1に記載の解析システム。 wherein recalculating the range of the region based on the fact that the new normal image is not included in the region includes expanding the region in the direction of the coordinates of the new normal image. Item 1. The analysis system according to item 1. 前記領域は、円または楕円であり、
前記解析装置は、前記領域の中心から一定半径以内に存在する前記正常画像を目視対象の画像から除外する、請求項1~3のいずれかに記載の解析システム。
the region is a circle or an ellipse;
4. The analysis system according to any one of claims 1 to 3, wherein said analysis device excludes said normal image existing within a certain radius from the center of said region from images to be viewed.
前記撮像装置は、予め定められた時間帯、または、予め定められた日照条件において、前記機器の前記画像を撮像する、請求項1~4のいずれかに記載の解析システム。 5. The analysis system according to any one of claims 1 to 4, wherein said imaging device captures said image of said equipment in a predetermined time zone or in a predetermined sunshine condition. 前記予め定められた日照条件において、前記機器の前記画像を撮像することは、撮像された前記画像の光量に基づいて、前記予め定められた日照条件が満たされているか否かを判定することを含む、請求項5に記載の解析システム。 Capturing the image of the device under the predetermined sunshine condition includes determining whether the predetermined sunshine condition is satisfied based on the amount of light in the captured image. 6. The analysis system of claim 5, comprising: 前記解析装置は、前記画像を学習データとして、機械学習により、前記第1の特徴量および前記第2の特徴量を算出するモデルを生成する、請求項1~6のいずれかに記載の解析システム。 The analysis system according to any one of claims 1 to 6, wherein the analysis device generates a model for calculating the first feature amount and the second feature amount by machine learning using the image as learning data. . 前記解析装置は、前記画像の座標を学習データとして、機械学習により、前記領域を定義するモデルを生成する、請求項1~7のいずれかに記載の解析システム。 8. The analysis system according to any one of claims 1 to 7, wherein said analysis device uses the coordinates of said image as learning data to generate a model defining said region by machine learning. 機器を撮像する撮像装置から画像を受信するための通信部と、
操作を受け付ける入力部と、
前記画像を解析する制御部とを備え、
前記入力部は、蓄積した複数の前記画像の中から、前記機器の状態が正常であることを示す複数の正常画像を選択する操作を受け付け、
前記制御部は、
選択された前記複数の正常画像の各々の第1の特徴量および第2の特徴量を抽出し、
前記第1の特徴量および前記第2の特徴量からなる座標空間において、前記複数の正常画像を全て含む領域を定義し、
前記入力部は、さらに、蓄積した複数の前記画像の中から新たな正常画像を選択する操作を受け付け、
前記制御部は、前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算する、解析装置。
a communication unit for receiving an image from an image capturing device that captures an image of the device;
an input unit that receives an operation;
A control unit that analyzes the image,
the input unit receives an operation of selecting a plurality of normal images indicating that the state of the device is normal from among the plurality of accumulated images;
The control unit
extracting a first feature amount and a second feature amount of each of the plurality of selected normal images;
defining a region including all of the plurality of normal images in a coordinate space consisting of the first feature amount and the second feature amount;
The input unit further receives an operation of selecting a new normal image from among the plurality of accumulated images,
The analysis device, wherein the control unit recalculates the range of the region based on the fact that the new normal image is not included in the region.
前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算することは、前記新たな正常画像の座標を含むように、前記領域の半径を大きくすることを含む、請求項9に記載の解析装置。 Recalculating the extent of the region based on the new normal image not being included in the region includes increasing the radius of the region to include the coordinates of the new normal image. 10. The analysis device according to claim 9. 前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算することは、前記領域を前記新たな正常画像の座標の方向に向けて拡大することを含む、請求項9に記載の解析装置。 wherein recalculating the range of the region based on the fact that the new normal image is not included in the region includes expanding the region in the direction of the coordinates of the new normal image. Item 9. The analysis device according to Item 9. 前記領域は、円または楕円であり、
前記制御部は、前記領域の中心から一定半径以内に存在する前記正常画像を目視対象の画像から除外する、請求項9~11のいずれかに記載の解析装置。
the region is a circle or an ellipse;
12. The analyzing apparatus according to claim 9, wherein said control unit excludes said normal image existing within a certain radius from the center of said region from images to be viewed.
前記制御部は、前記撮像装置に、予め定められた時間帯、または、予め定められた日照条件において、前記機器の前記画像を撮像させるための命令を送信する、請求項9~12のいずれかに記載の解析装置。 13. The controller according to any one of claims 9 to 12, wherein the control unit transmits an instruction to the imaging device to capture the image of the device in a predetermined time period or in a predetermined sunshine condition. Analysis device according to. 前記予め定められた日照条件において、前記機器の前記画像を撮像することは、撮像された前記画像の光量に基づいて、前記予め定められた日照条件が満たされているか否かを判定することを含む、請求項13に記載の解析装置。 Capturing the image of the device under the predetermined sunshine condition includes determining whether the predetermined sunshine condition is satisfied based on the amount of light in the captured image. 14. The analysis device of claim 13, comprising: 前記制御部は、前記画像を学習データとして、機械学習により、前記第1の特徴量および前記第2の特徴量を算出するモデルを生成する、請求項9~14のいずれかに記載の解析装置。 The analysis device according to any one of claims 9 to 14, wherein the control unit generates a model for calculating the first feature amount and the second feature amount by machine learning using the image as learning data. . 前記制御部は、前記画像の座標を学習データとして、機械学習により、前記領域を定義するモデルを生成する、請求項9~15のいずれかに記載の解析装置。 The analysis device according to any one of claims 9 to 15, wherein the control unit generates a model defining the region by machine learning using the coordinates of the image as learning data. 機器を撮像して画像を取得するステップと、
蓄積した複数の前記画像の中から、前記機器の状態が正常であることを示す複数の正常画像を選択する操作を受け付けるステップと、
前記複数の正常画像の各々の第1の特徴量および第2の特徴量を抽出するステップと、
前記第1の特徴量および前記第2の特徴量からなる座標空間において、前記複数の正常画像を全て含む領域を定義するステップと、
蓄積した複数の前記画像の中から、新たな正常画像を選択する操作を受け付けるステップと、
前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算するステップとを含む、画像の解析方法。
imaging the device to obtain an image;
a step of receiving an operation of selecting a plurality of normal images indicating that the state of the device is normal from among the plurality of accumulated images;
extracting a first feature amount and a second feature amount of each of the plurality of normal images;
defining a region including all of the plurality of normal images in a coordinate space composed of the first feature amount and the second feature amount;
receiving an operation to select a new normal image from among the plurality of accumulated images;
and recalculating the extent of the region based on the fact that the new normal image is not included in the region.
前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算するステップは、前記新たな正常画像の座標を含むように、前記領域の半径を大きくするステップを含む、請求項17に記載の解析方法。 Recalculating the extent of the region based on the new normal image not being included in the region includes increasing the radius of the region to include the coordinates of the new normal image. 18. The analysis method according to claim 17. 前記新たな正常画像が前記領域に含まれないことに基づいて、前記領域の範囲を再計算するステップは、前記領域を前記新たな正常画像の座標の方向に向けて拡大するステップを含む、請求項17に記載の解析方法。 The step of recalculating the range of the region based on the fact that the new normal image is not included in the region includes expanding the region in the direction of the coordinates of the new normal image. Item 18. The analysis method according to Item 17. 前記領域は、円または楕円であり、
前記領域の中心から一定半径以内に存在する前記正常画像を目視対象の画像から除外するステップをさらに含む、請求項17~19のいずれかに記載の解析方法。
the region is a circle or an ellipse;
20. The analysis method according to any one of claims 17 to 19, further comprising the step of excluding said normal images existing within a certain radius from the center of said region from images to be viewed.
予め定められた時間帯、または、予め定められた日照条件において、前記機器の前記画像を撮像するステップをさらに含む、請求項17~20のいずれかに記載の解析方法。 21. The analysis method according to any one of claims 17 to 20, further comprising the step of capturing said image of said equipment in a predetermined time period or in a predetermined sunshine condition. 前記予め定められた日照条件において、前記機器の前記画像を撮像するステップは、撮像された前記画像の光量に基づいて、前記予め定められた日照条件が満たされているか否かを判定するステップを含む、請求項21に記載の解析方法。 The step of capturing the image of the device under the predetermined sunshine condition includes determining whether the predetermined sunshine condition is satisfied based on the amount of light in the captured image. 22. The analysis method of claim 21, comprising: 前記画像を学習データとして、機械学習により、前記第1の特徴量および前記第2の特徴量を算出するモデルを生成するステップをさらに含む、請求項17~22のいずれかに記載の解析方法。 The analysis method according to any one of claims 17 to 22, further comprising the step of generating a model for calculating the first feature amount and the second feature amount by machine learning using the image as learning data. 前記画像の座標を学習データとして、機械学習により、前記領域を定義するモデルを生成するステップをさらに含む、請求項17~23のいずれかに記載の解析方法。 24. The analysis method according to any one of claims 17 to 23, further comprising the step of generating a model defining said region by machine learning using coordinates of said image as learning data. 請求項17~24のいずれかに記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to any one of claims 17 to 24.
JP2021017395A 2021-02-05 2021-02-05 Analysis system, analysis device, analysis method, and program Pending JP2022120480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021017395A JP2022120480A (en) 2021-02-05 2021-02-05 Analysis system, analysis device, analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017395A JP2022120480A (en) 2021-02-05 2021-02-05 Analysis system, analysis device, analysis method, and program

Publications (1)

Publication Number Publication Date
JP2022120480A true JP2022120480A (en) 2022-08-18

Family

ID=82849036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017395A Pending JP2022120480A (en) 2021-02-05 2021-02-05 Analysis system, analysis device, analysis method, and program

Country Status (1)

Country Link
JP (1) JP2022120480A (en)

Similar Documents

Publication Publication Date Title
CN111353413B (en) Low-missing-report-rate defect identification method for power transmission equipment
CN108846418B (en) Cable equipment temperature abnormity positioning and identifying method
CN109145759B (en) Vehicle attribute identification method, device, server and storage medium
CN109544501B (en) Transmission equipment defect detection method based on unmanned aerial vehicle multi-source image feature matching
CN112367400B (en) Intelligent inspection method and system for power internet of things with edge cloud coordination
CN112449147B (en) Video cluster monitoring system of photovoltaic power station and image processing method thereof
CN109297978B (en) Binocular imaging-based power line unmanned aerial vehicle inspection and defect intelligent diagnosis system
CN111223079A (en) Power transmission line detection method and device, storage medium and electronic device
CN110210530A (en) Intelligent control method, device, equipment, system and storage medium based on machine vision
CN110609864B (en) Chemical supply chain-oriented data visualization management method and device
CN116168019B (en) Power grid fault detection method and system based on machine vision technology
JP2022120480A (en) Analysis system, analysis device, analysis method, and program
CN116453056A (en) Target detection model construction method and transformer substation foreign matter intrusion detection method
CN113284103B (en) Substation equipment defect online detection method based on space transformation fast R-CNN model
CN116543333A (en) Target recognition method, training method, device, equipment and medium of power system
CN113569956A (en) Mountain fire disaster investigation and identification method based on AI algorithm
CN113837173A (en) Target object detection method and device, computer equipment and storage medium
CN117152421B (en) Transmission line foreign matter detection method, device, computer equipment and storage medium
CN110855467A (en) Network comprehensive situation prediction method based on computer vision technology
CN113298048B (en) Forest fire detection and early warning system based on computer vision
CN113192071B (en) Insulator binding wire missing identification method and device and computer equipment
CN114998792B (en) Security monitoring method with AI network camera
CN117422938B (en) Dam slope concrete structure anomaly analysis method based on three-dimensional analysis platform
CN108470140B (en) Power transmission line bird nest identification method based on statistical characteristics and machine learning
CN111885349B (en) Pipe gallery abnormality detection system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507