JP2022158518A - Learning data selection program, learning data selection method, and information processing device - Google Patents
Learning data selection program, learning data selection method, and information processing device Download PDFInfo
- Publication number
- JP2022158518A JP2022158518A JP2021063486A JP2021063486A JP2022158518A JP 2022158518 A JP2022158518 A JP 2022158518A JP 2021063486 A JP2021063486 A JP 2021063486A JP 2021063486 A JP2021063486 A JP 2021063486A JP 2022158518 A JP2022158518 A JP 2022158518A
- Authority
- JP
- Japan
- Prior art keywords
- section
- learning data
- frame image
- moving image
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、学習データ選択プログラム、学習データ選択方法および情報処理装置に関する。 The present invention relates to a learning data selection program, a learning data selection method, and an information processing apparatus.
近年、工場内の自動生産ラインの異常発生を監視する目的で、画像を用いた機械学習による異常検知技術の導入が進んでいる。画像を用いた異常検知では、正常な状態の画像(正常画像)のみを学習データとする、いわゆる、半教師あり学習(例えば、AutoEncoderなど)が用いられることが多い。 In recent years, the introduction of anomaly detection technology based on machine learning using images is progressing for the purpose of monitoring the occurrence of anomalies in automatic production lines in factories. Anomaly detection using images often uses so-called semi-supervised learning (for example, AutoEncoder, etc.) in which only images in a normal state (normal images) are used as learning data.
先行技術としては、例えば、検査前コンベアによって運ばれる包装物を撮影する検査前カメラの出力である静止画または動画を解析することによって、包装物の異常判定を行うものがある。また、折り丁した印刷物を撮像し、撮像位置をずらせながら撮像エリア内で一定周期のタイミングで取り込んだ各画像の自己相関関数を求め、得られた自己相関関数に基づく最大相関時の画像を乱丁検査用の基準画像とする技術がある。 As a prior art, for example, there is a method for determining an abnormality of a package by analyzing a still image or moving image output from a pre-inspection camera that photographs the package carried by the pre-inspection conveyor. In addition, the folded printed matter is imaged, and the autocorrelation function of each image captured at a fixed cycle timing within the imaging area is calculated while shifting the imaging position. There is a technique for using a reference image for inspection.
しかしながら、従来技術では、正常な状態の画像と異常な状態の画像とが混在したデータから、機械学習に用いる適切な学習データを選定することが難しい。 However, with the conventional technology, it is difficult to select appropriate learning data to be used for machine learning from data in which normal state images and abnormal state images are mixed.
一つの側面では、本発明は、機械学習に用いる適切な学習データを選定することを目的とする。 In one aspect, an object of the present invention is to select appropriate learning data to be used for machine learning.
1つの実施態様では、異常検知対象を撮影した動画に含まれるフレーム画像の特徴を表す特徴量を算出し、算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、学習データ選択プログラムが提供される。 In one embodiment, a feature amount representing a feature of a frame image included in a moving image of an anomaly detection target is calculated, and a period of the moving image is calculated based on a temporal change in the calculated feature amount of the frame image. , for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating the difference regarding the feature amount of the frame image between each section and another section; Based on the difference, a section including a frame image in an abnormal state is specified among the plurality of sections, and a frame image corresponding to a section other than the specified section among the plurality of sections is detected by the abnormality detection. A learning data selection program is provided for determining learning data to be used for learning a model for detecting anomalies of a target.
本発明の一側面によれば、機械学習に用いる適切な学習データを選定することができるという効果を奏する。 According to one aspect of the present invention, it is possible to select appropriate learning data to be used for machine learning.
以下に図面を参照して、本発明にかかる学習データ選択プログラム、学習データ選択方法および情報処理装置の実施の形態を詳細に説明する。 Exemplary embodiments of a learning data selection program, a learning data selection method, and an information processing apparatus according to the present invention will be described below in detail with reference to the drawings.
(実施の形態)
図1は、実施の形態にかかる学習データ選択方法の一実施例を示す説明図である。図1において、情報処理装置101は、モデルMの学習に用いる学習データを決定するコンピュータである。モデルMは、異常検知対象の異常を検知するための学習モデルであり、例えば、ニューラルネットワークを用いた機械学習等により生成される。
(Embodiment)
FIG. 1 is an explanatory diagram of an example of a learning data selection method according to an embodiment. In FIG. 1, an
異常検知対象は、例えば、工場内での自動生産ラインや、周期的に動作するロボットなどである。自動生産ラインは、例えば、同一・同種の製品を大量に製造するために作られた、流れ作業による組み立て工程である。自動生産ラインでは、周期的に製品が流れてくる。製品としては、例えば、飲料水、電子機器、自動車部品などが挙げられる。 Anomaly detection target is, for example, an automatic production line in a factory, a robot that operates periodically, and the like. An automated production line is, for example, an assembly line assembly process designed to mass-produce the same and similar products. In an automated production line, products flow periodically. Examples of products include drinking water, electronic equipment, automobile parts, and the like.
ここで、自動生産ラインの同じ位置をカメラで撮影し続け、撮影された画像を用いて、自動生産ラインの製品の異常を検知する場合がある。異常な状態は、例えば、製品のラベルが剥がれたり、製品が倒れたりしている状態である。画像を用いた異常検知では、例えば、正常な状態の画像(正常画像)のみを抽出した画像群を半教師あり学習で学習し、撮影画像と、その撮影画像を学習モデルで再構成した再構成画像との差分を評価する方法が用いられる。この方法では、異常な状態は再構成されないため、異常部分が差分としてあらわれる。 Here, there is a case where the same position of the automatic production line is continuously photographed by a camera, and an abnormality in the product of the automatic production line is detected using the photographed image. The abnormal state is, for example, a state in which the label of the product is peeled off or the product is overturned. In anomaly detection using images, for example, a group of images in which only images in a normal state (normal images) are extracted is learned by semi-supervised learning. A method of evaluating the difference with the image is used. In this method, since the abnormal state is not reconstructed, the abnormal portion appears as a difference.
半教師あり学習での異常検知を精度よく行うためには、撮影画像から正常な状態の画像のみを学習データとして抽出することが求められる。しかし、正常な状態の画像と異常な状態の画像とが混在したデータから、正常な状態の画像のみを抽出する作業を人手で行うには、手間や時間がかかるという問題がある。 In order to accurately detect anomalies in semi-supervised learning, it is required to extract only normal images from captured images as learning data. However, there is a problem that manually extracting only normal images from data in which normal images and abnormal images are mixed requires time and effort.
一方で、正常な状態の画像と異常な状態の画像とが混在したデータを単純に半教師あり学習の学習データとすると、例えば、異常も再構成されて、異常の検知精度が低下する。このため、正常な状態の画像のみを抽出する作業を人手で行うことなく、異常な状態の画像を検知可能な学習モデルを生成できるようにすることが望まれる。 On the other hand, if data in which normal state images and abnormal state images are mixed is simply used as learning data for semi-supervised learning, for example, anomalies are also reconstructed, resulting in lower anomaly detection accuracy. Therefore, it is desired to generate a learning model capable of detecting an image in an abnormal state without manually extracting only an image in a normal state.
ここで、正常な状態の画像と異常な状態の画像とが混在したデータから教師なしで正常データを絞り込む従来技術として、Isolation Forestと呼ばれるものがある。Isolation Forest(従来技術1)は、特徴空間における分布の中で、他から外れている部分を異常とみなすものである。 Here, there is a technique called Isolation Forest as a conventional technique for narrowing down normal data from data in which images in a normal state and images in an abnormal state are mixed without a teacher. Isolation Forest (Prior Art 1) regards a part of the distribution in the feature space that is out of the range as abnormal.
しかし、従来技術1は、特徴空間で正常データと異常データの距離が近い場合は、異常データの分離が難しいという問題がある。従来技術1では、存在分布として外れた部分を異常値候補としており、正常データと異常データとの潜在空間での差が大きくなければ、異常を除去できない。
However,
例えば、自動生産ラインを撮影した動画の場合、違うタイミングで撮影した二つの正常データとの差と、同じタイミングで撮影した正常データと異常データの差では、前者の方が大きい場合がある。このような場合、従来技術1では、異常データを正常と判定し、正常データを異常と判定してしまうおそれがある。
For example, in the case of a moving image of an automated production line, the difference between two normal data shot at different timings and the difference between normal data and abnormal data shot at the same timing may be larger in the former. In such a case, the
また、正常な状態の画像と異常な状態の画像とが混在したデータから教師なしで正常データを絞り込む従来技術として、Robust Auto Encoderと呼ばれるものがある。Robust Auto Encoder(従来技術2)は、動きの少ない背景部分と変化部分に分解していき、変化部分を取り除くことで背景部分の再構成誤差が少なくなるように学習するものである。 Further, there is a conventional technique called Robust Auto Encoder for narrowing down normal data from data in which images in a normal state and images in an abnormal state are mixed without a teacher. The Robust Auto Encoder (prior art 2) separates an image into a background part with little movement and a changed part, and learns to reduce the reconstruction error of the background part by removing the changed part.
しかし、従来技術2は、共通部分に対して特徴の差が大きい画像は異常とみなして学習データから除去することができるものの、特徴の差が小さい画像については、ノイズ成分が大きいデータ(異常なデータ)とみなすことが難しいという問題がある。すなわち、従来技術2でも、正常データ間の差に比べて、正常データとの間の差が小さい異常データは除去することができない。
However, according to the
このように、従来技術では、正常な状態の画像と異常な状態の画像とが混在し、正常な状態の画像と異常な状態の画像との特徴の差異が大きくないデータから、異常な状態の画像を除去して、モデルを学習することは難しい。異常な状態の画像を除去して学習することができなければ、異常な状態の画像を精度よく検知可能な学習モデルを生成することができない。 As described above, in the conventional technology, an image of an abnormal state is obtained from data in which an image of a normal state and an image of an abnormal state are mixed, and the difference in features between the image of the normal state and the image of the abnormal state is not large. It is difficult to remove the images and train the model. If it is not possible to learn by removing images in an abnormal state, it is impossible to generate a learning model capable of accurately detecting images in an abnormal state.
そこで、本実施の形態では、周期性のある動画において、正常な状態の画像と異常な状態の画像が選別されずに混在し、両者の特徴の差異が小さい場合であっても、機械学習のための適切な学習データを選定する学習データ選択方法について説明する。以下、情報処理装置101の処理例について説明する。
Therefore, in the present embodiment, in a moving image with periodicity, images in a normal state and images in an abnormal state are mixed without being sorted out, and even if the difference in features between the two is small, machine learning can be performed. A learning data selection method for selecting appropriate learning data for A processing example of the
(1)情報処理装置101は、異常検知対象を撮影した動画に含まれるフレーム画像の特徴を表す特徴量を算出する。ここで、異常検知対象を撮影した動画は、同じような画像が周期的に繰り返される、周期性のある動画である。フレーム画像の特徴量は、フレーム画像の特徴を表す情報であり、例えば、一つの値であってもよく、また、複数の成分(要素)を含む特徴ベクトルであってもよい。どのような値を特徴量として抽出するかは、任意に設定可能である。
(1) The
図1の例では、異常検知対象を「工場内での自動生産ラインの製品(例えば、ペットボトル入りの飲料水)」とし、異常検知対象を撮影した動画を「動画110」とする。自動生産ラインでは、周期的に製品が流れてくるため、自動生産ラインを撮影した動画110では、同じような画像が周期的に繰り返される。この場合、情報処理装置101は、例えば、動画110に含まれるフレーム画像(例えば、フレーム画像111~113)の特徴を表す特徴量を算出する。
In the example of FIG. 1, the object of abnormality detection is "a product on an automatic production line in a factory (for example, drinking water in a PET bottle)", and the moving image of the object of abnormality detection is "moving
(2)情報処理装置101は、算出したフレーム画像の特徴量の時間変化に基づいて、動画の周期を算出する。ここで、異常検知対象を撮影した動画において、同じような画像が周期的に繰り返される場合、動画に含まれるフレーム画像の特徴量の時間変化に周期性があるといえる。
(2) The
このため、情報処理装置101は、動画に含まれるフレーム画像の特徴量の時間変化から周期性を判断する。具体的には、例えば、情報処理装置101は、算出したフレーム画像の特徴量の時間変化を示す特徴量信号(信号波形)120を周波数解析して得られる結果に基づいて、動画の周期を算出する。
For this reason, the
図1の例では、情報処理装置101は、例えば、特徴量信号120を周波数解析して得られる周波数から、動画110の周期T1を算出する。特徴量信号120は、動画110に含まれるフレーム画像(例えば、フレーム画像111~113)の特徴を表す特徴量の時間変化を示す(縦軸:特徴量、横軸:フレーム番号)。フレーム番号は、時系列順に付与されるフレーム画像の識別子である。
In the example of FIG. 1, the
(3)情報処理装置101は、算出した周期に応じて動画を分割した複数の区間の各区間について、各区間と他の区間とのフレーム画像の特徴量に関する差分を算出する。他の区間は、例えば、各区間に隣接する区間である。区間は、例えば、フレーム番号によって指定される。
(3) The
フレーム画像の特徴量に関する差分は、区間同士のフレーム画像の特徴量を比較して得られる差異である。異常検知対象の異常な状態は、区間内で一定時間映り続けることが多い。このため、異常な状態のフレーム画像を含む区間全体で、他の区間との間に特徴量の差異が生じる傾向がある。 The difference regarding the feature amount of the frame image is the difference obtained by comparing the feature amounts of the frame images of the sections. The abnormal state of the abnormality detection target often continues for a certain period of time within the section. For this reason, there tends to be a difference in the feature amount between the whole section including the frame image in the abnormal state and the other sections.
図1の例では、情報処理装置101は、周期T1に応じて動画110を分割した複数の区間(例えば、区間110-1~110-3)の各区間について、各区間と他の区間とのフレーム画像の特徴量に関する差分を算出する。例えば、情報処理装置101は、区間110-2について、区間110-2と他の区間110-1,110-3とのフレーム画像の特徴量に関する差分を算出する。
In the example of FIG. 1, the
区間110-2と他の区間110-1,110-3とのフレーム画像の特徴量に関する差分は、例えば、区間110-1,110-2の間の差分と区間110-2,110-3の間の差分のうちの最大値であってもよく、また、二つの差分の平均値であってもよい。なお、特徴量信号130は、動画110に含まれるフレーム画像の特徴を表す特徴量の時間変化を示す(例えば、特徴量信号120の一部分を拡大表示したもの。)。 The difference regarding the frame image feature amount between the section 110-2 and the other sections 110-1 and 110-3 is, for example, the difference between the sections 110-1 and 110-2 and the section 110-2 and 110-3. It may be the maximum value of the differences between them, or it may be the average value of the two differences. Note that the feature amount signal 130 indicates the temporal change of the feature amount representing the features of the frame images included in the moving image 110 (for example, an enlarged display of a portion of the feature amount signal 120).
(4)情報処理装置101は、各区間について算出した差分に基づいて、複数の区間のうち、異常な状態のフレーム画像を含む区間を特定する。具体的には、例えば、情報処理装置101は、算出した差分が閾値以上の区間を、異常な状態のフレーム画像を含む区間として特定してもよい。閾値は、任意に設定可能である。
(4) The
図1の例では、区間110-2が、異常な状態のフレーム画像を含む区間として特定された場合を想定する。 In the example of FIG. 1, it is assumed that section 110-2 is identified as a section containing frame images in an abnormal state.
(5)情報処理装置101は、複数の区間のうち特定した区間とは異なる他の区間に対応するフレーム画像を、異常検知対象の異常を検知するモデルMの学習に用いる学習データに決定する。区間に対応するフレーム画像は、例えば、区間内の一定時間ごとのフレーム画像であってもよく、また、区間内のすべてのフレーム画像であってもよい。
(5) The
図1の例では、動画110に含まれるフレーム画像のうち、区間110-2とは異なる他の区間(例えば、区間110-1,110-3)に対応するフレーム画像が、モデルMの学習に用いる学習データに決定される。
In the example of FIG. 1, of the frame images included in the moving
このように、情報処理装置101によれば、動画の周期性を利用して、フレーム画像の特徴量を周期(区間)ごとに比較し、周期性に乱れがある区間に含まれるフレーム画像を異常の可能性があるものとして、学習データから除去することができる。これにより、異常検知対象を撮影した動画から、機械学習に用いる適切な学習データを選定することができる。
As described above, the
例えば、周期性のある動画において、正常な状態の画像と異常な状態の画像が選別されずに混在し、両者の特徴の差異が小さい場合であっても、異常を精度よく検知可能なモデルMを生成するための適切な学習データを選定することができる。また、学習データを用意するにあたり、人手により正常な状態の画像と異常な状態の画像とを選別する作業が不要となり、手間と工数を削減することができる。 For example, in a moving image with periodicity, images in a normal state and images in an abnormal state are mixed without being sorted out, and even if the difference in features between the two is small, the model M can detect anomalies with high accuracy. Appropriate training data can be selected for generating Moreover, when preparing the learning data, it is not necessary to manually sort out the images in the normal state and the images in the abnormal state.
図1の例では、情報処理装置101は、周期性に乱れがある区間110-2に含まれるフレーム画像を異常の可能性があるものとして、学習データから除去することができる。また、動画110のうち、周期性に乱れがある区間(例えば、区間110-2)に含まれるフレーム画像を除去した学習データ140を用いてモデルMを学習することで、自動生産ラインの異常を精度よく検知可能なモデルMを生成することができる。
In the example of FIG. 1, the
(情報処理システム200のシステム構成例)
つぎに、図1に示した情報処理装置101を含む情報処理システム200のシステム構成例について説明する。以下の説明では、図1に示した情報処理装置101を、情報処理システム200内の学習データ選択装置201に適用した場合を例に挙げて説明する。情報処理システム200は、例えば、工場の自動生産ラインにおいて、動画を用いて異常検知を行うコンピュータシステムに適用される。
(System configuration example of information processing system 200)
Next, a system configuration example of an
図2は、情報処理システム200のシステム構成例を示す説明図である。図2において、情報処理システム200は、学習データ選択装置201と、クライアント装置202と、を含む。情報処理システム200において、学習データ選択装置201およびクライアント装置202は、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、インターネット、LAN、WAN(Wide Area Network)などである。
FIG. 2 is an explanatory diagram showing a system configuration example of the
ここで、学習データ選択装置201は、フレーム画像DB(Database)220、特徴量信号テーブル230および学習データDB240を有し、モデルMの学習に用いる学習データを決定する。モデルMは、異常検知対象の異常を検知するための学習モデルである。学習データ選択装置201は、例えば、サーバである。
Here, the learning
フレーム画像DB220は、異常検知対象を撮影した動画に含まれるフレーム画像を記憶する。特徴量信号テーブル230は、異常検知対象を撮影した動画に含まれるフレーム画像の特徴量(特徴ベクトル)を記憶する。学習データDB240は、モデルMの学習に用いる学習データを記憶する。
The
なお、フレーム画像DB220および特徴量信号テーブル230の記憶内容については、図5および図8を用いて後述する。
Note that the storage contents of the
クライアント装置202は、情報処理システム200のユーザが使用するコンピュータである。ユーザは、例えば、工場の自動生産ラインを管理する管理者などである。クライアント装置202は、例えば、PC(Personal Computer)、タブレットPCなどである。
A
なお、ここでは、学習データ選択装置201とクライアント装置202とを別体に設けることにしたが、これに限らない。例えば、学習データ選択装置201は、クライアント装置202により実現されることにしてもよい。また、情報処理システム200には、複数のクライアント装置202が含まれることにしてもよい。
Although the learning
(学習データ選択装置201のハードウェア構成例)
図3は、学習データ選択装置201のハードウェア構成例を示すブロック図である。図3において、学習データ選択装置201は、CPU(Central Processing Unit)301と、メモリ302と、ディスクドライブ303と、ディスク304と、通信I/F(Interface)305と、可搬型記録媒体I/F306と、可搬型記録媒体307と、を有する。また、各構成部は、バス300によってそれぞれ接続される。
(Hardware configuration example of learning data selection device 201)
FIG. 3 is a block diagram showing a hardware configuration example of the learning
ここで、CPU301は、学習データ選択装置201の全体の制御を司る。CPU301は、複数のコアを有していてもよい。メモリ302は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMがOS(Operating System)のプログラムを記憶し、ROMがアプリケーションプログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。
Here, the
ディスクドライブ303は、CPU301の制御に従ってディスク304に対するデータのリード/ライトを制御する。ディスク304は、ディスクドライブ303の制御で書き込まれたデータを記憶する。ディスク304としては、例えば、磁気ディスク、光ディスクなどが挙げられる。
The
通信I/F305は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して外部のコンピュータ(例えば、図2に示したクライアント装置202)に接続される。そして、通信I/F305は、ネットワーク210と装置内部とのインターフェースを司り、外部のコンピュータからのデータの入出力を制御する。通信I/F305には、例えば、モデムやLANアダプタなどを採用することができる。
The communication I/
可搬型記録媒体I/F306は、CPU301の制御に従って可搬型記録媒体307に対するデータのリード/ライトを制御する。可搬型記録媒体307は、可搬型記録媒体I/F306の制御で書き込まれたデータを記憶する。可搬型記録媒体307としては、例えば、CD(Compact Disc)-ROM、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリなどが挙げられる。
A portable recording medium I/
なお、学習データ選択装置201は、上述した構成部のほかに、例えば、GPU(Graphics Processing Unit)、入力装置、ディスプレイなどを有することにしてもよい。また、図2に示したクライアント装置202についても、学習データ選択装置201と同様のハードウェア構成により実現することができる。ただし、クライアント装置202は、上述した構成部のほかに、例えば、入力装置、ディスプレイなどを有する。
Note that the learning
(適用シーンの具体例)
つぎに、異常検知対象を撮影した動画を用いて、異常を検知する適用シーンの具体例について説明する。
(Specific examples of applicable scenes)
Next, a specific example of an application scene for detecting an anomaly will be described using a moving image of an anomaly detection target.
図4は、異常を検知する適用シーンの具体例を示す説明図である。図4において、カメラ400は、動画を撮影する機能を有する撮像装置である。カメラ400は、例えば、工場内に設置され、異常検知対象である自動生産ラインの同じ位置を撮影する。これにより、周期的にカメラ400の前を通る製品が撮影される。
FIG. 4 is an explanatory diagram showing a specific example of an application scene for detecting an abnormality. In FIG. 4, a
動画410は、自動生産ラインの製品を撮影した動画像であり、例えば、フレーム画像411~414を含む。なお、カメラ400は、通信機能を有していてもよい。この場合、カメラ400は、図2に示したネットワーク210を介して、学習データ選択装置201およびクライアント装置202と接続可能であってもよい。
A moving
(フレーム画像DB220の記憶内容)
つぎに、図5を用いて、学習データ選択装置201が有するフレーム画像DB220の記憶内容について説明する。なお、フレーム画像DB220、特徴量信号テーブル230および学習データDB240は、例えば、図3に示したメモリ302、ディスク304などの記憶装置により実現される。
(Stored contents of frame image DB 220)
Next, the storage contents of the
図5は、フレーム画像DB220の記憶内容の一例を示す説明図である。図5において、フレーム画像DB220は、フレーム番号およびフレーム画像のフィールドを有し、各フィールドに情報を設定することで、時系列フレーム画像データ(例えば、時系列フレーム画像データ500-1~500-3)をレコードとして記憶する。
FIG. 5 is an explanatory diagram showing an example of the contents stored in the
ここで、フレーム番号は、動画に含まれるフレーム画像を識別する識別子である。フレーム番号は、時系列順にフレーム画像に付与される。フレーム画像は、動画に含まれるフレーム画像(画像データ)である。例えば、時系列フレーム画像データ500-1は、フレーム番号「1」のフレーム画像を示す。 Here, the frame number is an identifier that identifies a frame image included in the moving image. Frame numbers are assigned to frame images in chronological order. A frame image is a frame image (image data) included in a moving image. For example, the time series frame image data 500-1 indicates the frame image of frame number "1".
(学習データ選択装置201の機能的構成例)
図6は、学習データ選択装置201の機能的構成例を示すブロック図である。図6において、学習データ選択装置201は、取得部601と、第1の算出部602と、第2の算出部603と、特定部604と、決定部605と、出力部606と、を含む。取得部601~出力部606は制御部となる機能であり、具体的には、例えば、図3に示したメモリ302、ディスク304、可搬型記録媒体307などの記憶装置に記憶されたプログラムをCPU301に実行させることにより、または、通信I/F305により、その機能を実現する。各機能部の処理結果は、例えば、メモリ302、ディスク304などの記憶装置に記憶される。
(Example of functional configuration of learning data selection device 201)
FIG. 6 is a block diagram showing a functional configuration example of the learning
取得部601は、異常検知対象を撮影した動画Vdを取得する。動画Vdは、例えば、所定期間、異常検知対象を撮影した、周期性のある動画である。周期性のある動画とは、同じような画像が周期的に繰り返される動画である。図4に示した動画410は、動画Vdの一例である。
所定期間は、例えば、異常検知対象に応じて判断される。例えば、異常検知対象を製品が数秒間隔で流れてくるような自動生産ラインとすると、所定期間は、数分程度の時間となる。具体的には、例えば、取得部601は、図2に示したクライアント装置202から動画Vdを受信することにより、受信した動画Vdを取得する。
The predetermined period is determined, for example, according to the abnormality detection target. For example, if the abnormality detection target is an automatic production line in which products are delivered at intervals of several seconds, the predetermined period is about several minutes. Specifically, for example, the
また、取得部601は、クライアント装置202から動画Vdの指定を受け付けることにより、不図示の動画DBから、指定された動画Vdを取得してもよい。また、取得部601は、不図示の入力装置を用いたユーザの操作により、入力された動画Vdを取得してもよい。また、取得部601は、図4に示したカメラ400から、カメラ400によって撮影された動画Vdを取得してもよい。
Further, the acquiring
第1の算出部602は、取得された動画Vdに含まれるフレーム画像の特徴量を算出する。フレーム画像の特徴量は、例えば、フレーム画像の特徴を表す特徴量ベクトルである。特徴量ベクトルは、複数の成分(要素)を含む。複数の成分は、フレーム画像の特徴を表す値の組合せである。複数の成分としては、例えば、既存の特徴抽出技術により抽出可能ないかなる値(輝度、コントラスト、製品らしさなど)を用いることにしてもよい。
The
ここで、第1の算出部602は、例えば、エンコーダ学習部611と、ベクトル算出部612と、を含む。
Here, the
エンコーダ学習部611は、フレーム画像から特徴量ベクトルへの変換を行うエンコーダec(変換器)を学習する。具体的には、例えば、エンコーダ学習部611は、動画Vdから一定時間間隔でフレーム画像を抽出する。一定時間は、任意に設定可能であり、例えば、動画Vdから数フレーム~数十フレーム間隔でフレーム画像が抽出されるような時間に設定される。
The
つぎに、エンコーダ学習部611は、抽出したフレーム画像に対して、時系列順にフレーム番号を付与する。フレーム番号が付与されたフレーム画像は、例えば、図5に示したフレーム画像DB220に記憶される。そして、エンコーダ学習部611は、抽出したフレーム画像を学習データとして、エンコーダecを学習する。
Next, the
ここで、図7を用いて、エンコーダecの学習例について説明する。ここでは、オートエンコーダ(AutoEncoder)により、エンコーダec(ニューラルネットワーク)を学習する場合について説明する。 Here, a learning example of the encoder ec will be described with reference to FIG. Here, a case where an encoder ec (neural network) is learned by an autoencoder will be described.
図7は、エンコーダの学習例を示す説明図である。エンコーダ学習部611は、オートエンコーダにより、フレーム画像DB220に記憶されているすべてのフレーム画像を入力として、入力に近い再構成画像を出力するエンコーダec(ニューラルネットワーク)を学習する。
FIG. 7 is an explanatory diagram showing a learning example of the encoder. The
具体的には、例えば、エンコーダ学習部611は、フレーム画像(例えば、フレーム画像701~703)と再構成画像(例えば、再構成画像711~713)との誤差が小さくなるように、エンコーダec(ニューラルネットワーク)を学習する。
Specifically, for example, the
オートエンコーダの潜在空間は、画像の全体的な特徴を維持しつつ次元を圧縮したものである。このため、オートエンコーダのエンコーダecで圧縮された特徴空間(潜在空間)における特徴量ベクトルを用いることで、画像の全体的な特徴を反映した特徴量を得ることができる。 The autoencoder's latent space is dimensionally compressed while preserving the global features of the image. Therefore, by using the feature amount vector in the feature space (latent space) compressed by the encoder ec of the autoencoder, it is possible to obtain the feature amount that reflects the overall features of the image.
なお、ここでは、動画Vdに含まれるフレーム画像を用いてエンコーダecを学習することにしたが、これに限らない。例えば、エンコーダ学習部611は、学習済みのエンコーダecを取得することにしてもよい。具体的には、例えば、エンコーダ学習部611は、異常検知対象を同じ位置で別のタイミングで撮影した別の動画に含まれるフレーム画像を用いて学習されたエンコーダecを、学習済みのエンコーダecとして取得することにしてもよい。学習済みのエンコーダecは、例えば、不図示の入力装置を用いたユーザの操作により、または、他のコンピュータ(例えば、クライアント装置202)から取得されてもよい。
Although the encoder ec is learned here using the frame images included in the moving image Vd, the present invention is not limited to this. For example, the
ベクトル算出部612は、学習したエンコーダecを用いて、動画Vdに含まれるフレーム画像の特徴量ベクトルを算出する。具体的には、例えば、ベクトル算出部612は、学習したエンコーダecに対して、フレーム画像DB220に記憶された各フレーム画像を入力し、中間層での特徴量を特徴量ベクトルとして出力する。
The vector calculation unit 612 uses the learned encoder ec to calculate feature amount vectors of frame images included in the moving image Vd. Specifically, for example, the vector calculation unit 612 inputs each frame image stored in the
出力された各フレーム画像の特徴量ベクトルは、例えば、特徴量信号テーブル230に記憶される。ここで、図8を用いて、特徴量信号テーブル230の記憶内容について説明する。 The feature amount vector of each output frame image is stored in the feature amount signal table 230, for example. Here, the storage contents of the feature quantity signal table 230 will be described with reference to FIG.
図8は、特徴量信号テーブル230の記憶内容の一例を示す説明図である。図8において、特徴量信号テーブル230は、フレーム番号、特徴量ベクトルおよびウインドウ番号のフィールドを有し、各フィールドに情報を設定することで、特徴量信号情報(例えば、特徴量信号情報800-1~800-3)をレコードとして記憶する。 FIG. 8 is an explanatory diagram showing an example of the contents of the feature amount signal table 230. As shown in FIG. 8, the feature amount signal table 230 has fields of frame number, feature amount vector, and window number. By setting information in each field, feature amount signal information (for example, feature amount signal information 800-1 800-3) are stored as records.
ここで、フレーム番号は、動画Vdから抽出されたフレーム画像を識別する識別子である。特徴量ベクトルは、学習したエンコーダecを用いて算出された、フレーム画像の特徴を表す特徴量ベクトルである。ウインドウ番号は、フレーム画像が属する区間を識別する識別子である。初期状態では、ウインドウ番号は「-(Null)」である。 Here, the frame number is an identifier that identifies a frame image extracted from the moving image Vd. The feature amount vector is a feature amount vector representing the feature of the frame image calculated using the learned encoder ec. A window number is an identifier that identifies a section to which a frame image belongs. In the initial state, the window number is "-(Null)".
図6の説明に戻り、第2の算出部603は、算出されたフレーム画像の特徴量の時間変化に基づいて、動画Vdの周期Tを算出する。具体的には、例えば、第2の算出部603は、算出されたフレーム画像の特徴量ベクトルの主成分の時間変化を示す信号波形(主成分信号波形)の周波数解析を行って得られる結果に基づいて、周期Tを算出する。
Returning to the description of FIG. 6, the
ここで、第2の算出部603は、例えば、主成分分析部613と、周波数解析部614と、を含む。
Here, the
主成分分析部613は、算出されたフレーム画像の特徴量ベクトルの主成分を特定する。具体的には、例えば、主成分分析部613は、特徴量信号テーブル230を参照して、算出されたフレーム画像の特徴量ベクトルを時系列順に並べて主成分分析し、フレーム画像の特徴量ベクトル間で最もばらつきが大きい成分を主成分として特定する。
A principal
周波数解析部614は、特定された特徴量ベクトルの主成分の時間変化を示す特徴量信号(主成分信号波形)の周波数解析を行う。具体的には、例えば、周波数解析部614は、特徴量信号テーブル230を参照して、特徴量ベクトルの主成分信号波形を特定する。そして、周波数解析部614は、特定した主成分信号波形を周波数解析して、最もパワーが大きい周波数を特定する。この場合、第2の算出部603は、特定された周波数を、動画Vdの周期Tとする。
The
動画Vdの周期Tの算出処理例については、図10を用いて後述する。 An example of processing for calculating the period T of the moving image Vd will be described later with reference to FIG.
なお、ここでは、動画Vdに含まれるフレーム画像の特徴量の時間変化に基づいて、動画Vdの周期Tを算出することにしたが、これに限らない。例えば、第2の算出部603は、動画Vdの周期Tとして、予め指定された周期を取得することにしてもよい。具体的には、例えば、第2の算出部603は、異常検知対象を同じ位置で別のタイミングで撮影した別の動画に含まれるフレーム画像の特徴量の時間変化に基づいて算出された周期を、動画Vdの周期Tとして取得してもよい。また、第2の算出部603は、不図示の入力装置を用いたユーザの操作により、または、他のコンピュータ(例えば、クライアント装置202)から指定された周期を、動画Vdの周期Tとして取得してもよい。
Note that here, the period T of the moving image Vd is calculated based on the temporal change in the feature amount of the frame images included in the moving image Vd, but the present invention is not limited to this. For example, the
特定部604は、算出された周期Tに応じて動画Vdを区切って分割した複数の区間の各区間について、各区間と他の区間とのフレーム画像の特徴量に関する差分dfを算出する。ここで、差分dfは、例えば、主成分信号波形の差分である。ただし、差分dfは、例えば、特徴量ベクトルの各成分信号波形の差分の合計や平均によって表すことにしてもよい。
The specifying
具体的には、例えば、特定部604は、特徴量信号テーブル230を参照して、算出された周期Tをウインドウ幅として、動画Vdから抽出されたフレーム画像群(特徴量ベクトル群)を区切って、複数の区間(ウインドウ)に分割する。各フレーム画像(特徴量ベクトル群)が属する区間を識別するウインドウ番号は、例えば、特徴量信号テーブル230に設定される。
Specifically, for example, the specifying
図9は、特徴量信号テーブル230の更新例を示す説明図である。図9において、特徴量信号テーブル230内の各特徴量信号情報のウインドウ番号フィールドに、各フレーム番号のフレーム画像(特徴量ベクトル)が属する区間を識別するウインドウ番号が設定されている。 FIG. 9 is an explanatory diagram showing an example of updating the feature amount signal table 230. As shown in FIG. In FIG. 9, a window number identifying a section to which a frame image (feature vector) of each frame number belongs is set in the window number field of each feature signal information in the feature signal table 230 .
例えば、特徴量信号情報800-1~800-3には、ウインドウ番号「1」がそれぞれ設定されている。 For example, window number "1" is set in each of the feature amount signal information 800-1 to 800-3.
区間の分割処理例については、図11を用いて後述する。 An example of segment division processing will be described later with reference to FIG. 11 .
特定部604は、特徴量信号テーブル230を参照して、各区間(ウインドウ)の特徴量ベクトル(例えば、主成分信号波形)を近傍k区間と比較することにより、その差分dfを算出する。例えば、各区間(ウインドウ)に含まれる各フレーム画像の特徴量ベクトルの主成分信号値を、「v(t)=[x(t),x(t+1),x(t+2)…]」とする。
The specifying
この場合、特定部604は、例えば、t≠t’以外のt’について、「|v(t)-v(t’)|^2」を計算する。そして、特定部604は、「P(t)=min(|v(t)-v(t’)|^2)」を、差分dfとする(ただし、k=1)。差分dfは、その区間に異常な状態のフレーム画像を含む度合いを示す値(異常度)に相当する。
In this case, the identifying
k>2の場合には、特定部604は、例えば、区間同士の計算結果のうち「|v(t)-v(t’)|^2」が小さいほうからk個取り出し、「P(t)=avg(|v(t)-v(t1’)|^2,|v(t)-v(t2’)|^2…)」を、差分dfとする。なお、k近傍法を用いた差分df(異常度)の計算例については、後述する。
When k>2, the
そして、特定部604は、各区間について算出した差分dfに基づいて、複数の区間のうち異常な状態のフレーム画像を含む区間を特定する。具体的には、例えば、特定部604は、算出した差分dfが閾値Th以上の区間を、異常な状態のフレーム画像を含む区間として特定する。閾値Thは、任意に設定可能であり、例えば、異常検知対象に応じて設定される。
Then, the specifying
以下の説明では、異常な状態のフレーム画像を含む区間を「異常データ区間」と表記する場合がある。 In the following description, a section containing frame images in an abnormal state may be referred to as an "abnormal data section".
また、特定部604は、複数の区間のうち、算出した差分dfが相対的に小さい所定数の区間を除く区間を、異常データ区間として特定することにしてもよい。換言すると、特定部604は、例えば、差分dfが大きいほうから所定数の区間を、異常データ区間として特定してもよい。
Further, the specifying
所定数は、任意に設定可能であり、例えば、モデルMの学習に必要な学習データ数(必要サンプル数)に応じて設定される。例えば、1区間を「60フレーム」とし、必要サンプル数を「600フレーム」とする。この場合、特定部604は、複数の区間のうち、差分dfが少ない上位10区間を除く残余の区間を、異常データ区間として特定する。
The predetermined number can be arbitrarily set, and is set, for example, according to the number of learning data necessary for learning the model M (required number of samples). For example, assume that one section is "60 frames" and the required number of samples is "600 frames". In this case, the identifying
決定部605は、複数の区間のうち、特定された区間(異常データ区間)とは異なる他の区間に対応するフレーム画像を、モデルMの学習に用いる学習データに決定する。すなわち、決定部605は、動画Vdに含まれるフレーム画像のうち、異常データ区間に対応するフレーム画像を、モデルMの学習に用いる学習データから除外する。モデルMは、異常検知対象の異常を検知する学習モデルである。
The
具体的には、例えば、決定部605は、フレーム画像DB220を参照して、異常データ区間とは異なる他の区間に対応するフレーム画像を、学習データに決定する。学習データに決定されたフレーム画像は、例えば、学習データDB240(図2参照)に記憶される。
Specifically, for example, the
学習データの決定例については、図12を用いて後述する。 An example of determining learning data will be described later with reference to FIG. 12 .
なお、決定部605は、例えば、動画Vdに含まれるフレーム画像のうち、異常データ区間に属するフレーム画像以外のすべてのフレーム画像を学習データに決定することにしてもよい。すなわち、決定部605は、フレーム画像DB220に記憶されていないフレーム画像についても、学習データとして決定してもよい。
For example, the
出力部606は、決定された学習データを出力する。具体的には、例えば、出力部606は、記憶されているフレーム画像を、異常検知対象の異常を検知するモデルMの学習に用いる学習データとして出力する。出力部606の出力形式としては、例えば、メモリ302、ディスク304などの記憶装置への記憶、通信I/F305による他のコンピュータ(例えば、クライアント装置202)への送信などがある。
The
なお、学習データ選択装置201は、決定された学習データを用いて、モデルMを学習することにしてもよい。モデルMは、例えば、ニューラルネットワークを用いた機械学習等により生成される。これにより、異常検知対象(例えば、自動生産ライン)の異常を精度よく検知可能なモデルMを生成することができる。
Note that the learning
上述した学習データ選択装置201の機能部(取得部601~出力部606)は、例えば、複数のコンピュータ(例えば、学習データ選択装置201、クライアント装置202)が連携して動作することにより実現されることにしてもよい。
The functional units (
(動画Vdの周期Tの算出処理例)
つぎに、図10を用いて、動画Vdの周期Tの算出処理例について説明する。
(Example of processing for calculating period T of moving image Vd)
Next, an example of processing for calculating the period T of the moving image Vd will be described with reference to FIG.
図10は、動画Vdの周期Tの算出処理例を示す説明図である。図10において、グラフ1000は、特徴量信号テーブル230に記憶されている各フレーム画像の特徴量ベクトルの主成分を、フレーム番号順(時系列)にプロットして得られる主成分信号波形である。
FIG. 10 is an explanatory diagram showing an example of processing for calculating the period T of the moving image Vd. In FIG. 10, a
周波数解析部614は、主成分信号波形(グラフ1000)の周波数解析を行う。グラフ1010は、主成分信号波形(グラフ1000)を周波数解析して得られた結果を示す(縦軸:パワー、横軸:周波数成分)。パワーは、例えば、波形の振幅に対応する。
A
ここで、特徴量ベクトルの主成分信号をF(t)とすると、F(t)は、離散フーリエ変換により、下記式(1)によって表すことができる。ただし、f(x)は、周波数xの強度を示す。Nは、自然数である。iは、虚数単位である。πは、円周率である。 Here, assuming that the principal component signal of the feature amount vector is F(t), F(t) can be expressed by the following formula (1) by discrete Fourier transform. However, f(x) indicates the intensity of frequency x. N is a natural number. i is the imaginary unit. π is the circular constant.
周波数解析部614は、例えば、F(t)をFFT(Fast Fourier Transform)等により上記式(1)の形に離散フーリエ変換し、「0≦x≦N-1」のxについて、下記式(2)を用いて、各周波数xのパワーを求める。
For example, the
周波数xのパワー=|f(x)|^2 ・・・(2) Power of frequency x=|f(x)|^2 (2)
周波数解析部614は、周波数解析結果(グラフ1010)を参照して、最大パワーの周波数xmaxを特定する。第2の算出部603は、特定された周波数xmaxを、動画Vdの周期T(ウインドウ幅)とする。これにより、主成分軸の特徴量信号の中で最も強い周波数成分を、動画Vdの周期T(ウインドウ幅)とすることができる。
The
(区間の分割処理例)
つぎに、図11を用いて、動画Vdを区切って複数の区間に分割する場合の区間の分割処理例について説明する。
(Example of section division processing)
Next, with reference to FIG. 11, an example of segment dividing processing when dividing the moving image Vd into a plurality of segments will be described.
図11は、区間の分割処理例を示す説明図である。図11において、グラフ1000は、特徴量信号テーブル230に記憶されている各フレーム画像の特徴量ベクトルの主成分を、フレーム番号順(時系列)にプロットして得られる主成分信号波形である。特定部604は、例えば、算出された周期T(ウインドウ幅)で主成分信号波形(グラフ1000)を区切って、複数の区間に分割する。
FIG. 11 is an explanatory diagram illustrating an example of segment division processing. In FIG. 11, a
図11の例では、区間S1~S3に分割されている。各区間S1~S3は、フレーム番号によって指定される。区間S2を注目区間とすると、特定部604は、例えば、区間S1,S3を比較区間として、区間S2の主成分信号波形を、区間S1,S3の主成分信号波形と比較することにより、差分df(異常度)を算出する。
In the example of FIG. 11, it is divided into sections S1 to S3. Each section S1 to S3 is designated by a frame number. Assuming that the section S2 is the target section, the specifying
(差分df(異常度)の計算例)
ここで、k近傍法を用いた差分df(異常度)の計算例について説明する。ここでは、スライディングウインドウを使ってウインドウ幅のデータを取り出して、特徴量ベクトルの主成分信号値を計算する場合について説明する。
(Calculation example of difference df (abnormality))
Here, an example of calculating the difference df (degree of anomaly) using the k nearest neighbor method will be described. Here, a case will be described in which the data of the window width is extracted using a sliding window and the principal component signal value of the feature amount vector is calculated.
例えば、500フレームの動画があり、ウインドウ幅を「10」とすると、特定部604は、以下のような、ベクトル値v(1)~v(490)を算出する。ただし、Xnは、時刻nのフレーム画像の主信号成分の値を示す。
For example, if there is a moving image of 500 frames and the window width is "10", the specifying
v(1)=(x1,x2,x3…,x10)
v(2)=(x2,x3,x4…,x11)
・・・
v(490)=(x491,x492・・・,x500)
v(1)=(x1,x2,x3...,x10)
v(2)=(x2,x3,x4...,x11)
・・・
v(490) = (x491, x492..., x500)
つぎに、特定部604は、各v(t)について、他のv(t)との差分を算出する。例えば、v(1)とv(2)との差分は、「(x1-x2)^2+(x2-x3)^2+…」となる。また、v(1)とv(3)との差分は、「(x1-x3)^2+(x2-x4)^2+…」となる。そして、特定部604は、算出した差分のうち、最も差分が小さいk個の平均値を、時刻tにおける区間についての差分df(異常度)として算出する。
Next, the identifying
(学習データの決定例)
つぎに、図12を用いて、学習データの決定例について説明する。
(Example of determination of learning data)
Next, an example of learning data determination will be described with reference to FIG.
図12は、学習データの決定例を示す説明図である。図12において、区間S1~S3のうち、区間S2が異常データ区間として特定された場合を想定する。この場合、決定部605は、フレーム画像DB220を参照して、異常データ区間S2とは異なる他の区間S1,S3に対応するフレーム画像を、学習データに決定する。
FIG. 12 is an explanatory diagram showing an example of determination of learning data. In FIG. 12, it is assumed that section S2 is identified as an abnormal data section among sections S1 to S3. In this case, the
例えば、区間S1をウインドウ番号「1」の区間とし、区間S2をウインドウ番号「2」の区間とし、区間S3をウインドウ番号「3」の区間とする。決定部605は、ウインドウ番号「1」、「3」に対応するフレーム画像を、学習データに決定する。そして、決定部605は、フレーム画像DB220から、ウインドウ番号「1」、「3」に対応するフレーム画像を抽出し、抽出したフレーム画像を学習データDB240に記憶する。
For example, let the section S1 be the section with the window number "1", the section S2 be the section with the window number "2", and the section S3 be the section with the window number "3". The
これにより、異常検知対象(自動生産ライン)の異常を検知するモデルMの学習に用いる学習データを学習データDB240に蓄積することができる。
As a result, the learning data used for learning the model M for detecting anomalies in the anomaly detection target (automatic production line) can be accumulated in the
(学習データ選択装置201のデータ選択処理手順)
つぎに、学習データ選択装置201のデータ選択処理手順について説明する。
(Data selection processing procedure of learning data selection device 201)
Next, a data selection processing procedure of the learning
図13および図14は、学習データ選択装置201のデータ選択処理手順の一例を示すフローチャートである。図13のフローチャートにおいて、まず、学習データ選択装置201は、異常検知対象を撮影した動画Vdを取得したか否かを判断する(ステップS1301)。
13 and 14 are flowcharts showing an example of the data selection processing procedure of the learning
ここで、学習データ選択装置201は、動画Vdを取得するのを待つ(ステップS1301:No)。そして、学習データ選択装置201は、動画Vdを取得した場合(ステップS1301:Yes)、取得した動画Vdから一定時間間隔でフレーム画像を抽出する(ステップS1302)。
Here, the learning
つぎに、学習データ選択装置201は、抽出したフレーム画像に対して、時系列順にフレーム番号を付与し、当該フレーム画像をフレーム画像DB220に記憶する(ステップS1303)。そして、学習データ選択装置201は、フレーム画像DB220を参照して、抽出したフレーム画像を学習データとして、エンコーダecを学習する(ステップS1304)。
Next, the learning
つぎに、学習データ選択装置201は、フレーム画像DB220を参照して、抽出した各フレーム画像を、学習したエンコーダecに入力して、各フレーム画像の特徴量ベクトルを算出する(ステップS1305)。そして、学習データ選択装置201は、算出したフレーム画像の特徴量ベクトルを時系列順に並べて主成分分析して、特徴量ベクトルの主成分を特定する(ステップS1306)。
Next, the learning
つぎに、学習データ選択装置201は、特定した主成分の特徴量信号(主成分信号波形)に対して周波数解析を行って、最大パワーの周波数を特定する(ステップS1307)。そして、学習データ選択装置201は、特定した最大パワーの周波数を、動画Vdの周期Tとして(ステップS1308)、図14に示すステップS1401に移行する。
Next, the learning
図14のフローチャートにおいて、まず、学習データ選択装置201は、動画Vdの周期Tをウインドウ幅として、主成分の特徴量信号をウインドウ幅で区切って、複数の区間に分割する(ステップS1401)。この処理は、動画Vdの周期Tに応じて、動画Vdを区切って複数の区間に分割する処理に相当する。
In the flowchart of FIG. 14, first, the learning
つぎに、学習データ選択装置201は、分割した複数の区間から選択されていない未選択の区間を選択する(ステップS1402)。そして、学習データ選択装置201は、選択した区間(ここでは、「注目区間」という。)の特徴量信号を近傍k区間と比較して、注目区間についての差分dfを算出する(ステップS1403)。
Next, the learning
つぎに、学習データ選択装置201は、算出した差分dfが閾値Th以上であるか否かを判断する(ステップS1404)。ここで、差分dfが閾値Th以上の場合(ステップS1404:Yes)、学習データ選択装置201は、ステップS1406に移行する。一方、差分dfが閾値Th未満の場合(ステップS1404:No)、学習データ選択装置201は、注目区間に対応するフレーム画像を学習データに決定する(ステップS1405)。
Next, the learning
そして、学習データ選択装置201は、分割した複数の区間から選択されていない未選択の区間があるか否かを判断する(ステップS1406)。ここで、未選択の区間がある場合(ステップS1406:Yes)、学習データ選択装置201は、ステップS1402に戻る。
Then, the learning
一方、未選択の区間がない場合(ステップS1406:No)、学習データ選択装置201は、学習データに決定したフレーム画像を出力して(ステップS1407)、本フローチャートによる一連の処理を終了する。
On the other hand, if there is no unselected section (step S1406: No), the learning
これにより、異常検知対象を撮影した動画Vdの周期性を利用して、動画Vdのうち、周期性に乱れがある区間に含まれるフレーム画像を異常の可能性があるものとして、モデルMの学習に用いる学習データから除外することができる。 As a result, by using the periodicity of the video Vd in which the abnormality detection target is shot, the frame images included in the period in which the periodicity is disturbed in the video Vd are regarded as having the possibility of being abnormal, and the model M is learned. can be excluded from the training data used for
なお、ステップS1304において、エンコーダecを学習することにしたが、これに限らない。例えば、学習済みのエンコーダecがある場合には、学習データ選択装置201は、ステップS1304の処理を省略することにしてもよい。
Although the encoder ec is learned in step S1304, the present invention is not limited to this. For example, if there is a learned encoder ec, the learning
また、ステップS1308において、動画Vdの周期Tを算出することにしたが、これに限らない。例えば、予め指定された周期Tがある場合には、学習データ選択装置201は、例えば、ステップS1307,S1308の処理を省略することにしてもよい。
Also, in step S1308, the period T of the moving image Vd is calculated, but the present invention is not limited to this. For example, if there is a cycle T specified in advance, the learning
また、ステップS1404において、差分dfが閾値Th未満の場合に学習データに決定することにしたが、これに限らない。例えば、学習データ選択装置201は、差分dfが小さいほうから上位所定数の区間を選択して、学習データにしてもよい。この場合、ステップS1404,S1405の処理は省略し、ステップS1407の前に差分dfが小さいほうから上位所定数の区間を選択して学習データに決定する処理を追加する。
Also, in step S1404, learning data is determined when the difference df is less than the threshold value Th, but the present invention is not limited to this. For example, the learning
以上説明したように、実施の形態にかかる学習データ選択装置201によれば、異常検知対象を撮影した動画Vdに含まれるフレーム画像の特徴量を算出し、算出したフレーム画像の特徴量の時間変化に基づいて、動画Vdの周期Tを算出することができる。動画Vdは、例えば、周期性のある動画である。
As described above, according to the learning
これにより、自動生産ラインのような異常検知対象を撮影した動画Vdでは同じような画像が周期的に繰り返されることを利用して、動画Vdに含まれるフレーム画像の特徴量の時間変化の周期性から、動画Vdの周期Tを求めることができる。 As a result, by utilizing the fact that similar images are periodically repeated in a moving image Vd of an anomaly detection target such as an automatic production line, the periodicity of the temporal change in the feature amount of the frame images included in the moving image Vd can be obtained. , the period T of the moving image Vd can be obtained.
また、学習データ選択装置201によれば、算出した周期Tに応じて動画Vdを区切って分割した複数の区間の各区間について、各区間と他の区間とのフレーム画像の特徴量に関する差分dfを算出し、各区間について算出した差分dfに基づいて、複数の区間のうち異常な状態のフレーム画像を含む区間(異常データ区間)を特定することができる。そして、学習データ選択装置201によれば、複数の区間のうち特定した区間とは異なる他の区間に対応するフレーム画像を、モデルMの学習に用いる学習データに決定することができる。
Further, according to the learning
これにより、異常検知対象を撮影した動画Vdの周期性を利用して、動画Vdのうち、周期性に乱れがある区間に含まれるフレーム画像を異常の可能性があるものとして、モデルMの学習に用いる学習データから除外することができる。 As a result, by using the periodicity of the video Vd in which the abnormality detection target is shot, the frame images included in the period in which the periodicity is disturbed in the video Vd are regarded as having the possibility of being abnormal, and the model M is learned. can be excluded from the training data used for
また、学習データ選択装置201によれば、算出した差分dfが閾値Th以上の区間を、異常な状態のフレーム画像を含む区間として特定することができる。
Further, according to the learning
これにより、動画Vdの中からフレーム画像の特徴量の時間変化の周期性に乱れがある区間を精度よく特定することができる。 As a result, it is possible to accurately identify a section in the moving image Vd in which the periodicity of the temporal change of the feature amount of the frame image is disturbed.
また、学習データ選択装置201によれば、複数の区間のうち、算出した差分dfが相対的に小さい所定数の区間を除く区間を、異常な状態のフレーム画像を含む区間として特定することができる。
Further, according to the learning
これにより、学習データから異常な状態の画像を除去しつつ、モデルMの学習に必要な所定数(必要サンプル数)の学習データを確保することができる。 As a result, it is possible to secure a predetermined number of learning data (required number of samples) necessary for learning the model M while removing images in an abnormal state from the learning data.
また、学習データ選択装置201によれば、動画Vdに含まれるフレーム画像の特徴量ベクトルを算出し、算出したフレーム画像の特徴量ベクトルの主成分の時間変化を示す特徴量信号の周波数解析を行って得られる結果に基づいて、動画Vdの周期Tを算出することができる。
Further, according to the learning
これにより、動画の周期に沿って変化する量が多い特徴量信号の中で最も強い周波数成分を、動画Vdの周期Tとすることができる。 As a result, it is possible to set the period T of the moving image Vd to be the strongest frequency component among the feature amount signals that vary greatly along the period of the moving image.
また、学習データ選択装置201によれば、フレーム画像の特徴量ベクトル間で最もばらつきが大きい成分を主成分として特定することができる。
Further, according to the learning
これにより、動画Vdの周期Tに沿って変化する量が多い特徴量成分を特定することができる。 Thereby, it is possible to identify the feature amount component that varies greatly along the period T of the moving image Vd.
また、学習データ選択装置201によれば、動画Vdから一定時間間隔でフレーム画像を抽出し、抽出したフレーム画像を学習データとして、エンコーダecを学習し、学習したエンコーダecを用いて、動画Vdに含まれるフレーム画像の特徴量ベクトルを算出することができる。
Further, according to the learning
これにより、動画Vdに含まれるフレーム画像の特徴を表すのに妥当な特徴空間における特徴量ベクトルを得ることができる。例えば、オートエンコーダにより、どのような要素(成分)を用いれば、画像を精度よく再現できるのかを学習することで、フレーム画像の特徴を表すのに妥当な特徴空間における特徴量ベクトルを得ることができる。 As a result, it is possible to obtain a feature amount vector in a feature space appropriate for representing the features of the frame images included in the moving image Vd. For example, by learning what kind of elements (components) should be used to accurately reproduce an image using an autoencoder, it is possible to obtain a feature vector in a feature space that is appropriate for expressing the features of a frame image. can.
また、学習データ選択装置201によれば、決定した学習データを出力することができる。
Further, according to the learning
これにより、異常検知対象の異常を精度よく検知することができるモデルMを生成可能な学習データを出力することができる。 As a result, it is possible to output the learning data capable of generating the model M capable of accurately detecting the anomaly of the anomaly detection target.
これらのことから、学習データ選択装置201によれば、正常画像と異常画像とが選別されずに混在し、両者の特徴の差異が小さいデータ(動画Vd)であっても、画像の特徴量の変化の周期性の乱れを検出することによって、正常画像のみを精度よく抽出して学習することができる。これにより、異常検知対象の異常を精度よく検知可能なモデルMを生成することが可能となる。また、学習データを用意するにあたり、人手により正常な状態の画像と異常な状態の画像とを選別する作業が不要となり、手間と工数を削減することができる。
For this reason, according to the learning
ここで、本学習データ選択方法による学習データの選別例について説明する。 Here, an example of selection of learning data by this learning data selection method will be described.
図15は、学習データの選別例を示す説明図である。図15において、フレーム画像1501~1506は、異常検知対象(自動生産ライン)を撮影した動画Vdに含まれるフレーム画像を時系列に並べたものである。ここでは、撮影環境の変化(照明変化)により、異常検知対象の映り方に違いが生じている。
FIG. 15 is an explanatory diagram showing an example of selection of learning data. In FIG. 15,
この場合、本学習データ選択方法によれば、照明変化により映り方に違いが生じた区間のフレーム画像は、学習データから除去される。一方で、照明変化後に、同じ周期が繰り返されれば、その区間のフレーム画像は学習データとして選択される。これにより、照明変化前後のフレーム画像を学習データとしてモデルMを学習することができる。このモデルMによれば、照明変化時に、異常検知対象が正常な状態であるにもかかわらず異常と誤判定してしまうことを防ぐことができる。 In this case, according to this learning data selection method, the frame images in the sections in which the appearance is different due to changes in illumination are removed from the learning data. On the other hand, if the same period is repeated after the illumination change, the frame images in that section are selected as learning data. As a result, the model M can be learned using the frame images before and after the illumination change as learning data. According to this model M, it is possible to prevent an erroneous determination of an abnormality even though the abnormality detection target is in a normal state when the illumination changes.
なお、本学習データ選択方法のように、周期性が乱れた部分(区間)に対応するフレーム画像を学習データから除去するのではなく、周期性が乱れた部分を異常検知対象の異常と直接判定する手法も考えられる。しかし、この手法では、例えば、図15に示したように、照明変化等の撮影環境の変化により周期性が乱れたときに、異常と誤判定してしまうという問題がある。 Note that instead of removing the frame images corresponding to the parts (sections) where the periodicity is disturbed from the training data, as in this learning data selection method, the parts where the periodicity is disturbed are directly determined as anomalies to be detected. It is also possible to consider a method to However, with this method, for example, as shown in FIG. 15, when the periodicity is disturbed due to a change in the imaging environment such as a change in lighting, there is a problem that an abnormality is erroneously determined.
なお、本実施の形態で説明した学習データ選択方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本学習データ選択プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、DVD、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本学習データ選択プログラムは、インターネット等のネットワークを介して配布してもよい。 The learning data selection method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This learning data selection program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, DVD, USB memory, etc., and is executed by being read from the recording medium by a computer. Also, the learning data selection program may be distributed via a network such as the Internet.
また、本実施の形態で説明した学習データ選択装置201(情報処理装置101)は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICやFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。 In addition, the learning data selection device 201 (information processing device 101) described in the present embodiment can be implemented by application-specific ICs such as standard cells and structured ASICs (Application Specific Integrated Circuits) and PLDs (Programmable Logic Devices) such as FPGAs. can also be realized.
上述した実施の形態に関し、さらに以下の付記を開示する。 Further, the following additional remarks are disclosed with respect to the above-described embodiment.
(付記1)異常検知対象を撮影した動画に含まれるフレーム画像の特徴を表す特徴量を算出し、
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
処理をコンピュータに実行させることを特徴とする学習データ選択プログラム。
(Appendix 1) Calculating a feature amount representing a feature of a frame image included in a moving image of an anomaly detection target,
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
A learning data selection program characterized by causing a computer to execute processing.
(付記2)前記特定する処理は、
算出した前記差分が閾値以上の区間を、異常な状態のフレーム画像を含む区間として特定する、ことを特徴とする付記1に記載の学習データ選択プログラム。
(Appendix 2) The specifying process is
1. The learning data selection program according to
(付記3)前記特定する処理は、
前記複数の区間のうち、算出した前記差分が相対的に小さい所定数の区間を除く区間を、異常な状態のフレーム画像を含む区間として特定する、ことを特徴とする付記1または2に記載の学習データ選択プログラム。
(Appendix 3) The identifying process is
3. The method according to
(付記4)前記特徴量を算出する処理は、
前記動画に含まれるフレーム画像の特徴を表す特徴量ベクトルを算出し、
前記周期を算出する処理は、
算出した前記フレーム画像の特徴量ベクトルの主成分の時間変化を示す特徴量信号の周波数解析を行って得られる結果に基づいて、前記周期を算出する、
ことを特徴とする付記1~3のいずれか一つに記載の学習データ選択プログラム。
(Appendix 4) The process of calculating the feature amount includes:
calculating a feature amount vector representing a feature of a frame image included in the moving image;
The process of calculating the cycle includes:
calculating the period based on a result obtained by performing a frequency analysis of a feature amount signal indicating a temporal change in the principal component of the calculated feature amount vector of the frame image;
The learning data selection program according to any one of
(付記5)前記フレーム画像の特徴量ベクトル間で最もばらつきが大きい成分を主成分として特定する、処理を前記コンピュータに実行させることを特徴とする付記4に記載の学習データ選択プログラム。 (Supplementary Note 5) The learning data selection program according to Supplementary Note 4, characterized in that it causes the computer to execute a process of specifying a component having the largest variation among the feature quantity vectors of the frame images as a principal component.
(付記6)前記動画から一定時間間隔でフレーム画像を抽出し、
抽出した前記フレーム画像を学習データとして、フレーム画像から特徴量ベクトルへの変換を行うエンコーダを学習する、処理を前記コンピュータに実行させ、
前記特徴量を算出する処理は、
学習した前記エンコーダを用いて、前記動画に含まれるフレーム画像の特徴量ベクトルを算出する、ことを特徴とする付記1~5のいずれか一つに記載の学習データ選択プログラム。
(Appendix 6) Extracting frame images from the moving image at regular time intervals,
causing the computer to execute a process of learning an encoder that converts a frame image into a feature vector using the extracted frame image as learning data;
The process of calculating the feature amount includes:
6. The learning data selection program according to any one of
(付記7)決定した前記学習データを出力する、処理を前記コンピュータに実行させることを特徴とする付記1~6のいずれか一つに記載の学習データ選択プログラム。
(Appendix 7) The learning data selection program according to any one of
(付記8)前記動画は、異常検知対象を撮影した、周期性のある動画である、ことを特徴とする付記1~7のいずれか一つに記載の学習データ選択プログラム。
(Appendix 8) The learning data selection program according to any one of
(付記9)前記特定する処理は、
算出した前記差分が大きいほうから所定数の区間を、異常な状態のフレーム画像を含む区間として特定する、ことを特徴とする付記1に記載の学習データ選択プログラム。
(Appendix 9) The identifying process is
1. The program for selecting learning data according to
(付記10)異常検知対象を撮影した動画に含まれるフレーム画像の特徴を表す特徴量を算出し、
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
処理をコンピュータが実行することを特徴とする学習データ選択方法。
(Appendix 10) calculating a feature amount representing a feature of a frame image included in a moving image of an anomaly detection target;
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
A learning data selection method characterized in that processing is executed by a computer.
(付記11)異常検知対象を撮影した動画に含まれるフレーム画像の特徴を表す特徴量を算出し、
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
制御部を有することを特徴とする情報処理装置。
(Appendix 11) calculating a feature quantity representing a feature of a frame image included in a moving image of an anomaly detection target;
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
An information processing apparatus comprising a control unit.
101 情報処理装置
110,410,Vd 動画
120,130 特徴量信号
140 学習データ
200 情報処理システム
201 学習データ選択装置
202 クライアント装置
210 ネットワーク
220 フレーム画像DB
230 特徴量信号テーブル
240 学習データDB
300 バス
301 CPU
302 メモリ
303 ディスクドライブ
304 ディスク
305 通信I/F
306 可搬型記録媒体I/F
307 可搬型記録媒体
400 カメラ
601 取得部
602 第1の算出部
603 第2の算出部
604 特定部
605 決定部
606 出力部
611 エンコーダ学習部
612 ベクトル算出部
613 主成分分析部
614 周波数解析部
ec エンコーダ
101
230 Feature amount signal table 240 Learning data DB
300
302
306 portable recording medium I/F
307
Claims (9)
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
処理をコンピュータに実行させることを特徴とする学習データ選択プログラム。 Calculating the feature value representing the feature of the frame image included in the video of the anomaly detection target,
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
A learning data selection program characterized by causing a computer to execute processing.
算出した前記差分が閾値以上の区間を、異常な状態のフレーム画像を含む区間として特定する、ことを特徴とする請求項1に記載の学習データ選択プログラム。 The process of specifying
2. The learning data selection program according to claim 1, wherein a section in which the calculated difference is equal to or greater than a threshold value is specified as a section containing a frame image in an abnormal state.
算出した前記差分が大きいほうから所定数の区間を、異常な状態のフレーム画像を含む区間として特定する、ことを特徴とする請求項1に記載の学習データ選択プログラム。 The process of specifying
2. The learning data selection program according to claim 1, wherein a predetermined number of sections in descending order of the calculated differences are specified as sections containing frame images in an abnormal state.
前記動画に含まれるフレーム画像の特徴を表す特徴量ベクトルを算出し、
前記周期を算出する処理は、
算出した前記フレーム画像の特徴量ベクトルの主成分の時間変化を示す特徴量信号の周波数解析を行って得られる結果に基づいて、前記周期を算出する、
ことを特徴とする請求項1~3のいずれか一つに記載の学習データ選択プログラム。 The process of calculating the feature amount includes:
calculating a feature amount vector representing a feature of a frame image included in the moving image;
The process of calculating the cycle includes:
calculating the period based on a result obtained by performing a frequency analysis of a feature amount signal indicating a temporal change in the principal component of the calculated feature amount vector of the frame image;
4. The learning data selection program according to any one of claims 1 to 3, characterized by:
抽出した前記フレーム画像を学習データとして、フレーム画像から特徴量ベクトルへの変換を行うエンコーダを学習する、処理を前記コンピュータに実行させ、
前記特徴量を算出する処理は、
学習した前記エンコーダを用いて、前記動画に含まれるフレーム画像の特徴量ベクトルを算出する、ことを特徴とする請求項1~4のいずれか一つに記載の学習データ選択プログラム。 extracting frame images from the moving image at regular time intervals;
causing the computer to execute a process of learning an encoder that converts a frame image into a feature vector using the extracted frame image as learning data;
The process of calculating the feature amount includes:
5. The learning data selection program according to any one of claims 1 to 4, wherein the learned encoder is used to calculate a feature amount vector of a frame image included in the moving image.
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
処理をコンピュータが実行することを特徴とする学習データ選択方法。 Calculating the feature value representing the feature of the frame image included in the video of the anomaly detection target,
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
A learning data selection method characterized in that processing is executed by a computer.
算出した前記フレーム画像の特徴量の時間変化に基づいて、前記動画の周期を算出し、
算出した前記周期に応じて前記動画を区切って分割した複数の区間の各区間について、前記各区間と他の区間とのフレーム画像の特徴量に関する差分を算出し、
前記各区間について算出した前記差分に基づいて、前記複数の区間のうち異常な状態のフレーム画像を含む区間を特定し、
前記複数の区間のうち特定した前記区間とは異なる他の区間に対応するフレーム画像を、前記異常検知対象の異常を検知するモデルの学習に用いる学習データに決定する、
制御部を有することを特徴とする情報処理装置。 Calculating the feature value representing the feature of the frame image included in the video of the anomaly detection target,
calculating the period of the moving image based on the time change of the calculated feature amount of the frame image;
calculating, for each section of a plurality of sections obtained by dividing the moving image according to the calculated period, calculating a difference regarding a feature amount of a frame image between each section and another section;
identifying a section including a frame image in an abnormal state among the plurality of sections based on the difference calculated for each section;
determining a frame image corresponding to another section different from the specified section among the plurality of sections as learning data to be used for learning a model for detecting anomaly of the anomaly detection target;
An information processing apparatus comprising a control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021063486A JP2022158518A (en) | 2021-04-02 | 2021-04-02 | Learning data selection program, learning data selection method, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021063486A JP2022158518A (en) | 2021-04-02 | 2021-04-02 | Learning data selection program, learning data selection method, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022158518A true JP2022158518A (en) | 2022-10-17 |
Family
ID=83638966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021063486A Pending JP2022158518A (en) | 2021-04-02 | 2021-04-02 | Learning data selection program, learning data selection method, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022158518A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472073B2 (en) | 2021-04-26 | 2024-04-22 | 株式会社東芝 | Training data generation device, training data generation method, and training data generation program |
-
2021
- 2021-04-02 JP JP2021063486A patent/JP2022158518A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472073B2 (en) | 2021-04-26 | 2024-04-22 | 株式会社東芝 | Training data generation device, training data generation method, and training data generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cheng et al. | Efficient salient region detection with soft image abstraction | |
US7822275B2 (en) | Method for detecting water regions in video | |
CN111161311A (en) | Visual multi-target tracking method and device based on deep learning | |
CN105938622A (en) | Method and apparatus for detecting object in moving image | |
Clarin et al. | DOVE: Detection of movie violence using motion intensity analysis on skin and blood | |
US9275483B2 (en) | Method and system for analyzing sequential data based on sparsity and sequential adjacency | |
CN111723634B (en) | Image detection method and device, electronic equipment and storage medium | |
CN107133629B (en) | Picture classification method and device and mobile terminal | |
CN110533654A (en) | The method for detecting abnormality and device of components | |
WO2023039609A1 (en) | Systems and processes for detection, segmentation, and classification of poultry carcass parts and defects | |
CN114332911A (en) | Head posture detection method and device and computer equipment | |
JP2022158518A (en) | Learning data selection program, learning data selection method, and information processing device | |
CN117351395A (en) | Night scene target detection method, system and storage medium | |
JP2021120814A (en) | Learning program and learning method and information processor | |
CN112347889B (en) | Substation operation behavior identification method and device | |
CN112686122B (en) | Human body and shadow detection method and device, electronic equipment and storage medium | |
Nugroho et al. | Comparison of deep learning-based object classification methods for detecting tomato ripeness | |
Nayak et al. | Fruit recognition using image processing | |
Nan et al. | Pedestrian detection based on HOG features and SVM realizes vehicle-human-environment interaction | |
CN110647826B (en) | Method and device for acquiring commodity training picture, computer equipment and storage medium | |
JP2022029262A (en) | Image processing apparatus, image processing method, image processing program, and learning device | |
CN117197653A (en) | Landslide hazard identification method and system based on deep learning | |
WO2023032665A1 (en) | Label generation method, model generation method, label generation device, label generation program, model generation device, and model generation program | |
Grutschus et al. | Cutup and Detect: Human Fall Detection on Cutup Untrimmed Videos Using a Large Foundational Video Understanding Model | |
CN115631488A (en) | Jetson Nano-based fruit maturity nondestructive testing method and system |