JP2022175146A - inference device - Google Patents

inference device Download PDF

Info

Publication number
JP2022175146A
JP2022175146A JP2021081344A JP2021081344A JP2022175146A JP 2022175146 A JP2022175146 A JP 2022175146A JP 2021081344 A JP2021081344 A JP 2021081344A JP 2021081344 A JP2021081344 A JP 2021081344A JP 2022175146 A JP2022175146 A JP 2022175146A
Authority
JP
Japan
Prior art keywords
inference
detection model
processor
model
anomaly detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021081344A
Other languages
Japanese (ja)
Inventor
康幸 岩打
Yasuyuki Iwauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2021081344A priority Critical patent/JP2022175146A/en
Publication of JP2022175146A publication Critical patent/JP2022175146A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To reduce the processing time from object detection to abnormality detection.SOLUTION: An inference device comprises a first processor which performs inference using a first object detection model, a second processor which performs inference using a second object detection model having higher detection accuracy and more computational complexity than those of the first object detection model, and a third processor which performs inference of abnormality detection of a target object. The third processor selects an abnormality detection model in accordance with a result of inference performed by using the first object detection model and performs inference of abnormality detection in the case of reliability equal to or higher than a reference value, but in the case of reliability lower than the reference value, waits until inference using the second object detection model is performed. The second processor performs inference of detection of the target object in parallel with the third processor, and the third processor performs inference of abnormality detection by using the loaded model in the case of coincidence between results of inference performed by using the two object detection models, but reloads another model in accordance with the result of inference performed by using the second object detection model to perform inference of abnormality detection in the case of non-coincidence between them.SELECTED DRAWING: Figure 4

Description

本発明は、物体検出及び異常検知を行う推論装置に関する。 The present invention relates to an inference device that performs object detection and anomaly detection.

従来、電力設備等の保守対象の点検を低コストで行うために、車載カメラから保守対象を含む設備を撮影し、保守対象の物体の検出及び保守対象の外観に現れる異常の検出を行う試みがなされている。 Conventionally, in order to perform inspections of maintenance targets such as electric power equipment at a low cost, there have been attempts to photograph equipment including maintenance targets from an on-board camera, detect objects subject to maintenance, and detect abnormalities appearing in the appearance of maintenance targets. is done.

従来技術の一例である特許文献1には、多数の電柱又は配電設備を巡視点検する作業を効率的に行い、巡視点検結果を事後においてもチェックでき、経験の少ない作業者においても巡視点検作業をより確実に行える巡視点検システムを提供することを目的として、情報端末3が、巡視中に360度カメラ35の画像とGPS機能とを利用して通過しようとする電柱の電柱番号を特定し、その電柱に設置されている点検対象設備を前記画像から自動判別して異常感知センサ36の検出結果に基づき異常の有無を判定する巡視点検システムが開示されている。
当該巡視点検システムでは、異常があると判定された場合には、その電柱の設備に対して収集入力された点検結果を記憶部34に格納し、異常がないと判定された場合には、その電柱を通過した時点で異常なしの点検結果を記憶部34に自動的に格納し、巡視終了の指示を受けて、記憶部34に格納されている点検結果と、360度カメラ35で撮影されて撮影時の位置情報と関連付けられた画像と、を管理サーバ2に送信する。
In Patent Document 1, which is an example of conventional technology, it is possible to efficiently perform patrol inspection work for a large number of utility poles or power distribution facilities, check the patrol inspection results even after the fact, and even an inexperienced worker can perform patrol inspection work. For the purpose of providing a patrol inspection system that can be performed more reliably, the information terminal 3 uses the image of the 360-degree camera 35 and the GPS function to identify the utility pole number of the utility pole to be passed during the patrol. A patrol inspection system is disclosed that automatically identifies equipment to be inspected installed on utility poles from the image and determines whether or not there is an abnormality based on the detection result of an abnormality detection sensor 36 .
In the patrol inspection system, when it is determined that there is an abnormality, the collected and input inspection results for the facility of the utility pole are stored in the storage unit 34, and when it is determined that there is no abnormality, that When the vehicle passes through the utility pole, the inspection result indicating no abnormality is automatically stored in the storage unit 34, and upon receiving an instruction to end the patrol, the inspection result stored in the storage unit 34 and the image captured by the 360-degree camera 35 are stored. The position information at the time of shooting and the associated image are transmitted to the management server 2 .

特開2019-32684号公報JP 2019-32684 A

保守対象を含む設備を撮影し、撮影により得られた画像から、保守対象の物体の検出及び保守対象の外観に現れる異常の検出を行うために、機械学習又は深層学習により得られる学習済みモデルを用いて推論を行うことが考えられる。
より具体的には、入力された画像内の物体の領域と設備の種類(以下、クラスと呼ぶ)とを特定するために「物体検出モデルによる推論」を行い、特定したクラスに応じて正常又は異常の判定を行う「異常検知モデルによる推論」を行う。
A trained model obtained by machine learning or deep learning is used to detect objects to be maintained and abnormalities appearing in the appearance of the maintenance target from the images obtained by photographing equipment including maintenance targets. It is conceivable to make inferences using
More specifically, in order to identify the area of the object in the input image and the type of equipment (hereinafter referred to as class), "inference by the object detection model" is performed, and depending on the identified class, normal or Perform "inference by anomaly detection model" to judge anomalies.

しかしながら、推論に用いる学習済みモデルの数に対して、推論に用いるデバイスの数が少ない場合には、1つのデバイスに対して学習済みモデルの複数の読み込みを要し、学習済みモデルを推論に用いるデバイスに読み込ませる処理時間により、システム全体の処理速度が低下する、という問題があった。 However, when the number of devices used for inference is small compared to the number of trained models used for inference, it is necessary to load the trained model multiple times for one device, and the trained model is used for inference. There was a problem that the processing speed of the entire system decreased due to the processing time required to load the device.

本発明は、上記に鑑みてなされたものであって、物体検出から異常検知までの処理時間を短縮する技術を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique for shortening the processing time from object detection to abnormality detection.

上述の課題を解決して目的を達成する本発明の一態様は、画像からの対象物体の検出及び該対象物体の異常検知の推論を実行する推論装置であって、第1の物体検出モデルによる前記対象物体の検出の推論を実行する第1プロセッサと、前記第1の物体検出モデルよりも検出精度が高く演算量が大きい第2の物体検出モデルによる前記対象物体の検出の推論を実行する第2プロセッサと、複数の異常検知モデルによる前記対象物体の異常検知の推論を実行する第3プロセッサと、を備え、前記第3プロセッサは、前記第1の物体検出モデルによる推論結果に応じて、複数の異常検知モデルから信頼度の高い順に異常検知モデルを選択し、選択したモデルの信頼度が予め定めた基準値以上である場合には当該異常検知モデルを用いて異常検知の推論を実行し、選択したモデルの信頼度が予め定めた基準値未満である場合には当該異常検知モデルをロード後に前記第2の物体検出モデルによる推論の実行を待ち、前記第2プロセッサは、前記第3プロセッサの選択及び推論と並行して、前記画像からの前記対象物体の検出の推論を実行し、前記第3プロセッサは、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致する場合には、前記ロードした異常検知モデルを用いて異常検知の推論を実行し、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致しない場合には、前記第2の物体検出モデルによる推論結果に応じた異常検知モデルを選択して再ロードし、前記再ロードした異常検知モデルを用いて異常検知の推論を実行する推論装置である。 One aspect of the present invention that solves the above-described problems and achieves the object is an inference device that executes inference for detecting a target object from an image and detecting an anomaly of the target object, the inference device using a first object detection model A first processor that executes inference of detection of the target object; 2 processors, and a third processor that executes inference of anomaly detection of the target object by a plurality of anomaly detection models, wherein the third processor performs a plurality of select an anomaly detection model in descending order of reliability from the anomaly detection models, and if the reliability of the selected model is equal to or higher than a predetermined reference value, execute inference of anomaly detection using the anomaly detection model, If the reliability of the selected model is less than a predetermined reference value, after loading the anomaly detection model, wait for execution of inference by the second object detection model; Inference of detection of the target object from the image is performed in parallel with the selection and inference, and the third processor determines that the inference result of the second object detection model is the inference result of the first object detection model. If the inference result of the second object detection model does not match the inference result of the first object detection model, the inference result of the anomaly detection is executed using the loaded anomaly detection model. is an inference device that selects and reloads an anomaly detection model according to an inference result of the second object detection model, and executes anomaly detection inference using the reloaded anomaly detection model.

上記構成の推論装置において、前記第3プロセッサは複数のプロセッサを備え、複数の前記第3プロセッサの各々は、並行して処理を行うことができる。 In the inference device having the above configuration, the third processor includes a plurality of processors, and each of the plurality of third processors can perform processing in parallel.

本発明によれば、物体検出から異常検知までの処理時間を短縮することができる。 According to the present invention, the processing time from object detection to abnormality detection can be shortened.

図1は、実施形態における推論に用いる情報処理装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an information processing device used for inference in an embodiment. 図2は、情報処理装置で用いる学習済みモデルの例を示す図である。FIG. 2 is a diagram illustrating an example of a trained model used in an information processing apparatus; 図3は、比較例における情報処理装置の動作フローを示す図である。FIG. 3 is a diagram illustrating an operation flow of an information processing apparatus in a comparative example; 図4は、実施形態における情報処理装置の動作フローを示す図である。FIG. 4 is a diagram illustrating an operation flow of the information processing apparatus according to the embodiment;

以下、添付図面を参照して、本発明を実施するための形態について説明する。
ただし、本発明は、以下の実施形態の記載によって限定解釈されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.
However, the present invention is not to be construed as limited by the description of the following embodiments.

<実施形態>
図1は、本実施形態における推論に用いる情報処理装置100の概略構成を示すブロック図である。
図1に示す情報処理装置100は、メインプロセッサ10と、メインプロセッサ10に接続されたブリッジコントローラ20と、ブリッジコントローラ20を介してメインプロセッサ10に接続されたサブプロセッサ群30と、入力装置40と、を備える。
<Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an information processing device 100 used for inference in this embodiment.
The information processing apparatus 100 shown in FIG. , provided.

メインプロセッサ10は、内蔵型のグラフィックプロセッサ11及びスケジューラ12を含む。
ブリッジコントローラ20は、メインプロセッサ10とサブプロセッサ群30との間に設けられ、メインプロセッサ10とサブプロセッサ群30との間の接続を制御する。
サブプロセッサ群30は、サブプロセッサ31と、サブプロセッサ32と、サブプロセッサ33と、を含む。
入力装置40は、カメラ41及びセンサ42を含む。
The main processor 10 includes a built-in graphics processor 11 and scheduler 12 .
The bridge controller 20 is provided between the main processor 10 and the sub-processor group 30 and controls connections between the main processor 10 and the sub-processor group 30 .
Sub-processor group 30 includes sub-processor 31 , sub-processor 32 , and sub-processor 33 .
Input device 40 includes camera 41 and sensor 42 .

なお、メインプロセッサ10、グラフィックプロセッサ11、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33は、各々推論を行う処理器であり、情報処理装置100に設けられる処理器の個数はこれに限定されるものではない。
また、入力装置40は、メインプロセッサ10に画像データを出力する構成であれば、カメラ及びセンサに限定されるものではない。
The main processor 10, the graphic processor 11, the sub-processor 31, the sub-processor 32, and the sub-processor 33 are processors for inference, and the number of processors provided in the information processing apparatus 100 is limited to these. is not.
Also, the input device 40 is not limited to a camera and a sensor as long as it is configured to output image data to the main processor 10 .

図2は、情報処理装置100で用いる学習済みモデルの例を示す図である。
図2に示すように、情報処理装置100で用いる学習済みモデルは、物体検出モデルAと、物体検出モデルBと、異常検知モデルCと、異常検知モデルDと、異常検知モデルEと、異常検知モデルFと、異常検知モデルGと、異常検知モデルHと、を含む。
物体検出モデルAは、検出精度が高いものの演算量が大きいモデルであり、物体検出モデルBは、検出精度が中程度であるものの演算量が小さいモデルである。
複数の異常検知モデルC~Hは、物体検出モデルA及び物体検出モデルBで検出されるクラス毎に設けられており、これらの各々の間に検出精度及び演算量の差はないものとする。
FIG. 2 is a diagram showing an example of a trained model used in the information processing apparatus 100. As shown in FIG.
As shown in FIG. 2, the trained models used in the information processing apparatus 100 include an object detection model A, an object detection model B, an anomaly detection model C, an anomaly detection model D, an anomaly detection model E, an anomaly detection A model F, an anomaly detection model G, and an anomaly detection model H are included.
The object detection model A has high detection accuracy but requires a large amount of calculation, and the object detection model B has medium detection accuracy but requires a small amount of calculation.
A plurality of anomaly detection models C to H are provided for each class detected by object detection model A and object detection model B, and there is no difference in detection accuracy or amount of calculation between them.

図3は、比較例における情報処理装置100の動作フローを示す図である。
ここでは、物体検出モデルAは、グラフィックプロセッサ11に予めロードされて保持されており、サブプロセッサ31,32,33には、物体検出モデルAによる推論結果に応じて、複数の異常検知モデルC~Hの各々のいずれかが割り当てられる。
なお、ロードは、学習済みモデルの演算パラメータを、推論を行う処理器のメモリ上に展開する処理であり、ロードにかかる時間は、モデルの演算量に伴って増大する。
すなわち、モデルの演算量が小さければロードにかかる時間が短くなり、モデルの演算量が大きければロードにかかる時間が長くなる。
FIG. 3 is a diagram showing an operational flow of the information processing apparatus 100 in the comparative example.
Here, the object detection model A is preloaded and held in the graphic processor 11, and the sub-processors 31, 32, and 33 store a plurality of anomaly detection models C~ H is assigned.
Note that loading is a process of developing computational parameters of a trained model on the memory of a processor that performs inference, and the time required for loading increases with the computational complexity of the model.
That is, the smaller the amount of computation of the model, the shorter the time required for loading, and the larger the amount of computation of the model, the longer the time required for loading.

処理を開始すると、グラフィックプロセッサ11は、物体検出モデルAによる推論を実行する(S1)。
スケジューラ12は、S1の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して異常検知モデルの割り当てを行う(S2)。
When the processing is started, the graphic processor 11 executes inference by the object detection model A (S1).
The scheduler 12 assigns anomaly detection models to the sub-processors 31, 32, and 33 according to the classes detected in S1 (S2).

サブプロセッサ31は、S2の割り当てに応じて、異常検知モデルCをロードし(S3)、異常検知モデルCによる推論を実行し(S4)、異常検知モデルFをロードし(S5)、異常検知モデルFによる推論を実行する(S6)。
サブプロセッサ32は、S2の割り当てに応じて、異常検知モデルDをロードし(S7)、異常検知モデルDによる推論を実行し(S8)、異常検知モデルGをロードし(S9)、異常検知モデルGによる推論を実行する(S10)。
サブプロセッサ33は、S2の割り当てに応じて、異常検知モデルEをロードし(S11)、異常検知モデルEによる推論を実行し(S12)、モデルの変更を行うことなく再度異常検知モデルEによる推論を実行する(S13)。
サブプロセッサ31によるS3~S6の処理、サブプロセッサ32によるS7~S10の処理及びサブプロセッサ33によるS11~S13の処理は、並行して行われる。
S3~S13のすべての処理が完了すると、S3~S13による推論結果は、図示しない出力装置に出力され(S14)、処理を終了する。
The sub-processor 31 loads the anomaly detection model C (S3), executes inference by the anomaly detection model C (S4), loads the anomaly detection model F (S5), and Inference by F is executed (S6).
The sub-processor 32 loads the anomaly detection model D (S7), executes inference by the anomaly detection model D (S8), loads the anomaly detection model G (S9), and Inference by G is executed (S10).
The sub-processor 33 loads the anomaly detection model E according to the assignment of S2 (S11), executes inference by the anomaly detection model E (S12), and makes inference by the anomaly detection model E again without changing the model. (S13).
The processing of S3 to S6 by the sub processor 31, the processing of S7 to S10 by the sub processor 32, and the processing of S11 to S13 by the sub processor 33 are performed in parallel.
When all the processes of S3 to S13 are completed, the inference results of S3 to S13 are output to an output device (not shown) (S14), and the process is terminated.

図3に示すフローによれば、物体検出モデルAを用いた高精度な推論結果が得られて高精度な推論結果によって異常検知モデルの割り当てが行われるものの、物体検出モデルAによる推論処理中には、異常検知モデルの割り当てが行われないため、サブプロセッサ31,32,33による推論処理を行うことができない。
また、サブプロセッサ31,32,33に異常検知モデルC~Hのいずれかを予めロードしたとしても、物体検出モデルAによる推論処理の結果によっては、必要な異常検知モデルの一つ又は複数がサブプロセッサ31,32,33にロードされていない事態が頻発することも想定され、情報処理装置100全体における演算時間にばらつきを生じてしまう。
According to the flow shown in FIG. 3, although highly accurate inference results using object detection model A are obtained and assignment of anomaly detection models is performed based on the highly accurate inference results, during inference processing by object detection model A , the sub-processors 31, 32, and 33 cannot perform inference processing because an anomaly detection model is not assigned.
Further, even if one of the anomaly detection models C to H is preloaded in the sub-processors 31, 32, and 33, depending on the result of the inference processing by the object detection model A, one or more of the necessary anomaly detection models may be loaded into the sub-processors. It is also assumed that the processors 31, 32, and 33 are not loaded frequently, and the calculation time in the entire information processing apparatus 100 varies.

なお、検知対象の種類が少ない場合等には、使用が想定されるすべての異常検知モデルをサブプロセッサ31,32,33にロードすることは可能であるが、検出可能な対象の種類が限定されてしまう。
また、検知対象の種類が少なくない場合に、使用が想定されるすべての異常検知モデルをサブプロセッサ31,32,33にロードすることは、サブプロセッサ31,32,33に膨大な記憶容量を要するため困難である。
If the number of types of detection targets is small, all anomaly detection models that are assumed to be used can be loaded into the sub-processors 31, 32, and 33, but the types of targets that can be detected are limited. end up
In addition, when the types of objects to be detected are not small, loading all the anomaly detection models that are assumed to be used into the sub-processors 31, 32, 33 requires a huge storage capacity. It is difficult because

図4は、本実施形態における情報処理装置100の動作フローを示す図である。
図4において、メインプロセッサ10には、検出精度が中程度であるものの演算量が小さいモデルである物体検出モデルBが予めロードされて保持され、グラフィックプロセッサ11には、検出精度が高いものの演算量が大きいモデルである物体検出モデルAが予めロードされて保持されている。
サブプロセッサ31,32,33には、図3と同様に、物体検出モデルAによる推論結果に応じて、複数の異常検知モデルC~Hの各々のいずれかが割り当てられる。
FIG. 4 is a diagram showing an operation flow of the information processing apparatus 100 according to this embodiment.
In FIG. 4, the main processor 10 preloads and holds an object detection model B, which is a model with medium detection accuracy but a small amount of computation, and the graphic processor 11 has a high detection accuracy but a small amount of computation. An object detection model A, which is a model with a large , is preloaded and held.
One of the plurality of abnormality detection models C to H is assigned to each of the sub-processors 31, 32, 33 according to the result of inference by the object detection model A, as in FIG.

まず、処理を開始すると、メインプロセッサ10は、物体検出モデルBによる推論を実行する(S101)。
ここでは、物体検出モデルBの推論により、クラスC,D,E,Fが検出されたものとし、クラスCの信頼度が最も高く、クラスCの次にクラスDの信頼度が高く、クラスDの次にクラスEの信頼度が高く、クラスFの信頼度が最も低いものとする。
次に、スケジューラ12は、S101の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して信頼度の高いものから順に異常検知モデルの割り当てを行う(S102)。
グラフィックプロセッサ11は、物体検出モデルAによる推論を実行し(S103)、スケジューラ12は、S103の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して異常検知モデルの割り当てを行う(S104)。
図4に示すように、S102の処理と、S103,S104の処理とは、並行して進められる。
物体検出モデルA,Bによる推論の実行では、画像内における検出対象物体の領域と、設備の種類であるクラスと、クラスの信頼度(%)と、が得られる。
なお、信頼度は、確度とも呼ばれる。
メインプロセッサ10が行う物体検出モデルBによる推論(S101)による信頼度(%)が高く、予め定められた基準値α以上である場合には、物体検出モデルAによる推論(S103)の結果を待つことなく処理を進める。
図4においては、クラスCの信頼度のみが予め定められた基準値α以上である。
First, when the process is started, the main processor 10 executes inference by the object detection model B (S101).
Here, it is assumed that classes C, D, E, and F have been detected by inference of object detection model B. Class E has the next highest reliability, and Class F has the lowest reliability.
Next, the scheduler 12 assigns anomaly detection models to the sub-processors 31, 32, and 33 in descending order of reliability according to the class detected in the inference of S101 (S102). .
The graphic processor 11 executes inference based on the object detection model A (S103), and the scheduler 12 detects anomalies with the sub-processors 31, 32, and 33 according to the class detected in the inference of S103. A model is assigned (S104).
As shown in FIG. 4, the process of S102 and the processes of S103 and S104 are performed in parallel.
Execution of inference by the object detection models A and B obtains the region of the detection target object in the image, the class as the type of facility, and the confidence level (%) of the class.
Note that reliability is also called accuracy.
If the reliability (%) of the inference (S101) by the object detection model B performed by the main processor 10 is high and equal to or greater than a predetermined reference value α, the result of the inference (S103) by the object detection model A is waited for. proceed without
In FIG. 4, only the reliability of class C is equal to or higher than the predetermined reference value α.

サブプロセッサ31は、S102の割り当てに応じて、クラスCの異常検知モデルCをロードし(S105)、異常検知モデルCによる推論を実行する(S106)。
ここで、クラスCの信頼度は、予め定められた基準値α以上であるため、S104の割り当てを待つことなく処理を続行する。
次に、サブプロセッサ31は、クラスFの異常検知モデルFをロードする(S107)。
ここでは、クラスFについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ31は、ロード済みの異常検知モデルFによる推論を実行する(S108)。
なお、クラスFについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ31は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
The sub-processor 31 loads the anomaly detection model C of class C according to the assignment in S102 (S105), and executes inference by the anomaly detection model C (S106).
Here, since the reliability of class C is equal to or greater than the predetermined reference value α, the process continues without waiting for the assignment in S104.
Next, the sub-processor 31 loads the anomaly detection model F of class F (S107).
Here, it is assumed that the assignment of S102 and the assignment of S104 for class F match, and the sub-processor 31 executes inference by the loaded anomaly detection model F (S108).
Note that when the assignment of S102 and the assignment of S104 for class F do not match, the sub-processor 31 reloads the anomaly detection model of another class according to the assignment of S104, and the anomaly detection model perform inference by

サブプロセッサ32は、S102の割り当てに応じて、クラスDの異常検知モデルDをロードする(S109)。
ここで、クラスDの信頼度は、予め定められた基準値α未満であるため、S104の割り当てを待つ。
ここでは、クラスDについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ32は、ロード済みの異常検知モデルDによる推論を実行する(S110)。
なお、クラスDについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ32は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
次に、サブプロセッサ32は、S104の割り当てに応じて、クラスGの異常検知モデルGをロードし(S111)、異常検知モデルGによる推論を実行する(S112)。
The sub-processor 32 loads the anomaly detection model D of class D in accordance with the assignment in S102 (S109).
Here, since the reliability of class D is less than the predetermined reference value α, the assignment of S104 is awaited.
Here, it is assumed that the assignment in S102 and the assignment in S104 are the same for class D, and the sub-processor 32 executes inference by the loaded anomaly detection model D (S110).
Note that when the assignment of S102 and the assignment of S104 for class D do not match, the sub-processor 32 reloads the anomaly detection model of another class according to the assignment of S104, and the anomaly detection model perform inference by
Next, the sub-processor 32 loads the anomaly detection model G of the class G according to the assignment in S104 (S111), and executes inference by the anomaly detection model G (S112).

サブプロセッサ33は、S102の割り当てに応じて、クラスEの異常検知モデルEをロードする(S113)。
ここで、クラスEの信頼度は、予め定められた基準値α未満であるため、S104の割り当てを待つ。
ここでは、クラスEについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ33は、ロード済みの異常検知モデルEによる推論を実行する(S114)。
なお、クラスEについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ33は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
The sub-processor 33 loads the anomaly detection model E of class E according to the assignment in S102 (S113).
Here, since the reliability of class E is less than the predetermined reference value α, the assignment of S104 is awaited.
Here, it is assumed that the assignment of S102 and the assignment of S104 for class E match, and the sub-processor 33 executes inference by the loaded anomaly detection model E (S114).
Note that if the assignment of S102 and the assignment of S104 for class E do not match, the sub-processor 33 reloads the anomaly detection model of another class according to the assignment of S104, and perform inference by

なお、サブプロセッサ31によるS105~S108の処理、サブプロセッサ32によるS109~S112の処理及びサブプロセッサ33によるS113~S114の処理は、並行して行われる。
そして、S105~S114のすべての処理が完了すると、S105~S114による推論結果は、図示しない出力装置に出力される(S115)。
The processing of S105 to S108 by the sub processor 31, the processing of S109 to S112 by the sub processor 32, and the processing of S113 to S114 by the sub processor 33 are performed in parallel.
Then, when all the processes of S105 to S114 are completed, the inference results of S105 to S114 are output to an output device (not shown) (S115).

以上説明したように、比較例によれば物体検出モデルAによる推論の実行後の割り当てに応じてすべての異常検知モデルのロードを行っていたところ、本実施形態では、S104の割り当てよりも前に異常検知モデルD及び異常検知モデルFのロードが行われるため、従来よりも異常検知モデルD又は異常検知モデルFのロードにかかる時間分、物体検出から異常検知までの処理時間を短縮することができる。
従って、本実施形態によれば、物体検出から異常検知までの処理時間を短縮することが可能になる。
As described above, according to the comparative example, all the anomaly detection models are loaded according to the allocation after execution of the inference by the object detection model A. Since the anomaly detection model D and the anomaly detection model F are loaded, the processing time from object detection to anomaly detection can be shortened by the time required for loading the anomaly detection model D or the anomaly detection model F. .
Therefore, according to this embodiment, it is possible to shorten the processing time from object detection to abnormality detection.

なお、本発明は、上述の実施形態に限定されるものではなく、上述の構成に対して、構成要素の付加、削除又は転換を行った様々な変形例も含むものとする。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications in which components are added, deleted, or converted to the above-described configuration.

10 メインプロセッサ
11 グラフィックプロセッサ
12 スケジューラ
20 ブリッジコントローラ
30 サブプロセッサ群
31,32,33 サブプロセッサ
40 入力装置
41 カメラ
42 センサ
100 情報処理装置
10 main processor 11 graphic processor 12 scheduler 20 bridge controller 30 sub-processor group 31, 32, 33 sub-processor 40 input device 41 camera 42 sensor 100 information processing device

Claims (2)

画像からの対象物体の検出及び該対象物体の異常検知の推論を実行する推論装置であって、
第1の物体検出モデルによる前記対象物体の検出の推論を実行する第1プロセッサと、
前記第1の物体検出モデルよりも検出精度が高く演算量が大きい第2の物体検出モデルによる前記対象物体の検出の推論を実行する第2プロセッサと、
複数の異常検知モデルによる前記対象物体の異常検知の推論を実行する第3プロセッサと、を備え、
前記第3プロセッサは、前記第1の物体検出モデルによる推論結果に応じて、複数の異常検知モデルから信頼度の高い順に異常検知モデルを選択し、選択したモデルの信頼度が予め定めた基準値以上である場合には当該異常検知モデルを用いて異常検知の推論を実行し、選択したモデルの信頼度が予め定めた基準値未満である場合には当該異常検知モデルをロード後に前記第2の物体検出モデルによる推論の実行を待ち、
前記第2プロセッサは、前記第3プロセッサの選択及び推論と並行して、前記画像からの前記対象物体の検出の推論を実行し、
前記第3プロセッサは、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致する場合には、前記ロードした異常検知モデルを用いて異常検知の推論を実行し、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致しない場合には、前記第2の物体検出モデルによる推論結果に応じた異常検知モデルを選択して再ロードし、前記再ロードした異常検知モデルを用いて異常検知の推論を実行する推論装置。
An inference device for detecting a target object from an image and inferring anomaly detection of the target object,
a first processor that performs inference of detection of the target object by a first object detection model;
a second processor for inferring detection of the target object by a second object detection model having higher detection accuracy and a larger amount of computation than the first object detection model;
a third processor that performs inference of anomaly detection of the target object by a plurality of anomaly detection models;
The third processor selects an anomaly detection model from a plurality of anomaly detection models in descending order of reliability according to the inference result of the first object detection model, and the reliability of the selected model is a predetermined reference value. In the case above, inference of anomaly detection is executed using the anomaly detection model, and when the reliability of the selected model is less than a predetermined reference value, after loading the anomaly detection model, the second Wait for the object detection model to perform inference,
the second processor performs inference of detection of the target object from the image in parallel with the selection and inference of the third processor;
The third processor executes inference of anomaly detection using the loaded anomaly detection model when the inference result of the second object detection model matches the inference result of the first object detection model. , if the result of inference by the second object detection model does not match the result of inference by the first object detection model, the anomaly detection model corresponding to the result of inference by the second object detection model is selected and re-selected. An inference device that loads and performs anomaly detection inference using the reloaded anomaly detection model.
前記第3プロセッサは複数のプロセッサを備え、
複数の前記第3プロセッサの各々は、並行して処理を行う請求項1に記載の推論装置。
the third processor comprises a plurality of processors;
2. The reasoning apparatus according to claim 1, wherein each of said plurality of third processors performs processing in parallel.
JP2021081344A 2021-05-13 2021-05-13 inference device Pending JP2022175146A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021081344A JP2022175146A (en) 2021-05-13 2021-05-13 inference device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021081344A JP2022175146A (en) 2021-05-13 2021-05-13 inference device

Publications (1)

Publication Number Publication Date
JP2022175146A true JP2022175146A (en) 2022-11-25

Family

ID=84145018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021081344A Pending JP2022175146A (en) 2021-05-13 2021-05-13 inference device

Country Status (1)

Country Link
JP (1) JP2022175146A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7311820B1 (en) 2022-11-30 2023-07-20 ダイトロン株式会社 Abnormality determination method, abnormality determination device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7311820B1 (en) 2022-11-30 2023-07-20 ダイトロン株式会社 Abnormality determination method, abnormality determination device, and program

Similar Documents

Publication Publication Date Title
CN111242943B (en) Image processing method, image processing apparatus, storage medium, and image processing device
KR20200004823A (en) Display screen peripheral circuit detection method, device, electronic device and storage medium
JP2022175146A (en) inference device
US20190355112A1 (en) System and method of distributed processing for machine-vision analysis
CN111240974B (en) Log output method and device, electronic equipment and medium
CN111950633A (en) Neural network training method, neural network target detection method, neural network training device, neural network target detection device and storage medium
CN114637321A (en) Cable monitoring system based on image data optimization path
US11496567B2 (en) Data processing method, apparatus, device and storage medium based on unmanned vehicle
CN111651350A (en) Test case processing method, device and equipment and computer readable storage medium
CN116414542A (en) Task scheduling method, device, equipment and storage medium
CN114896168B (en) Quick debugging system, method and memory for automatic driving algorithm development
CN109032853B (en) Method and device for controlling FPGA card group
CN111859370B (en) Method, apparatus, electronic device and computer readable storage medium for identifying service
CN114034972A (en) Intelligent cable fault determination method and device based on image data
US11120541B2 (en) Determination device and determining method thereof
US11886327B2 (en) Training a system to recognize scroll bars in an application under test
CN113849663B (en) Fault monitoring method, system and computer medium for camera collaborative knowledge map
CN114298990B (en) Detection method and device of vehicle-mounted image pickup device, storage medium and vehicle
CN117349775B (en) Cluster computing-oriented abnormal subtask identification method and device
EP4092315A1 (en) System and method for inspecting stability of heat transfer pipe by using drone
JP2008076231A (en) Tire visual inspection device
CN114327638A (en) Monitoring document generation method and device, computer equipment and readable storage medium
CN117931361A (en) Virtual machine starting control method, device, equipment and medium based on machine learning
US20210303445A1 (en) Scanner software module for high system utilization
JP6678823B1 (en) Data processing device, task control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230830