JP2022175146A - inference device - Google Patents
inference device Download PDFInfo
- Publication number
- JP2022175146A JP2022175146A JP2021081344A JP2021081344A JP2022175146A JP 2022175146 A JP2022175146 A JP 2022175146A JP 2021081344 A JP2021081344 A JP 2021081344A JP 2021081344 A JP2021081344 A JP 2021081344A JP 2022175146 A JP2022175146 A JP 2022175146A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- detection model
- processor
- model
- anomaly detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出及び異常検知を行う推論装置に関する。 The present invention relates to an inference device that performs object detection and anomaly detection.
従来、電力設備等の保守対象の点検を低コストで行うために、車載カメラから保守対象を含む設備を撮影し、保守対象の物体の検出及び保守対象の外観に現れる異常の検出を行う試みがなされている。 Conventionally, in order to perform inspections of maintenance targets such as electric power equipment at a low cost, there have been attempts to photograph equipment including maintenance targets from an on-board camera, detect objects subject to maintenance, and detect abnormalities appearing in the appearance of maintenance targets. is done.
従来技術の一例である特許文献1には、多数の電柱又は配電設備を巡視点検する作業を効率的に行い、巡視点検結果を事後においてもチェックでき、経験の少ない作業者においても巡視点検作業をより確実に行える巡視点検システムを提供することを目的として、情報端末3が、巡視中に360度カメラ35の画像とGPS機能とを利用して通過しようとする電柱の電柱番号を特定し、その電柱に設置されている点検対象設備を前記画像から自動判別して異常感知センサ36の検出結果に基づき異常の有無を判定する巡視点検システムが開示されている。
当該巡視点検システムでは、異常があると判定された場合には、その電柱の設備に対して収集入力された点検結果を記憶部34に格納し、異常がないと判定された場合には、その電柱を通過した時点で異常なしの点検結果を記憶部34に自動的に格納し、巡視終了の指示を受けて、記憶部34に格納されている点検結果と、360度カメラ35で撮影されて撮影時の位置情報と関連付けられた画像と、を管理サーバ2に送信する。
In Patent Document 1, which is an example of conventional technology, it is possible to efficiently perform patrol inspection work for a large number of utility poles or power distribution facilities, check the patrol inspection results even after the fact, and even an inexperienced worker can perform patrol inspection work. For the purpose of providing a patrol inspection system that can be performed more reliably, the information terminal 3 uses the image of the 360-degree camera 35 and the GPS function to identify the utility pole number of the utility pole to be passed during the patrol. A patrol inspection system is disclosed that automatically identifies equipment to be inspected installed on utility poles from the image and determines whether or not there is an abnormality based on the detection result of an abnormality detection sensor 36 .
In the patrol inspection system, when it is determined that there is an abnormality, the collected and input inspection results for the facility of the utility pole are stored in the storage unit 34, and when it is determined that there is no abnormality, that When the vehicle passes through the utility pole, the inspection result indicating no abnormality is automatically stored in the storage unit 34, and upon receiving an instruction to end the patrol, the inspection result stored in the storage unit 34 and the image captured by the 360-degree camera 35 are stored. The position information at the time of shooting and the associated image are transmitted to the management server 2 .
保守対象を含む設備を撮影し、撮影により得られた画像から、保守対象の物体の検出及び保守対象の外観に現れる異常の検出を行うために、機械学習又は深層学習により得られる学習済みモデルを用いて推論を行うことが考えられる。
より具体的には、入力された画像内の物体の領域と設備の種類(以下、クラスと呼ぶ)とを特定するために「物体検出モデルによる推論」を行い、特定したクラスに応じて正常又は異常の判定を行う「異常検知モデルによる推論」を行う。
A trained model obtained by machine learning or deep learning is used to detect objects to be maintained and abnormalities appearing in the appearance of the maintenance target from the images obtained by photographing equipment including maintenance targets. It is conceivable to make inferences using
More specifically, in order to identify the area of the object in the input image and the type of equipment (hereinafter referred to as class), "inference by the object detection model" is performed, and depending on the identified class, normal or Perform "inference by anomaly detection model" to judge anomalies.
しかしながら、推論に用いる学習済みモデルの数に対して、推論に用いるデバイスの数が少ない場合には、1つのデバイスに対して学習済みモデルの複数の読み込みを要し、学習済みモデルを推論に用いるデバイスに読み込ませる処理時間により、システム全体の処理速度が低下する、という問題があった。 However, when the number of devices used for inference is small compared to the number of trained models used for inference, it is necessary to load the trained model multiple times for one device, and the trained model is used for inference. There was a problem that the processing speed of the entire system decreased due to the processing time required to load the device.
本発明は、上記に鑑みてなされたものであって、物体検出から異常検知までの処理時間を短縮する技術を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique for shortening the processing time from object detection to abnormality detection.
上述の課題を解決して目的を達成する本発明の一態様は、画像からの対象物体の検出及び該対象物体の異常検知の推論を実行する推論装置であって、第1の物体検出モデルによる前記対象物体の検出の推論を実行する第1プロセッサと、前記第1の物体検出モデルよりも検出精度が高く演算量が大きい第2の物体検出モデルによる前記対象物体の検出の推論を実行する第2プロセッサと、複数の異常検知モデルによる前記対象物体の異常検知の推論を実行する第3プロセッサと、を備え、前記第3プロセッサは、前記第1の物体検出モデルによる推論結果に応じて、複数の異常検知モデルから信頼度の高い順に異常検知モデルを選択し、選択したモデルの信頼度が予め定めた基準値以上である場合には当該異常検知モデルを用いて異常検知の推論を実行し、選択したモデルの信頼度が予め定めた基準値未満である場合には当該異常検知モデルをロード後に前記第2の物体検出モデルによる推論の実行を待ち、前記第2プロセッサは、前記第3プロセッサの選択及び推論と並行して、前記画像からの前記対象物体の検出の推論を実行し、前記第3プロセッサは、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致する場合には、前記ロードした異常検知モデルを用いて異常検知の推論を実行し、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致しない場合には、前記第2の物体検出モデルによる推論結果に応じた異常検知モデルを選択して再ロードし、前記再ロードした異常検知モデルを用いて異常検知の推論を実行する推論装置である。 One aspect of the present invention that solves the above-described problems and achieves the object is an inference device that executes inference for detecting a target object from an image and detecting an anomaly of the target object, the inference device using a first object detection model A first processor that executes inference of detection of the target object; 2 processors, and a third processor that executes inference of anomaly detection of the target object by a plurality of anomaly detection models, wherein the third processor performs a plurality of select an anomaly detection model in descending order of reliability from the anomaly detection models, and if the reliability of the selected model is equal to or higher than a predetermined reference value, execute inference of anomaly detection using the anomaly detection model, If the reliability of the selected model is less than a predetermined reference value, after loading the anomaly detection model, wait for execution of inference by the second object detection model; Inference of detection of the target object from the image is performed in parallel with the selection and inference, and the third processor determines that the inference result of the second object detection model is the inference result of the first object detection model. If the inference result of the second object detection model does not match the inference result of the first object detection model, the inference result of the anomaly detection is executed using the loaded anomaly detection model. is an inference device that selects and reloads an anomaly detection model according to an inference result of the second object detection model, and executes anomaly detection inference using the reloaded anomaly detection model.
上記構成の推論装置において、前記第3プロセッサは複数のプロセッサを備え、複数の前記第3プロセッサの各々は、並行して処理を行うことができる。 In the inference device having the above configuration, the third processor includes a plurality of processors, and each of the plurality of third processors can perform processing in parallel.
本発明によれば、物体検出から異常検知までの処理時間を短縮することができる。 According to the present invention, the processing time from object detection to abnormality detection can be shortened.
以下、添付図面を参照して、本発明を実施するための形態について説明する。
ただし、本発明は、以下の実施形態の記載によって限定解釈されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.
However, the present invention is not to be construed as limited by the description of the following embodiments.
<実施形態>
図1は、本実施形態における推論に用いる情報処理装置100の概略構成を示すブロック図である。
図1に示す情報処理装置100は、メインプロセッサ10と、メインプロセッサ10に接続されたブリッジコントローラ20と、ブリッジコントローラ20を介してメインプロセッサ10に接続されたサブプロセッサ群30と、入力装置40と、を備える。
<Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an
The
メインプロセッサ10は、内蔵型のグラフィックプロセッサ11及びスケジューラ12を含む。
ブリッジコントローラ20は、メインプロセッサ10とサブプロセッサ群30との間に設けられ、メインプロセッサ10とサブプロセッサ群30との間の接続を制御する。
サブプロセッサ群30は、サブプロセッサ31と、サブプロセッサ32と、サブプロセッサ33と、を含む。
入力装置40は、カメラ41及びセンサ42を含む。
The
The
なお、メインプロセッサ10、グラフィックプロセッサ11、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33は、各々推論を行う処理器であり、情報処理装置100に設けられる処理器の個数はこれに限定されるものではない。
また、入力装置40は、メインプロセッサ10に画像データを出力する構成であれば、カメラ及びセンサに限定されるものではない。
The
Also, the
図2は、情報処理装置100で用いる学習済みモデルの例を示す図である。
図2に示すように、情報処理装置100で用いる学習済みモデルは、物体検出モデルAと、物体検出モデルBと、異常検知モデルCと、異常検知モデルDと、異常検知モデルEと、異常検知モデルFと、異常検知モデルGと、異常検知モデルHと、を含む。
物体検出モデルAは、検出精度が高いものの演算量が大きいモデルであり、物体検出モデルBは、検出精度が中程度であるものの演算量が小さいモデルである。
複数の異常検知モデルC~Hは、物体検出モデルA及び物体検出モデルBで検出されるクラス毎に設けられており、これらの各々の間に検出精度及び演算量の差はないものとする。
FIG. 2 is a diagram showing an example of a trained model used in the
As shown in FIG. 2, the trained models used in the
The object detection model A has high detection accuracy but requires a large amount of calculation, and the object detection model B has medium detection accuracy but requires a small amount of calculation.
A plurality of anomaly detection models C to H are provided for each class detected by object detection model A and object detection model B, and there is no difference in detection accuracy or amount of calculation between them.
図3は、比較例における情報処理装置100の動作フローを示す図である。
ここでは、物体検出モデルAは、グラフィックプロセッサ11に予めロードされて保持されており、サブプロセッサ31,32,33には、物体検出モデルAによる推論結果に応じて、複数の異常検知モデルC~Hの各々のいずれかが割り当てられる。
なお、ロードは、学習済みモデルの演算パラメータを、推論を行う処理器のメモリ上に展開する処理であり、ロードにかかる時間は、モデルの演算量に伴って増大する。
すなわち、モデルの演算量が小さければロードにかかる時間が短くなり、モデルの演算量が大きければロードにかかる時間が長くなる。
FIG. 3 is a diagram showing an operational flow of the
Here, the object detection model A is preloaded and held in the
Note that loading is a process of developing computational parameters of a trained model on the memory of a processor that performs inference, and the time required for loading increases with the computational complexity of the model.
That is, the smaller the amount of computation of the model, the shorter the time required for loading, and the larger the amount of computation of the model, the longer the time required for loading.
処理を開始すると、グラフィックプロセッサ11は、物体検出モデルAによる推論を実行する(S1)。
スケジューラ12は、S1の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して異常検知モデルの割り当てを行う(S2)。
When the processing is started, the
The
サブプロセッサ31は、S2の割り当てに応じて、異常検知モデルCをロードし(S3)、異常検知モデルCによる推論を実行し(S4)、異常検知モデルFをロードし(S5)、異常検知モデルFによる推論を実行する(S6)。
サブプロセッサ32は、S2の割り当てに応じて、異常検知モデルDをロードし(S7)、異常検知モデルDによる推論を実行し(S8)、異常検知モデルGをロードし(S9)、異常検知モデルGによる推論を実行する(S10)。
サブプロセッサ33は、S2の割り当てに応じて、異常検知モデルEをロードし(S11)、異常検知モデルEによる推論を実行し(S12)、モデルの変更を行うことなく再度異常検知モデルEによる推論を実行する(S13)。
サブプロセッサ31によるS3~S6の処理、サブプロセッサ32によるS7~S10の処理及びサブプロセッサ33によるS11~S13の処理は、並行して行われる。
S3~S13のすべての処理が完了すると、S3~S13による推論結果は、図示しない出力装置に出力され(S14)、処理を終了する。
The
The
The
The processing of S3 to S6 by the
When all the processes of S3 to S13 are completed, the inference results of S3 to S13 are output to an output device (not shown) (S14), and the process is terminated.
図3に示すフローによれば、物体検出モデルAを用いた高精度な推論結果が得られて高精度な推論結果によって異常検知モデルの割り当てが行われるものの、物体検出モデルAによる推論処理中には、異常検知モデルの割り当てが行われないため、サブプロセッサ31,32,33による推論処理を行うことができない。
また、サブプロセッサ31,32,33に異常検知モデルC~Hのいずれかを予めロードしたとしても、物体検出モデルAによる推論処理の結果によっては、必要な異常検知モデルの一つ又は複数がサブプロセッサ31,32,33にロードされていない事態が頻発することも想定され、情報処理装置100全体における演算時間にばらつきを生じてしまう。
According to the flow shown in FIG. 3, although highly accurate inference results using object detection model A are obtained and assignment of anomaly detection models is performed based on the highly accurate inference results, during inference processing by object detection model A , the
Further, even if one of the anomaly detection models C to H is preloaded in the
なお、検知対象の種類が少ない場合等には、使用が想定されるすべての異常検知モデルをサブプロセッサ31,32,33にロードすることは可能であるが、検出可能な対象の種類が限定されてしまう。
また、検知対象の種類が少なくない場合に、使用が想定されるすべての異常検知モデルをサブプロセッサ31,32,33にロードすることは、サブプロセッサ31,32,33に膨大な記憶容量を要するため困難である。
If the number of types of detection targets is small, all anomaly detection models that are assumed to be used can be loaded into the
In addition, when the types of objects to be detected are not small, loading all the anomaly detection models that are assumed to be used into the
図4は、本実施形態における情報処理装置100の動作フローを示す図である。
図4において、メインプロセッサ10には、検出精度が中程度であるものの演算量が小さいモデルである物体検出モデルBが予めロードされて保持され、グラフィックプロセッサ11には、検出精度が高いものの演算量が大きいモデルである物体検出モデルAが予めロードされて保持されている。
サブプロセッサ31,32,33には、図3と同様に、物体検出モデルAによる推論結果に応じて、複数の異常検知モデルC~Hの各々のいずれかが割り当てられる。
FIG. 4 is a diagram showing an operation flow of the
In FIG. 4, the
One of the plurality of abnormality detection models C to H is assigned to each of the
まず、処理を開始すると、メインプロセッサ10は、物体検出モデルBによる推論を実行する(S101)。
ここでは、物体検出モデルBの推論により、クラスC,D,E,Fが検出されたものとし、クラスCの信頼度が最も高く、クラスCの次にクラスDの信頼度が高く、クラスDの次にクラスEの信頼度が高く、クラスFの信頼度が最も低いものとする。
次に、スケジューラ12は、S101の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して信頼度の高いものから順に異常検知モデルの割り当てを行う(S102)。
グラフィックプロセッサ11は、物体検出モデルAによる推論を実行し(S103)、スケジューラ12は、S103の推論で検出されたクラスに応じて、サブプロセッサ31、サブプロセッサ32及びサブプロセッサ33に対して異常検知モデルの割り当てを行う(S104)。
図4に示すように、S102の処理と、S103,S104の処理とは、並行して進められる。
物体検出モデルA,Bによる推論の実行では、画像内における検出対象物体の領域と、設備の種類であるクラスと、クラスの信頼度(%)と、が得られる。
なお、信頼度は、確度とも呼ばれる。
メインプロセッサ10が行う物体検出モデルBによる推論(S101)による信頼度(%)が高く、予め定められた基準値α以上である場合には、物体検出モデルAによる推論(S103)の結果を待つことなく処理を進める。
図4においては、クラスCの信頼度のみが予め定められた基準値α以上である。
First, when the process is started, the
Here, it is assumed that classes C, D, E, and F have been detected by inference of object detection model B. Class E has the next highest reliability, and Class F has the lowest reliability.
Next, the
The
As shown in FIG. 4, the process of S102 and the processes of S103 and S104 are performed in parallel.
Execution of inference by the object detection models A and B obtains the region of the detection target object in the image, the class as the type of facility, and the confidence level (%) of the class.
Note that reliability is also called accuracy.
If the reliability (%) of the inference (S101) by the object detection model B performed by the
In FIG. 4, only the reliability of class C is equal to or higher than the predetermined reference value α.
サブプロセッサ31は、S102の割り当てに応じて、クラスCの異常検知モデルCをロードし(S105)、異常検知モデルCによる推論を実行する(S106)。
ここで、クラスCの信頼度は、予め定められた基準値α以上であるため、S104の割り当てを待つことなく処理を続行する。
次に、サブプロセッサ31は、クラスFの異常検知モデルFをロードする(S107)。
ここでは、クラスFについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ31は、ロード済みの異常検知モデルFによる推論を実行する(S108)。
なお、クラスFについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ31は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
The sub-processor 31 loads the anomaly detection model C of class C according to the assignment in S102 (S105), and executes inference by the anomaly detection model C (S106).
Here, since the reliability of class C is equal to or greater than the predetermined reference value α, the process continues without waiting for the assignment in S104.
Next, the sub-processor 31 loads the anomaly detection model F of class F (S107).
Here, it is assumed that the assignment of S102 and the assignment of S104 for class F match, and the sub-processor 31 executes inference by the loaded anomaly detection model F (S108).
Note that when the assignment of S102 and the assignment of S104 for class F do not match, the sub-processor 31 reloads the anomaly detection model of another class according to the assignment of S104, and the anomaly detection model perform inference by
サブプロセッサ32は、S102の割り当てに応じて、クラスDの異常検知モデルDをロードする(S109)。
ここで、クラスDの信頼度は、予め定められた基準値α未満であるため、S104の割り当てを待つ。
ここでは、クラスDについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ32は、ロード済みの異常検知モデルDによる推論を実行する(S110)。
なお、クラスDについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ32は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
次に、サブプロセッサ32は、S104の割り当てに応じて、クラスGの異常検知モデルGをロードし(S111)、異常検知モデルGによる推論を実行する(S112)。
The sub-processor 32 loads the anomaly detection model D of class D in accordance with the assignment in S102 (S109).
Here, since the reliability of class D is less than the predetermined reference value α, the assignment of S104 is awaited.
Here, it is assumed that the assignment in S102 and the assignment in S104 are the same for class D, and the sub-processor 32 executes inference by the loaded anomaly detection model D (S110).
Note that when the assignment of S102 and the assignment of S104 for class D do not match, the sub-processor 32 reloads the anomaly detection model of another class according to the assignment of S104, and the anomaly detection model perform inference by
Next, the sub-processor 32 loads the anomaly detection model G of the class G according to the assignment in S104 (S111), and executes inference by the anomaly detection model G (S112).
サブプロセッサ33は、S102の割り当てに応じて、クラスEの異常検知モデルEをロードする(S113)。
ここで、クラスEの信頼度は、予め定められた基準値α未満であるため、S104の割り当てを待つ。
ここでは、クラスEについてS102の割り当てとS104の割り当てとが一致するものとし、サブプロセッサ33は、ロード済みの異常検知モデルEによる推論を実行する(S114)。
なお、クラスEについてS102の割り当てとS104の割り当てとが一致していない場合には、サブプロセッサ33は、S104の割り当てに応じて、他のクラスの異常検知モデルを再ロードし、当該異常検知モデルによる推論を実行する。
The sub-processor 33 loads the anomaly detection model E of class E according to the assignment in S102 (S113).
Here, since the reliability of class E is less than the predetermined reference value α, the assignment of S104 is awaited.
Here, it is assumed that the assignment of S102 and the assignment of S104 for class E match, and the sub-processor 33 executes inference by the loaded anomaly detection model E (S114).
Note that if the assignment of S102 and the assignment of S104 for class E do not match, the sub-processor 33 reloads the anomaly detection model of another class according to the assignment of S104, and perform inference by
なお、サブプロセッサ31によるS105~S108の処理、サブプロセッサ32によるS109~S112の処理及びサブプロセッサ33によるS113~S114の処理は、並行して行われる。
そして、S105~S114のすべての処理が完了すると、S105~S114による推論結果は、図示しない出力装置に出力される(S115)。
The processing of S105 to S108 by the
Then, when all the processes of S105 to S114 are completed, the inference results of S105 to S114 are output to an output device (not shown) (S115).
以上説明したように、比較例によれば物体検出モデルAによる推論の実行後の割り当てに応じてすべての異常検知モデルのロードを行っていたところ、本実施形態では、S104の割り当てよりも前に異常検知モデルD及び異常検知モデルFのロードが行われるため、従来よりも異常検知モデルD又は異常検知モデルFのロードにかかる時間分、物体検出から異常検知までの処理時間を短縮することができる。
従って、本実施形態によれば、物体検出から異常検知までの処理時間を短縮することが可能になる。
As described above, according to the comparative example, all the anomaly detection models are loaded according to the allocation after execution of the inference by the object detection model A. Since the anomaly detection model D and the anomaly detection model F are loaded, the processing time from object detection to anomaly detection can be shortened by the time required for loading the anomaly detection model D or the anomaly detection model F. .
Therefore, according to this embodiment, it is possible to shorten the processing time from object detection to abnormality detection.
なお、本発明は、上述の実施形態に限定されるものではなく、上述の構成に対して、構成要素の付加、削除又は転換を行った様々な変形例も含むものとする。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications in which components are added, deleted, or converted to the above-described configuration.
10 メインプロセッサ
11 グラフィックプロセッサ
12 スケジューラ
20 ブリッジコントローラ
30 サブプロセッサ群
31,32,33 サブプロセッサ
40 入力装置
41 カメラ
42 センサ
100 情報処理装置
10
Claims (2)
第1の物体検出モデルによる前記対象物体の検出の推論を実行する第1プロセッサと、
前記第1の物体検出モデルよりも検出精度が高く演算量が大きい第2の物体検出モデルによる前記対象物体の検出の推論を実行する第2プロセッサと、
複数の異常検知モデルによる前記対象物体の異常検知の推論を実行する第3プロセッサと、を備え、
前記第3プロセッサは、前記第1の物体検出モデルによる推論結果に応じて、複数の異常検知モデルから信頼度の高い順に異常検知モデルを選択し、選択したモデルの信頼度が予め定めた基準値以上である場合には当該異常検知モデルを用いて異常検知の推論を実行し、選択したモデルの信頼度が予め定めた基準値未満である場合には当該異常検知モデルをロード後に前記第2の物体検出モデルによる推論の実行を待ち、
前記第2プロセッサは、前記第3プロセッサの選択及び推論と並行して、前記画像からの前記対象物体の検出の推論を実行し、
前記第3プロセッサは、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致する場合には、前記ロードした異常検知モデルを用いて異常検知の推論を実行し、前記第2の物体検出モデルによる推論結果が前記第1の物体検出モデルによる推論結果と一致しない場合には、前記第2の物体検出モデルによる推論結果に応じた異常検知モデルを選択して再ロードし、前記再ロードした異常検知モデルを用いて異常検知の推論を実行する推論装置。 An inference device for detecting a target object from an image and inferring anomaly detection of the target object,
a first processor that performs inference of detection of the target object by a first object detection model;
a second processor for inferring detection of the target object by a second object detection model having higher detection accuracy and a larger amount of computation than the first object detection model;
a third processor that performs inference of anomaly detection of the target object by a plurality of anomaly detection models;
The third processor selects an anomaly detection model from a plurality of anomaly detection models in descending order of reliability according to the inference result of the first object detection model, and the reliability of the selected model is a predetermined reference value. In the case above, inference of anomaly detection is executed using the anomaly detection model, and when the reliability of the selected model is less than a predetermined reference value, after loading the anomaly detection model, the second Wait for the object detection model to perform inference,
the second processor performs inference of detection of the target object from the image in parallel with the selection and inference of the third processor;
The third processor executes inference of anomaly detection using the loaded anomaly detection model when the inference result of the second object detection model matches the inference result of the first object detection model. , if the result of inference by the second object detection model does not match the result of inference by the first object detection model, the anomaly detection model corresponding to the result of inference by the second object detection model is selected and re-selected. An inference device that loads and performs anomaly detection inference using the reloaded anomaly detection model.
複数の前記第3プロセッサの各々は、並行して処理を行う請求項1に記載の推論装置。 the third processor comprises a plurality of processors;
2. The reasoning apparatus according to claim 1, wherein each of said plurality of third processors performs processing in parallel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021081344A JP2022175146A (en) | 2021-05-13 | 2021-05-13 | inference device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021081344A JP2022175146A (en) | 2021-05-13 | 2021-05-13 | inference device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022175146A true JP2022175146A (en) | 2022-11-25 |
Family
ID=84145018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021081344A Pending JP2022175146A (en) | 2021-05-13 | 2021-05-13 | inference device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022175146A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7311820B1 (en) | 2022-11-30 | 2023-07-20 | ダイトロン株式会社 | Abnormality determination method, abnormality determination device, and program |
-
2021
- 2021-05-13 JP JP2021081344A patent/JP2022175146A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7311820B1 (en) | 2022-11-30 | 2023-07-20 | ダイトロン株式会社 | Abnormality determination method, abnormality determination device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242943B (en) | Image processing method, image processing apparatus, storage medium, and image processing device | |
KR20200004823A (en) | Display screen peripheral circuit detection method, device, electronic device and storage medium | |
JP2022175146A (en) | inference device | |
US20190355112A1 (en) | System and method of distributed processing for machine-vision analysis | |
CN111240974B (en) | Log output method and device, electronic equipment and medium | |
CN111950633A (en) | Neural network training method, neural network target detection method, neural network training device, neural network target detection device and storage medium | |
CN114637321A (en) | Cable monitoring system based on image data optimization path | |
US11496567B2 (en) | Data processing method, apparatus, device and storage medium based on unmanned vehicle | |
CN111651350A (en) | Test case processing method, device and equipment and computer readable storage medium | |
CN116414542A (en) | Task scheduling method, device, equipment and storage medium | |
CN114896168B (en) | Quick debugging system, method and memory for automatic driving algorithm development | |
CN109032853B (en) | Method and device for controlling FPGA card group | |
CN111859370B (en) | Method, apparatus, electronic device and computer readable storage medium for identifying service | |
CN114034972A (en) | Intelligent cable fault determination method and device based on image data | |
US11120541B2 (en) | Determination device and determining method thereof | |
US11886327B2 (en) | Training a system to recognize scroll bars in an application under test | |
CN113849663B (en) | Fault monitoring method, system and computer medium for camera collaborative knowledge map | |
CN114298990B (en) | Detection method and device of vehicle-mounted image pickup device, storage medium and vehicle | |
CN117349775B (en) | Cluster computing-oriented abnormal subtask identification method and device | |
EP4092315A1 (en) | System and method for inspecting stability of heat transfer pipe by using drone | |
JP2008076231A (en) | Tire visual inspection device | |
CN114327638A (en) | Monitoring document generation method and device, computer equipment and readable storage medium | |
CN117931361A (en) | Virtual machine starting control method, device, equipment and medium based on machine learning | |
US20210303445A1 (en) | Scanner software module for high system utilization | |
JP6678823B1 (en) | Data processing device, task control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230830 |