JP2022548438A - Defect detection method and related apparatus, equipment, storage medium, and computer program product - Google Patents

Defect detection method and related apparatus, equipment, storage medium, and computer program product Download PDF

Info

Publication number
JP2022548438A
JP2022548438A JP2021567817A JP2021567817A JP2022548438A JP 2022548438 A JP2022548438 A JP 2022548438A JP 2021567817 A JP2021567817 A JP 2021567817A JP 2021567817 A JP2021567817 A JP 2021567817A JP 2022548438 A JP2022548438 A JP 2022548438A
Authority
JP
Japan
Prior art keywords
defect detection
defect
image
target
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021567817A
Other languages
Japanese (ja)
Inventor
徐子豪
▲費▼敬敬
▲楊▼▲凱▼
▲呉▼立威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2022548438A publication Critical patent/JP2022548438A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本願は、欠陥検出方法、関連装置、機器及び記憶媒体を開示する。欠陥検出方法は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることであって、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含む、ことと、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することと、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得ることと、を含む。上記解決手段によれば、欠陥検出漏れ率及び誤検出率を低下させることができる。The present application discloses a defect detection method, related apparatus, equipment and storage medium. The defect detection method is to perform a first target detection on the image to be detected and obtain a target detection result, the target detection result being a first class target and a first class in the image to be detected. obtaining an image area containing the target of the first class based on the first position information; performing defect detection on the image area; obtaining defect detection results for the target. According to the above solution, it is possible to reduce the defect detection omission rate and the false detection rate.

Description

(関連出願の相互参照)
本願は、2020年08月19日に提出された、出願番号が202010837709.2である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Cross reference to related applications)
This application claims priority from a Chinese patent application with application number 202010837709.2 filed on Aug. 19, 2020, the entire content of which is incorporated herein by reference.

本願は、画像処理分野に関するが、これに限定されず、特に欠陥検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラム製品に関する。 The present application relates to the field of image processing, but is not limited to it, and more particularly to defect detection methods and related apparatus, equipment, storage media, and computer program products.

現在では、環境における機器に対する保護を補強するために、一般的には、環境における機器に対して欠陥検出を行い、機器の欠陥を直ぐに発見することを確保し、更にメンテナンスを行う必要がある。 Currently, in order to reinforce the protection of equipment in the environment, it is generally necessary to perform fault detection on the equipment in the environment to ensure that defects in the equipment are immediately discovered, and to perform further maintenance.

関連技術において、機器の欠陥検出は、機器の画像を撮影し、該画像を手動で検査し、欠陥が存在するかどうかを決定する。しかしながら、手動で欠陥検出を行う場合、人為的不注意による検出漏れ又は誤検出が発生しやすい。従って、欠陥の検出漏れ率を低下させ、欠陥検出の正確性を向上させるために、欠陥検出を如何に行うかは、現在では、極めて重要な課題である。 In the related art, equipment defect detection involves taking an image of the equipment and manually inspecting the image to determine if a defect is present. However, when performing manual defect detection, detection omissions or erroneous detections are likely to occur due to human carelessness. Therefore, how to perform defect detection in order to reduce the defect detection omission rate and improve the accuracy of defect detection is now an extremely important issue.

本願の実施例は少なくとも、欠陥検出方法及び関連装置、機器、記憶媒体、並びにコンピュータプログラム製品を提供する。 Embodiments of the present application provide at least defect detection methods and related apparatus, apparatus, storage media, and computer program products.

本願の実施例は、欠陥検出方法を提供する。前記方法は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることであって、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含む、ことと、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することと、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得ることと、を含む。 Embodiments of the present application provide a defect detection method. The method is performing a first target detection on an image to be detected to obtain a target detection result, the target detection result comprising a first class target and a first class target in the image to be detected. obtaining an image region including the first class target based on the first position information; performing defect detection on the image region to detect the first class target; and obtaining defect detection results associated with.

従って、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 Therefore, first, the position of the first class target in the image to be detected is detected, and then defect detection is performed on the image region containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

本願の幾つかの実施例において、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得ることは、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、第1欠陥検出結果は、第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含む、こと、及び/又は、画像領域に対して分類を行い、第2欠陥検出結果を得ることであって、第2欠陥検出結果は、第1クラスのターゲットが属する第2欠陥の情報を含む、ことを含む。 In some embodiments of the present application, performing defect detection on an image region and obtaining defect detection results for a first class of targets may include performing a second target detection on an image region, performing a first defect detection, obtaining a result, the first defect detection result comprising information of at least one first defect present in the target of the first class; and/or performing classification on the image region; Obtaining a second defect detection result, the second defect detection result including information of a second defect to which the first class of targets belongs.

従って、複数の方式により、第1クラスのターゲットを含む画像領域に対して検出を行うことによって、異なる第1クラスのターゲットに対して、異なる検出方式を用い、欠陥検出に、より高い目的性を持たせることができる。それにより得られた欠陥検出結果がより正確である。又は、同一の第1クラスのターゲットに対して異なる検出方式を行い、続いて各異なる欠陥検出方式をまとめることによって得られた検出されるべき画像の最終的な欠陥検出結果がより正確であり、誤検出率を更に低減させる。 Therefore, by performing detection on an image region containing the first class targets using a plurality of methods, different detection methods can be used for different first class targets, making defect detection more objective. can have. The resulting defect detection results are more accurate. or the final defect detection result of the image to be detected obtained by performing different detection schemes on the same first class target and then combining each different defect detection scheme is more accurate, Further reduce the false positive rate.

本願の幾つかの実施例において、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関する欠陥検出結果を得ることは、第1クラスのターゲットが第1サブクラスのターゲットである場合、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行することと、第1クラスのターゲットが第2サブクラスのターゲットである場合、画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行することと、を含む。 In some embodiments of the present application, performing defect detection on an image region and obtaining defect detection results for a first class of targets may include: if the first class target is a first subclass target, the image region performing a second target detection on the image region to obtain a first defect detection result; and performing the step of obtaining defect detection results.

従って、異なるターゲット対象に対して異なる欠陥検出方式を用いることによって、欠陥検出をより柔軟にする。全ての種類のターゲットに対して同一の検出方式を用いることに比べて、より高い目的性を有し、欠陥検出結果がより正確になる。 Therefore, using different defect detection schemes for different target objects makes defect detection more flexible. Compared to using the same detection scheme for all types of targets, it is more purposeful and results in more accurate defect detection results.

本願の幾つかの実施例において、第1欠陥検出結果は、各種の第1欠陥の位置情報及び第1欠陥に属する第1確率を含み、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、方法は、各種の第1欠陥の位置情報に応じて、検出されるべき画像における各種の第1欠陥の欠陥領域をそれぞれ決定し、異なる欠陥領域間の重複領域に対して重複排除処理を行うことと、第1確率が第1フィルタリング条件を満たす第1欠陥をフィルタリングすることと、のうちの少なくとも1つを含む。 In some embodiments of the present application, the first defect detection result includes location information of various first defects and a first probability belonging to the first defect; After obtaining the defect detection result, the method respectively determines the defect areas of each kind of first defect in the image to be detected according to the position information of each kind of first defect, and determines the overlapping area between the different defect areas. and filtering first defects whose first probability satisfies a first filtering condition.

従って、第1サブクラスのターゲットにおける第1欠陥の確率及び第1サブクラスのターゲットを含む画像領域における位置情報を取得し、且つ該位置情報に基づいて、検出されるべき画像における、第1欠陥に対応する領域を見付け、重複部分に対して重複排除処理を行うことによって、1つの第1欠陥を1つの欠陥領域に対応させ、1つの欠陥に対して複数回の後続処理を行うという問題を減少させ、最終的な出力の正確率を向上させる。フィルタリング条件を満たす領域を削除することによって、後続で処理される領域の数を減少させ、処理効率を向上させることができる。 Therefore, obtaining position information in an image region containing the probability of the first defect in the first subclass of targets and the first subclass of targets, and corresponding to the first defect in the image to be detected based on the position information. By finding the areas to be processed and de-duplicating the overlapping parts, one first defect corresponds to one defect area and the problem of multiple subsequent processes for one defect is reduced. , to improve the accuracy rate of the final output. By removing regions that satisfy the filtering conditions, the number of regions to be subsequently processed can be reduced and processing efficiency can be improved.

本願の幾つかの実施例において、第1フィルタリング条件は、第1確率が第1確率閾値よりも低いことであり、及び/又は、異なる欠陥領域間の重複領域に対して重複排除処理を行うことは、異なる欠陥領域間の重複領域に対して非極大値抑制を行うことを含む。 In some embodiments of the present application, the first filtering condition is that the first probability is lower than the first probability threshold, and/or performing de-duplication on overlapping regions between different defect regions. involves performing non-maximal suppression on overlap regions between different defect regions.

従って、欠陥確率が低いものを削除することによって、多くの不必要な処理領域を減少させ、処理効率を向上させる。非極大値抑制の方式により重複排除を行うことによって、欠陥確率がより大きい欠陥領域を残すことができ、処理効率を向上させると同時に、欠陥検出の正確率を向上させることもできる。 Therefore, by removing those with low defect probabilities, many unnecessary processing areas are reduced and processing efficiency is improved. Deduplication using the non-maximal value suppression method can leave defective areas with a higher defect probability, thereby improving the processing efficiency and at the same time improving the accuracy rate of defect detection.

本願の幾つかの実施例において、第2欠陥検出結果は、第1クラスのターゲットが第2欠陥に属する第2確率を含み、画像領域に対して分類を行い、第2欠陥検出結果を得ることは、画像領域に対して分類を行い、第1クラスのターゲットが各種の所定の欠陥に属する確率を得ることと、各種の所定の確率を加算し、第1クラスのターゲットが第2欠陥に属する第2確率を得ることと、を含む。 In some embodiments of the present application, the second defect detection result includes a second probability that the target of the first class belongs to the second defect, and performing classification on the image region to obtain the second defect detection result. performs a classification on the image region to obtain the probability that the target of the first class belongs to each of the given defects, and adds the various given probabilities that the target of the first class belongs to the second defect. obtaining a second probability.

従って、複数種の所定の欠陥の確率を総合することによって、該第1クラスのターゲットの欠陥確率を決定する。第1クラスのターゲットが各種の所定の欠陥に属する可能性を広く考慮することによって、第1クラスのターゲットの欠陥確率をより正確にする。 Therefore, the defect probability of the target of the first class is determined by summing the probabilities of a plurality of types of predetermined defects. The defect probabilities of the first class targets are made more accurate by broadly considering the likelihood that the first class targets belong to various given defects.

本願の幾つかの実施例において、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることは、欠陥検出モデルの第1領域検出ネットワークを利用して、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることを含み、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることは、欠陥検出モデルの第2領域検出ネットワークを利用して、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い、ことを含み、画像領域に対して分類を行い、第2欠陥検出結果を得ることは、欠陥検出モデルの分類ネットワークを利用して、画像領域に対して分類を行い、第2欠陥検出結果を得ることを含む。 In some embodiments of the present application, performing first target detection on the image to be detected and obtaining target detection results utilizes a first region detection network of the defect detection model to detect Performing a first target detection on the image to obtain a target detection result; Performing a second target detection on the image region to obtain the first defect detection result comprises detecting a second region of the defect detection model using a network to perform second target detection on an image area to obtain a first defect detection result, wherein the depth of the second area detection network is shallower than the depth of the first area detection network. Classifying the image region to obtain the second defect detection result includes classifying the image region to obtain the second defect detection result using a classification network of defect detection models. Including getting.

従って、各異なる部材に異なる欠陥が存在する可能性があるという特徴を考慮して、異なるネットワークモデルを利用して段階的に検出を行うことによって、単一の検出ネットワークを用いる場合に検出漏れ率が高いという問題を一定の程度で軽減させることができる。それと同時に、第2ターゲット検出に用いられるネットワークモデルの深さが第1ターゲット検出に用いられるネットワークモデルの深さよりも浅いため、第2ターゲット検出プロセスにおける演算量を減少させ、検出効率を向上させることができる。 Therefore, by taking into account the feature that different defects may be present in each different component, and performing stepwise detection using different network models, the false detection rate is reduced when using a single detection network. To some extent, the problem of high At the same time, since the depth of the network model used for the second target detection is shallower than the depth of the network model used for the first target detection, the amount of computation in the second target detection process is reduced and the detection efficiency is improved. can be done.

本願の幾つかの実施例において、ターゲット検出結果は、第2クラスのターゲット及び第2クラスのターゲットの、検出されるべき画像における第2位置情報を更に含み、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、方法は、第2クラスのターゲットを検出されるべき画像における第3欠陥として決定し、第2クラスのターゲット及びその第2位置情報を第2クラスのターゲットに関わる欠陥検出結果とすることを更に含む。 In some embodiments of the present application, the target detection result further includes a second class of targets and second position information of the second class of targets in the image to be detected; After performing one target detection and obtaining the target detection result, the method determines the second class of targets as the third defect in the image to be detected, and converts the second class of targets and their second position information to the second It further includes making the defect detection result related to the target of the class.

従って、存在しないはずの第2クラスのターゲットを第3欠陥とすることによって、1つの欠陥検出モデルは、複数種のターゲットに対して検出を行うことができ、欠陥検出モデルの適応性を向上させる。 Therefore, one defect detection model can detect a plurality of types of targets by making the second class targets, which should not exist, the third defects, thereby improving the adaptability of the defect detection model. .

本願の幾つかの実施例において、欠陥検出結果を得た後、方法は、欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、検出されるべき画像の最終的欠陥検出結果を得ることを更に含む。 In some embodiments of the present application, after obtaining the defect detection results, the method includes filtering defects satisfying a second filtering condition in the defect detection results to obtain a final defect detection result for the image to be detected. Including further.

従って、条件を満たさない条件をフィルタリングすることによって、明らかに不当な欠陥を減少させ、最終的に得られた欠陥検出結果をより正確にする。 Therefore, by filtering unsatisfied conditions, the number of apparently unwarranted defects is reduced and the final defect detection results obtained are more accurate.

本願の幾つかの実施例において、欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングすることは、欠陥検出結果における欠陥の位置情報を利用して欠陥の寸法を得、欠陥検出結果における、寸法が所定の寸法条件を満たさない欠陥をフィルタリングすること、及び/又は、欠陥検出結果における確率が第2確率閾値よりも低い欠陥をフィルタリングすることを含む。 In some embodiments of the present application, filtering the defects that satisfy the second filtering condition in the defect detection results includes obtaining the dimensions of the defects by using the position information of the defects in the defect detection results, and obtaining the dimensions of the defects in the defect detection results. does not meet a predetermined dimensional condition and/or filtering defects whose probability in the defect detection result is lower than a second probability threshold.

従って、寸法又は確率が条件を満たさないものをフィルタリングすることによって、明らかに不当な欠陥を減少させ、最終的に得られた欠陥検出結果をより正確にする。 Therefore, by filtering those whose dimensions or probabilities are unsatisfactory, apparently unwarranted defects are reduced and the final defect detection results obtained are more accurate.

本願の幾つかの実施例において、検出されるべき画像の最終的欠陥検出結果を得た後、方法は、最終的欠陥検出結果における各欠陥の確率の降順に応じて、最終的欠陥検出結果における各欠陥の情報を出力することを更に含む。 In some embodiments of the present application, after obtaining the final defect detection result of the image to be detected, the method performs: Further including outputting information for each defect.

従って、各欠陥の確率の降順に応じて、最終的欠陥検出結果における各欠陥の情報を出力することによって、出力結果をよりスッキリさせ、後続の更なる観察に寄与する。 Therefore, outputting the information of each defect in the final defect detection result according to the descending order of the probability of each defect makes the output result clearer and contributes to subsequent further observation.

本願の幾つかの実施例において、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することは、第1位置情報に基づいて、検出されるべき画像から、第1クラスのターゲットに対応するターゲット領域を決定することと、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張することと、検出されるべき画像から、外側へ拡張されたターゲット領域を抽出し、第1クラスのターゲットを含む画像領域を得ることと、を含む。 In some embodiments of the present application, obtaining an image region containing a target of the first class based on the first positional information includes: expanding the target area outward by a predetermined multiple in the image to be detected; and extracting the outwardly expanded target area from the image to be detected. , obtaining an image region containing the first class of targets.

従って、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張することによって、第1クラスのターゲットに対応するターゲット領域を含むものを取得した後に、一部の背景情報を残すことができ、第1クラスのターゲットに対する欠陥検出の正確度を向上させることができる。 Thus, by extending the target region outward by a predetermined factor in the image to be detected, some background information can be left after obtaining one containing the target region corresponding to the first class of targets. , the accuracy of defect detection for first class targets can be improved.

本願の幾つかの実施例において、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、方法は、初期画像をスケーリングし、所定のサイズの画像を得ることと、スケーリング後の初期画像の画素値を所定の画素値範囲に圧縮することと、圧縮された初期画像に対して正規化処理を行い、検出されるべき画像を得ることと、を更に含む。 In some embodiments of the present application, before performing first target detection on the image to be detected and obtaining target detection results, the method includes scaling the initial image to obtain an image of a predetermined size. , compressing the pixel values of the scaled initial image to a predetermined pixel value range; and performing a normalization process on the compressed initial image to obtain the image to be detected.

従って、取得した初期画像の寸法又は画素に対して処理を行うことによって、統一した画像スタイルを得、入力画像のロバスト性を一定の程度で向上させる。 Therefore, by operating on the dimensions or pixels of the initial image obtained, a uniform image style is obtained and the robustness of the input image is improved to some extent.

本願の幾つかの実施例において、第1ターゲット検出及び欠陥検出は、欠陥検出モデルにより実行され、欠陥検出モデルは少なくとも、第1サンプル集合を取得するステップであって、第サンプル集合は少なくとも1つのサンプル画像を含み、サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、ターゲットは第1クラスのターゲットを含む、ステップと、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得るステップと、真実の欠陥情報及び欠陥検出結果を利用して、欠陥検出モデルのパラメータを調整するステップと、によって、訓練されたものである。 In some embodiments herein, the first target detection and defect detection are performed by a defect detection model, the defect detection model at least obtaining a first sample set, the first sample set comprising at least one a sample image, wherein the sample image is annotated with true defect information about the target, the target comprising a first class of targets; and obtaining defect detection results for the target, and using the true defect information and defect detection results to adjust the parameters of the defect detection model.

従って、上記方式により訓練された欠陥検出モデルの正確度がより高く、それにより第1ターゲット検出及び欠陥検出を行い、検出結果をより正確にする。 Therefore, the accuracy of the defect detection model trained by the above method is higher, thereby performing the first target detection and defect detection, making the detection result more accurate.

本願の幾つかの実施例において、欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各グラフィックプロセッサが取得した第1サンプル集合は異なり、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得ることは、各グラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期し、各グラフィックプロセッサにおけるバッチ標準化層の同期後に欠陥検出モデルを利用して、サンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得ることを含み、真実の欠陥情報及び欠陥検出結果を利用して、欠陥検出モデルのパラメータを調整することは、全ての欠陥検出結果と真実の欠陥情報に基づいて、欠陥検出モデルの平均損失値を決定することと、平均損失値を利用して、欠陥検出モデルのパラメータを調整することと、を含む。 In some embodiments of the present application, the defect detection model is jointly trained by a plurality of graphics processors, each graphics processor obtains a different first sample set, and the defect detection model is used to obtain a first Performing detection on the sample images in the sample set to obtain defect detection results relative to the target includes: synchronizing batch normalization layers of defect detection models in each graphics processor; Using the model to perform detection on a sample image to obtain defect detection results for a target, and using real defect information and defect detection results to adjust the parameters of the defect detection model. , determining an average loss value of the defect detection model based on all defect detection results and true defect information; and using the average loss value to adjust parameters of the defect detection model.

従って、複数のグラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期させることによって、グローバルな第1サンプル集合を利用して正規化を行うことができ、バッチサイズの増大に相当する。それにより複数のグラフィックプロセッサの使用による影響を減少させる。また、複数のグラフィックプロセッサにより、欠陥検出モデルを訓練することによって、訓練速度を速くする。 Therefore, by synchronizing the batch normalization layers of the defect detection model on multiple graphics processors, the global first sample set can be used for normalization, corresponding to an increase in batch size. This reduces the impact of using multiple graphics processors. Also, training the defect detection model with multiple graphics processors speeds up the training.

本願の幾つかの実施例において、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得る前に、方法は、第2サンプル集合を利用して、欠陥検出モデルに対して事前訓練を行うステップと、第1サンプル集合を利用して、欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを更に含み、予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、所定の学習率まで次第に増大するものであり、第1サンプル集合におけるサンプル画像は少なくとも、元画像に対して前処理を行い、サンプル画像を得るステップにより得られたものであり、前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含む。 In some embodiments of the present application, the defect detection model is used to perform detection on the sample images in the first sample set, and before obtaining defect detection results for the target, the method performs detection on the second sample set. pre-training a defect detection model using the first sample set; pre-training a defect detection model using the first sample set; The learning rate used in the training process gradually increases from a first learning rate lower than the predetermined learning rate to the predetermined learning rate, and the sample images in the first sample set are at least It is obtained by preprocessing and obtaining a sample image, and the preprocessing method includes at least one of scale conversion, color conversion, horizontal flip, vertical flip, rotation, and cropping.

従って、欠陥検出モデルを正式に訓練する前に、まず、第2サンプル集合を利用して、欠陥検出モデルに対して事前訓練を行うことによって、欠陥検出モデルのパラメータを初期化するか、又は、正式な訓練の前に、学習率を初期化し、元画像に対して前処理を行うことによって、欠陥検出モデルの適応性を向上させる。 Therefore, before formally training the defect detection model, first initialize the parameters of the defect detection model by pre-training the defect detection model using the second set of samples, or Prior to formal training, we initialize the learning rate and perform preprocessing on the original images to improve the adaptability of the defect detection model.

本願の実施例は、欠陥検出装置を提供する。前記装置は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成される第1ターゲット検出モジュールであって、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含む、第1ターゲット検出モジュールと、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得するように構成される画像領域取得モジュールと、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得るように構成される欠陥検出モジュールと、を備える。 Embodiments of the present application provide a defect detection apparatus. The apparatus comprises a first target detection module configured to perform a first target detection on an image to be detected and obtain a target detection result, the target detection result comprising a first class of targets and detections a first target detection module comprising first position information of a first class target in an image to be scanned; and based on the first position information, configured to obtain an image region containing the first class target. An image area acquisition module and a defect detection module configured to perform defect detection on the image area and obtain defect detection results for a first class of targets.

本願の実施例は、電子機器を提供する。前記電子機器は、メモリと、プロセッサと、を備え、プロセッサは、メモリに記憶されたプログラム命令を実行して、上記欠陥検出方法の一部又は全部のステップを実行するように構成される。 An embodiment of the present application provides an electronic device. The electronic device comprises a memory and a processor, the processor configured to execute program instructions stored in the memory to perform some or all of the steps of the defect detection method.

本願の実施例は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にはプログラム命令が記憶されており、プログラム命令は、プロセッサにより実行される時、プロセッサに上記欠陥検出方法の一部又は全部のステップを実行させる。 Embodiments of the present application provide a computer-readable storage medium. The computer-readable storage medium stores program instructions which, when executed by a processor, cause the processor to perform some or all of the steps of the defect detection method.

本願の実施例は、コンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、コンピュータプログラムを記憶している非一時的コンピュータ可読記憶媒体を含み、前記コンピュータプログラムがコンピュータにより読み取られて実行される時、コンピュータに本願の実施例に記載の方法の一部又は全部のステップを実行させる。該コンピュータプログラム製品は、ソフトウェアインストールパッケージであってもよい。 An embodiment of the present application provides a computer program product. The computer program product includes a non-transitory computer-readable storage medium storing a computer program, which when read and executed by a computer, causes a computer to perform a part of the methods described in the embodiments herein. Or run all steps. The computer program product may be a software installation package.

本願の実施例において、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 In an embodiment of the present application, first, the position of the first class target in the image to be detected is detected, and then defect detection is performed on the image region containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。 It is to be understood that the general descriptions above and the detailed descriptions that follow are exemplary and explanatory only and are not restrictive.

本願の実施例による欠陥検出方法を示すフローチャートである。4 is a flow chart illustrating a defect detection method according to an embodiment of the present application; 本願の実施例による欠陥検出方法の状態を示す概略図である。It is a schematic diagram showing the state of the defect detection method according to the embodiment of the present application. 本願の実施例による欠陥検出方法における検出されるべき画像を示す概略図である。FIG. 3 is a schematic diagram showing an image to be detected in a defect detection method according to an embodiment of the present application; 本願の実施例による欠陥検出方法における画像領域を示す概略図である。FIG. 2 is a schematic diagram showing an image area in a defect detection method according to an embodiment of the present application; 本願の実施例による欠陥検出方法の実現フローを示す概略図である。1 is a schematic diagram showing an implementation flow of a defect detection method according to an embodiment of the present application; FIG. 本願の実施例による画像前処理モジュールの実現フローを示す概略図である。FIG. 4 is a schematic diagram illustrating an implementation flow of an image preprocessing module according to an embodiment of the present application; 本願の実施例による一次部材検出モジュールのネットワーク構造を示す概略図である。FIG. 3 is a schematic diagram illustrating a network structure of primary member detection modules according to an embodiment of the present application; 本願の実施例による振動ダンパーの分類認識の実現フローを示す概略図である。FIG. 4 is a schematic diagram showing an implementation flow of vibration damper classification recognition according to an embodiment of the present application; 本願の実施例による二次碍子自爆検出モジュールのネットワーク構造を示す概略図である。FIG. 4 is a schematic diagram showing a network structure of a secondary insulator self-destruction detection module according to an embodiment of the present application; 本願の実施例による欠陥検出装置の構造を示す概略図である。1 is a schematic diagram showing the structure of a defect detection device according to an embodiment of the present application; FIG. 本願の実施例による電子機器の構造を示す概略図である。1 is a schematic diagram showing the structure of an electronic device according to an embodiment of the present application; FIG. 本願の実施例によるコンピュータ可読記憶媒体の構造を示す概略図である。1 is a schematic diagram showing the structure of a computer-readable storage medium according to an embodiment of the present application; FIG.

ここで添付した図面は、明細書に引き入れて本明細書の一部を構成し、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。 The drawings attached hereto are taken into the specification and constitute a part of the specification, show the embodiments compatible with the application, and are used to interpret the technical solution of the application together with the specification.

以下、明細書の図面を参照しながら、本願の実施例の解決手段を詳しく説明する。 Hereinafter, the solutions of the embodiments of the present application will be described in detail with reference to the drawings of the specification.

下記説明において、本願の実施例を深く理解するために、特定システム構造、インタフェース、技術等の具体的な細部を提出し、これは、本願を解釈するためのものに過ぎず、本願を限定するためのものではない。 In the following description, specific details such as specific system architectures, interfaces, techniques, etc. are presented in order to better understand the embodiments of the present application, and are for the purpose of interpreting the present application only, and not limiting the present application. not for

本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。なお、本明細書において、文字「/」は一般的には、前後関連対象が「又は」という関係であることを示す。また、本明細書における「複数」は、2つ又は2つより多いことを表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。 As used herein, the term “and/or” is used to describe a related relationship between related objects, and indicates that there are three types of relationships. For example, A and/or B represents three cases: only A is present, A and B are present at the same time, and only B is present. In this specification, the character "/" generally indicates that the contextual object is "or". Also, "plurality" in this specification means two or more than two. Also, as used herein, the term "at least one" represents any one of the plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C means including any one or more elements selected from the set consisting of A, B, and C.

本願の実施例で提供される欠陥検出方法をより良く理解するために、以下では、まず、関連技術における欠陥検出方法を説明する。 In order to better understand the defect detection methods provided in the embodiments of the present application, the following first describes the defect detection methods in the related art.

配電網送電線における欠陥検出を例として、わが国には、百万キロメートルを超える高圧送電線がある。これらの線路に対して、巡回検査、養生及び補修を定期的に行う必要がある。しかしながら、大部の高圧送電線が無人エリアに架設されており、配電網に対する巡回検査の場合、飛行機により送電線に対して空撮を行い、空撮ビデオを肉眼で観察するという方式で、巡回検査を行う。効率を向上させるために、関連技術において、画像処理、機械学習に基づく部材欠陥検出の解決手段を用いる。該解決手段において、検出漏れ率が高く、ビデオ撮影に求められる条件も高い。関連技術において、高解像度カメラが取り付けられている無人機を用いて、送電線を空撮することによって、全体の収集撮影品質を向上させ、コストを低下させる。しかしながら、依然として手動で欠陥検出を行うため、検出漏れ率及び誤検出率は依然として高い。深層学習モデルがコンピュータビジョン領域において飛躍的な進歩を遂げたことに伴い、コンピュータビジョンの各基本タスクの性能指標は大幅に向上した。全てのモデルは、学術的データ集合に関わるタスク向けのものであり、電力巡回検査に対して単独で設計された検出認識解決手段がない。無人機により空撮された画像のスケールが極めて大きく、配電網に対する巡回検査において検出される碍子自爆領域、振動ダンパー、鳥の巣などがいずれも小さいターゲットであるため、異常欠陥を直接的に検出ターゲットとして検出を行うと、大量の誤検出及び検出漏れが発生し、検出効果が極めて低い。 Taking fault detection in distribution grid transmission lines as an example, there are more than one million kilometers of high-voltage transmission lines in our country. It is necessary to periodically conduct patrol inspection, curing and repair for these tracks. However, most of the high-voltage transmission lines are laid in unmanned areas, and in the case of patrol inspections of the distribution network, aerial photography of the transmission lines is taken by airplane, and the aerial video is observed with the naked eye. conduct an inspection. To improve efficiency, the related art employs image processing, machine learning based component defect detection solutions. In this solution, the detection failure rate is high, and the requirements for video shooting are high. In related art, drones fitted with high-definition cameras are used to take aerial photographs of power lines to improve the quality of the overall collection and reduce costs. However, because defect detection is still performed manually, false positive and false positive rates are still high. As deep learning models have made breakthroughs in the computer vision domain, performance indicators for each basic task in computer vision have improved significantly. All models are aimed at tasks involving academic datasets, and there is no detection and recognition solution designed solely for power patrols. The scale of the aerial image taken by the drone is extremely large, and the insulator self-destruction area, vibration damper, bird's nest, etc. detected during patrol inspections of the power distribution network are all small targets, so abnormal defects can be detected directly. Targeted detection results in a large number of false positives and negative detections, and the detection effectiveness is extremely low.

上記関連技術における欠陥検出方法に下記問題がある。1)訓練プロセスが煩わしく、検出漏れ率及び誤検出が高い。2)CPUを用いて推論を行うため、試験速度が遅い。3)電力シーンに対して、アルゴリズムを改良していない。4)例えば、碍子自爆、振動ダンパーの錆びつきなどのような1種の部材又は欠陥に対して単独で検出認識を行うことのみが可能である。 The defect detection method in the above related art has the following problems. 1) The training process is cumbersome and has a high false positive rate and false positives. 2) Test speed is slow because CPU is used for inference. 3) We have not refined the algorithm for power scenes. 4) It is only possible to independently detect and recognize one type of component or defect, such as, for example, insulator self-destruction, vibration damper rusting, and the like.

図1aを参照すると、図1aは、本願の実施例による欠陥検出方法を示すフローチャートである。該方法は、下記ステップを含んでもよい。 Referring to FIG. 1a, FIG. 1a is a flowchart illustrating a defect detection method according to an embodiment of the present application. The method may include the following steps.

ステップS11において、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含む。 In step S11, first target detection is performed on the image to be detected to obtain a target detection result, the target detection result includes the first class target and the first target of the first class target in the image to be detected. Contains location information.

本願の幾つかの実施例において、検出されるべき画像に対して第1ターゲット検出を行う前に、まず、検出されるべき画像を取得する。図1bを参照すると、図1bは、本願の実施例による欠陥検出方法の状態を示す概略図である。図1bに示すように、画像収集機器は、特定の環境において、各検出されるべき対象の検出されるべき画像を収集する。例えば、第1クラスのターゲットを含む検出されるべき画像を収集する。続いて、画像収集機器は、検出されるべき画像を欠陥検出機器に伝送する。ここで、欠陥検出機器は、本願の実施例に記載の方法に応じて、画像収集機器から伝送された検出されるべき画像に対して欠陥検出を行う。第1クラスのターゲットは、点検されるべき機器である。機器が真実に存在すれば、本願の実施例の第1クラスのターゲットになることが可能である。例えば、都市中の1つの交差点での信号灯、下水道のマンホール蓋などである。画像収集機器により、信号灯又はマンホール蓋を含む可能性がある検出されるべき画像を取得することができ、続いて、信号灯又はマンホール蓋を含む可能性がある検出されるべき画像を欠陥検出機器に入力し、更に、信号灯の欠陥検出結果を得る。 In some embodiments of the present application, the image to be detected is first acquired before performing first target detection on the image to be detected. Referring to FIG. 1b, FIG. 1b is a schematic diagram illustrating the state of a defect detection method according to an embodiment of the present application. As shown in FIG. 1b, the image acquisition device acquires an image to be detected of each object to be detected in a specific environment. For example, an image to be detected containing targets of the first class is acquired. The image acquisition equipment then transmits the image to be detected to the defect detection equipment. Here, the defect detection device performs defect detection on the image to be detected transmitted from the image acquisition device according to the methods described in the embodiments of the present application. A first class of targets is the equipment to be serviced. If the device really exists, it can be a first class target for the embodiments of this application. For example, a traffic light at an intersection in a city, a sewer manhole cover, and so on. An image to be detected, which may include a traffic light or a manhole cover, may be acquired by the image acquisition equipment, and then an image to be detected, which may include the traffic light or the manhole cover, may be transferred to the defect detection equipment. input, and obtain the defect detection result of the signal lamp.

例えば、配電網送電線において、線路における種々の機器に対して点検を行う必要がある可能性がある。この場合、撮影などの方式により、線路における各線路機器の空撮画像を取得することができる。例えば、碍子連又は振動ダンパーの空撮画像、或いは鳥の巣の空撮画像を得る。続いて、取得した空撮画像を検出されるべき画像として、欠陥検出機器に入力する。その後、欠陥検出機器は、本願の実施例に記載の方法に応じて、検出されるべき画像に対して欠陥検出を行うことができる。ここで、画像収集機器と欠陥検出機器は、1つの機器として集積されてもよく、分散した複数の機器であってもよく、ここで、具体的に限定しない。 For example, in a power grid transmission line, it may be necessary to perform inspections on various pieces of equipment on the line. In this case, it is possible to acquire an aerial photographed image of each piece of track equipment on the track by a method such as photography. For example, an aerial image of an insulator string or a vibration damper, or an aerial image of a bird's nest is obtained. Subsequently, the acquired aerial image is input to the defect detection device as an image to be detected. The defect detection equipment can then perform defect detection on the image to be detected according to the methods described in the embodiments herein. Here, the image acquisition device and the defect detection device may be integrated as one device, or may be a plurality of distributed devices, and are not specifically limited here.

本願の幾つかの実施例において、検出されるべき画像に対して第1ターゲット検出を行う前に、初期画像を所定のサイズの画像となるようにスケーリングすることができる。ここで、所定のサイズは、幅と高さとの比が(1.1~1.7):1であること及び/又は寸法が小さい1つの辺が1000よりも大きいことを含む。本願の実施例において用いられる幅と高さの比は、1.5:1であり、最小辺は、1200である。続いて、スケーリング後の初期画像の画素値を所定の画素値範囲に圧縮する。例えば、スケーリング後の初期画像の画素値を0-255から0-1に圧縮する。続いて、圧縮後の初期画像に対して正規化処理を行い、検出されるべき画像を得る。ここで、正規化処理の方式は、ImageNetデータ集合の平均値mean及び分散stdを用いて、圧縮後の初期画像に対して正規化処理を行うことを含む。これは、下記式(1-1)に示すとおりである。 In some embodiments of the present application, the initial image can be scaled to an image of a predetermined size before performing primary target detection on the image to be detected. Here, the predetermined size includes a width-to-height ratio of (1.1 to 1.7):1 and/or one side of the small dimension being greater than 1000. The width to height ratio used in the examples of this application is 1.5:1 and the minimum side is 1200. Subsequently, the pixel values of the initial image after scaling are compressed to a predetermined pixel value range. For example, the pixel values of the initial image after scaling are compressed from 0-255 to 0-1. Subsequently, normalization processing is performed on the initial image after compression to obtain the image to be detected. Here, the method of normalization processing includes normalizing the initial image after compression using the mean value mean and the variance std of the ImageNet data set. This is as shown in the following formula (1-1).

Figure 2022548438000002
Figure 2022548438000002

ここで、meanは、データ集合の平均値であり、stdは、データ集合の分散であり、pixelvalueは、画像における各画素の値である。 where mean is the mean value of the dataset, std is the variance of the dataset, and pixelvalue is the value of each pixel in the image.

無論、本願の幾つかの実施例において、例えば、COCO(Common Objects in Context)データ集合などのような他のデータ集合を用いてもよい。また、正規化の方式は、他のデータ集合を呼び出すことで正規化を行うという方式に限定されず、一般的に用いられる他の正規化方式を用いてもよい。例えば、初期画像における全ての画素点の画素点をトラバースし、最大値と最小値を記録し、最大値と最小値をパラメータとして、初期画像に対して正規化処理を行う。また、Sigmoid関数を利用して正規化を行ってもよい。従って、本願の実施例は、正規化の方式に対して、具体的に限定しない。まず、取得した画像に対して上記前処理を行い、画像のスタイルを統一することによって、入力のロバスト性を向上させることができる。 Of course, in some embodiments of the present application, other data sets may be used, such as, for example, the COCO (Common Objects in Context) data set. Further, the normalization method is not limited to the method of performing normalization by calling another data set, and other commonly used normalization methods may be used. For example, all pixel points in the initial image are traversed, the maximum and minimum values are recorded, and the initial image is normalized using the maximum and minimum values as parameters. Also, normalization may be performed using the sigmoid function. Accordingly, embodiments of the present application do not specifically limit the normalization scheme. First, the input robustness can be improved by performing the above-described preprocessing on the acquired images and unifying the style of the images.

本願の実施例において、欠陥検出モデルの第1領域検出ネットワークにより、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る。 In an embodiment of the present application, a first region detection network of a defect detection model performs first target detection on an image to be detected to obtain a target detection result.

ここで、欠陥検出モデルは、下記ステップにより訓練されてもよい。 Here, the defect detection model may be trained by the following steps.

まず、第1サンプル集合を取得し、ここで、第1サンプル集合は、少なくとも1つのサンプル画像を含み、サンプル画像に、ターゲットに関わる真実の欠陥情報が付記されており、ここのターゲットは、第1クラスのターゲットを含み、無論、例えば第2クラスのターゲットなどのような他のクラスのターゲットを含んでもよい。第1サンプル集合におけるサンプル画像は、第1クラスのターゲットを含むと同時に、他のクラスのターゲットを含んでもよい。ここで、ターゲットの真実の欠陥情報は、該ターゲットが正常であって欠陥がないものであることを表す情報であってもよく、第1クラスのターゲットが特定の欠陥を有することを表す情報であってもよい。つまり、本願の実施例において、正常なサンプル画像及び欠陥を有する異常なサンプル画像を利用して、欠陥検出モデルに対して訓練を行い、適応性が高い欠陥検出モデルを得ることができる。第1サンプル集合におけるサンプル画像は、元画像に対して前処理を行うことで得られたものであってもよい。前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つであってもよい。幾つかの実施例において、元画像のスケール変換プロセスにおいて、元画像の長さと幅は、所定の比で変換される。例えば、元画像の縦横比を1.5:1に維持したままでスケール変換される。無論、本願の幾つかの実施例において、他の縦横比を維持するか又は任意の変換を行ってもよい。従って、本願の実施例は、元画像のスケール変換の場合の縦横比を具体的に限定しない。色の変換は、輝度、彩度、色度変換のうちの少なくとも1つであってもよい。例えば、元画像の輝度、彩度及び色度を全て変換することで、同一のターゲットを含む同一の真実の欠陥情報を様々な形式で欠陥検出モデルに入力し、欠陥検出モデルを訓練する。欠陥検出モデルの適応性を補強し、欠陥検出の正確性を向上させる。幾つかの実施例において、上記各種の前処理方式は、欠陥検出モデルの様々な段階のネットワークにおいて単独で使用されてもよく、全ての段階のネットワークにおいて使用されてもよい。 First, obtain a first sample set, wherein the first sample set includes at least one sample image, the sample image annotated with true defect information associated with a target, where the target is a first It includes one class of targets and may of course include other classes of targets, such as, for example, a second class of targets. The sample images in the first sample set may contain targets of the first class as well as targets of other classes. Here, the true defect information of the target may be information indicating that the target is normal and has no defect, or information indicating that the target of the first class has a specific defect. There may be. That is, in the embodiments of the present application, a defect detection model can be trained using normal sample images and abnormal sample images with defects to obtain a highly adaptive defect detection model. The sample images in the first sample set may be obtained by preprocessing the original images. The preprocessing method may be at least one of scale conversion, color conversion, horizontal flip, vertical flip, rotation, and trimming. In some embodiments, in the process of scaling the original image, the length and width of the original image are converted by a predetermined ratio. For example, scale conversion is performed while maintaining the aspect ratio of the original image at 1.5:1. Of course, in some embodiments of the present application, other aspect ratios may be maintained or any conversion may be performed. Therefore, the embodiments of the present application do not specifically limit the aspect ratio in the case of scale conversion of the original image. The color conversion may be at least one of luminance, saturation, and chromaticity conversion. For example, by transforming all the luminance, saturation and chromaticity of the original image, the same true defect information including the same target is input to the defect detection model in various formats to train the defect detection model. It enhances the adaptability of the defect detection model and improves the accuracy of defect detection. In some embodiments, the various preprocessing schemes described above may be used alone in the network at various stages of the defect detection model, or may be used in the network at all stages.

次に、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得る。ここで、欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであってもよく、各グラフィックプロセッサが取得した第1サンプル集合は異なる。複数のグラフィックプロセッサを用いて欠陥検出モデルに対して検出を行うことによって、訓練速度を倍増する。幾つかの実施例において、各グラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期し、各グラフィックプロセッサにおけるバッチ標準化が同期した欠陥検出モデルを利用してサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得る。そのうちの1つのグラフィックプロセッサは、他のグラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層の平均値及び分散を収集し、演算により、合計の平均値及び分散を得る。続いて、該グラフィックプロセッサは、演算により得られた平均値と分散を残りのグラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層に戻し、複数のグラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期させることによって、グローバルの第1サンプル集合を使用して正規化を行うことができ、バッチサイズの増大に相当する。それにより複数のグラフィックプロセッサの使用による影響を減少させる。 The defect detection model is then used to perform detection on the sample images in the first sample set to obtain defect detection results for the target. Here, the defect detection model may be jointly trained by multiple graphics processors, and the first sample set obtained by each graphics processor is different. The training speed is doubled by using multiple graphics processors to perform detection on the defect detection model. In some embodiments, the batch normalization layers of the defect detection models in each graphics processor are synchronized, and the batch normalization in each graphics processor utilizes the synchronized defect detection models to perform detection on the sample images, and the target Obtain defect detection results. One of the graphics processors collects the mean and variance of the batch normalization layers of the defect detection models in the other graphics processors, and by computation, obtains the total mean and variance. Subsequently, the graphics processor returns the resulting mean and variance to the batch normalization layers of the defect detection models in the remaining graphics processors, and by synchronizing the batch normalization layers of the defect detection models in the plurality of graphics processors. , the global first set of samples can be used to perform normalization, corresponding to an increase in batch size. This reduces the impact of using multiple graphics processors.

最後に、真実の欠陥情報及び欠陥検出結果を利用して、欠陥検出モデルのパラメータを調整する。幾つかの実施例において、全ての欠陥検出結果と真実の欠陥情報に基づいて、欠陥検出モデルの平均損失値を決定し、続いて、平均損失値を利用して、欠陥検出モデルのパラメータを調整する。複数のグラフィックプロセッサにより、欠陥検出モデルを同期して訓練することで、訓練後の全てのグラフィックプロセッサにおける欠陥検出モデルのパラメータを一致させる。単一のグラフィックプロセッサに比べて、複数のグラフィックプロセッサにより、欠陥検出モデルを同期して訓練することによって、訓練速度を速くする。 Finally, the real defect information and defect detection results are used to adjust the parameters of the defect detection model. In some embodiments, based on all defect detection results and true defect information, determine an average loss value for the defect detection model, and then use the average loss value to adjust the parameters of the defect detection model. do. By synchronously training a defect detection model with a plurality of graphics processors, the parameters of the defect detection models in all the graphics processors after training are matched. Training speed is increased by synchronously training a defect detection model with multiple graphics processors as compared to a single graphics processor.

本願の幾つかの実施例において、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得る前に、第2サンプル集合を利用して、欠陥検出モデルに対して事前訓練を行い、及び/又は、第1サンプル集合を利用して欠陥検出モデルに対して予備訓練を行うこともできる。ここで、予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、所定の学習率まで次第に増大するものである。例えば、所定の学習率が0.6であると、予備訓練において、第1学習率0.3から次第に0.4に増大し、続いて、絶え間なく所定の学習率0.6に増大することができる。ここで、第2サンプル集合は、公開訓練集合であってもよい。例えば、一般的なCOCO訓練集合及びImageNetデータ集合などであってもよい。予備訓練に用いられるサンプルは、正式訓練に用いられるサンプルと同じであってもよい。即ち、予備訓練において、依然として第1サンプル集合を用いる。幾つかの実施例において、第2サンプル集合による事前訓練により、パラメータを初期化した後、第1サンプル集合を利用して予備訓練を行うことで、学習率を絶えずに調整する。予備訓練により学習率を絶えずに調整するプロセスは、欠陥検出モデルのパラメータを更に最適化することにも相当する。それにより正式訓練の場合、好適なパラメータで訓練を行うことができる。幾つかの実施例において、予備訓練プロセスに用いられる第1サンプル集合は依然として、上記前処理後に得られた第1サンプル集合であってもよい。これも、欠陥検出モデルの適応性を向上させ、訓練された欠陥検出モデルの検出精度をより高くすることができる。幾つかの実施例において、第1学習率から、所定の学習率まで次第に線形的に増大するか又は指数関数的に増大することは、学習率の初期化に相当する。これにより、好適な学習率で欠陥検出モデルに対して訓練を行うことができ、訓練効果をより良好にすることができる。 In some embodiments of the present application, the defect detection model is used to perform detection on sample images in a first sample set, and a second sample set is used to obtain defect detection results for a target. , the defect detection model may be pre-trained, and/or the defect detection model may be pre-trained using the first sample set. Here, the learning rate used in the preliminary training process gradually increases from a first learning rate lower than a predetermined learning rate to a predetermined learning rate. For example, if the predetermined learning rate is 0.6, in pre-training a first learning rate of 0.3 is gradually increased to 0.4, followed by a constant increase to the predetermined learning rate of 0.6. can be done. Here, the second sample set may be a public training set. For example, it may be the general COCO training set and the ImageNet dataset. The samples used for preliminary training may be the same as the samples used for formal training. That is, in pre-training, we still use the first sample set. In some embodiments, after pre-training with a second set of samples to initialize the parameters, pre-training is performed using the first set of samples to continuously adjust the learning rate. The process of constantly adjusting the learning rate through pre-training also amounts to further optimizing the parameters of the defect detection model. Therefore, in the case of formal training, training can be performed with suitable parameters. In some embodiments, the first sample set used for the pre-training process may still be the first sample set obtained after the above preprocessing. This can also improve the adaptability of the defect detection model and make the trained defect detection model more accurate. In some embodiments, a gradual linear or exponential increase from a first learning rate to a predetermined learning rate corresponds to initialization of the learning rate. Thereby, the defect detection model can be trained at a suitable learning rate, and the training effect can be improved.

ここで、本願の実施例における第1領域検出ネットワークは、Faster R-CNN(Region with Convolutional Neural Networks)ネットワーク、例えばResNet50を含む。無論、他の実施例において、例えばSSD(Single Shot MultiBox Detector)ネットワークモデルなどのような他のニューラルネットワークモデルを用いて、検出されるべき画像に対して第1ターゲット検出を行うこともでき、また、深さは、ResNet50に限定されず、ResNet101、ResNet200などであってもよく、ここで、具体的に限定しない。 Here, the first region detection network in the embodiments of the present application includes a Faster R-CNN (Region with Convolutional Neural Networks) network, such as ResNet50. Of course, in other embodiments, other neural network models, such as the SSD (Single Shot MultiBox Detector) network model, can be used to perform the first target detection on the image to be detected, and , the depth is not limited to ResNet50, but may be ResNet101, ResNet200, etc., and is not specifically limited here.

本願の実施例において用いられる第1領域検出ネットワークは、ResNet50ネットワークである。検出されるべき画像を第1領域検出ネットワークのヘッダーネットワークに入力することによって、検出されるべき画像の特徴マップを抽出して取得する。ここで、特徴マップの大きさは、検出されるべき画像の大きさの16分の1である。続いて、領域候補ネットワークRegion Proposal Networks:RPN)により、特徴マップから候補枠を抽出する。候補枠は、第1クラスのターゲットが存在する可能性がある領域である。ここで、候補枠の抽出は、実際に、候補枠の4つの頂点の画素値の抽出である。続いて、候補枠と特徴マップをプーリング層により処理することによって、各候補枠の特徴マップを得る。該ステップは具体的には以下を含む。候補枠の4つの座標の情報をプーリング層に送り込み、プーリング層において、候補枠の4つの頂点の座標を特徴マップにマッピングし、更に、全結合層により、各候補枠の特徴ベクトルを得る。ここで、これらの特徴ベクトルは、候補枠の特徴情報を表す。続いて、特徴ベクトルに対して枠回帰を行い、所定のクラスに応じて分類を行い、最後にターゲット検出結果を得る。これから分かるように、第1ターゲット検出は、検出されるべき画像に第1クラスのターゲットが含まれるかどうかを検出することである。第1クラスのターゲットが存在すれば、更に、検出されるべき画像における第1クラスのターゲットの第1位置情報を取得する。更に、第1クラスのターゲットの信頼度を得ることもできる。該信頼度は、検出された第1クラスのターゲットが真に第1クラスのターゲットである確率である。 The first area detection network used in the examples of this application is the ResNet50 network. A feature map of the image to be detected is extracted and obtained by inputting the image to be detected into the header network of the first region detection network. Here, the size of the feature map is 1/16 the size of the image to be detected. Subsequently, candidate frames are extracted from the feature map by Region Proposal Networks (RPN). A candidate window is a region where a first class target may exist. Here, the extraction of the candidate frame is actually the extraction of the pixel values of the four vertices of the candidate frame. Subsequently, the feature map of each candidate frame is obtained by processing the candidate frame and the feature map through a pooling layer. The steps specifically include: The information of the four coordinates of the candidate frame is sent to the pooling layer, the coordinates of the four vertices of the candidate frame are mapped to the feature map in the pooling layer, and the feature vector of each candidate frame is obtained by the fully connected layer. Here, these feature vectors represent feature information of candidate frames. Subsequently, frame regression is performed on the feature vector, classification is performed according to a predetermined class, and finally a target detection result is obtained. As can be seen, the first target detection is to detect whether the image to be detected contains the first class of targets. If there is a target of the first class, further obtain first position information of the target of the first class in the image to be detected. In addition, the reliability of the first class targets can also be obtained. The confidence is the probability that a detected first class target is truly a first class target.

ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報、及び/又は、候補枠が第1クラスのターゲットに属する確率を含む。幾つかの実施例において、第1位置情報は、第1クラスのターゲットに対応する候補枠の、検出されるべき画像における位置情報を含む。第1位置情報は、第1クラスのターゲットに対応する候補枠の4つの頂点の位置情報である。ここで、第1クラスのターゲットは、第1サブクラスのターゲット及び第2サブクラスのターゲットを更に含んでもよい。ここで、ここの第1サブクラスのターゲット及び第2サブクラスのターゲットと第1クラスのターゲットとは、所属関係がなくてもよいが、同じ属性を有してもよい。例えば、第1クラスのターゲットは、機器であってもよく、第1サブクラスのターゲットは、もう1つの機器であってもよく、第2サブクラスのターゲットは、他の機器であってもよい。同じ属性は、撮影を行い、続いて対応する画像を分析することによって機器に欠陥があるかどうかを知ることができることである。第1クラスのターゲットに属する確率は、第1サブクラスのターゲットに属する確率及び/又は第2サブクラスのターゲットに属する確率を更に含んでもよい。 The target detection result includes a first class target and first position information of the first class target in the image to be detected and/or a probability that the candidate frame belongs to the first class target. In some embodiments, the first position information includes position information in the image to be detected of candidate frames corresponding to targets of the first class. The first position information is position information of the four vertices of the candidate frame corresponding to the target of the first class. Here, the first class of targets may further include a first subclass of targets and a second subclass of targets. Here, the targets of the first subclass, the targets of the second subclass and the targets of the first class may have the same attribute, although they may not have a relationship of affiliation. For example, a first class of targets may be an instrument, a first subclass of targets may be another instrument, and a second subclass of targets may be another instrument. The same attribute is being able to tell if there is a defect in the equipment by taking a picture and then analyzing the corresponding image. The probability of belonging to the first class of targets may further comprise the probability of belonging to the first subclass of targets and/or the probability of belonging to the second subclass of targets.

本願の幾つかの実施例において、ターゲット検出結果は、第1クラスのターゲット及び第2クラスのターゲットの、検出されるべき画像における第2位置情報、及び/又は、第2クラスのターゲットに属する確率を更に含む。ここの第2クラスのターゲットは、本来存在するべきでないが存在しているターゲットであってもよい。その存在は、欠陥である。無論、幾つかの実施例において、初期画像を処理した後に検出されるべき画像を得ると、検出されるべき画像に対して第1ターゲット検出を行った後に得られたターゲット検出結果に、第1クラスのターゲット及び/又は第2クラスのターゲットの、初期画像における第1位置情報が含まれる。第2クラスのターゲットを更に設定することによって、同一のアルゴリズムを利用して、複数の異なるターゲット対象の欠陥状況を検出する場合、複数のアルゴリズムを利用して同一の画像における異なる部材又は機器に対してそれぞれ欠陥検出を行う必要がなく、欠陥検出の操作ステップを大幅に簡略化する。 In some embodiments of the present application, the target detection result is second position information of the first class target and the second class target in the image to be detected and/or the probability of belonging to the second class target. further includes The second class of targets here may be targets that should not exist but exist. Its existence is flawed. Of course, in some embodiments, once the image to be detected is obtained after processing the initial image, the target detection results obtained after performing the first target detection on the image to be detected may include the first A first positional information in the initial image of the target of the class and/or the target of the second class is included. By further setting targets of the second class, when the same algorithm is used to detect defect conditions in a plurality of different target objects, multiple algorithms are used for different parts or devices in the same image. Therefore, it is not necessary to perform defect detection for each device, which greatly simplifies the operation steps for defect detection.

例を挙げて説明すると、初期画像は、無人機により空撮された送電線の画像であり、又は、高精細ビデオからトリミングされたグラフィックフレームである。まず、処理画像に対して処理を行う。該処理は、初期画像をスケーリングすることを含む。初期画像を1200*1800の画像となるようにスケーリングし、続いて、スケーリング後の初期画像の画素値を所定の画素値範囲0-1に圧縮し、ImageNetデータ集合の平均値mean及び分散stdを使用して、圧縮後の初期画像に対して正規化演算を行い、検出されるべき画像を得る。続いて、検出されるべき画像をResNet50ネットワークに入力し、検出されるべき画像における各候補枠内のターゲット対象が各所定のターゲットクラスに対応する確率を取得し、確率が最も高い所定のターゲットクラスを候補枠におけるターゲット対象のクラスとして選択し、それと同時に各候補枠の位置情報を出力する。ここで、送電線において、一般的な部材は、振動ダンパー、碍子連を含み、即ち本来存在するべきでないが存在しており、その存在が欠陥である外因性欠陥という第2クラスのターゲット、即ち鳥の巣を含む可能性もある。ここで、本願の実施例において、振動ダンパー及び碍子連を第1クラスのターゲットとし、鳥の巣を第2クラスのターゲットとする。即ち、検出されるべき画像をResNet50に入力した後、出力されるターゲット検出結果は、振動ダンパー、碍子連又は鳥の巣、及びそれらの、検出されるべき画像における対応する位置情報及び関連確率を含む可能性がある。ここの確率は、候補枠が振動ダンパー、碍子連又は鳥の巣に属する確率である。 By way of example, the initial image may be an image of power lines taken aerially by a drone, or a graphic frame cropped from a high-definition video. First, processing is performed on the processed image. The processing includes scaling the initial image. The initial image is scaled to be a 1200*1800 image, then the pixel values of the initial image after scaling are compressed to a predetermined pixel value range of 0-1, and the mean and variance std of the ImageNet data set are is used to perform a normalization operation on the initial image after compression to obtain the image to be detected. Then, input the image to be detected into the ResNet50 network, obtain the probability that the target object in each candidate frame in the image to be detected corresponds to each predetermined target class, and obtain the probability that the target object in each candidate frame in the image to be detected corresponds to each predetermined target class. is selected as the class of the target object in the candidate pane, and at the same time the position information of each candidate pane is output. Here, in transmission lines, common members include vibration dampers, insulator strings, i.e. targets of the second class of extrinsic defects whose presence is a defect when they should not exist, i.e. May also contain bird nests. Here, in the embodiments of the present application, the vibration damper and the insulator string are the targets of the first class, and the bird's nest is the target of the second class. That is, after inputting the image to be detected to ResNet 50, the output target detection results include vibration dampers, insulator strings or bird nests, and their corresponding position information and associated probabilities in the image to be detected. may contain. The probability here is the probability that the candidate frame belongs to the vibration damper, the insulator string, or the bird's nest.

本願の幾つかの実施例において、ターゲット検出結果を得た後、第2クラスのターゲットを検出されるべき画像における第3欠陥として決定し、第2クラスのターゲット及び第2位置情報を第2クラスのターゲットに関わる欠陥検出結果とする。例えば、第2クラスのターゲットが鳥の巣であり、検出されるべき画像から鳥の巣が検出されていると、鳥の巣が検出されるべき画像における第3欠陥であると決定し、鳥の巣の、検出されるべき画像における第2位置情報を取得する。従って、最後のターゲット検出結果に、鳥の巣及び鳥の巣の第2位置情報が含まれる。 In some embodiments of the present application, after obtaining the target detection result, the second class target is determined as the third defect in the image to be detected, and the second class target and the second position information are The defect detection result related to the target of For example, if the second class target is a bird's nest and the bird's nest has been detected from the image to be detected, determine that the bird's nest is the third defect in the image to be detected, and Obtaining second position information of the nest of the nest in the image to be detected. Therefore, the final target detection result includes the bird's nest and the second location information of the bird's nest.

ステップS12において、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得する。 In step S12, an image region containing a first class target is obtained based on the first position information.

本願の実施例において、第1位置情報に基づいて、検出されるべき画像から、第1クラスのターゲットに対応するターゲット領域を決定する。具体的には、検出されるべき画像から、第1クラスのターゲットに対応する領域を決定し、つまり、第1クラスのターゲットに対応する候補枠を決定することを含む。続いて、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張する。ここで、外側へ拡張する方式は、ターゲット領域の中心点をそのままにし、ターゲット領域の長さと幅を元ターゲット領域の1.1~1.5倍にすることを含む。ここで、本願の実施例において、ターゲット領域の長さと幅を元ターゲット領域の1.2倍ほどにする。ターゲット領域の境界が検出されるべき画像の境界を越えると、検出されるべきにおける部分を残す。続いて、検出されるべき画像から、外へ拡張されたターゲット領域を抽出し、第1クラスのターゲットを含む画像領域を得る。具体的には、外側へ拡張されたターゲット領域を検出されるべき画像からトリミングすることを含む。 In an embodiment of the present application, a target area corresponding to a first class of targets is determined from the image to be detected based on the first position information. Specifically, it includes determining a region corresponding to the first class target from the image to be detected, that is, determining a candidate frame corresponding to the first class target. Subsequently, the target area is extended outward by a predetermined factor in the image to be detected. Here, the method of expanding outward includes leaving the center point of the target area as it is and increasing the length and width of the target area by 1.1 to 1.5 times that of the original target area. Here, in the embodiment of the present application, the length and width of the target area are set to about 1.2 times the original target area. If the boundary of the target region exceeds the boundary of the image to be detected, leave the part in to be detected. Subsequently, the outwardly extended target region is extracted from the image to be detected to obtain the image region containing the targets of the first class. Specifically, it involves cropping the outwardly extended target region from the image to be detected.

図2と図3を同時に参照すると、図2は、本願の実施例による欠陥検出方法における検出されるべき画像を示す概略図であり、図3は、本願の実施例による欠陥検出方法における画像領域を示す概略図である。図2と図3に示すように、検出されるべき画像1にそれぞれ第1クラスのターゲット100が含まれる。ここで、第1ターゲット検出ネットワークにより、第1クラスのターゲット100の位置情報を得、続いて、第1クラスのターゲット100の位置情報に基づいて、第1クラスのターゲット100を含む画像領域110を取得する。画像領域110と候補枠101との関係をより明確に説明するために、図3の画像領域において、第1クラスのターゲット100の候補枠101を示す。検出されるべき画像1から、第1クラスのターゲット100を含む画像領域110を取得する場合、第1クラスのターゲット100を含む画像領域110を取得する場合、第1クラスのターゲット100の候補枠101を検出されるべき画像1において一定の比率で外側へ拡張するため、得られる画像領域100の面積は、元の候補枠101の所在領域の面積よりも大きい。 Referring to FIGS. 2 and 3 at the same time, FIG. 2 is a schematic diagram showing an image to be detected in the defect detection method according to an embodiment of the present application, and FIG. 1 is a schematic diagram showing the . As shown in FIGS. 2 and 3, each image 1 to be detected contains targets 100 of the first class. Here, the first target detection network obtains the position information of the first class target 100, and then, based on the position information of the first class target 100, the image area 110 including the first class target 100 is detected. get. To more clearly explain the relationship between the image area 110 and the candidate frames 101, the candidate frames 101 of the first class target 100 are shown in the image region of FIG. When acquiring the image area 110 including the target 100 of the first class from the image 1 to be detected, when acquiring the image area 110 including the target 100 of the first class, the candidate frame 101 of the target 100 of the first class is expanded outward at a constant ratio in the image 1 to be detected, the area of the resulting image area 100 is larger than the area of the original location area of the candidate frame 101 .

本願の幾つかの実施例において、検出画像が、初期画像に対してスケーリング、画素値圧縮及び正規化処理を行うことで得られたものであると、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することは、第1クラスのターゲットの、初期画像における第1位置情報に基づいて、初期画像において、第1クラスのターゲットに対応するターゲット領域を決定し、即ち、初期画像における第1クラスのターゲットに対応する候補枠の位置を決定し、ターゲット領域を初期画像において所定の倍数だけ外側へ拡張し、初期画像から、外側へ拡張されたターゲット領域を抽出し、第1クラスのターゲットを含む画像領域を得ることである。無論、検出されるべき画像が初期画像に対応するため、本願の別の幾つかの実施例において、検出画像が、初期画像に対してスケーリング、画素値圧縮及び正規化という一連の処理を行うことで得られたものであっても、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得する具体的なステップは、検出されるべき画像から第1クラスのターゲットの画像領域を抽出することを含んでもよい。従って、検出されるべき画像から、第1クラスのターゲットを含む画像領域を取得してもよく、初期画像から、第1クラスのターゲットの画像領域を取得してもよく、ここで、具体的に限定しない。 In some embodiments of the present application, the detected image is obtained by performing scaling, pixel value compression and normalization processing on the initial image, based on the first position information, the first class Determining a target region corresponding to the first class target in the initial image based on first position information of the first class target in the initial image, i.e., determining the position of the candidate frame corresponding to the first class target in the initial image, expanding the target region outward by a predetermined multiple in the initial image, extracting the outwardly expanded target region from the initial image; The goal is to obtain an image region containing one class of targets. Of course, since the image to be detected corresponds to the initial image, in some other embodiments of the present application, the detected image may undergo a series of scaling, pixel value compression and normalization operations on the initial image. The specific step of obtaining the image region containing the first class target based on the first position information, even if obtained in may include extracting the Thus, from the image to be detected, an image region containing the targets of the first class may be obtained, and from the initial image, an image region of the targets of the first class may be obtained, where specifically Not limited.

従って、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張することによって、第1クラスのターゲットに対応するターゲット領域を取得した後、一部の背景情報を残すことができ、第1クラスのターゲットに対する欠陥検出の正確度を向上させることができる。 Thus, by extending the target region outward in the image to be detected by a predetermined multiple, some background information can be left after obtaining the target region corresponding to the first class of targets, and the first The accuracy of defect detection for a class of targets can be improved.

本願の幾つかの実施例において、第1クラスのターゲットを含む画像領域を取得した後、画像領域に対して前処理を行い、即ち、画像領域の寸法を調整する必要がある。ここで、画像領域の縦横比を1:1に調整することができる。画像領域が初期画像から取得されたものであると、画像領域に対して正規化を行う必要がある。正規化処理後の検出されるべき画像から取得されたものであると、ここで、正規化を行わなくてもよい。 In some embodiments of the present application, after obtaining an image region containing the first class of targets, it is necessary to preprocess the image region, ie adjust the dimensions of the image region. Here, the aspect ratio of the image area can be adjusted to 1:1. If the image regions were obtained from the initial image, then it is necessary to perform normalization on the image regions. If it is obtained from the image to be detected after normalization processing, normalization may not be performed here.

例えば、碍子連の、検出されるべき画像における第1位置情報に基づいて、碍子連の、検出されるべき画像における対応する候補枠を決定し、候補枠を検出されるべき画像において外側へ1.2倍拡張し、続いて、検出されるべき画像から、外側へ拡張された候補枠を抽出することによって、碍子を含む画像領域を得ることができる。 For example, based on the first position information of the insulator string in the image to be detected, determine the corresponding candidate frame in the image to be detected of the insulator string, and move the candidate frame outward one step in the image to be detected. The image region containing the insulator can be obtained by dilating by a factor of .2 and subsequently extracting the outwardly dilated candidate frame from the image to be detected.

ステップS13において、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得る。 In step S13, defect detection is performed on the image area to obtain defect detection results related to the targets of the first class.

画像領域に対して欠陥検出を行う方式は、下記少なくとも1つを含む。1つの方式は、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、ここで、第1欠陥検出結果は、第1クラスのターゲットに存在する少なくとも1つの第1欠陥の情報を含む。もう1つの方式は、画像領域に対して分類を行い、第2欠陥検出結果を得ることであって、ここで、第2欠陥検出結果は、第1クラスのターゲットが属する第2欠陥の情報を含む。ここで、第2ターゲット検出は、第1クラスのターゲットに対して更なるターゲット検出を行うことである。第1ターゲット検出において得られるものは、第1クラスのターゲットの位置情報であり、第1クラスのターゲットの欠陥情報が直接的に検出されていない。従って、第2ターゲット検出は、第1クラスのターゲットに対して意図的な欠陥検出を行う。画像領域に対する分類は、画像領域における第1クラスのターゲットを所定の欠陥クラスに応じて分類を行い、第1クラスのターゲットが各欠陥クラスに属する確率情報を算出することである。 Methods for performing defect detection on image areas include at least one of the following. One approach is to perform a second target detection on the image area to obtain a first defect detection result, where the first defect detection result is at least one defect present in the first class of targets. Contains information on the first defect. Another way is to perform classification on the image area to obtain a second defect detection result, where the second defect detection result includes information of the second defect to which the target of the first class belongs. include. Here, the second target detection is to perform further target detection on the first class targets. What is obtained in the first target detection is the position information of the first class target, and the defect information of the first class target is not directly detected. Thus, secondary target detection provides intentional defect detection for targets of the first class. The classification for the image area is to classify the first class targets in the image area according to a predetermined defect class, and calculate the probability information that the first class target belongs to each defect class.

複数の方式により、第1クラスのターゲットを含む画像領域に対して検出を行うことによって、異なる第1クラスのターゲットに対して、異なる検出方式を用い、欠陥検出に、より高い目的性を持たせることができる。それにより得られた欠陥検出結果がより正確である。又は、同一の第1クラスのターゲットに対して異なる検出方式を行い、続いて各異なる欠陥検出方式により得られた結果をまとめることによって、検出されるべき画像の最終的な欠陥情報を得、欠陥検出結果をより正確にする。 Detecting an image region containing the first class targets by multiple schemes makes the defect detection more objective by using different detection schemes for different first class targets. be able to. The resulting defect detection results are more accurate. Alternatively, by performing different detection schemes on the same first class target, and then combining the results obtained by each different defect detection scheme, the final defect information of the image to be detected is obtained, and the defect Make detection results more accurate.

ここで、第1クラスのターゲットが第1サブクラスのターゲットである場合、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行し、第1クラスのターゲットが第2サブクラスのターゲットである場合、画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行する。 wherein if the target of the first class is the target of the first subclass, performing second target detection on the image area to obtain a first defect detection result; If so, performing classification on the image region to obtain a second defect detection result.

異なるターゲット対象に対して異なる欠陥検出方式を用いることによって、欠陥検出をより柔軟にする。全ての種類のターゲットに対して同一の検出方式を用いることに比べて、異なるターゲット対象に対して異なる欠陥検出方式を用いる場合、より高い目的性を有し、欠陥検出結果がより正確になる。 Using different defect detection schemes for different target objects makes defect detection more flexible. Compared to using the same detection scheme for all types of targets, using different defect detection schemes for different target objects is more purposeful and results in more accurate defect detection results.

例えば、所定の碍子連が第1サブクラスのターゲットであり、所定の振動ダンパーが第2サブクラスのターゲットである。従って、第1クラスのターゲットが碍子連であることを検出した場合、碍子連に対応する画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得る。検出されるべき画像から検出された第1クラスのターゲットが振動ダンパーである場合、振動ダンパーに対応する画像領域に対して分類を行い、第2欠陥検出結果を得る。検出された第1クラスのターゲットに碍子連が含まれると同時に振動ダンパーも含まれる場合、碍子連に対応する画像領域に対して第2ターゲット検出を行い、振動ダンパーに対応する画像領域に対して分類を行う。幾つかの実施例において、両者に対する欠陥検出は同時に行われてもよい。即ち、第2ターゲット検出と分類が同時に行われてもよい。無論、幾つかの実施例において、同一の第1サブクラスのターゲットに対してそれぞれ第2ターゲット検出と画像領域分類を行い、続いて、2種の処理方式により得られた結果をまとめ、最終的に、第1サブクラスのターゲットに対する第1欠陥検出結果を得ることもできる。 For example, a given insulator string is a target of a first subclass and a given vibration damper is a target of a second subclass. Therefore, when it is detected that the target of the first class is the insulator string, the second target detection is performed on the image area corresponding to the insulator string to obtain the first defect detection result. If the first class of target detected from the image to be detected is a vibration damper, classify for the image region corresponding to the vibration damper to obtain a second defect detection result. If the detected targets of the first class include the insulator string and also the vibration damper, the second target detection is performed on the image region corresponding to the insulator string, and the image region corresponding to the vibration damper is subjected to the second target detection. Classify. In some embodiments, defect detection for both may occur simultaneously. That is, the second target detection and classification may be performed simultaneously. Of course, in some embodiments, targets of the same first subclass are subjected to the second target detection and image region classification respectively, and then the results obtained by the two processing schemes are combined, and finally , a first defect detection result for a first subclass of targets.

第1欠陥検出結果は、各種の第1欠陥の位置情報及び第1欠陥に属する第1確率を含む。ここで、第1欠陥の位置情報は、第1欠陥の、第1クラスのターゲットを含む画像領域における位置であり、第1欠陥に属する確率は、検出により得られた第1欠陥の信頼度であり、つまり、第1欠陥が確かに第1欠陥に属する確率である。例えば、碍子連を含む画像領域に対して第2ターゲット検出を行うことによって、碍子連におけるA位置に碍子自爆が発生した可能性があることを検出する。ここで、碍子自爆という欠陥は、第1欠陥に属する。碍子連におけるA位置は、碍子自爆の第2位置情報に属し、碍子自爆の信頼度は、碍子自爆に属する第1確率である。 The first defect detection result includes location information of various first defects and first probabilities belonging to the first defects. Here, the position information of the first defect is the position of the first defect in the image region containing the target of the first class, and the probability of belonging to the first defect is the reliability of the first defect obtained by detection. Yes, ie the probability that the first defect certainly belongs to the first defect. For example, by performing the second target detection on the image area including the insulator string, it is detected that there is a possibility that the insulator self-destruction occurred at position A in the insulator string. Here, the defect of insulator self-destruction belongs to the first defect. The A position in the insulator string belongs to the second position information of the insulator self-destruction, and the reliability of the insulator self-destruction is the first probability belonging to the insulator self-destruction.

本願の実施例において、第1クラスのターゲットが第1サブクラスのターゲットである場合、画像領域に対して第2ターゲット検出を行う場合、用いられる検出ネットワークは、第2領域検出ネットワークであり、ここで、第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い。例えば、第1領域検出ネットワークがResNet50である場合、第2領域検出ネットワークは、ResNet18であってもよい。ここで、第2ターゲット検出に用いられるネットワークモデルと第1ターゲット検出に用いられるネットワークモデルがいずれもFaster R-CNNネットワークであるため、第2ターゲット検出の具体的なプロセスはここで説明しない。第1ターゲット検出との相違点は、第1ターゲット検出において、異なる第1クラスのターゲットを含む可能性がある検出されるべき画像に対して検出を行い、検出されるべき画像に第1クラスのターゲットが含まれるかどうかを判定し、第1クラスのターゲットの第1位置を取得するが、第2ターゲット検出において、第1サブクラスのターゲットの所在画像領域のみに対して検出を行い、該検出が具体的には第1サブクラスのターゲットに欠陥が存在する確率を検出することを含むことである。 In an embodiment of the present application, if the targets of the first class are the targets of the first subclass, the detection network used is the second region detection network when performing the second target detection on the image region, wherein , the depth of the second area detection network is shallower than the depth of the first area detection network. For example, if the first area detection network is ResNet50, the second area detection network may be ResNet18. Here, since both the network model used for detecting the second target and the network model used for detecting the first target are Faster R-CNN networks, the specific process of detecting the second target will not be described here. The difference from the first target detection is that in the first target detection, detection is performed on an image to be detected that may contain different first class targets, and the image to be detected has the first class determine whether the target is included, obtain a first position of the target of the first class, but in the second target detection, detect only the image region where the target of the first subclass is located, and the detection is Specifically, it includes detecting the probability that a defect exists in a first subclass of targets.

例えば、碍子連を含む画像領域を第2領域検出ネットワークResNet18に入力した後、碍子連に碍子自爆が発生したかどうかを検出し、発生した場合、碍子連における碍子自爆が発生した位置情報及び自爆の確率情報を出力する。 For example, after inputting the image region including the insulator string to the second region detection network ResNet 18, it is detected whether or not the insulator string has self-destructed. output the probability information of

本願の実施例において、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、第1欠陥検出結果を処理することができる。ここで、各種の第1欠陥の位置情報に応じて、検出されるべき画像における各種の第1欠陥の欠陥領域をそれぞれ決定することを含む。第2ターゲット検出により得られた位置情報は、第1欠陥の、第1クラスのターゲットを含む画像領域における位置情報であるため、マッピングの方式により、第1欠陥の、検出されるべき画像における欠陥領域を見付ける必要もある。続いて、欠陥領域に対して所定の処理を行う。ここで、所定の処理は、異なる欠陥領域間の重複領域に対して重複排除処理を行うことと、第1確率が第1フィルタリング条件を満たす第1欠陥をフィルタリングすることと、のうちの少なくとも1つを含む。ここで、異なる欠陥領域間の重複領域に対して重複排除処理を行うという方式は、異なる欠陥領域間の重複領域に対して非極大値抑制を行うことを更に含んでもよい。重複領域の面積が所定の面積に達する場合、互いに重なり合っている欠陥領域の第1確率を取得し、それぞれの確率を比較し、確率が大きい欠陥領域を残し、確率が小さい欠陥領域を捨てる。ここで、第1フィルタリング条件は、第1確率が第1確率閾値よりも低いことである。即ち、第1欠陥確率が第1確率閾値よりも低い場合、該部分の第1欠陥に対応する欠陥領域を除去する。また、第1欠陥の位置情報及び第1確率を第1欠陥検出結果から同時に削除する。つまり、所定の処理のみにより得られた欠陥領域に基づいて、最終的な第1欠陥検出結果を決定する。 In embodiments of the present application, after performing a second target detection on the image area and obtaining a first defect detection result, the first defect detection result may be processed. Here, it includes respectively determining the defect areas of the various first defects in the image to be detected according to the positional information of the various first defects. Since the position information obtained by the second target detection is the position information of the first defect in the image region containing the target of the first class, the mapping method determines the defect in the image to be detected of the first defect You also need to find an area. Subsequently, a predetermined process is performed on the defect area. Here, the predetermined processing is at least one of performing duplicate elimination processing on overlapping regions between different defect regions, and filtering first defects whose first probability satisfies a first filtering condition. including one. Here, the method of performing de-duplication processing on overlapping regions between different defect regions may further include performing non-maximal value suppression on overlapping regions between different defect regions. When the area of the overlapping regions reaches a predetermined area, obtaining a first probability of the defect regions overlapping each other, comparing the respective probabilities, leaving the defect regions with a high probability and discarding the defect regions with a low probability. Here, the first filtering condition is that the first probability is lower than the first probability threshold. That is, if the first defect probability is lower than the first probability threshold, remove the defect region corresponding to the first defect in the portion. Also, the position information and the first probability of the first defect are deleted from the first defect detection result at the same time. That is, the final first defect detection result is determined based on the defect area obtained only by the predetermined processing.

第1サブクラスのターゲットにおける第1欠陥の確率及び第1サブクラスのターゲットを含む画像領域における位置情報を取得し、且つ該位置情報に基づいて、検出されるべき画像における、第1欠陥に対応する領域を見付け、重複部分に対して重複排除処理を行うことによって、1つの第1欠陥を1つの欠陥領域に対応させ、1つの欠陥に対して複数回の後続処理を行うという問題を減少させ、最終的な出力の正確率を向上させる。フィルタリング条件を満たす領域を削除することによって、後続で処理される領域の数を減少させ、処理効率を向上させることができる。 Obtaining position information in an image region containing the probability of the first defect in the first subclass of targets and the first subclass of targets, and based on the position information, the region corresponding to the first defect in the image to be detected. By finding and de-duplicating the overlapping parts, one first defect corresponds to one defect area, reducing the problem of multiple subsequent processes for one defect, and the final to improve the accuracy rate of typical output. By removing regions that satisfy the filtering conditions, the number of regions to be subsequently processed can be reduced and processing efficiency can be improved.

本願の幾つかの実施例において、欠陥確率が低いものを削除することによって、多くの不必要な処理領域を減少させ、処理効率を向上させる。非極大値抑制の方式により重複排除を行うことによって、欠陥確率がより大きい欠陥領域を残すことができ、処理効率を向上させると同時に、欠陥検出の正確率を向上させることもできる。 In some embodiments of the present application, removing those with low defect probabilities reduces many unnecessary processing areas and improves processing efficiency. Deduplication using the non-maximal value suppression method can leave defective areas with a higher defect probability, thereby improving the processing efficiency and at the same time improving the accuracy rate of defect detection.

第1クラスのターゲットが第2サブクラスのターゲットである場合、第2欠陥検出結果は、第1クラスのターゲットが第2欠陥に属する第2確率を含む。幾つかの実施例において、ここの第2欠陥は、第2サブクラスのターゲットに欠陥が存在するかどうかを指す。ここで、第2確率は、第2サブクラスに欠陥が存在する確率である。無論、他の実施例において、第2欠陥は、複数の異なるサブ欠陥を含んでもよい。第2確率は、第2サブクラスのターゲットが各サブ欠陥に属する確率である。画像領域に対して分類を行うプロセスは、画像領域に対して分類を行い、第1クラスのターゲットが各種の所定の欠陥に属する確率を得、つまり、第2サブクラスのターゲットが各種の所定の欠陥に属する確率を得ることを含む。例えば、第1クラスのターゲットが第2サブクラスのターゲット、例えば振動ダンパーである場合、振動ダンパーを含む画像領域に対して分類を行い、振動ダンパーがそれぞれ正常な振動ダンパー、振動ダンパーの錆びつき、振動ダンパーねじり、振動ダンパー破損、振動ダンパー脱落に属する確率を得る。例えば、正常な振動ダンパーに属する確率が0.1であり、振動ダンパーの錆びつきに属する確率が0であり、振動ダンパーねじりに属する確率が0.2であり、振動ダンパー破損に属する確率が0.5であり、振動ダンパー脱落に属する確率が0である。この場合、振動ダンパーが所定の欠陥である振動ダンパー破損に属する確率が最も高いことを得ることができる。本願の幾つかの実施例において、該確率により、振動ダンパーが振動ダンパー破損に属すると認めることができる。本願の実施例において、第1クラスのターゲットが各種の所定の欠陥に属する確率を得た後、各種の所定の欠陥の確率を加算し、第1クラスのターゲットが第2欠陥に属する第2確率を得る。即ち、振動ダンパーの4種の欠陥確率を加算し、該振動ダンパーに欠陥が存在する確率が0.7であることを知る。この場合の第2欠陥は、振動ダンパーに存在する欠陥であり、第2確率は、振動ダンパーに欠陥がある確率である。複数種の所定の確率をまとめることによって、該第1クラスのターゲットの欠陥確率を決定する。第1クラスのターゲットが各種の所定のターゲットに属する可能性を広く考慮して、第1クラスのターゲットの欠陥確率をより正確にする。 If the first class target is a second subclass target, the second defect detection result includes a second probability that the first class target belongs to the second defect. In some embodiments, the second defect here refers to whether there is a defect in the second subclass of targets. Here, the second probability is the probability that a defect exists in the second subclass. Of course, in other embodiments, the second defect may include multiple different sub-defects. The second probability is the probability that a target of the second subclass belongs to each subdefect. The process of classifying on image regions includes classifying on image regions to obtain probabilities that targets of the first class belong to various given defects, i.e. targets of the second subclass belong to various given defects. , including obtaining the probabilities belonging to . For example, if a target in the first class is a target in a second subclass, such as vibration dampers, classification is performed for image regions containing vibration dampers, and the vibration dampers are normal vibration dampers, rusted vibration dampers, and vibration dampers, respectively. Get the probabilities belonging to damper torsion, vibration damper failure, and vibration damper dropout. For example, the probability that it belongs to a normal vibration damper is 0.1, the probability that it belongs to a rusted vibration damper is 0, the probability that it belongs to a vibration damper torsion is 0.2, and the probability that it belongs to a broken vibration damper is 0. .5 with a probability of belonging to the vibration damper dropout of 0. In this case, it can be obtained that the vibration damper has the highest probability of belonging to the given defect, vibration damper failure. In some embodiments of the present application, the probability allows the vibration damper to be attributed to the vibration damper failure. In an embodiment of the present application, after obtaining the probabilities that the targets of the first class belong to various predetermined defects, the probabilities of the various predetermined defects are added to obtain a second probability that the targets of the first class belong to the second defects. get That is, by adding the four types of defect probabilities of the vibration damper, it is known that the probability that the vibration damper has a defect is 0.7. The second defect in this case is a defect that exists in the vibration damper, and the second probability is the probability that the vibration damper is defective. Determining the defect probability for the first class of targets by summarizing a plurality of predetermined probabilities. The probabilities of the first class targets belonging to various given targets are broadly taken into account to make the defect probabilities of the first class targets more accurate.

画像領域に対して分類を行うプロセスにおいて、用いられるネットワークは、分類ネットワークである。ここで、該分類ネットワークの深さは、第1領域検出ネットワークの深さよりも浅くてもよい。この場合の分類ネットワークは、同様にResNet18であってもよく、無論、他の深さを有するネットワークであってもよい。例えば、第1領域検出ネットワークがResNet101である場合、分類ネットワークは、ResNet50であってもよい。無論、幾つかの実施例において、分類ネットワークの深さは、第1領域検出ネットワークの深さと同じであってもよい。従って、分類ネットワークの選択について、ここで具体的に限定しない。 In the process of performing classification on image regions, the network used is a classification network. Here, the depth of the classification network may be shallower than the depth of the first area detection network. The classification network in this case may similarly be ResNet18, or of course networks with other depths. For example, if the first region detection network is ResNet101, the classification network may be ResNet50. Of course, in some embodiments, the depth of the classification network may be the same as the depth of the first region detection network. Therefore, the selection of the classification network is not specifically limited here.

各異なる部材の異なる欠陥という特徴を考慮して、異なるネットワークモデルを利用して段階的に検出を行うことによって、単一の検出ネットワーク又は分類器を用いる場合に検出漏れ率が高いという問題を一定の程度で軽減させることができる。それと同時に、第2ターゲット検出に用いられるネットワークモデルの深さが第1ターゲット検出に用いられるネットワークモデルの深さよりも浅いため、第2ターゲット検出プロセスにおける演算量を減少させ、検出効率を向上させることができる。 The problem of high false negatives when using a single detection network or classifier is fixed by performing stepwise detection using different network models, taking into account the different defect characteristics of each different component. can be reduced to the extent of At the same time, since the depth of the network model used for the second target detection is shallower than the depth of the network model used for the first target detection, the amount of computation in the second target detection process is reduced and the detection efficiency is improved. can be done.

本願の幾つかの実施例において、欠陥検出結果を得た後、欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングする。ここで、ここの欠陥検出結果は、第1欠陥検出結果と、第2欠陥検出結果と、第2クラスのターゲットに関わる欠陥検出結果と、の組み合わせであってもよい。欠陥検出結果における各欠陥の位置情報を利用して欠陥の寸法を得、欠陥検出結果における寸法が所定の寸法条件を満たさない欠陥をフィルタリングする。例えば、寸法が大きすぎるか又は小さすぎる碍子自爆の欠陥領域又は鳥の巣の領域及び異常振動ダンパーの所在領域をフィルタリングする。又は、欠陥検出結果における確率が第2確率閾値よりも低い欠陥をフィルタリングする。具体的には、異なるクラスのターゲットに対して、異なる閾値を設定する。例えば、第1ターゲットの第1サブクラスのターゲットに対して閾値0.3を設定し、第2サブクラスのターゲットに対して閾値0.2を設定し、第2クラスのターゲットに対して閾値0.2などを設定する。続いて、所定の閾値に基づいて、欠陥検出結果における欠陥をフィルタリングする。無論、欠陥検出結果における欠陥の寸法及び欠陥の確率を同時にフィルタリングし、欠陥検出結果における欠陥の数を減少させることもできる。最後に、最終的な欠陥検出結果における各欠陥の確率の降順に応じて、欠陥検出結果における各欠陥の情報を出力する。ここで、出力される欠陥の情報は、欠陥の、検出されるべき画像における位置情報及び確立を含む。又は、欠陥の、初期画像における位置情報及び対応する確率を直接的に出力する。 In some embodiments of the present application, after obtaining defect detection results, defects in the defect detection results that satisfy a second filtering condition are filtered. Here, the defect detection result here may be a combination of the first defect detection result, the second defect detection result, and the defect detection result related to the target of the second class. The position information of each defect in the defect detection results is used to obtain the dimensions of the defects, and the defects whose dimensions in the defect detection results do not satisfy a predetermined dimension condition are filtered. For example, filter out insulator self-destruct defect areas or bird's nest areas and abnormal vibration damper locations that are too large or too small in size. Alternatively, filters defects whose probability in the defect detection result is lower than a second probability threshold. Specifically, different thresholds are set for targets of different classes. For example, a threshold of 0.3 is set for targets of the first subclass of the first target, a threshold of 0.2 is set for targets of the second subclass, and a threshold of 0.2 is set for targets of the second subclass. etc. Subsequently, the defects in the defect detection results are filtered based on a predetermined threshold. Of course, the defect size and defect probability in the defect detection results can be filtered simultaneously to reduce the number of defects in the defect detection results. Finally, information on each defect in the defect detection result is output according to the descending order of the probability of each defect in the final defect detection result. Here, the output defect information includes position information and probability of the defect in the image to be detected. Or directly output the location information and corresponding probabilities of the defects in the initial image.

本願の幾つかの実施例において、出力の形式は、文字の形式で、欠陥の、検出されるべき画像及び/又は初期画像における位置及び確率を出力することを含んでもよく、付記の方式で、全ての欠陥を検出されるべき画像及び/又は初期画像において標識し、標識枠にそれぞれの確率を記入することを含んでもよく、又は、各欠陥の、検出されるべき画像及び/又は初期画像における対応する画像領域を直接的に出力し、画像領域において欠陥の確率を明記することをふくんでもよい。 In some embodiments of the present application, the form of output may include outputting, in the form of text, the position and probability of the defect in the image to be detected and/or the initial image; marking all defects in the image to be detected and/or the initial image and filling in the respective probability in a marker box, or each defect in the image to be detected and/or the initial image It may involve directly outputting the corresponding image regions and specifying the probabilities of defects in the image regions.

欠陥検出結果における欠陥に対してフィルタリングを行うことによって、フィルタリング後の欠陥検出結果に、可能な限り少ない正常な場合の情報を含ませるか又は明らかに不当な状況を排除し、それにより欠陥検出結果の合理性を向上させ、また、誤検出率を低下させる。 By filtering the defects in the defect detection results, the filtered defect detection results contain as little information as possible in normal cases or exclude clearly unreasonable situations, thereby improving the defect detection results. It improves the rationality of detection and reduces the false positive rate.

上記解決手段において、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 In the above solution, first, the position of the first class target in the image to be detected is detected, and then the defect detection is performed on the image area containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの実際の実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。ここで、欠陥検出方法の実行主体は、欠陥検出装置であってもよい。例えば、欠陥検出方法は、端末機器、サーバ又は他の処理機器により実行されてもよい。ここで、端末機器は、ユーザ機器(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであってもよい。幾つかの実施例において、該欠陥検出方法は、プロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。 In the above methods of specific embodiments, the description order of each step means a strict execution order and does not limit the implementation process in any way, and the actual execution order of each step depends on its function and possible intrinsic logic. It should be understood by those skilled in the art that Here, the execution body of the defect detection method may be a defect detection device. For example, the defect detection method may be performed by a terminal device, server or other processing device. Here, the terminal equipment includes user equipment (UE), mobile equipment, user terminal, terminal, cellular telephone, cordless telephone, personal digital assistant (PDA), handheld equipment, computing equipment, vehicle-mounted equipment. , wearable devices, and the like. In some embodiments, the defect detection method may be implemented by a processor invoking computer readable instructions stored in memory.

以下では、本願の実施例の、実際の適用シーンへの例示的な適用を説明する。本願の実施例は、深層学習に基づく配電網送電線におけるマルチクラス欠陥検出方法を提供する。深層学習モデルを用いて、大きなスケールの入力画像に対して2段階の検出と分類を行う。該方法は、碍子自爆検出、振動ダンパー欠陥検出、鳥の巣検出などの異常欠陥認識を同時に行うことができる。図4aに示すように、該方法の実現フローは主に、RGB画像入力モジュール410、画像前処理モジュール420、一次部材検出モジュール430、二次振動ダンパー分類認識モジュール440、二次碍子自爆検出モジュール450、自爆検出後処理モジュール460及び異常欠陥選別モジュール470という機能モジュールを含む。以下では、各モジュールをそれぞれ具体的に説明する。 An exemplary application of the embodiments of the present application to a real application scene is described below. Embodiments of the present application provide a multi-class fault detection method in power grid transmission lines based on deep learning. A deep learning model is used to perform two-stage detection and classification on large-scale input images. The method can simultaneously perform abnormal defect recognition such as insulator self-destruction detection, vibration damper defect detection, and bird's nest detection. As shown in FIG. 4a, the implementation flow of the method mainly consists of an RGB image input module 410, an image preprocessing module 420, a primary member detection module 430, a secondary vibration damper classification recognition module 440, a secondary insulator self-destruction detection module 450. , a self-destruct detection post-processing module 460 and an abnormal defect screening module 470 . Each module will be specifically described below.

1)RGB画像入力モジュール。該モジュールは、異なる無人機カメラにより撮影されたデータ出力を取得し、無人機により空撮されたRGB画像又は高精細ビデオを得ることができる。高精細ビデオに対して、画像フレームに切り分けて、対応するRGB画像を得ることができる。 1) RGB image input module. The module can take data output captured by different drone cameras and obtain RGB images or high-definition video captured by the drone aerially. For high-definition video, the image frames can be cut into corresponding RGB images.

2)画像前処理モジュール。図4bに示すように、該モジュールは、RGB画像に対して統一した処理を行い、欠陥検出に用いられる入力されるべき画像を得ることができる。処理プロセスは以下を含む。a)画像スケーリング421:入力された高精細RGB画像に対してスケーリングを行い、サイズ1200×1800の画像となるようにスケーリングする。b)画素値圧縮422:スケーリング後の画像の画素値を0-255から、0-1に圧縮する。c)画素値正規化423:ImageNetデー集合の平均値mean及び分散stdを用いて、画素値が圧縮された画像に対して、前記式(1-1)に応じて正規化演算を行う。 2) Image preprocessing module. As shown in FIG. 4b, the module can perform unified processing on the RGB image to obtain the image to be input used for defect detection. The treatment process includes: a) Image scaling 421: Scales the input high-definition RGB image so that the image has a size of 1200×1800. b) Pixel Value Compression 422: Compresses the pixel values of the scaled image from 0-255 to 0-1. c) Pixel value normalization 423: Using the mean value mean and the variance std of the ImageNet data set, the pixel value compressed image is normalized according to the above equation (1-1).

3)一次部材検出モジュール。該モジュールの入力は、正規化されたRGB画像である。ターゲット検出ネットワークFaster R-CNNにより、鳥の巣、碍子連、振動ダンパーという2つのクラスの一次部材を検出し、碍子連領域、振動ダンパー領域及び鳥の巣領域という3つのクラスの候補領域、及び各候補領域に対応するスコアを得る。該モジュールの主なネットワーク構造は、図4cに示すように、ResNet50ヘッダーネットワーク431を検出ネットワークのバックボーンネットワークとして使用し、C4層特徴マップ432を抽出する。該モジュールによる一次部材の検出プロセスは、以下を含む。RGB画像をResNet50ヘッダーネットワーク431により処理することによって、C4層特徴マップ432を得る。特徴マップの大きさは、入力画像の1/16である。ResNet50ヘッダーネットワーク431は、少なくとも1つの畳み込み層、少なくとも1つの正規化層、サブサンプリング層を積層することで構成され、スキップ接続の方式でフォワード演算を行う。C4層特徴マップ432に対して、RPNによる候補枠抽出433を行い、抽出される候補枠は、ターゲットが存在する可能性がある領域である。候補枠とC4層特徴マップをRoIプーリング層434により処理することによって、各候補領域の特徴マップを得、更に、少なくとも1つの全結合層435により処理することによって、各候補領域の特徴ベクトル。候補領域の特徴ベクトルは、候補領域の特徴情報を表す。最後に、各候補領域の特徴ベクトルに対して枠座標回帰436及びマルチクラス分類437を行い、最終的な検出結果を得、鳥の巣、碍子連、振動ダンパーの、元画像における位置領域及び対応する確率値を出力する。ここで、鳥の巣領域を直接的に異常欠陥選別モジュールに送り込み、碍子連領域を二次自爆検出モジュールに送り込んで自爆検出を行い、振動ダンパー領域を二次振動ダンパー分類認識モジュールに送り込んで振動ダンパークラスの分類を行う。 3) Primary Member Detection Module. The input of the module is a normalized RGB image. Target detection network Faster R-CNN detects two classes of primary members: bird's nest, insulator string, and vibration damper, three classes of candidate regions: insulator string region, vibration damper region, and bird's nest region, and Obtain a score corresponding to each candidate region. The main network structure of the module uses the ResNet50 header network 431 as the backbone network of the detection network to extract the C4 layer feature map 432, as shown in Fig. 4c. The detection process of the primary member by the module includes the following. A C4 layer feature map 432 is obtained by processing the RGB image through a ResNet50 header network 431 . The size of the feature map is 1/16 of the input image. The ResNet50 header network 431 is constructed by stacking at least one convolutional layer, at least one normalization layer and subsampling layer, and performs forward operations in the form of skip connections. RPN-based candidate frame extraction 433 is performed on the C4 layer feature map 432, and the extracted candidate frame is an area where the target may exist. The candidate frames and the C4 layer feature map are processed by RoI pooling layer 434 to obtain a feature map for each candidate region, and further processed by at least one fully connected layer 435 to obtain a feature vector for each candidate region. The feature vector of the candidate area represents feature information of the candidate area. Finally, frame coordinate regression 436 and multi-class classification 437 are performed on the feature vector of each candidate region to obtain the final detection result, and the position regions and corresponding output the probability that Here, the bird's nest area is directly fed into the abnormal defect screening module, the insulator chain area is fed into the secondary self-destruction detection module for self-destruction detection, and the vibration damper area is fed into the secondary vibration damper classification recognition module for vibration Classify the damper class.

4)二次振動ダンパー分類認識モジュール。該モジュールは、一次部材検出モジュールにより検出された振動ダンパー領域を入力として、主にResNet18分類ネットワークにより、元画像からトリミングされた振動ダンパー領域に対して異常タイプのマルチ分類(分類クラスも正常なクラスを含む)を行い、最後に欠陥クラスの確率を整合し、正常な振動ダンパー及び異なる異常な振動ダンパーを得る。該モジュールは、振動ダンパーの形態に応じて、振動ダンパーを、正常な振動ダンパー、振動ダンパーの錆びつき、振動ダンパーねじり、振動ダンパー破損、振動ダンパー脱落という5つのクラスに分かる。ここで、後の4つのクラスは、欠陥クラスである。該モジュールによる振動ダンパー分類認識のプロセスは、図4dに示すように、元画像からの振動ダンパー領域のトリミング441、画像前処理442、ResNet18によるマルチ分類443、欠陥クラス確率の整合444という4つのサブプロセスを含む。確率が第1特定の閾値を超える一段部材から検出された振動ダンパー領域に対して、まず、元画像から振動ダンパー領域をトリミングし、続いて、各トリミングされた振動ダンパー領域サブ画像に対して画像前処理を行い、スケールを保持する。続いて、各サブ画像をResNet18分類ネットワークに入力して5分類を行い、softmaxにより、5つの振動ダンパー形態クラスの確率値を算出する。最後に、欠陥クラス確率の整合を行い、即ち、4つのクラスの振動ダンパー欠陥の確率値を加算して、振動ダンパーに欠陥がある確率とする。 4) Secondary vibration damper classification recognition module. This module uses the vibration damper region detected by the primary member detection module as an input, and mainly uses a ResNet18 classification network to classify the vibration damper region trimmed from the original image into multiple abnormal types (classification class is also normal class). ), and finally matching the probabilities of the defect classes to obtain a normal vibration damper and a different abnormal vibration damper. The module classifies vibration dampers into five classes according to the form of the vibration dampers: normal vibration dampers, rusted vibration dampers, vibration damper torsion, vibration damper failure, and vibration damper dropout. Here, the latter four classes are defect classes. The process of vibration damper classification recognition by this module consists of four sub-parts: trimming the vibration damper region from the original image 441, image preprocessing 442, multi-classification by ResNet 18 443, and defect class probability matching 444, as shown in Fig. 4d. Including processes. For vibration damper regions detected from a single-stage member whose probability exceeds a first specified threshold, first crop the vibration damper region from the original image, then image for each cropped vibration damper region sub-image. Pre-treat and retain scale. Each sub-image is then input into a ResNet18 classification network for five classifications, and softmax calculates the probability values of the five vibration damper configuration classes. Finally, the defect class probabilities are matched, ie, the probability values of the vibration damper defects of the four classes are added to give the probability that the vibration damper is defective.

5)二次碍子自爆検出モジュール。該モジュールは、一次部材検出モジュールにより検出された碍子連領域を入力として、主にFaster R-CNN検出ネットワークにより、各碍子連領域サブ画像に対して自爆領域検出を行い、自爆を含む可能性がある碍子を得る。該モジュールの主なネットワーク構造は、図4eに示すように、ResNet18ヘッダーネットワーク451を検出ネットワークのバックボーンネットワークとして用いることで、演算量を減少させることができる。まず、確率が第2特定の閾値を超える碍子連領域をトリミングし、得られた各サブ画像に対して画像前処理を行い、スケールを保持し、検出用RGB画像を得る。各RGB画像をResNet18ヘッダーネットワーク451により処理することによって、碍子連の自爆領域に対して検出を行い、C4層特徴マップ452を得る。C4層特徴マップ452に対してRPNによる候補枠抽出453を行う。抽出された候補枠は、碍子連自爆が存在する可能性がある領域である。候補枠とC4層特徴マップをRoIプーリング層454により処理することによって、各候補領域の特徴マップを得、更に、少なくとも1つの全結合層455により処理することによって、各候補領域の特徴ベクトルを得る。最後に、各候補領域の特徴ベクトルに対して枠座標回帰456及びマルチクラス分類457を行い、最終的な検出結果を得、碍子連の自爆領域及び対応する確率値を出力する。 5) Secondary insulator self-destruction detection module. This module takes the insulator string region detected by the primary member detection module as input, mainly by Faster R-CNN detection network, performs self-explosion region detection for each insulator string region sub-image, and detects the possibility of self-explosion. Get a certain insulator. The main network structure of the module is shown in Fig. 4e, using a ResNet18 header network 451 as the backbone network of the detection network to reduce the amount of computation. First, trim the insulator string regions whose probability exceeds a second specified threshold, and perform image preprocessing on each resulting sub-image to preserve scale and obtain an RGB image for detection. Each RGB image is processed by a ResNet18 header network 451 to detect the self-destruct region of the insulator string to obtain a C4 layer feature map 452 . Candidate frame extraction 453 by RPN is performed on the C4 layer feature map 452 . The extracted candidate frame is a region in which continuous insulator self-destruction may exist. The candidate frame and the C4 layer feature map are processed by the RoI pooling layer 454 to obtain a feature map for each candidate region, and further processed by at least one fully connected layer 455 to obtain a feature vector for each candidate region. . Finally, frame coordinate regression 456 and multi-class classification 457 are performed on the feature vector of each candidate region to obtain the final detection result and output the self-destruct region of the insulator string and the corresponding probability value.

6)自爆検出後処理モジュール。該モジュールは、碍子連領域サブ画像における自爆検出結果を元画像結果にマッピングし、複数回繰り返して検出された自爆領域に対して重複抑制処理を行い、元画像における碍子自爆領域の位置情報を得る。該モジュールの処理プロセスは、以下の3つのステップに分けられる。a)碍子連サブ画像における自爆領域の座標を元画像領域にマッピングする。b)重複した自爆領域を抑制する。c)スコアが低い自爆領域枠をフィルタリングする。 6) Self-destruct detection post-processing module. This module maps the self-destruction detection result in the insulator continuous region sub-image to the original image result, performs overlap suppression processing on the self-destruction region detected repeatedly a plurality of times, and obtains the position information of the insulator self-destruction region in the original image. . The processing process of the module is divided into the following three steps. a) Mapping the coordinates of the self-destruct region in the insulator sub-image onto the original image region. b) suppress overlapping self-destruct regions; c) Filter out self-destruct box with low score.

7)異常欠陥選別モジュール。該モジュールは、鳥の巣領域、異常振動ダンパー、碍子自爆の検出認識結果に対して選別を行い、最終的な異常欠陥検出結果を得る。該モジュールの処理プロセスは、以下の3つのステップに分けられる。a)鳥の巣領域及び自爆領域に対して寸法に応じてフィルタリングを行い、大きすぎる検出枠及び小さすぎる検出枠を除去する。b)鳥の巣、碍子自爆及び異常振動ダンパーに対して、それぞれのクラスの閾値に応じて、対応する閾値よりも低い結果を削除する。c)全ての残された検出結果をスコアの降順に応じて全体的に順序付けて出力結果とする。 7) Abnormal defect sorting module. The module sorts out the bird's nest area, abnormal vibration damper, and insulator self-destruction detection recognition results to obtain a final abnormal defect detection result. The processing process of the module is divided into the following three steps. a) Filter the bird's nest area and the self-explosion area according to their dimensions to remove detection windows that are too large and too small. b) For bird's nest, insulator self-destruction and abnormal vibration damper, according to the respective class threshold, delete the results lower than the corresponding threshold. c) All remaining detection results are ordered globally according to the descending order of scores as output results.

本願の実施例において、無人機により空撮された高精細画像を入力として用い、軽量型深層学習検出及び分類モジュールを導入して、碍子自爆、振動ダンパー、鳥の巣の付着などの複数の欠陥異常に対して統合的に認識を行う。以下の有益な効果を有する。1)関連技術における送電網欠陥検出アルゴリズムにおいて、主に画像処理及び機械学習の方法を利用して、ターゲットに対して手作りの特徴を先験的に構成する必要があり、ロバスト性が悪く、正確度が低く、且つ撮影環境による影響が大きい。本願の実施例において、深層学習モデルに基づいて、ネットワークにより特徴を能動的に学習する。適用シーンがより広く、ロバスト性がより強く、正確度がより高い。2)本願の実施例において、送電線路巡回検査シーンに対して提出された2段階の検出-検出、検出-分類アルゴリズムは、無人機により空撮された高精細画像に適し、且つ、碍子自爆が、碍子連に依存するという欠陥特徴を十分に考慮することによって、関連技術における単一のネットワーク検出又は分類器の、高精細画像検出認識効果が低いという問題を解決する。3)関連技術において、1つのアルゴリズムは、1種の部材の欠陥のみを検出認識することができる。複数種の欠陥検出を行うために、元画像を異なるアルゴリズムに繰り返して入力する必要があり、効率が低い。本願の実施例において、複数種の欠陥を1つのアルゴリズムに整合して検出認識を行い、正確性を確保する前提で、検出効率を大幅に向上させる。 In the embodiments of the present application, high-definition images taken by drones are used as input, and a lightweight deep learning detection and classification module is introduced to detect multiple defects such as insulator self-destruction, vibration dampers, and bird nest attachment. Anomalies are recognized in an integrated manner. It has the following beneficial effects: 1) In the grid fault detection algorithms in the related art, mainly using image processing and machine learning methods, it is necessary to construct hand-crafted features for the target a priori, which is not robust and accurate; The degree is low, and the influence of the shooting environment is large. In the embodiments of the present application, features are actively learned by the network based on a deep learning model. It has a wider application scene, stronger robustness, and higher accuracy. 2) The two-stage detection-detection, detection-classification algorithm proposed for the transmission line patrol inspection scene in the examples of the present application is suitable for high-definition images taken by drones, and the insulator self-destruction , solves the problem that the high-definition image detection and recognition effect of the single network detection or classifier in the related art is low by fully considering the defect feature of relying on the insulator string. 3) In the related art, one algorithm can only detect and recognize defects in one type of component. In order to detect multiple kinds of defects, it is necessary to repeatedly input the original image to different algorithms, which is inefficient. In the embodiments of the present application, multiple types of defects are detected and recognized by one algorithm, and the detection efficiency is greatly improved on the premise of ensuring accuracy.

図5を参照すると、図5は、本願の実施例による欠陥検出装置の構造を示す概略図である。欠陥検出装置30は、第1ターゲット検出モジュール31と、画像領域取得モジュール32と、欠陥検出モジュール33と、を備え、第1ターゲット検出モジュール31は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成され、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含み、領域取得モジュール32は、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得するように構成され、欠陥検出モジュール33は、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得るように構成される。 Please refer to FIG. 5, which is a schematic diagram showing the structure of a defect detection apparatus according to an embodiment of the present application. The defect detection apparatus 30 comprises a first target detection module 31, an image area acquisition module 32, and a defect detection module 33, wherein the first target detection module 31 performs first target detection on an image to be detected. to obtain a target detection result, the target detection result including a first class of targets and first location information of the first class of targets in the image to be detected, and the region acquisition module 32 performs a first 1, the defect detection module 33 is configured to obtain an image region containing a first class target based on the position information, and performs defect detection on the image region to obtain a defect detection result related to the first class target; is configured to obtain

上記解決手段において、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 In the above solution, first, the position of the first class target in the image to be detected is detected, and then the defect detection is performed on the image area containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

ここで、欠陥検出装置30は、前処理モジュール(図示されず)を更に備える。 Here, the defect detection device 30 further comprises a pretreatment module (not shown).

本願の幾つかの実施例において、第1ターゲット検出モジュール31が検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、前処理モジュールは、初期画像をスケーリングし、所定のサイズの画像を得、スケーリング後の初期画像の画素値を所定の画素値範囲に圧縮し、圧縮された初期画像に対して正規化処理を行い、検出されるべき画像を得るように構成される。 In some embodiments of the present application, before the first target detection module 31 performs the first target detection on the image to be detected and obtains the target detection result, the preprocessing module scales the initial image, An image of a predetermined size is obtained, pixel values of the initial image after scaling are compressed to a predetermined pixel value range, normalization processing is performed on the compressed initial image, and an image to be detected is obtained. be done.

上記解決手段において、取得した初期画像の寸法又は画素に対して処理を行うことによって、統一した画像スタイルを得、入力画像のロバスト性を一定の程度で向上させることができる。 In the above solution, by performing processing on the dimensions or pixels of the initial image obtained, a uniform image style can be obtained and the robustness of the input image can be improved to a certain extent.

本願の幾つかの実施例において、第1ターゲット検出モジュール31が検出されるべき画像に対して第1ターゲット検出を行い、検出結果を得ることは、第1領域検出ネットワークを利用して、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることを含み、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることは、第2領域検出ネットワークを利用して、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、ここで、第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い、ことを含み、画像領域に対して分類を行い、第2欠陥検出結果を得ることは、分類ネットワークを利用して、画像領域に対して分類を行い、第2欠陥検出結果を得ることを含む。 In some embodiments of the present application, the first target detection module 31 performs first target detection on the image to be detected and obtains the detection result using a first area detection network. performing a first target detection on the image to obtain a target detection result; performing a second target detection on the image region to obtain a first defect detection result comprising: a second region detection network; performing a second target detection on an image region to obtain a first defect detection result, wherein the depth of the second region detection network is greater than the depth of the first region detection network using Classifying the image region to obtain the second defect detection result comprises shallowly classifying the image region to obtain the second defect detection result using a classification network. include.

上記解決手段において、各異なる部材の異なる欠陥の特徴を考慮して、異なるネットワークモデルを利用して段階的に検出を行うことによって、単一の検出ネットワークを用いる場合に検出漏れ率が高いという問題を一定の程度で解決することができる。それと同時に、第2ターゲット検出に用いられるネットワークモデルの深さが第1ターゲット検出に用いられるネットワークモデルの深さよりも浅いため、第2ターゲット検出プロセスにおける演算量を減少させ、検出効率を向上させることができる。 In the above solution, the stepwise detection using different network models, taking into account the different defect characteristics of each different component, results in a high false detection rate when using a single detection network. can be resolved to some extent. At the same time, since the depth of the network model used for the second target detection is shallower than the depth of the network model used for the first target detection, the amount of computation in the second target detection process is reduced and the detection efficiency is improved. can be done.

本願の幾つかの実施例において、画像領域取得モジュール32が第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することは、第1位置情報に基づいて、検出されるべき画像から、第1クラスのターゲットに対応するターゲット領域を決定することと、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張することと、検出されるべき画像から、外側へ拡張されたターゲット領域を抽出し、第1クラスのターゲットを含む画像領域を得ることと、を含む。 In some embodiments of the present application, the image region acquisition module 32 acquires an image region including a first class target based on the first location information to be detected based on the first location information. determining from the image a target region corresponding to the first class of targets; extending the target region outward by a predetermined multiple in the image to be detected; extracting the target region from the first class to obtain an image region containing the first class of targets.

上記解決手段において、ターゲット領域を検出されるべき画像において所定の倍数だけ外側へ拡張することによって、第1クラスのターゲットに対応するターゲット領域を含むものを取得した後に、一部の背景情報を残すことができ、第1クラスのターゲットに対する欠陥検出の正確度を向上させることができる。 In the above solution, leaving some background information after obtaining the one containing the target area corresponding to the first class of targets by extending the target area outward in the image to be detected by a predetermined factor. and improve the accuracy of defect detection for first class targets.

本願の幾つかの実施例において、欠陥検出モジュール33が更に、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得るように構成されることは、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、ここで、第1欠陥検出結果は、第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含む、こと、及び/又は、画像領域に対して分類を行い、第2欠陥検出結果を得ることであって、ここで、第2欠陥検出結果は、第1クラスのターゲットが属する第2欠陥の情報を含む、ことを含む。 In some embodiments of the present application, defect detection module 33 is further configured to perform defect detection on the image area and obtain defect detection results for the first class of targets, comprising: to obtain a first defect detection result, wherein the first defect detection result includes information of at least one first defect present in the first class of targets; and/or performing classification on the image region to obtain a second defect detection result, wherein the second defect detection result includes information about the second defect to which the target of the first class belongs. including, including

上記解決手段において、複数の方式により、第1クラスのターゲットを含む画像領域に対して検出を行うことによって、異なる第1クラスのターゲットに対して、異なる検出方式を用い、欠陥検出に、より高い目的性を持たせることができる。それにより得られた欠陥検出結果がより正確である。又は、同一の第1クラスのターゲットに対して異なる検出方式を行い、続いて各異なる欠陥検出方式をまとめることによって得られた検出されるべき画像の最終的な欠陥検出結果がより正確であり、誤検出率を更に低減させる。 In the above solution, by detecting the image area containing the first class targets by multiple methods, different detection methods are used for different first class targets, and the defect detection can be performed with higher accuracy. It can be purposeful. The resulting defect detection results are more accurate. or the final defect detection result of the image to be detected obtained by performing different detection schemes on the same first class target and then combining each different defect detection scheme is more accurate, Further reduce the false positive rate.

本願の幾つかの実施例において、欠陥検出モジュール33が更に、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関する欠陥検出結果を得るように構成されることは、第1クラスのターゲットが第1サブクラスのターゲットである場合、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行することと、第1クラスのターゲットが第2サブクラスのターゲットである場合、画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行することと、を含む。 In some embodiments herein, defect detection module 33 is further configured to perform defect detection on the image area and obtain defect detection results for the first class of targets. performing a second target detection on the image region to obtain a first defect detection result if is a target of the first subclass; and if the target of the first class is a target of the second subclass: , performing classification on the image region to obtain a second defect detection result.

上記解決手段において、異なるターゲット対象に対して異なる欠陥検出方式を用いることによって、欠陥検出をより柔軟にする。全ての種類のターゲットに対して同一の検出方式を用いることに比べて、より高い目的性を有し、欠陥検出結果がより正確になる。 In the above solution, using different defect detection schemes for different target objects makes defect detection more flexible. Compared to using the same detection scheme for all types of targets, it is more purposeful and results in more accurate defect detection results.

本願の幾つかの実施例において、第1欠陥検出結果は、各種の第1欠陥の位置情報及び第1欠陥に属する第1確率を含み、欠陥検出モジュール33が画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、各種の第1欠陥の位置情報に応じて、検出されるべき画像における各種の第1欠陥の欠陥領域をそれぞれ決定し、異なる欠陥領域間の重複領域に対して重複排除処理を行うことと、第1確率が第1フィルタリング条件を満たす第1欠陥をフィルタリングすることと、のうちの少なくとも1つを含む。 In some embodiments of the present application, the first defect detection result includes location information of various first defects and a first probability belonging to the first defect, and the defect detection module 33 detects the second target for the image area. after obtaining the first defect detection result, according to the position information of the various first defects, respectively determine the defect areas of the various first defects in the image to be detected, and determine the overlap between the different defect areas At least one of performing a de-duplication process on the region and filtering first defects whose first probability satisfies a first filtering condition.

上記解決手段において、第1サブクラスのターゲットにおける第1欠陥の確率及び第1サブクラスのターゲットを含む画像領域における位置情報を取得し、且つ該位置情報に基づいて、検出されるべき画像における、第1欠陥に対応する領域を見付け、重複部分に対して重複排除処理を行うことによって、1つの第1欠陥を1つの欠陥領域に対応させ、1つの欠陥に対して複数回の後続処理を行うという問題を減少させ、最終的な出力の正確率を向上させる。フィルタリング条件を満たす領域を削除することによって、後続で処理される領域の数を減少させ、処理効率を向上させることができる。 In the above solution, obtaining position information in an image region containing the probability of the first defect in the first subclass of targets and the first subclass of targets, and based on the position information, in the image to be detected, the first The problem of matching one first defect to one defect area by finding the area corresponding to the defect and performing de-duplication processing on the overlapping part, and performing multiple subsequent processes on one defect. and improve the accuracy rate of the final output. By removing regions that satisfy the filtering conditions, the number of regions to be subsequently processed can be reduced and processing efficiency can be improved.

本願の幾つかの実施例において、第1フィルタリング条件は、第1確率が第1確率閾値よりも低いことであり、及び/又は、異なる欠陥領域間の重複領域に対して重複排除処理を行うことは、異なる欠陥領域間の重複領域に対して非極大値抑制を行うことを含む。 In some embodiments of the present application, the first filtering condition is that the first probability is lower than the first probability threshold, and/or performing de-duplication on overlapping regions between different defect regions. involves performing non-maximal suppression on overlap regions between different defect regions.

上記解決手段において、欠陥確率が低いものを削除することによって、多くの不必要な処理領域を減少させ、処理効率を向上させる。非極大値抑制の方式により重複排除を行うことによって、欠陥確率がより大きい欠陥領域を残すことができ、処理効率を向上させると同時に、欠陥検出の正確率を向上させることもできる。 In the above solution, by removing those with low defect probability, many unnecessary processing areas are reduced and the processing efficiency is improved. Deduplication using the non-maximal value suppression method can leave defective areas with a higher defect probability, thereby improving the processing efficiency and at the same time improving the accuracy rate of defect detection.

本願の幾つかの実施例において、第2欠陥検出結果は、第1クラスのターゲットが第2欠陥に属する第2確率を含み、欠陥検出モジュール33が画像領域に対して分類を行い、第2欠陥検出結果を得ることは、画像領域に対して分類を行い、第1クラスのターゲットが各種の所定の欠陥に属する確率を得ることと、各種の所定の確率を加算し、第1クラスのターゲットが第2欠陥に属する第2確率を得ることと、を含む。 In some embodiments of the present application, the second defect detection result includes a second probability that the target in the first class belongs to the second defect, defect detection module 33 performing classification on the image region, the second defect Obtaining detection results includes: performing classification on the image region to obtain the probability that the first class of targets belong to various predetermined defects; and summing the various predetermined probabilities to obtain the obtaining a second probability belonging to the second defect.

上記解決手段において、複数種の所定の欠陥の確率を総合することによって、該第1クラスのターゲットの欠陥確率を決定する。第1クラスのターゲットが各種の所定の欠陥に属する可能性を広く考慮することによって、第1クラスのターゲットの欠陥確率をより正確にする。 In the above solution, the defect probability of the target of the first class is determined by aggregating the probabilities of a plurality of predetermined defects. The defect probabilities of the first class targets are made more accurate by broadly considering the likelihood that the first class targets belong to various given defects.

本願の幾つかの実施例において、第1ターゲット検出モジュール31が検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることは、欠陥検出モデルの第1領域検出ネットワークを利用して、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることを含み、欠陥検出モジュール33が画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることは、欠陥検出モデルの第2領域検出ネットワークを利用して、画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、ここで、第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い、ことを含み、画像領域に対して分類を行い、第2欠陥検出結果を得ることは、欠陥検出モデルの分類ネットワークを利用して、画像領域に対して分類を行い、第2欠陥検出結果を得ることを含む。 In some embodiments of the present application, the first target detection module 31 performs the first target detection on the image to be detected to obtain the target detection result using the first region detection network of the defect detection model. and performing a first target detection on the image to be detected to obtain a target detection result, and the defect detection module 33 performing a second target detection on the image area to obtain the first defect detection result. Obtaining a second target detection for the image region using a second region detection network of the defect detection model to obtain a first defect detection result, wherein the second region detection network is shallower than the depth of the first area detection network, performing classification on the image area to obtain a second defect detection result using the classification network of the defect detection model, Performing a classification on the image region to obtain a second defect detection result.

上記解決手段において、各異なる部材に異なる欠陥が存在する可能性があるという特徴を考慮して、異なるネットワークモデルを利用して段階的に検出を行うことによって、単一の検出ネットワークを用いる場合に検出漏れ率が高いという問題を一定の程度で軽減させることができる。それと同時に、第2ターゲット検出に用いられるネットワークモデルの深さが第1ターゲット検出に用いられるネットワークモデルの深さよりも浅いため、第2ターゲット検出プロセスにおける演算量を減少させ、検出効率を向上させることができる。 In the above solution, by taking into account the feature that each different component may have different defects, and detecting in stages using different network models, when using a single detection network: The problem of high false positive rate can be mitigated to some extent. At the same time, since the depth of the network model used for the second target detection is shallower than the depth of the network model used for the first target detection, the amount of computation in the second target detection process is reduced and the detection efficiency is improved. can be done.

本願の幾つかの実施例において、ターゲット検出結果は、第2クラスのターゲット及び第2クラスのターゲットの、検出されるべき画像における第2位置情報を更に含み、第1ターゲット検出モジュール31は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、更に、第2クラスのターゲットを検出されるべき画像における第3欠陥として決定し、第2クラスのターゲット及びその第2位置情報を第2クラスのターゲットに関わる欠陥検出結果とするように構成される。 In some embodiments of the present application, the target detection result further includes a second class of targets and second position information of the second class of targets in the image to be detected, and the first target detection module 31 detects After performing the first target detection on the image to be detected and obtaining the target detection result, further determining the second class target as the third defect in the image to be detected, and determining the second class target and its The second location information is configured to be defect detection results associated with a second class of targets.

上記解決手段において、存在しないはずの第2クラスのターゲットを第3欠陥とすることによって、1つの欠陥検出モデルは、複数種のターゲットに対して検出を行うことができ、欠陥検出モデルの適応性を向上させる。 In the above solution, by making the second class target that should not exist as the third defect, one defect detection model can detect a plurality of types of targets, and the adaptability of the defect detection model improve.

本願の幾つかの実施例において、欠陥検出モジュール33は、欠陥検出結果を得た後、更に、欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、検出されるべき画像の最終的欠陥検出結果を得ることを更に含む。 In some embodiments of the present application, after obtaining the defect detection results, the defect detection module 33 further filters defects that satisfy a second filtering condition in the defect detection results, and performs final defect detection of the image to be detected. Further including obtaining a result.

上記解決手段において、条件を満たさない条件をフィルタリングすることによって、明らかに不当な欠陥を減少させ、最終的に得られた欠陥検出結果をより正確にする。 Filtering the unsatisfied conditions in the above solution reduces the number of apparently illegal defects and makes the final defect detection results more accurate.

本願の幾つかの実施例において、検出モジュール33が欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングすることは、欠陥検出結果における欠陥の位置情報を利用して欠陥の寸法を得、欠陥検出結果における、寸法が所定の寸法条件を満たさない欠陥をフィルタリングすること、及び/又は、欠陥検出結果における確率が第2確率閾値よりも低い欠陥をフィルタリングすることを含む。 In some embodiments of the present application, the detection module 33 filtering the defects satisfying the second filtering condition in the defect detection results includes using the defect location information in the defect detection results to obtain the dimensions of the defects, and the defect detection results. Filtering defects in the results whose dimensions do not meet a predetermined dimension condition and/or filtering defects whose probability in the defect detection result is lower than a second probability threshold.

上記解決手段において、寸法又は確率が条件を満たさないものをフィルタリングすることによって、明らかに不当な欠陥を減少させ、最終的に得られた欠陥検出結果をより正確にする。 In the above solution, by filtering those whose dimensions or probabilities do not meet the conditions, obviously unjustified defects are reduced and the finally obtained defect detection result is more accurate.

本願の幾つかの実施例において、欠陥検出モジュール33が検出されるべき画像の最終的欠陥検出結果を得た後、更に、最終的欠陥検出結果における各欠陥の確率の降順に応じて、最終的欠陥検出結果における各欠陥の情報を出力するように構成される。 In some embodiments of the present application, after the defect detection module 33 obtains the final defect detection result of the image to be detected, further according to the descending order of the probability of each defect in the final defect detection result, the final It is configured to output information of each defect in the defect detection result.

上記解決手段において、各欠陥の確率の降順に応じて、最終的欠陥検出結果における各欠陥の情報を出力することによって、出力結果をよりスッキリさせ、後続の更なる観察に寄与する。 In the above solution, outputting the information of each defect in the final defect detection result according to the descending order of the probability of each defect makes the output result clearer and contributes to subsequent further observation.

欠陥検出装置は、訓練モジュール(図示されず)を更に備え、訓練モジュールは、欠陥検出モデルを訓練するように構成される。 The defect detection apparatus further comprises a training module (not shown), the training module configured to train the defect detection model.

本願の幾つかの実施例において、第1ターゲット検出及び欠陥検出は、欠陥検出モデルにより実行され、ここで、欠陥検出モデルは少なくとも、第1サンプル集合を取得するステップであって、ここで、第サンプル集合は少なくとも1つのサンプル画像を含み、サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、ターゲットは第1クラスのターゲットを含む、ステップと、欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得るステップと、真実の欠陥情報及び欠陥検出結果を利用して、欠陥検出モデルのパラメータを調整するステップと、を実行するによって、訓練されたものである。 In some embodiments of the present application, the first target detection and defect detection are performed by a defect detection model, wherein the defect detection model at least obtains a first sample set, wherein: The sample set includes at least one sample image, the sample image annotated with true defect information about the target, the target including a first class of targets; performing detection on the sample images in the sample set to obtain target-related defect detection results; and using the true defect information and defect detection results to adjust the parameters of the defect detection model. was trained by

上記解決手段において、上記方式により訓練された欠陥検出モデルの正確度がより高く、それにより第1ターゲット検出及び欠陥検出を行い、検出結果をより正確にする。 In the above solution, the accuracy of the defect detection model trained by the above method is higher, thereby performing the first target detection and defect detection, making the detection result more accurate.

本願の幾つかの実施例において、欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各グラフィックプロセッサが取得した第1サンプル集合は異なり、訓練モジュールが欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得ることは、各グラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期し、各グラフィックプロセッサにおけるバッチ標準化層の同期後に欠陥検出モデルを利用して、サンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得ることを含み、真実の欠陥情報及び欠陥検出結果を利用して、欠陥検出モデルのパラメータを調整することは、全ての欠陥検出結果と真実の欠陥情報に基づいて、欠陥検出モデルの平均損失値を決定することと、平均損失値を利用して、欠陥検出モデルのパラメータを調整することと、を含む。 In some embodiments of the present application, the defect detection model is jointly trained by multiple graphics processors, each graphics processor obtains a different first set of samples, and the training module utilizes the defect detection model to: , performing detection on the sample images in the first sample set to obtain defect detection results for the target includes: synchronizing the batch normalization layer of the defect detection model in each graphics processor; and synchronizing the batch normalization layer in each graphics processor. After using the defect detection model to perform detection on the sample image to obtain the defect detection results related to the target, the real defect information and the defect detection results are used to adjust the parameters of the defect detection model. determining an average loss value of a defect detection model based on all defect detection results and true defect information; using the average loss value to adjust parameters of the defect detection model; including.

上記解決手段において、複数のグラフィックプロセッサにおける欠陥検出モデルのバッチ標準化層を同期することによって、グローバルな第1サンプル集合を利用して正規化を行うことができ、バッチサイズの増大に相当する。それにより複数のグラフィックプロセッサの使用による影響を減少させる。また、複数のグラフィックプロセッサにより、欠陥検出モデルを訓練することによって、訓練速度を速くする。 In the above solution, by synchronizing the batch normalization layers of the defect detection model on multiple graphics processors, the global first sample set can be used for normalization, corresponding to an increase in batch size. This reduces the impact of using multiple graphics processors. Also, training the defect detection model with multiple graphics processors speeds up the training.

本願の幾つかの実施例において、訓練モジュールが欠陥検出モデルを利用して、第1サンプル集合におけるサンプル画像に対して検出を行い、ターゲットに関わる欠陥検出結果を得る前に、第2サンプル集合を利用して、欠陥検出モデルに対して事前訓練を行うステップと、第1サンプル集合を利用して、欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを更に含み、ここで、予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、所定の学習率まで次第に増大するものであり、ここで、第1サンプル集合におけるサンプル画像は少なくとも、元画像に対して前処理を行い、サンプル画像を得るステップにより得られたものであり、前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含む。 In some embodiments of the present application, the training module utilizes the defect detection model to perform detection on the sample images in the first sample set and to obtain the defect detection results for the target before performing detection on the second sample set. pre-training the defect detection model using the first sample set; and pre-training the defect detection model using the first sample set, wherein wherein the learning rate used in the pre-training process is from a first learning rate lower than the predetermined learning rate and gradually increases up to the predetermined learning rate, wherein the sample images in the first sample set are at least , preprocessing the original image to obtain a sample image, wherein the preprocessing method is at least one of scale conversion, color conversion, horizontal flip, vertical flip, rotation, and trimming. including one.

上記解決手段において、欠陥検出モデルを正式に訓練する前に、まず、第2サンプル集合を利用して、欠陥検出モデルに対して事前訓練を行うことによって、欠陥検出モデルのパラメータを初期化するか、又は、正式な訓練の前に、学習率を初期化し、元画像に対して前処理を行うことによって、欠陥検出モデルの適応性を向上させる。 In the above solution, before formally training the defect detection model, first initialize the parameters of the defect detection model by pre-training the defect detection model using the second sample set; Or, before formal training, initializing the learning rate and preprocessing the original images to improve the adaptability of the defect detection model.

図5を参照すると、図5は、本願の実施例による電子機器の構造を示す概略図である。電子機器40は、メモリ41と、プロセッサ42と、を備え、プロセッサ42は、メモリ41に記憶されたプログラム命令を実行し、上記欠陥検出方法の実施例のステップを実現させるように構成される。1つの実施シーンにおいて、電子機器40は、マイクロコンピュータ、サーバを含んでもよいが、これらに限定されない。なお、電子機器40は、ノートパソコン、タブレットなどの携帯機器を含んでもよく、ここで、これを限定するものではない。 Referring to FIG. 5, FIG. 5 is a schematic diagram illustrating the structure of an electronic device according to an embodiment of the present application. The electronic device 40 comprises a memory 41 and a processor 42, the processor 42 being configured to execute program instructions stored in the memory 41 to implement the steps of the defect detection method embodiments described above. In one implementation, electronic device 40 may include, but is not limited to, a microcomputer, a server. Note that the electronic device 40 may include portable devices such as notebook computers and tablets, and is not limited to this.

具体的には、プロセッサ42は、その自体及びメモリ41を制御して、上記いずれか1つの欠陥検出方法の実施例におけるステップを実現させるように構成される。プロセッサ42は、CPU(Central Processing Unit:中央演算装置)と呼ばれてもよい。プロセッサ42は、信号処理能力を持つ集積回路チップであってもよい。プロセッサ42は、汎用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor:DSP)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)又は他のプログラマブルゲートアレイ、ディスクリートゲート又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントであってもよい。汎用プロセッサは、マイクロプロセッサであってもよく、該プロセッサは、如何なる従来のプロセッサなどであってもよい。なお、プロセッサ42は、集積回路チップにより共同で実現してもよい。 Specifically, the processor 42 is configured to control itself and the memory 41 to implement the steps in any one of the defect detection method embodiments described above. The processor 42 may be called a CPU (Central Processing Unit). Processor 42 may be an integrated circuit chip with signal processing capabilities. Processor 42 may be a general purpose processor, a Digital Signal Processor (DSP), an Application Specific Integrated Circuit (ASIC), a Field-Programmable Gate Array (FPGA) or other programmable gates. It may be an array, a discrete gate or transistor logic device, a discrete hardware component. A general-purpose processor may be a microprocessor, such as any conventional processor. Note that processor 42 may be co-embodied by an integrated circuit chip.

上記解決手段において、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 In the above solution, first, the position of the first class target in the image to be detected is detected, and then the defect detection is performed on the image area containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

図6を参照すると、図6は、本願の実施例によるコンピュータ可読記憶媒体の構造を示す概略図である。コンピュータ可読記憶媒体50に、プロセッサにより実行可能なプログラム命令501が記憶されており、プログラム命令501は、上記欠陥検出方法の実施例のステップを実現させるように構成される。 Referring to FIG. 6, FIG. 6 is a schematic diagram showing the structure of a computer-readable storage medium according to an embodiment of the present application. A computer readable storage medium 50 stores program instructions 501 executable by a processor, the program instructions 501 being configured to implement the steps of the above defect detection method embodiments.

本願の実施例は、コンピュータプログラム製品を更に提供する。該コンピュータプログラム製品は、プロセッサにより実行される時、前記実施例のいずれか1つの方法を実現させる。該コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。本願の幾つかの実施例において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として具現化され、本願の別の幾つかの実施例において、コンピュータプログラム製品は、例えば、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として具現化される。 Embodiments of the present application further provide a computer program product. The computer program product implements the method of any one of the above embodiments when executed by a processor. The computer program product may be implemented in hardware, software or a combination thereof. In some embodiments of the present application, the computer program product is embodied as a computer storage medium, and in some other embodiments of the present application, the computer program product is, for example, a Software Development Kit (SDK). ), etc., as a software product.

上記解決手段において、まず、検出されるべき画像における第1クラスのターゲットの位置を検出し、続いて、第1クラスのターゲットを含む画像領域に対して欠陥検出を行う。ターゲットの所在画像領域に対して直接的に欠陥検出を行うことによって、欠陥検出の領域を減少させ、検出漏れ率及び誤検出率を低下させることができる。 In the above solution, first, the position of the first class target in the image to be detected is detected, and then the defect detection is performed on the image area containing the first class target. By performing defect detection directly on the image area where the target is located, the area of defect detection can be reduced and the false positive and false positive rates can be reduced.

幾つかの実施例において、本願の実施例が提供する装置が有する機能又は含むモジュールは、上記方法の実施例に記載の方法を実行するように構成されてもよく、その具体的な実現は、上記方法の実施例の記述を参照することができ、簡潔のために、ここで詳細な説明を省略する。 In some embodiments, the functions possessed by or the modules included in the apparatus provided by the embodiments of the present application may be configured to perform the methods described in the above method embodiments, the specific implementation of which includes: Reference can be made to the description of the embodiment of the above method, and for the sake of brevity, the detailed description is omitted here.

上記各実施例に対する説明は、各実施例間の相違を強調し、その同じまたは類似な所は相互に参照されることができ、簡潔のために、ここで詳細な説明を省略する。 The description of each embodiment above emphasizes the differences between each embodiment, and the same or similar parts can be referred to each other, and the detailed description is omitted here for the sake of brevity.

本発明で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。以上に記載した装置の実施例はただ例示的なものであり、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。また例えば、複数のユニット又はコンポーネントを組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかの通信インタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。 It should be understood that the systems, devices and methods disclosed in some of the embodiments provided by the present invention can be implemented in other manners. The above-described embodiments of the apparatus are merely exemplary, for example, the division of the units is merely the division of logic functions, and other division schemes may be used in actual implementation. Also, for example, multiple units or components may be combined or incorporated into another system. Or some features may be ignored or not implemented. Also, the mutual couplings or direct couplings or communication connections shown or discussed may be indirect couplings or communication connections through some communication interface, device or unit, whether electrical, mechanical or Other forms are also possible.

また、本願の各実施例における各機能ユニットは1つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ又は2つ以上のユニットが1つのユニットに集積されてもよい。上記集積したユニットは、ハードウェアの形式で実現してもよく、ソフトウェア機能ユニットの形式で実現してもよい。 Also, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist as a separate physical unit, or two or more units may be may be integrated in one unit. The integrated units may be implemented in the form of hardware or in the form of software functional units.

集積したユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよいことに留意されたい。このような理解のもと、本願の実施例の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、1台のコンピュータ設備(パソコン、サーバ、又はネットワーク装置など)又はプロセッサ(processor)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどの、プログラムコードを記憶できる種々の媒体を含む。 Note that integrated units may be implemented in the form of software functional units and stored in a computer readable storage medium when sold or used as stand-alone products. Based on this understanding, the technical solutions of the embodiments of the present application are essentially or part of the contribution to the prior art or part of the technical solutions are in the form of software products. , such computer software products may be stored in a storage medium, and may be stored in a single piece of computer equipment (such as a personal computer, server, or network device) or processor in accordance with the present application. It contains some instructions for performing all or part of the steps of the method described in each embodiment. The storage medium includes USB memory, removable hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, optical disk, and various other media capable of storing program code. including.

本願の実施例は、欠陥検出方法、関連装置、機器及び記憶媒体を提供する。ここで、方法は、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることであって、ターゲット検出結果は、第1クラスのターゲット及び検出されるべき画像における第1クラスのターゲットの第1位置情報を含む、ことと、第1位置情報に基づいて、第1クラスのターゲットを含む画像領域を取得することと、画像領域に対して欠陥検出を行い、第1クラスのターゲットに関わる欠陥検出結果を得ることと、を含む。上記解決手段において、本願の実施例が提供する欠陥検出方法により、検出されるべき画像に対して欠陥検出を行うことで、検出漏れ率及び誤検出率を低下させることができる。 Embodiments of the present application provide a defect detection method, related apparatus, apparatus and storage medium. Here, the method is performing a first target detection on the image to be detected and obtaining a target detection result, the target detection result being a first class target and a first target in the image to be detected. obtaining an image region containing the first class target based on the first position information; performing defect detection on the image region; obtaining defect detection results for the targets of the . In the above means for solving the problem, the defect detection method provided by the embodiments of the present application performs defect detection on the image to be detected, thereby reducing the detection omission rate and the false detection rate.

本願の実施例は、コンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、コンピュータプログラムを記憶している非一時的コンピュータ可読記憶媒体を含み、前記コンピュータプログラムがコンピュータにより読み取られて実行される時、コンピュータに本願の実施例に記載の方法の一部又は全部のステップを実行させる。該コンピュータプログラム製品は、ソフトウェアインストールパッケージであってもよい。
例えば、本願は以下の項目を提供する。
(項目1)
欠陥検出方法であって、
検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることであって、前記ターゲット検出結果は、第1クラスのターゲット及び前記検出されるべき画像における前記第1クラスのターゲットの第1位置情報を含む、ことと、
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得することと、
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得ることと、を含む、欠陥検出方法。
(項目2)
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得ることは、
前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、前記第1欠陥検出結果は、前記第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含む、こと、
及び/又は、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることであって、前記第2欠陥検出結果は、前記第1クラスのターゲットが属する第2欠陥の情報を含む、ことを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関する欠陥検出結果を得ることは、
前記第1クラスのターゲットが第1サブクラスのターゲットである場合、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行することと、
前記第1クラスのターゲットが第2サブクラスのターゲットである場合、前記画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行することと、を含むことを特徴とする
項目2に記載の方法。
(項目4)
前記第1欠陥検出結果は、各種の前記第1欠陥の位置情報及び前記第1欠陥に属する第1確率を含み、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、前記方法は、
各種の前記第1欠陥の位置情報に応じて、前記検出されるべき画像における各種の前記第1欠陥の欠陥領域をそれぞれ決定し、異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことと、
第1確率が第1フィルタリング条件を満たす前記第1欠陥をフィルタリングすることと、のうちの少なくとも1つを含むことを特徴とする
項目2又は3に記載の方法。
(項目5)
前記第1フィルタリング条件は、前記第1確率が第1確率閾値よりも低いことであり、及び/又は、
前記異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことは、
前記異なる前記欠陥領域間の重複領域に対して非極大値抑制を行うことを含むことを特徴とする
項目4に記載の方法。
(項目6)
前記第2欠陥検出結果は、前記第1クラスのターゲットが第2欠陥に属する第2確率を含み、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることは、
前記画像領域に対して分類を行い、前記第1クラスのターゲットが各種の所定の欠陥に属する確率を得ることと、
各種の所定の確率を加算し、前記第1クラスのターゲットが第2欠陥に属する第2確率を得ることと、を含むことを特徴とする
項目2から5のうちいずれか一項に記載の方法。
(項目7)
前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることは、
欠陥検出モデルの第1領域検出ネットワークを利用して、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることを含み、
前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることは、
前記欠陥検出モデルの第2領域検出ネットワークを利用して、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、前記第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い、ことを含み、
前記画像領域に対して分類を行い、第2欠陥検出結果を得ることは、
前記欠陥検出モデルの分類ネットワークを利用して、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることを含むことを特徴とする
項目2から6のうちいずれか一項に記載の方法。
(項目8)
前記ターゲット検出結果は、第2クラスのターゲット及び前記検出されるべき画像における第2クラスのターゲットの第2位置情報を更に含み、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、前記方法は、
前記第2クラスのターゲットを前記検出されるべき画像における第3欠陥として決定し、前記第2クラスのターゲット及びその前記第2位置情報を前記第2クラスのターゲットに関わる欠陥検出結果とすることを更に含むことを特徴とする
項目1から7のうちいずれか一項に記載の方法。
(項目9)
前記欠陥検出結果を得た後、前記方法は、
前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、前記検出されるべき画像の最終的欠陥検出結果を得ることを更に含むことを特徴とする
項目1から8のうちいずれか一項に記載の方法。
(項目10)
前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングすることは、
前記欠陥検出結果における前記欠陥の位置情報を利用して前記欠陥の寸法を得、前記欠陥検出結果における前記寸法が所定の寸法条件を満たさない欠陥をフィルタリングすること、及び/又は、
前記欠陥検出結果における確率が第2確率閾値よりも低い前記欠陥をフィルタリングすることを含むことを特徴とする
項目9項に記載の方法。
(項目11)
前記検出されるべき画像の最終的欠陥検出結果を得た後、前記方法は、
前記最終的欠陥検出結果における各前記欠陥の確率の降順に応じて、前記最終的欠陥検出結果における各前記欠陥の情報を出力することを更に含むことを特徴とする
項目9又は10項に記載の方法。
(項目12)
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得することは、
前記第1位置情報に基づいて、前記検出されるべき画像から、前記第1クラスのターゲットに対応するターゲット領域を決定することと、
前記ターゲット領域を前記検出されるべき画像において所定の倍数だけ外側へ拡張することと、
前記検出されるべき画像から、外側へ拡張された前記ターゲット領域を抽出し、前記第1クラスのターゲットを含む画像領域を得ることと、を含むことを特徴とする
項目1から11のうちいずれか一項に記載の方法。
(項目13)
前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、前記方法は、
初期画像をスケーリングし、所定のサイズの画像を得ることと、
スケーリング後の前記初期画像の画素値を所定の画素値範囲に圧縮することと、
圧縮された前記初期画像に対して正規化処理を行い、前記検出されるべき画像を得ることと、を更に含むことを特徴とする
項目1から12のうちいずれか一項に記載の方法。
(項目14)
前記第1ターゲット検出及び欠陥検出は、欠陥検出モデルにより実行され、前記欠陥検出モデルは少なくとも、
第1サンプル集合を取得するステップであって、前記第サンプル集合は少なくとも1つのサンプル画像を含み、前記サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、前記ターゲットは第1クラスのターゲットを含む、ステップと、
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得るステップと、
前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整するステップと、によって、訓練されたものであることを特徴とする
項目1から13のうちいずれか一項に記載の方法。
(項目15)
前記欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各前記グラフィックプロセッサが取得した第1サンプル集合は異なり、
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得ることは、
各前記グラフィックプロセッサにおける前記欠陥検出モデルのバッチ標準化層を同期し、各前記グラフィックプロセッサにおける前記バッチ標準化層の同期後に欠陥検出モデルを利用して、前記サンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得ることを含み、
前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整することは、
全ての前記欠陥検出結果と前記真実の欠陥情報に基づいて、前記欠陥検出モデルの平均損失値を決定することと、
前記平均損失値を利用して、前記欠陥検出モデルのパラメータを調整することと、を含むことを特徴とする
項目14に記載の方法。
(項目16)
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得る前に、前記方法は、
第2サンプル集合を利用して、前記欠陥検出モデルに対して事前訓練を行うステップと、
第1サンプル集合を利用して、前記欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを更に含み、前記予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、前記所定の学習率まで次第に増大するものであり、
前記第1サンプル集合におけるサンプル画像は少なくとも、
元画像に対して前処理を行い、前記サンプル画像を得るステップにより得られたものであり、前記前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含むことを特徴とする
項目14又は15に記載の方法。
(項目17)
欠陥検出装置であって、
検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成される第1ターゲット検出モジュールであって、前記ターゲット検出結果は、第1クラスのターゲット及び前記検出されるべき画像における前記第1クラスのターゲットの第1位置情報を含む、第1ターゲット検出モジュールと、
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得するように構成される画像領域取得モジュールと、
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得るように構成される欠陥検出モジュールと、を備える、欠陥検出装置。
(項目18)
前記欠陥検出モジュールは更に、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得、前記第1欠陥検出結果は、前記第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含み、及び/又は、前記画像領域に対して分類を行い、第2欠陥検出結果を得、前記第2欠陥検出結果は、前記第1クラスのターゲットが属する第2欠陥の情報を含むように構成されることを特徴とする
項目17に記載の装置。
(項目19)
前記欠陥検出モジュールは更に、前記第1クラスのターゲットが第1サブクラスのターゲットである場合、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行し、前記第1クラスのターゲットが第2サブクラスのターゲットである場合、前記画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行するように構成されることを特徴とする
項目18に記載の装置。
(項目20)
前記第1欠陥検出結果は、各種の前記第1欠陥の位置情報及び前記第1欠陥に属する第1確率を含み、前記欠陥検出モジュールは更に、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、
各種の前記第1欠陥の位置情報に応じて、前記検出されるべき画像における各種の前記第1欠陥の欠陥領域をそれぞれ決定し、異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことと、第1確率が第1フィルタリング条件を満たす前記第1欠陥をフィルタリングすることと、のうちの少なくとも1つを実行するように構成されることを特徴とする
項目18又は19に記載の装置。
(項目21)
前記第1フィルタリング条件は、前記第1確率が第1確率閾値よりも低いことであり、及び/又は、前記欠陥検出モジュールは更に、異なる前記欠陥領域間の重複領域に対して非極大値抑制を行うように構成されることを特徴とする
項目20に記載の装置。
(項目22)
前記第2欠陥検出結果は、前記第1クラスのターゲットが第2欠陥に属する第2確率を含み、前記欠陥検出モジュールは更に、前記画像領域に対して分類を行い、前記第1クラスのターゲットが各種の所定の欠陥に属する確率を得、各種の所定の確率を加算し、前記第1クラスのターゲットが第2欠陥に属する第2確率を得るように構成されることを特徴とする
項目18から21のうちいずれか一項に記載の装置。
(項目23)
前記第1ターゲット検出モジュールは更に、欠陥検出モデルの第1領域検出ネットワークを利用して、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成され、
前記欠陥検出モジュールは更に、前記欠陥検出モデルの第2領域検出ネットワークを利用して、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得、前記第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅く、前記欠陥検出モデルの分類ネットワークを利用して、前記画像領域に対して分類を行い、第2欠陥検出結果を得るように構成されることを特徴とする
項目18から22のうちいずれか一項に記載の装置。
(項目24)
前記ターゲット検出結果は、第2クラスのターゲット及び前記検出されるべき画像における第2クラスのターゲットの第2位置情報を更に含み、前記欠陥検出モジュールは更に、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、前記第2クラスのターゲットを前記検出されるべき画像における第3欠陥として決定し、前記第2クラスのターゲット及びその前記第2位置情報を前記第2クラスのターゲットに関わる欠陥検出結果とするように構成されることを特徴とする
項目17から23のうちいずれか一項に記載の装置。
(項目25)
前記欠陥検出モジュールは更に、前記欠陥検出結果を得た後、前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、前記検出されるべき画像の最終的欠陥検出結果を得るように構成されることを特徴とする
項目17から24のうちいずれか一項に記載の装置。
(項目26)
前記欠陥検出モジュールは更に、前記欠陥検出結果における前記欠陥の位置情報を利用して前記欠陥の寸法を得、前記欠陥検出結果における前記寸法が所定の寸法条件を満たさない欠陥をフィルタリングし、及び/又は、前記欠陥検出結果における確率が第2確率閾値よりも低い前記欠陥をフィルタリングするように構成されることを特徴とする
項目25に記載の装置。
(項目27)
前記欠陥検出モジュールは更に、前記検出されるべき画像の最終的欠陥検出結果を得た後、前記最終的欠陥検出結果における各前記欠陥の確率の降順に応じて、前記最終的欠陥検出結果における各前記欠陥の情報を出力するように構成されることを特徴とする
項目25又は26項に記載の装置。
(項目28)
前記画像領域取得モジュールは更に、前記第1位置情報に基づいて、前記検出されるべき画像から、前記第1クラスのターゲットに対応するターゲット領域を決定し、前記ターゲット領域を前記検出されるべき画像において所定の倍数だけ外側へ拡張し、前記検出されるべき画像から、外側へ拡張された前記ターゲット領域を抽出し、前記第1クラスのターゲットを含む画像領域を得るように構成されることを特徴とする
項目17から27のうちいずれか一項に記載の装置。
(項目29)
前記装置は、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、初期画像をスケーリングし、所定のサイズの画像を得、スケーリング後の前記初期画像の画素値を所定の画素値範囲に圧縮し、圧縮された前記初期画像に対して正規化処理を行い、前記検出されるべき画像を得るように構成される前処理モジュールを更に備えることを特徴とする
項目17から28のうちいずれか一項に記載の装置。
(項目30)
前記装置は、第1サンプル集合を取得し、前記第サンプル集合は少なくとも1つのサンプル画像を含み、前記サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、前記ターゲットは第1クラスのターゲットを含み、前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得、前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整するように構成される訓練モジュールを更に備えることを特徴とする
項目17から29のうちいずれか一項に記載の装置。
(項目31)
前記欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各前記グラフィックプロセッサが取得した第1サンプル集合は異なり、
前記訓練モジュールは更に、各前記グラフィックプロセッサにおける前記欠陥検出モデルのバッチ標準化層を同期し、各前記グラフィックプロセッサにおける前記バッチ標準化層の同期後に欠陥検出モデルを利用して、前記サンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得、全ての前記欠陥検出結果と前記真実の欠陥情報に基づいて、前記欠陥検出モデルの平均損失値を決定し、前記平均損失値を利用して、前記欠陥検出モデルのパラメータを調整するように構成されることを特徴とする
項目30に記載の装置。
(項目32)
前記訓練モジュールは更に、前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得る前に、第2サンプル集合を利用して、前記欠陥検出モデルに対して事前訓練を行うステップと、第1サンプル集合を利用して、前記欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを実行するように構成され、前記予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、前記所定の学習率まで次第に増大するものであり、
前記第1サンプル集合におけるサンプル画像は少なくとも、元画像に対して前処理を行い、前記サンプル画像を得るステップにより得られたものであり、前記前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含むことを特徴とする
項目30又は31に記載の装置。
(項目33)
メモリ及びプロセッサを備える電子機器であって、
前記プロセッサは、前記メモリに記憶されたプログラム命令を実行して、項目1から16のうちいずれか一項に記載の方法を実行する、電子機器。
(項目34)
プロセッサにより実行される時、前記プロセッサに項目1から16のうちいずれか一項に記載の方法を実行させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
(項目35)
コンピュータにより読み取られて実行される時、前記コンピュータに項目1から16のうちいずれか一項に記載の方法を実行させるためのコンピュータプログラムを記憶している非一時的コンピュータ可読記憶媒体を含む、コンピュータプログラム製品。
An embodiment of the present application provides a computer program product. The computer program product includes a non-transitory computer-readable storage medium storing a computer program, which when read and executed by a computer, causes a computer to perform a part of the methods described in the embodiments herein. Or run all steps. The computer program product may be a software installation package.
For example, the present application provides the following items.
(Item 1)
A defect detection method comprising:
performing a first target detection on an image to be detected to obtain a target detection result, wherein the target detection result includes a first class target and the first class target in the image to be detected; including first location information for
obtaining an image region containing the first class of targets based on the first location information;
performing defect detection on the image area to obtain defect detection results for the first class of targets.
(Item 2)
performing defect detection on the image region and obtaining defect detection results for the first class of targets;
performing second target detection on the image area to obtain first defect detection results, wherein the first defect detection results are for at least one first defect present in the first class of targets; including information that
and/or performing classification on the image region to obtain a second defect detection result, wherein the second defect detection result includes information of a second defect to which the target of the first class belongs; characterized by including
The method of item 1.
(Item 3)
performing defect detection on the image area and obtaining defect detection results for the first class of targets;
performing a second target detection on the image region to obtain a first defect detection result if the first class of targets is a first subclass of targets;
performing classification on the image region to obtain a second defect detection result if the first class of targets is a second subclass of targets.
The method of item 2.
(Item 4)
The first defect detection result includes location information of various kinds of the first defects and a first probability belonging to the first defect, and performing second target detection on the image area to obtain a first defect detection result. After that, the method includes:
Defect areas of the various first defects in the image to be detected are determined according to the position information of the various first defects, and overlap elimination processing is performed on overlapping areas between the different defect areas. and
and filtering the first defects whose first probability satisfies a first filtering condition.
The method of item 2 or 3.
(Item 5)
the first filtering condition is that the first probability is lower than a first probability threshold; and/or
Performing de-duplication processing on overlapping areas between the different defect areas,
and performing non-maximal value suppression on overlapping regions between the different defect regions.
The method of item 4.
(Item 6)
wherein the second defect detection result includes a second probability that the target of the first class belongs to a second defect, and performing classification on the image region to obtain a second defect detection result includes:
performing a classification on the image region to obtain probabilities that the targets of the first class belong to various predetermined defects;
summing various predetermined probabilities to obtain a second probability that the first class target belongs to a second defect.
6. The method of any one of items 2-5.
(Item 7)
Performing first target detection on the image to be detected and obtaining a target detection result includes:
performing a first target detection on the image to be detected using a first region detection network of defect detection models to obtain a target detection result;
Performing second target detection on the image area to obtain a first defect detection result includes:
using a second area detection network of the defect detection model to perform a second target detection on the image area to obtain a first defect detection result, wherein the depth of the second area detection network is , shallower than the depth of the first area detection network,
Classifying the image region and obtaining a second defect detection result includes:
classifying the image region using the defect detection model classification network to obtain a second defect detection result.
7. The method of any one of items 2-6.
(Item 8)
The target detection result further includes a second class target and second position information of the second class target in the image to be detected, performing first target detection on the image to be detected, After obtaining the detection result, the method includes:
determining the second class target as a third defect in the image to be detected, and determining the second class target and its second position information as a defect detection result related to the second class target. characterized by further comprising
8. The method of any one of items 1-7.
(Item 9)
After obtaining the defect detection result, the method includes:
Filtering defects satisfying a second filtering condition in the defect detection result to obtain a final defect detection result of the image to be detected.
9. The method of any one of items 1-8.
(Item 10)
Filtering defects that satisfy a second filtering condition in the defect detection result includes:
Obtaining dimensions of the defects by using position information of the defects in the defect detection results, and filtering defects whose dimensions in the defect detection results do not satisfy a predetermined dimension condition; and/or
filtering the defects whose probability in the defect detection result is lower than a second probability threshold.
The method of item 9.
(Item 11)
After obtaining a final defect detection result for the image to be detected, the method includes:
Further comprising outputting information of each of the defects in the final defect detection result according to descending order of probability of each of the defects in the final defect detection result.
A method according to item 9 or 10.
(Item 12)
Obtaining an image region containing the first class of targets based on the first position information includes:
determining a target region corresponding to the first class of targets from the image to be detected based on the first position information;
expanding the target area outward in the image to be detected by a predetermined factor;
extracting the outwardly extended target region from the image to be detected to obtain an image region containing the first class of targets.
12. The method of any one of items 1-11.
(Item 13)
Before performing first target detection on the image to be detected and obtaining target detection results, the method comprises:
scaling the initial image to obtain an image of a given size;
compressing pixel values of the initial image after scaling to a predetermined pixel value range;
performing a normalization process on the compressed initial image to obtain the image to be detected.
13. The method of any one of items 1-12.
(Item 14)
The first target detection and defect detection are performed by a defect detection model, the defect detection model comprising at least:
obtaining a first sample set, said first sample set comprising at least one sample image, said sample image annotated with true defect information about a target, said target being a first class target; a step comprising
performing detection on sample images in the first sample set using the defect detection model to obtain defect detection results for the target;
and adjusting parameters of the defect detection model using the true defect information and the defect detection results.
14. The method of any one of items 1-13.
(Item 15)
wherein the defect detection model is jointly trained by a plurality of graphics processors, each graphics processor obtaining a different first sample set;
Using the defect detection model to perform detection on sample images in the first sample set to obtain defect detection results for the target,
synchronizing the batch normalization layers of the defect detection models in each of the graphics processors, and utilizing the defect detection models after synchronizing the batch normalization layers in each of the graphics processors to perform detections on the sample images to the targets; obtaining relevant defect detection results;
Adjusting parameters of the defect detection model using the true defect information and the defect detection results includes:
determining an average loss value of the defect detection model based on all the defect detection results and the true defect information;
and using the average loss value to adjust parameters of the defect detection model.
15. The method of item 14.
(Item 16)
Before performing detection on sample images in the first sample set using the defect detection model to obtain defect detection results for the target, the method includes:
pre-training the defect detection model using a second set of samples;
pre-training the defect detection model using a first sample set, wherein the learning rate used in the pre-training process is higher than a predetermined learning rate. gradually increases from a low first learning rate to the predetermined learning rate,
The sample images in the first sample set are at least
obtained by preprocessing an original image to obtain the sample image, wherein the preprocessing method is at least one of scale conversion, color conversion, horizontal flip, vertical flip, rotation, and trimming; characterized by including one
16. A method according to item 14 or 15.
(Item 17)
A defect detection device,
A first target detection module configured to perform a first target detection on an image to be detected and obtain a target detection result, the target detection result comprising a first class of targets and the detected a first target detection module comprising first location information of the first class of targets in the to-be-image;
an image region acquisition module configured to acquire an image region containing the first class of targets based on the first location information;
a defect detection module configured to perform defect detection on the image area and obtain defect detection results for the first class of targets.
(Item 18)
The defect detection module further performs a second target detection on the image area to obtain a first defect detection result, wherein the first defect detection result comprises at least one first defect detection present in the first class of targets. and/or performing classification on the image region to obtain a second defect detection result, the second defect detection result being information of a second defect to which the target of the first class belongs. characterized by being configured to include
18. Apparatus according to item 17.
(Item 19)
The defect detection module further performs a second target detection on the image region to obtain a first defect detection result if the first class of targets is a first subclass of targets; wherein if a target of a class is a target of a second subclass, performing classification on the image region to obtain a second defect detection result.
19. Apparatus according to item 18.
(Item 20)
the first defect detection result includes location information of various kinds of the first defects and a first probability belonging to the first defect, the defect detection module further performs a second target detection on the image area; After obtaining the first defect detection result,
Defect areas of the various first defects in the image to be detected are determined according to the position information of the various first defects, and overlap elimination processing is performed on overlapping areas between the different defect areas. and filtering said first defects whose first probability satisfies a first filtering condition.
20. Apparatus according to item 18 or 19.
(Item 21)
the first filtering condition is that the first probability is lower than a first probability threshold; and/or the defect detection module further performs non-maximum suppression for overlapping regions between the different defect regions. characterized by being configured to perform
21. Apparatus according to item 20.
(Item 22)
The second defect detection result includes a second probability that the first class target belongs to a second defect, and the defect detection module further performs a classification on the image region, wherein the first class target is obtaining probabilities of belonging to various pre-determined defects; adding the various pre-determined probabilities to obtain a second probability that the target of said first class belongs to a second defect;
22. Apparatus according to any one of items 18-21.
(Item 23)
the first target detection module is further configured to perform a first target detection on the image to be detected using a first region detection network of a defect detection model to obtain a target detection result;
The defect detection module further utilizes a second region detection network of the defect detection model to perform a second target detection on the image region to obtain a first defect detection result; The depth is shallower than the depth of the first region detection network and configured to utilize the defect detection model classification network to perform classification on the image region to obtain a second defect detection result. characterized by
23. Apparatus according to any one of items 18-22.
(Item 24)
The target detection result further includes a second class of targets and second position information of the second class of targets in the image to be detected, and the defect detection module further comprises: After performing one target detection and obtaining a target detection result, determining the second class target as a third defect in the image to be detected, and determining the second class target and its second position information as the configured to result in defect detection involving a second class of targets
24. Apparatus according to any one of items 17-23.
(Item 25)
The defect detection module is further configured to, after obtaining the defect detection result, filter defects satisfying a second filtering condition in the defect detection result to obtain a final defect detection result of the image to be detected. characterized by
25. Apparatus according to any one of items 17-24.
(Item 26)
The defect detection module further utilizes the position information of the defect in the defect detection result to obtain dimensions of the defect, filters defects whose dimensions in the defect detection result do not meet a predetermined dimension condition, and/or Alternatively, configured to filter the defects whose probability in the defect detection result is lower than a second probability threshold.
26. Apparatus according to item 25.
(Item 27)
The defect detection module further comprises, after obtaining a final defect detection result of the image to be detected, determining each defect in the final defect detection result according to a descending order of the probability of each defect in the final defect detection result. characterized in that it is configured to output information of the defect
27. Apparatus according to item 25 or 26.
(Item 28)
The image area acquisition module further determines a target area corresponding to the first class target from the image to be detected based on the first position information, and determines the target area from the image to be detected. and extracting the outwardly expanded target region from the image to be detected to obtain an image region containing the first class of targets. to be
28. Apparatus according to any one of items 17-27.
(Item 29)
The apparatus performs first target detection on the image to be detected, scales an initial image before obtaining a target detection result, obtains an image of a predetermined size, pixels of the initial image after scaling The method further comprises a preprocessing module configured to compress values to a predetermined pixel value range and perform a normalization operation on the compressed initial image to obtain the image to be detected.
29. Apparatus according to any one of items 17-28.
(Item 30)
The apparatus obtains a first sample set, the first sample set including at least one sample image, the sample image annotated with true defect information about a target, the target being a first class target. using the defect detection model to perform detection on sample images in the first sample set to obtain defect detection results for the target; using the true defect information and the defect detection results; and further comprising a training module configured to adjust parameters of the defect detection model.
30. Apparatus according to any one of items 17-29.
(Item 31)
wherein the defect detection model is jointly trained by a plurality of graphics processors, each graphics processor obtaining a different first sample set;
The training module further synchronizes a batch normalization layer of the defect detection model in each of the graphics processors, and utilizes the defect detection model after synchronization of the batch normalization layer in each of the graphics processors to detect defects on the sample images. obtaining defect detection results for the target; determining an average loss value of the defect detection model based on all the defect detection results and the true defect information; using the average loss value; configured to adjust parameters of the defect detection model
31. Apparatus according to item 30.
(Item 32)
The training module further performs detection on sample images in the first sample set using the defect detection model, and using a second sample set before obtaining defect detection results for the target. pre-training the defect detection model; and pre-training the defect detection model using a first sample set. and the learning rate used in the pretraining process gradually increases from a first learning rate lower than a predetermined learning rate to the predetermined learning rate,
The sample images in the first sample set are obtained by at least preprocessing an original image to obtain the sample images, and the preprocessing methods are scale conversion, color conversion, and horizontal inversion. , vertical flip, rotation, and cropping.
32. Apparatus according to item 30 or 31.
(Item 33)
An electronic device comprising a memory and a processor,
17. Electronic equipment, wherein the processor executes program instructions stored in the memory to perform the method of any one of items 1-16.
(Item 34)
17. A computer readable storage medium storing program instructions for, when executed by a processor, causing said processor to perform the method of any one of items 1 to 16.
(Item 35)
A computer comprising a non-transitory computer readable storage medium storing a computer program which, when read and executed by a computer, causes said computer to perform the method of any one of items 1 to 16. program product.

Claims (35)

欠陥検出方法であって、
検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることであって、前記ターゲット検出結果は、第1クラスのターゲット及び前記検出されるべき画像における前記第1クラスのターゲットの第1位置情報を含む、ことと、
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得することと、
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得ることと、を含む、欠陥検出方法。
A defect detection method comprising:
performing a first target detection on an image to be detected to obtain a target detection result, wherein the target detection result includes a first class target and the first class target in the image to be detected; including first location information for
obtaining an image region containing the first class of targets based on the first location information;
performing defect detection on the image area to obtain defect detection results for the first class of targets.
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得ることは、
前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、前記第1欠陥検出結果は、前記第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含む、こと、
及び/又は、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることであって、前記第2欠陥検出結果は、前記第1クラスのターゲットが属する第2欠陥の情報を含む、ことを含むことを特徴とする
請求項1に記載の方法。
performing defect detection on the image region and obtaining defect detection results for the first class of targets;
performing second target detection on the image area to obtain first defect detection results, wherein the first defect detection results are for at least one first defect present in the first class of targets; including information that
and/or performing classification on the image region to obtain a second defect detection result, wherein the second defect detection result includes information of a second defect to which the target of the first class belongs; 2. The method of claim 1, comprising:
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関する欠陥検出結果を得ることは、
前記第1クラスのターゲットが第1サブクラスのターゲットである場合、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行することと、
前記第1クラスのターゲットが第2サブクラスのターゲットである場合、前記画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行することと、を含むことを特徴とする
請求項2に記載の方法。
performing defect detection on the image area and obtaining defect detection results for the first class of targets;
performing a second target detection on the image region to obtain a first defect detection result if the first class of targets is a first subclass of targets;
performing classification on the image region to obtain a second defect detection result if the first class of targets is a second subclass of targets. The method described in .
前記第1欠陥検出結果は、各種の前記第1欠陥の位置情報及び前記第1欠陥に属する第1確率を含み、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、前記方法は、
各種の前記第1欠陥の位置情報に応じて、前記検出されるべき画像における各種の前記第1欠陥の欠陥領域をそれぞれ決定し、異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことと、
第1確率が第1フィルタリング条件を満たす前記第1欠陥をフィルタリングすることと、のうちの少なくとも1つを含むことを特徴とする
請求項2又は3に記載の方法。
The first defect detection result includes location information of various kinds of the first defects and a first probability belonging to the first defect, and performing second target detection on the image area to obtain a first defect detection result. After that, the method includes:
Defect areas of the various first defects in the image to be detected are determined according to the position information of the various first defects, and overlap elimination processing is performed on overlapping areas between the different defect areas. and
4. A method according to claim 2 or 3, comprising at least one of: filtering said first defects for which a first probability satisfies a first filtering condition.
前記第1フィルタリング条件は、前記第1確率が第1確率閾値よりも低いことであり、及び/又は、
前記異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことは、
前記異なる前記欠陥領域間の重複領域に対して非極大値抑制を行うことを含むことを特徴とする
請求項4に記載の方法。
the first filtering condition is that the first probability is lower than a first probability threshold; and/or
Performing de-duplication processing on overlapping areas between the different defect areas,
5. The method of claim 4, comprising performing non-maximal suppression on overlapping regions between the different defect regions.
前記第2欠陥検出結果は、前記第1クラスのターゲットが第2欠陥に属する第2確率を含み、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることは、
前記画像領域に対して分類を行い、前記第1クラスのターゲットが各種の所定の欠陥に属する確率を得ることと、
各種の所定の確率を加算し、前記第1クラスのターゲットが第2欠陥に属する第2確率を得ることと、を含むことを特徴とする
請求項2から5のうちいずれか一項に記載の方法。
wherein the second defect detection result includes a second probability that the target of the first class belongs to a second defect, and performing classification on the image region to obtain a second defect detection result includes:
performing a classification on the image regions to obtain probabilities that the targets of the first class belong to various predetermined defects;
summing various predetermined probabilities to obtain a second probability that the target of the first class belongs to the second defect. Method.
前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることは、
欠陥検出モデルの第1領域検出ネットワークを利用して、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得ることを含み、
前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることは、
前記欠陥検出モデルの第2領域検出ネットワークを利用して、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得ることであって、前記第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅い、ことを含み、
前記画像領域に対して分類を行い、第2欠陥検出結果を得ることは、
前記欠陥検出モデルの分類ネットワークを利用して、前記画像領域に対して分類を行い、第2欠陥検出結果を得ることを含むことを特徴とする
請求項2から6のうちいずれか一項に記載の方法。
Performing first target detection on the image to be detected and obtaining a target detection result includes:
performing a first target detection on the image to be detected using a first region detection network of defect detection models to obtain a target detection result;
Performing second target detection on the image area to obtain a first defect detection result includes:
using a second area detection network of the defect detection model to perform a second target detection on the image area to obtain a first defect detection result, wherein the depth of the second area detection network is , shallower than the depth of the first area detection network,
Classifying the image region and obtaining a second defect detection result includes:
7. A method according to any one of claims 2 to 6, comprising performing a classification on the image region using the defect detection model classification network to obtain a second defect detection result. the method of.
前記ターゲット検出結果は、第2クラスのターゲット及び前記検出されるべき画像における第2クラスのターゲットの第2位置情報を更に含み、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、前記方法は、
前記第2クラスのターゲットを前記検出されるべき画像における第3欠陥として決定し、前記第2クラスのターゲット及びその前記第2位置情報を前記第2クラスのターゲットに関わる欠陥検出結果とすることを更に含むことを特徴とする
請求項1から7のうちいずれか一項に記載の方法。
The target detection result further includes a second class target and second position information of the second class target in the image to be detected, performing first target detection on the image to be detected, After obtaining the detection result, the method includes:
determining the second class target as a third defect in the image to be detected, and determining the second class target and its second position information as a defect detection result related to the second class target. 8. A method according to any one of claims 1 to 7, further comprising:
前記欠陥検出結果を得た後、前記方法は、
前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、前記検出されるべき画像の最終的欠陥検出結果を得ることを更に含むことを特徴とする
請求項1から8のうちいずれか一項に記載の方法。
After obtaining the defect detection result, the method includes:
9. Further comprising filtering defects in the defect detection results satisfying a second filtering condition to obtain a final defect detection result for the image to be detected. The method described in .
前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングすることは、
前記欠陥検出結果における前記欠陥の位置情報を利用して前記欠陥の寸法を得、前記欠陥検出結果における前記寸法が所定の寸法条件を満たさない欠陥をフィルタリングすること、及び/又は、
前記欠陥検出結果における確率が第2確率閾値よりも低い前記欠陥をフィルタリングすることを含むことを特徴とする
請求項9項に記載の方法。
Filtering defects that satisfy a second filtering condition in the defect detection result includes:
Obtaining dimensions of the defects by using position information of the defects in the defect detection results, and filtering defects whose dimensions in the defect detection results do not satisfy a predetermined dimension condition; and/or
10. The method of claim 9, comprising filtering the defects whose probability in the defect detection result is below a second probability threshold.
前記検出されるべき画像の最終的欠陥検出結果を得た後、前記方法は、
前記最終的欠陥検出結果における各前記欠陥の確率の降順に応じて、前記最終的欠陥検出結果における各前記欠陥の情報を出力することを更に含むことを特徴とする
請求項9又は10項に記載の方法。
After obtaining a final defect detection result for the image to be detected, the method includes:
11. The method according to claim 9, further comprising: outputting information of each defect in the final defect detection result according to descending order of probability of each defect in the final defect detection result. the method of.
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得することは、
前記第1位置情報に基づいて、前記検出されるべき画像から、前記第1クラスのターゲットに対応するターゲット領域を決定することと、
前記ターゲット領域を前記検出されるべき画像において所定の倍数だけ外側へ拡張することと、
前記検出されるべき画像から、外側へ拡張された前記ターゲット領域を抽出し、前記第1クラスのターゲットを含む画像領域を得ることと、を含むことを特徴とする
請求項1から11のうちいずれか一項に記載の方法。
Obtaining an image region containing the first class of targets based on the first position information includes:
determining a target region corresponding to the first class of targets from the image to be detected based on the first position information;
expanding the target area outward in the image to be detected by a predetermined factor;
extracting the outwardly extended target region from the image to be detected to obtain an image region containing the first class of targets. or the method described in paragraph 1.
前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、前記方法は、
初期画像をスケーリングし、所定のサイズの画像を得ることと、
スケーリング後の前記初期画像の画素値を所定の画素値範囲に圧縮することと、
圧縮された前記初期画像に対して正規化処理を行い、前記検出されるべき画像を得ることと、を更に含むことを特徴とする
請求項1から12のうちいずれか一項に記載の方法。
Before performing first target detection on the image to be detected and obtaining target detection results, the method comprises:
scaling the initial image to obtain an image of a given size;
compressing pixel values of the initial image after scaling to a predetermined pixel value range;
13. A method according to any one of the preceding claims, further comprising performing a normalization operation on the compressed initial image to obtain the image to be detected.
前記第1ターゲット検出及び欠陥検出は、欠陥検出モデルにより実行され、前記欠陥検出モデルは少なくとも、
第1サンプル集合を取得するステップであって、前記第サンプル集合は少なくとも1つのサンプル画像を含み、前記サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、前記ターゲットは第1クラスのターゲットを含む、ステップと、
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得るステップと、
前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整するステップと、によって、訓練されたものであることを特徴とする
請求項1から13のうちいずれか一項に記載の方法。
The first target detection and defect detection are performed by a defect detection model, the defect detection model comprising at least:
obtaining a first sample set, said first sample set comprising at least one sample image, said sample image annotated with true defect information about a target, said target being a first class target; a step comprising
performing detection on sample images in the first sample set using the defect detection model to obtain defect detection results for the target;
and adjusting parameters of the defect detection model using the true defect information and the defect detection results. The method described in section.
前記欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各前記グラフィックプロセッサが取得した第1サンプル集合は異なり、
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得ることは、
各前記グラフィックプロセッサにおける前記欠陥検出モデルのバッチ標準化層を同期し、各前記グラフィックプロセッサにおける前記バッチ標準化層の同期後に欠陥検出モデルを利用して、前記サンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得ることを含み、
前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整することは、
全ての前記欠陥検出結果と前記真実の欠陥情報に基づいて、前記欠陥検出モデルの平均損失値を決定することと、
前記平均損失値を利用して、前記欠陥検出モデルのパラメータを調整することと、を含むことを特徴とする
請求項14に記載の方法。
wherein the defect detection model is jointly trained by a plurality of graphics processors, each graphics processor obtaining a different first sample set;
Using the defect detection model to perform detection on sample images in the first sample set to obtain defect detection results for the target,
synchronizing the batch normalization layers of the defect detection models in each of the graphics processors, and utilizing the defect detection models after synchronizing the batch normalization layers in each of the graphics processors to perform detections on the sample images to the targets; obtaining relevant defect detection results;
Adjusting parameters of the defect detection model using the true defect information and the defect detection results includes:
determining an average loss value of the defect detection model based on all the defect detection results and the true defect information;
15. The method of claim 14, comprising using the average loss value to adjust parameters of the defect detection model.
前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得る前に、前記方法は、
第2サンプル集合を利用して、前記欠陥検出モデルに対して事前訓練を行うステップと、
第1サンプル集合を利用して、前記欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを更に含み、前記予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、前記所定の学習率まで次第に増大するものであり、
前記第1サンプル集合におけるサンプル画像は少なくとも、
元画像に対して前処理を行い、前記サンプル画像を得るステップにより得られたものであり、前記前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含むことを特徴とする
請求項14又は15に記載の方法。
Before performing detection on sample images in the first sample set using the defect detection model to obtain defect detection results for the target, the method includes:
pre-training the defect detection model using a second set of samples;
pre-training the defect detection model using a first sample set, wherein the learning rate used in the pre-training process is higher than a predetermined learning rate. gradually increases from a low first learning rate to the predetermined learning rate,
The sample images in the first sample set are at least
obtained by preprocessing an original image to obtain the sample image, wherein the preprocessing method is at least one of scale conversion, color conversion, horizontal flip, vertical flip, rotation, and trimming; 16. A method according to claim 14 or 15, comprising one.
欠陥検出装置であって、
検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成される第1ターゲット検出モジュールであって、前記ターゲット検出結果は、第1クラスのターゲット及び前記検出されるべき画像における前記第1クラスのターゲットの第1位置情報を含む、第1ターゲット検出モジュールと、
前記第1位置情報に基づいて、前記第1クラスのターゲットを含む画像領域を取得するように構成される画像領域取得モジュールと、
前記画像領域に対して欠陥検出を行い、前記第1クラスのターゲットに関わる欠陥検出結果を得るように構成される欠陥検出モジュールと、を備える、欠陥検出装置。
A defect detection device,
A first target detection module configured to perform a first target detection on an image to be detected and obtain a target detection result, the target detection result comprising a first class of targets and the detected a first target detection module comprising first location information of the first class of targets in the to-be-image;
an image region acquisition module configured to acquire an image region containing the first class of targets based on the first location information;
a defect detection module configured to perform defect detection on the image area and obtain defect detection results for the first class of targets.
前記欠陥検出モジュールは更に、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得、前記第1欠陥検出結果は、前記第1クラスのターゲットに存在する少なくとも1種の第1欠陥の情報を含み、及び/又は、前記画像領域に対して分類を行い、第2欠陥検出結果を得、前記第2欠陥検出結果は、前記第1クラスのターゲットが属する第2欠陥の情報を含むように構成されることを特徴とする
請求項17に記載の装置。
The defect detection module further performs a second target detection on the image area to obtain a first defect detection result, wherein the first defect detection result comprises at least one first defect detection present in the first class of targets. and/or performing classification on the image region to obtain a second defect detection result, the second defect detection result being information of a second defect to which the target of the first class belongs. 18. The device of claim 17, wherein the device is configured to include:
前記欠陥検出モジュールは更に、前記第1クラスのターゲットが第1サブクラスのターゲットである場合、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得るステップを実行し、前記第1クラスのターゲットが第2サブクラスのターゲットである場合、前記画像領域に対して分類を行い、第2欠陥検出結果を得るステップを実行するように構成されることを特徴とする
請求項18に記載の装置。
The defect detection module further performs a second target detection on the image region to obtain a first defect detection result if the first class of targets is a first subclass of targets; 19. The method of claim 18, wherein if a class of targets is a second subclass of targets, the method is configured to perform the step of performing classification on the image region to obtain a second defect detection result. equipment.
前記第1欠陥検出結果は、各種の前記第1欠陥の位置情報及び前記第1欠陥に属する第1確率を含み、前記欠陥検出モジュールは更に、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得た後、
各種の前記第1欠陥の位置情報に応じて、前記検出されるべき画像における各種の前記第1欠陥の欠陥領域をそれぞれ決定し、異なる前記欠陥領域間の重複領域に対して重複排除処理を行うことと、第1確率が第1フィルタリング条件を満たす前記第1欠陥をフィルタリングすることと、のうちの少なくとも1つを実行するように構成されることを特徴とする
請求項18又は19に記載の装置。
the first defect detection result includes location information of various kinds of the first defects and a first probability belonging to the first defect, the defect detection module further performs a second target detection on the image area; After obtaining the first defect detection result,
Defect areas of the various first defects in the image to be detected are determined according to the position information of the various first defects, and overlap elimination processing is performed on overlapping areas between the different defect areas. and filtering the first defects for which a first probability satisfies a first filtering condition. Device.
前記第1フィルタリング条件は、前記第1確率が第1確率閾値よりも低いことであり、及び/又は、前記欠陥検出モジュールは更に、異なる前記欠陥領域間の重複領域に対して非極大値抑制を行うように構成されることを特徴とする
請求項20に記載の装置。
the first filtering condition is that the first probability is lower than a first probability threshold; and/or the defect detection module further performs non-maximum suppression for overlapping regions between the different defect regions. 21. Apparatus according to claim 20, characterized in that it is arranged to:
前記第2欠陥検出結果は、前記第1クラスのターゲットが第2欠陥に属する第2確率を含み、前記欠陥検出モジュールは更に、前記画像領域に対して分類を行い、前記第1クラスのターゲットが各種の所定の欠陥に属する確率を得、各種の所定の確率を加算し、前記第1クラスのターゲットが第2欠陥に属する第2確率を得るように構成されることを特徴とする
請求項18から21のうちいずれか一項に記載の装置。
The second defect detection result includes a second probability that the first class target belongs to a second defect, and the defect detection module further performs a classification on the image region, wherein the first class target is 18. Arranged to obtain probabilities of belonging to various pre-determined defects and to add the various pre-determined probabilities to obtain a second probability that the target of said first class belongs to a second defect. 22. The apparatus according to any one of 21.
前記第1ターゲット検出モジュールは更に、欠陥検出モデルの第1領域検出ネットワークを利用して、検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得るように構成され、
前記欠陥検出モジュールは更に、前記欠陥検出モデルの第2領域検出ネットワークを利用して、前記画像領域に対して第2ターゲット検出を行い、第1欠陥検出結果を得、前記第2領域検出ネットワークの深さは、第1領域検出ネットワークの深さよりも浅く、前記欠陥検出モデルの分類ネットワークを利用して、前記画像領域に対して分類を行い、第2欠陥検出結果を得るように構成されることを特徴とする
請求項18から22のうちいずれか一項に記載の装置。
the first target detection module is further configured to perform a first target detection on the image to be detected using a first region detection network of a defect detection model to obtain a target detection result;
The defect detection module further utilizes a second region detection network of the defect detection model to perform a second target detection on the image region to obtain a first defect detection result; The depth is shallower than the depth of the first region detection network and configured to utilize the defect detection model classification network to perform classification on the image region to obtain a second defect detection result. 23. Apparatus according to any one of claims 18-22, characterized in that:
前記ターゲット検出結果は、第2クラスのターゲット及び前記検出されるべき画像における第2クラスのターゲットの第2位置情報を更に含み、前記欠陥検出モジュールは更に、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得た後、前記第2クラスのターゲットを前記検出されるべき画像における第3欠陥として決定し、前記第2クラスのターゲット及びその前記第2位置情報を前記第2クラスのターゲットに関わる欠陥検出結果とするように構成されることを特徴とする
請求項17から23のうちいずれか一項に記載の装置。
The target detection result further includes a second class of targets and second position information of the second class of targets in the image to be detected, and the defect detection module further comprises: After performing one target detection and obtaining a target detection result, determining the second class target as a third defect in the image to be detected, and determining the second class target and its second position information as the 24. Apparatus according to any one of claims 17 to 23, characterized in that it is arranged to result in defect detection results involving a second class of targets.
前記欠陥検出モジュールは更に、前記欠陥検出結果を得た後、前記欠陥検出結果における第2フィルタリング条件を満たす欠陥をフィルタリングし、前記検出されるべき画像の最終的欠陥検出結果を得るように構成されることを特徴とする
請求項17から24のうちいずれか一項に記載の装置。
The defect detection module is further configured to, after obtaining the defect detection result, filter defects satisfying a second filtering condition in the defect detection result to obtain a final defect detection result of the image to be detected. 25. Apparatus according to any one of claims 17 to 24, characterized in that:
前記欠陥検出モジュールは更に、前記欠陥検出結果における前記欠陥の位置情報を利用して前記欠陥の寸法を得、前記欠陥検出結果における前記寸法が所定の寸法条件を満たさない欠陥をフィルタリングし、及び/又は、前記欠陥検出結果における確率が第2確率閾値よりも低い前記欠陥をフィルタリングするように構成されることを特徴とする
請求項25に記載の装置。
The defect detection module further utilizes the position information of the defect in the defect detection result to obtain dimensions of the defect, filters defects whose dimensions in the defect detection result do not meet a predetermined dimension condition, and/or 26. The apparatus of claim 25, or configured to filter out defects whose probability in the defect detection result is lower than a second probability threshold.
前記欠陥検出モジュールは更に、前記検出されるべき画像の最終的欠陥検出結果を得た後、前記最終的欠陥検出結果における各前記欠陥の確率の降順に応じて、前記最終的欠陥検出結果における各前記欠陥の情報を出力するように構成されることを特徴とする
請求項25又は26項に記載の装置。
The defect detection module further comprises, after obtaining a final defect detection result of the image to be detected, determining each defect in the final defect detection result according to a descending order of the probability of each defect in the final defect detection result. 27. Apparatus according to claim 25 or 26, characterized in that it is arranged to output information of said defects.
前記画像領域取得モジュールは更に、前記第1位置情報に基づいて、前記検出されるべき画像から、前記第1クラスのターゲットに対応するターゲット領域を決定し、前記ターゲット領域を前記検出されるべき画像において所定の倍数だけ外側へ拡張し、前記検出されるべき画像から、外側へ拡張された前記ターゲット領域を抽出し、前記第1クラスのターゲットを含む画像領域を得るように構成されることを特徴とする
請求項17から27のうちいずれか一項に記載の装置。
The image area acquisition module further determines a target area corresponding to the first class target from the image to be detected based on the first position information, and determines the target area from the image to be detected. and extracting the outwardly expanded target region from the image to be detected to obtain an image region containing the first class of targets. 28. Apparatus according to any one of claims 17-27.
前記装置は、前記検出されるべき画像に対して第1ターゲット検出を行い、ターゲット検出結果を得る前に、初期画像をスケーリングし、所定のサイズの画像を得、スケーリング後の前記初期画像の画素値を所定の画素値範囲に圧縮し、圧縮された前記初期画像に対して正規化処理を行い、前記検出されるべき画像を得るように構成される前処理モジュールを更に備えることを特徴とする
請求項17から28のうちいずれか一項に記載の装置。
The apparatus performs first target detection on the image to be detected, scales an initial image before obtaining a target detection result, obtains an image of a predetermined size, pixels of the initial image after scaling The method further comprises a preprocessing module configured to compress values to a predetermined pixel value range and perform a normalization operation on the compressed initial image to obtain the image to be detected. 29. Apparatus according to any one of claims 17-28.
前記装置は、第1サンプル集合を取得し、前記第サンプル集合は少なくとも1つのサンプル画像を含み、前記サンプル画像に、ターゲットに関する真実の欠陥情報が付記されており、前記ターゲットは第1クラスのターゲットを含み、前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得、前記真実の欠陥情報及び前記欠陥検出結果を利用して、前記欠陥検出モデルのパラメータを調整するように構成される訓練モジュールを更に備えることを特徴とする
請求項17から29のうちいずれか一項に記載の装置。
The apparatus obtains a first sample set, the first sample set including at least one sample image, the sample image annotated with true defect information about a target, the target being a first class target. using the defect detection model to perform detection on sample images in the first sample set to obtain defect detection results for the target; using the true defect information and the defect detection results; 30. Apparatus according to any one of claims 17 to 29, further comprising a training module configured to adjust parameters of the defect detection model.
前記欠陥検出モデルは、複数のグラフィックプロセッサにより共同訓練されたものであり、各前記グラフィックプロセッサが取得した第1サンプル集合は異なり、
前記訓練モジュールは更に、各前記グラフィックプロセッサにおける前記欠陥検出モデルのバッチ標準化層を同期し、各前記グラフィックプロセッサにおける前記バッチ標準化層の同期後に欠陥検出モデルを利用して、前記サンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得、全ての前記欠陥検出結果と前記真実の欠陥情報に基づいて、前記欠陥検出モデルの平均損失値を決定し、前記平均損失値を利用して、前記欠陥検出モデルのパラメータを調整するように構成されることを特徴とする
請求項30に記載の装置。
wherein the defect detection model is jointly trained by a plurality of graphics processors, each graphics processor obtaining a different first sample set;
The training module further synchronizes a batch normalization layer of the defect detection model in each of the graphics processors, and utilizes the defect detection model after synchronization of the batch normalization layer in each of the graphics processors to detect defects on the sample images. obtaining defect detection results for the target; determining an average loss value of the defect detection model based on all the defect detection results and the true defect information; using the average loss value; 31. The apparatus of claim 30, configured to adjust parameters of the defect detection model.
前記訓練モジュールは更に、前記欠陥検出モデルを利用して、前記第1サンプル集合におけるサンプル画像に対して検出を行い、前記ターゲットに関わる欠陥検出結果を得る前に、第2サンプル集合を利用して、前記欠陥検出モデルに対して事前訓練を行うステップと、第1サンプル集合を利用して、前記欠陥検出モデルに対して予備訓練を行うステップと、のうちの少なくとも1つを実行するように構成され、前記予備訓練のプロセスに用いられる学習率は、所定の学習率よりも低い第1学習率から、前記所定の学習率まで次第に増大するものであり、
前記第1サンプル集合におけるサンプル画像は少なくとも、元画像に対して前処理を行い、前記サンプル画像を得るステップにより得られたものであり、前記前処理の方式は、スケール変換、色変換、水平反転、垂直反転、回転、トリミングのうちの少なくとも1つを含むことを特徴とする
請求項30又は31に記載の装置。
The training module further performs detection on sample images in the first sample set using the defect detection model, and using a second sample set before obtaining defect detection results for the target. pre-training the defect detection model; and pre-training the defect detection model using a first sample set. and the learning rate used in the pretraining process gradually increases from a first learning rate lower than a predetermined learning rate to the predetermined learning rate,
The sample images in the first sample set are obtained by at least preprocessing an original image to obtain the sample images, and the preprocessing methods are scale conversion, color conversion, and horizontal inversion. 32. Apparatus according to claim 30 or 31, comprising at least one of: , vertical flip, rotation, cropping.
メモリ及びプロセッサを備える電子機器であって、
前記プロセッサは、前記メモリに記憶されたプログラム命令を実行して、請求項1から16のうちいずれか一項に記載の方法を実行する、電子機器。
An electronic device comprising a memory and a processor,
17. Electronic equipment, wherein the processor executes program instructions stored in the memory to perform the method of any one of claims 1-16.
プロセッサにより実行される時、前記プロセッサに請求項1から16のうちいずれか一項に記載の方法を実行させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。 A computer readable storage medium storing program instructions for, when executed by a processor, causing said processor to perform the method of any one of claims 1 to 16. コンピュータにより読み取られて実行される時、前記コンピュータに請求項1から16のうちいずれか一項に記載の方法を実行させるためのコンピュータプログラムを記憶している非一時的コンピュータ可読記憶媒体を含む、コンピュータプログラム製品。 a non-transitory computer readable storage medium storing a computer program which, when read and executed by a computer, causes said computer to perform the method of any one of claims 1 to 16, computer program product.
JP2021567817A 2020-08-19 2020-12-14 Defect detection method and related apparatus, equipment, storage medium, and computer program product Pending JP2022548438A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010837709.2A CN112001902A (en) 2020-08-19 2020-08-19 Defect detection method and related device, equipment and storage medium
CN202010837709.2 2020-08-19
PCT/CN2020/136251 WO2022036953A1 (en) 2020-08-19 2020-12-14 Defect detection method and related apparatus, device, storage medium, and computer program product

Publications (1)

Publication Number Publication Date
JP2022548438A true JP2022548438A (en) 2022-11-21

Family

ID=73473665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021567817A Pending JP2022548438A (en) 2020-08-19 2020-12-14 Defect detection method and related apparatus, equipment, storage medium, and computer program product

Country Status (5)

Country Link
JP (1) JP2022548438A (en)
KR (1) KR20220023335A (en)
CN (1) CN112001902A (en)
TW (1) TWI770757B (en)
WO (1) WO2022036953A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116087345A (en) * 2023-04-06 2023-05-09 广东电网有限责任公司揭阳供电局 Method, device and medium for calculating axial defect length of composite insulator

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001902A (en) * 2020-08-19 2020-11-27 上海商汤智能科技有限公司 Defect detection method and related device, equipment and storage medium
CN112634254A (en) * 2020-12-29 2021-04-09 北京市商汤科技开发有限公司 Insulator defect detection method and related device
CN112926439A (en) * 2021-02-22 2021-06-08 深圳中科飞测科技股份有限公司 Detection method and device, detection equipment and storage medium
CN112926438B (en) * 2021-02-22 2024-04-05 深圳中科飞测科技股份有限公司 Detection method and device, detection equipment and storage medium
CN112926437A (en) * 2021-02-22 2021-06-08 深圳中科飞测科技股份有限公司 Detection method and device, detection equipment and storage medium
CN113139540B (en) * 2021-04-02 2022-11-01 北京邮电大学 Backboard detection method and equipment
CN113205512B (en) * 2021-05-26 2023-10-24 北京市商汤科技开发有限公司 Image anomaly detection method, device, equipment and computer readable storage medium
CN113222989A (en) * 2021-06-09 2021-08-06 联仁健康医疗大数据科技股份有限公司 Image grading method and device, storage medium and electronic equipment
CN114298992A (en) * 2021-12-21 2022-04-08 北京百度网讯科技有限公司 Video frame duplication removing method and device, electronic equipment and storage medium
CN114359281A (en) * 2022-03-17 2022-04-15 南方电网数字电网研究院有限公司 Electric power component identification method and device based on hierarchical ensemble learning
CN117278763A (en) * 2022-06-14 2023-12-22 中兴通讯股份有限公司 Interactive-based encoding method, encoding device and readable storage medium
EP4343691A1 (en) * 2022-07-29 2024-03-27 Contemporary Amperex Technology Co., Limited Training method and training device for defect detection model of battery cell
CN115272330B (en) * 2022-09-28 2023-04-18 深圳先进技术研究院 Defect detection method, system and related equipment based on battery surface image
CN115564773B (en) * 2022-11-18 2023-04-18 南方电网数字电网研究院有限公司 Small sample image defect detection method, device and equipment based on meta-learning
CN115526892B (en) * 2022-11-29 2023-03-03 南方电网数字电网研究院有限公司 Image defect duplicate removal detection method and device based on three-dimensional reconstruction
CN115631193A (en) * 2022-12-06 2023-01-20 北京矩视智能科技有限公司 Workpiece defect detection method and device based on attention mechanism and storage medium
CN116539619B (en) * 2023-04-19 2024-05-10 广州里工实业有限公司 Product defect detection method, system, device and storage medium
CN116385952B (en) * 2023-06-01 2023-09-01 华雁智能科技(集团)股份有限公司 Distribution network line small target defect detection method, device, equipment and storage medium
CN116449875B (en) * 2023-06-16 2023-09-05 拓恒技术有限公司 Unmanned aerial vehicle inspection method and system
CN117078689B (en) * 2023-10-17 2024-01-30 沈阳宏远电磁线股份有限公司 Cable defect identification method and system based on machine vision
CN117437188B (en) * 2023-10-17 2024-05-28 广东电力交易中心有限责任公司 Insulator defect detection system for smart power grid
CN117253179B (en) * 2023-11-20 2024-02-02 合肥中科类脑智能技术有限公司 Distribution line bird nest detection method, storage medium and electronic equipment
CN117576042A (en) * 2023-11-22 2024-02-20 魅杰光电科技(上海)有限公司 Wafer defect detection method, system, electronic equipment and storage medium
CN117495846B (en) * 2023-12-27 2024-04-16 苏州镁伽科技有限公司 Image detection method, device, electronic equipment and storage medium
CN117934462A (en) * 2024-03-21 2024-04-26 高视科技(苏州)股份有限公司 Method for adjusting detection parameters, electronic device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057956A (en) * 2003-08-07 2005-03-03 Central Res Inst Of Electric Power Ind Method, device, and program for detecting electric wire abnormality by image processing, and method for forming image for electric wire inspection
JP2012021929A (en) * 2010-07-16 2012-02-02 Central Res Inst Of Electric Power Ind Abnormality detection method, abnormality detection apparatus and abnormality detection program for electric wire
CN111161246A (en) * 2019-12-30 2020-05-15 歌尔股份有限公司 Product defect detection method, device and system
CN111242943A (en) * 2020-01-22 2020-06-05 腾讯科技(深圳)有限公司 Image processing method, image processing apparatus, image processing device, and storage medium
CN111462109A (en) * 2020-04-17 2020-07-28 广东电网有限责任公司 Defect detection method, device and equipment for strain clamp and storage medium

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257303A (en) * 2010-06-10 2011-12-22 Olympus Corp Image acquisition device, defect correction device and image acquisition method
CN103530620A (en) * 2013-10-30 2014-01-22 华北电力大学 Method for identifying bird nest on electric transmission line tower
CN106226050B (en) * 2016-07-15 2019-02-01 北京航空航天大学 A kind of TFDS fault picture automatic identifying method based on convolutional neural networks
KR20180115368A (en) * 2017-04-12 2018-10-23 주식회사 포스코 Auto-mapping apparatus for surface defect of strip coil and method
CN107392901A (en) * 2017-07-24 2017-11-24 国网山东省电力公司信息通信公司 A kind of method for transmission line part intelligence automatic identification
CN108389197B (en) * 2018-02-26 2022-02-08 上海赛特斯信息科技股份有限公司 Power transmission line defect detection method based on deep learning
CN108648169B (en) * 2018-03-20 2020-11-10 中国科学院自动化研究所 Method and device for automatically identifying defects of high-voltage power transmission tower insulator
CN108597053A (en) * 2018-04-25 2018-09-28 北京御航智能科技有限公司 Shaft tower and channel targets identification based on image data and neural network and defect diagnostic method
CN110619619A (en) * 2018-06-04 2019-12-27 杭州海康威视数字技术股份有限公司 Defect detection method and device and electronic equipment
JP7028091B2 (en) * 2018-07-11 2022-03-02 日本製鉄株式会社 Surface defect detection device and surface defect detection method
CN108921846A (en) * 2018-07-17 2018-11-30 北京航空航天大学 A kind of rail tread defect identification method combined based on gray level image and depth image
JP2020034413A (en) * 2018-08-30 2020-03-05 東ソー株式会社 Defect detection method
CN109785288A (en) * 2018-12-17 2019-05-21 广东电网有限责任公司 Transmission facility defect inspection method and system based on deep learning
CN109685930A (en) * 2018-12-19 2019-04-26 深圳供电局有限公司 Power components method for inspecting, device, computer equipment and storage medium
CN109829893B (en) * 2019-01-03 2021-05-25 武汉精测电子集团股份有限公司 Defect target detection method based on attention mechanism
CN109949296A (en) * 2019-03-21 2019-06-28 北京中飞艾维航空科技有限公司 A kind of transmission line of electricity defect identification method, device and storage medium
CN110378222B (en) * 2019-06-14 2023-10-27 南瑞集团有限公司 Method and device for detecting vibration damper target and identifying defect of power transmission line
CN110349145B (en) * 2019-07-09 2022-08-16 京东方科技集团股份有限公司 Defect detection method, defect detection device, electronic equipment and storage medium
CN110517265B (en) * 2019-09-04 2022-03-01 北京理工大学 Method and device for detecting surface defects of product and storage medium
CN110555842A (en) * 2019-09-10 2019-12-10 太原科技大学 Silicon wafer image defect detection method based on anchor point set optimization
CN110796107A (en) * 2019-11-04 2020-02-14 南京北旨智能科技有限公司 Power inspection image defect identification method and system and power inspection unmanned aerial vehicle
CN110969620A (en) * 2019-12-19 2020-04-07 中国农业大学 Method and device for detecting magnetic shoe ripple defects
CN111260055B (en) * 2020-01-13 2023-09-01 腾讯科技(深圳)有限公司 Model training method based on three-dimensional image recognition, storage medium and device
CN111353413B (en) * 2020-02-25 2022-04-15 武汉大学 Low-missing-report-rate defect identification method for power transmission equipment
CN111415330A (en) * 2020-02-27 2020-07-14 苏州杰锐思智能科技股份有限公司 Copper foil appearance defect detection method based on deep learning
CN111507958B (en) * 2020-04-15 2023-05-26 全球能源互联网研究院有限公司 Target detection method, training method of detection model and electronic equipment
CN112001902A (en) * 2020-08-19 2020-11-27 上海商汤智能科技有限公司 Defect detection method and related device, equipment and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057956A (en) * 2003-08-07 2005-03-03 Central Res Inst Of Electric Power Ind Method, device, and program for detecting electric wire abnormality by image processing, and method for forming image for electric wire inspection
JP2012021929A (en) * 2010-07-16 2012-02-02 Central Res Inst Of Electric Power Ind Abnormality detection method, abnormality detection apparatus and abnormality detection program for electric wire
CN111161246A (en) * 2019-12-30 2020-05-15 歌尔股份有限公司 Product defect detection method, device and system
CN111242943A (en) * 2020-01-22 2020-06-05 腾讯科技(深圳)有限公司 Image processing method, image processing apparatus, image processing device, and storage medium
CN111462109A (en) * 2020-04-17 2020-07-28 广东电网有限责任公司 Defect detection method, device and equipment for strain clamp and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116087345A (en) * 2023-04-06 2023-05-09 广东电网有限责任公司揭阳供电局 Method, device and medium for calculating axial defect length of composite insulator
CN116087345B (en) * 2023-04-06 2023-06-13 广东电网有限责任公司揭阳供电局 Method, device and medium for calculating axial defect length of composite insulator

Also Published As

Publication number Publication date
KR20220023335A (en) 2022-03-02
TW202208832A (en) 2022-03-01
CN112001902A (en) 2020-11-27
WO2022036953A1 (en) 2022-02-24
TWI770757B (en) 2022-07-11

Similar Documents

Publication Publication Date Title
JP2022548438A (en) Defect detection method and related apparatus, equipment, storage medium, and computer program product
WO2022033150A1 (en) Image recognition method, apparatus, electronic device, and storage medium
CN106557778B (en) General object detection method and device, data processing device and terminal equipment
CN109241985B (en) Image identification method and device
US8792722B2 (en) Hand gesture detection
US8750573B2 (en) Hand gesture detection
CN110298297B (en) Flame identification method and device
CN111767900B (en) Face living body detection method, device, computer equipment and storage medium
US9305208B2 (en) System and method for recognizing offensive images
KR20180065889A (en) Method and apparatus for detecting target
CN110298227B (en) Vehicle detection method in unmanned aerial vehicle aerial image based on deep learning
CN109360179B (en) Image fusion method and device and readable storage medium
CN113221956B (en) Target identification method and device based on improved multi-scale depth model
WO2023124278A1 (en) Image processing model training method and apparatus, and image classification method and apparatus
CN111597933A (en) Face recognition method and device
CN110852327A (en) Image processing method, image processing device, electronic equipment and storage medium
WO2024021461A1 (en) Defect detection method and apparatus, device, and storage medium
CN113781421A (en) Underwater-based target identification method, device and system
CN112233105A (en) Road crack detection method based on improved FCN
CN115512207A (en) Single-stage target detection method based on multipath feature fusion and high-order loss sensing sampling
CN112749702B (en) Image recognition method, device, terminal and storage medium
CN117315702B (en) Text detection method, system and medium based on set prediction
WO2024058795A1 (en) Glare detection using global and localized feature fusion
CN115880493A (en) Instance segmentation method and device and computer readable storage medium
CN115984304A (en) Instance partitioning method and device and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230630