WO2022153827A1 - Article detection method, device, and electronic apparatus - Google Patents

Article detection method, device, and electronic apparatus Download PDF

Info

Publication number
WO2022153827A1
WO2022153827A1 PCT/JP2021/047883 JP2021047883W WO2022153827A1 WO 2022153827 A1 WO2022153827 A1 WO 2022153827A1 JP 2021047883 W JP2021047883 W JP 2021047883W WO 2022153827 A1 WO2022153827 A1 WO 2022153827A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection target
detection
article
image
sub
Prior art date
Application number
PCT/JP2021/047883
Other languages
French (fr)
Japanese (ja)
Inventor
剣俊 蒋
賢捷 郭
鵬 関
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2022153827A1 publication Critical patent/WO2022153827A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure provides an article detection method, a device, and an electronic apparatus. The article detection comprises: using a deep learning positioning network model to position a detection target in an article image and acquire positioning data of the detection target; calculating a feature value of the detection target on the basis of the positioning data; and comparing the calculated feature value with a preset detection threshold value to determine from the comparison result whether or not the detection target has a defect. Thus, in a practical application, production speed requirements can be satisfied, and it is possible to quickly determine whether or not the detection target has a defect.

Description

物品検出方法、装置、及び電子機器Article detection methods, devices, and electronic devices
 本願は、物品検出の技術分野に関し、特に、物品検出方法、装置、及び電子機器に関する。 The present application relates to the technical field of article detection, and particularly to articles detection methods, devices, and electronic devices.
 物品を生産したり、製造したりするとき、物品を検出する必要がある。物品の検出により、欠陥の有無を判断することができ、良品率を向上することが可能である。従来のビジョン技術では、複雑な環境(例えば、物品が梱包箱内又は透明なプラスチック袋内にある場合)で、被測定物体を検出することは困難であり、物品の外観形態を検査することも不可能である。現在、深層学習セグメンテーションネットワークに基づく手段によれば、物品の外観形態を検出することができる。 When producing or manufacturing an article, it is necessary to detect the article. By detecting the article, it is possible to determine the presence or absence of defects, and it is possible to improve the non-defective rate. With conventional vision techniques, it is difficult to detect an object under test in a complex environment (eg, when the article is in a packaging box or in a clear plastic bag), and it is also possible to inspect the appearance of the article. It is impossible. Currently, by means based on deep learning segmentation networks, it is possible to detect the appearance morphology of an article.
 ここで注意すべきなのは、上述の背景技術の紹介は、本願の技術的解決策をより明瞭かつ完全に説明しやすくするためのものであって、当業者が理解しやすいように供するに過ぎない。それらの解決策が本願の背景技術の部分に記載されていることだけで、上記の技術的解決策が当業者によって公知にされたと認定してはならない。 It should be noted here that the introduction of the background art described above is intended to make the technical solution of the present application easier to explain more clearly and completely, and is provided only for those skilled in the art to understand. .. It should not be found that the above technical solutions have been made known to those skilled in the art solely by the fact that those solutions are described in the background art section of the present application.
 しかしながら、本発明者は、深層学習セグメンテーションネットワークに基づく物品検出手段は、大量の演算を必要とし、相当な時間がかかるので、リアルタイム性が良好ではなく、実際な応用では、生産速度の要求を満足することも難しく、検出対象には欠陥があるか否かを迅速に判断することもできないことを発見した。 However, according to the present inventor, the article detection means based on the deep learning segmentation network requires a large amount of calculation and takes a considerable amount of time, so that the real-time property is not good, and in practical applications, the production speed requirement is satisfied. We found that it was difficult to do so, and it was not possible to quickly determine whether or not the detection target was defective.
 上記問題のうちのすくなくとも1つを解決するために、本願の実施例では、物品検出方法、装置、及び電子機器が提案されている。 In order to solve at least one of the above problems, an article detection method, an apparatus, and an electronic device are proposed in the embodiment of the present application.
 本願の実施例の一態様によれば、物品検出方法であって、
 深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得すること、
 前記位置決めデータに基づき、前記検出対象の特徴値を計算すること、および、
 算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断することを包含する物品検出方法を提供する。
According to one aspect of the embodiment of the present application, it is an article detection method.
To position the detection target in the article image by the deep learning positioning network model and acquire the positioning data of the detection target.
Calculate the feature value of the detection target based on the positioning data, and
Provided is an article detection method including comparing a calculated feature value with a preset detection threshold value and determining whether or not the detection target has a defect from the comparison result.
 本願の実施例の別の態様によれば、物品検出装置であって、
 深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する位置決め部と、
 前記位置決めデータに基づき、前記検出対象の特徴値を計算する計算部と、
 算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する比較部と、を備えた物品検出装置を提供する。
According to another aspect of the embodiment of the present application, it is an article detection device.
A positioning unit that positions the detection target in the article image and acquires the positioning data of the detection target by the deep learning positioning network model.
A calculation unit that calculates the feature value of the detection target based on the positioning data,
Provided is an article detection device including a comparison unit for comparing a calculated feature value with a preset detection threshold value and determining whether or not the detection target has a defect based on the comparison result.
 本願の実施例の別の態様によれば、電子機器であって、メモリとプロセッサとを備え、前記メモリには、コンピュータプログラムが記憶されており、前記プロセッサは、
 深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する操作、
 前記位置決めデータに基づき、前記検出対象の特徴値を計算する操作、および、
 算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する操作を実行するように配置されている電子機器を提供する。
According to another aspect of the embodiment of the present application, the electronic device includes a memory and a processor, and a computer program is stored in the memory.
An operation of positioning a detection target in an article image by a deep learning positioning network model and acquiring positioning data of the detection target.
An operation of calculating the feature value of the detection target based on the positioning data, and
Provided is an electronic device arranged so as to compare a calculated feature value with a preset detection threshold value and perform an operation of determining whether or not the detection target has a defect based on the comparison result. ..
 本願の実施例による有益な効果の一つは以下の通りである。深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得すること、前記位置決めデータに基づき、前記検出対象の特徴値を計算すること、および、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断することによれば、実際な応用では、生産速度の要求を満足することができ、検出対象には欠陥があるか否かを迅速に判断することができる。
後述する説明と図面を参照して、本願の特定な実施の形態は詳しく開示され、本願の原理が使用されることも示された。理解すべきことは、本願の実施の形態は、範囲上にそれで限定されていない。添付される特許請求の範囲の精神及び請求項の範囲内において、本願における実施の形態は多くの修正、変形及び均等物を含む。
One of the beneficial effects of the examples of the present application is as follows. Using the deep learning positioning network model, the detection target in the article image is positioned to acquire the positioning data of the detection target, the feature value of the detection target is calculated based on the positioning data, and the calculation is performed. By comparing the feature value with a preset detection threshold and determining whether or not the detection target has a defect from the comparison result, in a practical application, the requirement of production speed is satisfied. It is possible to quickly determine whether or not the detection target has a defect.
Specific embodiments of the present application are disclosed in detail with reference to the description and drawings described below, and it is also shown that the principles of the present application are used. It should be understood that the embodiments of the present application are not so limited in scope. Within the spirit of the appended claims and within the scope of the claims, the embodiments in the present application include many modifications, modifications and equivalents.
本願の実施例における物品検出方法の一模式図である。It is a schematic diagram of the article detection method in the Example of this application. 本願の実施例における位置決めデータの一例示図である。It is an example figure of the positioning data in the Example of this application. 本願の実施例におけるデータ統計の一例示図である。It is an example figure of the data statistics in the Example of this application. 本願の実施例における分布型検出の一模式図である。It is a schematic diagram of the distribution type detection in the Example of this application. 本願の実施例における物品検出装置の一模式図である。It is a schematic diagram of the article detection device in the Example of this application. 本願の実施例における電子機器の一模式図である。It is a schematic diagram of the electronic device in the Example of this application.
 含まれた添付図面は、本願の実施例をさらに理解するために供されるもので、明細書の一部を構成し、本発明の実施形態を例示するとともに、文字記載と合わせて本発明の原理を説明するものである。自明なことに、後述する添付図面はただ本願のいくつかの実施例に過ぎず、当業者にとって、創造的な労力を払わないことを前提として、それらの添付図面に基づいて、他の添付図面を取得することができる。 The included drawings are provided for further understanding of the embodiments of the present application, and constitute a part of the specification, exemplify the embodiments of the present invention, and together with the text description of the present invention. It explains the principle. Obviously, the accompanying drawings described below are merely some examples of the present application, and other attached drawings will be based on those attached drawings, assuming that those skilled in the art will not make any creative effort. Can be obtained.
 添付図面を参照して、以下の説明によれば、本願の上記及びその他の特徴がより明瞭になるであろう。明細書及び図面から、本願の特定実施形態は具体的に開示され、本願の原理を採用可能な実施形態の一部が示されるが、本願は記載される実施形態に限らないということにも注意すべきである。逆に、本願には、添付される請求の範囲内に属するすべての修正、変形及び均等物を含むこととする。 With reference to the accompanying drawings, the above and other features of the present application will become clearer according to the following description. Although the specification and drawings specifically disclose specific embodiments of the present application and show some embodiments in which the principles of the present application can be adopted, it should also be noted that the present application is not limited to the described embodiments. Should. Conversely, the present application shall include all modifications, modifications and equivalents that fall within the appended claims.
 本願の実施例では、用語である「第1の」、「第2の」などは、異なる要素を、名称上に区別させるために用いられるが、それらの要素の空間的配列又は時間的順序などを示すものではなく、それらの要素はそれらの用語によって限られていない。用語である「及び/または」は、関連して挙げられた用語のうちの1つまたは複数のいずれか又は全ての組み合わせを含む。用語である「含む」、「備える」などは、記述の特徴、要素、素子または部品の存在を指すが、1つまたは複数の他の特徴、要素、素子または部品の存在又は添加が排除されていない。 In the embodiments of the present application, the terms "first", "second", etc. are used to distinguish different elements by name, such as the spatial arrangement or temporal order of those elements. And their elements are not limited by their terminology. The term "and / or" includes any or all combinations of one or more of the related terms. The terms "including", "providing", etc. refer to the presence or absence of a feature, element, element or component of the description, excluding the presence or addition of one or more other features, elements, elements or components. do not have.
 本願の実施例では、単数態様を示す「一」、「当該」などは、複数態様を含んでもよく、「1種」又は「1類」として広義的に理解されるべきであるが、「1つ」の意味に限られていない。また、用語である「前記」は、上下文に別途で説明した場合を除き、単数態様も複数態様も含むものとして理解されるべきである。また、用語である「基づく」は、上下文に別途で説明した場合を除き、「少なくとも一部は・・・に基づく」と理解されるべきである。 In the examples of the present application, "one", "corresponding" and the like indicating a singular aspect may include a plurality of aspects, and should be broadly understood as "type 1" or "class 1", but "1". It is not limited to the meaning of "tsu". In addition, the term "above" should be understood to include both singular and plural aspects, unless otherwise described above and below. In addition, the term "based" should be understood as "at least partly based on ..." unless otherwise explained in the upper and lower sentences.
 以下、添付図面を参照しながら、本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
 (第1の態様による実施例)
 本願の実施例は、物品検出方法を提供する。図1は、本願の実施例における物品検出方法の一模式図である。図1に示すように、当該方法では、以下のステップを含む。
 101:深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得すること、
 102:前記位置決めデータに基づき、前記検出対象の特徴値を計算すること、および、
 103:算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断すること。
(Example according to the first aspect)
The embodiments of the present application provide a method for detecting an article. FIG. 1 is a schematic diagram of an article detection method according to an embodiment of the present application. As shown in FIG. 1, the method includes the following steps.
101: Positioning the detection target in the article image by the deep learning positioning network model and acquiring the positioning data of the detection target.
102: Calculate the feature value of the detection target based on the positioning data, and
103: The calculated feature value is compared with a preset detection threshold value, and it is determined from the comparison result whether or not the detection target has a defect.
 ここに注意すべきなのは、上記図1が本願の実施例を例示的に説明するためのものに過ぎず、本願は、それらに限られていないことである。例えば、各ステップ間の実行順序を調整することができ、また、他のいくつかのステップを追加することができ、あるいは、その中からいくつかのステップを削減することもできる。当業者は、上記内容に応じて適宜に変形することができるが、上記図1の記載に限られていない。 It should be noted here that FIG. 1 above is merely for exemplifying the embodiments of the present application, and the present application is not limited thereto. For example, the execution order between each step can be adjusted, some other steps can be added, or some steps can be reduced. Those skilled in the art can appropriately modify the contents according to the above contents, but the description is not limited to the above description in FIG.
 幾つかの実際例では、製造ライン上の物品を撮影して物品画像を形成してもよい。各物品画像には、複数の検出対象が含まれてもよい。例えば、検出対象が生産製造中の部品である場合、48個の物品ごとに撮影して1つの物品画像を形成してもよいことなどが挙げられる。 In some practical examples, an article on the production line may be photographed to form an article image. Each article image may include a plurality of detection targets. For example, when the detection target is a part being manufactured and manufactured, it is possible to take a picture of each of the 48 articles to form one article image.
 幾つかの実施例では、AI機器に深層学習位置決めネットワークモデルを設置し、物品画像を当該深層学習位置決めネットワークモデルに入力してもよい。深層学習位置決めネットワークモデルを有するAI機器は、実際なハードウェア機器、例えば、サーバまたはPCなどであってもよいし、仮想的なソフトウェア機器、例えば、スレッド又はプロセスなどであってもよい。 In some embodiments, a deep learning positioning network model may be installed in the AI device, and an article image may be input to the deep learning positioning network model. The AI device having the deep learning positioning network model may be a real hardware device such as a server or a PC, or a virtual software device such as a thread or process.
 幾つかの実施例では、深層学習位置決めネットワークモデルは、畳み込みニューラルネットワーク(CNN、Convolutional Neural Network)によって実現されてもよく、例えば、1つ以上の畳み込み層、プール層、および、全接続層などを含んでもよい。また、例えば、YOLOアルゴリズムなどが用いられてもよい。深層学習位置決めネットワークモデルについて、関連する技術を参照されてもよい。例えば、Google Netモデルなどを参照されてもよい。 In some embodiments, the deep learning positioning network model may be implemented by a convolutional neural network (CNN), such as one or more convolutional layers, pool layers, and all connected layers. It may be included. Further, for example, the YOLO algorithm or the like may be used. Related techniques may be referred to for deep learning positioning network models. For example, Google Net model and the like may be referred to.
 幾つかの実施例では、深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、検出対象の位置決めデータを取得してもい。例えば、検出対象の位置決めデータは、前記検出対象の種類、前記検出対象が位置する矩形枠の中心点座標、前記検出対象が位置する矩形枠の幅、および、前記検出対象が位置する矩形枠の高さを含んでもよい。また、検出対象の位置決めデータは、出力される位置決めデータに対する信頼度確率を表す信頼度をさらに含んでもよい。 In some embodiments, the deep learning positioning network model may be used to position the detection target in the article image and acquire the positioning data of the detection target. For example, the positioning data of the detection target includes the type of the detection target, the center point coordinates of the rectangular frame in which the detection target is located, the width of the rectangular frame in which the detection target is located, and the rectangular frame in which the detection target is located. The height may be included. Further, the positioning data to be detected may further include a reliability indicating a reliability probability with respect to the output positioning data.
 図2は、本願の実施例における位置決めデータの一例示図である。図2に示されるように、収集されたN個のデータサンプルのうちの1つのデータサンプル(物品画像)に対し、深層学習位置決めネットワークモデルによって、1つ以上の位置決めデータ[class,confidence,x,y,w,h]を取得することができ、ここで、classは検出対象の種類を表し、confidenceは信頼度を表し、xとyは検出対象が位置する矩形枠の中心点座標を表し、wは検出対象が位置する矩形枠の幅を表し、hは検出対象が位置する矩形枠の高さを表す。 FIG. 2 is an example diagram of positioning data in the embodiment of the present application. As shown in FIG. 2, for one data sample (article image) of the collected N data samples, one or more positioning data [class, rectangle, x, by the deep learning positioning network model y, w, h] can be obtained, where class represents the type of detection target, confidence represents the reliability, and x and y represent the center point coordinates of the rectangular frame in which the detection target is located. w represents the width of the rectangular frame in which the detection target is located, and h represents the height of the rectangular frame in which the detection target is located.
 例えば、物品画像201に対し、検出対象202に対応するデータ[部品1,0.9,20,30,15,16]を取得することができ、ここで、種類が「部品1」であり、信頼度が0.9であり、矩形枠の中心点座標が(20,30)であり、矩形枠の幅が15であり、矩形枠の高さが16である。物品画像201に対し、さらに、検出対象203に対応するデータ[部品1,0.95,100,40,15,19]を取得することができ、ここで、種類が「部品1」であり、信頼度が0.95であり、矩形枠の中心点座標が(100,40)であり、矩形枠の幅が15であり、矩形枠の高さが19である。 For example, data [parts 1,0.9, 20, 30, 15, 16] corresponding to the detection target 202 can be acquired for the article image 201, where the type is "part 1". The reliability is 0.9, the center point coordinates of the rectangular frame are (20, 30), the width of the rectangular frame is 15, and the height of the rectangular frame is 16. Data [parts 1,0.95,100,40,15,19] corresponding to the detection target 203 can be further acquired for the article image 201, where the type is "part 1". The reliability is 0.95, the center point coordinates of the rectangular frame are (100, 40), the width of the rectangular frame is 15, and the height of the rectangular frame is 19.
 しかし、本願はこれらに限らず、実際な必要に応じて、具体的なデータを特定してもよい。例えば、位置決めデータは、種類と信頼度を含まなくてもよい。さらに、例えば、位置決めデータは、検出対象が位置する矩形枠の長さl、検出対象が位置する矩形枠の幅w、検出対象が位置する矩形枠の高さhなどを含む3次元データであってもよい。 However, the present application is not limited to these, and specific data may be specified according to actual needs. For example, the positioning data does not have to include type and reliability. Further, for example, the positioning data is three-dimensional data including the length l of the rectangular frame where the detection target is located, the width w of the rectangular frame where the detection target is located, the height h of the rectangular frame where the detection target is located, and the like. You may.
 幾つかの実施例では、位置決めデータに基づいて検出対象の特徴値を計算してもよい。例えば、前記検出対象の特徴値は、前記検出対象が位置する矩形枠の幅と高さの比、又は、前記検出対象が位置する矩形枠の中心点偏差、および、前記検出対象が位置する矩形枠の面積偏差を含んでもよい。しかし、本願はこれらに限らず、実際な必要に応じて、具体的なデータを特定してもよい。 In some embodiments, the feature value of the detection target may be calculated based on the positioning data. For example, the feature value of the detection target is the ratio of the width to the height of the rectangular frame in which the detection target is located, the center point deviation of the rectangular frame in which the detection target is located, and the rectangle in which the detection target is located. The area deviation of the frame may be included. However, the present application is not limited to these, and specific data may be specified according to actual needs.
 以下は、検出対象が位置する矩形枠の幅と高さの比を例にして、本願をさらに説明する。 The present application will be further described below by taking as an example the ratio of the width to the height of the rectangular frame in which the detection target is located.
 例えば、物品画像201における検出対象202に対し、対応する位置決めデータが[部品1,0.9,20,30,15,16]であれば、当該検出対象202の特徴値が15/16=0.9375であると検出されることが可能である。また、物品画像201における検出対象203に対し、対応する位置決めデータが[部品1,0.95,200,300,15,19]であれば、当該検出対象203の特徴値が15/19=0.7895であると検出されることが可能である。 For example, if the corresponding positioning data for the detection target 202 in the article image 201 is [Part 1, 0.9, 20, 30, 15, 16], the feature value of the detection target 202 is 15/16 = 0. It is possible to detect that it is .9375. Further, if the corresponding positioning data with respect to the detection target 203 in the article image 201 is [Part 1,0.95,200,300,15,19], the feature value of the detection target 203 is 15/19 = 0. It is possible to detect that it is .7895.
 幾つかの実施例では、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断してもよい。ここで、検出閾値は、経験値又は製品要求に応じて予め決められてもよい。 In some examples, the calculated feature value may be compared with a preset detection threshold value, and it may be determined whether or not the detection target has a defect from the comparison result. Here, the detection threshold value may be predetermined according to the empirical value or the product requirement.
 例えば、検出閾値が0.9に設定されると仮定すると、物品画像201における検出対象02に対し、その特徴値0.9375>0.9となるので、当該検出対象202には欠陥がないと判断できる。また、物品画像201における検出対象203に対し、その特徴値0.7895<0.9となるので、当該検出対象203には欠陥があると判断できる。 For example, assuming that the detection threshold value is set to 0.9, the feature value of the detection target 02 in the article image 201 is 0.9375> 0.9, so that the detection target 202 has no defects. I can judge. Further, since the feature value 0.7895 <0.9 with respect to the detection target 203 in the article image 201, it can be determined that the detection target 203 has a defect.
 それにより、深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、検出対象の位置決めデータを取得し、位置決めデータに基づき、検出対象の特徴値を計算し、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から検出対象には欠陥があるか否かを判断する。そのため、対象のエッジ形状などを計算する必要がなく、大量な計算量が不要なので、リアルタイム性が良いものである。また、実際な応用では、生産速度の要求を満足することができ、検出対象には欠陥があるか否かを迅速に判断することができる。 As a result, the detection target in the article image is positioned by the deep learning positioning network model, the positioning data of the detection target is acquired, the feature value of the detection target is calculated based on the positioning data, and the calculated feature value is calculated in advance. It is compared with the set detection threshold, and it is determined whether or not the detection target has a defect from the comparison result. Therefore, it is not necessary to calculate the edge shape of the target, and a large amount of calculation is not required, so that the real-time property is good. Further, in a practical application, the demand for production speed can be satisfied, and it is possible to quickly determine whether or not the detection target has a defect.
 幾つかの実施例では、複数の検出対象の特徴値を統計する(統計をとる)こと、および、統計の結果から、検出閾値を特定又は更新することを含んでもよい。例えば、データの分布図を計算し、分布図におけるデータ分布に応じて正常区間と異常区間を分割して、当該検出閾値を特定してもよい。 In some examples, it may be included to statistic (take statistics) the feature values of a plurality of detection targets, and to specify or update the detection threshold value from the result of the statistic. For example, the data distribution map may be calculated, and the normal section and the abnormal section may be divided according to the data distribution in the distribution map to specify the detection threshold value.
 幾つかの実施例では、複数の検出対象の特徴値を統計することは、複数の特徴値の平均値を計算すること、および、平均値に基づいて、複数の位置特徴値の標準差を計算することを含む。標準差に基づいて、当該検出閾値を特定又は更新することができ、それにより、検出を更に正確に行うことができる。 In some embodiments, statisticizing the feature values of a plurality of detection targets calculates the mean value of the plurality of feature values, and calculates the standard difference of the plurality of positional feature values based on the mean value. Including doing. The detection threshold can be identified or updated based on the standard deviation, which allows for more accurate detection.
 例えば、Xi=w/h(iが0よりも大きい整数)とすると、n個の特徴値に対して平均値を計算してもよい。
Figure JPOXMLDOC01-appb-M000001
しかも、当該平均値に基づいてn個の特徴値の標準差を計算してもよい。
Figure JPOXMLDOC01-appb-M000002
For example, if Xi = w / h (an integer in which i is larger than 0), the average value may be calculated for n feature values.
Figure JPOXMLDOC01-appb-M000001
Moreover, the standard difference of n feature values may be calculated based on the average value.
Figure JPOXMLDOC01-appb-M000002
 図3は本願の実施例におけるデータ統計の一例示図である。図3に示されるように、例えば、68.3%の数値が[-1σ,1σ]区間内にあり、95.5%の数値が[-2σ,2σ]区間内にあり、99.73%の数値が[-3σ,3σ]区間内にある。例えば、生産中に、[-3σ,3σ]区間が正常区間であり、それ以外の区間が異常区間であることが求められると、3σを基準として当該検出閾値を決定することができる。さらに、例えば、生産中に、[-6σ,6σ]区間が正常区間であり、それ以外の区間が異常区間であることが求められると、6σを基準として当該検出閾値を決定することができる。 FIG. 3 is an example diagram of data statistics in the examples of the present application. As shown in FIG. 3, for example, a numerical value of 68.3% is in the [-1σ, 1σ] interval, a numerical value of 95.5% is in the [-2σ, 2σ] interval, and 99.73%. The value of is within the [-3σ, 3σ] interval. For example, if it is required that the [-3σ, 3σ] section is a normal section and the other sections are abnormal sections during production, the detection threshold value can be determined with reference to 3σ. Further, for example, if it is required that the [-6σ, 6σ] section is a normal section and the other sections are abnormal sections during production, the detection threshold value can be determined with reference to 6σ.
 6σを例にして、検出対象に欠陥があるか否かを判断する解決策は、表1に示された通りであってもよい。
Figure JPOXMLDOC01-appb-T000003
Taking 6σ as an example, the solution for determining whether or not the detection target has a defect may be as shown in Table 1.
Figure JPOXMLDOC01-appb-T000003
 以上は、物品検出をどのように行うかについて概略的に説明していたが、以下は、物品検出をさらに加速化することについて説明する。 The above has outlined how to perform article detection, but the following will explain how to further accelerate article detection.
 幾つかの実施例では、物品画像を複数のサブ画像に切り出し、複数のサブ画像をそれぞれ、複数の深層学習位置決めネットワークモデルに入力して、前記サブ画像における検出対象を検出してもよい。 In some embodiments, the article image may be cut out into a plurality of sub-images, and the plurality of sub-images may be input to a plurality of deep learning positioning network models to detect the detection target in the sub-images.
 図4は、本願の実施例における分布型検出の一模式図である。図4に示されるように、例えば、物品画像を4つのサブ画像(サブ画像1、2、3、4)に切り出してから、4つのAI機器にそれぞれ、入力し、各AI機器が深層学習位置決めネットワークモデルを有するとともに、図1に示される物品検出方法を実行することもできる。 FIG. 4 is a schematic diagram of distributed detection in the examples of the present application. As shown in FIG. 4, for example, an article image is cut out into four sub-images (sub-images 1, 2, 3, 4) and then input to each of the four AI devices, and each AI device performs deep learning positioning. Along with having a network model, it is also possible to carry out the article detection method shown in FIG.
 例えば、48個の検出対象を含む物品画像を4つのサブ画像に切り出し、各サブ画像には、12個の検出対象が含まれ、各サブ画像をそれぞれ、1つのAI機器に入力することで、物品検出を並行に行うことができる。 For example, an article image containing 48 detection targets is cut out into 4 sub-images, and each sub-image contains 12 detection targets, and each sub-image is input to one AI device. Article detection can be performed in parallel.
 幾つかの実施例では、前記複数のサブ画像への検出が所定の時間内に全部完成した場合、前記複数のサブ画像に対する検出の結果を同期化してもよい。また、複数のサブ画像のうちの1つ目のサブ画像への検出が完成した後、当該所定の時間を開始させてもよい。しかし、本願はこれらに限らない。 In some embodiments, if the detections for the plurality of sub-images are all completed within a predetermined time, the detection results for the plurality of sub-images may be synchronized. Further, the predetermined time may be started after the detection of the first sub-image among the plurality of sub-images is completed. However, the present application is not limited to these.
 例えば、AI機器の#1~#4の各々に対応する空きリスト[Nan,Nan,Nan,Nan]を作成し、1つのAI機器による検出が完成するたびに、対応する位置に完成したタイムスタンプを記録してもよい。当該リストが空きものではない場合(すなわち、最後の1つのAI機器による検出が完成した場合)、4つのデータを同期化してもよい。 For example, a free list [Nan, Nan, Nan, Nan] corresponding to each of # 1 to # 4 of the AI device is created, and each time the detection by one AI device is completed, the completed time stamp is performed at the corresponding position. May be recorded. If the list is not empty (ie, the detection by the last one AI device is complete), the four data may be synchronized.
 例えば、図4に示されるように、AI機器#2が最初にサブ画像2への検出を完成し、その後、AI機器#3がサブ画像3への検出を完成し、続いて、AI機器#1がサブ画像1への検出を完成し、最後にAI機器#4がサブ画像4への検出を完成し、その場合、4つの検出の結果に対してデータを同期化することができる。すなわち、これらの4つの検出の結果を合併して当該物品画像の検出結果としてもよい。 For example, as shown in FIG. 4, AI device # 2 first completes detection on sub-image 2, then AI device # 3 completes detection on sub-image 3, followed by AI device #. 1 completes the detection on the sub-image 1, and finally AI device # 4 completes the detection on the sub-image 4, in which case the data can be synchronized with the results of the four detections. That is, the results of these four detections may be combined to obtain the detection result of the article image.
 幾つかの実施例では、少なくとも1つのサブ画像への検出が所定の時間内に完成しない場合、前記物品画像への検出に異常があったと確定してもよい。また、複数のサブ画像のうちの1つ目のサブ画像への検出が完成した後、当該所定の時間を開始させてもよい。しかし、本願はこれらに限らない。 In some embodiments, if the detection on at least one sub-image is not completed within a predetermined time, it may be determined that the detection on the article image is abnormal. Further, the predetermined time may be started after the detection of the first sub-image among the plurality of sub-images is completed. However, the present application is not limited to these.
 例えば、1つ目のAI機器による検出が完成したときに、(図4中の401に示されるように)タイムアウトタイマーを起動させ、当該タイマーの時間長さTが当該所定の時間であってもよい。当該タイマーがタイムアウトとなったとき、データの同期化が完成しないと、エラー報知が行われて、当該物品画像への検出に異常があったと確定する。 For example, when the detection by the first AI device is completed, the timeout timer is activated (as shown by 401 in FIG. 4), and even if the time length T of the timer is the predetermined time. good. When the timer times out, if the data synchronization is not completed, an error notification is performed and it is determined that there is an abnormality in the detection of the article image.
 それにより、複数のAI機器によって物品検出を局所で並列に行うことが可能となり、検出をさらに加速化してリアルタイム性を向上する。 As a result, it becomes possible to detect articles locally in parallel by a plurality of AI devices, further accelerating the detection and improving the real-time performance.
 幾つかの実施例では、物品画像またはサブ画像を前記深層学習位置決めネットワークモデルに入力する前に、物品画像又はサブ画像を階調化して画像のサイズを減少してもよい。例えば、800*600*3のRGB画像を、400*300*1の階調画像に変換してもよい。 In some embodiments, the article image or sub-image may be gradation to reduce the size of the image before the article image or sub-image is input to the deep learning positioning network model. For example, an 800 * 600 * 3 RGB image may be converted into a 400 * 300 * 1 gradation image.
 それにより、モデルに入る前に、事前処理を行うことで画像のサイズを減少して、計算量をさらに低減することができ、リアルタイム性を向上するとともに、検出の速度を加速化することができる。 As a result, the size of the image can be reduced by performing preprocessing before entering the model, the amount of calculation can be further reduced, the real-time property can be improved, and the speed of detection can be accelerated. ..
 いくつかの実施形態では、物品画像またはサブ画像を入力として前記深層学習位置決めネットワークモデルにより検出対象の位置決めデータを取得した後に、さらに別の詳細な位置検出処理を行うこともできる。例えば深層学習位置決めネットワークモデルが出力した矩形枠の中心点座標、矩形枠の幅や矩形枠の高さを基に、物品画像またはサブ画像よりも画像サイズの小さな領域を決定し、決定された領域に対して位置検出を行う。これにより画像サイズを小さくし、計算量を削減しながら、中心点座標や、矩形枠の幅、矩形枠の高さを詳細に求めることができる。上述の領域は深層学習位置決めネットワークモデルが出力した矩形枠の幅と矩形枠の高さに対してそれぞれ所定のマージンを加えた矩形枠とすることもできる。詳細な位置検出処理としては、エッジ検出やセグメンテーションなどの方法を用いることができる。さらに、別の深層学習位置決めネットワークモデルを用いることもできる。 In some embodiments, after acquiring the positioning data of the detection target by the deep learning positioning network model by inputting the article image or the sub image, another detailed position detection process can be performed. For example, based on the center point coordinates of the rectangular frame, the width of the rectangular frame, and the height of the rectangular frame output by the deep learning positioning network model, a region having an image size smaller than that of the article image or the sub image is determined, and the determined region is determined. Position is detected for. As a result, the coordinates of the center point, the width of the rectangular frame, and the height of the rectangular frame can be obtained in detail while reducing the image size and the amount of calculation. The above-mentioned region may be a rectangular frame in which predetermined margins are added to the width of the rectangular frame and the height of the rectangular frame output by the deep learning positioning network model. As the detailed position detection process, a method such as edge detection or segmentation can be used. In addition, another deep learning positioning network model can be used.
 幾つかの実施例では、物品画像またはサブ画像を前記深層学習位置決めネットワークモデルに入力する前に、前記物品画像又はサブ画像を切り出すことで検出の範囲を小さくしてもよい。例えば、広い視野を有する物品画像を切り出すことで、検出対象を主体とした切り出し画像を取得することができる。 In some embodiments, the detection range may be reduced by cutting out the article image or sub-image before inputting the article image or sub-image into the deep learning positioning network model. For example, by cutting out an article image having a wide field of view, it is possible to acquire a cut-out image mainly of a detection target.
 それにより、モデルに入る前に、事前処理を行うことで検出の範囲を小さくして、計算量をさらに低減することができ、リアルタイム性を向上するとともに、検出の速度を加速化することができる。 As a result, the detection range can be reduced by performing preprocessing before entering the model, the amount of calculation can be further reduced, the real-time property can be improved, and the detection speed can be accelerated. ..
 上記各実施例は、本願の実施例を例示的に説明したものに過ぎず、本願がそれらに限らない。上記各実施例を基にして適宜に変形してもよい。例えば、上記各実施例を個別に利用してもよいし、上記各実施例のうちの1つまたは複数を組み合わせてもよい。 Each of the above examples is merely an example of an embodiment of the present application, and the present application is not limited thereto. It may be appropriately modified based on each of the above embodiments. For example, each of the above embodiments may be used individually, or one or a plurality of the above embodiments may be combined.
 上記実施例から分かるように、深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得し、前記位置決めデータに基づき、前記検出対象の特徴値を計算し、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する。それにより、実際な応用では、生産速度の要求を満足することができ、検出対象には欠陥があるか否かを迅速に判断することができる。 As can be seen from the above embodiment, the detection target in the article image is positioned by the deep learning positioning network model, the positioning data of the detection target is acquired, and the feature value of the detection target is calculated based on the positioning data. , The calculated feature value is compared with a preset detection threshold, and it is determined from the comparison result whether or not the detection target has a defect. Thereby, in a practical application, the demand for production speed can be satisfied, and it can be quickly determined whether or not the detection target has a defect.
 (第2の態様による実施例)
 本願の実施例は、物品検出装置を提供し、当該装置が例えば、電子機器であってもよいし、電子機器に配置された1つ以上の部材又はアセンブリであってもよい。第1の態様による実施例と同一の内容について、説明を省略されたい。
(Example according to the second aspect)
An embodiment of the present application provides an article detection device, which may be, for example, an electronic device or one or more members or assemblies disposed in the electronic device. Please omit the description of the same contents as those of the embodiment according to the first aspect.
 図5は、本願の実施例における物品検出装置の一模式図である。図5に示されるように、物品検出装置500は、
 深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する位置決め部501と、
 前記位置決めデータに基づき、前記検出対象の特徴値を計算する計算部502と、
 算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する比較部503とを備える。
FIG. 5 is a schematic view of an article detection device according to an embodiment of the present application. As shown in FIG. 5, the article detection device 500 is
A positioning unit 501 that positions a detection target in an article image and acquires positioning data of the detection target by a deep learning positioning network model.
A calculation unit 502 that calculates the feature value of the detection target based on the positioning data, and
It is provided with a comparison unit 503 that compares the calculated feature value with a preset detection threshold value and determines whether or not the detection target has a defect based on the comparison result.
 幾つかの実施例では、前記検出対象の位置決めデータは、前記検出対象の種類、前記検出対象が位置する矩形枠の中心点座標、前記検出対象が位置する矩形枠の幅、および、前記検出対象が位置する矩形枠の高さを含んでもよい。 In some embodiments, the detection target positioning data includes the type of the detection target, the center point coordinates of the rectangular frame in which the detection target is located, the width of the rectangular frame in which the detection target is located, and the detection target. May include the height of the rectangular frame in which is located.
 幾つかの実施例では、前記検出対象の特徴値は、前記検出対象が位置する矩形枠の幅と高さの比、又は、前記検出対象が位置する矩形枠の中心点偏差、および、前記検出対象が位置する矩形枠の面積偏差を含んでもよい。 In some embodiments, the feature values of the detection target are the ratio of the width to the height of the rectangular frame in which the detection target is located, or the deviation of the center point of the rectangular frame in which the detection target is located, and the detection. It may include the area deviation of the rectangular frame in which the object is located.
 幾つかの実施例では、図5に示されるように、物品検出装置500は、さらに、
 複数の検出対象の特徴値を統計し、統計の結果から、前記検出閾値を特定又は更新する統計部504をさらに備えてもよい。
In some embodiments, the article detector 500 further comprises, as shown in FIG.
A statistical unit 504 that statistics the feature values of a plurality of detection targets and specifies or updates the detection threshold value from the statistical results may be further provided.
 幾つかの実施例では、統計部504が複数の検出対象の特徴値を統計することは、複数の特徴値の平均値を計算すること、および、前記平均値に基づいて、前記複数の位置特徴値の標準差を計算することを含んでもよい。
 幾つかの実施例では、図5に示されるように、物品検出装置500は、さらに、
 前記物品画像を複数のサブ画像に切り出し、前記複数のサブ画像をそれぞれ、複数の深層学習位置決めネットワークモデルに入力して、前記サブ画像における検出対象を検出する事前処理部505を備えてもよい。
In some embodiments, the statistics unit 504 statistics the feature values of the plurality of detection targets by calculating the average value of the plurality of feature values, and based on the average value, the plurality of positional features. It may include calculating the standard difference of values.
In some embodiments, the article detector 500 further comprises, as shown in FIG.
The article image may be cut out into a plurality of sub-images, and each of the plurality of sub-images may be input to a plurality of deep learning positioning network models to include a preprocessing unit 505 for detecting a detection target in the sub-images.
 幾つかの実施例では、事前処理部505は、前記複数のサブ画像への検出が所定の時間内に全部完成した場合、前記複数のサブ画像に対する検出の結果を同期化し、少なくとも1つのサブ画像への検出が所定の時間内に完成しない場合、前記物品画像への検出に異常があったと確定してもよい。 In some embodiments, the pre-processing unit 505 synchronizes the detection results for the plurality of sub-images when all the detections for the plurality of sub-images are completed within a predetermined time, and at least one sub-image. If the detection on the article is not completed within a predetermined time, it may be determined that the detection on the article image is abnormal.
 幾つかの実施例では、事前処理部505は、さらに、前記物品画像を前記深層学習位置決めネットワークモデルに入力する前に、前記物品画像又は前記サブ画像を階調化して画像のサイズを減少し、及び/又は、前記物品画像又は前記サブ画像を切り出すことで検出の範囲を小さくしてもよい。 In some embodiments, the pre-processing unit 505 further gradations the article image or sub-image to reduce the size of the image before inputting the article image into the deep learning positioning network model. And / or, the detection range may be reduced by cutting out the article image or the sub-image.
 上記各実施例は、本願の実施例を例示的に説明したものに過ぎず、本願がそれらに限らない。上記各実施例を基にして適宜に変形してもよい。例えば、上記各実施例を個別に利用してもよいし、上記各実施例のうちの1つまたは複数を組み合わせてもよい。 Each of the above examples is merely an example of an embodiment of the present application, and the present application is not limited thereto. It may be appropriately modified based on each of the above embodiments. For example, each of the above embodiments may be used individually, or one or a plurality of the above embodiments may be combined.
 注意すべきなのは、以上は、本願発明に関する各部材またはモジュールを説明してきたが、本願発明はそれらに限らない。物品検出装置500は、他の部材またはモジュールをさらに含んでもよいが、それらの部材またはモジュールの具体的な内容について、関連する技術を参照されたい。 It should be noted that although each member or module related to the present invention has been described above, the present invention is not limited to them. The article detector 500 may further include other members or modules, but see the relevant art for the specific content of those members or modules.
 また、説明の便宜上、図5には、各部材またはモジュール間の接続関係または信号の送信先のみが例示的に示されているが、当業者であれば把握できるように、バスによる接続などの関連技術を採用されてもよい。上記各部材またはモジュールは、例えば、プロセッサ、メモリ、送信機、受信機などのハードウェア機器によって実現されてもよい。本願の実施例はそれらを制限するものではない。 Further, for convenience of explanation, FIG. 5 illustrates only the connection relationship between each member or module or the transmission destination of the signal, but as can be understood by those skilled in the art, a connection by a bus or the like is shown. Related techniques may be adopted. Each of the above members or modules may be realized by hardware devices such as a processor, a memory, a transmitter, and a receiver. The examples of the present application do not limit them.
 上記実施例から分かるように、深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得し、前記位置決めデータに基づき、前記検出対象の特徴値を計算し、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する。それにより、実際な応用では、生産速度の要求を満足することができ、検出対象には欠陥があるか否かを迅速に判断することができる。 As can be seen from the above embodiment, the detection target in the article image is positioned by the deep learning positioning network model, the positioning data of the detection target is acquired, and the feature value of the detection target is calculated based on the positioning data. , The calculated feature value is compared with a preset detection threshold, and it is determined from the comparison result whether or not the detection target has a defect. Thereby, in a practical application, the demand for production speed can be satisfied, and it can be quickly determined whether or not the detection target has a defect.
 (第3の態様による実施例)
 本願の実施例は、第2の態様による実施例に記載の物品検出装置を備えた電子機器を提供する。当該物品検出装置の内容を本実施例に含めるので、説明を省略されたい。当該電子機器は、例えば、コンピュータ、サーバ、ワークステーション、ラップトップコンピュータ、スマートホンなどであってもよいが、本願の実施例はこれらによって限らない。
(Example according to the third aspect)
The embodiments of the present application provide an electronic device provided with the article detection device according to the embodiment according to the second aspect. Since the contents of the article detection device are included in this embodiment, the description is omitted. The electronic device may be, for example, a computer, server, workstation, laptop computer, smart phone, etc., but the embodiments of the present application are not limited thereto.
 図6は、本願の実施例における電子機器の一模式図である。図6に示されるように、電子機器600は、プロセッサ(例えば、中央処理ユニット(CPU))610と、メモリ620と、を含んでもよく、メモリ620がプロセッサ610に結合される。ここで、当該メモリ620には、様々なデータが記憶されてもよい。また、情報処理のためのプログラム621がさらに記憶されており、当該プログラム620がプロセッサ610による制御で、実行される。 FIG. 6 is a schematic diagram of an electronic device according to an embodiment of the present application. As shown in FIG. 6, the electronic device 600 may include a processor (eg, a central processing unit (CPU)) 610 and a memory 620, the memory 620 being coupled to the processor 610. Here, various data may be stored in the memory 620. Further, a program 621 for information processing is further stored, and the program 620 is executed under the control of the processor 610.
 幾つかの実施例では、物品検出装置500の機能はプロセッサ610に集積されて実現されてもよい。ここで、プロセッサ610は、第1の態様による実施例に記載の物品検出方法を実現するように配置される。 In some embodiments, the function of the article detection device 500 may be integrated and realized in the processor 610. Here, the processor 610 is arranged so as to realize the article detection method according to the first embodiment.
 幾つかの実施例では、物品検出装置500は、プロセッサ610とは別体に配置されてもよい。例えば、物品検出装置500をプロセッサ610に接続されたチップとして配置し、プロセッサ610による制御で物品検出装置500の機能を実現させてもよい。 In some embodiments, the article detector 500 may be located separately from the processor 610. For example, the article detection device 500 may be arranged as a chip connected to the processor 610, and the function of the article detection device 500 may be realized by control by the processor 610.
 幾つかの実施例では、プロセッサ610は、深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する制御、前記位置決めデータに基づき、前記検出対象の特徴値を計算する制御、および、算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する制御を行うように配置されてもよい。 In some embodiments, the processor 610 is controlled by a deep learning positioning network model to position a detection target in an article image to acquire positioning data for the detection target, features of the detection target based on the positioning data. It is arranged so as to perform control for calculating a value and control for comparing the calculated feature value with a preset detection threshold value and determining whether or not the detection target has a defect based on the comparison result. You may.
 幾つかの実施例では、前記検出対象の位置決めデータは、前記検出対象の種類、前記検出対象が位置する矩形枠の中心点座標、前記検出対象が位置する矩形枠の幅、および、前記検出対象が位置する矩形枠の高さを含んでもよい。 In some embodiments, the detection target positioning data includes the type of the detection target, the center point coordinates of the rectangular frame in which the detection target is located, the width of the rectangular frame in which the detection target is located, and the detection target. May include the height of the rectangular frame in which is located.
 幾つかの実施例では、前記検出対象の特徴値は、前記検出対象が位置する矩形枠の幅と高さの比、又は、前記検出対象が位置する矩形枠の中心点偏差、および、前記検出対象が位置する矩形枠の面積偏差を含んでもよい。 In some embodiments, the feature values of the detection target are the ratio of the width to the height of the rectangular frame in which the detection target is located, or the deviation of the center point of the rectangular frame in which the detection target is located, and the detection. It may include the area deviation of the rectangular frame in which the object is located.
 幾つかの実施例では、プロセッサ610は、複数の検出対象の特徴値を統計する制御、および、統計の結果から、検出閾値を特定又は更新する制御を行うように配置されてもよい。 In some embodiments, the processor 610 may be arranged to perform control to statistic the feature values of a plurality of detection targets and control to specify or update the detection threshold value from the result of the statistic.
 幾つかの実施例では、プロセッサ610は、複数の特徴値の平均値を計算する制御、および、前記平均値に基づいて、前記複数の位置特徴値の標準差を計算する制御を行うように配置されてもよい。 In some embodiments, the processor 610 is arranged to perform control to calculate the average value of the plurality of feature values and control to calculate the standard difference of the plurality of position feature values based on the average value. May be done.
 幾つかの実施例では、プロセッサ610は、前記物品画像を複数のサブ画像に切り出す制御、前記複数のサブ画像をそれぞれ、複数の深層学習位置決めネットワークモデルに入力して、前記サブ画像における検出対象を検出する制御を行うように配置されてもよい。 In some embodiments, the processor 610 controls to cut out the article image into a plurality of sub-images, inputs the plurality of sub-images into a plurality of deep learning positioning network models, respectively, and detects a detection target in the sub-images. It may be arranged to perform detection control.
 幾つかの実施例では、プロセッサ610は、前記複数のサブ画像への検出が所定の時間内に全部完成した場合、前記複数のサブ画像に対する検出の結果を同期化する制御、および、 In some embodiments, the processor 610 controls to synchronize the detection results for the plurality of sub-images when the detection for the plurality of sub-images is completed within a predetermined time, and
 少なくとも1つのサブ画像への検出が所定の時間内に完成しない場合、前記物品画像への検出に異常があったと確定する制御を行うように配置されてもよい。 If the detection on at least one sub-image is not completed within a predetermined time, it may be arranged so as to control to determine that the detection on the article image is abnormal.
 幾つかの実施例では、プロセッサ610は、前記物品画像または前記サブ画像を前記深層学習位置決めネットワークモデルに入力する前に、前記物品画像又は前記サブ画像を階調化して画像のサイズを減少し、及び/又は、前記物品画像又は前記サブ画像を切り出すことで検出の範囲を小さくする制御を行うように配置されてもよい。 In some embodiments, the processor 610 gradations the article image or sub-image to reduce the size of the image before inputting the article image or sub-image into the deep learning positioning network model. And / or, it may be arranged so as to control to reduce the detection range by cutting out the article image or the sub image.
 本発明における上記装置と方法は、ハードウェアによって実現されてもよいし、ハードウェアとソフトウェアとの結び付けによっても実現されてもよい。本願は、以下のようなコンピュータ読み出し可能なプログラムに関する。当該プログラムがロジックユニットにより実行された場合、当該ロジックユニットに上述した装置又は構成部材を実現させることができ、或いは、当該ロジックユニットに上述した各種の方法又はステップを実現させることができる。本願は上記のプログラムを記憶するための記憶媒介に関し、たとえば、ハードディスク、磁気ディスク、光ディスク、DVD、フラッシュメモリ等に関する。 The above-mentioned device and method in the present invention may be realized by hardware, or may be realized by linking hardware and software. The present application relates to the following computer-readable programs. When the program is executed by the logic unit, the logic unit can realize the above-mentioned device or component, or the logic unit can realize the various methods or steps described above. The present application relates to a storage medium for storing the above program, and relates to, for example, a hard disk, a magnetic disk, an optical disk, a DVD, a flash memory, and the like.
 本願の実施例に記載の方法/装置を結び付け、ハードウェア、プロセッサにより実行されるソフトウェアモジュールまたは両者の組み合わせに直接に現れることが可能である。例えば、図面に示す機能ブロック図における1つまたは複数、及び/または機能ブロック図における1つまたは複数の組み合わせは、コンピュータプログラムプロセスにおける各ソフトウェアモジュールに対応してもよいし、各ハードウェアモジュールに対応してもよい。それらのソフトウェアモジュールは、それぞれ、図面に示す各ステップに対応することが可能である。それらのハードウェアモジュールは、例えば、フィールド・プログラマブル・ゲートアレイ(FPGA)を用いて、それらのソフトウェアモジュールを固化して実現することができる。 It is possible to connect the methods / devices described in the examples of the present application and directly appear in the hardware, the software module executed by the processor, or a combination of both. For example, one or more in the functional block diagram shown in the drawing and / or one or more combinations in the functional block diagram may correspond to each software module in the computer program process and correspond to each hardware module. You may. Each of these software modules can correspond to each step shown in the drawing. These hardware modules can be realized by solidifying their software modules using, for example, a field programmable gate array (FPGA).
 ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD-ROMまたは当業界で既知の任意の他の形式のメモリ媒体に位置することが可能である。1つのメモリ媒体をプロセッサに結合させることにより、プロセッサは、当該メモリ媒体から情報を読み取るようになり、かつ、当該メモリ媒体に情報を書き込むこともできる。または、当該メモリ媒体は、プロセッサの構成部分であってもよい。プロセッサとメモリ媒体はASICに位置してもよい。当該ソフトウェアモジュールは装置の記憶器に記憶されてもよいし、装置に挿入可能なメモリカードに記憶されてもよい。例えば、比較的大きな容量を有するMEGA-SIMカードまたは大容量のフラッシュメモリ装置が採用されると、当該ソフトウェアモジュールは、当該MEGA-SIMカードまたは大容量のフラッシュメモリに記憶されてもよい。 Software modules can be located in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disks, removable disks, CD-ROMs or any other type of memory medium known in the art. be. By combining one memory medium with the processor, the processor can read information from the memory medium and can also write information to the memory medium. Alternatively, the memory medium may be a component of the processor. The processor and memory medium may be located in the ASIC. The software module may be stored in the storage of the device or may be stored in a memory card that can be inserted into the device. For example, when a MEGA-SIM card having a relatively large capacity or a large-capacity flash memory device is adopted, the software module may be stored in the MEGA-SIM card or a large-capacity flash memory.
 添付図面に記載の機能ブロックにおける1つまたは複数、及び/または機能ブロックにおける1つまたは複数の組み合わせに対して、本願に記載の機能を実現するための汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェアコンポーネント、または任意の適切な組み合わせとして実現されてもよい。添付図面に記載の機能ブロックにおける1つまたは複数、及び/または機能ブロックにおける1つまたは複数の組み合わせに対して、算出機器の組み合わせとして実現されてもよい。例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSP通信と組み合わせた1つまたは複数のマイクロプロセッサまたは任意の他のこのような配置として実現されてもよい。 A general purpose processor, digital signal processor (DSP), specific for realizing the functions described in the present application for one or more of the functional blocks and / or one or more combinations of functional blocks described in the accompanying drawings. It may be implemented as an application-specific integrated circuit (ASIC), field programmable gate array (FPGA) or other programmable logic device, discrete gate or transistor logic, discrete hardware components, or any suitable combination. One or more of the functional blocks and / or one or more combinations of the functional blocks described in the accompanying drawings may be realized as a combination of calculation devices. For example, it may be implemented as a combination of DSP and microprocessor, multiple microprocessors, one or more microprocessors in combination with DSP communication, or any other such arrangement.
 以上、具体的な実施の形態を結び付けて、本願を説明した。しかし、当業者が理解すべきことは、それらの記載はいずれも例示的なものに過ぎず、本願の保護範囲に対する限定ではない。当業者は本願の精神と原理に基づいて、本願に対して種々変形や修正を行うことができるが、それらの変形と修正も本発明の範囲内に入っている。 The present application has been described above by linking specific embodiments. However, it should be understood by those skilled in the art that all of these descriptions are merely exemplary and are not a limitation on the scope of protection of the present application. Those skilled in the art can make various modifications and modifications to the present application based on the spirit and principles of the present application, but these modifications and modifications are also within the scope of the present invention.
 以上は、本願における好ましい実施の形態を、添付図面を参照しながら説明した。それらの実施形態の多くの特徴や利点は、上記の明細書の詳細からすれば、明瞭なものとなるため、添付される特許請求の範囲は、それらの実施形態における、その真の精神や範囲内に入っているそれらの特徴や利点を全部カバーすることを目的にしている。また、当業者であれば、多くの修正や変形を容易に想到できるはずであるため、本願における実施の形態は、例示や説明した精確な構造と操作に限定されるものではなく、その範囲内に入っている全ての適切な修正、変形、や均等物をカバーできるものである。 The preferred embodiment of the present application has been described above with reference to the accompanying drawings. Since many features and advantages of those embodiments are apparent in the details of the specification above, the appended claims are the true spirit and scope of those embodiments. It aims to cover all of those features and benefits contained within. Moreover, since a person skilled in the art should be able to easily conceive many modifications and modifications, the embodiments in the present application are not limited to the precise structures and operations illustrated and described, but are within the scope thereof. It can cover all the appropriate modifications, deformations, and equivalents contained in it.

Claims (10)

  1.  物品検出方法であって、
     深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得すること、
     前記位置決めデータに基づき、前記検出対象の特徴値を計算すること、および、
     算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断すること
     を包含する、物品検出方法。
    It is an article detection method
    To position the detection target in the article image by the deep learning positioning network model and acquire the positioning data of the detection target.
    Calculate the feature value of the detection target based on the positioning data, and
    An article detection method comprising comparing a calculated feature value with a preset detection threshold value and determining whether or not the detection target has a defect from the comparison result.
  2.  前記検出対象の位置決めデータは、前記検出対象の種類、前記検出対象が位置する矩形枠の中心点座標、前記検出対象が位置する矩形枠の幅、および、前記検出対象が位置する矩形枠の高さを含む、請求項1に記載の方法。 The positioning data of the detection target includes the type of the detection target, the center point coordinates of the rectangular frame in which the detection target is located, the width of the rectangular frame in which the detection target is located, and the height of the rectangular frame in which the detection target is located. The method according to claim 1, comprising the above.
  3.  前記検出対象の特徴値は、
      前記検出対象が位置する矩形枠の幅と高さの比、又は、前記検出対象が位置する矩形枠の中心点偏差、および、
      前記検出対象が位置する矩形枠の面積偏差
     を含む、請求項1に記載の方法。
    The feature value of the detection target is
    The ratio of the width to the height of the rectangular frame in which the detection target is located, or the deviation of the center point of the rectangular frame in which the detection target is located, and
    The method according to claim 1, wherein the area deviation of the rectangular frame in which the detection target is located is included.
  4.  複数の検出対象の特徴値を統計すること、および、
     統計の結果から、前記検出閾値を特定又は更新すること
     をさらに包含する、請求項1に記載の方法。
    Statistics of feature values of multiple detection targets, and
    The method of claim 1, further comprising identifying or updating the detection threshold from the statistical results.
  5.  複数の検出対象の特徴値を統計することは、
     複数の特徴値の平均値を計算すること、および、
     前記平均値に基づいて、前記複数の位置特徴値の標準差を計算すること
     を包含する、請求項4に記載の方法。
    Statistics of feature values of multiple detection targets is
    Calculating the average value of multiple feature values, and
    The method of claim 4, wherein the standard difference of the plurality of positional feature values is calculated based on the average value.
  6.  前記物品画像を複数のサブ画像に切り出すこと、および、
     前記複数のサブ画像をそれぞれ、複数の深層学習位置決めネットワークモデルに入力して、前記サブ画像における検出対象を検出すること
     をさらに包含する、請求項1に記載の方法。
    Cutting out the article image into a plurality of sub-images, and
    The method according to claim 1, further comprising inputting each of the plurality of sub-images into a plurality of deep learning positioning network models to detect a detection target in the sub-images.
  7.  前記複数のサブ画像への検出が所定の時間内に全部完成した場合、前記複数のサブ画像に対する検出の結果を同期化すること、および、
     少なくとも1つのサブ画像への検出が所定の時間内に完成しない場合、前記物品画像への検出に異常があったと確定すること
     を包含する、請求項6に記載の方法。
    When all the detections on the plurality of sub-images are completed within a predetermined time, the results of the detections on the plurality of sub-images are synchronized, and
    The method according to claim 6, wherein if the detection on at least one sub-image is not completed within a predetermined time, it is determined that the detection on the article image is abnormal.
  8.  前記物品画像または前記サブ画像を前記深層学習位置決めネットワークモデルに入力する前に、前記物品画像又は前記サブ画像を階調化して画像のサイズを減少し、及び/又は、前記物品画像又は前記サブ画像を切り出すことで検出の範囲を小さくすること
     をさらに包含する、請求項6または7に記載の方法。
    Before inputting the article image or the sub-image into the deep learning positioning network model, the article image or the sub-image is graded to reduce the size of the image and / or the article image or the sub-image. The method according to claim 6 or 7, further comprising reducing the range of detection by cutting out.
  9.  物品検出装置であって、
     深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する位置決め部と、
     前記位置決めデータに基づき、前記検出対象の特徴値を計算する計算部と、
     算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する比較部と
     を備える物品検出装置。
    It is an article detection device,
    A positioning unit that positions the detection target in the article image and acquires the positioning data of the detection target by the deep learning positioning network model.
    A calculation unit that calculates the feature value of the detection target based on the positioning data,
    An article detection device including a comparison unit that compares a calculated feature value with a preset detection threshold value and determines whether or not the detection target has a defect based on the comparison result.
  10.  メモリとプロセッサとを備え、
     前記メモリには、コンピュータプログラムが記憶されており、
     前記プロセッサは、前記コンピュータプログラムにより、
     深層学習位置決めネットワークモデルにより、物品画像における検出対象を位置決めして、前記検出対象の位置決めデータを取得する操作、
     前記位置決めデータに基づき、前記検出対象の特徴値を計算する操作、および
     算出された特徴値を予め設定された検出閾値と比較して、比較の結果から前記検出対象には欠陥があるか否かを判断する操作
     を実行する、電子機器。
    Equipped with memory and processor
    A computer program is stored in the memory.
    The processor is driven by the computer program.
    An operation of positioning a detection target in an article image by a deep learning positioning network model and acquiring positioning data of the detection target.
    Based on the positioning data, the operation of calculating the feature value of the detection target, and comparing the calculated feature value with a preset detection threshold value, and based on the comparison result, whether or not the detection target has a defect. An electronic device that performs an operation to determine.
PCT/JP2021/047883 2021-01-12 2021-12-23 Article detection method, device, and electronic apparatus WO2022153827A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110037266.3 2021-01-12
CN202110037266.3A CN114764773A (en) 2021-01-12 2021-01-12 Article detection method and device and electronic equipment

Publications (1)

Publication Number Publication Date
WO2022153827A1 true WO2022153827A1 (en) 2022-07-21

Family

ID=82364481

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047883 WO2022153827A1 (en) 2021-01-12 2021-12-23 Article detection method, device, and electronic apparatus

Country Status (2)

Country Link
CN (1) CN114764773A (en)
WO (1) WO2022153827A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103225A (en) * 2010-11-15 2012-05-31 Ricoh Co Ltd Inspection device, inspection method, inspection program and recording medium with program recorded thereon
JP2017151813A (en) * 2016-02-25 2017-08-31 ファナック株式会社 Image processing device for displaying object detected from input image
JP2019036009A (en) * 2017-08-10 2019-03-07 富士通株式会社 Control program, control method, and information processing device
JP2020061066A (en) * 2018-10-12 2020-04-16 富士通株式会社 Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method
JP2020071793A (en) * 2018-11-02 2020-05-07 富士通株式会社 Target detection program, target detection device, and target detection method
JP2020106467A (en) * 2018-12-28 2020-07-09 オムロン株式会社 Defect inspection device, defect inspection method, and program therefor
JP2020187657A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103225A (en) * 2010-11-15 2012-05-31 Ricoh Co Ltd Inspection device, inspection method, inspection program and recording medium with program recorded thereon
JP2017151813A (en) * 2016-02-25 2017-08-31 ファナック株式会社 Image processing device for displaying object detected from input image
JP2019036009A (en) * 2017-08-10 2019-03-07 富士通株式会社 Control program, control method, and information processing device
JP2020061066A (en) * 2018-10-12 2020-04-16 富士通株式会社 Learning program, detection program, learning apparatus, detection apparatus, learning method, and detection method
JP2020071793A (en) * 2018-11-02 2020-05-07 富士通株式会社 Target detection program, target detection device, and target detection method
JP2020106467A (en) * 2018-12-28 2020-07-09 オムロン株式会社 Defect inspection device, defect inspection method, and program therefor
JP2020187657A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device

Also Published As

Publication number Publication date
CN114764773A (en) 2022-07-19

Similar Documents

Publication Publication Date Title
CN113688807B (en) Self-adaptive defect detection method, device, recognition system and storage medium
CN109961040B (en) Identity card area positioning method and device, computer equipment and storage medium
CN103383774B (en) Image processing method and its equipment
WO2019001098A1 (en) Methods and systems for improved quality inspection
EP3582599B1 (en) Apparatus for inspecting components mounted on printed circuit board, operating method thereof, and computer-readable recording medium
CN113160161B (en) Method and device for detecting defects at edge of target
CN113340909B (en) Glue line defect detection method based on machine vision
CN111127358B (en) Image processing method, device and storage medium
CN112634203A (en) Image detection method, electronic device and computer-readable storage medium
CN116188432A (en) Training method and device of defect detection model and electronic equipment
WO2022153827A1 (en) Article detection method, device, and electronic apparatus
CN114241432A (en) License plate recognition method, equipment and storage medium
JP2014126445A (en) Alignment device, defect inspection device, alignment method and control program
CN107767372B (en) Chip pin online visual detection system and method for layered parallel computing
JP2010129814A (en) Apparatus and method for support of determining observation condition
US20220222810A1 (en) Wafer detection method, device, apparatus, and storage medium
US11244443B2 (en) Examination apparatus, examination method, recording medium storing an examination program, learning apparatus, learning method, and recording medium storing a learning program
CN106331696B (en) Frame losing detection method and device
CN111950659B (en) Double-layer license plate image processing method and device, electronic equipment and storage medium
CN116822453B (en) Method for comparing integrated circuits
JPH06201603A (en) Method for generating inspection data in missing inspection of electronic component and method for detecting missing of the component
CN117291862A (en) Data analysis method, device, equipment and computer readable storage medium
US20240104715A1 (en) Production-speed component inspection system and method
TW202205209A (en) Product defect detection method, computer device and storage medium
CN117871545A (en) Method and device for detecting defects of circuit board components, terminal and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919714

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21919714

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP