JP2022186079A - Detection method and program - Google Patents
Detection method and program Download PDFInfo
- Publication number
- JP2022186079A JP2022186079A JP2021094120A JP2021094120A JP2022186079A JP 2022186079 A JP2022186079 A JP 2022186079A JP 2021094120 A JP2021094120 A JP 2021094120A JP 2021094120 A JP2021094120 A JP 2021094120A JP 2022186079 A JP2022186079 A JP 2022186079A
- Authority
- JP
- Japan
- Prior art keywords
- image
- blocks
- block
- detection method
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 119
- 230000002159 abnormal effect Effects 0.000 claims abstract description 50
- 238000010801 machine learning Methods 0.000 claims abstract description 38
- 230000005856 abnormality Effects 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000000052 comparative effect Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 15
- 239000004744 fabric Substances 0.000 description 12
- 238000005286 illumination Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 239000000470 constituent Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 235000013339 cereals Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、検出方法及びプログラムに関する。 The present disclosure relates to detection methods and programs.
従来、機械学習を利用した画像認識により画像中の物体を検出する技術が知られている。このような技術は、例えば、製造ラインで撮像された画像から製品を検出し、当該製品の品質を管理するために利用されている。 Conventionally, a technique for detecting an object in an image by image recognition using machine learning is known. Such technology is used, for example, to detect a product from an image captured on a production line and to manage the quality of the product.
しかしながら、上述した従来技術には、機械学習を利用した物体検出を簡便にかつ精度良く行う上で、更なる改善の余地がある。特に、楕円形状物などのエッジが丸められた形状を有する物体の検出精度が低いことが知られている。 However, the conventional techniques described above have room for further improvement in terms of simply and accurately performing object detection using machine learning. In particular, it is known that detection accuracy of an object having rounded edges such as an elliptical object is low.
そこで、本開示は、対象物に含まれる楕円形状物を簡便にかつ精度良く検出することができる検出方法を提供する。 Accordingly, the present disclosure provides a detection method that can easily and accurately detect an elliptical object included in an object.
本開示の一態様に係る検出方法は、楕円形状物を含む対象物の少なくとも一部が映る画像を取得し、取得された前記画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、ブロック分割された前記画像を、学習済みの前記機械学習モデルである学習済みモデルに入力することにより得られる、前記ブロックそれぞれにおける前記楕円形状物を表す画素の数に基づいて、前記対象物の異常箇所を検出し、前記異常箇所の検出において、前記学習済みモデルから出力された前記画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所ではないと判定し、前記学習済みモデルから出力された前記画素の数が前記第1閾値以下である場合、又は、前記第2閾値以上である場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所であると判定する。 A detection method according to one aspect of the present disclosure acquires an image in which at least a part of an object including an elliptical object is captured, and uses the acquired image as training data for learning a machine learning model. Pixels representing the elliptical object in each of the blocks obtained by dividing the image into blocks of the same size and inputting the block-divided image into a trained model that is the machine learning model that has been trained. based on the number of, detecting an abnormal location of the object, in the detection of the abnormal location, the number of pixels output from the learned model is greater than the first threshold and more than the second threshold If the number of pixels output from the learned model is less than or equal to the first threshold value, or the second If it is equal to or greater than the threshold, it is determined that the location of the object corresponding to the block is the abnormal location.
本開示の一態様に係るプログラムは、前記検出方法をコンピュータに実行させるためのプログラムである。 A program according to an aspect of the present disclosure is a program for causing a computer to execute the detection method.
本開示によれば、対象物の異常箇所を簡便にかつ精度良く検出することができる検出方法を提供する。 According to the present disclosure, there is provided a detection method capable of detecting an abnormal portion of an object simply and accurately.
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the constituent elements in the following embodiments, constituent elements not described in independent claims will be described as optional constituent elements.
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。 Each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected with respect to substantially the same structure, and the overlapping description may be abbreviate|omitted or simplified.
(実施の形態)
[構成]
まず、実施の形態に係る検出システムの構成について説明する。図1は、実施の形態に係る検出システムの概要を説明するための図である。図2は、実施の形態に係る検出システムの機能構成の一例を示すブロック図である。
(Embodiment)
[Constitution]
First, the configuration of the detection system according to the embodiment will be described. FIG. 1 is a diagram for explaining an overview of a detection system according to an embodiment. FIG. 2 is a block diagram showing an example of the functional configuration of the detection system according to the embodiment.
図1に示されるように、検出システム100は、楕円形状物を含む対象物1の異常箇所を検出するシステムである。異常箇所とは、例えば、楕円形状物に欠けなどの形状異常が生じた箇所である。検出システム100は、例えば、対象物1の品質検査などに使用される。対象物1は、楕円形状物を含む物体であり、例えば、楕円形状物を表面に有する物体、楕円形状物から構成される物体、又は、構成の一部に楕円形状物を含む物体である。当該物体は、楕円形状物を含んでいればよく、繊維、金属、樹脂、木材、カーボン、ゲル、又は、粘土など種々の材料から形成されてもよい。楕円形状物は、例えば、上面視において、楕円形状、角が丸められた多角形、又は、円形であってもよい。以下では、楕円形状物を含む対象物1として、布を例に説明するが、あくまでも一例であり、これに限定されない。
As shown in FIG. 1, the
図1及び図2に示されるように、検出システム100は、例えば、検出装置10と、撮像装置30とを備える。また、図1では、照明装置20及び搬送装置40も図示されている。検出システム100は、照明装置20及び搬送装置40を備えてもよい。検出システム100は、搬送装置40により搬送される対象物1に含まれる楕円形状物の異常の有無を検出してもよい。搬送装置40は、例えば、コンベアである。
As shown in FIGS. 1 and 2, the
以下、検出システム100の各構成について説明する。
Each configuration of the
[照明装置]
照明装置20は、例えば、撮像装置30の画角内の対象物1を照らす発光装置である。照明装置20は、2つ備えられてもよく、3つ備えられてもよい。この場合、2つ以上の照明装置20は、撮像装置30が撮影する領域に対して、異なる方向から光を照射する。光源の種類は、特に限定されないが、例えば、LED(Light Emitting Diode)に基づき白色光を照射する光源であってもよい。また、2つ以上の照明装置20を備える場合、各照明装置20は、同一の波長又は同一の波長範囲の光を放射する光源を備えてもよく、異なる波長の光を放射する光源を備えてもよい。対象物1の種類、対象物1に含まれる楕円形状物の色又は表面形状などに応じて適宜選択されてもよい。
[Lighting device]
The
[撮像装置]
撮像装置30は、対象物1の少なくとも一部を含む画像を撮影する。画像は、静止画像であってもよく、動画像であってもよい。画像は、モノクロ画像であってもよく、カラー画像であってもよい。撮像装置30は、照明装置20が対象物1を照らした光を検出することにより、楕円形状物を含む対象物1の少なくとも一部を含む画像を撮影する。撮像装置30は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の、光を検出するための撮像素子を有する。
[Imaging device]
The
[検出装置]
検出装置10は、撮像装置30によって撮影された画像に基づいて、対象物1に含まれる楕円形状物の異常を検出する装置である。検出装置10は、例えば、パーソナルコンピュータなどの据え置き型の情報端末であるが、スマートフォン又はタブレット端末などの携帯型の情報端末であってもよい。また、図1及び図2の例では、検出装置10と撮像装置30とは、別体であるが、撮像装置30は、検出装置10に備えられるカメラであってもよい。検出装置10は、例えば、通信部11と、制御部12と、記憶部13と、学習部14と、表示部と、操作受付部と、を備える。
[Detection device]
The
[通信部]
通信部11は、検出装置10が照明装置20、撮像装置30、及び、搬送装置40と局所通信ネットワークを介して通信を行うための通信モジュール(通信回路)である。通信部11は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。通信部11が行う通信の通信規格は、特に限定されない。
[Communication]
The
[制御部]
制御部12は、検出装置10の動作の制御を行うための情報処理を行う。制御部12は、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。制御部12は、具体的には、取得部12aと、画像処理部12bと、判定部12cと、出力部12dとを備える。取得部12a、画像処理部12b、判定部12c、及び、出力部12dは、いずれもプロセッサが上記情報処理を行うためのプログラムを実行することにより実現される。
[Control part]
The
取得部12aは、楕円形状物を含む対象物1の少なくとも一部が映る画像を取得する。
The
画像処理部12bは、取得部12aによって取得された画像(画像データ)に対して画像処理を行うことで、学習用画像データ、又は、検出用画像データを生成する。具体的には、画像処理部12bは、取得部12aによって取得された画像データを所定のサイズのブロックでブロック分割することで、学習用画像データ、又は、検出用画像データを生成する。
The image processing unit 12b generates learning image data or detection image data by performing image processing on the image (image data) acquired by the
例えば、学習用画像データの生成については、対象物1の少なくとも一部が映る画像(第1画像と呼ぶ)を所定のサイズに分割した複数のブロック(第1ブロックと呼ぶ)と、当該第1ブロックを超えない範囲で、例えば、縦横斜めのいずれかの方向に第1ブロックをずらして第1画像を所定のサイズに再分割することを繰り返して、複数の学習用画像データを生成する。なお、機械学習用の教師データは、複数の学習用画像データと、複数の学習用画像データにそれぞれ正解データとして対応付けられた複数の楕円形状物それぞれの領域を示すアノテーションとで構成される。
For example, when generating learning image data, an image (referred to as a first image) showing at least a portion of the
また、例えば、検出用画像データの生成については、画像処理部12bは、取得部12aによって取得された画像(画像データ)を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割した画像を生成する。このとき、画像処理部12bは、画像のブロックの分割に先立ち、画像に映る対象物1の少なくとも一部以外の領域(言い換えると、対象物1が映っていない領域)を検出対象から除外し、当該画像において検出対象の領域を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。
Further, for example, when generating image data for detection, the image processing unit 12b converts an image (image data) acquired by the
さらに、画像処理部12bは、判定部12cによって対象物1に異常箇所が検出されたと判定された場合に、当該判定の結果(以下、判定結果という)として、画像における異常箇所がマーキングされたマーキング画像を生成してもよい。
Further, when the
判定部12cは、記憶部13に記憶されている学習済みの機械学習モデル(以下、学習済みモデルという)を用いて、画像処理部12bによってブロック分割された画像(いわゆる、検出用画像データ)を、学習済みモデルに入力することにより得られる、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物1の異常箇所を検出する。より具体的には、判定部12cは、異常箇所の検出において、学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する対象物1の箇所が異常箇所ではないと判定し、学習済みモデルから出力された画素の数が第1閾値以下である場合、又は、第2閾値以上である場合、当該ブロックに対応する対象物1の箇所が異常箇所であると判定する。閾値は、求められる検出精度及び検出対象の種類により、適宜設定されてもよい。
The
出力部12dは、判定部12cによって判定された結果(以下、判定結果という)を出力する。判定結果は、例えば、画像、文字、記号、及び、音声の少なくともいずれかで出力される。例えば、出力部12dは、対象物1において異常箇所が検出された場合、検出結果として、画像処理部12bによって生成されたマーキング画像を出力する。
The
[記憶部]
記憶部13は、制御部12が実行する制御プログラムなどが記憶される記憶装置である。記憶部13は、教師データ及び検出用画像データを一時的に記憶してもよい。記憶部13は、記憶している学習済みモデルを、学習部14によって生成された機械学習モデル(いわゆる、学習済みモデル)に更新する。記憶部13は、例えば、半導体メモリによって実現される。
[Memory part]
The
[学習部]
学習部14は、教師データを用いて機械学習する。学習部14は、機械学習により、所定のサイズのブロックでブロック分割された画像を入力とし、当該画像に含まれる複数のブロックそれぞれにおける楕円形状物を表す画素の数を出力する機械学習モデルを生成する。機械学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)である。機械学習モデルは、CNNであればよく、特に限定されないが、例えば、DeepCrack(A Deep Hierarchical Feature Learning Architecture for Crack Segmentation) Networkであってもよい。学習済みの機械学習モデル(いわゆる、学習済みモデル)は、機械学習により調整された学習済みパラメータを含む。生成された学習済みモデルは、記憶部13に記憶される。学習部14は、例えば、プロセッサが記憶部13に格納されているプログラムを実行することで実現される。機械学習モデルの学習に使用する教師データは、対象物1の少なくとも一部が映る第1画像を所定のサイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックをずらして所定のサイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データとを含む。第1画像を分割する際の第1ブロックをずらす方向は、縦横斜め方向のいずれかであり、第1ブロックの範囲を越えなければ任意の距離ずらしてもよい。このようにして対象物1の少なくとも一部が映る第1画像から複数の教師データを作成することができる。
[Study Department]
The
[表示部]
表示部15は、制御部12の制御に基づいて画像を表示する表示装置である。表示部15は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルによって実現される。
[Display part]
The
[操作受付部]
操作受付部16は、ユーザの操作を受け付ける。操作受付部16は、具体的には、マウス、マイクロフォン、又は、タッチパネルなどによって実現される。
[Operation reception part]
The
なお、操作受付部16は、マイクロフォン(不図示)又はスピーカ(不図示)を備えてもよい。マイクロフォンは、音声を取得し、取得した音声に応じて音声信号を出力する。マイクロフォンは、具体的には、コンデンサマイク、ダイナミックマイク、又は、MEMSマイクなどである。スピーカは、例えば、マイクロフォンによって取得された発話音声への応答として、音声(機械音声)を出力する。これにより、ユーザは対話形式でシーン制御の実行指示を入力することができる。
Note that the
なお、操作受付部16は、カメラ(不図示)を備えてもよい。カメラは、検出装置10を操作するユーザの画像を撮影する。具体的には、カメラは、ユーザの口、目、又は指などの動きを撮影する。この場合、操作受付部16は、カメラによって撮影されたユーザの画像に基づいて、ユーザの操作を受け付ける。カメラは、例えば、CMOSイメージセンサなどによって実現される。
Note that the
なお、上述のように、検出装置10は、カメラを備えてもよい。この場合、カメラは、楕円形状物を含む対象物1の少なくとも一部が映る画像を撮影してもよい。
Note that, as described above, the
[動作]
続いて、本実施の形態に係る検出システム100の動作について説明する。図3は、実施の形態に係る検出装置10の動作の一例を示すフローチャートである。
[motion]
Next, operation of the
まず、検出システム100の撮像装置30は、対象物1の少なくとも一部が映る画像を撮影する。このとき、照明装置20は、撮像装置30の画角内を照らしていてもよい。撮像装置30は、撮影した画像を検出装置10に送信する。なお、ここでは、撮像装置30は、検出装置10の外部の装置である例を説明しているが、撮像装置30は、検出装置10に備えられてもよい。
First, the
次に、図3に示されるように、検出装置10は、撮像装置30によって撮影された、対象物の少なくとも一部が映る画像を取得する(S11)。図5は、図3のステップS11で取得される画像の例を示す図である。図6は、図3のステップS11で取得された画像の処理例を示す図である。例えば、図5に示されるように、検出装置10は、取得した画像が動画像である場合、動画像から複数のフレーム画像(いわゆる、静止画像)を抽出してもよい。検出装置10は、各静止画像について、以下の処理を行う。
Next, as shown in FIG. 3, the
例えば、図6の(a)に示されるように、検出装置10は、画像(静止画像)を取得すると、図6の(b)に示されるように、取得した画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割する(S12)。
For example, as shown in (a) of FIG. 6, when the
次に、検出装置10は、ブロック分割された画像を、学習済みモデルに入力し、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物の異常箇所を検出する(S13)。例えば、図6の(c)に示されるように、検出装置10は、学習済みモデルの出力結果として、画像中の各ブロックにおける楕円形状物を表す画素を黒色で示した画像を出力する。
Next, the
図4は、図3のステップS13の詳細なフローを示すフローチャートである。 FIG. 4 is a flow chart showing the detailed flow of step S13 in FIG.
検出装置10は、ブロック分割された画像を、学習済みモデルに入力し、ブロックそれぞれにおける楕円形状物を表す画素の数を出力する(S21)。より具体的には、検出装置10は、学習済みモデルの出力結果(図6の(c))から、画像中の各ブロックにおける楕円形状を表す画素の数を導出する。図7は、異常箇所の検出処理を説明するための図である。図7では、図6の(c)に示される出力結果から、正常と判定されたブロックと異常と判定されたブロックを任意に抜き出して示している。
The
次に、検出装置10は、ブロックごとのループ処理を開始する(S22)。検出装置10は、ステップS21で学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ないか否かを判定する(S23)。図8は、検出結果の画素ヒストグラムの一例を示す図である。第1閾値及び第2閾値は、例えば、図8に示されるヒストグラムに基づいて設定される。検出装置10は、出力した複数のブロックそれぞれにおける楕円形状物を表す画素の数を集計し、集計した複数のブロックの画素の数のヒストグラムを生成し、生成したヒストグラムを表示部15に表示してもよい。ユーザは、表示されたヒストグラムから、所望の精度に応じて上記の閾値を設定してもよい。
Next, the
検出装置10は、画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ないと判定した場合(S23でYes)、当該ブロックに対応する対象物1の箇所が異常箇所ではないと判定する(S24)。例えば、ブロックにおける楕円形状物を表す画素の数(図7中のピクセル数)の第1閾値が35000に設定され、第2閾値が37000に設定されたとすると、図7の(a)~(e)の分割画像(いわゆる、ブロック)は、画素の数が第1閾値より多く、第2閾値よりも少ないため、当該分割画像に対応する対象物1の箇所は、正常箇所であると判定される。
When the
一方、検出装置10は、画素の数が第1閾値以下である、又は、第2閾値以上であると判定した場合(S23でNo)、当該ブロックに対応する対象物1の箇所が異常箇所であると判定する(S25)。例えば、図7の(f)の分割画像は、画素の数が第1閾値以下であるため、当該分割画像に対応する対象物1の箇所は、異常箇所であると判定される。
On the other hand, when the
検出装置10は、画像に含まれる全てのブロックについて上記処理を行うと、ブロック毎のループ処理を終了する(S26)。
When the
次に、検出装置10は、対象物1(より詳細には、画像に被写体として映っている対象物1に対応する部分)において異常箇所が検出されたか否かを判定する(S27)。図9は、判定結果の一例を示す図である。例えば、図9の(a)に示されるように、検出装置10は、対象物1において異常箇所が検出されたか否かを判定し、異常箇所が検出されたと判定した場合、当該異常箇所であると判定された分割画像をマーキングする。
Next, the
検出装置10は、対象物1において異常箇所が検出されたと判定した場合(S27でYes)、画像における異常箇所がマーキングされたマーキング画像(図9の(b)参照)を生成し(S28)、生成されたマーキング画像を判定結果として出力する(S29)。
When the detecting
一方、検出装置10は、対象物1において異常箇所が検出されていないと判定した場合(S27でNo)、処理を終了する。なお、ステップS27において、検出装置10は、対象物1において異常箇所が検出されていないと判定した場合(No)、音声又は文字で「異常なし」と出力してもよいし、〇などの記号を出力してもよいし、緑色のランプを点灯させて、ユーザに異常が無いことを知らせてもよい。
On the other hand, when the detecting
なお、ステップS12において、検出装置10は、ブロックの分割に先立ち、画像に映る対象物1の少なくとも一部以外の領域(言い換えると、画像における対象物1が映っていない領域)を検出対象から除外し、画像において検出対象の領域(以下、対象領域ともいう)を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。この処理を、フィルタリング処理という。フィルタリング処理について図10を参照しながら具体的に説明する。
In step S12, prior to the division of blocks, the
図10は、フィルタリング処理の一例を示す図である。図10の(a)に示されるように、検出装置10は、画像に映る検出対象(言い換えると、対象物1)を示す対象領域を抽出する。
FIG. 10 is a diagram illustrating an example of filtering processing. As shown in (a) of FIG. 10, the
次に、図10の(b)に示されるように、検出装置10は、画像において対象物1が映っていない領域(言い換えると、非対象領域)を塗りつぶすことにより、非対象領域を検出対象から除外する。
Next, as shown in (b) of FIG. 10 , the
次に、図10の(c)に示されるように、検出装置10は、対象領域を、機械学習モデルの学習時に教師データとして使用されたブロックと同じサイズのブロックに分割する。
Next, as shown in (c) of FIG. 10, the
次に、検出装置10は、ブロック分割された画像を(例えば、図10の(c))を学習済みモデルに入力することにより、画像中の各ブロックにおいて楕円形状物を表す画素が黒く示された出力結果(例えば、図10の(d))を得る。
Next, the
[効果等]
続いて、本実施の形態に係る検出システム100、検出装置10、検出方法及びプログラムの作用効果について説明する。
[Effects, etc.]
Next, effects of the
上述したように、本実施の形態に係る検出方法は、楕円形状物を含む対象物の少なくとも一部が映る画像を取得し、取得された画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、ブロック分割された画像を、学習済みの機械学習モデルである学習済みモデルに入力することにより得られる、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物の異常箇所を検出し、異常箇所の検出において、学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する対象物の箇所が異常箇所ではないと判定し、学習済みモデルから出力された画素の数が第1閾値以下である場合、又は、第2閾値以上である場合、当該ブロックに対応する対象物の箇所が異常箇所であると判定する。 As described above, the detection method according to the present embodiment acquires an image showing at least part of an object including an elliptical object, and uses the acquired image as teacher data when learning a machine learning model. The number of pixels representing an elliptical object in each block obtained by dividing the block into blocks of the same size as the block size obtained by dividing the block into blocks and inputting the block-divided image into a trained model, which is a trained machine learning model. Based on the number, an abnormal location of the object is detected, and in detecting the abnormal location, if the number of pixels output from the trained model is greater than the first threshold and less than the second threshold, the block If it is determined that the part of the object corresponding to It is determined that the part of the object is an abnormal part.
このような検出方法を実行する装置は、学習済みモデルを用いて、対象物の少なくとも一部が映る画像をブロック分割した分割画像(いわゆる、ブロック)における複数の楕円形状物を表す画素を簡便にかつ精度良く検出することができる。そのため、検出方法を実行する装置は、楕円形状物を含む対象物の異常箇所を簡便にかつ精度良く検出することができる。 A device that executes such a detection method uses a trained model to easily detect pixels representing a plurality of elliptical objects in divided images (so-called blocks) obtained by dividing an image that captures at least a part of an object into blocks. And it can be detected with high accuracy. Therefore, the device that executes the detection method can easily and accurately detect an abnormal portion of an object including an elliptical object.
また、本実施の形態に係る検出方法は、さらに、対象物において異常箇所が検出された場合、画像における異常箇所がマーキングされたマーキング画像を生成し、生成されたマーキング画像を判定結果として出力してもよい。 Further, in the detection method according to the present embodiment, when an abnormal portion is detected in the object, a marking image is generated by marking the abnormal portion in the image, and the generated marking image is output as a determination result. may
このような検出方法を実行する装置は、ユーザに対象物の異常箇所を視認しやすい形で出力することができる。 An apparatus that executes such a detection method can output an abnormal portion of an object to a user in an easily recognizable form.
また、本実施の形態に係る検出方法は、ブロックの分割に先立ち、画像に映る対象物の少なくとも一部以外の領域を検出対象から除外し、画像において検出対象の領域を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。 Further, in the detection method according to the present embodiment, prior to block division, areas other than at least a part of the object appearing in the image are excluded from the detection target, and the detection target area in the image is used for learning of the machine learning model. It may sometimes be divided into blocks of the same size as the size used as teacher data.
このような検出方法を実行する装置は、対象物が映る領域のみ検出対象とするため、効率的に楕円形状物の検出処理を行うことができる。そのため、検出方法を実行する装置は、より効率良く対象物の異常箇所を検出することができる。 An apparatus that executes such a detection method detects only an area in which an object is captured, so that an elliptical object can be efficiently detected. Therefore, the device that executes the detection method can more efficiently detect the abnormal portion of the object.
また、本実施の形態に係る検出方法では、機械学習モデルは、畳み込みニューラルネットワークであってもよい。 Further, in the detection method according to this embodiment, the machine learning model may be a convolutional neural network.
このような検出方法を実行する装置は、画像を入力とする畳み込み演算を効率良く行うことができる。 A device that executes such a detection method can efficiently perform a convolution operation using an image as an input.
また、本実施の形態に係る検出方法では、機械学習モデルの学習に使用される教師データは、対象物の少なくとも一部が映る第1画像をサイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックをずらして上記サイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データとを含んでもよい。 Further, in the detection method according to the present embodiment, the teacher data used for learning the machine learning model includes a plurality of first blocks obtained by dividing a first image in which at least a part of the object is shown, and the first blocks. First data composed of annotations indicating areas of each of a plurality of elliptical objects included in one block, and the first image is re-divided into the above size by shifting the first block within a range not exceeding the first block. It may include second data composed of a plurality of second blocks and annotations indicating regions of the plurality of elliptical objects included in the second blocks.
このような検出方法を実行する装置は、少ない画像から多くの教師データを生成することができるため、機械学習モデルの学習効果が向上し、機械学習モデルによる楕円形状物の検出精度が向上する。そのため、検出方法を実行する装置は、対象物に含まれる楕円形上物をより簡便にかつ精度良く検出することができる。 A device that executes such a detection method can generate a large amount of teacher data from a small number of images, thereby improving the learning effect of the machine learning model and improving the detection accuracy of an elliptical object by the machine learning model. Therefore, the device that executes the detection method can more easily and accurately detect the elliptical object included in the object.
(他の実施の形態)
以上、本開示に係る検出方法及びプログラムについて、上記各実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思い付く各種変形を実施の形態に施したものも、本開示の範囲に含まれてもよい。
(Other embodiments)
As described above, the detection method and program according to the present disclosure have been described based on the above embodiments, but the present disclosure is not limited to these embodiments. As long as they do not deviate from the gist of the present disclosure, various modifications that can be conceived by those skilled in the art may be included in the scope of the present disclosure.
また、上記実施の形態に係る検出システム、検出装置、検出方法及びプログラムに含まれる各部は典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Further, each unit included in the detection system, detection device, detection method, and program according to the above embodiments is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them.
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリ等の記憶媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In each of the above-described embodiments, each component may be configured by dedicated hardware, or realized by executing a software program suitable for each component. Each component may be implemented by a program execution unit such as a CPU or processor reading and executing a software program recorded in a storage medium such as a hard disk or semiconductor memory.
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。 In addition, the numbers used above are all examples for specifically describing the present disclosure, and the embodiments of the present disclosure are not limited to the illustrated numbers.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Also, the division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be moved to other functional blocks. may Moreover, single hardware or software may process the functions of a plurality of functional blocks having similar functions in parallel or in a time-sharing manner.
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, the order in which each step in the flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and orders other than the above may be used. Also, some of the above steps may be executed concurrently (in parallel) with other steps.
なお、上記の各実施の形態に対して当業者が思い付く各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。 It should be noted that any form obtained by applying various modifications that a person skilled in the art can come up with to the above-described embodiments, or by arbitrarily combining the constituent elements and functions in each embodiment without departing from the scope of the present disclosure. Any form is also included in the present disclosure.
以下、実施例にて本開示に係る検出装置及び検出方法について具体的に説明するが、本開示は以下の実施例のみに何ら限定されるものではない。 The detection apparatus and detection method according to the present disclosure will be specifically described below in Examples, but the present disclosure is not limited to the following Examples.
以下では、機械学習モデルとしてDeepCrack Networkを用いて、布製品の織目の異常箇所の検出を行った。異常箇所がない布製品の画像を使用した。 In the following, DeepCrack Network was used as a machine learning model to detect an abnormal portion of the texture of a cloth product. An image of a fabric product with no abnormalities was used.
布製品は、複数のたて糸と複数のよこ糸で構成されており、たて糸がよこ糸の上下に織られることにより、複数の織目が発現する。その織目の1つ1つが米粒状(いわゆる、楕円形状)に見える。これらの織目は布製品の表面に現れる。しかしながら、織りが崩れた場合、織目は平面視で米粒状にならない。例えば、(1)本来、たて糸がよこ糸の表側を通過すべきところを、裏側を通過した場合、その部分のたて糸は表面に現れず、織目が無い状態となる。また、(2)本来、たて糸がよこ糸の裏側を通過すべきところを、表側を通過した場合、本来織目のない部分に織目が表面に現れるため、織目が大きくなる。以下では、楕円形状物として織目を含む布製品を対象物として、比較例1及び実施例1における楕円形状物の検出精度を検証した。比較例2及び実施例2では、上記の布製品の異常箇所に対する楕円形状物の検出精度を検証した。 Cloth products are composed of a plurality of warp threads and a plurality of weft threads, and the warp threads are woven above and below the weft threads to create a plurality of textures. Each texture looks like rice grains (so-called elliptical shape). These textures appear on the surface of the fabric. However, when the weave collapses, the texture does not look like rice grains when viewed from above. For example, (1) when the warp threads pass through the back side of the weft threads when they should pass through the front side of the weft threads, the warp threads in that portion do not appear on the surface, resulting in a state of no texture. (2) When the warp thread passes through the front side of the weft thread instead of the back side of the weft thread, the weave pattern appears on the front side of the weft thread, resulting in a large weave pattern. In the following, the detection accuracy of an elliptical object in Comparative Example 1 and Example 1 was verified using a cloth product including textures as an elliptical object. In Comparative Example 2 and Example 2, the detection accuracy of the elliptical object in the above-described abnormal portion of the cloth product was verified.
(比較例1)
比較例1では、従来の方法で生成した教師データを用いて学習した機械学習モデルを使用した。比較例1の教師データは、布製品が映る画像(第1画像という)を所定のサイズのブロックで分割した複数のブロック(以下、第1ブロックという)と、当該第1ブロックに含まれる複数の織目それぞれの領域を示すアノテーションとで構成されたデータ(以下、第1データという)を含む。比較例1の検出方法で検出した結果を図11に示す。図11は、比較例1及び実施例1の結果を示す図である。図11では、楕円形状物(ここでは、織目)を表す画素は黒色で示される。図11に示されるように、比較例1では、黒色を示す画素がまばらであり、織目の検出精度はあまり良くなかった。
(Comparative example 1)
In Comparative Example 1, a machine learning model trained using teacher data generated by a conventional method was used. The training data of Comparative Example 1 includes a plurality of blocks (hereinafter referred to as first blocks) obtained by dividing an image showing a cloth product (referred to as a first image) into blocks of a predetermined size (hereinafter referred to as first blocks), and a plurality of blocks included in the first blocks. Annotations indicating areas of each texture (hereinafter referred to as first data). The results detected by the detection method of Comparative Example 1 are shown in FIG. 11 is a diagram showing the results of Comparative Example 1 and Example 1. FIG. In FIG. 11, pixels representing ellipses (here, weaves) are shown in black. As shown in FIG. 11, in Comparative Example 1, black pixels were sparse, and the texture detection accuracy was not so good.
(実施例1)
実施例1では、本開示の方法で生成した教師データを用いて学習した機械学習モデルを使用した。実施例1では、教師データを生成するために使用した画像は、比較例1と同じ画像を用いたが、教師データの生成方法が異なる。そのため、1つの画像から比較例1より多くの学習用画像データを生成することができた。実施例1の教師データは、布製品が映る画像(いわゆる、第1画像)を比較例1と同じサイズのブロックで分割した複数のブロック(いわゆる、第1ブロック)と、当該第1ブロックに含まれる複数の織目それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックを縦横斜めのいずれかにずらして、比較例1と同じサイズに再分割した複数のブロック(これを第2ブロックという)と、当該第2ブロックに含まれる複数の網目それぞれの領域を示すアノテーションとで構成された第2データと、を含む。実施例1の検出方法で検出した結果を図11に示す。
(Example 1)
In Example 1, a machine learning model trained using teacher data generated by the method of the present disclosure was used. In Example 1, the same image as in Comparative Example 1 was used as the image used to generate the teacher data, but the method of generating the teacher data was different. Therefore, more learning image data than Comparative Example 1 could be generated from one image. The training data of Example 1 includes a plurality of blocks (so-called first blocks) obtained by dividing an image showing a cloth product (so-called first image) into blocks of the same size as those of Comparative Example 1 (so-called first blocks), and The first data composed of annotations indicating the areas of each of the plurality of textures, and the first block in the first image is shifted vertically, horizontally, or diagonally within a range not exceeding the first block, and Comparative Example 1 and It includes second data composed of a plurality of blocks subdivided into the same size (referred to as second blocks) and annotations indicating regions of each of the plurality of meshes included in the second blocks. The results detected by the detection method of Example 1 are shown in FIG.
図11に示されるように、黒色を示す画素が密に見られ、比較例1よりも織目の検出精度が向上したことが確認できた。 As shown in FIG. 11 , black pixels were seen densely, and it was confirmed that the texture detection accuracy was improved as compared with Comparative Example 1.
(比較例2)
比較例2では、布製品の異常箇所を含む画像を機械学習モデルに入力して異常検出を行った点以外、比較例1と同様に行った。比較例2の検出方法で検出した結果を図12に示す。図12は、比較例2及び実施例2の結果を示す図である。図12に示されるように、入力画像の左側には、糸が編み込まれずに布製品の表面に飛び出した異常箇所が含まれている。図12では、図11と同様に、楕円形状物(ここでは、織目)を表す画素は黒色で示される。
(Comparative example 2)
Comparative Example 2 was performed in the same manner as Comparative Example 1, except that an image including an abnormal portion of the cloth product was input to the machine learning model to detect the abnormality. The results of detection by the detection method of Comparative Example 2 are shown in FIG. 12 is a diagram showing the results of Comparative Example 2 and Example 2. FIG. As shown in FIG. 12, the left side of the input image includes an abnormal portion where the yarn is not knitted and protrudes to the surface of the cloth product. In FIG. 12, as in FIG. 11, pixels representing elliptical objects (here, weaves) are shown in black.
図12に示されるように、比較例2では、糸が飛び出ている異常箇所に複数の織目が存在するかのように画素が黒色で示されている。つまり、比較例2では、糸が飛び出て織目が存在しない箇所に織目が存在すると誤検出している。その結果、総ピクセル数の変化が小さくなるため、入力画像に示される範囲に異常がないと判定される。 As shown in FIG. 12, in Comparative Example 2, the pixels are shown in black as if a plurality of weaves existed in the abnormal portion where the thread protruded. In other words, in Comparative Example 2, it is erroneously detected that the texture is present in a portion where the yarn is protruded and the texture is not present. As a result, since the change in the total number of pixels is small, it is determined that there is no abnormality in the range shown in the input image.
(実施例2)
実施例2では、比較例2と同様に、布製品の異常箇所を含む画像を機械学習モデルに入力して異常検出を行った以外、実施例1と同様に行った。実施例2の検出方法で検出した結果を図12に示す。
(Example 2)
In Example 2, as in Comparative Example 2, the same procedure as in Example 1 was performed, except that an image including an abnormal portion of the cloth product was input to the machine learning model to detect an abnormality. The results detected by the detection method of Example 2 are shown in FIG.
図12に示されるように、実施例2では、糸が飛び出ている異常箇所において、飛び出た糸の形状に沿った形に画素が黒色で示されている。その結果、総ピクセル数の変化が大きくなるため、入力画像に示される範囲に異常があると判定される。 As shown in FIG. 12, in Example 2, pixels are shown in black along the shape of the protruding thread at the abnormal location where the thread protrudes. As a result, the change in the total number of pixels increases, and it is determined that there is an abnormality in the range shown in the input image.
(まとめ)
比較例1、2及び実施例1、2の結果から、本開示の方法で教師データを生成すると、1つの画像から生成される学習用画像データ(いわゆる、分割画像)のそれぞれが、第1ブロックを超えない範囲で第1ブロックを縦横斜めのいずれかにずらして第2ブロック、第3ブロック、第4ブロックなどを生成するため、第2ブロック、第3ブロック、及び第4ブロックのそれぞれが第1ブロックと重複する領域を有している。このように1つの画像(第1画像)に対して分割メッシュをずらして再分割して生成された分割画像を機械学習に使用することにより、容易により学習効果を高めることができ、結果的に、検出精度が向上することが確認できた。
(summary)
From the results of Comparative Examples 1 and 2 and Examples 1 and 2, when teacher data is generated by the method of the present disclosure, each of the learning image data (so-called divided images) generated from one image is the first block In order to generate the second block, third block, fourth block, etc. by shifting the first block vertically, horizontally, or diagonally within a range not exceeding It has an area that overlaps with one block. By using the divided images generated by re-dividing one image (first image) by shifting the division mesh in this way for machine learning, the learning effect can be easily enhanced, and as a result , it was confirmed that the detection accuracy was improved.
本開示は、楕円形状物を簡便にかつ精度良く検出することができるため、例えば、楕円形状物を含む対象物の異常箇所を簡便に精度良く検出することができる。したがって、本開示は、食品、工業製品、又は、日用品などの様々な分野における製品の品質検査に利用可能である。 INDUSTRIAL APPLICABILITY According to the present disclosure, an elliptical object can be detected simply and accurately, and therefore, for example, an abnormal portion of an object including an elliptical object can be easily and accurately detected. Therefore, the present disclosure can be used for quality inspection of products in various fields such as foods, industrial products, or daily necessities.
1 対象物
10 検出装置
11 通信部
12 制御部
12a 取得部
12b 画像処理部
12c 判定部
12d 出力部
13 記憶部
14 学習部
15 表示部
16 操作受付部
20 照明装置
30 撮像装置
40 搬送装置
100 検出システム
Claims (6)
取得された前記画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、
ブロック分割された前記画像を、学習済みの前記機械学習モデルである学習済みモデルに入力することにより得られる、前記ブロックそれぞれにおける前記楕円形状物を表す画素の数に基づいて、前記対象物の異常箇所を検出し、
前記異常箇所の検出において、
前記学習済みモデルから出力された前記画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所ではないと判定し、
前記学習済みモデルから出力された前記画素の数が前記第1閾値以下である場合、又は、前記第2閾値以上である場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所であると判定する
検出方法。 Acquiring an image showing at least part of an object including an elliptical object,
dividing the obtained image into blocks of the same size as the block size used for the teacher data when learning the machine learning model;
An abnormality of the object based on the number of pixels representing the elliptical object in each of the blocks obtained by inputting the block-divided image into a learned model that is the machine learning model that has been learned. detect the point,
In detecting the abnormal location,
when the number of pixels output from the trained model is greater than a first threshold and less than a second threshold, determining that the location of the object corresponding to the block is not the abnormal location;
When the number of pixels output from the trained model is equal to or less than the first threshold or equal to or greater than the second threshold, the part of the object corresponding to the block is determined to be the abnormal part. Determine detection method.
生成された前記マーキング画像を判定結果として出力する
請求項1に記載の検出方法。 Further, when the abnormal point is detected in the object, generating a marking image in which the abnormal point in the image is marked,
The detection method according to claim 1, wherein the generated marking image is output as a determination result.
前記画像において前記検出対象の領域を、前記機械学習モデルの学習時に前記教師データとして使用されたサイズと同じサイズのブロックに分割する
請求項1又は2に記載の検出方法。 prior to dividing the blocks, excluding an area other than at least a part of the object appearing in the image from a detection target;
3. The detection method according to claim 1, wherein the area to be detected in the image is divided into blocks of the same size as the teacher data used when learning the machine learning model.
請求項1~3のいずれか1項に記載の検出方法。 The detection method according to any one of claims 1 to 3, wherein the machine learning model is a convolutional neural network.
対象物の少なくとも一部が映る第1画像を前記サイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、
前記第1画像において前記第1ブロックを超えない範囲で前記第1ブロックをずらして前記サイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データと
を含む
請求項1~4のいずれか1項に記載の検出方法。 The teacher data used for learning the machine learning model is
First data composed of a plurality of first blocks obtained by dividing a first image showing at least part of an object into the size, and annotations indicating regions of each of the plurality of elliptical objects included in the first blocks. When,
a plurality of second blocks obtained by shifting the first block in the first image and redividing the first block into the size within a range not exceeding the first block; The detection method according to any one of claims 1 to 4, comprising: second data composed of annotations indicating
プログラム。 A program for causing a computer to execute the detection method according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094120A JP2022186079A (en) | 2021-06-04 | 2021-06-04 | Detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094120A JP2022186079A (en) | 2021-06-04 | 2021-06-04 | Detection method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022186079A true JP2022186079A (en) | 2022-12-15 |
Family
ID=84441912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021094120A Pending JP2022186079A (en) | 2021-06-04 | 2021-06-04 | Detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022186079A (en) |
-
2021
- 2021-06-04 JP JP2021094120A patent/JP2022186079A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111044525B (en) | Product defect detection method, device and system | |
CN111060520B (en) | Product defect detection method, device and system | |
CN111179253A (en) | Product defect detection method, device and system | |
JP6619732B2 (en) | Method and system for classifying and identifying individual cells in a microscopic image | |
JP6955211B2 (en) | Identification device, identification method and program | |
JP2014089626A (en) | Image detection device and control program and image detection method | |
CN110517283A (en) | Attitude Tracking method, apparatus and computer readable storage medium | |
US20120328199A1 (en) | Method for detecting facial features | |
TWI743837B (en) | Training data increment method, electronic apparatus and computer-readable medium | |
US11769248B2 (en) | Image processing device, image processing method, and image processing non-transitory computer readable medium for verifying detectable range of defect image | |
US20200410312A1 (en) | Methods and arrangements for localizing machine-readable indicia | |
JP2016191589A (en) | Defect classification device defect classification method | |
CN108108678B (en) | Tungsten ore identification and separation method | |
TW201706961A (en) | Generating a disparity map based on stereo images of a scene | |
KR20220084753A (en) | Sewing defect detecting method using neural network, sewing defect detecting system and analysis apparatus | |
CN113066088A (en) | Detection method, detection device and storage medium in industrial detection | |
WO2023052537A1 (en) | Method for detecting at least one defect on a support, device and computer program associated | |
JP2022186079A (en) | Detection method and program | |
CN110349133B (en) | Object surface defect detection method and device | |
CN111046706B (en) | Fingerprint identification method and electronic device using same | |
JP2021026599A (en) | Image processing system | |
JP7302410B2 (en) | Image recognition device, image recognition system, image recognition method and program | |
JP7375161B2 (en) | Learning data creation device, method, program, and recording medium | |
JP6331914B2 (en) | Algorithm generating apparatus, algorithm generating method and algorithm generating computer program | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240530 |