JP2022186079A - Detection method and program - Google Patents

Detection method and program Download PDF

Info

Publication number
JP2022186079A
JP2022186079A JP2021094120A JP2021094120A JP2022186079A JP 2022186079 A JP2022186079 A JP 2022186079A JP 2021094120 A JP2021094120 A JP 2021094120A JP 2021094120 A JP2021094120 A JP 2021094120A JP 2022186079 A JP2022186079 A JP 2022186079A
Authority
JP
Japan
Prior art keywords
image
blocks
block
detection method
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094120A
Other languages
Japanese (ja)
Inventor
慎 藤生
Shin Fujio
知隆 福岡
Tomotaka Fukuoka
貴大 南
Takahiro Minami
信行 高橋
Nobuyuki Takahashi
賢三 戸城
Kenzo Toshiro
拓実 和泉田
Takumi Izumida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa University NUC
Sakura Rubber Co Ltd
Original Assignee
Kanazawa University NUC
Sakura Rubber Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa University NUC, Sakura Rubber Co Ltd filed Critical Kanazawa University NUC
Priority to JP2021094120A priority Critical patent/JP2022186079A/en
Publication of JP2022186079A publication Critical patent/JP2022186079A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a detection method capable of easily and accurately detecting an elliptical shaped object included in an object.SOLUTION: A detection method includes the steps of: acquiring an image in which at least a part of an object including an elliptical shaped object is reflected (S11); dividing the acquired image into blocks in blocks of the same size as the size of the block used for teacher data at the time of learning a machine learning model (S12); and detecting an abnormal place of the object on the basis of the number of pixels representing the elliptical shaped object in each block obtained by inputting an image divided into the blocks in the already-learned model (S13).SELECTED DRAWING: Figure 3

Description

本開示は、検出方法及びプログラムに関する。 The present disclosure relates to detection methods and programs.

従来、機械学習を利用した画像認識により画像中の物体を検出する技術が知られている。このような技術は、例えば、製造ラインで撮像された画像から製品を検出し、当該製品の品質を管理するために利用されている。 Conventionally, a technique for detecting an object in an image by image recognition using machine learning is known. Such technology is used, for example, to detect a product from an image captured on a production line and to manage the quality of the product.

特開2018-022484号公報JP 2018-022484 A

しかしながら、上述した従来技術には、機械学習を利用した物体検出を簡便にかつ精度良く行う上で、更なる改善の余地がある。特に、楕円形状物などのエッジが丸められた形状を有する物体の検出精度が低いことが知られている。 However, the conventional techniques described above have room for further improvement in terms of simply and accurately performing object detection using machine learning. In particular, it is known that detection accuracy of an object having rounded edges such as an elliptical object is low.

そこで、本開示は、対象物に含まれる楕円形状物を簡便にかつ精度良く検出することができる検出方法を提供する。 Accordingly, the present disclosure provides a detection method that can easily and accurately detect an elliptical object included in an object.

本開示の一態様に係る検出方法は、楕円形状物を含む対象物の少なくとも一部が映る画像を取得し、取得された前記画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、ブロック分割された前記画像を、学習済みの前記機械学習モデルである学習済みモデルに入力することにより得られる、前記ブロックそれぞれにおける前記楕円形状物を表す画素の数に基づいて、前記対象物の異常箇所を検出し、前記異常箇所の検出において、前記学習済みモデルから出力された前記画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所ではないと判定し、前記学習済みモデルから出力された前記画素の数が前記第1閾値以下である場合、又は、前記第2閾値以上である場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所であると判定する。 A detection method according to one aspect of the present disclosure acquires an image in which at least a part of an object including an elliptical object is captured, and uses the acquired image as training data for learning a machine learning model. Pixels representing the elliptical object in each of the blocks obtained by dividing the image into blocks of the same size and inputting the block-divided image into a trained model that is the machine learning model that has been trained. based on the number of, detecting an abnormal location of the object, in the detection of the abnormal location, the number of pixels output from the learned model is greater than the first threshold and more than the second threshold If the number of pixels output from the learned model is less than or equal to the first threshold value, or the second If it is equal to or greater than the threshold, it is determined that the location of the object corresponding to the block is the abnormal location.

本開示の一態様に係るプログラムは、前記検出方法をコンピュータに実行させるためのプログラムである。 A program according to an aspect of the present disclosure is a program for causing a computer to execute the detection method.

本開示によれば、対象物の異常箇所を簡便にかつ精度良く検出することができる検出方法を提供する。 According to the present disclosure, there is provided a detection method capable of detecting an abnormal portion of an object simply and accurately.

図1は、実施の形態に係る検出システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of a detection system according to an embodiment. 図2は、実施の形態に係る検出システムの機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the detection system according to the embodiment. 図3は、実施の形態に係る検出装置の動作の一例を示すフローチャートである。FIG. 3 is a flow chart showing an example of the operation of the detection device according to the embodiment. 図4は、図3のステップS13の詳細なフローを示すフローチャートである。FIG. 4 is a flow chart showing the detailed flow of step S13 in FIG. 図5は、図3のステップS11で取得される画像の例を示す図である。FIG. 5 is a diagram showing an example of an image acquired in step S11 of FIG. 図6は、図3のステップS11で取得された画像の処理例を示す図である。FIG. 6 is a diagram showing an example of processing the image acquired in step S11 of FIG. 図7は、異常箇所の検出処理を説明するための図である。FIG. 7 is a diagram for explaining the process of detecting an abnormal location. 図8は、検出結果の画素ヒストグラムの一例を示す図である。FIG. 8 is a diagram showing an example of a pixel histogram of detection results. 図9は、判定結果の一例を示す図である。FIG. 9 is a diagram illustrating an example of determination results. 図10は、フィルタリング処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of filtering processing. 図11は、比較例1及び実施例1の結果を示す図である。11 is a diagram showing the results of Comparative Example 1 and Example 1. FIG. 図12は、比較例2及び実施例2の結果を示す図である。12 is a diagram showing the results of Comparative Example 2 and Example 2. FIG.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the constituent elements in the following embodiments, constituent elements not described in independent claims will be described as optional constituent elements.

なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。 Each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected with respect to substantially the same structure, and the overlapping description may be abbreviate|omitted or simplified.

(実施の形態)
[構成]
まず、実施の形態に係る検出システムの構成について説明する。図1は、実施の形態に係る検出システムの概要を説明するための図である。図2は、実施の形態に係る検出システムの機能構成の一例を示すブロック図である。
(Embodiment)
[Constitution]
First, the configuration of the detection system according to the embodiment will be described. FIG. 1 is a diagram for explaining an overview of a detection system according to an embodiment. FIG. 2 is a block diagram showing an example of the functional configuration of the detection system according to the embodiment.

図1に示されるように、検出システム100は、楕円形状物を含む対象物1の異常箇所を検出するシステムである。異常箇所とは、例えば、楕円形状物に欠けなどの形状異常が生じた箇所である。検出システム100は、例えば、対象物1の品質検査などに使用される。対象物1は、楕円形状物を含む物体であり、例えば、楕円形状物を表面に有する物体、楕円形状物から構成される物体、又は、構成の一部に楕円形状物を含む物体である。当該物体は、楕円形状物を含んでいればよく、繊維、金属、樹脂、木材、カーボン、ゲル、又は、粘土など種々の材料から形成されてもよい。楕円形状物は、例えば、上面視において、楕円形状、角が丸められた多角形、又は、円形であってもよい。以下では、楕円形状物を含む対象物1として、布を例に説明するが、あくまでも一例であり、これに限定されない。 As shown in FIG. 1, the detection system 100 is a system for detecting an abnormal portion of an object 1 including an elliptical object. An abnormal portion is, for example, a portion where a shape abnormality such as chipping occurs in an elliptical object. The detection system 100 is used, for example, for quality inspection of the object 1 . The object 1 is an object including an elliptical object, for example, an object having an elliptical object on its surface, an object composed of an elliptical object, or an object including an elliptical object as part of its configuration. The object may include an elliptical object and may be made of various materials such as fiber, metal, resin, wood, carbon, gel, or clay. The elliptical shape may be, for example, elliptical, polygonal with rounded corners, or circular in top view. Although cloth will be described below as an example of the object 1 including an elliptical object, it is only an example and is not limited to this.

図1及び図2に示されるように、検出システム100は、例えば、検出装置10と、撮像装置30とを備える。また、図1では、照明装置20及び搬送装置40も図示されている。検出システム100は、照明装置20及び搬送装置40を備えてもよい。検出システム100は、搬送装置40により搬送される対象物1に含まれる楕円形状物の異常の有無を検出してもよい。搬送装置40は、例えば、コンベアである。 As shown in FIGS. 1 and 2, the detection system 100 includes, for example, a detection device 10 and an imaging device 30. FIG. Also shown in FIG. 1 are a lighting device 20 and a transport device 40 . Detection system 100 may comprise illumination device 20 and transport device 40 . The detection system 100 may detect the presence or absence of an elliptical object included in the object 1 transported by the transport device 40 . The conveying device 40 is, for example, a conveyor.

以下、検出システム100の各構成について説明する。 Each configuration of the detection system 100 will be described below.

[照明装置]
照明装置20は、例えば、撮像装置30の画角内の対象物1を照らす発光装置である。照明装置20は、2つ備えられてもよく、3つ備えられてもよい。この場合、2つ以上の照明装置20は、撮像装置30が撮影する領域に対して、異なる方向から光を照射する。光源の種類は、特に限定されないが、例えば、LED(Light Emitting Diode)に基づき白色光を照射する光源であってもよい。また、2つ以上の照明装置20を備える場合、各照明装置20は、同一の波長又は同一の波長範囲の光を放射する光源を備えてもよく、異なる波長の光を放射する光源を備えてもよい。対象物1の種類、対象物1に含まれる楕円形状物の色又は表面形状などに応じて適宜選択されてもよい。
[Lighting device]
The illumination device 20 is, for example, a light emitting device that illuminates the object 1 within the angle of view of the imaging device 30 . Two lighting devices 20 may be provided, or three lighting devices 20 may be provided. In this case, the two or more illumination devices 20 irradiate light from different directions to the area captured by the imaging device 30 . The type of light source is not particularly limited, but may be, for example, a light source that emits white light based on an LED (Light Emitting Diode). Also, when two or more illumination devices 20 are provided, each illumination device 20 may include light sources that emit light of the same wavelength or the same wavelength range, or may include light sources that emit light of different wavelengths. good too. It may be appropriately selected according to the type of the object 1, the color or surface shape of the elliptical object included in the object 1, and the like.

[撮像装置]
撮像装置30は、対象物1の少なくとも一部を含む画像を撮影する。画像は、静止画像であってもよく、動画像であってもよい。画像は、モノクロ画像であってもよく、カラー画像であってもよい。撮像装置30は、照明装置20が対象物1を照らした光を検出することにより、楕円形状物を含む対象物1の少なくとも一部を含む画像を撮影する。撮像装置30は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の、光を検出するための撮像素子を有する。
[Imaging device]
The imaging device 30 captures an image including at least part of the object 1 . The image may be a still image or a moving image. The image may be a monochrome image or a color image. The imaging device 30 captures an image including at least a portion of the object 1 including an elliptical object by detecting light with which the illumination device 20 illuminates the object 1 . The imaging device 30 has an imaging element for detecting light, such as a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.

[検出装置]
検出装置10は、撮像装置30によって撮影された画像に基づいて、対象物1に含まれる楕円形状物の異常を検出する装置である。検出装置10は、例えば、パーソナルコンピュータなどの据え置き型の情報端末であるが、スマートフォン又はタブレット端末などの携帯型の情報端末であってもよい。また、図1及び図2の例では、検出装置10と撮像装置30とは、別体であるが、撮像装置30は、検出装置10に備えられるカメラであってもよい。検出装置10は、例えば、通信部11と、制御部12と、記憶部13と、学習部14と、表示部と、操作受付部と、を備える。
[Detection device]
The detection device 10 is a device that detects an abnormality in an elliptical object included in the object 1 based on an image captured by the imaging device 30 . The detection device 10 is, for example, a stationary information terminal such as a personal computer, but may be a portable information terminal such as a smart phone or a tablet terminal. 1 and 2, the detection device 10 and the imaging device 30 are separate bodies, but the imaging device 30 may be a camera provided in the detection device 10. FIG. The detection device 10 includes, for example, a communication unit 11, a control unit 12, a storage unit 13, a learning unit 14, a display unit, and an operation reception unit.

[通信部]
通信部11は、検出装置10が照明装置20、撮像装置30、及び、搬送装置40と局所通信ネットワークを介して通信を行うための通信モジュール(通信回路)である。通信部11は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。通信部11が行う通信の通信規格は、特に限定されない。
[Communication]
The communication unit 11 is a communication module (communication circuit) for the detection device 10 to communicate with the illumination device 20, the imaging device 30, and the transport device 40 via the local communication network. The communication unit 11 is, for example, a wireless communication circuit that performs wireless communication, but may be a wired communication circuit that performs wired communication. A communication standard for communication performed by the communication unit 11 is not particularly limited.

[制御部]
制御部12は、検出装置10の動作の制御を行うための情報処理を行う。制御部12は、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。制御部12は、具体的には、取得部12aと、画像処理部12bと、判定部12cと、出力部12dとを備える。取得部12a、画像処理部12b、判定部12c、及び、出力部12dは、いずれもプロセッサが上記情報処理を行うためのプログラムを実行することにより実現される。
[Control part]
The control unit 12 performs information processing for controlling the operation of the detection device 10 . The control unit 12 is realized by, for example, a microcomputer, but may be realized by a processor or a dedicated circuit. Specifically, the control unit 12 includes an acquisition unit 12a, an image processing unit 12b, a determination unit 12c, and an output unit 12d. The acquisition unit 12a, the image processing unit 12b, the determination unit 12c, and the output unit 12d are all implemented by a processor executing a program for performing the above information processing.

取得部12aは、楕円形状物を含む対象物1の少なくとも一部が映る画像を取得する。 The acquisition unit 12a acquires an image including at least a part of the object 1 including an elliptical object.

画像処理部12bは、取得部12aによって取得された画像(画像データ)に対して画像処理を行うことで、学習用画像データ、又は、検出用画像データを生成する。具体的には、画像処理部12bは、取得部12aによって取得された画像データを所定のサイズのブロックでブロック分割することで、学習用画像データ、又は、検出用画像データを生成する。 The image processing unit 12b generates learning image data or detection image data by performing image processing on the image (image data) acquired by the acquisition unit 12a. Specifically, the image processing unit 12b generates learning image data or detection image data by dividing the image data acquired by the acquisition unit 12a into blocks of a predetermined size.

例えば、学習用画像データの生成については、対象物1の少なくとも一部が映る画像(第1画像と呼ぶ)を所定のサイズに分割した複数のブロック(第1ブロックと呼ぶ)と、当該第1ブロックを超えない範囲で、例えば、縦横斜めのいずれかの方向に第1ブロックをずらして第1画像を所定のサイズに再分割することを繰り返して、複数の学習用画像データを生成する。なお、機械学習用の教師データは、複数の学習用画像データと、複数の学習用画像データにそれぞれ正解データとして対応付けられた複数の楕円形状物それぞれの領域を示すアノテーションとで構成される。 For example, when generating learning image data, an image (referred to as a first image) showing at least a portion of the object 1 is divided into a plurality of blocks (referred to as first blocks) of a predetermined size, and the first A plurality of pieces of learning image data are generated by repeatedly redividing the first image into a predetermined size by shifting the first block vertically, horizontally, or diagonally within a range not exceeding the blocks. The teacher data for machine learning is composed of a plurality of image data for learning and annotations indicating the regions of each of the plurality of elliptical objects associated with the plurality of image data for learning as correct data.

また、例えば、検出用画像データの生成については、画像処理部12bは、取得部12aによって取得された画像(画像データ)を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割した画像を生成する。このとき、画像処理部12bは、画像のブロックの分割に先立ち、画像に映る対象物1の少なくとも一部以外の領域(言い換えると、対象物1が映っていない領域)を検出対象から除外し、当該画像において検出対象の領域を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。 Further, for example, when generating image data for detection, the image processing unit 12b converts an image (image data) acquired by the acquisition unit 12a into a block having the same size as the block size used for the teacher data when learning the machine learning model. Generates a block-divided image with blocks of size. At this time, prior to dividing the image into blocks, the image processing unit 12b excludes an area other than at least a part of the object 1 shown in the image (in other words, an area where the object 1 is not shown) from the detection target, A region to be detected in the image may be divided into blocks of the same size as that used as teacher data when learning the machine learning model.

さらに、画像処理部12bは、判定部12cによって対象物1に異常箇所が検出されたと判定された場合に、当該判定の結果(以下、判定結果という)として、画像における異常箇所がマーキングされたマーキング画像を生成してもよい。 Further, when the determination unit 12c determines that an abnormal portion has been detected in the object 1, the image processing unit 12b outputs a marking in which the abnormal portion in the image is marked as a result of the determination (hereinafter referred to as determination result). An image may be generated.

判定部12cは、記憶部13に記憶されている学習済みの機械学習モデル(以下、学習済みモデルという)を用いて、画像処理部12bによってブロック分割された画像(いわゆる、検出用画像データ)を、学習済みモデルに入力することにより得られる、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物1の異常箇所を検出する。より具体的には、判定部12cは、異常箇所の検出において、学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する対象物1の箇所が異常箇所ではないと判定し、学習済みモデルから出力された画素の数が第1閾値以下である場合、又は、第2閾値以上である場合、当該ブロックに対応する対象物1の箇所が異常箇所であると判定する。閾値は、求められる検出精度及び検出対象の種類により、適宜設定されてもよい。 The determination unit 12c uses a learned machine learning model (hereinafter referred to as a learned model) stored in the storage unit 13 to divide an image (so-called detection image data) into blocks by the image processing unit 12b. , based on the number of pixels representing the elliptical object in each block obtained by inputting to the trained model, an abnormal portion of the object 1 is detected. More specifically, when the number of pixels output from the trained model is greater than the first threshold and less than the second threshold in detecting an abnormal location, the determining unit 12c determines that the block corresponds to If it is determined that the part of the object 1 is not an abnormal part, and the number of pixels output from the learned model is equal to or less than the first threshold, or if it is equal to or more than the second threshold, the object corresponding to the block 1 is determined to be an abnormal location. The threshold may be appropriately set according to the required detection accuracy and the type of detection target.

出力部12dは、判定部12cによって判定された結果(以下、判定結果という)を出力する。判定結果は、例えば、画像、文字、記号、及び、音声の少なくともいずれかで出力される。例えば、出力部12dは、対象物1において異常箇所が検出された場合、検出結果として、画像処理部12bによって生成されたマーキング画像を出力する。 The output unit 12d outputs the result determined by the determination unit 12c (hereinafter referred to as determination result). The determination result is output in at least one of images, characters, symbols, and voices, for example. For example, when an abnormal portion is detected in the object 1, the output unit 12d outputs the marking image generated by the image processing unit 12b as the detection result.

[記憶部]
記憶部13は、制御部12が実行する制御プログラムなどが記憶される記憶装置である。記憶部13は、教師データ及び検出用画像データを一時的に記憶してもよい。記憶部13は、記憶している学習済みモデルを、学習部14によって生成された機械学習モデル(いわゆる、学習済みモデル)に更新する。記憶部13は、例えば、半導体メモリによって実現される。
[Memory part]
The storage unit 13 is a storage device that stores control programs and the like executed by the control unit 12 . The storage unit 13 may temporarily store the teacher data and the detection image data. The storage unit 13 updates the stored learned model to a machine learning model (so-called learned model) generated by the learning unit 14 . The storage unit 13 is implemented by, for example, a semiconductor memory.

[学習部]
学習部14は、教師データを用いて機械学習する。学習部14は、機械学習により、所定のサイズのブロックでブロック分割された画像を入力とし、当該画像に含まれる複数のブロックそれぞれにおける楕円形状物を表す画素の数を出力する機械学習モデルを生成する。機械学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)である。機械学習モデルは、CNNであればよく、特に限定されないが、例えば、DeepCrack(A Deep Hierarchical Feature Learning Architecture for Crack Segmentation) Networkであってもよい。学習済みの機械学習モデル(いわゆる、学習済みモデル)は、機械学習により調整された学習済みパラメータを含む。生成された学習済みモデルは、記憶部13に記憶される。学習部14は、例えば、プロセッサが記憶部13に格納されているプログラムを実行することで実現される。機械学習モデルの学習に使用する教師データは、対象物1の少なくとも一部が映る第1画像を所定のサイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックをずらして所定のサイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データとを含む。第1画像を分割する際の第1ブロックをずらす方向は、縦横斜め方向のいずれかであり、第1ブロックの範囲を越えなければ任意の距離ずらしてもよい。このようにして対象物1の少なくとも一部が映る第1画像から複数の教師データを作成することができる。
[Study Department]
The learning unit 14 performs machine learning using teacher data. The learning unit 14 receives an image divided into blocks of a predetermined size by machine learning, and generates a machine learning model that outputs the number of pixels representing an elliptical object in each of a plurality of blocks included in the image. do. A machine learning model is, for example, a convolutional neural network (CNN). The machine learning model is not particularly limited as long as it is a CNN. For example, it may be a DeepCrack (A Deep Hierarchical Feature Learning Architecture for Crack Segmentation) Network. A trained machine learning model (a so-called trained model) includes learned parameters adjusted by machine learning. The generated learned model is stored in the storage unit 13 . The learning unit 14 is implemented, for example, by a processor executing a program stored in the storage unit 13 . The teacher data used for learning the machine learning model includes a plurality of first blocks obtained by dividing a first image showing at least part of the object 1 into predetermined sizes, and a plurality of elliptical objects included in the first blocks. a plurality of second blocks obtained by re-dividing the first block into a predetermined size by shifting the first block within a range not exceeding the first block in the first image; and second data composed of annotations indicating respective regions of a plurality of elliptical objects included in the two blocks. The direction in which the first block is shifted when dividing the first image is any of vertical, horizontal, and diagonal directions, and may be shifted by an arbitrary distance as long as the range of the first block is not exceeded. In this way, it is possible to create a plurality of teacher data from the first image in which at least part of the object 1 is shown.

[表示部]
表示部15は、制御部12の制御に基づいて画像を表示する表示装置である。表示部15は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルによって実現される。
[Display part]
The display unit 15 is a display device that displays images under the control of the control unit 12 . The display unit 15 is implemented by, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel.

[操作受付部]
操作受付部16は、ユーザの操作を受け付ける。操作受付部16は、具体的には、マウス、マイクロフォン、又は、タッチパネルなどによって実現される。
[Operation reception part]
The operation reception unit 16 receives a user's operation. The operation reception unit 16 is specifically realized by a mouse, a microphone, a touch panel, or the like.

なお、操作受付部16は、マイクロフォン(不図示)又はスピーカ(不図示)を備えてもよい。マイクロフォンは、音声を取得し、取得した音声に応じて音声信号を出力する。マイクロフォンは、具体的には、コンデンサマイク、ダイナミックマイク、又は、MEMSマイクなどである。スピーカは、例えば、マイクロフォンによって取得された発話音声への応答として、音声(機械音声)を出力する。これにより、ユーザは対話形式でシーン制御の実行指示を入力することができる。 Note that the operation reception unit 16 may include a microphone (not shown) or a speaker (not shown). A microphone acquires sound and outputs an audio signal according to the acquired sound. A microphone is, specifically, a condenser microphone, a dynamic microphone, a MEMS microphone, or the like. The speaker outputs voice (machine voice), for example, as a response to the spoken voice captured by the microphone. This allows the user to interactively input a scene control execution instruction.

なお、操作受付部16は、カメラ(不図示)を備えてもよい。カメラは、検出装置10を操作するユーザの画像を撮影する。具体的には、カメラは、ユーザの口、目、又は指などの動きを撮影する。この場合、操作受付部16は、カメラによって撮影されたユーザの画像に基づいて、ユーザの操作を受け付ける。カメラは、例えば、CMOSイメージセンサなどによって実現される。 Note that the operation reception unit 16 may include a camera (not shown). The camera captures images of the user operating the detection device 10 . Specifically, the camera captures movements of the user's mouth, eyes, fingers, or the like. In this case, the operation accepting unit 16 accepts the user's operation based on the user's image captured by the camera. A camera is implemented by, for example, a CMOS image sensor.

なお、上述のように、検出装置10は、カメラを備えてもよい。この場合、カメラは、楕円形状物を含む対象物1の少なくとも一部が映る画像を撮影してもよい。 Note that, as described above, the detection device 10 may include a camera. In this case, the camera may take an image showing at least part of the object 1 including the elliptical object.

[動作]
続いて、本実施の形態に係る検出システム100の動作について説明する。図3は、実施の形態に係る検出装置10の動作の一例を示すフローチャートである。
[motion]
Next, operation of the detection system 100 according to this embodiment will be described. FIG. 3 is a flow chart showing an example of the operation of the detection device 10 according to the embodiment.

まず、検出システム100の撮像装置30は、対象物1の少なくとも一部が映る画像を撮影する。このとき、照明装置20は、撮像装置30の画角内を照らしていてもよい。撮像装置30は、撮影した画像を検出装置10に送信する。なお、ここでは、撮像装置30は、検出装置10の外部の装置である例を説明しているが、撮像装置30は、検出装置10に備えられてもよい。 First, the imaging device 30 of the detection system 100 takes an image in which at least part of the object 1 is captured. At this time, the illumination device 20 may illuminate the inside of the angle of view of the imaging device 30 . The imaging device 30 transmits the captured image to the detection device 10 . Note that although an example in which the imaging device 30 is an external device of the detection device 10 is described here, the imaging device 30 may be provided in the detection device 10 .

次に、図3に示されるように、検出装置10は、撮像装置30によって撮影された、対象物の少なくとも一部が映る画像を取得する(S11)。図5は、図3のステップS11で取得される画像の例を示す図である。図6は、図3のステップS11で取得された画像の処理例を示す図である。例えば、図5に示されるように、検出装置10は、取得した画像が動画像である場合、動画像から複数のフレーム画像(いわゆる、静止画像)を抽出してもよい。検出装置10は、各静止画像について、以下の処理を行う。 Next, as shown in FIG. 3, the detection device 10 acquires an image of at least a part of the object captured by the imaging device 30 (S11). FIG. 5 is a diagram showing an example of an image acquired in step S11 of FIG. FIG. 6 is a diagram showing an example of processing the image acquired in step S11 of FIG. For example, as shown in FIG. 5, when the acquired image is a moving image, the detecting device 10 may extract a plurality of frame images (so-called still images) from the moving image. The detection device 10 performs the following processing on each still image.

例えば、図6の(a)に示されるように、検出装置10は、画像(静止画像)を取得すると、図6の(b)に示されるように、取得した画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割する(S12)。 For example, as shown in (a) of FIG. 6, when the detection device 10 acquires an image (still image), as shown in (b) of FIG. Sometimes, the blocks are divided into blocks of the same size as the blocks used for the teacher data (S12).

次に、検出装置10は、ブロック分割された画像を、学習済みモデルに入力し、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物の異常箇所を検出する(S13)。例えば、図6の(c)に示されるように、検出装置10は、学習済みモデルの出力結果として、画像中の各ブロックにおける楕円形状物を表す画素を黒色で示した画像を出力する。 Next, the detection device 10 inputs the block-divided image into the trained model, and detects an abnormal portion of the object based on the number of pixels representing the elliptical object in each block (S13). For example, as shown in (c) of FIG. 6, the detection device 10 outputs an image in which pixels representing elliptical objects in each block in the image are shown in black as the output result of the learned model.

図4は、図3のステップS13の詳細なフローを示すフローチャートである。 FIG. 4 is a flow chart showing the detailed flow of step S13 in FIG.

検出装置10は、ブロック分割された画像を、学習済みモデルに入力し、ブロックそれぞれにおける楕円形状物を表す画素の数を出力する(S21)。より具体的には、検出装置10は、学習済みモデルの出力結果(図6の(c))から、画像中の各ブロックにおける楕円形状を表す画素の数を導出する。図7は、異常箇所の検出処理を説明するための図である。図7では、図6の(c)に示される出力結果から、正常と判定されたブロックと異常と判定されたブロックを任意に抜き出して示している。 The detection device 10 inputs the block-divided image to the trained model, and outputs the number of pixels representing an elliptical object in each block (S21). More specifically, the detection device 10 derives the number of pixels representing the elliptical shape in each block in the image from the output result of the trained model ((c) in FIG. 6). FIG. 7 is a diagram for explaining the process of detecting an abnormal location. In FIG. 7, blocks determined to be normal and blocks determined to be abnormal are arbitrarily extracted from the output result shown in (c) of FIG.

次に、検出装置10は、ブロックごとのループ処理を開始する(S22)。検出装置10は、ステップS21で学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ないか否かを判定する(S23)。図8は、検出結果の画素ヒストグラムの一例を示す図である。第1閾値及び第2閾値は、例えば、図8に示されるヒストグラムに基づいて設定される。検出装置10は、出力した複数のブロックそれぞれにおける楕円形状物を表す画素の数を集計し、集計した複数のブロックの画素の数のヒストグラムを生成し、生成したヒストグラムを表示部15に表示してもよい。ユーザは、表示されたヒストグラムから、所望の精度に応じて上記の閾値を設定してもよい。 Next, the detection device 10 starts loop processing for each block (S22). The detection device 10 determines whether or not the number of pixels output from the trained model in step S21 is greater than the first threshold and less than the second threshold (S23). FIG. 8 is a diagram showing an example of a pixel histogram of detection results. The first threshold and the second threshold are set based on the histogram shown in FIG. 8, for example. The detection device 10 aggregates the number of pixels representing an elliptical object in each of the plurality of output blocks, generates a histogram of the aggregated numbers of pixels in the plurality of blocks, and displays the generated histogram on the display unit 15. good too. The user may set the above threshold according to the desired accuracy from the displayed histogram.

検出装置10は、画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ないと判定した場合(S23でYes)、当該ブロックに対応する対象物1の箇所が異常箇所ではないと判定する(S24)。例えば、ブロックにおける楕円形状物を表す画素の数(図7中のピクセル数)の第1閾値が35000に設定され、第2閾値が37000に設定されたとすると、図7の(a)~(e)の分割画像(いわゆる、ブロック)は、画素の数が第1閾値より多く、第2閾値よりも少ないため、当該分割画像に対応する対象物1の箇所は、正常箇所であると判定される。 When the detection device 10 determines that the number of pixels is greater than the first threshold and less than the second threshold (Yes in S23), it is determined that the location of the object 1 corresponding to the block is not an abnormal location. Determine (S24). For example, assuming that the first threshold for the number of pixels representing an elliptical object in a block (the number of pixels in FIG. 7) is set to 35000 and the second threshold is set to 37000, (a) to (e) in FIG. ) has more pixels than the first threshold value and less than the second threshold value, the part of the object 1 corresponding to the divided image is determined to be a normal part. .

一方、検出装置10は、画素の数が第1閾値以下である、又は、第2閾値以上であると判定した場合(S23でNo)、当該ブロックに対応する対象物1の箇所が異常箇所であると判定する(S25)。例えば、図7の(f)の分割画像は、画素の数が第1閾値以下であるため、当該分割画像に対応する対象物1の箇所は、異常箇所であると判定される。 On the other hand, when the detection device 10 determines that the number of pixels is equal to or less than the first threshold value or equal to or more than the second threshold value (No in S23), the part of the object 1 corresponding to the block is an abnormal part. It is determined that there is (S25). For example, since the number of pixels of the divided image in (f) of FIG. 7 is equal to or less than the first threshold value, the portion of the object 1 corresponding to the divided image is determined to be an abnormal portion.

検出装置10は、画像に含まれる全てのブロックについて上記処理を行うと、ブロック毎のループ処理を終了する(S26)。 When the detection device 10 has performed the above processing for all blocks included in the image, the loop processing for each block ends (S26).

次に、検出装置10は、対象物1(より詳細には、画像に被写体として映っている対象物1に対応する部分)において異常箇所が検出されたか否かを判定する(S27)。図9は、判定結果の一例を示す図である。例えば、図9の(a)に示されるように、検出装置10は、対象物1において異常箇所が検出されたか否かを判定し、異常箇所が検出されたと判定した場合、当該異常箇所であると判定された分割画像をマーキングする。 Next, the detection device 10 determines whether or not an abnormal portion is detected in the object 1 (more specifically, the portion corresponding to the object 1 shown as the subject in the image) (S27). FIG. 9 is a diagram illustrating an example of determination results. For example, as shown in (a) of FIG. 9, the detection device 10 determines whether or not an abnormal point is detected in the object 1, and if it is determined that an abnormal point is detected, the abnormal point is detected. The divided image determined as is marked.

検出装置10は、対象物1において異常箇所が検出されたと判定した場合(S27でYes)、画像における異常箇所がマーキングされたマーキング画像(図9の(b)参照)を生成し(S28)、生成されたマーキング画像を判定結果として出力する(S29)。 When the detecting device 10 determines that an abnormal point is detected in the object 1 (Yes in S27), it generates a marking image (see (b) of FIG. 9) in which the abnormal point in the image is marked (S28), The generated marking image is output as a determination result (S29).

一方、検出装置10は、対象物1において異常箇所が検出されていないと判定した場合(S27でNo)、処理を終了する。なお、ステップS27において、検出装置10は、対象物1において異常箇所が検出されていないと判定した場合(No)、音声又は文字で「異常なし」と出力してもよいし、〇などの記号を出力してもよいし、緑色のランプを点灯させて、ユーザに異常が無いことを知らせてもよい。 On the other hand, when the detecting device 10 determines that no abnormal portion is detected in the object 1 (No in S27), the processing ends. In step S27, when the detection device 10 determines that no abnormal portion is detected in the object 1 (No), it may output "no abnormality" by voice or text, or may output a symbol such as ◯. may be output, or a green lamp may be turned on to inform the user that there is no abnormality.

なお、ステップS12において、検出装置10は、ブロックの分割に先立ち、画像に映る対象物1の少なくとも一部以外の領域(言い換えると、画像における対象物1が映っていない領域)を検出対象から除外し、画像において検出対象の領域(以下、対象領域ともいう)を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。この処理を、フィルタリング処理という。フィルタリング処理について図10を参照しながら具体的に説明する。 In step S12, prior to the division of blocks, the detection device 10 excludes areas other than at least a part of the object 1 appearing in the image (in other words, areas in the image in which the object 1 does not appear) from the detection targets. However, the region to be detected in the image (hereinafter also referred to as the target region) may be divided into blocks of the same size as the size used as teacher data when learning the machine learning model. This processing is called filtering processing. The filtering process will be specifically described with reference to FIG.

図10は、フィルタリング処理の一例を示す図である。図10の(a)に示されるように、検出装置10は、画像に映る検出対象(言い換えると、対象物1)を示す対象領域を抽出する。 FIG. 10 is a diagram illustrating an example of filtering processing. As shown in (a) of FIG. 10, the detection device 10 extracts a target region representing a detection target (in other words, target object 1) appearing in an image.

次に、図10の(b)に示されるように、検出装置10は、画像において対象物1が映っていない領域(言い換えると、非対象領域)を塗りつぶすことにより、非対象領域を検出対象から除外する。 Next, as shown in (b) of FIG. 10 , the detection device 10 paints out a region in which the target object 1 is not shown in the image (in other words, a non-target region), thereby removing the non-target region from the detection target. exclude.

次に、図10の(c)に示されるように、検出装置10は、対象領域を、機械学習モデルの学習時に教師データとして使用されたブロックと同じサイズのブロックに分割する。 Next, as shown in (c) of FIG. 10, the detection device 10 divides the target region into blocks of the same size as the blocks used as teacher data when learning the machine learning model.

次に、検出装置10は、ブロック分割された画像を(例えば、図10の(c))を学習済みモデルに入力することにより、画像中の各ブロックにおいて楕円形状物を表す画素が黒く示された出力結果(例えば、図10の(d))を得る。 Next, the detection device 10 inputs the block-divided image (for example, (c) in FIG. 10) to the trained model, so that the pixels representing the elliptical object are shown in black in each block in the image. An output result (for example, (d) in FIG. 10) is obtained.

[効果等]
続いて、本実施の形態に係る検出システム100、検出装置10、検出方法及びプログラムの作用効果について説明する。
[Effects, etc.]
Next, effects of the detection system 100, the detection device 10, the detection method, and the program according to the present embodiment will be described.

上述したように、本実施の形態に係る検出方法は、楕円形状物を含む対象物の少なくとも一部が映る画像を取得し、取得された画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、ブロック分割された画像を、学習済みの機械学習モデルである学習済みモデルに入力することにより得られる、ブロックそれぞれにおける楕円形状物を表す画素の数に基づいて、対象物の異常箇所を検出し、異常箇所の検出において、学習済みモデルから出力された画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する対象物の箇所が異常箇所ではないと判定し、学習済みモデルから出力された画素の数が第1閾値以下である場合、又は、第2閾値以上である場合、当該ブロックに対応する対象物の箇所が異常箇所であると判定する。 As described above, the detection method according to the present embodiment acquires an image showing at least part of an object including an elliptical object, and uses the acquired image as teacher data when learning a machine learning model. The number of pixels representing an elliptical object in each block obtained by dividing the block into blocks of the same size as the block size obtained by dividing the block into blocks and inputting the block-divided image into a trained model, which is a trained machine learning model. Based on the number, an abnormal location of the object is detected, and in detecting the abnormal location, if the number of pixels output from the trained model is greater than the first threshold and less than the second threshold, the block If it is determined that the part of the object corresponding to It is determined that the part of the object is an abnormal part.

このような検出方法を実行する装置は、学習済みモデルを用いて、対象物の少なくとも一部が映る画像をブロック分割した分割画像(いわゆる、ブロック)における複数の楕円形状物を表す画素を簡便にかつ精度良く検出することができる。そのため、検出方法を実行する装置は、楕円形状物を含む対象物の異常箇所を簡便にかつ精度良く検出することができる。 A device that executes such a detection method uses a trained model to easily detect pixels representing a plurality of elliptical objects in divided images (so-called blocks) obtained by dividing an image that captures at least a part of an object into blocks. And it can be detected with high accuracy. Therefore, the device that executes the detection method can easily and accurately detect an abnormal portion of an object including an elliptical object.

また、本実施の形態に係る検出方法は、さらに、対象物において異常箇所が検出された場合、画像における異常箇所がマーキングされたマーキング画像を生成し、生成されたマーキング画像を判定結果として出力してもよい。 Further, in the detection method according to the present embodiment, when an abnormal portion is detected in the object, a marking image is generated by marking the abnormal portion in the image, and the generated marking image is output as a determination result. may

このような検出方法を実行する装置は、ユーザに対象物の異常箇所を視認しやすい形で出力することができる。 An apparatus that executes such a detection method can output an abnormal portion of an object to a user in an easily recognizable form.

また、本実施の形態に係る検出方法は、ブロックの分割に先立ち、画像に映る対象物の少なくとも一部以外の領域を検出対象から除外し、画像において検出対象の領域を、機械学習モデルの学習時に教師データとして使用されたサイズと同じサイズのブロックに分割してもよい。 Further, in the detection method according to the present embodiment, prior to block division, areas other than at least a part of the object appearing in the image are excluded from the detection target, and the detection target area in the image is used for learning of the machine learning model. It may sometimes be divided into blocks of the same size as the size used as teacher data.

このような検出方法を実行する装置は、対象物が映る領域のみ検出対象とするため、効率的に楕円形状物の検出処理を行うことができる。そのため、検出方法を実行する装置は、より効率良く対象物の異常箇所を検出することができる。 An apparatus that executes such a detection method detects only an area in which an object is captured, so that an elliptical object can be efficiently detected. Therefore, the device that executes the detection method can more efficiently detect the abnormal portion of the object.

また、本実施の形態に係る検出方法では、機械学習モデルは、畳み込みニューラルネットワークであってもよい。 Further, in the detection method according to this embodiment, the machine learning model may be a convolutional neural network.

このような検出方法を実行する装置は、画像を入力とする畳み込み演算を効率良く行うことができる。 A device that executes such a detection method can efficiently perform a convolution operation using an image as an input.

また、本実施の形態に係る検出方法では、機械学習モデルの学習に使用される教師データは、対象物の少なくとも一部が映る第1画像をサイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックをずらして上記サイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データとを含んでもよい。 Further, in the detection method according to the present embodiment, the teacher data used for learning the machine learning model includes a plurality of first blocks obtained by dividing a first image in which at least a part of the object is shown, and the first blocks. First data composed of annotations indicating areas of each of a plurality of elliptical objects included in one block, and the first image is re-divided into the above size by shifting the first block within a range not exceeding the first block. It may include second data composed of a plurality of second blocks and annotations indicating regions of the plurality of elliptical objects included in the second blocks.

このような検出方法を実行する装置は、少ない画像から多くの教師データを生成することができるため、機械学習モデルの学習効果が向上し、機械学習モデルによる楕円形状物の検出精度が向上する。そのため、検出方法を実行する装置は、対象物に含まれる楕円形上物をより簡便にかつ精度良く検出することができる。 A device that executes such a detection method can generate a large amount of teacher data from a small number of images, thereby improving the learning effect of the machine learning model and improving the detection accuracy of an elliptical object by the machine learning model. Therefore, the device that executes the detection method can more easily and accurately detect the elliptical object included in the object.

(他の実施の形態)
以上、本開示に係る検出方法及びプログラムについて、上記各実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思い付く各種変形を実施の形態に施したものも、本開示の範囲に含まれてもよい。
(Other embodiments)
As described above, the detection method and program according to the present disclosure have been described based on the above embodiments, but the present disclosure is not limited to these embodiments. As long as they do not deviate from the gist of the present disclosure, various modifications that can be conceived by those skilled in the art may be included in the scope of the present disclosure.

また、上記実施の形態に係る検出システム、検出装置、検出方法及びプログラムに含まれる各部は典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Further, each unit included in the detection system, detection device, detection method, and program according to the above embodiments is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリ等の記憶媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In each of the above-described embodiments, each component may be configured by dedicated hardware, or realized by executing a software program suitable for each component. Each component may be implemented by a program execution unit such as a CPU or processor reading and executing a software program recorded in a storage medium such as a hard disk or semiconductor memory.

また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。 In addition, the numbers used above are all examples for specifically describing the present disclosure, and the embodiments of the present disclosure are not limited to the illustrated numbers.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Also, the division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be moved to other functional blocks. may Moreover, single hardware or software may process the functions of a plurality of functional blocks having similar functions in parallel or in a time-sharing manner.

また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, the order in which each step in the flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and orders other than the above may be used. Also, some of the above steps may be executed concurrently (in parallel) with other steps.

なお、上記の各実施の形態に対して当業者が思い付く各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。 It should be noted that any form obtained by applying various modifications that a person skilled in the art can come up with to the above-described embodiments, or by arbitrarily combining the constituent elements and functions in each embodiment without departing from the scope of the present disclosure. Any form is also included in the present disclosure.

以下、実施例にて本開示に係る検出装置及び検出方法について具体的に説明するが、本開示は以下の実施例のみに何ら限定されるものではない。 The detection apparatus and detection method according to the present disclosure will be specifically described below in Examples, but the present disclosure is not limited to the following Examples.

以下では、機械学習モデルとしてDeepCrack Networkを用いて、布製品の織目の異常箇所の検出を行った。異常箇所がない布製品の画像を使用した。 In the following, DeepCrack Network was used as a machine learning model to detect an abnormal portion of the texture of a cloth product. An image of a fabric product with no abnormalities was used.

布製品は、複数のたて糸と複数のよこ糸で構成されており、たて糸がよこ糸の上下に織られることにより、複数の織目が発現する。その織目の1つ1つが米粒状(いわゆる、楕円形状)に見える。これらの織目は布製品の表面に現れる。しかしながら、織りが崩れた場合、織目は平面視で米粒状にならない。例えば、(1)本来、たて糸がよこ糸の表側を通過すべきところを、裏側を通過した場合、その部分のたて糸は表面に現れず、織目が無い状態となる。また、(2)本来、たて糸がよこ糸の裏側を通過すべきところを、表側を通過した場合、本来織目のない部分に織目が表面に現れるため、織目が大きくなる。以下では、楕円形状物として織目を含む布製品を対象物として、比較例1及び実施例1における楕円形状物の検出精度を検証した。比較例2及び実施例2では、上記の布製品の異常箇所に対する楕円形状物の検出精度を検証した。 Cloth products are composed of a plurality of warp threads and a plurality of weft threads, and the warp threads are woven above and below the weft threads to create a plurality of textures. Each texture looks like rice grains (so-called elliptical shape). These textures appear on the surface of the fabric. However, when the weave collapses, the texture does not look like rice grains when viewed from above. For example, (1) when the warp threads pass through the back side of the weft threads when they should pass through the front side of the weft threads, the warp threads in that portion do not appear on the surface, resulting in a state of no texture. (2) When the warp thread passes through the front side of the weft thread instead of the back side of the weft thread, the weave pattern appears on the front side of the weft thread, resulting in a large weave pattern. In the following, the detection accuracy of an elliptical object in Comparative Example 1 and Example 1 was verified using a cloth product including textures as an elliptical object. In Comparative Example 2 and Example 2, the detection accuracy of the elliptical object in the above-described abnormal portion of the cloth product was verified.

(比較例1)
比較例1では、従来の方法で生成した教師データを用いて学習した機械学習モデルを使用した。比較例1の教師データは、布製品が映る画像(第1画像という)を所定のサイズのブロックで分割した複数のブロック(以下、第1ブロックという)と、当該第1ブロックに含まれる複数の織目それぞれの領域を示すアノテーションとで構成されたデータ(以下、第1データという)を含む。比較例1の検出方法で検出した結果を図11に示す。図11は、比較例1及び実施例1の結果を示す図である。図11では、楕円形状物(ここでは、織目)を表す画素は黒色で示される。図11に示されるように、比較例1では、黒色を示す画素がまばらであり、織目の検出精度はあまり良くなかった。
(Comparative example 1)
In Comparative Example 1, a machine learning model trained using teacher data generated by a conventional method was used. The training data of Comparative Example 1 includes a plurality of blocks (hereinafter referred to as first blocks) obtained by dividing an image showing a cloth product (referred to as a first image) into blocks of a predetermined size (hereinafter referred to as first blocks), and a plurality of blocks included in the first blocks. Annotations indicating areas of each texture (hereinafter referred to as first data). The results detected by the detection method of Comparative Example 1 are shown in FIG. 11 is a diagram showing the results of Comparative Example 1 and Example 1. FIG. In FIG. 11, pixels representing ellipses (here, weaves) are shown in black. As shown in FIG. 11, in Comparative Example 1, black pixels were sparse, and the texture detection accuracy was not so good.

(実施例1)
実施例1では、本開示の方法で生成した教師データを用いて学習した機械学習モデルを使用した。実施例1では、教師データを生成するために使用した画像は、比較例1と同じ画像を用いたが、教師データの生成方法が異なる。そのため、1つの画像から比較例1より多くの学習用画像データを生成することができた。実施例1の教師データは、布製品が映る画像(いわゆる、第1画像)を比較例1と同じサイズのブロックで分割した複数のブロック(いわゆる、第1ブロック)と、当該第1ブロックに含まれる複数の織目それぞれの領域を示すアノテーションとで構成された第1データと、第1画像において第1ブロックを超えない範囲で第1ブロックを縦横斜めのいずれかにずらして、比較例1と同じサイズに再分割した複数のブロック(これを第2ブロックという)と、当該第2ブロックに含まれる複数の網目それぞれの領域を示すアノテーションとで構成された第2データと、を含む。実施例1の検出方法で検出した結果を図11に示す。
(Example 1)
In Example 1, a machine learning model trained using teacher data generated by the method of the present disclosure was used. In Example 1, the same image as in Comparative Example 1 was used as the image used to generate the teacher data, but the method of generating the teacher data was different. Therefore, more learning image data than Comparative Example 1 could be generated from one image. The training data of Example 1 includes a plurality of blocks (so-called first blocks) obtained by dividing an image showing a cloth product (so-called first image) into blocks of the same size as those of Comparative Example 1 (so-called first blocks), and The first data composed of annotations indicating the areas of each of the plurality of textures, and the first block in the first image is shifted vertically, horizontally, or diagonally within a range not exceeding the first block, and Comparative Example 1 and It includes second data composed of a plurality of blocks subdivided into the same size (referred to as second blocks) and annotations indicating regions of each of the plurality of meshes included in the second blocks. The results detected by the detection method of Example 1 are shown in FIG.

図11に示されるように、黒色を示す画素が密に見られ、比較例1よりも織目の検出精度が向上したことが確認できた。 As shown in FIG. 11 , black pixels were seen densely, and it was confirmed that the texture detection accuracy was improved as compared with Comparative Example 1.

(比較例2)
比較例2では、布製品の異常箇所を含む画像を機械学習モデルに入力して異常検出を行った点以外、比較例1と同様に行った。比較例2の検出方法で検出した結果を図12に示す。図12は、比較例2及び実施例2の結果を示す図である。図12に示されるように、入力画像の左側には、糸が編み込まれずに布製品の表面に飛び出した異常箇所が含まれている。図12では、図11と同様に、楕円形状物(ここでは、織目)を表す画素は黒色で示される。
(Comparative example 2)
Comparative Example 2 was performed in the same manner as Comparative Example 1, except that an image including an abnormal portion of the cloth product was input to the machine learning model to detect the abnormality. The results of detection by the detection method of Comparative Example 2 are shown in FIG. 12 is a diagram showing the results of Comparative Example 2 and Example 2. FIG. As shown in FIG. 12, the left side of the input image includes an abnormal portion where the yarn is not knitted and protrudes to the surface of the cloth product. In FIG. 12, as in FIG. 11, pixels representing elliptical objects (here, weaves) are shown in black.

図12に示されるように、比較例2では、糸が飛び出ている異常箇所に複数の織目が存在するかのように画素が黒色で示されている。つまり、比較例2では、糸が飛び出て織目が存在しない箇所に織目が存在すると誤検出している。その結果、総ピクセル数の変化が小さくなるため、入力画像に示される範囲に異常がないと判定される。 As shown in FIG. 12, in Comparative Example 2, the pixels are shown in black as if a plurality of weaves existed in the abnormal portion where the thread protruded. In other words, in Comparative Example 2, it is erroneously detected that the texture is present in a portion where the yarn is protruded and the texture is not present. As a result, since the change in the total number of pixels is small, it is determined that there is no abnormality in the range shown in the input image.

(実施例2)
実施例2では、比較例2と同様に、布製品の異常箇所を含む画像を機械学習モデルに入力して異常検出を行った以外、実施例1と同様に行った。実施例2の検出方法で検出した結果を図12に示す。
(Example 2)
In Example 2, as in Comparative Example 2, the same procedure as in Example 1 was performed, except that an image including an abnormal portion of the cloth product was input to the machine learning model to detect an abnormality. The results detected by the detection method of Example 2 are shown in FIG.

図12に示されるように、実施例2では、糸が飛び出ている異常箇所において、飛び出た糸の形状に沿った形に画素が黒色で示されている。その結果、総ピクセル数の変化が大きくなるため、入力画像に示される範囲に異常があると判定される。 As shown in FIG. 12, in Example 2, pixels are shown in black along the shape of the protruding thread at the abnormal location where the thread protrudes. As a result, the change in the total number of pixels increases, and it is determined that there is an abnormality in the range shown in the input image.

(まとめ)
比較例1、2及び実施例1、2の結果から、本開示の方法で教師データを生成すると、1つの画像から生成される学習用画像データ(いわゆる、分割画像)のそれぞれが、第1ブロックを超えない範囲で第1ブロックを縦横斜めのいずれかにずらして第2ブロック、第3ブロック、第4ブロックなどを生成するため、第2ブロック、第3ブロック、及び第4ブロックのそれぞれが第1ブロックと重複する領域を有している。このように1つの画像(第1画像)に対して分割メッシュをずらして再分割して生成された分割画像を機械学習に使用することにより、容易により学習効果を高めることができ、結果的に、検出精度が向上することが確認できた。
(summary)
From the results of Comparative Examples 1 and 2 and Examples 1 and 2, when teacher data is generated by the method of the present disclosure, each of the learning image data (so-called divided images) generated from one image is the first block In order to generate the second block, third block, fourth block, etc. by shifting the first block vertically, horizontally, or diagonally within a range not exceeding It has an area that overlaps with one block. By using the divided images generated by re-dividing one image (first image) by shifting the division mesh in this way for machine learning, the learning effect can be easily enhanced, and as a result , it was confirmed that the detection accuracy was improved.

本開示は、楕円形状物を簡便にかつ精度良く検出することができるため、例えば、楕円形状物を含む対象物の異常箇所を簡便に精度良く検出することができる。したがって、本開示は、食品、工業製品、又は、日用品などの様々な分野における製品の品質検査に利用可能である。 INDUSTRIAL APPLICABILITY According to the present disclosure, an elliptical object can be detected simply and accurately, and therefore, for example, an abnormal portion of an object including an elliptical object can be easily and accurately detected. Therefore, the present disclosure can be used for quality inspection of products in various fields such as foods, industrial products, or daily necessities.

1 対象物
10 検出装置
11 通信部
12 制御部
12a 取得部
12b 画像処理部
12c 判定部
12d 出力部
13 記憶部
14 学習部
15 表示部
16 操作受付部
20 照明装置
30 撮像装置
40 搬送装置
100 検出システム
Reference Signs List 1 target object 10 detection device 11 communication unit 12 control unit 12a acquisition unit 12b image processing unit 12c determination unit 12d output unit 13 storage unit 14 learning unit 15 display unit 16 operation reception unit 20 illumination device 30 imaging device 40 transport device 100 detection system

Claims (6)

楕円形状物を含む対象物の少なくとも一部が映る画像を取得し、
取得された前記画像を、機械学習モデルの学習時に教師データに使用されたブロックのサイズと同じサイズのブロックでブロック分割し、
ブロック分割された前記画像を、学習済みの前記機械学習モデルである学習済みモデルに入力することにより得られる、前記ブロックそれぞれにおける前記楕円形状物を表す画素の数に基づいて、前記対象物の異常箇所を検出し、
前記異常箇所の検出において、
前記学習済みモデルから出力された前記画素の数が第1閾値よりも多く、かつ、第2閾値よりも少ない場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所ではないと判定し、
前記学習済みモデルから出力された前記画素の数が前記第1閾値以下である場合、又は、前記第2閾値以上である場合、当該ブロックに対応する前記対象物の箇所が前記異常箇所であると判定する
検出方法。
Acquiring an image showing at least part of an object including an elliptical object,
dividing the obtained image into blocks of the same size as the block size used for the teacher data when learning the machine learning model;
An abnormality of the object based on the number of pixels representing the elliptical object in each of the blocks obtained by inputting the block-divided image into a learned model that is the machine learning model that has been learned. detect the point,
In detecting the abnormal location,
when the number of pixels output from the trained model is greater than a first threshold and less than a second threshold, determining that the location of the object corresponding to the block is not the abnormal location;
When the number of pixels output from the trained model is equal to or less than the first threshold or equal to or greater than the second threshold, the part of the object corresponding to the block is determined to be the abnormal part. Determine detection method.
さらに、前記対象物において前記異常箇所が検出された場合、前記画像における前記異常箇所がマーキングされたマーキング画像を生成し、
生成された前記マーキング画像を判定結果として出力する
請求項1に記載の検出方法。
Further, when the abnormal point is detected in the object, generating a marking image in which the abnormal point in the image is marked,
The detection method according to claim 1, wherein the generated marking image is output as a determination result.
前記ブロックの分割に先立ち、前記画像に映る前記対象物の少なくとも一部以外の領域を検出対象から除外し、
前記画像において前記検出対象の領域を、前記機械学習モデルの学習時に前記教師データとして使用されたサイズと同じサイズのブロックに分割する
請求項1又は2に記載の検出方法。
prior to dividing the blocks, excluding an area other than at least a part of the object appearing in the image from a detection target;
3. The detection method according to claim 1, wherein the area to be detected in the image is divided into blocks of the same size as the teacher data used when learning the machine learning model.
前記機械学習モデルは、畳み込みニューラルネットワークである
請求項1~3のいずれか1項に記載の検出方法。
The detection method according to any one of claims 1 to 3, wherein the machine learning model is a convolutional neural network.
前記機械学習モデルの学習に使用される前記教師データは、
対象物の少なくとも一部が映る第1画像を前記サイズに分割した複数の第1ブロックと、当該第1ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第1データと、
前記第1画像において前記第1ブロックを超えない範囲で前記第1ブロックをずらして前記サイズに再分割した複数の第2ブロックと、当該第2ブロックに含まれる複数の楕円形状物それぞれの領域を示すアノテーションとで構成された第2データと
を含む
請求項1~4のいずれか1項に記載の検出方法。
The teacher data used for learning the machine learning model is
First data composed of a plurality of first blocks obtained by dividing a first image showing at least part of an object into the size, and annotations indicating regions of each of the plurality of elliptical objects included in the first blocks. When,
a plurality of second blocks obtained by shifting the first block in the first image and redividing the first block into the size within a range not exceeding the first block; The detection method according to any one of claims 1 to 4, comprising: second data composed of annotations indicating
請求項1~5のいずれか1項に記載の検出方法をコンピュータに実行させるための
プログラム。
A program for causing a computer to execute the detection method according to any one of claims 1 to 5.
JP2021094120A 2021-06-04 2021-06-04 Detection method and program Pending JP2022186079A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021094120A JP2022186079A (en) 2021-06-04 2021-06-04 Detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094120A JP2022186079A (en) 2021-06-04 2021-06-04 Detection method and program

Publications (1)

Publication Number Publication Date
JP2022186079A true JP2022186079A (en) 2022-12-15

Family

ID=84441912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094120A Pending JP2022186079A (en) 2021-06-04 2021-06-04 Detection method and program

Country Status (1)

Country Link
JP (1) JP2022186079A (en)

Similar Documents

Publication Publication Date Title
CN111044525B (en) Product defect detection method, device and system
CN111060520B (en) Product defect detection method, device and system
CN111179253A (en) Product defect detection method, device and system
JP6619732B2 (en) Method and system for classifying and identifying individual cells in a microscopic image
JP6955211B2 (en) Identification device, identification method and program
JP2014089626A (en) Image detection device and control program and image detection method
CN110517283A (en) Attitude Tracking method, apparatus and computer readable storage medium
US20120328199A1 (en) Method for detecting facial features
TWI743837B (en) Training data increment method, electronic apparatus and computer-readable medium
US11769248B2 (en) Image processing device, image processing method, and image processing non-transitory computer readable medium for verifying detectable range of defect image
US20200410312A1 (en) Methods and arrangements for localizing machine-readable indicia
JP2016191589A (en) Defect classification device defect classification method
CN108108678B (en) Tungsten ore identification and separation method
TW201706961A (en) Generating a disparity map based on stereo images of a scene
KR20220084753A (en) Sewing defect detecting method using neural network, sewing defect detecting system and analysis apparatus
CN113066088A (en) Detection method, detection device and storage medium in industrial detection
WO2023052537A1 (en) Method for detecting at least one defect on a support, device and computer program associated
JP2022186079A (en) Detection method and program
CN110349133B (en) Object surface defect detection method and device
CN111046706B (en) Fingerprint identification method and electronic device using same
JP2021026599A (en) Image processing system
JP7302410B2 (en) Image recognition device, image recognition system, image recognition method and program
JP7375161B2 (en) Learning data creation device, method, program, and recording medium
JP6331914B2 (en) Algorithm generating apparatus, algorithm generating method and algorithm generating computer program
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240530