JP2024004458A - Inspection equipment and PTP packaging machine - Google Patents
Inspection equipment and PTP packaging machine Download PDFInfo
- Publication number
- JP2024004458A JP2024004458A JP2023078284A JP2023078284A JP2024004458A JP 2024004458 A JP2024004458 A JP 2024004458A JP 2023078284 A JP2023078284 A JP 2023078284A JP 2023078284 A JP2023078284 A JP 2023078284A JP 2024004458 A JP2024004458 A JP 2024004458A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- identification means
- learning
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 190
- 238000004806 packaging method and process Methods 0.000 title claims description 13
- 230000002950 deficient Effects 0.000 claims abstract description 149
- 238000013528 artificial neural network Methods 0.000 claims abstract description 121
- 238000012545 processing Methods 0.000 claims description 147
- 238000003860 storage Methods 0.000 claims description 107
- 238000012790 confirmation Methods 0.000 claims description 78
- 238000013500 data storage Methods 0.000 claims description 32
- 230000001960 triggered effect Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 5
- 238000000034 method Methods 0.000 description 180
- 230000008569 process Effects 0.000 description 169
- 239000010408 film Substances 0.000 description 90
- 239000003826 tablet Substances 0.000 description 51
- 238000012937 correction Methods 0.000 description 38
- 238000012360 testing method Methods 0.000 description 30
- 238000000465 moulding Methods 0.000 description 28
- 230000007547 defect Effects 0.000 description 27
- 239000010410 layer Substances 0.000 description 23
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 239000007789 gas Substances 0.000 description 12
- 239000013039 cover film Substances 0.000 description 11
- 238000005286 illumination Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000010438 heat treatment Methods 0.000 description 9
- 238000011109 contamination Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 238000004080 punching Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000002834 transmittance Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000003252 repetitive effect Effects 0.000 description 4
- 239000004743 Polypropylene Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000011179 visual inspection Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005336 cracking Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- -1 polypropylene Polymers 0.000 description 2
- 229920001155 polypropylene Polymers 0.000 description 2
- 239000004800 polyvinyl chloride Substances 0.000 description 2
- 229920000915 polyvinyl chloride Polymers 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 108010010803 Gelatin Proteins 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013474 audit trail Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000498 cooling water Substances 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000008298 dragée Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000002662 enteric coated tablet Substances 0.000 description 1
- 239000007941 film coated tablet Substances 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000008273 gelatin Substances 0.000 description 1
- 229920000159 gelatin Polymers 0.000 description 1
- 235000019322 gelatine Nutrition 0.000 description 1
- 235000011852 gelatine desserts Nutrition 0.000 description 1
- 239000007902 hard capsule Substances 0.000 description 1
- 239000011261 inert gas Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000006191 orally-disintegrating tablet Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000565 sealant Substances 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 239000007901 soft capsule Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000007940 sugar coated tablet Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 229920006352 transparent thermoplastic Polymers 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Containers And Plastic Fillers For Packaging (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、所定の検査対象物を検査するための検査装置及びポケット部に錠剤が収容されてなるPTPシートを製造するためのPTP包装機に関する。 The present invention relates to an inspection device for inspecting a predetermined inspection object and a PTP packaging machine for producing a PTP sheet in which tablets are accommodated in pockets.
一般に医薬品や食料品等の分野において用いられるブリスタシートとしてPTP(プレススルーパック)シートが知られている。PTPシートは、錠剤が収容されるポケット部を有する容器フィルムと、その容器フィルムに対しポケット部の開口側を密封するように取着されるカバーフィルムとを備えている。 PTP (Press Through Pack) sheets are known as blister sheets that are generally used in the fields of pharmaceuticals, foodstuffs, and the like. The PTP sheet includes a container film having a pocket portion in which a tablet is accommodated, and a cover film attached to the container film so as to seal the opening side of the pocket portion.
また、所定の検査装置によって、PTPシートや錠剤などの検査対象物の外観検査を行うことがある。近年では、ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成したAIモデルを用いて、検査対象物の外観検査を行う検査装置が提案されている(例えば、特許文献1,2等参照)。
Further, a predetermined inspection device may perform an appearance inspection of an inspection target such as a PTP sheet or a tablet. In recent years, inspection devices have been proposed that perform visual inspections of inspection objects using an AI model generated by training a neural network with only image data related to non-defective inspection objects as learning data (e.g. ,
ところで、AIモデルを用いた検査装置によって、良品の検査対象物を不良品であると判定するなどの誤判定が生じることがある。この場合、AIモデルのニューラルネットワークに対し、その誤判定に係る画像データを追加学習させることで、誤判定の発生低減を図ることができる。 By the way, an inspection apparatus using an AI model may make an erroneous determination, such as determining a good product to be inspected as a defective product. In this case, by causing the neural network of the AI model to additionally learn the image data related to the erroneous determination, it is possible to reduce the occurrence of erroneous determinations.
しかしながら、追加学習を重ねるにつれて、ニューラルネットワークにおける過学習が生じ、結果的に、不良品の検査対象物を良品であると誤判定する等の事態(過学習による誤判定)が生じ得る。このような事態が生じた場合、従前では、AIモデルを初期状態(例えば工場出荷時や無学習の状態)に戻すといった対応が取られているため、過去の追加学習を何ら生かすことができなくなるおそれがある。 However, as additional learning is repeated, overlearning occurs in the neural network, and as a result, a situation such as erroneously determining that a defective inspection object is a non-defective item (erroneous determination due to overlearning) may occur. When this kind of situation occurs, the conventional approach is to return the AI model to its initial state (for example, to factory shipment or no learning state), making it impossible to make any use of past additional learning. There is a risk.
本発明は、上記事情に鑑みてなされてものであり、その目的は、過去の追加学習を生かしつつ、検査精度の向上を図ることができる検査装置などを提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to provide an inspection device and the like that can improve inspection accuracy while making use of past additional learning.
以下、上記目的を解決するのに適した各手段につき、項分けして説明する。なお、必要に応じて対応する手段に特有の作用効果を付記する。 In the following, each means suitable for solving the above object will be explained in terms of sections. Note that effects specific to the corresponding means will be added as necessary.
手段1.所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークによって、入力された画像データに応じた画像データを出力可能に構成された識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成した、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記画像データ取得手段により得られた画像データである元画像データを、前記学習済識別手段に入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
前記元画像データと、該元画像データを前記学習済識別手段に入力して取得された前記再構成画像データとを比較し、比較結果に基づき検査対象物の良否を判定可能な判定手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段を記憶する識別手段記憶手段と、
前記旧識別手段から、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段とを備え、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、不良品の検査対象物が良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定の要因として特定された前記追加学習データである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする検査装置。
an image data acquisition means capable of acquiring image data related to the inspection target;
It is possible to output image data according to the input image data by using a neural network that has an encoding unit that extracts feature quantities from input image data and a decoding unit that reconstructs image data from the feature quantities. a trained identification means, which is the learned identification means, which is generated by causing the neural network of the configured identification means to learn only image data related to a non-defective inspection object as learning data;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to a non-defective inspection object as additional learning data;
Reconstructed image data acquisition means capable of inputting original image data, which is image data obtained by the image data acquisition means, into the learned identification means and acquiring reconstructed image data as reconstructed image data;
a determining unit capable of comparing the original image data and the reconstructed image data obtained by inputting the original image data to the learned identifying unit, and determining the quality of the inspection target based on the comparison result;
identification means storage means for storing the old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed;
Specific learning data that stores all of the specific learning data that is the additional learning data that was used to generate the current identification means that is the learned identification means that is used for inspecting the inspection object from the old identification means. and storage means;
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and performs a quality determination by the determination means based on the reconstructed image data, thereby inspecting defective products. When the target object is erroneously determined to be a good product, the neural network of the old identification means stored in the identification means storage means receives the erroneous judgment which is the additional learning data identified as the cause of the erroneous judgment. An inspection device characterized in that it is configured to be able to generate a new learned identification means by learning the specific learning data excluding factor data.
尚、上記手段1にて「学習データ」として用いる「良品の検査対象物に係る画像データ」としては、これまでの検査で蓄積された良品の検査対象物に係る画像データや、作業者が目視により選別した良品の検査対象物に係る画像データ、これら画像データなどを用いて生成した仮想良品画像データなどを挙げることができる。
In addition, the "image data related to non-defective inspection objects" used as "learning data" in the
加えて、上記手段1における「学習済識別手段」は、良品の検査対象物に係る画像データのみを学習させて生成したものであるため、不良品の検査対象物に係る元画像データを学習済識別手段に入力したときに生成される再構成画像データは、ノイズ部分(不良部分)が除去された元画像データとほぼ一致することになる。すなわち、検査対象物に不良部分があるときには、再構成画像データとして、不良部分がないものと仮定した場合の該検査対象物に係る仮想的な画像データが生成される。
In addition, the "trained identification means" in the
また、上記「ニューラルネットワーク」には、例えば複数の畳み込み層を有する畳み込みニューラルネットワークなどが含まれる。上記「学習」には、例えば深層学習(ディープラーニング)などが含まれる。上記「識別手段(生成モデル)」には、例えばオートエンコーダ(自己符号化器)や、畳み込みオートエンコーダ(畳み込み自己符号化器)などが含まれる(手段6においても同様)。 Furthermore, the above-mentioned "neural network" includes, for example, a convolutional neural network having a plurality of convolutional layers. The above "learning" includes, for example, deep learning. The above-mentioned "identification means (generation model)" includes, for example, an autoencoder (self-encoder), a convolutional autoencoder (convolutional self-encoder), etc. (the same applies to the means 6).
さらに、「旧識別手段」は、ニューラルネットワークに対する学習が行われた識別手段のみならず、ニューラルネットワークが未学習の状態の識別手段も含む(手段6においても同様)。 Furthermore, the "old identification means" includes not only identification means for which neural network learning has been performed, but also identification means for which the neural network has not been trained (the same applies to means 6).
上記手段1によれば、元画像データと、該元画像データを学習済識別手段へ入力して再構成された再構成画像データとを比較し、その比較結果に基づき、検査対象物の良否を判定することができる。そのため、比較する両画像データは、それぞれ同一の検査対象物に係るものとなる。従って、比較する両画像データにおいて、検査対象物の形状や外観はそれぞれほぼ同一となるため、形状や外観の違いによる誤検出を防止するために比較的緩い判定条件を設定する必要はなく、より厳しい判定条件を設定することができる。さらに、比較する両画像データにおいて、画像データを得る際の条件(例えばカメラに対する検査対象物の配置位置や配置角度、明暗状態やカメラの画角等)を一致させることができる。これらの結果、良否判定を非常に精度よく行うことができる。
According to the
また、上記手段1によれば、現用識別手段に元画像データを入力して再構成された再構成画像データに基づく良否判定により、不良品の検査対象物が良品であると誤判定された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習手段は、追加学習が一部又は全部行われていない段階の識別手段(現用識別手段よりも前の段階の識別手段)である旧識別手段(例えば初期AIモデル)のニューラルネットワークに対する学習を行い、新たな学習済識別手段を生成する。このとき、追加学習手段は、旧識別手段のニューラルネットワークに対し、旧識別手段から現用識別手段を生成するにあたって用いられた追加学習データである特定学習データのうち、前記誤判定の要因として特定された追加学習データ以外のデータを学習させる。そのため、新たに生成される学習済識別手段において、過去の追加学習データを生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、不良品の検査対象物が良品であると誤判定されることをより確実に防止でき、検査精度を高めることができる。
Further, according to the
加えて、追加学習手段は、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された旧識別手段のニューラルネットワークに対して学習を行う。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数の検査対象物に対する検査を、迅速に、かつ、効率よく行うことができる。 In addition, the additional learning means performs learning on the neural network of the old identification means stored in the identification means storage means, rather than on the neural network of the current identification means used in the test. Therefore, processing related to learning of a neural network and processing related to extraction (identification) of data causing false judgments, which can be a hugely repetitive process, can be performed without stopping the test. Thereby, inspection of a large number of inspection objects can be performed quickly and efficiently.
手段2.前記識別手段記憶手段は、前記現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段を記憶しており、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、良品の検査対象物が不良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする手段1に記載の検査装置。
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and determines whether the inspection object is a non-defective product based on the quality judgment of the judgment means based on the reconstructed image data. When an object is erroneously determined to be defective, the neural network of the duplicate current identification means stored in the identification means storage means is additionally trained with the original image data that caused the erroneous determination. , the inspection device according to
上記手段2によれば、良品の検査対象物が不良品であると誤判定された場合、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済識別手段を生成することが可能である。従って、良品の検査対象物が不良品であると誤判定されることをより確実に防止な学習済識別手段を生成することが可能となり、検査精度をより高めることができる。
According to the
また、上記手段2によれば、検査に利用されている現用識別手段とは別に記憶された、複製現用識別手段を追加学習の対象とするため、追加学習のために検査を停止させる必要はない。従って、検査に係る迅速性や効率性をより高めることができる。
Further, according to the above-mentioned
手段3.前記判定手段の良否判定によって不良品の検査対象物が良品であると誤判定された場合における、その誤判定に係る前記元画像データである不良画像データを記憶する不良画像データ記憶手段と、
前記不良画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする手段1に記載の検査装置。
Means 3. a defective image data storage means for storing defective image data that is the original image data related to the erroneous determination when the defective inspection object is erroneously determined to be a good product by the quality determination of the determination means;
2. The inspection device according to
尚、要因データ特定手段としては、例えば、不良画像データに対する特定学習データの類似度(例えば、不良画像データから抽出される特徴量と、特定学習データから抽出される特徴量とに基づく、両画像データの類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも不良画像データを学習させて生成したAI)を有し、算出された類似度と所定の閾値との比較結果に基づき、誤判定要因データの特定を行うものなどを挙げることができる。 Note that the factor data specifying means includes, for example, similarity between specific learning data and defective image data (e.g., similarity between both images based on the feature amount extracted from the defective image data and the feature amount extracted from the specific learning data). It has a publicly known similarity determination means (for example, an AI generated by training a neural network with at least defective image data) that can calculate a score indicating the degree of similarity of data), and the calculated similarity and a predetermined An example of this method is one that identifies data that causes erroneous determination based on a comparison result with a threshold value.
上記手段3によれば、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である不良画像データに対する類似度に基づき、特定学習データの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済識別手段を用いた検査に係る精度をより確実に高めることができる。 According to the above means 3, based on the degree of similarity to the defective image data that is the original image data related to the misjudgment (the original image data that caused the misjudgment), the misjudgment factor data (the misjudgment cause data) is selected from the specific learning data. Additional learning data that may be the cause can be identified. Therefore, the erroneous determination factor data can be specified more accurately, and in turn, the accuracy of the test using the newly generated learned identification means can be more reliably increased.
手段4.新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して再構成された前記再構成画像データに基づき、前記判定手段による良否判定を行わせることで、新たに生成された前記学習済識別手段の学習状態を確認する画像出力AI用の確認手段を備えることを特徴とする手段1に記載の検査装置。
上記手段4によれば、新たに生成された学習済識別手段において、該学習済識別手段の生成の契機となった誤判定に係る元画像データに基づく誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。また、万が一新たに生成された学習済識別手段を用いた検査でも同様の誤判定が生じることが確認されたときには、そのような誤判定への対処〔別手法による誤判定要因データの再特定を行うとともに、再特定された誤判定要因データを除いた上での再度の学習や、学習以外の対処(例えば、元画像データと再構成画像データとを比較する段階で用いる閾値の見直しなど)など〕を簡便に行うことが可能となる。
According to the above-mentioned
手段5.前記追加学習手段による学習処理に係る情報、及び、前記画像出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする手段4に記載の検査装置。
4. The inspection device according to
上記手段5によれば、検査に利用されている現用識別手段を、新たに生成された学習済識別手段に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。 According to the above means 5, it is possible to more reliably prevent unintentional replacement of the currently used identification means used in the test with the newly generated learned identification means. This makes it possible to more reliably prevent problems caused by unintended replacement.
手段6.所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力された画像データを所定の項目で分類し、分類結果を出力可能に構成された識別手段のニューラルネットワークに対し、良品及び不良品の検査対象物に係る画像データを学習データとして学習させることで生成してなる、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段と、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段とを記憶する識別手段記憶手段と、
前記旧識別手段から前記現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段と、
前記追加学習手段は、前記現用識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じた場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能であり、
新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して出力された分類結果に基づき、新たに生成された前記学習済識別手段の学習状態を確認する分類出力AI用の確認手段によって、学習状態が適切であると判定された場合には、前記現用識別手段を、新たに生成された前記学習済識別手段に置換可能と判断する一方、
新たに生成された前記学習済識別手段に対し前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合には、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータであり、かつ、その誤判定の要因として特定されたデータである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能であることを特徴とする検査装置。
an image data acquisition means capable of acquiring image data related to the inspection target;
The neural network of the identification means, which is configured to classify input image data according to predetermined items and output the classification results, is trained by using image data related to inspected objects for good and defective products as learning data. a learned identification means that is the learned identification means that is generated;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to the inspection object as additional learning data;
The old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed, and the current identification means, which is the learned identification means, which is used for the inspection of the inspection object. Separately, an identification means storage means for storing a duplicate current identification means which is the identification means having the same content as the current identification means;
specific learning data storage means for storing all specific learning data that is the additional learning data used in generating the current identification means from the old identification means;
The additional learning means is configured to control the neural network of the duplicate current identification means stored in the identification means storage means when an erroneous determination occurs in the classification result output by inputting the original image data to the current identification means. , it is possible to generate a new learned identification means by additionally learning the original image data that caused the misjudgment,
Based on the classification result output by inputting the original image data related to the erroneous judgment that triggered the generation of the learned identification means to the newly generated learned identification means, If the classification output AI confirmation means for confirming the learning state of the learned identification means determines that the learning state is appropriate, the currently used identification means is replaced with the newly generated learned identification means. While it is determined that it can be replaced with
An erroneous judgment occurs in the classification result outputted by inputting the original image data to the newly generated trained identification means, and the learning state is determined to be inappropriate by the classification output AI confirmation means. If the neural network of the old identification means stored in the identification means storage means is data related to the inspection object with the same classification result as the incorrectly determined classification result, and An inspection device capable of generating a new learned identification means by learning the specific learning data excluding erroneous judgment factor data that is data specified as a factor of erroneous judgment.
尚、上記手段6にて「学習データ」として用いる「検査対象物に係る画像データ」には、良品の検査対象物に係る画像データのみならず、不良品の検査対象物に係る画像データも含まれる。また、「検査対象物に係る画像データ」としては、検査時に得られた画像データや、該画像データに基づき生成した仮想画像データなどを挙げることができる。 Note that the "image data related to the inspection object" used as "learning data" in the above means 6 includes not only image data related to the inspection object which is a good product, but also image data related to a defective inspection object. It will be done. In addition, "image data related to the object to be inspected" may include image data obtained during inspection, virtual image data generated based on the image data, and the like.
さらに、学習済識別手段は、検査対象物の良否で分類するものであってもよいし、検査対象物の良否に加えて、検査対象物における不良の種別によって分類するものであってもよい。 Furthermore, the learned identification means may classify the inspection object according to its quality, or may classify according to the type of defect in the inspection object in addition to the quality of the inspection object.
上記手段6によれば、検査対象物の分類結果に関する誤判定が生じた場合には、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済識別手段を生成することが可能である。従って、より良好な検査精度を有する学習済識別手段を得ることができる。 According to the above means 6, when an erroneous judgment regarding the classification result of the inspection object occurs, the original image that caused the erroneous judgment is sent to the neural network of the duplicate current identification means stored in the identification means storage means. By additionally learning data, it is possible to generate a new learned identification means. Therefore, it is possible to obtain a learned identification means with better inspection accuracy.
また、追加学習にあたっては、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対して学習が行われる。これにより、検査を停止させることなく追加学習を行うことができ、検査の迅速性や効率性をより高めることができる。 Further, during additional learning, learning is performed not on the neural network of the current identification means used in the test, but on the neural network of the duplicate current identification means stored in the identification means storage means. Thereby, additional learning can be performed without stopping the test, and the speed and efficiency of the test can be further improved.
加えて、上記手段6によれば、分類出力AI用の確認手段によって、新たに生成された学習済識別手段において、誤判定を生じさせた元画像データに基づく再度の誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。 In addition, according to the above means 6, the confirmation means for the classification output AI determines whether or not a second erroneous judgment based on the original image data that caused the erroneous judgment will occur in the newly generated learned identification means. In other words, it can be easily confirmed whether or not better inspection accuracy is achieved.
さらに、分類出力AI用の確認手段によって、再度の誤判定が生じない状態(より良好な検査精度が実現されている状態)となっていることが確認されて初めて、検査対象物の検査に利用されている現用識別手段が、新たに生成された学習済識別手段に置換可能と判断される。従って、誤判定が生じ得る不適切な学習済識別手段が、誤って検査で用いられることをより確実に防止できる。 Furthermore, the classification output AI cannot be used for inspection of the inspection object until it has been confirmed that it is in a state where no erroneous judgments will occur (a state in which better inspection accuracy is achieved) using the confirmation means for the classification output AI. It is determined that the currently used identification means can be replaced with the newly generated learned identification means. Therefore, it is possible to more reliably prevent inappropriate learned identification means that may cause erroneous judgments from being used in tests.
一方、分類出力AI用の確認手段によって、新たに生成された学習済識別手段を用いた検査において誤判定が生じることが確認された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習手段は、追加学習が一部又は全部行われていない段階の識別手段(現用識別手段よりも前の段階の識別手段)である旧識別手段(例えば初期AIモデル)のニューラルネットワークに対する学習を行い、新たな学習済識別手段を生成する。このとき、旧識別手段から現用識別手段を生成するにあたって用いられた追加学習データである特定学習データのうちの、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータの中から、その誤判定の要因と考えられるデータが、誤判定要因データとして特定される。 On the other hand, if it is confirmed by the classification output AI confirmation means that an erroneous judgment occurs in a test using a newly generated learned discriminator, that is, if it is thought that an erroneous judgment has occurred due to overlearning, The additional learning means performs learning on the neural network of the old classification means (for example, the initial AI model), which is a classification means at a stage where additional learning has not been performed partially or completely (classification means at a stage before the current classification means). and generate a new learned identification means. At this time, among the specific learning data that is additional learning data used to generate the current identification means from the old identification means, data regarding the inspection object with the same classification result as the incorrect classification result is selected. Based on this, data that is considered to be the cause of the misjudgment is identified as misjudgment factor data.
例えば、新たに生成された学習済識別手段による検査において良品を誤って不良品と分類することが確認されたとする。この場合、特定学習データのうちの「不良品の検査対象物に係るデータ」の中から誤判定要因データが特定される。また、例えば、新たに生成された学習済識別手段による検査において、検査対象物に生じている不良の種別を、種別Xと判定すべきところ、種別Yと誤判定することが確認されたとする。この場合、特定学習データのうちの「種別Yの不良が生じている検査対象物に係るデータ」の中から誤判定要因データが特定される。これは、分類結果の誤判定が生じた場合、追加学習に用いたデータ(特定学習データ)のうち、その誤判定された分類結果と同一の分類結果に係る画像データが、誤判定を生じさせる要因になっていると考えられるためである。 For example, suppose that it is confirmed that a non-defective item is incorrectly classified as a defective item during an inspection using a newly generated learned identification means. In this case, the misjudgment factor data is specified from among the "data related to the defective inspection object" of the specific learning data. Further, for example, suppose that in an inspection using a newly generated learned identification means, it is confirmed that the type of defect occurring in the object to be inspected is incorrectly determined to be type Y when it should be determined to be type X. In this case, the misjudgment factor data is specified from among the specific learning data, "data related to the inspection object in which a defect of type Y has occurred." This means that when a misjudgment occurs in a classification result, among the data used for additional learning (specific learning data), image data related to the same classification result as the misjudged classification result will cause the misjudgment. This is because it is thought to be a factor.
そして、追加学習手段は、旧識別手段のニューラルネットワークに対し、特定学習データから誤判定要因データを除外したデータを学習させることで、新たな学習済識別手段を生成する。従って、分類出力AI用の確認手段によって学習状態が不適切であると判定された場合に、過去の追加学習データを生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、検査対象物の分類に関する誤判定が生じることをより確実に防止でき、検査精度を高めることができる。 Then, the additional learning means generates a new learned identification means by causing the neural network of the old identification means to learn data obtained by excluding the false determination factor data from the specific learning data. Therefore, when the learning state is determined to be inappropriate by the confirmation means for classification output AI, it is possible to more reliably suppress the occurrence of false judgments due to overfitting while making use of past additional learning data. You can modify the learning state. As a result, it is possible to more reliably prevent erroneous determination regarding the classification of the object to be inspected, and improve inspection accuracy.
加えて、分類出力AI用の確認手段によって学習状態が不適切であると判定された場合は、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された旧識別手段のニューラルネットワークに対し学習が行われる。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数の検査対象物に対する検査を、より迅速に、かつ、より効率よく行うことができる。 In addition, if the learning state is determined to be inappropriate by the classification output AI confirmation means, the old identification stored in the identification means storage means is used instead of the neural network of the current identification means used for testing. Learning is performed on the neural network of the means. Therefore, processing related to learning of a neural network and processing related to extraction (identification) of data causing false judgments, which can be a hugely repetitive process, can be performed without stopping the test. This allows inspection of a large number of inspection objects to be performed more quickly and more efficiently.
手段7.新たに生成された前記学習済識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合における、その誤判定に係る前記元画像データである誤判定発生画像データを記憶する誤判定発生画像データ記憶手段と、
前記誤判定発生画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする手段6に記載の検査装置。
Means 7. An erroneous judgment occurred in the classification result output by inputting the original image data to the newly generated trained identification means, and the learning state was determined to be inappropriate by the classification output AI confirmation means. a misjudgment occurrence image data storage means for storing misjudgment occurrence image data that is the original image data related to the misjudgment in the case;
7. The inspection device according to
尚、要因データ特定手段としては、例えば、誤判定発生画像データに対する特定学習データの類似度(例えば、誤判定発生画像データから抽出される特徴量と、特定学習データから抽出される特徴量とに基づく、両画像データの類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも誤判定発生画像データを学習させて生成したAI)を有し、算出された類似度と所定の閾値との比較結果に基づき、誤判定要因データの特定を行うものなどを挙げることができる。 Note that the factor data specifying means may be based on, for example, the degree of similarity of the specific learning data to the image data where misjudgment has occurred (for example, the similarity between the feature amount extracted from the image data where misjudgment has occurred and the feature amount extracted from the specific learning data). It has a publicly known similarity determination means (for example, an AI generated by having a neural network learn at least the image data in which misjudgment has occurred) capable of calculating a score indicating the degree of similarity between both image data based on the image data. An example of this method is one in which erroneous determination factor data is specified based on a comparison result between the degree of similarity determined and a predetermined threshold value.
上記手段7によれば、分類出力AI用の確認手段により、学習済識別手段において誤判定が生じることが確認された場合に、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である誤判定発生画像データに対する類似度に基づき、特定学習データの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済識別手段を用いた検査に係る精度をより確実に高めることができる。 According to the means 7, when it is confirmed by the classification output AI confirmation means that an erroneous judgment occurs in the learned identification means, the original image data related to the erroneous judgment (original image data that caused the erroneous judgment ), misjudgment factor data (additional learning data that is considered to be a cause of misjudgment) can be specified from among the specific learning data. Therefore, the erroneous determination factor data can be specified more accurately, and in turn, the accuracy of the test using the newly generated learned identification means can be more reliably increased.
手段8.前記追加学習手段による学習処理に係る情報、及び、前記分類出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする手段6に記載の検査装置。
Means 8. a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the classification output AI confirmation means;
7. The inspection device according to
上記手段8によれば、上記手段5と同様の作用効果が奏される。 According to the above means 8, the same effect as the above means 5 is achieved.
手段9.検査対象物としての錠剤又はPTPシートを検査する、手段1又は6に記載の検査装置を備えたPTP包装機。 Means 9. A PTP packaging machine equipped with the inspection device according to means 1 or 6, which inspects a tablet or a PTP sheet as an object to be inspected.
上記手段9によれば、上記手段1又は6と同様の作用効果が奏されることとなる。
According to the above-mentioned means 9, the same effects as the above-mentioned
尚、上記手段に係る各技術事項を適宜組み合わせてもよい。例えば、上記手段2に係る技術事項に対し、上記手段3~5に係る技術事項のうちの少なくとも1つを組み合わせてもよい。また、上記手段7に係る技術事項に対し、上記手段8に係る技術事項を組み合わせてもよい。
Note that the technical matters related to the above means may be combined as appropriate. For example, the technical matter related to the above-mentioned
以下に、実施形態について図面を参照しつつ説明する。
〔第1実施形態〕
まず、「検査対象物」としてのPTPシート1について説明する。図1,2に示すように、PTPシート1は、複数のポケット部2を備えた容器フィルム3と、ポケット部2を塞ぐようにして容器フィルム3に取着されたカバーフィルム4とを有している。
Embodiments will be described below with reference to the drawings.
[First embodiment]
First, the
容器フィルム3は、例えばPP(ポリプロピレン)やPVC(ポリ塩化ビニル)等の無色透明な熱可塑性樹脂材料により形成され、透光性を有している。一方、カバーフィルム4は、例えばポリプロピレン樹脂等からなるシーラントが表面に設けられた不透明材料(例えばアルミニウム箔等)により構成されている。
The
PTPシート1は、平面視略矩形状に形成されている。PTPシート1には、その長手方向に沿って配列された5個のポケット部2からなるポケット列が、その短手方向に2列形成されている。つまり、計10個のポケット部2が形成されている。各ポケット部2には、内容物としての錠剤5が1つずつ収容されている。
The
ポケット部2は、カバーフィルム4と相対向するように配置される平面視略円形状の底部2aと、該底部2aの周囲に連接しかつ該底部2aとフィルム平坦部(ポケット非成形部)3bとを繋ぐ略円筒形状の側部2bとから構成されている。
The
本実施形態における底部2aは、緩やかに湾曲した断面略円弧状に成形されているが、これに限らず、底部2aが平坦状に成形された構成としてもよい。また、底部2a及び側部2bが交わる角部2cが明らかでないような、より曲率の大きい断面円弧状に成形された構成としてもよい。
Although the bottom portion 2a in this embodiment is formed to have a gently curved approximately arc-shaped cross section, the present invention is not limited to this, and the bottom portion 2a may be formed into a flat shape. Alternatively, a configuration may be adopted in which the
PTPシート1は、帯状の容器フィルム3及び帯状のカバーフィルム4から形成された帯状のPTPフィルム6(図3参照)が打抜かれることにより製造される。
The
次に、上記PTPシート1を製造するPTP包装機11の概略構成について、図5を参照して説明する。
Next, a schematic configuration of the
PTP包装機11の最上流側では、帯状の容器フィルム3の原反がロール状に巻回されている。ロール状に巻回された容器フィルム3の引出し端側は、ガイドロール13に案内されている。容器フィルム3は、ガイドロール13の下流側において間欠送りロール14に掛装されている。間欠送りロール14は、間欠的に回転するモータに連結されており、容器フィルム3を間欠的に搬送する。
On the most upstream side of the
ガイドロール13と間欠送りロール14との間には、容器フィルム3の搬送経路に沿って、加熱装置15とポケット部成形装置16とが順に配設されている。加熱装置15によって容器フィルム3が加熱されて該容器フィルム3が比較的柔軟になった状態において、ポケット部成形装置16によって容器フィルム3の所定位置に複数のポケット部2が一度に成形される。尚、ポケット部2の成形は、間欠送りロール14による容器フィルム3の搬送動作間のインターバル中に行われる。加熱装置15及びポケット部成形装置16の構成については、後に詳述する。
Between the
また、ガイドロール13と間欠送りロール14との間であって、ポケット部成形装置16の下流には、検査装置21が配設されている。検査装置21は、ポケット部成形装置16によって成形されたポケット部2の成形状態に関する検査を行うことで、該ポケット部2を備えたPTPシート1の検査を行うためのものである。検査装置21の構成については、後に詳述する。
Further, an
間欠送りロール14から送り出された容器フィルム3は、テンションロール18、ガイドロール19及びフィルム受けロール20の順に掛装されている。
The
フィルム受けロール20は、一定回転するモータに連結されているため、容器フィルム3を連続的に且つ一定速度で搬送する。テンションロール18は、容器フィルム3を弾性力によって緊張する側へ引っ張った状態とされており、間欠送りロール14とフィルム受けロール20との搬送動作の相違による容器フィルム3の弛みを防止して容器フィルム3を常時緊張状態に保持する。
Since the
ガイドロール19とフィルム受けロール20との間には、容器フィルム3の搬送経路に沿って、錠剤充填装置22が配設されている。
A
錠剤充填装置22は、ポケット部2に錠剤5を自動的に充填する充填手段としての機能を有する。錠剤充填装置22は、フィルム受けロール20による容器フィルム3の搬送動作と同期して、所定間隔毎にシャッタを開くことで錠剤5を落下させるものであり、このシャッタ開放動作に伴って各ポケット部2に錠剤5が充填される。錠剤充填装置22の動作は、後述する充填制御装置82によって制御される。
The
一方、帯状に形成されたカバーフィルム4の原反は、最上流側においてロール状に巻回されている。ロール状に巻回されたカバーフィルム4の引出し端は、ガイドロール24によって加熱ロール25の方へと案内されている。加熱ロール25は、フィルム受けロール20に圧接可能となっており、両ロール20,25間に容器フィルム3及びカバーフィルム4が送り込まれるようになっている。そして、容器フィルム3及びカバーフィルム4が、両ロール20,25間を加熱圧接状態で通過することで、容器フィルム3にカバーフィルム4が貼着され、ポケット部2がカバーフィルム4で塞がれる。これにより、錠剤5が各ポケット部2に収容されたPTPフィルム6が製造される。
On the other hand, the original fabric of the
フィルム受けロール20から送り出されたPTPフィルム6は、テンションロール27及び間欠送りロール28の順に掛装されている。
The
間欠送りロール28は、間欠的に回転するモータに連結されているため、PTPフィルム6を間欠的に搬送する。テンションロール27は、PTPフィルム6を弾性力によって緊張する側へ引っ張った状態とされており、フィルム受けロール20と間欠送りロール28との搬送動作の相違によるPTPフィルム6の弛みを防止してPTPフィルム6を常時緊張状態に保持する。
Since the
間欠送りロール28から送り出されたPTPフィルム6は、テンションロール31及び間欠送りロール32の順に掛装されている。
The
間欠送りロール32は、間欠的に回転するモータに連結されているため、PTPフィルム6を間欠的に搬送する。テンションロール31は、PTPフィルム6を弾性力によって緊張する側へ引っ張った状態とされており、間欠送りロール28,32間でのPTPフィルム6の弛みを防止する。
Since the
間欠送りロール28とテンションロール31との間には、PTPフィルム6の搬送経路に沿って、スリット成形装置33及び刻印装置34が順に配設されている。スリット成形装置33は、PTPフィルム6の所定位置に切離用スリットを成形する機能を有する。刻印装置34は、PTPフィルム6の所定位置(例えばタグ部)に刻印を付す機能を有する。尚、図1等では、切離用スリットや刻印の図示を省略している。
Between the
間欠送りロール32から送り出されたPTPフィルム6は、その下流側においてテンションロール35及び連続送りロール36の順に掛装されている。
The
間欠送りロール32とテンションロール35との間には、PTPフィルム6の搬送経路に沿って、シート打抜装置37が配設されている。シート打抜装置37は、PTPフィルム6をPTPシート1単位にその外縁を打抜くシート打抜手段(切離手段)としての機能を有する。
A
シート打抜装置37によって打抜かれたPTPシート1は、コンベア38によって搬送され、完成品用ホッパ39に一旦貯留される。但し、PTPシート1を選択的に排出可能な不良シート排出機構40に対し後述する充填制御装置82から不良品信号が入力されると、不良品のPTPシート1は、不良シート排出機構40によって別途排出され、図示しない不良品ホッパに移送される。
The
連続送りロール36の下流側には、裁断装置41が配設されている。シート打抜装置37による打抜き後に帯状に残ったスクラップ部42は、テンションロール35及び連続送りロール36に案内された後、裁断装置41に導かれる。裁断装置41は、スクラップ部42を所定寸法に裁断する機能を有する。裁断されたスクラップ部42はスクラップ用ホッパ43に貯留された後、別途廃棄処理される。
A cutting
次いで、図7を参照して加熱装置15及びポケット部成形装置16の構成について説明する。
Next, the configurations of the
加熱装置15は、上部ヒータプレート15a及び下部ヒータプレート15bを備えている。両ヒータプレート15a,15bは、図示しないヒータによって加熱可能に構成されている。両ヒータプレート15a,15bは、容器フィルム3の搬送経路を挟むようにして設けられており、それぞれ容器フィルム3に接近又は離間する方向に移動可能とされている。
The
また、各ヒータプレート15a,15bは、容器フィルム3におけるポケット部2の成形予定部3aに対応する位置に、複数の突出部15c,15dを備えている。
Each
間欠的に搬送される容器フィルム3は、一時停止中に、両ヒータプレート15a,15bの接近移動に伴い突出部15c,15dにより挟まれることで部分的に(スポット的に)加熱され、この加熱された部分が軟化状態となる。尚、本実施形態では、突出部15c,15dにおける容器フィルム3との接触部が、ポケット部2の平面形状よりも一回り小さなものとされている。
The
ポケット部成形装置16は、下型61及び上型71を備えている。下型61は、ポケット部2の位置に対応する位置に複数の挿通孔64を備えている。また、下型61は、筒状の下型チャンバー62を介して固定状態にある支持台63に固定されている。支持台63には、複数の貫通孔が形成されており、該貫通孔にはベアリング機構を介して棒状のスライダ65が挿通されている。スライダ65は、図示しないカム機構によって上下動可能である。
The
スライダ65の上部には、ポケット部成形型66が固定されており、該ポケット部成形型66は、前記挿通孔64に挿通可能な棒状のプラグ66aを複数備えている。プラグ66aの先端形状は、ポケット部2の内面に対応する形状とされている。ポケット部成形型66は、前記カム機構の駆動によるスライダ65の上下動に伴い上下動する。尚、下型61やポケット部成形型66などは、生産するPTPシート1の品種に応じて適宜交換可能である。
A pocket molding die 66 is fixed to the upper part of the
さらに、スライダ65及びポケット部成形型66のそれぞれの内部には、冷却水(又は温水)を循環させるための循環路67が形成されている。これにより、各プラグ66aにおける表面温度のばらつきが抑制されるようになっている。
Further, a
プラグ66aは、ポケット部2の成形時に、初期位置、中間停止位置及び突出位置へとこの順で配置され、最終的に初期位置へと戻るようになっている。初期位置は、ポケット部2の成形工程の開始時にプラグ66aが配置される位置であり、この位置に配置されたプラグ66aは挿通孔64の下方であって挿通孔64外に配置された状態となる。中間停止位置は、ポケット部2の成形工程の中間段階にてプラグ66aが配置される位置であり、この位置に配置されたプラグ66aは挿通孔64内に配置され、容器フィルム3との間で所定の隙間を形成した状態となる。突出位置は、ポケット部2の成形工程の最終段階にてプラグ66aが配置される位置であり、この位置に配置されたプラグ66aの先端面は、ポケット部2の深さに対応する分だけ下型61から突出した状態となる。尚、このようなプラグ66aの動作は後述する成形制御装置81によって制御される。
During molding of the
一方、上型71は、プレート72を介して上下動可能な上板73に固定されており、下型61に対し接近又は離間する方向に沿って移動可能とされている。上型71は、下型61の挿通孔64と相対する位置に気体供給孔74を備えている。
On the other hand, the
さらに、プレート72及び上板73の内部には、気体供給孔74と連通する気体供給路75が形成されており、該気体供給路75に対し、例えばコンプレッサ等により構成された気体供給装置76から、所定の高圧の気体(不活性ガス、本実施形態では空気)が供給される。
Furthermore, a
尚、本実施形態では、ポケット部成形装置16の一回の動作によって、1枚分のPTPシート1に対応する計10個のポケット部2が同時に成形される構成となっている。すなわち容器フィルム3のフィルム幅方向(Y方向)に対し5つ、かつ、フィルム搬送方向(X方向)に対し2つのポケット部2が同時に成形される構成となっている。
In this embodiment, a total of ten
次いで、図5に戻り、加熱装置15及びポケット部成形装置16によるポケット部2の成形に関する制御を行うための成形制御装置81について説明する。成形制御装置81は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)などを有するコンピュータシステムによって構成されている。
Next, returning to FIG. 5, the forming
成形制御装置81には、プラグ66aにおける初期位置、中間停止位置及び突出位置に関する各情報などが設定記憶されており、これらの情報に基づきプラグ66aの動作制御が行われる。尚、プラグ66aの初期位置、中間停止位置及び突出位置に関する各情報は、製造対象となるPTPシート1におけるポケット部2の深さなどに応じて適宜変更される。
The forming
ここで、成形制御装置81の制御により実行されるポケット部成形工程について図8を参照しつつ説明する。
Here, the pocket portion molding process executed under the control of the
ポケット部成形工程では、まずステップS101の中間停止位置配置工程が行われる。中間停止位置配置工程では、スライダ65の移動によりポケット部成形型66を上方へと移動させることで、初期位置に配置されたプラグ66aが上方に向かって移動する。
In the pocket portion forming process, first, an intermediate stop position arranging process of step S101 is performed. In the intermediate stop position arrangement step, the pocket molding die 66 is moved upward by the movement of the
そして、設定された中間停止位置にプラグ66aが到達すると、スライダ65の移動が停止され、プラグ66aが中間停止位置に配置された状態になる。このとき、プラグ66aの先端面は、容器フィルム3から所定距離だけ離れた状態とされる。この所定距離は、通常、ポケット部2の深さよりも小さなものとされる。
When the
次いで、ステップS102の挟持工程において、上型71を下方に向けて移動させることで、固定状態にある下型61と上型71とで容器フィルム3を挟んだ状態とする。このとき、容器フィルム3のうち、ポケット部2となる成形予定部3a(図7参照)の周囲に位置する環状部分が、両型61,71で挟持された状態となる。尚、中間停止位置配置工程及び挟持工程を同時に行ってもよいし、挟持工程を中間停止位置配置工程よりも先に行ってもよい。
Next, in the clamping step of step S102, the
続くステップS103の膨出工程では、気体供給装置76から気体供給路75を介して気体供給孔74へと気体を供給することで、容器フィルム3におけるポケット部2の成形予定部3aに対し、その表側(図7上側)から圧縮エアを吹き付ける。気体の供給により、成形予定部3aは、ポケット部2の突出側(図7上側)とは反対側(図7下側)に膨出し、引き伸ばされて薄くなる。
In the subsequent expansion step of step S103, by supplying gas from the
そして、成形予定部3aは、プラグ66aの先端面により支持された状態となるまで膨出する。気体の供給により成形予定部3aを膨出させる場合、膨出後の成形予定部3aの肉厚は全体的にほぼ同じになる。
Then, the portion to be formed 3a bulges out until it is supported by the tip end surface of the
尚、プラグ66aの中間停止位置に応じて、容器フィルム3の延伸量が変化し、成形予定部3aの肉厚も変化する。プラグ66aの中間停止位置が比較的高い場合には、容器フィルム3の延伸量が比較的小さなものとなるため、成形予定部3aは全体的に厚い状態となる。一方、プラグ66aの中間停止位置が比較的低い場合には、容器フィルム3の延伸量が比較的大きなものとなるため、成形予定部3aは全体的に薄い状態となる。
Note that depending on the intermediate stop position of the
続くステップS104の最終成形工程では、プラグ66aが上方へと移動し、突出位置へと配置される。その結果、成形予定部3aにおける膨らみ方向が反転して、所定の深さを有するポケット部2が成形される。
In the final molding process of step S104, the
尚、押圧により容器フィルム3を変形させる場合、成形予定部3aのうち底部2aに相当する部位はプラグ66aと接触して冷却されるため、底部2aに相当する部位はほとんど延伸されない。従って、中間停止位置を比較的高くすることで成形予定部3aが全体的に厚い状態となっていれば、プラグ66aによる押圧時に底部2aに相当する部位は厚い状態で維持されるため、結果的に、成形されるポケット部2における側部2bが比較的薄肉となる。
Note that when the
一方、中間停止位置を比較的低くすることで成形予定部3aが全体的に薄い状態となっていれば、プラグ66aによる押圧時に底部2aに相当する部位は薄い状態で維持されるため、結果的に、成形されるポケット部2における側部2bが比較的厚肉となる。
On the other hand, if the portion to be formed 3a is made thin as a whole by setting the intermediate stop position relatively low, the portion corresponding to the bottom portion 2a will be kept thin when pressed by the
このようにプラグ66aの中間停止位置を調節し成形予定部3aの肉厚を調節することで、最終的に成形されるポケット部2における底部2a及び側部2bのそれぞれの肉厚のバランスを調節することが可能となる。
In this way, by adjusting the intermediate stop position of the
最終成形工程の後には、プラグ66aを初期位置に配置するとともに、両型61,71による容器フィルム3の挟持を解除することで、ポケット部成形工程が終了する。
After the final molding step, the
次いで、錠剤充填装置22による錠剤5の充填に関する制御を行うための充填制御装置82について説明する。充填制御装置82は、CPUやRAMなどを有するコンピュータシステムによって構成されている。
Next, the filling
充填制御装置82は、検査装置21による検査結果に基づき、所定のポケット部2に対し錠剤5を充填するか否かを切換え制御可能である。具体的には、充填制御装置82は、検査装置21から所定のPTPシート1(10個のポケット部2の成形状態)に関する良否判定結果が入力され、かかる良否判定結果が「良品」判定である場合には、かかるPTPシート1に含まれる10個すべてのポケット部2に対し錠剤5を充填するように錠剤充填装置22を制御する。
The filling
一方、充填制御装置82は、所定のPTPシート1に関する良否判定結果が「不良品」判定である場合には、かかるPTPシート1に含まれる10個すべてのポケット部2に対し錠剤5を充填しないように錠剤充填装置22を制御する。また、充填制御装置82は、不良シート排出機構40に対し不良品信号を出力する。その結果、不良シート排出機構40によって、不良品信号に係るPTPシート1(不良シート)が排出される。
On the other hand, when the quality determination result regarding the
次いで、検査装置21の構成について詳しく説明する。図4~6に示すように、検査装置21は、照明装置50、カメラ51及び検査制御装置52を備えている。
Next, the configuration of the
照明装置50は、ポケット部2の突出側(図4下側)から容器フィルム3の所定範囲に対し所定の電磁波を照射するものである。照明装置50は、電磁波照射装置50aと、これを覆う拡散板50bとを有しており、面発光可能に構成されている。本実施形態における照明装置50は、容器フィルム3に対し紫外光を含む電磁波を照射する。
The
カメラ51は、照明装置50から照射される電磁波の波長領域に感度を有するものである。カメラ51は、容器フィルム3のポケット部2開口側(図4上側)に設けられており、そのレンズの光軸OLが容器フィルム3のフィルム平坦部3bと直交する鉛直方向(Z方向)に沿うように配置されている。
The
また、カメラ51のレンズに対応して、バンドパスフィルタ51aが設けられている。バンドパスフィルタ51aを設けることで、照明装置50から照射される電磁波のうち、容器フィルム3を透過した紫外光のみがカメラ51により二次元撮像されることとなる。また、このようにカメラ51によって取得された透過画像データは、容器フィルム3における紫外光の透過率の差異に基づき各画素(各座標位置)で輝度の異なる輝度画像データとなる。
Further, a
特に本実施形態では、上記バンドパスフィルタ51aとして、例えば容器フィルム3の透過率がおよそ30±10パーセントとなる波長253±20nmの紫外光のみを通すものが用いられている。これは、容器フィルム3を透過する電磁波の透過率が高すぎても低すぎても、ポケット部2の底部2aの薄肉部位と厚肉部位における光の透過率に差が生じにくくなるおそれがあるためである。
Particularly in this embodiment, the
尚、本実施形態におけるカメラ51の撮像範囲は、少なくともポケット部成形装置16の一回の動作で容器フィルム3に成形される1枚分のPTPシート1に対応する計10個のポケット部2を含む範囲を一度に撮像するように設定されている。
The imaging range of the
検査制御装置52は、所定の演算処理を実行するCPU、各種プログラムや固定値データ等を記憶するROM、各種演算処理の実行に際して各種データが一時的に記憶されるRAM及びこれらの周辺回路等を含んだコンピュータシステムによって構成されている。
The
検査制御装置52は、CPUが各種プログラムに従って動作することで、後述するメイン制御部52a、照明制御部52b、カメラ制御部52c、画像取込部52d、画像処理部52e、再構成画像データ取得部52f、判定部52g、追加学習部52h及び保存処理実行部52nなどの各種機能部として機能する。本実施形態では、再構成画像データ取得部52fが「再構成画像データ取得手段」を構成し、判定部52gが「判定手段」を構成し、追加学習部52hが「追加学習手段」を構成する。
The
但し、上記各種機能部は、上記CPU、ROM、RAMなどの各種ハードウェアが協働することで実現されるものであり、ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。 However, the various functional units described above are realized by the cooperation of various hardware such as the CPU, ROM, and RAM, and there is no need to clearly distinguish between the functions realized by hardware or software. , some or all of these functions may be realized by a hardware circuit such as an IC.
さらに、検査制御装置52には、キーボードやマウス、タッチパネル等で構成される入力部521、液晶ディスプレイなどの表示画面を有する表示部522、外部と各種データを送受信可能な通信部528などが設けられている。本実施形態では、表示部522が「表示手段」を構成する。
Furthermore, the
また、検査制御装置52は、それぞれHDD(Hard Disk Drive)やSSD(Solid State Drive)等で構成された検査情報記憶部523、使用AI記憶部524、非使用AI記憶部525、画像データ記憶部526及び追加学習情報記憶部527を備えている。本実施形態では、非使用AI記憶部525が「識別手段記憶手段」を構成する。
The
検査制御装置52を構成する上記各種機能部に先立って、まず、入力部521、表示部522、各記憶部523~527及び通信部528について説明する。
Prior to the various functional units that constitute the
入力部521は、検査制御装置52に対し情報を入力するための入力手段である。本実施形態では、入力部521を介して所定の追加学習命令や追加学習修正命令を入力可能である。
The
追加学習命令は、例えば、後述する判定部52gの良否判定により、良品のPTPシート1が不良品であると誤判定された場合にオペレータ等によって入力される。一方、追加学習修正命令は、例えば、判定部52gの良否判定により、不良品のPTPシート1が良品であると誤判定された場合にオペレータ等によって入力される。勿論、検査装置21以外に別途設けられた検査装置によって誤判定が生じたと判定された場合に、追加学習命令や追加学習修正命令が検査制御装置52へと自動的に入力される構成としてもよい。
The additional learning command is input by an operator or the like when, for example, a
尚、追加学習命令の入力により、後述する追加学習処理が行われ、追加学習修正命令の入力により、後述する追加学習修正処理が行われる。また、入力部521によって、検査情報記憶部523に記憶された各種設定情報を変更可能である。
It should be noted that an additional learning process, which will be described later, is performed by inputting an additional learning command, and an additional learning modification process, which will be described later, is performed by inputting an additional learning correction command. Further, various setting information stored in the examination
表示部522は、例えば、各記憶部523~527に記憶された各種情報を表示可能に構成されている。従って、表示部522では、カメラ51により得られた画像データ(透過画像データ)や、それぞれ後述する追加学習データ301及び不良画像データ302、検査に用いられる情報(例えば閾値など)、PTPシート1の良否判定結果などを表示可能である。
The
検査情報記憶部523は、検査に用いられる各種設定情報や、良否判定結果などを記憶するためのものである。本実施形態では、各種設定情報として、例えばPTPシート1、ポケット部2及び錠剤5の形状及び寸法や、ポケット部2の領域を画定するためのポケット枠Wの形状及び寸法並びにカメラ51との相対位置関係、良否判定や画像データの類否判断に用いる閾値などが記憶されている。
The inspection
使用AI記憶部524は、「識別手段」としてのAIモデル200を記憶する。AIモデル200は、ディープニューラルネットワーク190(以下、単に「ニューラルネットワーク190」という。図9参照。)によって、入力された画像データに応じた画像データを出力する機能を有する。
The used
ここで、ニューラルネットワーク190の構造について図9を参照して説明する。図9は、ニューラルネットワーク190の構造を概念的に示した模式図である。ニューラルネットワーク190は、入力される画像データ(濃淡模様データ)GAから特徴量(潜在変数)TAを抽出する「符号化部」としてのエンコーダ部191と、該特徴量TAから画像データ(濃淡模様データ)GBを再構成する「復号化部」としてのデコーダ部192と有してなる畳み込みオートエンコーダ(CAE:Convolutional Auto-Encoder)の構造を有している。
Here, the structure of the
畳み込みオートエンコーダの構造は公知のものであるため、詳しい説明は省略するが、エンコーダ部191は複数の畳み込み層(Convolution Layer)193を有し、各畳み込み層193では、入力データに対し複数のフィルタ(カーネル)194を用いた畳み込み演算が行われた結果が次層の入力データとして出力される。同様に、デコーダ部192は複数の逆畳み込み層(Deconvolution Layer)195を有し、各逆畳み込み層195では、入力データに対し複数のフィルタ(カーネル)196を用いた逆畳み込み演算が行われた結果が次層の入力データとして出力される。そして、後述する学習処理や追加学習処理などでは、各フィルタ194,196の重み(パラメータ)が更新されることとなる。
Since the structure of the convolutional autoencoder is well-known, a detailed explanation will be omitted, but the
図6に戻り、使用AI記憶部524は、AIモデル200として、PTPシート1の検査に現在利用されている現用AIモデル200zを記憶している。現用AIモデル200zについては後により詳しく説明する。
Returning to FIG. 6, the used
非使用AI記憶部525は、検査に利用されていないAIモデル200を記憶する。非使用AI記憶部525に記憶されるAIモデル200には、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zとは別に記憶された、該現用AIモデル200zと同一内容のAIモデル200である複製現用AIモデル200z1と、初期AIモデル200aとが含まれる。
The unused
複製現用AIモデル200z1は、現用AIモデル200zをコピーして得られたものであり、自身に対し更新処理などの各種処理が行われたとしても、現用AIモデル200zに何ら影響を与えないものである。本実施形態において、現用AIモデル200z、複製現用AIモデル200z1及び初期AIモデル200aは、それぞれ「学習済識別手段」を構成し、初期AIモデル200aは「旧識別手段」を構成する。また、現用AIモデル200zは「現用識別手段」を構成し、複製現用AIモデル200z1は「複製現用識別手段」を構成する。
The duplicate current AI model 200z1 is obtained by copying the
現用AIモデル200zは、追加学習部52hによる後述の追加学習処理や追加学習修正処理によって生成され、後述する承認用処理にて採用されたAIモデル200である。検査装置21によるPTPシート1の検査は、現用AIモデル200zを用いて行われる。一方、複製現用AIモデル200z1は、PTPシート1の検査に利用されない。
The
現用AIモデル200z及び複製現用AIモデル200z1は、追加学習部52hによる追加学習処理や追加学習修正処理によって順次更新され得る。本実施形態において、使用AI記憶部524や非使用AI記憶部525には、現用AIモデル200zや複製現用AIモデル200z1として「AI(n)」(図20参照)が記憶されている。尚、nは自然数を表す。
The
初期AIモデル200aは、追加学習部52hによる追加学習処理が全く行われていない段階のAIモデル200である。本実施形態において、非使用AI記憶部525には、初期AIモデル200aとして、工場出荷時のAIモデル200である「AI(0)」(図20参照)が記憶されている。
The
尚、工場出荷時には、各AI記憶部524,525に対し初期AIモデル200aがそれぞれ記憶される。使用AI記憶部524に記憶された初期AIモデル200aは、追加学習処理によって現用AIモデル200zに更新されるまで、PTPシート1の検査に用いられる。
Note that, at the time of factory shipment, the
現用AIモデル200z、複製現用AIモデル200z1及び初期AIモデル200aなどの学習済みのAIモデル200は、ポケット部2に成形不良のない良品のPTPシート1に係る画像データのみを学習データとして、ニューラルネットワーク190を深層学習(ディープラーニング)させて構築した生成モデルであり、いわゆるオートエンコーダ(自己符号化器)の構造を有する。本実施形態において、初期AIモデル200aは、そのニューラルネットワーク190に対し後述する学習処理が予め行われてなるものであり、また、現用AIモデル200z及び複製現用AIモデル200z1は、初期AIモデル200aのニューラルネットワーク190に対し複数回の追加学習処理などが行われてなるものである。
The trained
ここで、初期AIモデル200aを生成する際に行われる学習処理(初期学習処理)について説明する。本実施形態において、学習処理は、所定の学習プログラムの実行に基づき、検査装置21の設置場所とは異なる場所(例えば検査装置21の製造工場など)で予め行われている。尚、学習処理に先立って、学習データとして、ポケット部2に成形不良のない良品のPTPシート1に係る画像データが多数用意される。この学習データは、後述する画像データ取得部52xによって得られる画像データ(濃淡模様データ)と同じ形式を有している。
Here, the learning process (initial learning process) performed when generating the
図10に示すように、学習処理では、まず、ステップS201において、未学習のニューラルネットワーク190を準備する。例えば所定の記憶装置等に予め格納されているニューラルネットワーク190を読み出す。又は、前記記憶装置等に格納されているネットワーク構成情報(例えばニューラルネットワークの層数や各層のノード数など)に基づいて、ニューラルネットワーク190を構築する。
As shown in FIG. 10, in the learning process, first, in step S201, an untrained
次いで、ステップS202において、再構成画像データを取得する。すなわち、予め用意された学習データを入力データとして、ニューラルネットワーク190の入力層に与える。そして、該ニューラルネットワーク190の出力層から出力される再構成画像データを取得する。
Next, in step S202, reconstructed image data is acquired. That is, the learning data prepared in advance is applied to the input layer of the
続くステップS203では、学習データと、ステップS202においてニューラルネットワーク190により出力された再構成画像データ(再構成濃淡模様データ)とを比較し、その誤差が十分に小さいか否か(所定の閾値以下であるか否か)を判定する。
In the subsequent step S203, the learning data is compared with the reconstructed image data (reconstructed shading pattern data) output by the
ここで、前記誤差が十分に小さい場合には、ステップS205にて、学習処理の終了条件を満たすか否かを判定する。例えば、後述するステップS204の処理を経ることなくステップS203にて肯定判定されることが所定回数連続で行われた場合や、用意した学習データの全てを用いた学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク190及びその学習情報(後述する更新後のパラメータ等)を初期AIモデル200aとして各AI記憶部524,525に格納し、学習処理を終了する。
Here, if the error is sufficiently small, it is determined in step S205 whether or not the end condition of the learning process is satisfied. For example, if an affirmative determination is made in step S203 a predetermined number of times without going through the process of step S204, which will be described later, or if learning using all of the prepared learning data is repeated a predetermined number of times. If so, it is determined that the termination condition is satisfied. If the termination conditions are met, the
一方、ステップS205にて終了条件を満たさない場合には、ステップS202に戻り、ニューラルネットワーク190の学習を再度行う。
On the other hand, if the termination condition is not satisfied in step S205, the process returns to step S202 and the learning of the
また、ステップS203にて、前記誤差が十分に小さくない場合には、ステップS204においてネットワーク更新処理(ニューラルネットワーク190の学習)を行った後、再びステップS202へ戻り、上記一連の処理を繰り返す。 If the error is not sufficiently small in step S203, network updating processing (learning of the neural network 190) is performed in step S204, and then the process returns to step S202 to repeat the series of processes described above.
ステップS204のネットワーク更新処理では、例えば誤差逆伝播法(Backpropagation)などの公知の学習アルゴリズムを用いて、学習データと再構成画像データとの差分を表す損失関数が極力小さくなるように、ニューラルネットワーク190における上記各フィルタ194,196の重み(パラメータ)をより適切なものに更新する。尚、損失関数としては、例えばBCE(Binary Cross-entropy)などを利用することができる。
In the network update process in step S204, the
ステップS202~204の処理を何度も繰り返すことにより、ニューラルネットワーク190では、学習データと再構成画像データとの誤差が極力小さくなり、より正確な再構成画像データが出力されるようになる。
By repeating the processes of steps S202 to S204 many times, the error between the learning data and the reconstructed image data is minimized in the
そして、最終的に得られる初期AIモデル200aは、後述する画像データ取得部52xにより得られた画像データ(濃淡模様データであり、「元画像データ」ということがある)であって、良品のPTPシート1に係る画像データが入力されたときには、入力された画像データとほぼ一致する再構成画像データを生成するものとなる。また、初期AIモデル200aは、後述する画像データ取得部52xにより得られた画像データ(元画像データ)であって、不良品のPTPシート1に係る画像データが入力されたときには、ノイズ部分(不良部分に相当する部分)が除去された、入力された画像データとほぼ一致する再構成画像データを生成するものとなる。すなわち、PTPシート1が不良であるときには、該PTPシート1に係る再構成画像データとして、不良部分がないものと仮定した場合の該PTPシート1に係る仮想的な画像データが生成される。
The
尚、検査装置21を製造する都度、上記学習処理を行う必要はなく、ニューラルネットワーク190及びその学習情報(更新後のパラメータ等)を予め取得しておき、これらを検査装置21の各AI記憶部524,525に対し、初期AIモデル200aとして格納するようにしてもよい。
Note that it is not necessary to perform the above learning process each time the
画像データ記憶部526は、後述する画像データ取得部52xにより得られた画像データ(濃淡模様データ)などの各種画像データを記憶する。尚、画像データ取得部52xにより得られる画像データ(濃淡模様データ)は、1枚分のPTPシート1に対応するものであって、ポケット部2の底部2a等に係る濃淡模様を計10個分表すものである。本実施形態では、画像データ記憶部526によって、「特定学習データ記憶手段」及び「不良画像データ記憶手段」が構成される。
The image
画像データ記憶部526に記憶される画像データには、追加学習部52hによる追加学習処理に利用される追加学習データ301が含まれる。追加学習データ301は、画像データ取得部52xにより得られた複数の画像データ(濃淡模様データ)のうち、良品のPTPシート1に係る画像データであって、所定の条件を満たすもの(例えばオペレータ等によって選択されたもの)である。
The image data stored in the image
また、追加学習データ301には、後述する判定部52gにより良品のPTPシート1が不良品と判定された場合における、その誤判定を生じさせた画像データが含まれる。つまり、追加学習データには、判定部52gにより不良品と判定されたが、実際には良品であったPTPシート1に係る画像データが含まれる。
Further, the
本実施形態では、追加学習データ301として、「IM(1)」~「IM(n)」(図20参照)が記憶されている。例えば、「IM(1)」は、初期AIモデル200aのニューラルネットワーク190に対する追加学習処理に用いられた画像データであり、この追加学習処理によって生成されたAIモデル200が「AI(1)」である。
In this embodiment, “IM(1)” to “IM(n)” (see FIG. 20) are stored as
また、追加学習データ301には、特定学習データ301aが含まれている。特定学習データ301aは、初期AIモデル200aから現用AIモデル200zを生成するにあたって用いられた追加学習データ301である。従って、本実施形態では、全ての追加学習データ301が特定学習データ301aに相当する。
Further, the
さらに、画像データ記憶部526に記憶される画像データには、不良画像データ302が含まれる。不良画像データ302とは、後述する判定部52gによる良否判定処理により、不良品のPTPシート1が良品であると誤判定された場合における、その誤判定に係る濃淡模様データ(元画像データ)である。つまり、不良画像データ302は、追加学習データ301とは異なり、不良品のPTPシート1に係るものである。
Furthermore, the image data stored in the image
尚、本実施形態では、判定部52gの良否判定によって不良品のPTPシート1が良品であると誤判定されたか否か、又は、判定部52gの良否判定によって良品のPTPシート1が不良品であると誤判定されたか否かについて、オペレータ等による目視検査によって判断されるようになっている。勿論、検査装置21以外の検査装置を別途設け、該検査装置によって誤判定が生じたか否かを判定するようにしてもよい。
In the present embodiment, it is determined whether or not the
そして、オペレータ等が入力部521を利用した情報の入力を行うこと等によって、画像データ記憶部526に記憶された画像データ(濃淡模様データ)のうち、不良品のPTPシート1が良品であると誤判定された場合における、その誤判定に係る画像データが不良画像データ302として特定される。
Then, by inputting information using the
追加学習情報記憶部527は、追加学習処理や追加学習修正処理(すなわち、追加学習部52hによる学習処理)に係る各種情報など、AIモデル200の学習に関する情報を記憶する。
The additional learning
追加学習情報記憶部527に記憶される情報には、例えば、現用AIモデル200zや初期AIモデル200aを含む現時点までに生成された全ての学習済みの(学習処理や追加学習処理、追加学習修正処理が行われた)AIモデル200、学習済みのAIモデル200の学習に用いられた追加学習データ301が含まれる。本実施形態においては、学習済みのAIモデル200は、初期AIモデル200aや現用AIモデル200zと同様に、「学習済識別手段」を構成する。
The information stored in the additional learning
また、追加学習情報記憶部527に記憶される情報には、例えば、各種処理(例えば、追加学習処理、追加学習修正処理、それぞれ後述する確認処理や承認用処理など)にて行われた入力部521に対する全ての操作内容、後述する承認用処理にて承認に係る入力を受付けた日時などが含まれる。
In addition, the information stored in the additional learning
尚、現時点までに生成された全ての学習済みのAIモデル200には、後述する承認用処理にて不採用となった学習済みのAIモデル200が含まれる。不採用となった学習済みのAIモデル200は、不採用である旨を示す情報が付与されており、採用された学習済みのAIモデル200(つまり、現在又は過去の現用AIモデル200z)とは区別可能となっている。また、追加学習データ301には、不採用となった学習済みのAIモデル200の生成に用いられたものが含まれる。尚、追加学習情報記憶部527において、上述した入力部521に対する全ての操作内容に係る情報を、監査証跡として記憶するようにしてもよい。
Note that all trained
通信部528は、例えば有線LAN(Local Area Network)や無線LAN等の通信規格に準じた無線通信インターフェースなどを備え、外部と各種データを送受信可能に構成されている。例えば判定部52gにより行われた良否判定の結果などが通信部528を介して外部(充填制御装置82等)に出力される。
The
次いで、検査制御装置52を構成する上記各種機能部について詳しく説明する。
Next, the various functional units that constitute the
メイン制御部52aは、検査装置21全体の制御を司る機能部であり、照明制御部52bやカメラ制御部52cなど他の機能部と各種信号を送受信可能に構成されている。
The
照明制御部52bは、照明装置50を駆動制御する機能部であり、メイン制御部52aからの指令信号に基づき照明タイミングなどを制御する。
The
カメラ制御部52cは、カメラ51を駆動制御する機能部であり、メイン制御部52aからの指令信号に基づき撮像タイミングなどを制御する。尚、上記照明及び撮像のタイミングは、メイン制御部52aが、PTP包装機11に設けられた図示しないエンコーダからの信号に基づいて制御する。
The
上記照明制御部52b及びカメラ制御部52cによって、ポケット部2の成形された容器フィルム3の搬送が一旦停止するインターバルごとに、該容器フィルム3に対し照明装置50から電磁波が照射されるとともに、該容器フィルム3を透過した電磁波(紫外光)をカメラ51により撮像する処理が実行される。カメラ51により撮像され生成された透過画像データは、該カメラ51の内部においてデジタル信号(画像信号)に変換された上で、デジタル信号の形で検査制御装置52(画像取込部52d)に転送される。
The
画像取込部52dは、カメラ51により撮像され取得された画像データを取り込むための機能部である。取り込まれた画像データ(透過画像データ)は、画像データ記憶部526に記憶される。
The
画像処理部52eは、画像取込部52dにより取り込まれた画像データに所定の画像処理を行うことで、濃淡模様データ(元画像データ)を取得する機能部である。本実施形態において、画像処理部52eは、画像取込部52dにより取り込まれた画像データ(透過画像データ)から、ポケット部2に係る部分を抽出することで、濃淡模様データを生成する。
The
より詳しく説明すると、まず、画像取込部52dにより取り込まれた画像データ(透過画像データ)にマスク処理が実行される。具体的には、画像取込部52dにより取り込まれた画像データ(透過画像データ)における10個のポケット部2の位置に合わせてそれぞれポケット枠W(図16参照)を設定するとともに、該ポケット枠Wにより特定されたポケット領域以外の領域、すなわちフィルム平坦部3bに対応する領域に対しマスクMをかける処理を行う。
To explain in more detail, first, mask processing is performed on the image data (transparent image data) captured by the
次いで、マスク処理された画像データ(マスキング画像データ)における各ポケット枠W内の画像を抽出することで、濃淡模様データを生成する。生成された濃淡模様データは、1枚分のPTPシート1に相当するものであって、ポケット部2の底部2aにおける濃淡模様K(図16,18参照)を計10個分表すものである。濃淡模様データは、画像データ記憶部526に記憶される。本実施形態では、取得された複数の濃淡模様データのうちの一部が、追加学習データ301や不良画像データ302となる。尚、透過画像データから、それぞれ1のポケット部2に係る濃淡模様Kを表す計10枚の濃淡模様データを得るようにしてもよい。
Next, the image within each pocket frame W in the masked image data (masking image data) is extracted to generate shading pattern data. The generated shading pattern data corresponds to one
ここで、図16は、濃淡模様データにおいて、成形不良のないポケット部2の底部2aに生じる濃淡模様Kを示す図であり、図17は、図16に示す濃淡模様KのA-A線に沿った各画素に係る輝度値を示すグラフである。
Here, FIG. 16 is a diagram showing a shading pattern K that occurs on the bottom part 2a of the
また、図18は、成形不良のあるポケット部2の底部2aに生じる濃淡模様Kを示す図であり、図19は、図18に示す濃淡模様KのB-B線に沿った各画素に係る輝度値を示すグラフである。
Further, FIG. 18 is a diagram showing a shading pattern K that occurs on the bottom part 2a of the
図16~19に示すように、濃淡模様Kとは、画素ごとに輝度情報(例えば0から255までの256階調のうちのいずれかの値)を有した二次元画像情報であり、ポケット部2の底部2a等の各位置(座標位置)における肉厚の違い(肉厚分布)と、そこを透過する電磁波の透過率等との関係から、ポケット部2の底部2a等に生じる濃淡の二次元分布を示す像(透過電磁波の強度分布像)に相当するものである。
As shown in FIGS. 16 to 19, the shading pattern K is two-dimensional image information that has luminance information (for example, any value among 256 gradations from 0 to 255) for each pixel, and the pocket area From the relationship between the difference in wall thickness (thickness distribution) at each position (coordinate position) of the bottom part 2a, etc. of the
尚、本実施形態では、ポケット枠Wが、ポケット部2の開口周縁部(側部2bとフィルム平坦部3bとの連接部)に合わせて設定されているため、濃淡模様Kには、ポケット部2の底部2aのみならず、ポケット部2の側部2b、並びに、底部2a及び側部2bが交わるポケット部2の角部2cに係る模様も含まれることとなる。
In this embodiment, since the pocket frame W is set to match the opening periphery of the pocket portion 2 (the connecting portion between the
また、濃淡模様Kのうち、底部2aに対応する範囲に関しては、概ね底部2aの肉厚分布に対応した濃淡分布(輝度分布)を有する濃淡模様が得られる。一方、側部2bや角部2cに対応する範囲に関しては、その輝度情報が、側部2b等の肉厚方向(X方向やY方向)に沿って透過した電磁波に対応したものではなく、その成形時延伸方向(Z方向)に沿って透過した電磁波に対応したものとなるため、側部2b等の肉厚とは関係の薄いものとなる。
Further, in the range corresponding to the bottom portion 2a of the shading pattern K, a shading pattern having a shading distribution (luminance distribution) approximately corresponding to the wall thickness distribution of the bottom portion 2a is obtained. On the other hand, regarding the range corresponding to the
本実施形態では、カメラ51、画像取込部52d及び画像処理部52eによって画像データ取得部52xが構成されており、この画像データ取得部52xによって、PTPシート1に係る濃淡模様データ(元画像データ)が取得される。本実施形態では、画像データ取得部52xが「画像データ取得手段」を構成する。
In this embodiment, an image
再構成画像データ取得部52fは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を、現用AIモデル200zなどの学習済みAIモデル200に入力して再構成された画像データを再構成画像データとして取得する。より詳しくは、再構成画像データ取得部52fは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を入力データとして、ニューラルネットワーク190の入力層に与える。そして、再構成画像データ取得部52fは、該ニューラルネットワーク190の出力層から出力される再構成濃淡模様データを再構成画像データとして取得する。尚、再構成画像データ取得部52fは、PTPシート1の検査時には、使用AI記憶部524に記憶された現用AIモデル200zに元画像データを入力する。一方、再構成画像データ取得部52fは、後述する確認処理時には、追加学習処理などによって新たに生成された、現用AIモデル200zとは異なる学習済みのAIモデル200に元画像データを入力する。
The reconstructed image
判定部52gは、ポケット部2の成形状態についての良否判定処理を行う機能部である。判定部52gは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)と、該濃淡模様データを学習済みのAIモデル200に入力して再構成された再構成画像データとを比較し、比較結果に基づき、ポケット部2ひいてはPTPシート1の良否を判定する。
The
図11を参照して、判定部52gによる良否判定処理についてより詳しく説明する。良否判定処理では、まず、ステップS301にて、再構成画像データ取得部52fによって、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を学習済みのAIモデル200に入力することで、再構成画像データを取得する。尚、元画像データの入力対象は、PTPシート1の検査時には現用AIモデル200zであり、後述する確認処理時には新たに生成された学習済みのAIモデル200である。
With reference to FIG. 11, the quality determination process by the
次いで、ステップS302において、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)と、再構成画像データ取得部52fにより得られた該濃淡模様データに係る再構成画像データとを比較して、両データの各画素毎の輝度の差分を算出する。続いて、該差分が予め定めた許容範囲内にない画素を不良画素として特定する。
Next, in step S302, the grayscale pattern data (original image data) obtained by the image
次に、ステップS303にて、不良画素の連結成分の面積(不良面積)を算出する。 Next, in step S303, the area of the connected component of the defective pixel (defective area) is calculated.
次いで、ステップS304において、算出した面積のうちの最大面積が予め設定した所定の閾値以下であるか否かを判定する。つまり、不良面積が許容範囲内であるか否かを判定する。そして、最大面積が前記閾値以上である場合、少なくとも1つのポケット部2にて不良が生じているとして、ステップS305にて、濃淡模様データ(元画像データ)に対応するPTPシート1を「不良品」と判定する。
Next, in step S304, it is determined whether the maximum area among the calculated areas is less than or equal to a predetermined threshold value set in advance. In other words, it is determined whether the defective area is within the allowable range. If the maximum area is equal to or larger than the threshold value, it is determined that a defect has occurred in at least one
一方、最大面積が前記閾値を下回る場合、ステップS306にて、濃淡模様データ(元画像データ)に対応するPTPシート1を「良品」と判定する。良否判定結果は、検査情報記憶部523に記憶される。また、PTPシート1の検査時には、良否判定結果が充填制御装置82などに出力される。
On the other hand, if the maximum area is less than the threshold value, the
尚、上述した良否判定手法は一例であって、例えば不良画素の連結成分のばらつき度合い(分布状況)を判定する方法など、他の方法により良否判定を行う構成としてもよい。勿論、その大小に関係なく、不良画素が1箇所でも存在すれば、「不良品」と判定するようにしてもよい。 The above-described quality determination method is just one example, and the quality determination may be performed using other methods, such as a method of determining the degree of dispersion (distribution status) of connected components of defective pixels. Of course, if there is even one defective pixel, the product may be determined to be "defective" regardless of its size.
追加学習部52hは、追加学習データ301を用いてニューラルネットワーク190の追加学習を行うことで、新たな学習済みのAIモデル200を順次生成する。追加学習部52hは、オペレータ等によって前記追加学習命令が入力されると、追加学習処理を行う。
The
図12及び図20を参照して、追加学習処理についてより詳しく説明する。追加学習処理では、まず、ステップS401において、再構成画像データを取得する。例えば、未学習の追加学習データ301として「IM(1)」が新たに記憶されている状態で、追加学習命令が入力されると、追加学習部52hは、非使用AI記憶部525に記憶された複製現用AIモデル200z1(但し、この段階における複製現用AIモデル200z1は初期AIモデル200aである)である「AI(0)」のニューラルネットワーク190の入力層に対し、追加学習データ301である「IM(1)」を入力データとして与える。そして、ニューラルネットワーク190の出力層から出力される再構成画像データを取得する。
The additional learning process will be described in more detail with reference to FIGS. 12 and 20. In the additional learning process, first, in step S401, reconstructed image data is acquired. For example, if an additional learning command is input in a state where “IM (1)” is newly stored as unlearned
続くステップS402では、追加学習データ301と、ステップS401においてニューラルネットワーク190により出力された再構成画像データを比較し、その誤差が十分に小さいか否か(所定の閾値以下であるか否か)を判定する。
In the subsequent step S402, the
ここで、前記誤差が十分に小さい場合には、ステップS404にて、追加学習の終了条件を満たすか否かを判定する。例えば、記憶された追加学習データ301を用いた追加学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク190及びその学習情報(更新後のパラメータ等)を、新たな学習済みのAIモデル200として非使用AI記憶部525に格納して、追加学習処理を終了する。
Here, if the error is sufficiently small, it is determined in step S404 whether or not the additional learning termination condition is satisfied. For example, if additional learning using the stored
一方、ステップS402にて、前記誤差が十分に小さくない場合には、ステップS403において、ネットワーク更新処理(ニューラルネットワーク190の学習)を行った後、再びステップS401へ戻り、上記一連の処理を繰り返す。ネットワーク更新処理は、上記学習処理におけるステップS204の処理と同様である。ステップS401~403の処理を繰り返すことにより、ニューラルネットワーク190では、追加学習データ301と再構成画像データとの誤差が極力小さくなり、より正確な再構成画像データが出力されるようになる。
On the other hand, in step S402, if the error is not small enough, in step S403, network update processing (learning of the neural network 190) is performed, and then the process returns to step S401 to repeat the above series of processes. The network update process is similar to the process in step S204 in the learning process described above. By repeating the processing of steps S401 to S403, the error between the
尚、追加学習処理によって新たに生成された学習済みAIモデル200は、現用AIモデル200zや初期AIモデル200aと同様に、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)であって、良品のPTPシート1に係る画像データが入力されたときには、入力された画像データとほぼ一致する再構成画像データを生成する。また、新たに生成された学習済みAIモデル200は、現用AIモデル200zや初期AIモデル200aと同様に、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)であって、不良品のPTPシート1に係る画像データが入力されたときには、ノイズ部分(不良部分に相当する部分)が除去された、入力された画像データとほぼ一致する再構成画像データを生成する。
Note that the trained
さらに、追加学習部52hは、機能部として要因データ特定部52i及び画像出力AI用の確認部52jを備えている。本実施形態では、要因データ特定部52iが「要因データ特定手段」を構成し、画像出力AI用の確認部52jが「画像出力AI用の確認手段」を構成する。
Further, the
要因データ特定部52iは、特に追加学習修正処理にて機能する。要因データ特定部52iは、判定部52gの良否判定処理によって不良品のPTPシート1が良品であると誤判定された場合において、その誤判定に係る不良画像データ302に対する類似度に基づき、特定学習データ301aの中から、その誤判定の要因となった追加学習データ301を誤判定要因データとして特定する。本実施形態において、要因データ特定部52iは、不良画像データ302に対する特定学習データ301aの類似度(例えば、不良画像データ302から抽出される特徴量と、特定学習データ301aから抽出された特徴量とに基づき、両データ301a,302の類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも不良画像データ302などを学習させて生成したAI)を有するものである。そして、要因データ特定部52iは、前記類似判定手段によって算出された類似度と予め設定された閾値との比較結果に基づき、誤判定要因データを特定する。算出される類似度は例えば0~100であり、類似度が閾値以上となった1又は複数の特定学習データ301aが誤判定要因データとして特定される。
The factor data specifying unit 52i particularly functions in additional learning correction processing. When the
画像出力AI用の確認部52jは、追加学習処理や追加学習修正処理にて新たに生成された学習済みのAIモデル200の学習状態を確認する等のために確認処理を行う。確認処理は、追加学習処理又は追加学習修正処理によって新たな学習済みのAIモデル200が生成されたことを契機として行われる。確認処理は、次のようにして行われる。
The image output AI confirmation unit 52j performs a confirmation process to confirm the learning state of the trained
図13に示すように、まず、ステップS501にて、新たに生成されたAIモデル200における学習状態が適切であるか否かを判定する。
As shown in FIG. 13, first, in step S501, it is determined whether the learning state of the newly generated
具体的には、再構成画像データ取得部52fによって、新たに生成された学習済みのAIモデル200に対し追加学習データ301又は不良画像データ302を入力して、再構成画像データを取得する。ここで、新たな学習済みのAIモデル200が追加学習処理によって生成されたものである場合には、追加学習データ301(追加学習処理の契機となった誤判定に係る元画像データ)が該AIモデル200に入力される。一方、新たな学習済みのAIモデル200が追加学習修正処理によって生成されたものである場合には、不良画像データ302(追加学習修正処理の契機となった誤判定に係る元画像データ)が該AIモデル200に入力される。
Specifically, the reconstructed image
次いで、判定部52gによって、追加学習データ301又は不良画像データ302と再構成画像データとを比較させることに基づき、良否判定結果を得る。
Next, the
その上で、得られた良否判定結果が正しいか否かを判定する。ここで、追加学習データ301は良品のPTPシート1に係るものであるから、新たな学習済みのAIモデル200に対し追加学習データ301を入力した場合において、判定結果が「良品」となれば、良否判定結果は正しいといえる。また、不良画像データ302は不良品のPTPシート1に係るものであるから、新たな学習済みのAIモデル200に対し不良画像データ302を入力した場合において、判定結果が「不良品」となれば、良否判定結果は正しいといえる。
Then, it is determined whether the obtained quality determination result is correct or not. Here, since the
そして、良否判定結果が正しい場合、すなわち、学習状態が適切である場合には、ステップS502にて、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換可能と判断し、確認処理を終了する。一方、良否判定結果が正しくない場合、すなわち、学習状態が不適切である場合には、ステップS503にて、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換不可能と判断し、確認処理を終了する。
Then, if the pass/fail determination result is correct, that is, if the learning state is appropriate, it is determined in step S502 that the
尚、確認処理にあたっては、新たに生成された学習済みのAIモデル200に対し、追加学習処理や追加学習修正処理の契機となった、誤判定に係る元画像データ以外の追加学習データ301を入力して、得られた良否判定結果が正しくなるか否かを判定してもよい。
In addition, in the confirmation process,
さらに、追加学習部52hは、前記追加学習修正命令の入力に伴い、要因データ特定部52i及び画像出力AI用の確認部52jなどと協働して、追加学習修正処理を実行する。
Further, the
追加学習修正処理では、図14に示すように、まず、ステップS551にて、要因データ特定部52iにより1又は複数の誤判定要因データを特定する。これにより、特定学習データ301aの中から、誤判定要因データが抽出される。
In the additional learning correction process, as shown in FIG. 14, first, in step S551, the factor data specifying unit 52i specifies one or more erroneous determination factor data. Thereby, misjudgment factor data is extracted from the
次いで、ステップS552にて、再学習処理を実行する。再学習処理では、非使用AI記憶部525に記憶された初期AIモデル200aのニューラルネットワーク190に対し、ステップS551にて特定された誤判定要因データを除いた特定学習データ301aを学習させて、新たな学習済みのAIモデル200を生成する。例えば、ステップS551にて、画像データ記憶部526に記憶された特定学習データ301aである「IM(0)」~「IM(n)」の中から、誤判定要因データとして「IM(3)」が特定されたとする。この場合には、ステップS552にて、初期AIモデル200aに対し、「IM(3)」以外の特定学習データ301aである「IM(0)」~「IM(2)」及び「IM(4)」~「IM(n)」を用いて、上記追加学習処理が行われる。これにより、誤判定要因データである「IM(3)」以外の特定学習データ301aを学習した新たな学習済みのAIモデル200が生成される。
Next, in step S552, relearning processing is executed. In the relearning process, the
次いで、ステップS553にて、新たな学習済みのAIモデル200における学習状態が適切であるか否かが判定される。この処理は、確認処理におけるステップS501の処理と同様である。そして、学習状態が適切である場合には、誤判定を生じさせた不良画像データ302に対しても適切な良否判定が行われるように修正されたとして、追加学習修正処理を終了する。
Next, in step S553, it is determined whether the learning state of the new trained
一方、学習状態が不適切である場合(ステップS553:NO)、ステップS551に戻り、誤判定要因データの特定を再度行う。このとき、要因データ特定部52iは、類似度のスコアと比較する閾値を変更したり、類似度が最も高い誤判定要因データを1つのみ特定したりするといった調整を適宜行った上で、誤判定要因データの再特定を行う。尚、ステップS553において学習状態が不適切である判定された場合には、良否判定処理にて用いられる閾値の変更処理を合わせて行ってもよい。 On the other hand, if the learning state is inappropriate (step S553: NO), the process returns to step S551 and the erroneous determination factor data is identified again. At this time, the factor data specifying unit 52i performs appropriate adjustments such as changing the threshold value for comparison with the similarity score or specifying only one piece of misjudgment factor data with the highest degree of similarity. Respecify the determination factor data. Note that if it is determined in step S553 that the learning state is inappropriate, processing for changing the threshold value used in the pass/fail determination process may also be performed.
そして、学習状態が正しいものとなるまで上記処理を繰り返し行うことで、最終的に、誤判定を生じさせた不良画像データ302に対し適切に対応可能な学習済みのAIモデル200が得られる。
Then, by repeating the above process until the learning state becomes correct, a trained
さらに、追加学習部52hは、機能部として承認用処理実行部52k、承認入力受付部52l及び置換部52mを備えている。本実施形態では、承認入力受付部52lが「承認入力受付手段」を構成する。
Further, the
承認用処理実行部52kは、追加学習処理や追加学習修正処理の実行により新たな学習済みのAIモデル200が生成され、確認処理により、現用AIモデル200zを該学習済みのAIモデル200に置換可能と判断された場合に、承認用処理を実行する。承認用処理の実行により、少なくとも、追加学習情報記憶部527に記憶されている、追加学習部52hによる学習処理(追加学習処理及び追加学習修正処理)に係る各種情報と、確認処理による確認結果とが表示部522に表示される。例えば、新たな学習済みのAIモデル200を生成するために用いた追加学習データ301を示す画像などが表示される。
The approval
また、承認用処理の実行により、表示部522には、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成されたAIモデル200に置換することを承認するときに、オペレータ等によって選択される承認ボタンが表示される。尚、表示部522には、置換を承認しない場合にオペレータ等によって選択される非承認ボタンも表示される。
In addition, by executing the approval process, the currently used
承認入力受付部52lは、入力部521を用いて前記承認ボタンが選択されたときに、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成されたAIモデル200に置換することについての承認に係る入力を受付ける。承認入力受付部52lは、承認に係る入力を受付けると、所定の置換実行命令を置換部52mに出力して、承認用処理を終了する。
When the approval button is selected using the
一方、承認入力受付部52lは、入力部521を用いて前記非承認ボタンが選択されたとき、前記置換実行命令を出力することなく、承認用処理を終了する。
On the other hand, when the non-approval button is selected using the
尚、承認用処理の実行により、確認処理実行用ボタンが表示され、オペレータ等がこのボタンを選択することで、新たに生成された学習済みのAIモデル200に対し再度の確認処理が実行されるように構成してもよい。このとき、確認処理で用いられる追加学習データ301が、手動又は自動で選択されるようにしてもよい。
Note that when the approval process is executed, a confirmation process execution button is displayed, and when the operator or the like selects this button, the confirmation process is executed again for the newly generated trained
置換部52mは、前記置換実行命令が入力されたときに、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換するための置換処理を実行する。
When the replacement execution command is input, the
置換処理では、まず、PTP包装機11によるPTPシート1の生産を一時的に停止させる。その上で、使用AI記憶部524に記憶されている現用AIモデル200zが、非使用AI記憶部525に記憶されている新たな学習済みのAIモデル200に置換えられる。そして、現用AIモデル200zの置換後、PTPシート1の生産が再開される。その結果、新たな現用AIモデル200zを利用したPTPシート1の検査が開始されることとなる。尚、置換処理により、非使用AI記憶部525に記憶されている新たな学習済みのAIモデル200が、複製現用AIモデル200z1となる。
In the replacement process, first, the production of
保存処理実行部52nは、追加学習情報記憶部527に対し、追加学習処理や追加学習修正処理(すなわち、追加学習部52hによる学習処理)に係る各種情報など、AIモデル200の学習に関する情報を記憶させる。保存処理実行部52nは、追加学習情報記憶部527に対し、現用AIモデル200zや初期AIモデル200aを含む現時点までに生成された全ての学習済みのAIモデル200(承認用処理にて不採用となったAIモデル200を含む)、学習済みのAIモデル200の生成に用いられた追加学習データ301、各種処理(例えば、追加学習処理、追加学習修正処理、確認処理及び承認用処理など)にて行われた入力部521に対する全ての操作内容、承認用処理にて承認に係る入力を受付けた日時、並びに、現用AIモデル200zの置換を実行した日時などを記憶させる。
The storage
上記にて詳しく説明した追加学習部52hによる各種処理(追加学習処理や追加学習修正処理など)の流れは、簡単に言えば、図15に示すものとなる。
Briefly speaking, the flow of various processes (additional learning processing, additional learning correction processing, etc.) by the
すなわち、検査にて不良品のPTPシート1を良品と誤判定した場合(ステップS11:YES)には、オペレータ等によって追加学習修正命令が入力されることで、追加学習修正処理(ステップS12-A)が実行される。すなわち、初期AIモデル200aのニューラルネットワーク190に対し、誤判定要因データを除いた特定学習データ301aを学習させることで、新たな学習済みのAIモデル200が生成される。
That is, if the
一方、検査にて良品のPTPシート1を不良品と誤判定した場合(ステップS11:NO)には、オペレータ等によって追加学習命令が入力されることで、追加学習処理(ステップS12-B)が実行される。すなわち、複製現用AIモデル200z1に対し、誤判定に係る画像データを追加学習させることで、新たな学習済みのAIモデル200が生成される。
On the other hand, if the
そして、新たな学習済みのAIモデル200が生成されると、ステップS14の確認処理が行われる。確認処理では、まず、ステップS14-1にて、生成されたAIモデル200の学習状態が確認される。ここで、学習状態が適切である場合(ステップS14-1:YES)、現用AIモデル200zを、新たな学習済みAIモデル200に置換可能と判断する(ステップS14-2-A)。一方、学習状態が不適切である場合(ステップS14-1:NO)、現用AIモデル200zを、新たな学習済みAIモデル200に置換不可能と判断する(ステップS14-2-B)。
Then, when a new trained
置換可能と判断された場合、承認用処理(ステップS15)が実行され、置換を行う上でオペレータ等が必要とする情報が表示部522に表示される。そして、オペレータ等によって前記承認ボタンが選択されると(ステップS16:YES)、PTP包装機11が一時停止された上で、現用AIモデル200zが新たな学習済みAIモデル200に置換される(ステップS17)。一方、オペレータ等によって前記非承認ボタンが選択されると(ステップS16:No)、置換は行われず、現用AIモデル200zがそのまま利用される。
If it is determined that replacement is possible, an approval process (step S15) is executed, and information required by an operator or the like to perform the replacement is displayed on the
尚、確認処理や承認用処理が終了する前に、新たな誤判定が生じた場合には、置換に係る承認又は非承認がなされるまで、新たな追加学習処理や追加学習修正処理の実行を保留するようにしてもよい。 In addition, if a new erroneous judgment occurs before the confirmation process or approval process is completed, the new additional learning process or additional learning correction process will be executed until the replacement is approved or disapproved. It may be put on hold.
以上詳述したように、本実施形態によれば、画像データ取得部52xにより取得された元画像データ(濃淡模様データ)と、該元画像データを現用AIモデル200zへ入力して再構成された再構成画像データとを比較し、その比較結果に基づき、PTPシート1の良否を判定している。そのため、比較する両画像データは、それぞれ同一のPTPシート1に係るものとなる。従って、比較する両画像データにおいて、PTPシート1の形状や外観はそれぞれほぼ同一となるため、形状や外観の違いによる誤検出を防止するために比較的緩い判定条件を設定する必要はなく、より厳しい判定条件を設定することができる。さらに、比較する両画像データにおいて、画像データを得る際の条件(例えばカメラ51に対するPTPシート1の配置位置や配置角度、明暗状態やカメラ51の画角等)を一致させることができる。これらの結果、良否判定を非常に精度よく行うことができる。
As described in detail above, according to the present embodiment, the original image data (shaded pattern data) acquired by the image
また、現用AIモデル200zに元画像データを入力して再構成された再構成画像データに基づく良否判定により、不良品のPTPシート1が良品であると誤判定された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習部52hは、追加学習が行われていない段階のAIモデル200(現用AIモデル200zよりも前の段階のAIモデル200)である初期AIモデル200aのニューラルネットワーク190に対する学習を行い、新たな学習済みのAIモデル200を生成する。このとき、追加学習部52hは、初期AIモデル200aのニューラルネットワーク190に対し、特定学習データ301aのうち誤判定要因データ以外のデータを学習させる。そのため、新たに生成されるAIモデル200において、過去の追加学習データ301(特定学習データ301a)を生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、不良品のPTPシート1が良品であると誤判定されることをより確実に防止でき、検査精度を高めることができる。
In addition, if the
加えて、追加学習部52hは、検査に利用されている現用AIモデル200zのニューラルネットワーク190ではなく、複製現用AIモデル200z1のニューラルネットワーク190に対して学習を行う。そのため、膨大な繰り返し処理となり得る、ニューラルネットワーク190の学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数のPTPシート1に対する検査を、迅速に、かつ、効率よく行うことができる。
In addition, the
また、本実施形態では、良品のPTPシート1が不良品であると誤判定された場合、複製現用AIモデル200z1のニューラルネットワーク190に対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済みのAIモデル200を生成することが可能である。従って、良品のPTPシート1が不良品であると誤判定されることをより確実に防止可能となり、検査精度をより高めることができる。
Furthermore, in the present embodiment, when a
加えて、この追加学習は複製現用AIモデル200z1を対象とするため、追加学習のために検査を停止させる必要はない。従って、多数のPTPシート1に対する検査を、より迅速に、かつ、より効率よく行うことが可能となる。
In addition, since this additional learning targets the replicated current AI model 200z1, there is no need to stop testing for additional learning. Therefore, it becomes possible to inspect a large number of
さらに、要因データ特定部52iによって、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である不良画像データ302に対する類似度に基づき、特定学習データ301aの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ301)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成されるAIモデル200を用いた検査に係る精度をより確実に高めることができる。
Furthermore, the factor data specifying unit 52i selects misjudgment factor data from the
また、画像出力AI用の確認部52jにより、新たに生成されたAIモデル200において、該AIモデル200の生成の契機となった誤判定に係る元画像データに基づく誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。また、万が一新たに生成されたAIモデル200を用いた検査でも同様の誤判定が生じることが確認されたときには、そのような誤判定への対処(例えば、誤判定要因データの再特定を行うとともに、再特定された誤判定要因データを除いた上での再度の学習や、元画像データと再構成画像データとを比較する段階で用いる閾値の変更など)を簡便に行うことが可能となる。
In addition, the image output AI confirmation unit 52j determines whether or not an erroneous judgment based on the original image data related to the erroneous judgment that triggered the generation of the
加えて、オペレータ等による承認があって初めて、現用AIモデル200zが新たに生成された学習済みのAIモデル200に置換される。そのため、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。
〔第2実施形態〕
次いで、第2実施形態について、図21等を参照しつつ上記第1実施形態との相違点を中心に説明する。尚、上記第1実施形態及び本第2実施形態において、AIモデルやその学習に係る主な相違点は次の通りである。
(上記第1実施形態)
・学習済みのAIモデル200…良品のPTPシート1に係る画像データのみを学習して生成されたものであり、画像データが入力されると、画像データを出力する。
・追加学習処理…良品のPTPシート1を不良品と誤判定した場合に実行される。
・追加学習修正処理…不良品のPTPシート1を良品と誤判定した場合に実行される。
(本第2実施形態)
・学習済みのAIモデル400…良品及び不良品のPTPシート1に係る画像データを学習して生成されたものであり、画像データが入力されると、分類結果を出力する。
・追加学習処理…良品のPTPシート1を不良品と誤判定した場合のみならず、不良品のPTPシート1を良品と誤判定した場合や、分類結果に誤判定が生じた場合にも実行される。
・追加学習修正処理…追加学習処理に続いて行われる確認処理にて誤判定が生じた場合に実行される。
In addition, the
[Second embodiment]
Next, the second embodiment will be described with reference to FIG. 21 and the like, focusing on the differences from the first embodiment. The main differences between the first embodiment and the second embodiment regarding the AI model and its learning are as follows.
(Above first embodiment)
- Learned AI model 200: This model is generated by learning only the image data related to the
-Additional learning process...Executed when a
・Additional learning correction processing...Executed when the
(Second embodiment)
- Learned AI model 400: This model is generated by learning image data related to good and
・Additional learning process: This process is executed not only when a
・Additional learning correction processing: Executed when an erroneous determination occurs in the confirmation processing performed following the additional learning processing.
以下、本第2実施形態について詳しく説明する。 The second embodiment will be described in detail below.
上記第1実施形態において、検査装置21は、ポケット部成形装置16の下流に配置されており、ポケット部2の成形状態に関する検査を行うことで、PTPシート1の良否を判定する。これに対し、図21に示すように、本第2実施形態における検査装置23は、錠剤充填装置22よりも下流に配置されており、ポケット部2に充填された錠剤5の状態や、ポケット部2に対する異物の混入の有無などについての検査を行うことで、PTPシート1の良否を判定する。また、検査装置23は、PTPシート1の良否判定とともに、PTPシート1の不良種別を判定する。尚、本第2実施形態において、不良シート排出機構40は、検査装置23から不良品信号が入力されると、不良品のPTPシート1を排出する。
In the first embodiment, the
検査装置23は、シール前に容器フィルム3のポケット部2突出部側から検査を行う透過光式の検査装置である。検査装置23は、照明装置53、カメラ54及び検査制御装置55を有している。
The
照明装置53は、錠剤充填装置22の下流において、容器フィルム3のポケット部2開口部側に配置されており、容器フィルム3の所定範囲に対し所定の光(近赤外光など)を照射する。
The
カメラ54は、容器フィルム3のポケット部2突出部側に設けられており、照明装置53から照射される光の波長領域に感度を有するものである。カメラ54は、照明装置53から照射される光(近赤外光)のうち、容器フィルム3を透過した光を撮像する。カメラ54は、少なくとも1枚分のPTPシート1に対応する計10個のポケット部2を含む範囲を一度に撮像する。
The
検査制御装置55は、上記第1実施形態における検査制御装置52と同様に、CPU等を有するコンピュータシステムによって構成されている。図22に示すように、検査制御装置55は、CPUが各種プログラムに従って動作することで、メイン制御部55a、照明制御部55b、カメラ制御部55c、画像取込部55d、画像処理部55e、判定処理部55g、追加学習部55h及び保存処理実行部55nなどの各種機能部として機能する。本第2実施形態では、追加学習部55hが「追加学習手段」を構成する。
The
尚、メイン制御部55a、照明制御部55b、カメラ制御部55c、画像取込部55d及び画像処理部55eは、上記第1実施形態におけるメイン制御部52a、照明制御部52b、カメラ制御部52c、画像取込部52d及び画像処理部52eと同様に機能する。
Note that the
さらに、検査制御装置55には、入力部551、表示部552及び外部と各種データを送受信可能な通信部(不図示)などが設けられている。該通信部は、上記第1実施形態における通信部528と同様に機能する。本第2実施形態では、表示部552が「表示手段」を構成する。
Furthermore, the
また、検査制御装置55は、それぞれHDD等の記憶装置で構成された検査情報記憶部553、使用AI記憶部554、非使用AI記憶部555、画像データ記憶部556及び追加学習情報記憶部557を備えている。本実施形態では、非使用AI記憶部555が「識別手段記憶手段」を構成する。
The
入力部551は、検査制御装置55に対する情報の入力や該情報の変更などに用いられる入力装置であり、該入力部551を介して所定の追加学習命令を入力可能である。追加学習命令は、例えば、後述する学習済みのAIモデル400による分類結果に誤判定があった場合にオペレータ等によって入力される。勿論、検査装置23以外に別途設けられた検査装置によって誤判定が生じたと判定された場合に、追加学習命令が検査制御装置55へと自動的に入力される構成としてもよい。尚、追加学習命令の入力により、後述する追加学習処理が行われる。
The
表示部552は、各記憶部553~557に記憶された各種情報を表示可能な表示装置である。
The
検査情報記憶部553は、検査に用いられる各種設定情報や、良否判定結果などを記憶するためのものである。本第2実施形態では、各種設定情報として、良否判定用の閾値や分類用の閾値が予め記憶されている。これら閾値は、学習済みのAIモデル400による分類分けに用いられる。
The inspection
使用AI記憶部554は、「識別手段」としてのAIモデル400を記憶する。AIモデル400は、ディープニューラルネットワーク(以下、単に「ニューラルネットワーク」という。)によって、入力された元画像データを所定の項目で分類して、分類結果を出力する。つまり、本第2実施形態におけるAIモデル400は分類型のAIモデルである。
The used
使用AI記憶部554は、AIモデル400として、PTPシート1の検査に利用されている現用AIモデル400zを記憶している。現用AIモデル400zについては後により詳しく説明する。
The used
非使用AI記憶部555は、検査に利用されていないAIモデル400を記憶する。非使用AI記憶部555に記憶されるAIモデル400には、PTPシート1の検査に利用されている現用AIモデル400zとは別に記憶された、該現用AIモデル400zと同一内容の複製現用AIモデル400z1と、初期AIモデル400aとが含まれる。
The unused
本第2実施形態において、現用AIモデル400z、複製現用AIモデル400z1及び初期AIモデル400aなどの学習済みのAIモデル400は、「学習済識別手段」を構成し、初期AIモデル400aは「旧識別手段」を構成する。また、現用AIモデル400zは「現用識別手段」を構成し、複製現用AIモデル400z1は「複製現用識別手段」を構成する。
In the second embodiment, the trained
現用AIモデル400zは、追加学習部55hによる追加学習処理や追加学習修正処理によって生成され、後述する承認用処理にて採用されたAIモデル400である。検査装置23によるPTPシート1の検査は、現用AIモデル400zを用いて行われる。
The
現用AIモデル400z及び複製現用AIモデル400z1は、追加学習部55hによる追加学習処理や追加学習修正処理によって順次更新され得る。本実施形態において、各AI記憶部554,555には、現用AIモデル400zや複製現用AIモデル400z1として「AI2(n)」(図28参照)が記憶されている。尚、nは自然数を表す。
The
初期AIモデル400aは、後述する学習処理が行われている一方、追加学習部55hによる追加学習処理が全く行われていない段階のAIモデル400である。本実施形態において、AI記憶部554には、初期AIモデル400aとして、工場出荷時のAIモデル400である「AI2(0)」(図28参照)が記憶されている。
The
現用AIモデル400zや初期AIモデル400aなどの学習済みのAIモデル400は、良品のPTPシート1に係る画像データのみならず、不良品のPTPシート1に係る画像データをも学習データとして、ニューラルネットワークを深層学習(ディープラーニング)させて構築した生成モデルである。つまり、学習済みのAIモデル400は、良品及び不良品のPTPシート1に係る画像データを学習して生成されたものである。本第2実施形態において、初期AIモデル400aは、そのニューラルネットワークに対し後述する学習処理が予め行われてなるものであり、また、現用AIモデル400zや複製現用AIモデル400z1は、初期AIモデル400aのニューラルネットワークに対し、追加学習部55hによる追加学習処理などが複数回行われてなるものである。
The trained
学習済みのAIモデル400は、元画像データが入力されると、該元画像データに係るPTPシート1が「良品」である確率と、該PTPシート1が「不良品」である確率と、不良種別に関する確率とを算出する。その上で、学習済みのAIモデル400は、算出した「良品」又は「不良品」である確率と、検査情報記憶部553に記憶された良否判定用の閾値とを比較することで、入力された元画像データに係るPTPシート1の良否を判定し、その良否判定結果を出力する。
When original image data is input, the trained
また、学習済みのAIモデル400は、算出した不良種別に関する確率と、検査情報記憶部553に記憶された分類用の閾値とを比較することで、入力された元画像データに係るPTPシート1における不良の種別を判定し、その判定結果を出力する。本第2実施形態における不良の種別は、「錠剤欠け」「異物混入」及び「その他不良」である。
In addition, the trained
判定についてより詳しく説明すると、学習済みのAIモデル400は、「錠剤欠け」に関するスコアと、「異物混入」に関するスコアとを算出し、算出したスコアが分類用の閾値を超えていれば、該スコアに係る不良の種別(「錠剤欠け」又は「異物混入」)を判定結果として出力する。一方、学習済みのAIモデル400は、PTPシート1を不良と判定する場合であって、算出した各スコアがそれぞれ分類用の閾値以下である場合には、判定結果として「その他不良」を出力する。
To explain the determination in more detail, the trained
尚、「錠剤欠け」は、錠剤5に欠けが発生していることを意味し、「異物混入」は、ポケット部2内に、錠剤5の破片など、錠剤5以外の異物が存在することを意味し、「その他不良」は、「錠剤欠け」や「異物混入」以外の不良が生じていることを意味する。勿論、「錠剤欠け」や「異物混入」以外のその他の不良種別を採用してもよい。その他の不良種別としては、例えば、「錠剤割れ」(錠剤5に割れが発生していること)、「欠錠」(ポケット部2内に錠剤5が充填されていないこと)、「錠剤形状・大きさ違い」(錠剤5の形状や大きさが、製造品種と適合していないこと)、「錠剤表面剥離」(錠剤5の表面層が剥離していること)などを挙げることができる。
Note that "tablet chipping" means that the
ここで、初期AIモデル400aを生成する際に行われる学習処理(初期学習処理)について説明する。尚、この学習処理に先立って、学習データとして、良品のPTPシート1に係る画像データと、不良品のPTPシート1に係る画像データとが多数用意される。本第2実施形態において、不良品のPTPシート1に係る画像データには、不良の種別が異なるものが含まれる。また、各学習データには、分類結果の正解についての情報が関連付けられる。従って、例えば、不良品に係る学習データには、不良品という情報と、不良の種別についての情報とが関連付けられる。
Here, the learning process (initial learning process) performed when generating the
図23に示すように、学習処理では、まず、ステップS601において、未学習のニューラルネットワークを準備する。次いで、ステップS602において、分類結果を取得する。すなわち、予め用意された学習データを入力データとして、ニューラルネットワークの入力層に与える。そして、該ニューラルネットワークの出力層から出力される分類結果を取得する。 As shown in FIG. 23, in the learning process, first, in step S601, an untrained neural network is prepared. Next, in step S602, classification results are obtained. That is, learning data prepared in advance is applied to the input layer of the neural network as input data. Then, the classification results output from the output layer of the neural network are obtained.
続くステップS603では、出力された分類結果と、学習データに関連付けられた分類結果の正解とを比較し、出力された分類結果が正しいか否かを判定する。 In the following step S603, the output classification result is compared with the correct classification result associated with the learning data, and it is determined whether the output classification result is correct.
ここで、出力された分類結果が正しい場合には、ステップS605にて、学習処理の終了条件を満たすか否かを判定する。例えば、後述するステップS604の処理を経ることなくステップS603にて肯定判定されることが所定回数連続で行われた場合や、用意した学習データの全てを用いた学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク及びその学習情報(後述する更新後のパラメータ等)を初期AIモデル400aとして各使用AI記憶部554,555に格納し、学習処理を終了する。尚、使用AI記憶部554に記憶された初期AIモデル400aは、追加学習処理や追加学習修正処理に伴い現用AIモデル400zに更新される。
Here, if the output classification result is correct, it is determined in step S605 whether the end condition of the learning process is satisfied. For example, if an affirmative determination is made in step S603 without going through the process of step S604, which will be described later, a predetermined number of times in a row, or if learning using all of the prepared learning data is repeated a predetermined number of times. If so, it is determined that the termination condition is satisfied. If the termination conditions are met, the neural network and its learning information (updated parameters, etc. to be described later) are stored as the
一方、ステップS605にて終了条件を満たさない場合には、ステップS602に戻り、ニューラルネットワークの学習を再度行う。 On the other hand, if the termination condition is not satisfied in step S605, the process returns to step S602 and the learning of the neural network is performed again.
また、ステップS603にて、出力された分類結果が正しくない場合には、ステップS604においてネットワーク更新処理(ニューラルネットワークの学習)を行った後、再びステップS602へ戻り、上記一連の処理を繰り返す。 If the output classification result is incorrect in step S603, network updating processing (neural network learning) is performed in step S604, and then the process returns to step S602 to repeat the series of processes described above.
ステップS604のネットワーク更新処理では、公知の学習アルゴリズムを用いて、出力された分類結果が正しいものとなるように、ニューラルネットワークにおける重み(パラメータ)をより適切なものに更新する。そして、ステップS602~604の処理を何度も繰り返すことにより、ニューラルネットワークでは、より正確な分類結果が出力されるようになる。 In the network update process in step S604, a known learning algorithm is used to update the weights (parameters) in the neural network to more appropriate ones so that the output classification results are correct. By repeating the processing in steps S602 to S604 many times, the neural network can output more accurate classification results.
画像データ記憶部556は、後述する画像データ取得部55xにより得られた画像データ(濃淡模様データ)などの各種画像データを記憶する。尚、画像データ取得部55xにより得られる画像データ(濃淡模様データ)は、1枚分のPTPシート1に対応するものであって、ポケット部2や錠剤5に係る濃淡模様を計10個分表すものである。本第2実施形態では、画像データ記憶部556によって、「特定学習データ記憶手段」及び「誤判定発生画像データ記憶手段」が構成される。
The image
画像データ記憶部556に記憶される画像データには、追加学習部55hによる追加学習処理に利用される追加学習データ501が含まれる。追加学習データ501は、画像データ取得部55xにより得られた複数の画像データ(濃淡模様データ)のうち、現用AIモデル400zによる分類結果に誤判定を生じさせた画像データであって、所定の条件を満たすもの(例えばオペレータ等によって選択されたもの)である。従って、追加学習データ501には、良品のPTPシート1に係る画像データのみならず、不良品のPTPシート1に係る画像データも含まれる。尚、追加学習データ501には、分類結果の正解についての情報が関連付けられている。
The image data stored in the image
本実施形態では、追加学習データ501として、「IM2(1)」~「IM2(n)」(図28参照)が記憶されている。例えば、「IM2(1)」は、初期AIモデル400aのニューラルネットワークに対する追加学習処理に用いられた画像データであり、この追加学習処理によって生成されたAIモデル400が「AI2(1)」である。
In this embodiment, “IM2(1)” to “IM2(n)” (see FIG. 28) are stored as
また、追加学習データ501には、特定学習データ501aが含まれている。特定学習データ501aは、初期AIモデル400aから現用AIモデル400zを生成するにあたって用いられた追加学習データ501である。従って、本第2実施形態では、全ての追加学習データ501が特定学習データ501aに相当する。
Further, the
さらに、画像データ記憶部556に記憶される画像データには、誤判定発生画像データ502が含まれる。誤判定発生画像データ502とは、後述する確認処理において分類結果の誤判定が生じた場合における、その誤判定に係る濃淡模様データ(元画像データ)である。
Further, the image data stored in the image
尚、本第2実施形態では、分類結果の誤判定が生じたか否かについて、オペレータ等による目視検査によって判断されるようになっている。勿論、検査装置23以外に別途設けられた検査装置によって誤判定が生じたか否かを判定するようにしてもよい。
In the second embodiment, whether or not a misjudgment has occurred in the classification result is determined by visual inspection by an operator or the like. Of course, it is also possible to determine whether an erroneous determination has occurred using an inspection device provided separately other than the
そして、オペレータ等が入力部551を利用した情報の入力を行うこと等によって、画像データ記憶部556に記憶された画像データ(濃淡模様データ)のうちの誤判定発生画像データ502が特定される。
Then, by inputting information using the
追加学習情報記憶部557は、追加学習処理や追加学習修正処理(すなわち、追加学習部55hによる学習処理)に係る各種情報など、AIモデル400の学習に関する情報を記憶する。本第2実施形態では、上記第1実施形態で挙げた情報に加えて、例えば、学習済みのAIモデル400と関連付けて、該AIモデル400によって使用される前記良否判定用の閾値や前記分類用の閾値などが記憶される。また、本第2実施形態では、学習済みのAIモデル400ごとにヒートマップ(画像データにおける判定の根拠となった画素を重要度に応じて強調してなるデータ)が記憶される。
The additional learning
次いで、検査制御装置55を構成する上記各種機能部について説明する。但し、制御部55a~55c、画像取込部55d及び画像処理部55eは、上記第1実施形態における制御部52a~52c等と同様に機能するため、これらの説明は省略する。尚、本第2実施形態では、カメラ54、画像取込部55d及び画像処理部55eによって画像データ取得部55xが構成されており、この画像データ取得部55xによって、PTPシート1に係る濃淡模様データ(元画像データ)が取得される。本第2実施形態では、画像データ取得部55xが「画像データ取得手段」を構成する。
Next, the various functional units described above that constitute the
取得される濃淡模様データ(元画像データ)は、1枚分のPTPシート1に相当するものであって、ポケット部2や錠剤5に係る領域を計10個分表すものである。濃淡模様データは、画像データ記憶部556に記憶される。本第2実施形態では、取得された複数の濃淡模様データのうちの一部が、追加学習データ501や誤判定発生画像データ502となる。
The acquired shading pattern data (original image data) corresponds to one
判定処理部55gは、現用AIモデル400zに検査対象となるPTPシート1に係る濃淡模様データ(元画像データ)を入力することで、該現用AIモデル400zから出力される分類結果を取得する。取得された分類結果は、PTPシート1の検査結果であり、PTPシート1の良否や不良の種別を示す。
The
追加学習部55hは、追加学習データ501を用いてニューラルネットワークの追加学習処理を行うことで、学習済みのAIモデル400を順次生成する。追加学習部55hは、前記追加学習命令が入力されると、追加学習処理を行う。
The
追加学習処理では、図24に示すように、ステップS701にて、分類結果を取得する。すなわち、例えば、新たに記憶された未学習の追加学習データ501である「IM2(1)」を、非使用AI記憶部555に記憶された複製現用AIモデル400z1(但し、この段階における複製現用AIモデル400z1は初期AIモデル400aである)である「AI2(0)」のニューラルネットワークの入力層に与える。そして、ニューラルネットワークの出力層から出力される分類結果を取得する。尚、「IM2(1)」などの追加学習データ501は、良品のPTPシート1に係る画像データであることもあれば、不良品のPTPシート1に係る画像データであることもある。また、追加学習データ501が不良品のPTPシート1に係る画像データである場合、追加学習データ501は、少なくとも1の不良の種別に係るものである。
In the additional learning process, as shown in FIG. 24, classification results are acquired in step S701. That is, for example, "IM2(1)" which is the newly stored unlearned
続くステップS702では、分類結果が正しいか否かを判定する。ここで、分類結果が正しい場合には、ステップS704にて、追加学習処理の終了条件を満たすか否かを判定する。例えば、記憶された追加学習データ501を用いた追加学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク及びその学習情報(更新後のパラメータ等)を、新たな学習済みのAIモデル400として非使用AI記憶部555に格納する。
In the following step S702, it is determined whether the classification result is correct. Here, if the classification result is correct, it is determined in step S704 whether the conditions for ending the additional learning process are satisfied. For example, if additional learning using the stored
一方、ステップS702にて、分類結果が正しくない場合には、ステップS704において、ネットワーク更新処理(ニューラルネットワークの学習)を行った後、再びステップS701へ戻り、上記一連の処理を繰り返す。ネットワーク更新処理は、上記学習処理におけるステップS604の処理と同様である。ステップS701~704の処理を繰り返すことにより、ニューラルネットワークでは、より正確な分類結果が出力されるようになる。追加学習の終了条件が満たされると、追加学習処理を終了する。 On the other hand, if the classification result is incorrect in step S702, a network update process (neural network learning) is performed in step S704, and then the process returns to step S701 to repeat the above series of processes. The network update process is similar to the process in step S604 in the learning process described above. By repeating the processing in steps S701 to S704, the neural network can output more accurate classification results. When the additional learning termination condition is satisfied, the additional learning process is terminated.
さらに、追加学習部55hは、機能部として要因データ特定部55i及び分類出力AI用の確認部55jを備えている。本第2実施形態では、要因データ特定部55iが「要因データ特定手段」を構成し、分類出力AI用の確認部55jが「分類出力AI用の確認手段」を構成する。
Further, the
要因データ特定部55iは、後述する確認処理によって分類結果に誤判定が生じていることが確認された場合において、その誤判定に係る(その誤判定を生じさせた)誤判定発生画像データ502に対する類似度に基づき、特定学習データ501aの中から、その誤判定の要因となった追加学習データ501を誤判定要因データとして特定する。本第2実施形態において、要因データ特定部55iは、その誤判定された分類結果と同一の分類結果のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。例えば、確認処理にて「異物混入」という誤判定が生じた場合、「異物混入」のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。また、例えば、確認処理にて「良品」という誤判定が生じた場合、「良品」のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。これは、分類結果の誤判定が生じた場合、追加学習に用いたデータ(特定学習データ501a)のうち、その誤判定された分類結果と同一の分類結果に係る画像データが、その誤判定を生じさせる要因になっていると考えられるためである。尚、誤判定要因データの特定は、上記第1実施形態と同様の手法により行うことができる。
When it is confirmed that a misjudgment has occurred in the classification result through the confirmation process described later, the factor data specifying unit 55i specifies the misjudgment
分類出力AI用の確認部55jは、追加学習処理等にて新たに生成された学習済みのAIモデル400における学習状態の確認などを行うための確認処理を実行する。
The classification output
確認処理は、次のように行われる。すなわち、図25に示すように、まず、ステップS801にて、追加学習処理によって新たな学習済みのAIモデル400が生成されると、該AIモデル400における学習状態が適切であるか否かを確認する。
The confirmation process is performed as follows. That is, as shown in FIG. 25, first, in step S801, when a new trained
具体的には、新たに生成された学習済みのAIモデル400に対し、該AIモデル400の生成の契機となった誤判定に係る元画像データを入力することで、分類結果を取得する。
Specifically, the classification result is obtained by inputting the original image data related to the erroneous determination that triggered the generation of the
次いで、取得された分類結果と、入力された元画像データに関連付けられた分類結果の正解とを比較することに基づき、分類結果が正しいか否かを判定する。 Next, it is determined whether the classification result is correct based on a comparison between the obtained classification result and the correct classification result associated with the input original image data.
そして、分類結果が正しい場合(ステップS801:YES)、ステップS802にて、現用AIモデル400zを、新たに生成された学習済みのAIモデル400に置換可能と判断し、確認処理を終了する。一方、分類結果が正しくない場合(ステップS801:No)、後述する追加学習修正処理を実行して、確認処理を終了する。
If the classification result is correct (step S801: YES), it is determined in step S802 that the
尚、確認処理にあたって、新たに生成された学習済みのAIモデル400に対し、追加学習処理の契機となった、誤判定に係る元画像データ以外の追加学習データ501を入力して、得られた分類結果が正しくなるか否かを判定してもよい。
In addition, in the confirmation process,
さらに、追加学習部55hは、確認処理にて分類結果が正しくないと判定された場合(ステップS801:No)、つまり、追加学習処理により新たに生成された学習済みのAIモデル400にて誤判定が生じる場合、要因データ特定部55i及び画像出力AI用の確認部55jなどと協働して、追加学習修正処理を実行する。
Further, if the classification result is determined to be incorrect in the confirmation process (step S801: No), the
追加学習修正処理では、図26に示すように、まず、ステップS851にて、要因データ特定部55iによって、1又は複数の誤判定要因データを特定する。 In the additional learning correction process, as shown in FIG. 26, first, in step S851, the factor data specifying unit 55i specifies one or more erroneous determination factor data.
次いで、ステップS852にて、再学習処理を実行する。再学習処理では、非使用AI記憶部555に記憶された初期AIモデル400aのニューラルネットワークに対し、ステップS851にて特定された誤判定要因データを除いた特定学習データ501aを学習させて、新たな学習済みAIモデル400を生成する。例えば、ステップS851にて、画像データ記憶部556に記憶された特定学習データ501aである「IM2(0)」~「IM2(n)」の中から、誤判定要因データとして「IM2(3)」が特定されたとする。この場合には、ステップS852にて、初期AIモデル400aに対し、「IM2(3)」以外の特定学習データ501aである「IM2(0)」~「IM2(2)」及び「IM2(4)」~「IM2(n)」を用いて、上記追加学習処理が行われる。これにより、誤判定要因データである「IM2(3)」以外の特定学習データ501aを学習した新たな学習済みのAIモデル400が生成される。
Next, in step S852, relearning processing is executed. In the relearning process, the neural network of the
次いで、ステップS853にて、誤判定発生画像データ502を用いて、新たな学習済みのAIモデル400における学習状態が適切であるか否かを判定する。この処理は、確認処理におけるステップS801の処理と同様である。そして、学習状態が適切である場合には、誤判定を生じさせた誤判定発生画像データ502に対しても適切な良否判定が行われるように修正されたとして、新たな学習済みのAIモデル400を非使用AI記憶部555に記憶した上で、追加学習修正処理を終了する。
Next, in step S853, it is determined whether the learning state of the new trained
一方、学習状態が不適切である場合、ステップS851に戻り、誤判定要因データの特定を再度行う。尚、ステップS853において学習状態が不適切である判定された場合には、分類に用いられる閾値の変更処理を合わせて行ってもよい。 On the other hand, if the learning state is inappropriate, the process returns to step S851 and the erroneous determination factor data is identified again. Note that if it is determined in step S853 that the learning state is inappropriate, processing for changing the threshold used for classification may also be performed.
そして、学習状態が正しいものとなるまで上記処理を繰り返し行うことで、最終的に、誤判定を生じさせた誤判定発生画像データ502に対し適切に対応可能な学習済みのAIモデル400が生成される。生成された学習済みのAIモデル400は、非使用AI記憶部555に記憶される。
Then, by repeating the above process until the learning state becomes correct, a trained
さらに、追加学習部55hは、機能部として承認用処理実行部55k、承認入力受付部55l及び置換部55mを備えている。本第2実施形態では、承認入力受付部55lが「承認入力受付手段」を構成する。
Further, the
承認用処理実行部55k、承認入力受付部55l及び置換部55mは、上記第1実施形態における承認用処理実行部52k、承認入力受付部52l及び置換部52mと同様に機能する。従って、置換部55mが置換処理を実行することで、現用AIモデル400zが、新たに生成された学習済みのAIモデル400に置換えられるとともに、新たな現用AIモデル400zを用いた、PTPシート1の検査が開始されることとなる。
The approval
保存処理実行部55nは、基本的には上記第1実施形態における保存処理実行部52nと同様に機能する。従って、保存処理実行部55nは、追加学習情報記憶部557に対し、追加学習処理や追加学習修正処理(すなわち、追加学習部55hによる学習処理)に係る各種情報など、AIモデル400の学習に関する情報を記憶させる。但し、本第2実施形態における保存処理実行部55nは、追加学習情報記憶部557に対し、前記承認用処理にて採用された、又は、同処理にて不採用となった学習済みのAIモデル400とともに、これら学習済みのAIモデル400に関連付けて、前記良否判定用の閾値や前記分類用の閾値を記憶させる。また、保存処理実行部55nは、学習済みのAIモデル400ごとにヒートマップを記憶させる。
The storage
上記にて詳しく説明した追加学習部55hによる各種処理(追加学習処理など)の流れは、簡単に言えば、図27に示すものとなる。
Briefly speaking, the flow of various processes (additional learning processing, etc.) by the
すなわち、検査装置23(現用AIモデル400z)によって出力された分類結果に誤判定が生じた場合(ステップS21:YES)、オペレータ等によって追加学習命令が入力されることで、追加学習処理(ステップS22)が実行される。すなわち、非使用AI記憶部555に記憶された複製現用AIモデル400z1に対し、誤判定に係る、良品又は不良品の画像データを学習させることで、新たな学習済みのAIモデル400が生成される。
That is, if an erroneous determination occurs in the classification result output by the inspection device 23 (
そして、確認処理(ステップS23)にて、新たに生成された学習済みAIモデル400の学習状態が確認される。そして、学習状態が適切であると判定された場合(ステップS23-1:YES)、ステップS23-2-Aにて、現用AIモデル400zを、新たな学習済みAIモデル400に置換可能と判断される。
Then, in a confirmation process (step S23), the learning state of the newly generated trained
一方、学習状態が不適切であると判定された場合(ステップS23-1:NO)、ステップS23-2-Bにて追加学習修正処理が行われる。そして、ステップS23-1の処理における分類結果が正しいものとなるまで、追加学習修正処理(ステップS23-2-B)が繰り返し行われることで、最終的に、誤判定を生じさせた誤判定発生画像データ502に対し適切に対応可能な学習済みのAIモデル400が得られる。繰り返し行われる追加学習修正処理では、誤判定要因データの再特定や、再特定した誤判定要因データを除いた特定学習データ501aを学習させる処理が繰り返し行われる。
On the other hand, if it is determined that the learning state is inappropriate (step S23-1: NO), additional learning correction processing is performed in step S23-2-B. Then, the additional learning correction process (step S23-2-B) is repeated until the classification result in the process of step S23-1 is correct, and the erroneous judgment that caused the erroneous judgment finally occurs. A trained
そして、ステップS23-2-Aにて、新たな学習済みのAIモデル400に置換可能と判断されると、承認用処理(ステップS24)が実行されることで、置換を行う上でオペレータ等が必要とする情報が表示部551に表示される。そして、オペレータ等によって前記承認ボタンが選択されると(ステップS25:YES)、PTP包装機11が一時停止された上で、現用AIモデル400zが新たな学習済みAIモデル400に置換される(ステップS26)。一方、オペレータ等によって前記非承認ボタンが選択されると(ステップS25:No)、置換は行われず、現用AIモデル400zがそのまま利用される。
Then, in step S23-2-A, if it is determined that the new trained
以上詳述したように、本第2実施形態によれば、PTPシート1の分類結果に関する誤判定が生じた場合には、複製現用AIモデル400z1のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済みのAIモデル400を生成することが可能である。従って、より良好な検査精度を有する学習済みのAIモデル400を得ることができる。
As described in detail above, according to the second embodiment, when a misjudgment regarding the classification result of the
また、追加学習にあたっては、検査に利用されている現用AIモデル400zのニューラルネットワークではなく、非使用AI記憶部555に記憶された複製現用AIモデル400z1のニューラルネットワークに対して学習が行われる。これにより、検査を停止させることなく追加学習を行うことができ、検査の迅速性や効率性をより高めることができる。
Further, during additional learning, learning is performed not on the neural network of the
さらに、分類出力AI用の確認部55jによって、新たに生成された学習済みのAIモデル400において、誤判定を生じさせた元画像データに基づく再度の誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。
Furthermore, the
加えて、分類出力AI用の確認部55jによって、再度の誤判定が生じない状態(より良好な検査精度が実現されている状態)となっていることが確認されて初めて、検査に利用されている現用AIモデル400zが、新たに生成された学習済みのAIモデル400に置換可能と判断される。従って、誤判定が生じ得る不適切なAIモデル400が、誤って検査で用いられることをより確実に防止できる。
In addition, the classification output
一方、分類出力AI用の確認部55jによって、新たに生成された学習済みのAIモデル400を用いた検査において誤判定が生じることが確認された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習部55hは、追加学習が行われていない段階のAIモデル400である初期AIモデル400aのニューラルネットワークに対する学習を行い、新たな学習済みのAIモデル400を生成する。このとき、初期AIモデル400aから現用AIモデル400zを生成するにあたって用いられた追加学習データ501である特定学習データ501aのうちの、その誤判定された分類結果と同一の分類結果のPTPシート1に係るデータの中から、その誤判定の要因と考えられるデータが、誤判定要因データとして特定される。
On the other hand, if the classification output
そして、追加学習部55hは、初期AIモデル400aのニューラルネットワークに対し、特定学習データ501aから誤判定要因データを除外したデータを学習させることで、新たな学習済みのAIモデル400を生成する。従って、分類出力AI用の確認部55jによって学習状態が不適切であると判定された場合に、過去の追加学習データ501(特定学習データ501a)を生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、PTPシート1の分類に関する誤判定が生じることをより確実に防止でき、検査精度を高めることができる。
The
加えて、分類出力AI用の確認部55jによって学習状態が不適切であると判定された場合には、検査に利用されている現用AIモデル400zのニューラルネットワークではなく、非使用AI記憶部555に記憶された初期AIモデル400aのニューラルネットワークに対し学習が行われる。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数のPTPシート1に対する検査を、より迅速に、かつ、より効率よく行うことができる。
In addition, if the classification output
また、分類出力AI用の確認部55jにより誤判定が生じることが確認された場合に、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である誤判定発生画像データ502に対する類似度に基づき、特定学習データ501aの中から誤判定要因データを特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済みのAIモデル400を用いた検査に係る精度をより確実に高めることができる。
In addition, when it is confirmed by the classification output
さらに、オペレータ等による承認があって初めて、現用AIモデル400zが新たに生成された学習済みのAIモデル400に置換される。そのため、現用AIモデル400zを、新たに生成された学習済みのAIモデル400に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。
Further, the
尚、上記実施形態の記載内容に限定されず、例えば次のように実施してもよい。勿論、以下において例示しない他の応用例、変更例も当然可能である。 Note that the present invention is not limited to the content described in the above embodiment, and may be implemented as follows, for example. Of course, other applications and modifications not exemplified below are also possible.
(a)上記実施形態では、初期AIモデル200a,400aが「旧識別手段」を構成している。これに対し、追加学習処理が一部行われていない段階のAIモデル200,400である「AI(1)」~「AI(n-1)」や「AI2(1)」~「AI2(n-1)」のいずれかによって「旧識別手段」が構成されるようにしてもよい。従って、例えば、「AI(99)」が「旧識別手段」を構成することとしてもよい(図29参照)。また、このような構成においては、「AI(0)」~「AI(98)」に係るデータと、これらAIモデル200(「AI(0)」~「AI(98)」)の追加学習に用いられた追加学習データ301(「IM(1)」~「IM(99)」)とが仮に画像データ記憶部526に記憶されていない場合に、不良品のPTPシート1が良品であるなどの誤判定されたときには、例えば、「IM(100)」以降の追加学習データ301の中から誤判定要因データを特定し、この誤判定要因データを除いた「IM(100)」以降の追加学習データ301を用いて、「AI(99)」の再学習処理を行うようにしてもよい。
(a) In the above embodiment, the
また、追加学習処理が一部又は全部行われていない段階のAIモデル200,400である「AI(0)」~「AI(n-1)」や「AI2(0)」~「AI2(n-1)」の全てがそれぞれ「旧識別手段」を構成することとしてもよく、非使用AI記憶部525,555は、これらのAIモデル200,400の全てを記憶していてもよい。また、この場合には、再学習処理を、誤判定要因データを追加学習する直前のAIモデル200に対し行うようにしてもよい。例えば、誤判定要因データが「IM(3)」であると特定された場合、この誤判定要因データを追加学習する直前のAIモデル200である「AI(2)」に対し再学習処理を行うようにしてもよい。
In addition, AI models 200,400 that have not undergone some or all additional learning processing, such as "AI(0)" to "AI(n-1)" and "AI2(0)" to "AI2(n -1)" may respectively constitute the "old identification means", and the unused
さらに、「旧識別手段」を、現用AIモデル200zとの関係で適宜変更する構成としてもよい。例えば、現用AIモデル200zを基準として、直近の所定回数(例えば10回など)の追加学習処理が行われる前の段階のAIモデル200を「旧識別手段」としてもよい。この場合、現用AIモデル200zの更新に伴い、「旧識別手段」となるAIモデル200が変更される。
Furthermore, the "old identification means" may be changed as appropriate in relation to the
(b)上記実施形態において、初期AIモデル200a,400aは、予め学習処理が行われたものとされているが、初期AIモデル200a,400aは、学習処理が行われていないものであってもよい。この場合には、追加学習部52h,55hによって、上記実施形態で述べた学習処理を初期AIモデル200a,400aに対し行うことで、学習済みのAIモデル200,400を生成してもよい。従って、追加学習部52h,55hは、学習処理及び追加学習処理の双方を実行可能なものであってもよい。
(b) In the above embodiment, the
(c)上記実施形態において、誤判定要因データは、不良画像データ302や誤判定発生画像データ502との類似度に基づき特定されているが、その特定手法を適宜変更してもよい。例えば、直近の追加学習処理に用いられた追加学習データ301,501を誤判定要因データとして特定するようにしてもよい。
(c) In the embodiment described above, the misjudgment factor data is specified based on the degree of similarity with the
(d)上記実施形態において、検査装置21,23は、PTPシート1の検査に用いられているが、検査装置21,23による検査対象物はPTPシート1に限定されるものではない。従って、例えば、検査装置21,23によって、錠剤5の検査を行うように構成してもよい。
(d) In the above embodiment, the
尚、錠剤の種別や形状等については、上記実施形態に限定されるものではない。例えば錠剤には、医薬のみならず、飲食用に用いられる錠剤なども含まれる。また、錠剤には、素錠のみならず、糖衣錠やフィルムコーティング錠、口腔内崩壊錠、腸溶錠、ゼラチン被包錠などが含まれるのは勿論のこと、硬カプセルや軟カプセルなどの各種カプセル錠なども含まれる。 Note that the type, shape, etc. of the tablets are not limited to the above embodiments. For example, tablets include not only medicines but also tablets used for consumption. In addition, tablets include not only plain tablets, but also sugar-coated tablets, film-coated tablets, orally disintegrating tablets, enteric-coated tablets, gelatin-coated tablets, and various other capsules such as hard capsules and soft capsules. This also includes tablets.
また、例えば図30に示すようなPTPシート以外のブリスタパック800を検査対象物とすることもできる。ブリスタパック800は、所定の内容物を収容するためのポケット部801を有している。
Furthermore, for example, a
(e)「識別手段」としてのAIモデル200,400の構成及びその学習方法は、上記実施形態に限定されるものではない。例えば、ニューラルネットワークの学習処理や、再構成画像データの取得処理などを行う際に、必要に応じて各種データに対し正規化等の処理を行う構成としてもよい。また、ニューラルネットワーク190の構造は、図9に示したものに限定されず、例えば畳み込み層193の後にプーリング層を設けた構成としてもよい。勿論、ニューラルネットワーク190の層数や、各層のノード数、各ノードの接続構造などが異なる構成としてもよい。
(e) The configuration of the
さらに、上記実施形態では、AIモデル200(ニューラルネットワーク190)が、畳み込みオートエンコーダ(CAE)の構造を有した生成モデルとなっているが、これに限らず、例えば変分自己符号化器(VAE:Variational Autoencoder)など、異なるタイプのオートエンコーダの構造を有した生成モデルとしてもよい。 Further, in the above embodiment, the AI model 200 (neural network 190) is a generative model having the structure of a convolutional autoencoder (CAE), but is not limited to this, for example, a variational autoencoder (VAE) It is also possible to use a generative model with the structure of a different type of autoencoder, such as (Variational Autoencoder).
また、上記実施形態では、誤差逆伝播法によりニューラルネットワーク190を学習する構成となっているが、これに限らず、その他の種々の学習アルゴリズムを用いて学習する構成としてもよい。
Further, in the above embodiment, the
加えて、ニューラルネットワークは、いわゆるAIチップ等のAI処理専用回路によって構成されることとしてもよい。その場合、パラメータ等の学習情報のみがAI記憶部524,525(554,555)に記憶され、これをAI処理専用回路が読み出して、ニューラルネットワークに設定することによって、AIモデル200,400が構成されるようにしてもよい。
In addition, the neural network may be configured by a circuit dedicated to AI processing, such as a so-called AI chip. In that case, only learning information such as parameters is stored in the
(f)上記第2実施形態において、学習済みのAIモデル400は、入力された元画像データを、良品又は不良品と各種不良の種別とで分類可能とされているが、少なくとも分類項目には良品/不良品が含まれていればよい。従って、学習済みのAIモデル400は、良品又は不良品で分類する一方、不良の種別による分類を行わないものであってもよい。
(f) In the second embodiment, the trained
1…PTPシート(検査対象物)、11…PTP包装機、21,23…検査装置、52f…再構成画像データ取得部(再構成画像データ取得手段)、52g…判定部(判定手段)、52h,55h…追加学習部(追加学習手段)、52i,55i…要因データ特定部(要因データ特定手段)、52j…画像出力AI用の確認部(画像出力AI用の確認手段)、52x,55x…画像データ取得部(画像データ取得手段)、55j…分類出力AI用の確認部(分類出力AI用の確認手段)、190…ニューラルネットワーク、191…エンコーダ部(符号化部)、192…デコーダ部(復号化部)、200,400…AIモデル(識別手段)、200a,400a…初期AIモデル(学習済識別手段、旧識別手段)、200z,400z…現用AIモデル(学習済識別手段、現用識別手段)、200z1,400z1…複製現用AIモデル(学習済識別手段、複製現用識別手段)、525,555…非使用AIモデル記憶部(識別手段記憶手段)、526,556…画像データ記憶部(特定学習データ記憶手段、不良画像データ記憶手段)。 1...PTP sheet (inspection object), 11...PTP packaging machine, 21, 23...inspection device, 52f...reconstructed image data acquisition section (reconstructed image data acquisition means), 52g...judgment section (judgment means), 52h , 55h... Additional learning unit (additional learning means), 52i, 55i... Factor data specifying unit (factor data specifying unit), 52j... Confirmation unit for image output AI (confirmation unit for image output AI), 52x, 55x... Image data acquisition unit (image data acquisition means), 55j... Confirmation unit for classification output AI (confirmation unit for classification output AI), 190... Neural network, 191... Encoder unit (encoding unit), 192... Decoder unit ( decoding unit), 200, 400...AI model (identification means), 200a, 400a...initial AI model (trained identification means, old identification means), 200z, 400z...current AI model (trained identification means, current identification means) ), 200z1, 400z1...Replicated current AI model (trained identification means, replicated current identification means), 525,555...Unused AI model storage section (identification means storage means), 526,556...Image data storage section (specific learning data storage means, defective image data storage means).
Claims (9)
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークによって、入力された画像データに応じた画像データを出力可能に構成された識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成した、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記画像データ取得手段により得られた画像データである元画像データを、前記学習済識別手段に入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
前記元画像データと、該元画像データを前記学習済識別手段に入力して取得された前記再構成画像データとを比較し、比較結果に基づき検査対象物の良否を判定可能な判定手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段を記憶する識別手段記憶手段と、
前記旧識別手段から、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段とを備え、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、不良品の検査対象物が良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定の要因として特定された前記追加学習データである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする検査装置。 An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
It is possible to output image data according to the input image data by using a neural network that has an encoding unit that extracts feature quantities from input image data and a decoding unit that reconstructs image data from the feature quantities. a trained identification means, which is the learned identification means, which is generated by causing the neural network of the configured identification means to learn only image data related to a non-defective inspection object as learning data;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to a non-defective inspection object as additional learning data;
Reconstructed image data acquisition means capable of inputting original image data, which is image data obtained by the image data acquisition means, into the learned identification means and acquiring reconstructed image data as reconstructed image data;
a determining unit capable of comparing the original image data and the reconstructed image data obtained by inputting the original image data to the learned identifying unit, and determining the quality of the inspection target based on the comparison result;
identification means storage means for storing the old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed;
Specific learning data that stores all of the specific learning data that is the additional learning data that was used to generate the current identification means that is the learned identification means that is used for inspecting the inspection object from the old identification means. and storage means;
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and performs a quality determination by the determination means based on the reconstructed image data, thereby inspecting defective products. When the target object is erroneously determined to be a good product, the neural network of the old identification means stored in the identification means storage means receives the erroneous judgment which is the additional learning data identified as the cause of the erroneous judgment. An inspection device characterized in that it is configured to be able to generate a new learned identification means by learning the specific learning data excluding factor data.
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、良品の検査対象物が不良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする請求項1に記載の検査装置。 The identification means storage means stores, separately from the current identification means, a duplicate current identification means which is the identification means having the same content as the current identification means,
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and determines whether the inspection object is a non-defective product based on the quality judgment of the judgment means based on the reconstructed image data. When an object is erroneously determined to be defective, the neural network of the duplicate current identification means stored in the identification means storage means is additionally trained with the original image data that caused the erroneous determination. 2. The inspection device according to claim 1, wherein the inspection device is configured to be able to generate a new learned identification means.
前記不良画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする請求項1に記載の検査装置。 a defective image data storage means for storing defective image data that is the original image data related to the erroneous determination when the defective inspection object is erroneously determined to be a good product by the quality determination of the determination means;
2. The inspection apparatus according to claim 1, further comprising factor data specifying means for specifying the misjudgment factor data from the specific learning data based on the degree of similarity to the defective image data.
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする請求項4に記載の検査装置。 a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the image output AI confirmation means;
5. The inspection apparatus according to claim 4, further comprising: approval input receiving means capable of accepting input regarding approval for replacing the currently used identification means with the newly generated learned identification means.
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力された画像データを所定の項目で分類し、分類結果を出力可能に構成された識別手段のニューラルネットワークに対し、良品及び不良品の検査対象物に係る画像データを学習データとして学習させることで生成してなる、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段と、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段とを記憶する識別手段記憶手段と、
前記旧識別手段から前記現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段と、
前記追加学習手段は、前記現用識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じた場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能であり、
新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して出力された分類結果に基づき、新たに生成された前記学習済識別手段の学習状態を確認する分類出力AI用の確認手段によって、学習状態が適切であると判定された場合には、前記現用識別手段を、新たに生成された前記学習済識別手段に置換可能と判断する一方、
新たに生成された前記学習済識別手段に対し前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合には、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータであり、かつ、その誤判定の要因として特定されたデータである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能であることを特徴とする検査装置。 An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
The neural network of the identification means, which is configured to classify input image data according to predetermined items and output the classification results, is trained by using image data related to inspected objects for good and defective products as learning data. a learned identification means that is the learned identification means that is generated;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to the inspection object as additional learning data;
The old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed, and the current identification means, which is the learned identification means, which is used for the inspection of the inspection object. Separately, an identification means storage means for storing a duplicate current identification means which is the identification means having the same content as the current identification means;
specific learning data storage means for storing all specific learning data that is the additional learning data used in generating the current identification means from the old identification means;
The additional learning means is configured to control the neural network of the duplicate current identification means stored in the identification means storage means when an erroneous determination occurs in the classification result output by inputting the original image data to the current identification means. , it is possible to generate a new learned identification means by additionally learning the original image data that caused the misjudgment,
Based on the classification result output by inputting the original image data related to the erroneous judgment that triggered the generation of the learned identification means to the newly generated learned identification means, If the classification output AI confirmation means for confirming the learning state of the learned identification means determines that the learning state is appropriate, the currently used identification means is replaced with the newly generated learned identification means. While it is determined that it can be replaced with
An erroneous judgment occurs in the classification result outputted by inputting the original image data to the newly generated trained identification means, and the learning state is determined to be inappropriate by the classification output AI confirmation means. If the neural network of the old identification means stored in the identification means storage means is data related to the inspection object with the same classification result as the incorrectly determined classification result, and An inspection device capable of generating a new learned identification means by learning the specific learning data excluding erroneous judgment factor data that is data specified as a factor of erroneous judgment.
前記誤判定発生画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする請求項6に記載の検査装置。 An erroneous judgment occurred in the classification result output by inputting the original image data to the newly generated trained identification means, and the learning state was determined to be inappropriate by the classification output AI confirmation means. a misjudgment occurrence image data storage means for storing misjudgment occurrence image data that is the original image data related to the misjudgment in the case;
7. The inspection apparatus according to claim 6, further comprising factor data specifying means for specifying the misjudgment factor data from the specific learning data based on the degree of similarity to the image data in which misjudgment has occurred.
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする請求項6に記載の検査装置。 a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the classification output AI confirmation means;
7. The inspection apparatus according to claim 6, further comprising: approval input receiving means capable of accepting an input regarding approval for replacing the currently used identification means with the newly generated learned identification means.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022103193 | 2022-06-28 | ||
JP2022103193 | 2022-06-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024004458A true JP2024004458A (en) | 2024-01-16 |
Family
ID=89537942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023078284A Pending JP2024004458A (en) | 2022-06-28 | 2023-05-11 | Inspection equipment and PTP packaging machine |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024004458A (en) |
-
2023
- 2023-05-11 JP JP2023078284A patent/JP2024004458A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6235684B1 (en) | Inspection device and PTP packaging machine | |
JP6777784B2 (en) | Manufacturing method for inspection equipment, blister packaging machines and blister packs | |
JP4368808B2 (en) | Appearance inspection device and PTP packaging machine | |
CN110036280B (en) | Inspection device and PTP packaging machine | |
JP6368408B1 (en) | Blister packing machine | |
CN112673249B (en) | Inspection device, PTP packaging machine, and method for manufacturing PTP sheet | |
JP6062396B2 (en) | Inspection system and PTP packaging machine | |
WO2018078613A1 (en) | System and method for automatic inspection and classification of discrete items | |
WO2022030088A1 (en) | Inspection device, blister packing machine, and method of manufacturing blister pack | |
JP2024004458A (en) | Inspection equipment and PTP packaging machine | |
JP7071956B2 (en) | Vacuum stacking system, vacuum stacking system molding defect detection method, and vacuum stacking system molding condition correction method | |
US11994477B2 (en) | Inspection device, packaging sheet manufacturing device, and inspection method | |
WO2022215296A1 (en) | Inspection device, blister packaging machine, and method for manufacturing blister pack | |
JP2015203640A (en) | inspection system and PTP packaging machine | |
JP4397850B2 (en) | Inspection device, correction data generation device, and PTP packaging machine | |
US20230410287A1 (en) | Machine Learning Fault Detection in Manufacturing | |
JPH08193954A (en) | Method and apparatus for detecting peeling off of sheet in package | |
JP5679650B2 (en) | Tablet inspection device and PTP packaging machine | |
TW202414288A (en) | Risk management system for leakage of heterogeneous tablets, risk management method for leakage of heterogeneous tablets, and containment production system | |
CN117392444A (en) | Automatic defect marking method and device for cigarette case outer package |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240327 |