JP2024004458A - Inspection equipment and PTP packaging machine - Google Patents

Inspection equipment and PTP packaging machine Download PDF

Info

Publication number
JP2024004458A
JP2024004458A JP2023078284A JP2023078284A JP2024004458A JP 2024004458 A JP2024004458 A JP 2024004458A JP 2023078284 A JP2023078284 A JP 2023078284A JP 2023078284 A JP2023078284 A JP 2023078284A JP 2024004458 A JP2024004458 A JP 2024004458A
Authority
JP
Japan
Prior art keywords
image data
identification means
learning
model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023078284A
Other languages
Japanese (ja)
Inventor
将蔵 小田
Shozo Oda
剛将 大谷
Takemasa Otani
剛 大山
Takeshi Oyama
憲彦 坂井田
Norihiko Sakaida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CKD Corp
Original Assignee
CKD Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CKD Corp filed Critical CKD Corp
Publication of JP2024004458A publication Critical patent/JP2024004458A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Containers And Plastic Fillers For Packaging (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide inspection equipment that can enhance inspection accuracy while applying past additional learning.
SOLUTION: An additional learning unit 52h generates a trained AI model 200 by causing a neural network of an AI model 200 to additionally learn image data related to conforming products as additional learning data. When a defective product is incorrectly determined to be a conforming product by quality determination using an active AI model 200z used for inspection, the additional learning unit 52h generates a new trained AI model 200 by causing the neural network of the AI model 200 at a stage before obtaining the active AI model 200z to learn data other than additional learning data identified as factors of erroneous determination among the additional learning data used to generate the active AI model 200z from the AI model 200.
SELECTED DRAWING: Figure 6
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、所定の検査対象物を検査するための検査装置及びポケット部に錠剤が収容されてなるPTPシートを製造するためのPTP包装機に関する。 The present invention relates to an inspection device for inspecting a predetermined inspection object and a PTP packaging machine for producing a PTP sheet in which tablets are accommodated in pockets.

一般に医薬品や食料品等の分野において用いられるブリスタシートとしてPTP(プレススルーパック)シートが知られている。PTPシートは、錠剤が収容されるポケット部を有する容器フィルムと、その容器フィルムに対しポケット部の開口側を密封するように取着されるカバーフィルムとを備えている。 PTP (Press Through Pack) sheets are known as blister sheets that are generally used in the fields of pharmaceuticals, foodstuffs, and the like. The PTP sheet includes a container film having a pocket portion in which a tablet is accommodated, and a cover film attached to the container film so as to seal the opening side of the pocket portion.

また、所定の検査装置によって、PTPシートや錠剤などの検査対象物の外観検査を行うことがある。近年では、ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成したAIモデルを用いて、検査対象物の外観検査を行う検査装置が提案されている(例えば、特許文献1,2等参照)。 Further, a predetermined inspection device may perform an appearance inspection of an inspection target such as a PTP sheet or a tablet. In recent years, inspection devices have been proposed that perform visual inspections of inspection objects using an AI model generated by training a neural network with only image data related to non-defective inspection objects as learning data (e.g. , Patent Documents 1, 2, etc.).

特開2022-29241公報JP 2022-29241 Publication 特許第7046150号公報Patent No. 7046150

ところで、AIモデルを用いた検査装置によって、良品の検査対象物を不良品であると判定するなどの誤判定が生じることがある。この場合、AIモデルのニューラルネットワークに対し、その誤判定に係る画像データを追加学習させることで、誤判定の発生低減を図ることができる。 By the way, an inspection apparatus using an AI model may make an erroneous determination, such as determining a good product to be inspected as a defective product. In this case, by causing the neural network of the AI model to additionally learn the image data related to the erroneous determination, it is possible to reduce the occurrence of erroneous determinations.

しかしながら、追加学習を重ねるにつれて、ニューラルネットワークにおける過学習が生じ、結果的に、不良品の検査対象物を良品であると誤判定する等の事態(過学習による誤判定)が生じ得る。このような事態が生じた場合、従前では、AIモデルを初期状態(例えば工場出荷時や無学習の状態)に戻すといった対応が取られているため、過去の追加学習を何ら生かすことができなくなるおそれがある。 However, as additional learning is repeated, overlearning occurs in the neural network, and as a result, a situation such as erroneously determining that a defective inspection object is a non-defective item (erroneous determination due to overlearning) may occur. When this kind of situation occurs, the conventional approach is to return the AI model to its initial state (for example, to factory shipment or no learning state), making it impossible to make any use of past additional learning. There is a risk.

本発明は、上記事情に鑑みてなされてものであり、その目的は、過去の追加学習を生かしつつ、検査精度の向上を図ることができる検査装置などを提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to provide an inspection device and the like that can improve inspection accuracy while making use of past additional learning.

以下、上記目的を解決するのに適した各手段につき、項分けして説明する。なお、必要に応じて対応する手段に特有の作用効果を付記する。 In the following, each means suitable for solving the above object will be explained in terms of sections. Note that effects specific to the corresponding means will be added as necessary.

手段1.所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークによって、入力された画像データに応じた画像データを出力可能に構成された識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成した、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記画像データ取得手段により得られた画像データである元画像データを、前記学習済識別手段に入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
前記元画像データと、該元画像データを前記学習済識別手段に入力して取得された前記再構成画像データとを比較し、比較結果に基づき検査対象物の良否を判定可能な判定手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段を記憶する識別手段記憶手段と、
前記旧識別手段から、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段とを備え、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、不良品の検査対象物が良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定の要因として特定された前記追加学習データである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする検査装置。
Means 1. An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
It is possible to output image data according to the input image data by using a neural network that has an encoding unit that extracts feature quantities from input image data and a decoding unit that reconstructs image data from the feature quantities. a trained identification means, which is the learned identification means, which is generated by causing the neural network of the configured identification means to learn only image data related to a non-defective inspection object as learning data;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to a non-defective inspection object as additional learning data;
Reconstructed image data acquisition means capable of inputting original image data, which is image data obtained by the image data acquisition means, into the learned identification means and acquiring reconstructed image data as reconstructed image data;
a determining unit capable of comparing the original image data and the reconstructed image data obtained by inputting the original image data to the learned identifying unit, and determining the quality of the inspection target based on the comparison result;
identification means storage means for storing the old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed;
Specific learning data that stores all of the specific learning data that is the additional learning data that was used to generate the current identification means that is the learned identification means that is used for inspecting the inspection object from the old identification means. and storage means;
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and performs a quality determination by the determination means based on the reconstructed image data, thereby inspecting defective products. When the target object is erroneously determined to be a good product, the neural network of the old identification means stored in the identification means storage means receives the erroneous judgment which is the additional learning data identified as the cause of the erroneous judgment. An inspection device characterized in that it is configured to be able to generate a new learned identification means by learning the specific learning data excluding factor data.

尚、上記手段1にて「学習データ」として用いる「良品の検査対象物に係る画像データ」としては、これまでの検査で蓄積された良品の検査対象物に係る画像データや、作業者が目視により選別した良品の検査対象物に係る画像データ、これら画像データなどを用いて生成した仮想良品画像データなどを挙げることができる。 In addition, the "image data related to non-defective inspection objects" used as "learning data" in the above means 1 may include image data related to non-defective inspection objects accumulated from previous inspections, For example, image data related to inspection objects of non-defective products selected by the method, virtual non-defective image data generated using these image data, etc. can be mentioned.

加えて、上記手段1における「学習済識別手段」は、良品の検査対象物に係る画像データのみを学習させて生成したものであるため、不良品の検査対象物に係る元画像データを学習済識別手段に入力したときに生成される再構成画像データは、ノイズ部分(不良部分)が除去された元画像データとほぼ一致することになる。すなわち、検査対象物に不良部分があるときには、再構成画像データとして、不良部分がないものと仮定した場合の該検査対象物に係る仮想的な画像データが生成される。 In addition, the "trained identification means" in the above means 1 is generated by learning only the image data related to non-defective inspection objects. The reconstructed image data generated when input to the identification means almost matches the original image data from which noise portions (defective portions) have been removed. That is, when there is a defective part in the object to be inspected, virtual image data regarding the object to be inspected, assuming that there is no defective part, is generated as reconstructed image data.

また、上記「ニューラルネットワーク」には、例えば複数の畳み込み層を有する畳み込みニューラルネットワークなどが含まれる。上記「学習」には、例えば深層学習(ディープラーニング)などが含まれる。上記「識別手段(生成モデル)」には、例えばオートエンコーダ(自己符号化器)や、畳み込みオートエンコーダ(畳み込み自己符号化器)などが含まれる(手段6においても同様)。 Furthermore, the above-mentioned "neural network" includes, for example, a convolutional neural network having a plurality of convolutional layers. The above "learning" includes, for example, deep learning. The above-mentioned "identification means (generation model)" includes, for example, an autoencoder (self-encoder), a convolutional autoencoder (convolutional self-encoder), etc. (the same applies to the means 6).

さらに、「旧識別手段」は、ニューラルネットワークに対する学習が行われた識別手段のみならず、ニューラルネットワークが未学習の状態の識別手段も含む(手段6においても同様)。 Furthermore, the "old identification means" includes not only identification means for which neural network learning has been performed, but also identification means for which the neural network has not been trained (the same applies to means 6).

上記手段1によれば、元画像データと、該元画像データを学習済識別手段へ入力して再構成された再構成画像データとを比較し、その比較結果に基づき、検査対象物の良否を判定することができる。そのため、比較する両画像データは、それぞれ同一の検査対象物に係るものとなる。従って、比較する両画像データにおいて、検査対象物の形状や外観はそれぞれほぼ同一となるため、形状や外観の違いによる誤検出を防止するために比較的緩い判定条件を設定する必要はなく、より厳しい判定条件を設定することができる。さらに、比較する両画像データにおいて、画像データを得る際の条件(例えばカメラに対する検査対象物の配置位置や配置角度、明暗状態やカメラの画角等)を一致させることができる。これらの結果、良否判定を非常に精度よく行うことができる。 According to the above means 1, the original image data is compared with the reconstructed image data that has been reconstructed by inputting the original image data to the learned identification means, and based on the comparison result, the quality of the inspection object is determined. can be determined. Therefore, both image data to be compared relate to the same inspection object. Therefore, since the shape and appearance of the inspection target are almost the same in both image data to be compared, there is no need to set relatively loose judgment conditions to prevent false detection due to differences in shape and appearance. Strict judgment conditions can be set. Furthermore, the conditions for obtaining the image data (for example, the placement position and placement angle of the inspection object with respect to the camera, the brightness and darkness conditions, the viewing angle of the camera, etc.) can be matched in both image data to be compared. As a result, pass/fail judgments can be made with high accuracy.

また、上記手段1によれば、現用識別手段に元画像データを入力して再構成された再構成画像データに基づく良否判定により、不良品の検査対象物が良品であると誤判定された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習手段は、追加学習が一部又は全部行われていない段階の識別手段(現用識別手段よりも前の段階の識別手段)である旧識別手段(例えば初期AIモデル)のニューラルネットワークに対する学習を行い、新たな学習済識別手段を生成する。このとき、追加学習手段は、旧識別手段のニューラルネットワークに対し、旧識別手段から現用識別手段を生成するにあたって用いられた追加学習データである特定学習データのうち、前記誤判定の要因として特定された追加学習データ以外のデータを学習させる。そのため、新たに生成される学習済識別手段において、過去の追加学習データを生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、不良品の検査対象物が良品であると誤判定されることをより確実に防止でき、検査精度を高めることができる。 Further, according to the above means 1, when the defective inspection object is erroneously determined to be a non-defective product by the pass/fail judgment based on the reconstructed image data that is reconstructed by inputting the original image data to the current identification means. In other words, if it is thought that a misjudgment has occurred due to overlearning, the additional learning means is a discrimination means at a stage where some or all of the additional learning has not been performed (a discrimination means at a stage before the current discrimination means). Learning is performed on the neural network of the old identification means (for example, an initial AI model) to generate a new learned identification means. At this time, the additional learning means informs the neural network of the old identification means of the specific learning data that is the additional learning data used to generate the current identification means from the old identification means. Train data other than the additional training data. Therefore, in the newly generated learned identification means, the learning state can be corrected so as to more reliably suppress the occurrence of erroneous determinations due to overlearning while making use of past additional learning data. As a result, it is possible to more reliably prevent a defective inspection object from being erroneously determined to be a non-defective item, and it is possible to improve inspection accuracy.

加えて、追加学習手段は、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された旧識別手段のニューラルネットワークに対して学習を行う。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数の検査対象物に対する検査を、迅速に、かつ、効率よく行うことができる。 In addition, the additional learning means performs learning on the neural network of the old identification means stored in the identification means storage means, rather than on the neural network of the current identification means used in the test. Therefore, processing related to learning of a neural network and processing related to extraction (identification) of data causing false judgments, which can be a hugely repetitive process, can be performed without stopping the test. Thereby, inspection of a large number of inspection objects can be performed quickly and efficiently.

手段2.前記識別手段記憶手段は、前記現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段を記憶しており、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、良品の検査対象物が不良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする手段1に記載の検査装置。
Means 2. The identification means storage means stores, separately from the current identification means, a duplicate current identification means which is the identification means having the same content as the current identification means,
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and determines whether the inspection object is a non-defective product based on the quality judgment of the judgment means based on the reconstructed image data. When an object is erroneously determined to be defective, the neural network of the duplicate current identification means stored in the identification means storage means is additionally trained with the original image data that caused the erroneous determination. , the inspection device according to means 1, characterized in that it is configured to be able to generate a new learned identification means.

上記手段2によれば、良品の検査対象物が不良品であると誤判定された場合、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済識別手段を生成することが可能である。従って、良品の検査対象物が不良品であると誤判定されることをより確実に防止な学習済識別手段を生成することが可能となり、検査精度をより高めることができる。 According to the above means 2, when a non-defective inspection object is erroneously determined to be a defective item, the neural network of the duplicate currently used identification means stored in the identification means storage means is asked to identify the source that caused the erroneous judgment. By additionally learning image data, it is possible to generate a new learned identification means. Therefore, it is possible to generate a learned identification means that more reliably prevents a good inspection object from being erroneously determined to be a defective product, and it is possible to further improve inspection accuracy.

また、上記手段2によれば、検査に利用されている現用識別手段とは別に記憶された、複製現用識別手段を追加学習の対象とするため、追加学習のために検査を停止させる必要はない。従って、検査に係る迅速性や効率性をより高めることができる。 Further, according to the above-mentioned means 2, since the duplicate current identification means stored separately from the current identification means used in the test is subjected to additional learning, there is no need to stop the test for additional learning. . Therefore, the speed and efficiency of testing can be further improved.

手段3.前記判定手段の良否判定によって不良品の検査対象物が良品であると誤判定された場合における、その誤判定に係る前記元画像データである不良画像データを記憶する不良画像データ記憶手段と、
前記不良画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする手段1に記載の検査装置。
Means 3. a defective image data storage means for storing defective image data that is the original image data related to the erroneous determination when the defective inspection object is erroneously determined to be a good product by the quality determination of the determination means;
2. The inspection device according to means 1, further comprising factor data specifying means for specifying the erroneous determination factor data from the specific learning data based on the degree of similarity to the defective image data.

尚、要因データ特定手段としては、例えば、不良画像データに対する特定学習データの類似度(例えば、不良画像データから抽出される特徴量と、特定学習データから抽出される特徴量とに基づく、両画像データの類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも不良画像データを学習させて生成したAI)を有し、算出された類似度と所定の閾値との比較結果に基づき、誤判定要因データの特定を行うものなどを挙げることができる。 Note that the factor data specifying means includes, for example, similarity between specific learning data and defective image data (e.g., similarity between both images based on the feature amount extracted from the defective image data and the feature amount extracted from the specific learning data). It has a publicly known similarity determination means (for example, an AI generated by training a neural network with at least defective image data) that can calculate a score indicating the degree of similarity of data), and the calculated similarity and a predetermined An example of this method is one that identifies data that causes erroneous determination based on a comparison result with a threshold value.

上記手段3によれば、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である不良画像データに対する類似度に基づき、特定学習データの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済識別手段を用いた検査に係る精度をより確実に高めることができる。 According to the above means 3, based on the degree of similarity to the defective image data that is the original image data related to the misjudgment (the original image data that caused the misjudgment), the misjudgment factor data (the misjudgment cause data) is selected from the specific learning data. Additional learning data that may be the cause can be identified. Therefore, the erroneous determination factor data can be specified more accurately, and in turn, the accuracy of the test using the newly generated learned identification means can be more reliably increased.

手段4.新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して再構成された前記再構成画像データに基づき、前記判定手段による良否判定を行わせることで、新たに生成された前記学習済識別手段の学習状態を確認する画像出力AI用の確認手段を備えることを特徴とする手段1に記載の検査装置。 Means 4. Based on the reconstructed image data that was reconstructed by inputting the original image data related to the erroneous judgment that triggered the generation of the learned discrimination means to the newly generated learned discrimination means, The inspection apparatus according to the means 1, further comprising a confirmation means for image output AI that confirms the learning state of the newly generated learned identification means by making the judgment means perform a quality judgment.

上記手段4によれば、新たに生成された学習済識別手段において、該学習済識別手段の生成の契機となった誤判定に係る元画像データに基づく誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。また、万が一新たに生成された学習済識別手段を用いた検査でも同様の誤判定が生じることが確認されたときには、そのような誤判定への対処〔別手法による誤判定要因データの再特定を行うとともに、再特定された誤判定要因データを除いた上での再度の学習や、学習以外の対処(例えば、元画像データと再構成画像データとを比較する段階で用いる閾値の見直しなど)など〕を簡便に行うことが可能となる。 According to the above-mentioned means 4, whether or not an erroneous judgment based on the original image data related to the erroneous judgment that triggered the generation of the learned identification means occurs in the newly generated learned identification means, that is, It is possible to easily confirm whether better inspection accuracy has been achieved. In addition, if it is confirmed that a similar misjudgment occurs even in a test using a newly generated trained discriminator, we will take measures to deal with such misjudgment [re-identifying the misjudgment factor data using another method]. At the same time, re-learning after removing the re-identified false judgment factor data, measures other than learning (for example, reviewing the threshold used in the stage of comparing the original image data and reconstructed image data), etc. ) can be easily performed.

手段5.前記追加学習手段による学習処理に係る情報、及び、前記画像出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする手段4に記載の検査装置。
Means 5. a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the image output AI confirmation means;
4. The inspection device according to means 4, further comprising: approval input receiving means capable of accepting input related to approval for replacing the currently used identification means with the newly generated learned identification means.

上記手段5によれば、検査に利用されている現用識別手段を、新たに生成された学習済識別手段に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。 According to the above means 5, it is possible to more reliably prevent unintentional replacement of the currently used identification means used in the test with the newly generated learned identification means. This makes it possible to more reliably prevent problems caused by unintended replacement.

手段6.所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力された画像データを所定の項目で分類し、分類結果を出力可能に構成された識別手段のニューラルネットワークに対し、良品及び不良品の検査対象物に係る画像データを学習データとして学習させることで生成してなる、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段と、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段とを記憶する識別手段記憶手段と、
前記旧識別手段から前記現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段と、
前記追加学習手段は、前記現用識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じた場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能であり、
新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して出力された分類結果に基づき、新たに生成された前記学習済識別手段の学習状態を確認する分類出力AI用の確認手段によって、学習状態が適切であると判定された場合には、前記現用識別手段を、新たに生成された前記学習済識別手段に置換可能と判断する一方、
新たに生成された前記学習済識別手段に対し前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合には、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータであり、かつ、その誤判定の要因として特定されたデータである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能であることを特徴とする検査装置。
Means 6. An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
The neural network of the identification means, which is configured to classify input image data according to predetermined items and output the classification results, is trained by using image data related to inspected objects for good and defective products as learning data. a learned identification means that is the learned identification means that is generated;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to the inspection object as additional learning data;
The old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed, and the current identification means, which is the learned identification means, which is used for the inspection of the inspection object. Separately, an identification means storage means for storing a duplicate current identification means which is the identification means having the same content as the current identification means;
specific learning data storage means for storing all specific learning data that is the additional learning data used in generating the current identification means from the old identification means;
The additional learning means is configured to control the neural network of the duplicate current identification means stored in the identification means storage means when an erroneous determination occurs in the classification result output by inputting the original image data to the current identification means. , it is possible to generate a new learned identification means by additionally learning the original image data that caused the misjudgment,
Based on the classification result output by inputting the original image data related to the erroneous judgment that triggered the generation of the learned identification means to the newly generated learned identification means, If the classification output AI confirmation means for confirming the learning state of the learned identification means determines that the learning state is appropriate, the currently used identification means is replaced with the newly generated learned identification means. While it is determined that it can be replaced with
An erroneous judgment occurs in the classification result outputted by inputting the original image data to the newly generated trained identification means, and the learning state is determined to be inappropriate by the classification output AI confirmation means. If the neural network of the old identification means stored in the identification means storage means is data related to the inspection object with the same classification result as the incorrectly determined classification result, and An inspection device capable of generating a new learned identification means by learning the specific learning data excluding erroneous judgment factor data that is data specified as a factor of erroneous judgment.

尚、上記手段6にて「学習データ」として用いる「検査対象物に係る画像データ」には、良品の検査対象物に係る画像データのみならず、不良品の検査対象物に係る画像データも含まれる。また、「検査対象物に係る画像データ」としては、検査時に得られた画像データや、該画像データに基づき生成した仮想画像データなどを挙げることができる。 Note that the "image data related to the inspection object" used as "learning data" in the above means 6 includes not only image data related to the inspection object which is a good product, but also image data related to a defective inspection object. It will be done. In addition, "image data related to the object to be inspected" may include image data obtained during inspection, virtual image data generated based on the image data, and the like.

さらに、学習済識別手段は、検査対象物の良否で分類するものであってもよいし、検査対象物の良否に加えて、検査対象物における不良の種別によって分類するものであってもよい。 Furthermore, the learned identification means may classify the inspection object according to its quality, or may classify according to the type of defect in the inspection object in addition to the quality of the inspection object.

上記手段6によれば、検査対象物の分類結果に関する誤判定が生じた場合には、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済識別手段を生成することが可能である。従って、より良好な検査精度を有する学習済識別手段を得ることができる。 According to the above means 6, when an erroneous judgment regarding the classification result of the inspection object occurs, the original image that caused the erroneous judgment is sent to the neural network of the duplicate current identification means stored in the identification means storage means. By additionally learning data, it is possible to generate a new learned identification means. Therefore, it is possible to obtain a learned identification means with better inspection accuracy.

また、追加学習にあたっては、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された複製現用識別手段のニューラルネットワークに対して学習が行われる。これにより、検査を停止させることなく追加学習を行うことができ、検査の迅速性や効率性をより高めることができる。 Further, during additional learning, learning is performed not on the neural network of the current identification means used in the test, but on the neural network of the duplicate current identification means stored in the identification means storage means. Thereby, additional learning can be performed without stopping the test, and the speed and efficiency of the test can be further improved.

加えて、上記手段6によれば、分類出力AI用の確認手段によって、新たに生成された学習済識別手段において、誤判定を生じさせた元画像データに基づく再度の誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。 In addition, according to the above means 6, the confirmation means for the classification output AI determines whether or not a second erroneous judgment based on the original image data that caused the erroneous judgment will occur in the newly generated learned identification means. In other words, it can be easily confirmed whether or not better inspection accuracy is achieved.

さらに、分類出力AI用の確認手段によって、再度の誤判定が生じない状態(より良好な検査精度が実現されている状態)となっていることが確認されて初めて、検査対象物の検査に利用されている現用識別手段が、新たに生成された学習済識別手段に置換可能と判断される。従って、誤判定が生じ得る不適切な学習済識別手段が、誤って検査で用いられることをより確実に防止できる。 Furthermore, the classification output AI cannot be used for inspection of the inspection object until it has been confirmed that it is in a state where no erroneous judgments will occur (a state in which better inspection accuracy is achieved) using the confirmation means for the classification output AI. It is determined that the currently used identification means can be replaced with the newly generated learned identification means. Therefore, it is possible to more reliably prevent inappropriate learned identification means that may cause erroneous judgments from being used in tests.

一方、分類出力AI用の確認手段によって、新たに生成された学習済識別手段を用いた検査において誤判定が生じることが確認された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習手段は、追加学習が一部又は全部行われていない段階の識別手段(現用識別手段よりも前の段階の識別手段)である旧識別手段(例えば初期AIモデル)のニューラルネットワークに対する学習を行い、新たな学習済識別手段を生成する。このとき、旧識別手段から現用識別手段を生成するにあたって用いられた追加学習データである特定学習データのうちの、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータの中から、その誤判定の要因と考えられるデータが、誤判定要因データとして特定される。 On the other hand, if it is confirmed by the classification output AI confirmation means that an erroneous judgment occurs in a test using a newly generated learned discriminator, that is, if it is thought that an erroneous judgment has occurred due to overlearning, The additional learning means performs learning on the neural network of the old classification means (for example, the initial AI model), which is a classification means at a stage where additional learning has not been performed partially or completely (classification means at a stage before the current classification means). and generate a new learned identification means. At this time, among the specific learning data that is additional learning data used to generate the current identification means from the old identification means, data regarding the inspection object with the same classification result as the incorrect classification result is selected. Based on this, data that is considered to be the cause of the misjudgment is identified as misjudgment factor data.

例えば、新たに生成された学習済識別手段による検査において良品を誤って不良品と分類することが確認されたとする。この場合、特定学習データのうちの「不良品の検査対象物に係るデータ」の中から誤判定要因データが特定される。また、例えば、新たに生成された学習済識別手段による検査において、検査対象物に生じている不良の種別を、種別Xと判定すべきところ、種別Yと誤判定することが確認されたとする。この場合、特定学習データのうちの「種別Yの不良が生じている検査対象物に係るデータ」の中から誤判定要因データが特定される。これは、分類結果の誤判定が生じた場合、追加学習に用いたデータ(特定学習データ)のうち、その誤判定された分類結果と同一の分類結果に係る画像データが、誤判定を生じさせる要因になっていると考えられるためである。 For example, suppose that it is confirmed that a non-defective item is incorrectly classified as a defective item during an inspection using a newly generated learned identification means. In this case, the misjudgment factor data is specified from among the "data related to the defective inspection object" of the specific learning data. Further, for example, suppose that in an inspection using a newly generated learned identification means, it is confirmed that the type of defect occurring in the object to be inspected is incorrectly determined to be type Y when it should be determined to be type X. In this case, the misjudgment factor data is specified from among the specific learning data, "data related to the inspection object in which a defect of type Y has occurred." This means that when a misjudgment occurs in a classification result, among the data used for additional learning (specific learning data), image data related to the same classification result as the misjudged classification result will cause the misjudgment. This is because it is thought to be a factor.

そして、追加学習手段は、旧識別手段のニューラルネットワークに対し、特定学習データから誤判定要因データを除外したデータを学習させることで、新たな学習済識別手段を生成する。従って、分類出力AI用の確認手段によって学習状態が不適切であると判定された場合に、過去の追加学習データを生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、検査対象物の分類に関する誤判定が生じることをより確実に防止でき、検査精度を高めることができる。 Then, the additional learning means generates a new learned identification means by causing the neural network of the old identification means to learn data obtained by excluding the false determination factor data from the specific learning data. Therefore, when the learning state is determined to be inappropriate by the confirmation means for classification output AI, it is possible to more reliably suppress the occurrence of false judgments due to overfitting while making use of past additional learning data. You can modify the learning state. As a result, it is possible to more reliably prevent erroneous determination regarding the classification of the object to be inspected, and improve inspection accuracy.

加えて、分類出力AI用の確認手段によって学習状態が不適切であると判定された場合は、検査に利用されている現用識別手段のニューラルネットワークではなく、識別手段記憶手段に記憶された旧識別手段のニューラルネットワークに対し学習が行われる。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数の検査対象物に対する検査を、より迅速に、かつ、より効率よく行うことができる。 In addition, if the learning state is determined to be inappropriate by the classification output AI confirmation means, the old identification stored in the identification means storage means is used instead of the neural network of the current identification means used for testing. Learning is performed on the neural network of the means. Therefore, processing related to learning of a neural network and processing related to extraction (identification) of data causing false judgments, which can be a hugely repetitive process, can be performed without stopping the test. This allows inspection of a large number of inspection objects to be performed more quickly and more efficiently.

手段7.新たに生成された前記学習済識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合における、その誤判定に係る前記元画像データである誤判定発生画像データを記憶する誤判定発生画像データ記憶手段と、
前記誤判定発生画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする手段6に記載の検査装置。
Means 7. An erroneous judgment occurred in the classification result output by inputting the original image data to the newly generated trained identification means, and the learning state was determined to be inappropriate by the classification output AI confirmation means. a misjudgment occurrence image data storage means for storing misjudgment occurrence image data that is the original image data related to the misjudgment in the case;
7. The inspection device according to means 6, further comprising factor data specifying means for specifying the misjudgment factor data from the specific learning data based on the degree of similarity to the image data in which misjudgment has occurred.

尚、要因データ特定手段としては、例えば、誤判定発生画像データに対する特定学習データの類似度(例えば、誤判定発生画像データから抽出される特徴量と、特定学習データから抽出される特徴量とに基づく、両画像データの類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも誤判定発生画像データを学習させて生成したAI)を有し、算出された類似度と所定の閾値との比較結果に基づき、誤判定要因データの特定を行うものなどを挙げることができる。 Note that the factor data specifying means may be based on, for example, the degree of similarity of the specific learning data to the image data where misjudgment has occurred (for example, the similarity between the feature amount extracted from the image data where misjudgment has occurred and the feature amount extracted from the specific learning data). It has a publicly known similarity determination means (for example, an AI generated by having a neural network learn at least the image data in which misjudgment has occurred) capable of calculating a score indicating the degree of similarity between both image data based on the image data. An example of this method is one in which erroneous determination factor data is specified based on a comparison result between the degree of similarity determined and a predetermined threshold value.

上記手段7によれば、分類出力AI用の確認手段により、学習済識別手段において誤判定が生じることが確認された場合に、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である誤判定発生画像データに対する類似度に基づき、特定学習データの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済識別手段を用いた検査に係る精度をより確実に高めることができる。 According to the means 7, when it is confirmed by the classification output AI confirmation means that an erroneous judgment occurs in the learned identification means, the original image data related to the erroneous judgment (original image data that caused the erroneous judgment ), misjudgment factor data (additional learning data that is considered to be a cause of misjudgment) can be specified from among the specific learning data. Therefore, the erroneous determination factor data can be specified more accurately, and in turn, the accuracy of the test using the newly generated learned identification means can be more reliably increased.

手段8.前記追加学習手段による学習処理に係る情報、及び、前記分類出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする手段6に記載の検査装置。
Means 8. a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the classification output AI confirmation means;
7. The inspection device according to means 6, further comprising: approval input receiving means capable of accepting input related to approval for replacing the currently used identification means with the newly generated learned identification means.

上記手段8によれば、上記手段5と同様の作用効果が奏される。 According to the above means 8, the same effect as the above means 5 is achieved.

手段9.検査対象物としての錠剤又はPTPシートを検査する、手段1又は6に記載の検査装置を備えたPTP包装機。 Means 9. A PTP packaging machine equipped with the inspection device according to means 1 or 6, which inspects a tablet or a PTP sheet as an object to be inspected.

上記手段9によれば、上記手段1又は6と同様の作用効果が奏されることとなる。 According to the above-mentioned means 9, the same effects as the above-mentioned means 1 or 6 can be achieved.

尚、上記手段に係る各技術事項を適宜組み合わせてもよい。例えば、上記手段2に係る技術事項に対し、上記手段3~5に係る技術事項のうちの少なくとも1つを組み合わせてもよい。また、上記手段7に係る技術事項に対し、上記手段8に係る技術事項を組み合わせてもよい。 Note that the technical matters related to the above means may be combined as appropriate. For example, the technical matter related to the above-mentioned means 2 may be combined with at least one of the technical matters related to the above-mentioned means 3 to 5. Furthermore, the technical matters concerning means 7 above may be combined with the technical matters concerning means 8 above.

PTPシートの斜視図である。It is a perspective view of a PTP sheet. PTPシートの部分拡大断面図である。It is a partially enlarged sectional view of a PTP sheet. PTPフィルムの斜視図である。It is a perspective view of a PTP film. 第1実施形態における検査装置の概略構成図である。It is a schematic block diagram of the inspection device in a 1st embodiment. 第1実施形態におけるPTP包装機の概略構成図である。It is a schematic block diagram of the PTP packaging machine in a 1st embodiment. 第1実施形態における検査装置の機能構成を示すブロック図である。It is a block diagram showing the functional composition of the inspection device in a 1st embodiment. ポケット部成形装置及び加熱装置の概略構成を示す一部破断正面図である。FIG. 2 is a partially cutaway front view showing a schematic configuration of a pocket forming device and a heating device. ポケット部成形工程の流れを示すフローチャートである。It is a flowchart which shows the flow of a pocket part molding process. 第1実施形態におけるニューラルネットワークの構造を説明するための模式図である。FIG. 2 is a schematic diagram for explaining the structure of a neural network in the first embodiment. 第1実施形態におけるニューラルネットワークの学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of learning processing of a neural network in a 1st embodiment. 良否判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of quality determination processing. 第1実施形態における追加学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of additional learning processing in a 1st embodiment. 第1実施形態における確認処理の流れを示すフローチャートである。It is a flowchart which shows the flow of confirmation processing in a 1st embodiment. 第1実施形態における追加学習修正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of additional learning modification processing in a 1st embodiment. 第1実施形態における各種処理の流れを示すフローチャートである。5 is a flowchart showing the flow of various processes in the first embodiment. 成形不良のないポケット部に生じる濃淡模様等を示す図である。FIG. 7 is a diagram showing a shading pattern etc. that occurs in a pocket portion without molding defects. 図16のA-A線に沿った各画素に係る輝度値を示すグラフである。17 is a graph showing the luminance value of each pixel along line AA in FIG. 16. 成形不良のあるポケット部に生じる濃淡模様等を示す図である。FIG. 7 is a diagram showing shading patterns etc. that occur in a pocket portion with molding defects. 図18のB-B線に沿った各画素に係る輝度値を示すグラフである。19 is a graph showing the luminance value of each pixel along line BB in FIG. 18. 第1実施形態において、順次生成されるAIモデルや追加学習処理に用いられた追加学習データなどを示す図である。FIG. 7 is a diagram illustrating sequentially generated AI models, additional learning data used in additional learning processing, and the like in the first embodiment. 第2実施形態におけるPTP包装機の概略構成図である。It is a schematic block diagram of the PTP packaging machine in 2nd Embodiment. 第2実施形態における検査装置の機能構成を示すブロック図である。It is a block diagram showing the functional composition of the inspection device in a 2nd embodiment. 第2実施形態におけるニューラルネットワークの学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of learning processing of a neural network in a 2nd embodiment. 第2実施形態における追加学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of additional learning processing in a 2nd embodiment. 第2実施形態における確認処理の流れを示すフローチャートである。It is a flowchart which shows the flow of confirmation processing in a 2nd embodiment. 第2実施形態における追加学習修正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of additional learning modification processing in a 2nd embodiment. 第2実施形態における各種処理の流れを示すフローチャートである。7 is a flowchart showing the flow of various processes in the second embodiment. 第2実施形態において、順次生成されるAIモデルや追加学習処理に用いられた追加学習データなどを示す図である。FIG. 7 is a diagram illustrating sequentially generated AI models, additional learning data used in additional learning processing, and the like in the second embodiment. 別の実施形態において、AI記憶部に記憶されたAIモデルや画像データ記憶部に記憶された追加学習データなどを示す図である。FIG. 7 is a diagram illustrating an AI model stored in an AI storage unit, additional learning data stored in an image data storage unit, and the like in another embodiment. 別の実施形態に係るブリスタパックの斜視図である。FIG. 3 is a perspective view of a blister pack according to another embodiment.

以下に、実施形態について図面を参照しつつ説明する。
〔第1実施形態〕
まず、「検査対象物」としてのPTPシート1について説明する。図1,2に示すように、PTPシート1は、複数のポケット部2を備えた容器フィルム3と、ポケット部2を塞ぐようにして容器フィルム3に取着されたカバーフィルム4とを有している。
Embodiments will be described below with reference to the drawings.
[First embodiment]
First, the PTP sheet 1 as the "inspection object" will be explained. As shown in FIGS. 1 and 2, the PTP sheet 1 includes a container film 3 having a plurality of pockets 2, and a cover film 4 attached to the container film 3 so as to close the pockets 2. ing.

容器フィルム3は、例えばPP(ポリプロピレン)やPVC(ポリ塩化ビニル)等の無色透明な熱可塑性樹脂材料により形成され、透光性を有している。一方、カバーフィルム4は、例えばポリプロピレン樹脂等からなるシーラントが表面に設けられた不透明材料(例えばアルミニウム箔等)により構成されている。 The container film 3 is made of a colorless and transparent thermoplastic resin material such as PP (polypropylene) or PVC (polyvinyl chloride), and has translucency. On the other hand, the cover film 4 is made of an opaque material (for example, aluminum foil, etc.) on the surface of which a sealant made of, for example, polypropylene resin or the like is provided.

PTPシート1は、平面視略矩形状に形成されている。PTPシート1には、その長手方向に沿って配列された5個のポケット部2からなるポケット列が、その短手方向に2列形成されている。つまり、計10個のポケット部2が形成されている。各ポケット部2には、内容物としての錠剤5が1つずつ収容されている。 The PTP sheet 1 is formed into a substantially rectangular shape when viewed from above. In the PTP sheet 1, two rows of pockets are formed in the transverse direction, each consisting of five pockets 2 arranged along the longitudinal direction of the PTP sheet 1. That is, a total of ten pocket portions 2 are formed. Each pocket portion 2 accommodates one tablet 5 as a content.

ポケット部2は、カバーフィルム4と相対向するように配置される平面視略円形状の底部2aと、該底部2aの周囲に連接しかつ該底部2aとフィルム平坦部(ポケット非成形部)3bとを繋ぐ略円筒形状の側部2bとから構成されている。 The pocket portion 2 includes a bottom portion 2a having a substantially circular shape in plan view and arranged to face the cover film 4, and a film flat portion (non-pocket molded portion) 3b connected to the periphery of the bottom portion 2a. and a substantially cylindrical side portion 2b connecting the two.

本実施形態における底部2aは、緩やかに湾曲した断面略円弧状に成形されているが、これに限らず、底部2aが平坦状に成形された構成としてもよい。また、底部2a及び側部2bが交わる角部2cが明らかでないような、より曲率の大きい断面円弧状に成形された構成としてもよい。 Although the bottom portion 2a in this embodiment is formed to have a gently curved approximately arc-shaped cross section, the present invention is not limited to this, and the bottom portion 2a may be formed into a flat shape. Alternatively, a configuration may be adopted in which the corner portion 2c where the bottom portion 2a and the side portion 2b intersect is not clearly formed, and the cross section is formed into an arcuate shape with a larger curvature.

PTPシート1は、帯状の容器フィルム3及び帯状のカバーフィルム4から形成された帯状のPTPフィルム6(図3参照)が打抜かれることにより製造される。 The PTP sheet 1 is manufactured by punching out a strip-shaped PTP film 6 (see FIG. 3) formed from a strip-shaped container film 3 and a strip-shaped cover film 4.

次に、上記PTPシート1を製造するPTP包装機11の概略構成について、図5を参照して説明する。 Next, a schematic configuration of the PTP packaging machine 11 that manufactures the PTP sheet 1 will be described with reference to FIG. 5.

PTP包装機11の最上流側では、帯状の容器フィルム3の原反がロール状に巻回されている。ロール状に巻回された容器フィルム3の引出し端側は、ガイドロール13に案内されている。容器フィルム3は、ガイドロール13の下流側において間欠送りロール14に掛装されている。間欠送りロール14は、間欠的に回転するモータに連結されており、容器フィルム3を間欠的に搬送する。 On the most upstream side of the PTP packaging machine 11, the original fabric of the strip-shaped container film 3 is wound into a roll. The drawn-out end side of the container film 3 wound into a roll is guided by a guide roll 13. The container film 3 is hung on an intermittent feed roll 14 on the downstream side of the guide roll 13. The intermittent feed roll 14 is connected to a motor that rotates intermittently, and conveys the container film 3 intermittently.

ガイドロール13と間欠送りロール14との間には、容器フィルム3の搬送経路に沿って、加熱装置15とポケット部成形装置16とが順に配設されている。加熱装置15によって容器フィルム3が加熱されて該容器フィルム3が比較的柔軟になった状態において、ポケット部成形装置16によって容器フィルム3の所定位置に複数のポケット部2が一度に成形される。尚、ポケット部2の成形は、間欠送りロール14による容器フィルム3の搬送動作間のインターバル中に行われる。加熱装置15及びポケット部成形装置16の構成については、後に詳述する。 Between the guide roll 13 and the intermittent feed roll 14, a heating device 15 and a pocket forming device 16 are arranged in order along the conveyance path of the container film 3. In a state where the container film 3 is heated by the heating device 15 and becomes relatively flexible, a plurality of pocket portions 2 are formed at predetermined positions on the container film 3 at once by the pocket portion forming device 16. Note that the formation of the pocket portion 2 is performed during an interval between the conveyance operations of the container film 3 by the intermittent feed roll 14. The configurations of the heating device 15 and the pocket forming device 16 will be described in detail later.

また、ガイドロール13と間欠送りロール14との間であって、ポケット部成形装置16の下流には、検査装置21が配設されている。検査装置21は、ポケット部成形装置16によって成形されたポケット部2の成形状態に関する検査を行うことで、該ポケット部2を備えたPTPシート1の検査を行うためのものである。検査装置21の構成については、後に詳述する。 Further, an inspection device 21 is disposed between the guide roll 13 and the intermittent feed roll 14 and downstream of the pocket forming device 16. The inspection device 21 is for inspecting the PTP sheet 1 including the pocket portions 2 by inspecting the molding state of the pocket portions 2 formed by the pocket portion forming device 16. The configuration of the inspection device 21 will be detailed later.

間欠送りロール14から送り出された容器フィルム3は、テンションロール18、ガイドロール19及びフィルム受けロール20の順に掛装されている。 The container film 3 sent out from the intermittent feed roll 14 is hung over a tension roll 18, a guide roll 19, and a film receiving roll 20 in this order.

フィルム受けロール20は、一定回転するモータに連結されているため、容器フィルム3を連続的に且つ一定速度で搬送する。テンションロール18は、容器フィルム3を弾性力によって緊張する側へ引っ張った状態とされており、間欠送りロール14とフィルム受けロール20との搬送動作の相違による容器フィルム3の弛みを防止して容器フィルム3を常時緊張状態に保持する。 Since the film receiving roll 20 is connected to a motor that rotates at a constant rate, it conveys the container film 3 continuously at a constant speed. The tension roll 18 is in a state in which the container film 3 is pulled to the tension side by elastic force, and prevents the container film 3 from loosening due to the difference in conveying operation between the intermittent feed roll 14 and the film receiving roll 20, and tightens the container film 3. The film 3 is kept under tension at all times.

ガイドロール19とフィルム受けロール20との間には、容器フィルム3の搬送経路に沿って、錠剤充填装置22が配設されている。 A tablet filling device 22 is disposed between the guide roll 19 and the film receiving roll 20 along the conveyance path of the container film 3.

錠剤充填装置22は、ポケット部2に錠剤5を自動的に充填する充填手段としての機能を有する。錠剤充填装置22は、フィルム受けロール20による容器フィルム3の搬送動作と同期して、所定間隔毎にシャッタを開くことで錠剤5を落下させるものであり、このシャッタ開放動作に伴って各ポケット部2に錠剤5が充填される。錠剤充填装置22の動作は、後述する充填制御装置82によって制御される。 The tablet filling device 22 has a function as a filling means for automatically filling the pocket portion 2 with the tablet 5. The tablet filling device 22 drops the tablets 5 by opening a shutter at predetermined intervals in synchronization with the conveyance operation of the container film 3 by the film receiving roll 20. 2 is filled with tablets 5. The operation of the tablet filling device 22 is controlled by a filling control device 82, which will be described later.

一方、帯状に形成されたカバーフィルム4の原反は、最上流側においてロール状に巻回されている。ロール状に巻回されたカバーフィルム4の引出し端は、ガイドロール24によって加熱ロール25の方へと案内されている。加熱ロール25は、フィルム受けロール20に圧接可能となっており、両ロール20,25間に容器フィルム3及びカバーフィルム4が送り込まれるようになっている。そして、容器フィルム3及びカバーフィルム4が、両ロール20,25間を加熱圧接状態で通過することで、容器フィルム3にカバーフィルム4が貼着され、ポケット部2がカバーフィルム4で塞がれる。これにより、錠剤5が各ポケット部2に収容されたPTPフィルム6が製造される。 On the other hand, the original fabric of the cover film 4 formed into a band shape is wound into a roll shape on the most upstream side. The drawn-out end of the cover film 4 wound into a roll is guided toward a heating roll 25 by a guide roll 24 . The heating roll 25 can be brought into pressure contact with the film receiving roll 20, so that the container film 3 and the cover film 4 are fed between both rolls 20 and 25. Then, the container film 3 and the cover film 4 pass between the rolls 20 and 25 in a heated and pressurized state, so that the cover film 4 is stuck to the container film 3 and the pocket part 2 is closed with the cover film 4. . As a result, a PTP film 6 in which a tablet 5 is housed in each pocket portion 2 is manufactured.

フィルム受けロール20から送り出されたPTPフィルム6は、テンションロール27及び間欠送りロール28の順に掛装されている。 The PTP film 6 sent out from the film receiving roll 20 is hung on a tension roll 27 and an intermittent feed roll 28 in this order.

間欠送りロール28は、間欠的に回転するモータに連結されているため、PTPフィルム6を間欠的に搬送する。テンションロール27は、PTPフィルム6を弾性力によって緊張する側へ引っ張った状態とされており、フィルム受けロール20と間欠送りロール28との搬送動作の相違によるPTPフィルム6の弛みを防止してPTPフィルム6を常時緊張状態に保持する。 Since the intermittent feed roll 28 is connected to a motor that rotates intermittently, the PTP film 6 is intermittently conveyed. The tension roll 27 is in a state in which the PTP film 6 is pulled to the tension side by elastic force, and prevents the PTP film 6 from loosening due to the difference in conveyance operation between the film receiving roll 20 and the intermittent feed roll 28, and thereby The film 6 is kept under tension at all times.

間欠送りロール28から送り出されたPTPフィルム6は、テンションロール31及び間欠送りロール32の順に掛装されている。 The PTP film 6 sent out from the intermittent feed roll 28 is hung on a tension roll 31 and an intermittent feed roll 32 in this order.

間欠送りロール32は、間欠的に回転するモータに連結されているため、PTPフィルム6を間欠的に搬送する。テンションロール31は、PTPフィルム6を弾性力によって緊張する側へ引っ張った状態とされており、間欠送りロール28,32間でのPTPフィルム6の弛みを防止する。 Since the intermittent feed roll 32 is connected to a motor that rotates intermittently, the PTP film 6 is intermittently conveyed. The tension roll 31 is in a state where the PTP film 6 is pulled toward the tension side by elastic force, and prevents the PTP film 6 from loosening between the intermittent feed rolls 28 and 32.

間欠送りロール28とテンションロール31との間には、PTPフィルム6の搬送経路に沿って、スリット成形装置33及び刻印装置34が順に配設されている。スリット成形装置33は、PTPフィルム6の所定位置に切離用スリットを成形する機能を有する。刻印装置34は、PTPフィルム6の所定位置(例えばタグ部)に刻印を付す機能を有する。尚、図1等では、切離用スリットや刻印の図示を省略している。 Between the intermittent feed roll 28 and the tension roll 31, a slit forming device 33 and a marking device 34 are arranged in this order along the conveyance path of the PTP film 6. The slit forming device 33 has a function of forming a separation slit at a predetermined position of the PTP film 6. The marking device 34 has a function of marking a predetermined position (for example, a tag portion) of the PTP film 6. Note that in FIG. 1 and the like, illustrations of the separation slit and the markings are omitted.

間欠送りロール32から送り出されたPTPフィルム6は、その下流側においてテンションロール35及び連続送りロール36の順に掛装されている。 The PTP film 6 sent out from the intermittent feed roll 32 is hung on a tension roll 35 and a continuous feed roll 36 in that order on the downstream side thereof.

間欠送りロール32とテンションロール35との間には、PTPフィルム6の搬送経路に沿って、シート打抜装置37が配設されている。シート打抜装置37は、PTPフィルム6をPTPシート1単位にその外縁を打抜くシート打抜手段(切離手段)としての機能を有する。 A sheet punching device 37 is disposed between the intermittent feed roll 32 and the tension roll 35 along the conveyance path of the PTP film 6. The sheet punching device 37 has a function as a sheet punching means (separation means) for punching out the outer edge of the PTP film 6 in units of PTP sheets.

シート打抜装置37によって打抜かれたPTPシート1は、コンベア38によって搬送され、完成品用ホッパ39に一旦貯留される。但し、PTPシート1を選択的に排出可能な不良シート排出機構40に対し後述する充填制御装置82から不良品信号が入力されると、不良品のPTPシート1は、不良シート排出機構40によって別途排出され、図示しない不良品ホッパに移送される。 The PTP sheet 1 punched by the sheet punching device 37 is conveyed by a conveyor 38 and temporarily stored in a hopper 39 for finished products. However, when a defective product signal is input from a filling control device 82 (described later) to a defective sheet discharging mechanism 40 that can selectively discharge PTP sheets 1, the defective PTP sheet 1 is separately ejected by the defective sheet discharging mechanism 40. It is discharged and transferred to a defective product hopper (not shown).

連続送りロール36の下流側には、裁断装置41が配設されている。シート打抜装置37による打抜き後に帯状に残ったスクラップ部42は、テンションロール35及び連続送りロール36に案内された後、裁断装置41に導かれる。裁断装置41は、スクラップ部42を所定寸法に裁断する機能を有する。裁断されたスクラップ部42はスクラップ用ホッパ43に貯留された後、別途廃棄処理される。 A cutting device 41 is disposed downstream of the continuous feed roll 36. The scrap portion 42 remaining in a band shape after punching by the sheet punching device 37 is guided by the tension roll 35 and the continuous feed roll 36, and then guided to the cutting device 41. The cutting device 41 has a function of cutting the scrap portion 42 into predetermined dimensions. The cut scrap portion 42 is stored in a scrap hopper 43 and then disposed of separately.

次いで、図7を参照して加熱装置15及びポケット部成形装置16の構成について説明する。 Next, the configurations of the heating device 15 and the pocket forming device 16 will be explained with reference to FIG.

加熱装置15は、上部ヒータプレート15a及び下部ヒータプレート15bを備えている。両ヒータプレート15a,15bは、図示しないヒータによって加熱可能に構成されている。両ヒータプレート15a,15bは、容器フィルム3の搬送経路を挟むようにして設けられており、それぞれ容器フィルム3に接近又は離間する方向に移動可能とされている。 The heating device 15 includes an upper heater plate 15a and a lower heater plate 15b. Both heater plates 15a and 15b are configured to be heated by a heater (not shown). Both heater plates 15a and 15b are provided so as to sandwich the conveyance path of the container film 3, and are movable in the direction toward or away from the container film 3, respectively.

また、各ヒータプレート15a,15bは、容器フィルム3におけるポケット部2の成形予定部3aに対応する位置に、複数の突出部15c,15dを備えている。 Each heater plate 15a, 15b is provided with a plurality of protrusions 15c, 15d at positions corresponding to the portions 3a of the pocket portion 2 to be formed in the container film 3.

間欠的に搬送される容器フィルム3は、一時停止中に、両ヒータプレート15a,15bの接近移動に伴い突出部15c,15dにより挟まれることで部分的に(スポット的に)加熱され、この加熱された部分が軟化状態となる。尚、本実施形態では、突出部15c,15dにおける容器フィルム3との接触部が、ポケット部2の平面形状よりも一回り小さなものとされている。 The container film 3 that is intermittently conveyed is partially (spotly) heated by being sandwiched between the protrusions 15c and 15d as the heater plates 15a and 15b move toward each other during the temporary stop. The affected part becomes softened. In this embodiment, the contact portions of the protrusions 15c and 15d with the container film 3 are made one size smaller than the planar shape of the pocket portion 2.

ポケット部成形装置16は、下型61及び上型71を備えている。下型61は、ポケット部2の位置に対応する位置に複数の挿通孔64を備えている。また、下型61は、筒状の下型チャンバー62を介して固定状態にある支持台63に固定されている。支持台63には、複数の貫通孔が形成されており、該貫通孔にはベアリング機構を介して棒状のスライダ65が挿通されている。スライダ65は、図示しないカム機構によって上下動可能である。 The pocket molding device 16 includes a lower mold 61 and an upper mold 71. The lower die 61 is provided with a plurality of insertion holes 64 at positions corresponding to the positions of the pocket portions 2. Further, the lower mold 61 is fixed to a fixed support base 63 via a cylindrical lower mold chamber 62. A plurality of through holes are formed in the support base 63, and a rod-shaped slider 65 is inserted through the through holes via a bearing mechanism. The slider 65 can be moved up and down by a cam mechanism (not shown).

スライダ65の上部には、ポケット部成形型66が固定されており、該ポケット部成形型66は、前記挿通孔64に挿通可能な棒状のプラグ66aを複数備えている。プラグ66aの先端形状は、ポケット部2の内面に対応する形状とされている。ポケット部成形型66は、前記カム機構の駆動によるスライダ65の上下動に伴い上下動する。尚、下型61やポケット部成形型66などは、生産するPTPシート1の品種に応じて適宜交換可能である。 A pocket molding die 66 is fixed to the upper part of the slider 65, and the pocket molding die 66 includes a plurality of rod-shaped plugs 66a that can be inserted into the insertion holes 64. The tip of the plug 66a has a shape corresponding to the inner surface of the pocket portion 2. The pocket mold 66 moves up and down in accordance with the up and down movement of the slider 65 driven by the cam mechanism. Note that the lower mold 61, the pocket molding mold 66, etc. can be replaced as appropriate depending on the type of PTP sheet 1 to be produced.

さらに、スライダ65及びポケット部成形型66のそれぞれの内部には、冷却水(又は温水)を循環させるための循環路67が形成されている。これにより、各プラグ66aにおける表面温度のばらつきが抑制されるようになっている。 Further, a circulation path 67 for circulating cooling water (or hot water) is formed inside each of the slider 65 and the pocket mold 66. This suppresses variations in surface temperature of each plug 66a.

プラグ66aは、ポケット部2の成形時に、初期位置、中間停止位置及び突出位置へとこの順で配置され、最終的に初期位置へと戻るようになっている。初期位置は、ポケット部2の成形工程の開始時にプラグ66aが配置される位置であり、この位置に配置されたプラグ66aは挿通孔64の下方であって挿通孔64外に配置された状態となる。中間停止位置は、ポケット部2の成形工程の中間段階にてプラグ66aが配置される位置であり、この位置に配置されたプラグ66aは挿通孔64内に配置され、容器フィルム3との間で所定の隙間を形成した状態となる。突出位置は、ポケット部2の成形工程の最終段階にてプラグ66aが配置される位置であり、この位置に配置されたプラグ66aの先端面は、ポケット部2の深さに対応する分だけ下型61から突出した状態となる。尚、このようなプラグ66aの動作は後述する成形制御装置81によって制御される。 During molding of the pocket portion 2, the plug 66a is arranged in this order to an initial position, an intermediate stop position, and a protruding position, and finally returns to the initial position. The initial position is the position where the plug 66a is placed at the start of the molding process of the pocket portion 2, and the plug 66a placed at this position is located below the insertion hole 64 and outside the insertion hole 64. Become. The intermediate stop position is a position where the plug 66a is placed at an intermediate stage of the molding process of the pocket portion 2, and the plug 66a placed at this position is placed in the insertion hole 64 and is inserted between the container film 3 and the plug 66a. A predetermined gap is formed. The protruding position is the position where the plug 66a is placed at the final stage of the molding process of the pocket part 2, and the tip surface of the plug 66a placed at this position is lowered by an amount corresponding to the depth of the pocket part 2. It will be in a state where it protrudes from the mold 61. Incidentally, such operation of the plug 66a is controlled by a molding control device 81, which will be described later.

一方、上型71は、プレート72を介して上下動可能な上板73に固定されており、下型61に対し接近又は離間する方向に沿って移動可能とされている。上型71は、下型61の挿通孔64と相対する位置に気体供給孔74を備えている。 On the other hand, the upper mold 71 is fixed to an upper plate 73 which is movable up and down via a plate 72, and is movable along the direction toward or away from the lower mold 61. The upper mold 71 is provided with a gas supply hole 74 at a position facing the insertion hole 64 of the lower mold 61.

さらに、プレート72及び上板73の内部には、気体供給孔74と連通する気体供給路75が形成されており、該気体供給路75に対し、例えばコンプレッサ等により構成された気体供給装置76から、所定の高圧の気体(不活性ガス、本実施形態では空気)が供給される。 Furthermore, a gas supply path 75 communicating with the gas supply hole 74 is formed inside the plate 72 and the upper plate 73, and a gas supply device 76 configured with a compressor or the like is connected to the gas supply path 75. , a predetermined high-pressure gas (inert gas, air in this embodiment) is supplied.

尚、本実施形態では、ポケット部成形装置16の一回の動作によって、1枚分のPTPシート1に対応する計10個のポケット部2が同時に成形される構成となっている。すなわち容器フィルム3のフィルム幅方向(Y方向)に対し5つ、かつ、フィルム搬送方向(X方向)に対し2つのポケット部2が同時に成形される構成となっている。 In this embodiment, a total of ten pockets 2 corresponding to one PTP sheet 1 are simultaneously molded by one operation of the pocket molding device 16. That is, five pockets 2 are formed in the film width direction (Y direction) of the container film 3 and two pockets 2 are formed in the film transport direction (X direction) at the same time.

次いで、図5に戻り、加熱装置15及びポケット部成形装置16によるポケット部2の成形に関する制御を行うための成形制御装置81について説明する。成形制御装置81は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)などを有するコンピュータシステムによって構成されている。 Next, returning to FIG. 5, the forming control device 81 for controlling the forming of the pocket portion 2 by the heating device 15 and the pocket portion forming device 16 will be described. The molding control device 81 is configured by a computer system having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

成形制御装置81には、プラグ66aにおける初期位置、中間停止位置及び突出位置に関する各情報などが設定記憶されており、これらの情報に基づきプラグ66aの動作制御が行われる。尚、プラグ66aの初期位置、中間停止位置及び突出位置に関する各情報は、製造対象となるPTPシート1におけるポケット部2の深さなどに応じて適宜変更される。 The forming control device 81 stores various information regarding the initial position, intermediate stop position, and protrusion position of the plug 66a, and controls the operation of the plug 66a based on this information. Note that the information regarding the initial position, intermediate stop position, and protrusion position of the plug 66a is changed as appropriate depending on the depth of the pocket portion 2 in the PTP sheet 1 to be manufactured.

ここで、成形制御装置81の制御により実行されるポケット部成形工程について図8を参照しつつ説明する。 Here, the pocket portion molding process executed under the control of the molding control device 81 will be described with reference to FIG. 8.

ポケット部成形工程では、まずステップS101の中間停止位置配置工程が行われる。中間停止位置配置工程では、スライダ65の移動によりポケット部成形型66を上方へと移動させることで、初期位置に配置されたプラグ66aが上方に向かって移動する。 In the pocket portion forming process, first, an intermediate stop position arranging process of step S101 is performed. In the intermediate stop position arrangement step, the pocket molding die 66 is moved upward by the movement of the slider 65, thereby moving the plug 66a placed at the initial position upward.

そして、設定された中間停止位置にプラグ66aが到達すると、スライダ65の移動が停止され、プラグ66aが中間停止位置に配置された状態になる。このとき、プラグ66aの先端面は、容器フィルム3から所定距離だけ離れた状態とされる。この所定距離は、通常、ポケット部2の深さよりも小さなものとされる。 When the plug 66a reaches the set intermediate stop position, the movement of the slider 65 is stopped, and the plug 66a is placed at the intermediate stop position. At this time, the tip end surface of the plug 66a is separated from the container film 3 by a predetermined distance. This predetermined distance is usually smaller than the depth of the pocket portion 2.

次いで、ステップS102の挟持工程において、上型71を下方に向けて移動させることで、固定状態にある下型61と上型71とで容器フィルム3を挟んだ状態とする。このとき、容器フィルム3のうち、ポケット部2となる成形予定部3a(図7参照)の周囲に位置する環状部分が、両型61,71で挟持された状態となる。尚、中間停止位置配置工程及び挟持工程を同時に行ってもよいし、挟持工程を中間停止位置配置工程よりも先に行ってもよい。 Next, in the clamping step of step S102, the upper mold 71 is moved downward, so that the container film 3 is sandwiched between the lower mold 61 and the upper mold 71, which are in a fixed state. At this time, the annular portion of the container film 3 located around the portion to be formed 3a (see FIG. 7), which will become the pocket portion 2, is held between the molds 61 and 71. Note that the intermediate stop position arranging step and the clamping step may be performed at the same time, or the clamping step may be performed before the intermediate stop position arranging step.

続くステップS103の膨出工程では、気体供給装置76から気体供給路75を介して気体供給孔74へと気体を供給することで、容器フィルム3におけるポケット部2の成形予定部3aに対し、その表側(図7上側)から圧縮エアを吹き付ける。気体の供給により、成形予定部3aは、ポケット部2の突出側(図7上側)とは反対側(図7下側)に膨出し、引き伸ばされて薄くなる。 In the subsequent expansion step of step S103, by supplying gas from the gas supply device 76 to the gas supply hole 74 via the gas supply path 75, the molding portion 3a of the pocket portion 2 in the container film 3 is expanded. Blow compressed air from the front side (upper side in Figure 7). By supplying the gas, the portion to be formed 3a bulges to the side (lower side in FIG. 7) opposite to the protruding side of the pocket portion 2 (upper side in FIG. 7), and is stretched and becomes thinner.

そして、成形予定部3aは、プラグ66aの先端面により支持された状態となるまで膨出する。気体の供給により成形予定部3aを膨出させる場合、膨出後の成形予定部3aの肉厚は全体的にほぼ同じになる。 Then, the portion to be formed 3a bulges out until it is supported by the tip end surface of the plug 66a. When the portion 3a to be formed is expanded by supplying gas, the thickness of the portion 3a to be formed after the expansion is approximately the same overall.

尚、プラグ66aの中間停止位置に応じて、容器フィルム3の延伸量が変化し、成形予定部3aの肉厚も変化する。プラグ66aの中間停止位置が比較的高い場合には、容器フィルム3の延伸量が比較的小さなものとなるため、成形予定部3aは全体的に厚い状態となる。一方、プラグ66aの中間停止位置が比較的低い場合には、容器フィルム3の延伸量が比較的大きなものとなるため、成形予定部3aは全体的に薄い状態となる。 Note that depending on the intermediate stop position of the plug 66a, the amount of stretching of the container film 3 changes, and the thickness of the portion to be formed 3a also changes. When the intermediate stop position of the plug 66a is relatively high, the amount of stretching of the container film 3 is relatively small, so that the portion to be formed 3a becomes thick as a whole. On the other hand, when the intermediate stop position of the plug 66a is relatively low, the amount of stretching of the container film 3 becomes relatively large, so that the portion to be formed 3a becomes thin as a whole.

続くステップS104の最終成形工程では、プラグ66aが上方へと移動し、突出位置へと配置される。その結果、成形予定部3aにおける膨らみ方向が反転して、所定の深さを有するポケット部2が成形される。 In the final molding process of step S104, the plug 66a moves upward and is placed in the protruding position. As a result, the direction of the bulge in the portion to be formed 3a is reversed, and the pocket portion 2 having a predetermined depth is formed.

尚、押圧により容器フィルム3を変形させる場合、成形予定部3aのうち底部2aに相当する部位はプラグ66aと接触して冷却されるため、底部2aに相当する部位はほとんど延伸されない。従って、中間停止位置を比較的高くすることで成形予定部3aが全体的に厚い状態となっていれば、プラグ66aによる押圧時に底部2aに相当する部位は厚い状態で維持されるため、結果的に、成形されるポケット部2における側部2bが比較的薄肉となる。 Note that when the container film 3 is deformed by pressing, the portion of the portion to be formed 3a corresponding to the bottom portion 2a comes into contact with the plug 66a and is cooled, so that the portion corresponding to the bottom portion 2a is hardly stretched. Therefore, if the portion 3a to be formed is made thick overall by setting the intermediate stop position relatively high, the portion corresponding to the bottom portion 2a will be kept thick when pressed by the plug 66a, and as a result, In addition, the side portion 2b of the pocket portion 2 to be molded is relatively thin.

一方、中間停止位置を比較的低くすることで成形予定部3aが全体的に薄い状態となっていれば、プラグ66aによる押圧時に底部2aに相当する部位は薄い状態で維持されるため、結果的に、成形されるポケット部2における側部2bが比較的厚肉となる。 On the other hand, if the portion to be formed 3a is made thin as a whole by setting the intermediate stop position relatively low, the portion corresponding to the bottom portion 2a will be kept thin when pressed by the plug 66a. In addition, the side portion 2b of the pocket portion 2 to be molded is relatively thick.

このようにプラグ66aの中間停止位置を調節し成形予定部3aの肉厚を調節することで、最終的に成形されるポケット部2における底部2a及び側部2bのそれぞれの肉厚のバランスを調節することが可能となる。 In this way, by adjusting the intermediate stop position of the plug 66a and adjusting the thickness of the portion 3a to be formed, the balance between the thicknesses of the bottom portion 2a and side portions 2b of the pocket portion 2 to be finally molded can be adjusted. It becomes possible to do so.

最終成形工程の後には、プラグ66aを初期位置に配置するとともに、両型61,71による容器フィルム3の挟持を解除することで、ポケット部成形工程が終了する。 After the final molding step, the plug 66a is placed in the initial position and the container film 3 is released from being held between the molds 61 and 71, thereby completing the pocket molding step.

次いで、錠剤充填装置22による錠剤5の充填に関する制御を行うための充填制御装置82について説明する。充填制御装置82は、CPUやRAMなどを有するコンピュータシステムによって構成されている。 Next, the filling control device 82 for controlling the filling of tablets 5 by the tablet filling device 22 will be described. The filling control device 82 is configured by a computer system including a CPU, RAM, and the like.

充填制御装置82は、検査装置21による検査結果に基づき、所定のポケット部2に対し錠剤5を充填するか否かを切換え制御可能である。具体的には、充填制御装置82は、検査装置21から所定のPTPシート1(10個のポケット部2の成形状態)に関する良否判定結果が入力され、かかる良否判定結果が「良品」判定である場合には、かかるPTPシート1に含まれる10個すべてのポケット部2に対し錠剤5を充填するように錠剤充填装置22を制御する。 The filling control device 82 can switch and control whether or not to fill a predetermined pocket portion 2 with a tablet 5 based on the inspection result by the inspection device 21 . Specifically, the filling control device 82 receives the quality determination result regarding the predetermined PTP sheet 1 (the molded state of the 10 pocket parts 2) from the inspection device 21, and the quality determination result is a "good product" determination. In this case, the tablet filling device 22 is controlled to fill all ten pockets 2 included in the PTP sheet 1 with tablets 5.

一方、充填制御装置82は、所定のPTPシート1に関する良否判定結果が「不良品」判定である場合には、かかるPTPシート1に含まれる10個すべてのポケット部2に対し錠剤5を充填しないように錠剤充填装置22を制御する。また、充填制御装置82は、不良シート排出機構40に対し不良品信号を出力する。その結果、不良シート排出機構40によって、不良品信号に係るPTPシート1(不良シート)が排出される。 On the other hand, when the quality determination result regarding the predetermined PTP sheet 1 is a "defective product" determination, the filling control device 82 does not fill the tablets 5 into all ten pockets 2 included in the PTP sheet 1. The tablet filling device 22 is controlled as follows. Furthermore, the filling control device 82 outputs a defective product signal to the defective sheet discharge mechanism 40. As a result, the defective sheet discharge mechanism 40 discharges the PTP sheet 1 (defective sheet) associated with the defective product signal.

次いで、検査装置21の構成について詳しく説明する。図4~6に示すように、検査装置21は、照明装置50、カメラ51及び検査制御装置52を備えている。 Next, the configuration of the inspection device 21 will be explained in detail. As shown in FIGS. 4 to 6, the inspection device 21 includes a lighting device 50, a camera 51, and an inspection control device 52.

照明装置50は、ポケット部2の突出側(図4下側)から容器フィルム3の所定範囲に対し所定の電磁波を照射するものである。照明装置50は、電磁波照射装置50aと、これを覆う拡散板50bとを有しており、面発光可能に構成されている。本実施形態における照明装置50は、容器フィルム3に対し紫外光を含む電磁波を照射する。 The illumination device 50 irradiates a predetermined electromagnetic wave onto a predetermined range of the container film 3 from the protruding side of the pocket portion 2 (lower side in FIG. 4). The illumination device 50 includes an electromagnetic wave irradiation device 50a and a diffusion plate 50b that covers the electromagnetic wave irradiation device 50a, and is configured to be capable of surface emission. The lighting device 50 in this embodiment irradiates the container film 3 with electromagnetic waves containing ultraviolet light.

カメラ51は、照明装置50から照射される電磁波の波長領域に感度を有するものである。カメラ51は、容器フィルム3のポケット部2開口側(図4上側)に設けられており、そのレンズの光軸OLが容器フィルム3のフィルム平坦部3bと直交する鉛直方向(Z方向)に沿うように配置されている。 The camera 51 is sensitive to the wavelength range of electromagnetic waves irradiated from the illumination device 50. The camera 51 is provided on the opening side of the pocket portion 2 of the container film 3 (upper side in FIG. 4), and the optical axis OL of its lens is along the vertical direction (Z direction) perpendicular to the film flat portion 3b of the container film 3. It is arranged like this.

また、カメラ51のレンズに対応して、バンドパスフィルタ51aが設けられている。バンドパスフィルタ51aを設けることで、照明装置50から照射される電磁波のうち、容器フィルム3を透過した紫外光のみがカメラ51により二次元撮像されることとなる。また、このようにカメラ51によって取得された透過画像データは、容器フィルム3における紫外光の透過率の差異に基づき各画素(各座標位置)で輝度の異なる輝度画像データとなる。 Further, a bandpass filter 51a is provided corresponding to the lens of the camera 51. By providing the bandpass filter 51a, only the ultraviolet light that has passed through the container film 3 out of the electromagnetic waves emitted from the illumination device 50 is two-dimensionally imaged by the camera 51. Further, the transmission image data acquired by the camera 51 in this manner becomes luminance image data in which each pixel (each coordinate position) has different luminance based on the difference in the transmittance of ultraviolet light in the container film 3.

特に本実施形態では、上記バンドパスフィルタ51aとして、例えば容器フィルム3の透過率がおよそ30±10パーセントとなる波長253±20nmの紫外光のみを通すものが用いられている。これは、容器フィルム3を透過する電磁波の透過率が高すぎても低すぎても、ポケット部2の底部2aの薄肉部位と厚肉部位における光の透過率に差が生じにくくなるおそれがあるためである。 Particularly in this embodiment, the bandpass filter 51a is a filter that passes only ultraviolet light having a wavelength of 253±20 nm, for example, at which the transmittance of the container film 3 is approximately 30±10%. This means that even if the transmittance of electromagnetic waves passing through the container film 3 is too high or too low, there is a risk that a difference in light transmittance between the thin and thick parts of the bottom part 2a of the pocket part 2 will hardly occur. It's for a reason.

尚、本実施形態におけるカメラ51の撮像範囲は、少なくともポケット部成形装置16の一回の動作で容器フィルム3に成形される1枚分のPTPシート1に対応する計10個のポケット部2を含む範囲を一度に撮像するように設定されている。 The imaging range of the camera 51 in this embodiment is at least a total of 10 pockets 2 corresponding to one PTP sheet 1 formed into the container film 3 in one operation of the pocket forming device 16. It is set to image the included range at once.

検査制御装置52は、所定の演算処理を実行するCPU、各種プログラムや固定値データ等を記憶するROM、各種演算処理の実行に際して各種データが一時的に記憶されるRAM及びこれらの周辺回路等を含んだコンピュータシステムによって構成されている。 The inspection control device 52 includes a CPU that executes predetermined arithmetic processing, a ROM that stores various programs and fixed value data, a RAM that temporarily stores various data when executing various arithmetic processing, and peripheral circuits thereof. It consists of a computer system that includes:

検査制御装置52は、CPUが各種プログラムに従って動作することで、後述するメイン制御部52a、照明制御部52b、カメラ制御部52c、画像取込部52d、画像処理部52e、再構成画像データ取得部52f、判定部52g、追加学習部52h及び保存処理実行部52nなどの各種機能部として機能する。本実施形態では、再構成画像データ取得部52fが「再構成画像データ取得手段」を構成し、判定部52gが「判定手段」を構成し、追加学習部52hが「追加学習手段」を構成する。 The inspection control device 52 has a main control section 52a, a lighting control section 52b, a camera control section 52c, an image capture section 52d, an image processing section 52e, and a reconstructed image data acquisition section, which will be described later, by the CPU operating according to various programs. 52f, a determination section 52g, an additional learning section 52h, and a storage processing execution section 52n. In this embodiment, the reconstructed image data acquisition section 52f constitutes a "reconstructed image data acquisition means," the determination section 52g constitutes a "judgment means," and the additional learning section 52h constitutes an "additional learning means." .

但し、上記各種機能部は、上記CPU、ROM、RAMなどの各種ハードウェアが協働することで実現されるものであり、ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。 However, the various functional units described above are realized by the cooperation of various hardware such as the CPU, ROM, and RAM, and there is no need to clearly distinguish between the functions realized by hardware or software. , some or all of these functions may be realized by a hardware circuit such as an IC.

さらに、検査制御装置52には、キーボードやマウス、タッチパネル等で構成される入力部521、液晶ディスプレイなどの表示画面を有する表示部522、外部と各種データを送受信可能な通信部528などが設けられている。本実施形態では、表示部522が「表示手段」を構成する。 Furthermore, the inspection control device 52 is provided with an input section 521 consisting of a keyboard, a mouse, a touch panel, etc., a display section 522 having a display screen such as a liquid crystal display, a communication section 528 capable of transmitting and receiving various data to and from the outside, and the like. ing. In this embodiment, the display unit 522 constitutes a "display means".

また、検査制御装置52は、それぞれHDD(Hard Disk Drive)やSSD(Solid State Drive)等で構成された検査情報記憶部523、使用AI記憶部524、非使用AI記憶部525、画像データ記憶部526及び追加学習情報記憶部527を備えている。本実施形態では、非使用AI記憶部525が「識別手段記憶手段」を構成する。 The inspection control device 52 also includes an inspection information storage section 523, a used AI storage section 524, an unused AI storage section 525, and an image data storage section, each of which is composed of an HDD (Hard Disk Drive), an SSD (Solid State Drive), etc. 526 and an additional learning information storage section 527. In this embodiment, the unused AI storage section 525 constitutes an "identification means storage means".

検査制御装置52を構成する上記各種機能部に先立って、まず、入力部521、表示部522、各記憶部523~527及び通信部528について説明する。 Prior to the various functional units that constitute the inspection control device 52, the input unit 521, the display unit 522, each of the storage units 523 to 527, and the communication unit 528 will be explained first.

入力部521は、検査制御装置52に対し情報を入力するための入力手段である。本実施形態では、入力部521を介して所定の追加学習命令や追加学習修正命令を入力可能である。 The input unit 521 is an input means for inputting information to the inspection control device 52. In this embodiment, predetermined additional learning commands and additional learning modification commands can be input via the input unit 521.

追加学習命令は、例えば、後述する判定部52gの良否判定により、良品のPTPシート1が不良品であると誤判定された場合にオペレータ等によって入力される。一方、追加学習修正命令は、例えば、判定部52gの良否判定により、不良品のPTPシート1が良品であると誤判定された場合にオペレータ等によって入力される。勿論、検査装置21以外に別途設けられた検査装置によって誤判定が生じたと判定された場合に、追加学習命令や追加学習修正命令が検査制御装置52へと自動的に入力される構成としてもよい。 The additional learning command is input by an operator or the like when, for example, a good PTP sheet 1 is erroneously determined to be a defective product by a quality determination by the determination unit 52g, which will be described later. On the other hand, the additional learning correction command is input by an operator or the like when, for example, the defective PTP sheet 1 is erroneously determined to be a non-defective product by the quality determination by the determination unit 52g. Of course, a configuration may also be adopted in which an additional learning instruction or an additional learning correction instruction is automatically input to the inspection control device 52 when it is determined that an erroneous determination has occurred by an inspection device provided separately other than the inspection device 21. .

尚、追加学習命令の入力により、後述する追加学習処理が行われ、追加学習修正命令の入力により、後述する追加学習修正処理が行われる。また、入力部521によって、検査情報記憶部523に記憶された各種設定情報を変更可能である。 It should be noted that an additional learning process, which will be described later, is performed by inputting an additional learning command, and an additional learning modification process, which will be described later, is performed by inputting an additional learning correction command. Further, various setting information stored in the examination information storage section 523 can be changed using the input section 521.

表示部522は、例えば、各記憶部523~527に記憶された各種情報を表示可能に構成されている。従って、表示部522では、カメラ51により得られた画像データ(透過画像データ)や、それぞれ後述する追加学習データ301及び不良画像データ302、検査に用いられる情報(例えば閾値など)、PTPシート1の良否判定結果などを表示可能である。 The display section 522 is configured to be able to display various information stored in each of the storage sections 523 to 527, for example. Therefore, the display unit 522 displays the image data (transparent image data) obtained by the camera 51, additional learning data 301 and defective image data 302, which will be described later, information used for inspection (for example, threshold values, etc.), and information on the PTP sheet 1. It is possible to display the pass/fail judgment results.

検査情報記憶部523は、検査に用いられる各種設定情報や、良否判定結果などを記憶するためのものである。本実施形態では、各種設定情報として、例えばPTPシート1、ポケット部2及び錠剤5の形状及び寸法や、ポケット部2の領域を画定するためのポケット枠Wの形状及び寸法並びにカメラ51との相対位置関係、良否判定や画像データの類否判断に用いる閾値などが記憶されている。 The inspection information storage unit 523 is for storing various setting information used in the inspection, pass/fail determination results, and the like. In this embodiment, various setting information includes, for example, the shapes and dimensions of the PTP sheet 1, the pocket part 2, and the tablet 5, the shape and dimensions of the pocket frame W for defining the area of the pocket part 2, and the relative position with respect to the camera 51. Positional relationships, threshold values used for quality determination and similarity determination of image data, etc. are stored.

使用AI記憶部524は、「識別手段」としてのAIモデル200を記憶する。AIモデル200は、ディープニューラルネットワーク190(以下、単に「ニューラルネットワーク190」という。図9参照。)によって、入力された画像データに応じた画像データを出力する機能を有する。 The used AI storage unit 524 stores the AI model 200 as an "identification means". The AI model 200 has a function of outputting image data according to input image data using a deep neural network 190 (hereinafter simply referred to as "neural network 190"; see FIG. 9).

ここで、ニューラルネットワーク190の構造について図9を参照して説明する。図9は、ニューラルネットワーク190の構造を概念的に示した模式図である。ニューラルネットワーク190は、入力される画像データ(濃淡模様データ)GAから特徴量(潜在変数)TAを抽出する「符号化部」としてのエンコーダ部191と、該特徴量TAから画像データ(濃淡模様データ)GBを再構成する「復号化部」としてのデコーダ部192と有してなる畳み込みオートエンコーダ(CAE:Convolutional Auto-Encoder)の構造を有している。 Here, the structure of the neural network 190 will be explained with reference to FIG. 9. FIG. 9 is a schematic diagram conceptually showing the structure of the neural network 190. The neural network 190 includes an encoder section 191 as an "encoding section" that extracts feature quantities (latent variables) TA from input image data (shade pattern data) GA, and an encoder section 191 that extracts feature quantities (latent variables) TA from input image data (shade pattern data) GA, and extracts image data (shade pattern data ) It has a convolutional auto-encoder (CAE) structure including a decoder section 192 as a "decoding section" that reconstructs GB.

畳み込みオートエンコーダの構造は公知のものであるため、詳しい説明は省略するが、エンコーダ部191は複数の畳み込み層(Convolution Layer)193を有し、各畳み込み層193では、入力データに対し複数のフィルタ(カーネル)194を用いた畳み込み演算が行われた結果が次層の入力データとして出力される。同様に、デコーダ部192は複数の逆畳み込み層(Deconvolution Layer)195を有し、各逆畳み込み層195では、入力データに対し複数のフィルタ(カーネル)196を用いた逆畳み込み演算が行われた結果が次層の入力データとして出力される。そして、後述する学習処理や追加学習処理などでは、各フィルタ194,196の重み(パラメータ)が更新されることとなる。 Since the structure of the convolutional autoencoder is well-known, a detailed explanation will be omitted, but the encoder section 191 has a plurality of convolution layers 193, and each convolution layer 193 applies a plurality of filters to input data. The result of the convolution operation using (kernel) 194 is output as input data for the next layer. Similarly, the decoder unit 192 has a plurality of deconvolution layers 195, and in each deconvolution layer 195, a result of deconvolution operation using a plurality of filters (kernels) 196 is performed on input data. is output as the input data of the next layer. Then, in learning processing, additional learning processing, etc., which will be described later, the weights (parameters) of each filter 194 and 196 will be updated.

図6に戻り、使用AI記憶部524は、AIモデル200として、PTPシート1の検査に現在利用されている現用AIモデル200zを記憶している。現用AIモデル200zについては後により詳しく説明する。 Returning to FIG. 6, the used AI storage unit 524 stores, as the AI model 200, the current AI model 200z currently used for inspecting the PTP sheet 1. The current AI model 200z will be explained in more detail later.

非使用AI記憶部525は、検査に利用されていないAIモデル200を記憶する。非使用AI記憶部525に記憶されるAIモデル200には、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zとは別に記憶された、該現用AIモデル200zと同一内容のAIモデル200である複製現用AIモデル200z1と、初期AIモデル200aとが含まれる。 The unused AI storage unit 525 stores AI models 200 that are not used for testing. The AI model 200 stored in the unused AI storage unit 525 includes an AI model 200z that is stored separately from the current AI model 200z used for inspecting the PTP sheet 1 (stored in the used AI storage unit 524) A duplicate current AI model 200z1, which is an AI model 200 with the same content as the current AI model 200z, and an initial AI model 200a are included.

複製現用AIモデル200z1は、現用AIモデル200zをコピーして得られたものであり、自身に対し更新処理などの各種処理が行われたとしても、現用AIモデル200zに何ら影響を与えないものである。本実施形態において、現用AIモデル200z、複製現用AIモデル200z1及び初期AIモデル200aは、それぞれ「学習済識別手段」を構成し、初期AIモデル200aは「旧識別手段」を構成する。また、現用AIモデル200zは「現用識別手段」を構成し、複製現用AIモデル200z1は「複製現用識別手段」を構成する。 The duplicate current AI model 200z1 is obtained by copying the current AI model 200z, and even if various processes such as update processing are performed on itself, it will not affect the current AI model 200z in any way. be. In this embodiment, the current AI model 200z, the duplicate current AI model 200z1, and the initial AI model 200a each constitute a "trained identification means", and the initial AI model 200a constitutes an "old identification means". Further, the current AI model 200z constitutes a "current identification means", and the duplicate current AI model 200z1 constitutes a "duplicate current identification means".

現用AIモデル200zは、追加学習部52hによる後述の追加学習処理や追加学習修正処理によって生成され、後述する承認用処理にて採用されたAIモデル200である。検査装置21によるPTPシート1の検査は、現用AIモデル200zを用いて行われる。一方、複製現用AIモデル200z1は、PTPシート1の検査に利用されない。 The current AI model 200z is an AI model 200 that is generated by additional learning processing and additional learning correction processing that will be described later by the additional learning unit 52h, and is adopted in the approval processing that will be described later. The inspection of the PTP sheet 1 by the inspection device 21 is performed using the current AI model 200z. On the other hand, the duplicate current AI model 200z1 is not used for inspecting the PTP sheet 1.

現用AIモデル200z及び複製現用AIモデル200z1は、追加学習部52hによる追加学習処理や追加学習修正処理によって順次更新され得る。本実施形態において、使用AI記憶部524や非使用AI記憶部525には、現用AIモデル200zや複製現用AIモデル200z1として「AI(n)」(図20参照)が記憶されている。尚、nは自然数を表す。 The current AI model 200z and the duplicate current AI model 200z1 can be sequentially updated by additional learning processing and additional learning correction processing by the additional learning section 52h. In this embodiment, “AI(n)” (see FIG. 20) is stored in the used AI storage unit 524 and the unused AI storage unit 525 as the current AI model 200z and the duplicate current AI model 200z1. Note that n represents a natural number.

初期AIモデル200aは、追加学習部52hによる追加学習処理が全く行われていない段階のAIモデル200である。本実施形態において、非使用AI記憶部525には、初期AIモデル200aとして、工場出荷時のAIモデル200である「AI(0)」(図20参照)が記憶されている。 The initial AI model 200a is an AI model 200 that has not undergone any additional learning processing by the additional learning section 52h. In this embodiment, the unused AI storage unit 525 stores "AI(0)" (see FIG. 20), which is the factory-shipped AI model 200, as the initial AI model 200a.

尚、工場出荷時には、各AI記憶部524,525に対し初期AIモデル200aがそれぞれ記憶される。使用AI記憶部524に記憶された初期AIモデル200aは、追加学習処理によって現用AIモデル200zに更新されるまで、PTPシート1の検査に用いられる。 Note that, at the time of factory shipment, the initial AI model 200a is stored in each of the AI storage units 524 and 525, respectively. The initial AI model 200a stored in the used AI storage unit 524 is used to inspect the PTP sheet 1 until it is updated to the current AI model 200z by additional learning processing.

現用AIモデル200z、複製現用AIモデル200z1及び初期AIモデル200aなどの学習済みのAIモデル200は、ポケット部2に成形不良のない良品のPTPシート1に係る画像データのみを学習データとして、ニューラルネットワーク190を深層学習(ディープラーニング)させて構築した生成モデルであり、いわゆるオートエンコーダ(自己符号化器)の構造を有する。本実施形態において、初期AIモデル200aは、そのニューラルネットワーク190に対し後述する学習処理が予め行われてなるものであり、また、現用AIモデル200z及び複製現用AIモデル200z1は、初期AIモデル200aのニューラルネットワーク190に対し複数回の追加学習処理などが行われてなるものである。 The trained AI models 200, such as the current AI model 200z, the duplicate current AI model 200z1, and the initial AI model 200a, are trained by a neural network using only image data related to a good PTP sheet 1 with no molding defects in the pocket portion 2 as learning data. This is a generative model constructed by performing deep learning on 190, and has the structure of a so-called autoencoder. In this embodiment, the initial AI model 200a has been subjected to a learning process described later on its neural network 190, and the current AI model 200z and the duplicate current AI model 200z1 are the same as the initial AI model 200a. This is achieved by performing additional learning processing on the neural network 190 multiple times.

ここで、初期AIモデル200aを生成する際に行われる学習処理(初期学習処理)について説明する。本実施形態において、学習処理は、所定の学習プログラムの実行に基づき、検査装置21の設置場所とは異なる場所(例えば検査装置21の製造工場など)で予め行われている。尚、学習処理に先立って、学習データとして、ポケット部2に成形不良のない良品のPTPシート1に係る画像データが多数用意される。この学習データは、後述する画像データ取得部52xによって得られる画像データ(濃淡模様データ)と同じ形式を有している。 Here, the learning process (initial learning process) performed when generating the initial AI model 200a will be described. In this embodiment, the learning process is performed in advance at a location different from the installation location of the inspection device 21 (for example, a manufacturing factory of the inspection device 21, etc.) based on execution of a predetermined learning program. Note that, prior to the learning process, a large amount of image data regarding a good PTP sheet 1 with no molding defects in the pocket portion 2 is prepared as learning data. This learning data has the same format as image data (shaded pattern data) obtained by the image data obtaining section 52x, which will be described later.

図10に示すように、学習処理では、まず、ステップS201において、未学習のニューラルネットワーク190を準備する。例えば所定の記憶装置等に予め格納されているニューラルネットワーク190を読み出す。又は、前記記憶装置等に格納されているネットワーク構成情報(例えばニューラルネットワークの層数や各層のノード数など)に基づいて、ニューラルネットワーク190を構築する。 As shown in FIG. 10, in the learning process, first, in step S201, an untrained neural network 190 is prepared. For example, the neural network 190 stored in advance in a predetermined storage device or the like is read out. Alternatively, the neural network 190 is constructed based on network configuration information (for example, the number of layers of the neural network, the number of nodes in each layer, etc.) stored in the storage device or the like.

次いで、ステップS202において、再構成画像データを取得する。すなわち、予め用意された学習データを入力データとして、ニューラルネットワーク190の入力層に与える。そして、該ニューラルネットワーク190の出力層から出力される再構成画像データを取得する。 Next, in step S202, reconstructed image data is acquired. That is, the learning data prepared in advance is applied to the input layer of the neural network 190 as input data. Then, reconstructed image data output from the output layer of the neural network 190 is obtained.

続くステップS203では、学習データと、ステップS202においてニューラルネットワーク190により出力された再構成画像データ(再構成濃淡模様データ)とを比較し、その誤差が十分に小さいか否か(所定の閾値以下であるか否か)を判定する。 In the subsequent step S203, the learning data is compared with the reconstructed image data (reconstructed shading pattern data) output by the neural network 190 in step S202, and whether the error is sufficiently small (below a predetermined threshold) is compared. whether there is one or not).

ここで、前記誤差が十分に小さい場合には、ステップS205にて、学習処理の終了条件を満たすか否かを判定する。例えば、後述するステップS204の処理を経ることなくステップS203にて肯定判定されることが所定回数連続で行われた場合や、用意した学習データの全てを用いた学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク190及びその学習情報(後述する更新後のパラメータ等)を初期AIモデル200aとして各AI記憶部524,525に格納し、学習処理を終了する。 Here, if the error is sufficiently small, it is determined in step S205 whether or not the end condition of the learning process is satisfied. For example, if an affirmative determination is made in step S203 a predetermined number of times without going through the process of step S204, which will be described later, or if learning using all of the prepared learning data is repeated a predetermined number of times. If so, it is determined that the termination condition is satisfied. If the termination conditions are met, the neural network 190 and its learning information (updated parameters, etc., which will be described later) are stored in each AI storage unit 524, 525 as the initial AI model 200a, and the learning process is terminated.

一方、ステップS205にて終了条件を満たさない場合には、ステップS202に戻り、ニューラルネットワーク190の学習を再度行う。 On the other hand, if the termination condition is not satisfied in step S205, the process returns to step S202 and the learning of the neural network 190 is performed again.

また、ステップS203にて、前記誤差が十分に小さくない場合には、ステップS204においてネットワーク更新処理(ニューラルネットワーク190の学習)を行った後、再びステップS202へ戻り、上記一連の処理を繰り返す。 If the error is not sufficiently small in step S203, network updating processing (learning of the neural network 190) is performed in step S204, and then the process returns to step S202 to repeat the series of processes described above.

ステップS204のネットワーク更新処理では、例えば誤差逆伝播法(Backpropagation)などの公知の学習アルゴリズムを用いて、学習データと再構成画像データとの差分を表す損失関数が極力小さくなるように、ニューラルネットワーク190における上記各フィルタ194,196の重み(パラメータ)をより適切なものに更新する。尚、損失関数としては、例えばBCE(Binary Cross-entropy)などを利用することができる。 In the network update process in step S204, the neural network 190 uses a known learning algorithm such as error backpropagation to minimize the loss function representing the difference between the learning data and the reconstructed image data. The weights (parameters) of each of the filters 194 and 196 are updated to more appropriate ones. Note that as the loss function, for example, BCE (Binary Cross-entropy) can be used.

ステップS202~204の処理を何度も繰り返すことにより、ニューラルネットワーク190では、学習データと再構成画像データとの誤差が極力小さくなり、より正確な再構成画像データが出力されるようになる。 By repeating the processes of steps S202 to S204 many times, the error between the learning data and the reconstructed image data is minimized in the neural network 190, and more accurate reconstructed image data is output.

そして、最終的に得られる初期AIモデル200aは、後述する画像データ取得部52xにより得られた画像データ(濃淡模様データであり、「元画像データ」ということがある)であって、良品のPTPシート1に係る画像データが入力されたときには、入力された画像データとほぼ一致する再構成画像データを生成するものとなる。また、初期AIモデル200aは、後述する画像データ取得部52xにより得られた画像データ(元画像データ)であって、不良品のPTPシート1に係る画像データが入力されたときには、ノイズ部分(不良部分に相当する部分)が除去された、入力された画像データとほぼ一致する再構成画像データを生成するものとなる。すなわち、PTPシート1が不良であるときには、該PTPシート1に係る再構成画像データとして、不良部分がないものと仮定した場合の該PTPシート1に係る仮想的な画像データが生成される。 The initial AI model 200a that is finally obtained is image data (shade pattern data, sometimes referred to as "original image data") obtained by an image data acquisition unit 52x, which will be described later, and is a non-defective PTP. When image data related to sheet 1 is input, reconstructed image data that substantially matches the input image data is generated. In addition, the initial AI model 200a is image data (original image data) obtained by an image data acquisition unit 52x, which will be described later. This generates reconstructed image data that substantially matches the input image data, from which the portion corresponding to the input image data has been removed. That is, when the PTP sheet 1 is defective, virtual image data regarding the PTP sheet 1 assuming that there is no defective portion is generated as reconstructed image data regarding the PTP sheet 1.

尚、検査装置21を製造する都度、上記学習処理を行う必要はなく、ニューラルネットワーク190及びその学習情報(更新後のパラメータ等)を予め取得しておき、これらを検査装置21の各AI記憶部524,525に対し、初期AIモデル200aとして格納するようにしてもよい。 Note that it is not necessary to perform the above learning process each time the inspection device 21 is manufactured; the neural network 190 and its learning information (updated parameters, etc.) are acquired in advance, and these are stored in each AI storage section of the inspection device 21. 524 and 525 may be stored as the initial AI model 200a.

画像データ記憶部526は、後述する画像データ取得部52xにより得られた画像データ(濃淡模様データ)などの各種画像データを記憶する。尚、画像データ取得部52xにより得られる画像データ(濃淡模様データ)は、1枚分のPTPシート1に対応するものであって、ポケット部2の底部2a等に係る濃淡模様を計10個分表すものである。本実施形態では、画像データ記憶部526によって、「特定学習データ記憶手段」及び「不良画像データ記憶手段」が構成される。 The image data storage section 526 stores various image data such as image data (shaded pattern data) obtained by an image data acquisition section 52x, which will be described later. The image data (shade pattern data) obtained by the image data acquisition unit 52x corresponds to one PTP sheet 1, and includes a total of 10 shading patterns on the bottom 2a of the pocket section 2, etc. It represents. In this embodiment, the image data storage section 526 constitutes a "specific learning data storage means" and a "defective image data storage means."

画像データ記憶部526に記憶される画像データには、追加学習部52hによる追加学習処理に利用される追加学習データ301が含まれる。追加学習データ301は、画像データ取得部52xにより得られた複数の画像データ(濃淡模様データ)のうち、良品のPTPシート1に係る画像データであって、所定の条件を満たすもの(例えばオペレータ等によって選択されたもの)である。 The image data stored in the image data storage section 526 includes additional learning data 301 used for additional learning processing by the additional learning section 52h. The additional learning data 301 is image data related to a good PTP sheet 1 among a plurality of image data (shaded pattern data) obtained by the image data acquisition unit 52x, and which satisfies a predetermined condition (for example, an operator, etc.). (selected by).

また、追加学習データ301には、後述する判定部52gにより良品のPTPシート1が不良品と判定された場合における、その誤判定を生じさせた画像データが含まれる。つまり、追加学習データには、判定部52gにより不良品と判定されたが、実際には良品であったPTPシート1に係る画像データが含まれる。 Further, the additional learning data 301 includes image data that causes an erroneous determination when a non-defective PTP sheet 1 is determined to be a defective product by the determination unit 52g, which will be described later. That is, the additional learning data includes image data related to the PTP sheet 1 that was determined to be a defective product by the determination unit 52g but was actually a non-defective product.

本実施形態では、追加学習データ301として、「IM(1)」~「IM(n)」(図20参照)が記憶されている。例えば、「IM(1)」は、初期AIモデル200aのニューラルネットワーク190に対する追加学習処理に用いられた画像データであり、この追加学習処理によって生成されたAIモデル200が「AI(1)」である。 In this embodiment, “IM(1)” to “IM(n)” (see FIG. 20) are stored as additional learning data 301. For example, "IM(1)" is image data used in additional learning processing for the neural network 190 of the initial AI model 200a, and the AI model 200 generated by this additional learning processing is "AI(1)". be.

また、追加学習データ301には、特定学習データ301aが含まれている。特定学習データ301aは、初期AIモデル200aから現用AIモデル200zを生成するにあたって用いられた追加学習データ301である。従って、本実施形態では、全ての追加学習データ301が特定学習データ301aに相当する。 Further, the additional learning data 301 includes specific learning data 301a. The specific learning data 301a is additional learning data 301 used in generating the current AI model 200z from the initial AI model 200a. Therefore, in this embodiment, all the additional learning data 301 corresponds to the specific learning data 301a.

さらに、画像データ記憶部526に記憶される画像データには、不良画像データ302が含まれる。不良画像データ302とは、後述する判定部52gによる良否判定処理により、不良品のPTPシート1が良品であると誤判定された場合における、その誤判定に係る濃淡模様データ(元画像データ)である。つまり、不良画像データ302は、追加学習データ301とは異なり、不良品のPTPシート1に係るものである。 Furthermore, the image data stored in the image data storage unit 526 includes defective image data 302. The defective image data 302 is shading pattern data (original image data) related to the erroneous determination when the defective PTP sheet 1 is erroneously determined to be a good product by the quality determination process by the determination unit 52g, which will be described later. be. That is, the defective image data 302 is different from the additional learning data 301 and is related to the defective PTP sheet 1.

尚、本実施形態では、判定部52gの良否判定によって不良品のPTPシート1が良品であると誤判定されたか否か、又は、判定部52gの良否判定によって良品のPTPシート1が不良品であると誤判定されたか否かについて、オペレータ等による目視検査によって判断されるようになっている。勿論、検査装置21以外の検査装置を別途設け、該検査装置によって誤判定が生じたか否かを判定するようにしてもよい。 In the present embodiment, it is determined whether or not the defective PTP sheet 1 is erroneously determined to be a good product by the quality determination by the determination unit 52g, or whether the non-defective PTP sheet 1 is determined to be a defective product by the quality determination by the determination unit 52g. Whether or not it has been erroneously determined that there is a problem is determined by visual inspection by an operator or the like. Of course, an inspection device other than the inspection device 21 may be provided separately, and the inspection device may determine whether an erroneous determination has occurred.

そして、オペレータ等が入力部521を利用した情報の入力を行うこと等によって、画像データ記憶部526に記憶された画像データ(濃淡模様データ)のうち、不良品のPTPシート1が良品であると誤判定された場合における、その誤判定に係る画像データが不良画像データ302として特定される。 Then, by inputting information using the input section 521 by an operator or the like, it is determined that the defective PTP sheet 1 is a good product among the image data (shaded pattern data) stored in the image data storage section 526. When an erroneous determination is made, the image data related to the erroneous determination is identified as defective image data 302.

追加学習情報記憶部527は、追加学習処理や追加学習修正処理(すなわち、追加学習部52hによる学習処理)に係る各種情報など、AIモデル200の学習に関する情報を記憶する。 The additional learning information storage unit 527 stores information related to learning of the AI model 200, such as various information related to additional learning processing and additional learning correction processing (that is, learning processing by the additional learning unit 52h).

追加学習情報記憶部527に記憶される情報には、例えば、現用AIモデル200zや初期AIモデル200aを含む現時点までに生成された全ての学習済みの(学習処理や追加学習処理、追加学習修正処理が行われた)AIモデル200、学習済みのAIモデル200の学習に用いられた追加学習データ301が含まれる。本実施形態においては、学習済みのAIモデル200は、初期AIモデル200aや現用AIモデル200zと同様に、「学習済識別手段」を構成する。 The information stored in the additional learning information storage unit 527 includes, for example, all the learned (learning processing, additional learning processing, additional learning correction processing) generated up to the present time, including the current AI model 200z and the initial AI model 200a. This includes the AI model 200 (in which training was performed) and additional learning data 301 used for learning the trained AI model 200. In this embodiment, the trained AI model 200 constitutes a "trained identification means" like the initial AI model 200a and the current AI model 200z.

また、追加学習情報記憶部527に記憶される情報には、例えば、各種処理(例えば、追加学習処理、追加学習修正処理、それぞれ後述する確認処理や承認用処理など)にて行われた入力部521に対する全ての操作内容、後述する承認用処理にて承認に係る入力を受付けた日時などが含まれる。 In addition, the information stored in the additional learning information storage unit 527 includes, for example, the input section performed in various processes (for example, additional learning processing, additional learning correction processing, confirmation processing and approval processing, respectively, which will be described later). 521, the date and time when an input related to approval was received in the approval process described later, etc.

尚、現時点までに生成された全ての学習済みのAIモデル200には、後述する承認用処理にて不採用となった学習済みのAIモデル200が含まれる。不採用となった学習済みのAIモデル200は、不採用である旨を示す情報が付与されており、採用された学習済みのAIモデル200(つまり、現在又は過去の現用AIモデル200z)とは区別可能となっている。また、追加学習データ301には、不採用となった学習済みのAIモデル200の生成に用いられたものが含まれる。尚、追加学習情報記憶部527において、上述した入力部521に対する全ての操作内容に係る情報を、監査証跡として記憶するようにしてもよい。 Note that all trained AI models 200 generated up to this point include trained AI models 200 that were rejected in the approval process described later. The trained AI model 200 that was rejected is given information indicating that it was rejected, and what is the trained AI model 200 that was adopted (that is, the current or past working AI model 200z)? It is possible to distinguish. Further, the additional learning data 301 includes data that was used to generate the trained AI model 200 that was rejected. Note that the additional learning information storage section 527 may store information related to all operations performed on the input section 521 described above as an audit trail.

通信部528は、例えば有線LAN(Local Area Network)や無線LAN等の通信規格に準じた無線通信インターフェースなどを備え、外部と各種データを送受信可能に構成されている。例えば判定部52gにより行われた良否判定の結果などが通信部528を介して外部(充填制御装置82等)に出力される。 The communication unit 528 includes, for example, a wireless communication interface conforming to a communication standard such as a wired LAN (Local Area Network) or a wireless LAN, and is configured to be able to transmit and receive various data to and from the outside. For example, the results of the quality determination performed by the determination unit 52g are output to the outside (filling control device 82, etc.) via the communication unit 528.

次いで、検査制御装置52を構成する上記各種機能部について詳しく説明する。 Next, the various functional units that constitute the inspection control device 52 will be explained in detail.

メイン制御部52aは、検査装置21全体の制御を司る機能部であり、照明制御部52bやカメラ制御部52cなど他の機能部と各種信号を送受信可能に構成されている。 The main control section 52a is a functional section that controls the entire inspection apparatus 21, and is configured to be able to transmit and receive various signals with other functional sections such as the illumination control section 52b and the camera control section 52c.

照明制御部52bは、照明装置50を駆動制御する機能部であり、メイン制御部52aからの指令信号に基づき照明タイミングなどを制御する。 The lighting control unit 52b is a functional unit that drives and controls the lighting device 50, and controls lighting timing and the like based on a command signal from the main control unit 52a.

カメラ制御部52cは、カメラ51を駆動制御する機能部であり、メイン制御部52aからの指令信号に基づき撮像タイミングなどを制御する。尚、上記照明及び撮像のタイミングは、メイン制御部52aが、PTP包装機11に設けられた図示しないエンコーダからの信号に基づいて制御する。 The camera control section 52c is a functional section that drives and controls the camera 51, and controls the imaging timing and the like based on a command signal from the main control section 52a. The timing of the illumination and imaging is controlled by the main control unit 52a based on a signal from an encoder (not shown) provided in the PTP packaging machine 11.

上記照明制御部52b及びカメラ制御部52cによって、ポケット部2の成形された容器フィルム3の搬送が一旦停止するインターバルごとに、該容器フィルム3に対し照明装置50から電磁波が照射されるとともに、該容器フィルム3を透過した電磁波(紫外光)をカメラ51により撮像する処理が実行される。カメラ51により撮像され生成された透過画像データは、該カメラ51の内部においてデジタル信号(画像信号)に変換された上で、デジタル信号の形で検査制御装置52(画像取込部52d)に転送される。 The illumination control section 52b and camera control section 52c irradiate the container film 3 with electromagnetic waves from the illumination device 50 at every interval when the conveyance of the container film 3 in which the pocket section 2 has been formed is stopped. A process is executed in which the electromagnetic waves (ultraviolet light) transmitted through the container film 3 are imaged by the camera 51. Transmission image data captured and generated by the camera 51 is converted into a digital signal (image signal) inside the camera 51, and then transferred to the inspection control device 52 (image capture unit 52d) in the form of a digital signal. be done.

画像取込部52dは、カメラ51により撮像され取得された画像データを取り込むための機能部である。取り込まれた画像データ(透過画像データ)は、画像データ記憶部526に記憶される。 The image capture unit 52d is a functional unit for capturing image data captured and acquired by the camera 51. The captured image data (transparent image data) is stored in the image data storage section 526.

画像処理部52eは、画像取込部52dにより取り込まれた画像データに所定の画像処理を行うことで、濃淡模様データ(元画像データ)を取得する機能部である。本実施形態において、画像処理部52eは、画像取込部52dにより取り込まれた画像データ(透過画像データ)から、ポケット部2に係る部分を抽出することで、濃淡模様データを生成する。 The image processing unit 52e is a functional unit that performs predetermined image processing on the image data captured by the image capture unit 52d to obtain grayscale pattern data (original image data). In this embodiment, the image processing section 52e generates shading pattern data by extracting a portion related to the pocket section 2 from the image data (transparent image data) captured by the image capturing section 52d.

より詳しく説明すると、まず、画像取込部52dにより取り込まれた画像データ(透過画像データ)にマスク処理が実行される。具体的には、画像取込部52dにより取り込まれた画像データ(透過画像データ)における10個のポケット部2の位置に合わせてそれぞれポケット枠W(図16参照)を設定するとともに、該ポケット枠Wにより特定されたポケット領域以外の領域、すなわちフィルム平坦部3bに対応する領域に対しマスクMをかける処理を行う。 To explain in more detail, first, mask processing is performed on the image data (transparent image data) captured by the image capturing section 52d. Specifically, pocket frames W (see FIG. 16) are set respectively according to the positions of the ten pocket parts 2 in the image data (transparent image data) captured by the image capture unit 52d, and the pocket frames are A process is performed in which a mask M is applied to an area other than the pocket area specified by W, that is, an area corresponding to the film flat portion 3b.

次いで、マスク処理された画像データ(マスキング画像データ)における各ポケット枠W内の画像を抽出することで、濃淡模様データを生成する。生成された濃淡模様データは、1枚分のPTPシート1に相当するものであって、ポケット部2の底部2aにおける濃淡模様K(図16,18参照)を計10個分表すものである。濃淡模様データは、画像データ記憶部526に記憶される。本実施形態では、取得された複数の濃淡模様データのうちの一部が、追加学習データ301や不良画像データ302となる。尚、透過画像データから、それぞれ1のポケット部2に係る濃淡模様Kを表す計10枚の濃淡模様データを得るようにしてもよい。 Next, the image within each pocket frame W in the masked image data (masking image data) is extracted to generate shading pattern data. The generated shading pattern data corresponds to one PTP sheet 1, and represents a total of 10 shading patterns K (see FIGS. 16 and 18) on the bottom 2a of the pocket portion 2. The shading pattern data is stored in the image data storage section 526. In this embodiment, some of the acquired grayscale pattern data becomes the additional learning data 301 and the defective image data 302. Note that a total of 10 pieces of shading pattern data each representing the shading pattern K related to one pocket portion 2 may be obtained from the transparent image data.

ここで、図16は、濃淡模様データにおいて、成形不良のないポケット部2の底部2aに生じる濃淡模様Kを示す図であり、図17は、図16に示す濃淡模様KのA-A線に沿った各画素に係る輝度値を示すグラフである。 Here, FIG. 16 is a diagram showing a shading pattern K that occurs on the bottom part 2a of the pocket part 2 without molding defects in the shading pattern data, and FIG. It is a graph showing the brightness value concerning each pixel along.

また、図18は、成形不良のあるポケット部2の底部2aに生じる濃淡模様Kを示す図であり、図19は、図18に示す濃淡模様KのB-B線に沿った各画素に係る輝度値を示すグラフである。 Further, FIG. 18 is a diagram showing a shading pattern K that occurs on the bottom part 2a of the pocket part 2 with a molding defect, and FIG. It is a graph showing brightness values.

図16~19に示すように、濃淡模様Kとは、画素ごとに輝度情報(例えば0から255までの256階調のうちのいずれかの値)を有した二次元画像情報であり、ポケット部2の底部2a等の各位置(座標位置)における肉厚の違い(肉厚分布)と、そこを透過する電磁波の透過率等との関係から、ポケット部2の底部2a等に生じる濃淡の二次元分布を示す像(透過電磁波の強度分布像)に相当するものである。 As shown in FIGS. 16 to 19, the shading pattern K is two-dimensional image information that has luminance information (for example, any value among 256 gradations from 0 to 255) for each pixel, and the pocket area From the relationship between the difference in wall thickness (thickness distribution) at each position (coordinate position) of the bottom part 2a, etc. of the pocket part 2, and the transmittance of electromagnetic waves passing therethrough, it is possible to This corresponds to an image showing a dimensional distribution (an intensity distribution image of transmitted electromagnetic waves).

尚、本実施形態では、ポケット枠Wが、ポケット部2の開口周縁部(側部2bとフィルム平坦部3bとの連接部)に合わせて設定されているため、濃淡模様Kには、ポケット部2の底部2aのみならず、ポケット部2の側部2b、並びに、底部2a及び側部2bが交わるポケット部2の角部2cに係る模様も含まれることとなる。 In this embodiment, since the pocket frame W is set to match the opening periphery of the pocket portion 2 (the connecting portion between the side portion 2b and the film flat portion 3b), the shading pattern K does not include the pocket portion. The pattern includes not only the bottom part 2a of the pocket part 2, but also the side part 2b of the pocket part 2, and the corner part 2c of the pocket part 2 where the bottom part 2a and the side part 2b intersect.

また、濃淡模様Kのうち、底部2aに対応する範囲に関しては、概ね底部2aの肉厚分布に対応した濃淡分布(輝度分布)を有する濃淡模様が得られる。一方、側部2bや角部2cに対応する範囲に関しては、その輝度情報が、側部2b等の肉厚方向(X方向やY方向)に沿って透過した電磁波に対応したものではなく、その成形時延伸方向(Z方向)に沿って透過した電磁波に対応したものとなるため、側部2b等の肉厚とは関係の薄いものとなる。 Further, in the range corresponding to the bottom portion 2a of the shading pattern K, a shading pattern having a shading distribution (luminance distribution) approximately corresponding to the wall thickness distribution of the bottom portion 2a is obtained. On the other hand, regarding the range corresponding to the side part 2b and the corner part 2c, the brightness information does not correspond to the electromagnetic waves transmitted along the thickness direction (X direction and Y direction) of the side part 2b etc. Since it corresponds to electromagnetic waves transmitted along the stretching direction (Z direction) during molding, it has little relationship with the wall thickness of the side portion 2b, etc.

本実施形態では、カメラ51、画像取込部52d及び画像処理部52eによって画像データ取得部52xが構成されており、この画像データ取得部52xによって、PTPシート1に係る濃淡模様データ(元画像データ)が取得される。本実施形態では、画像データ取得部52xが「画像データ取得手段」を構成する。 In this embodiment, an image data acquisition section 52x is configured by the camera 51, an image capture section 52d, and an image processing section 52e. ) is obtained. In this embodiment, the image data acquisition section 52x constitutes an "image data acquisition means."

再構成画像データ取得部52fは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を、現用AIモデル200zなどの学習済みAIモデル200に入力して再構成された画像データを再構成画像データとして取得する。より詳しくは、再構成画像データ取得部52fは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を入力データとして、ニューラルネットワーク190の入力層に与える。そして、再構成画像データ取得部52fは、該ニューラルネットワーク190の出力層から出力される再構成濃淡模様データを再構成画像データとして取得する。尚、再構成画像データ取得部52fは、PTPシート1の検査時には、使用AI記憶部524に記憶された現用AIモデル200zに元画像データを入力する。一方、再構成画像データ取得部52fは、後述する確認処理時には、追加学習処理などによって新たに生成された、現用AIモデル200zとは異なる学習済みのAIモデル200に元画像データを入力する。 The reconstructed image data acquisition unit 52f inputs the gradation pattern data (original image data) obtained by the image data acquisition unit 52x to a trained AI model 200 such as the current AI model 200z, and obtains the reconstructed image data. Acquire as reconstructed image data. More specifically, the reconstructed image data acquisition section 52f supplies the grayscale pattern data (original image data) obtained by the image data acquisition section 52x to the input layer of the neural network 190 as input data. Then, the reconstructed image data acquisition unit 52f obtains the reconstructed shading pattern data output from the output layer of the neural network 190 as reconstructed image data. Note that when inspecting the PTP sheet 1, the reconstructed image data acquisition unit 52f inputs the original image data to the current AI model 200z stored in the used AI storage unit 524. On the other hand, during confirmation processing to be described later, the reconstructed image data acquisition unit 52f inputs the original image data to a trained AI model 200 that is newly generated by additional learning processing and is different from the current AI model 200z.

判定部52gは、ポケット部2の成形状態についての良否判定処理を行う機能部である。判定部52gは、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)と、該濃淡模様データを学習済みのAIモデル200に入力して再構成された再構成画像データとを比較し、比較結果に基づき、ポケット部2ひいてはPTPシート1の良否を判定する。 The determination unit 52g is a functional unit that performs quality determination processing regarding the molding state of the pocket portion 2. The determination unit 52g compares the shading pattern data (original image data) obtained by the image data acquisition unit 52x with reconstructed image data that was reconstructed by inputting the shading pattern data into the learned AI model 200. Then, based on the comparison result, the quality of the pocket section 2 and, in turn, the PTP sheet 1 is determined.

図11を参照して、判定部52gによる良否判定処理についてより詳しく説明する。良否判定処理では、まず、ステップS301にて、再構成画像データ取得部52fによって、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)を学習済みのAIモデル200に入力することで、再構成画像データを取得する。尚、元画像データの入力対象は、PTPシート1の検査時には現用AIモデル200zであり、後述する確認処理時には新たに生成された学習済みのAIモデル200である。 With reference to FIG. 11, the quality determination process by the determination unit 52g will be described in more detail. In the quality determination process, first, in step S301, the reconstructed image data acquisition unit 52f inputs the grayscale pattern data (original image data) acquired by the image data acquisition unit 52x into the trained AI model 200. , obtain reconstructed image data. Note that the input target of the original image data is the current AI model 200z when inspecting the PTP sheet 1, and the newly generated trained AI model 200 during the confirmation process described later.

次いで、ステップS302において、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)と、再構成画像データ取得部52fにより得られた該濃淡模様データに係る再構成画像データとを比較して、両データの各画素毎の輝度の差分を算出する。続いて、該差分が予め定めた許容範囲内にない画素を不良画素として特定する。 Next, in step S302, the grayscale pattern data (original image data) obtained by the image data acquisition unit 52x is compared with the reconstructed image data related to the grayscale pattern data obtained by the reconstructed image data acquisition unit 52f. Then, the difference in luminance for each pixel of both data is calculated. Subsequently, pixels for which the difference is not within a predetermined tolerance range are identified as defective pixels.

次に、ステップS303にて、不良画素の連結成分の面積(不良面積)を算出する。 Next, in step S303, the area of the connected component of the defective pixel (defective area) is calculated.

次いで、ステップS304において、算出した面積のうちの最大面積が予め設定した所定の閾値以下であるか否かを判定する。つまり、不良面積が許容範囲内であるか否かを判定する。そして、最大面積が前記閾値以上である場合、少なくとも1つのポケット部2にて不良が生じているとして、ステップS305にて、濃淡模様データ(元画像データ)に対応するPTPシート1を「不良品」と判定する。 Next, in step S304, it is determined whether the maximum area among the calculated areas is less than or equal to a predetermined threshold value set in advance. In other words, it is determined whether the defective area is within the allowable range. If the maximum area is equal to or larger than the threshold value, it is determined that a defect has occurred in at least one pocket portion 2, and in step S305, the PTP sheet 1 corresponding to the shading pattern data (original image data) is ”.

一方、最大面積が前記閾値を下回る場合、ステップS306にて、濃淡模様データ(元画像データ)に対応するPTPシート1を「良品」と判定する。良否判定結果は、検査情報記憶部523に記憶される。また、PTPシート1の検査時には、良否判定結果が充填制御装置82などに出力される。 On the other hand, if the maximum area is less than the threshold value, the PTP sheet 1 corresponding to the shading pattern data (original image data) is determined to be "good" in step S306. The pass/fail determination result is stored in the inspection information storage section 523. Further, when inspecting the PTP sheet 1, the pass/fail determination result is output to the filling control device 82 or the like.

尚、上述した良否判定手法は一例であって、例えば不良画素の連結成分のばらつき度合い(分布状況)を判定する方法など、他の方法により良否判定を行う構成としてもよい。勿論、その大小に関係なく、不良画素が1箇所でも存在すれば、「不良品」と判定するようにしてもよい。 The above-described quality determination method is just one example, and the quality determination may be performed using other methods, such as a method of determining the degree of dispersion (distribution status) of connected components of defective pixels. Of course, if there is even one defective pixel, the product may be determined to be "defective" regardless of its size.

追加学習部52hは、追加学習データ301を用いてニューラルネットワーク190の追加学習を行うことで、新たな学習済みのAIモデル200を順次生成する。追加学習部52hは、オペレータ等によって前記追加学習命令が入力されると、追加学習処理を行う。 The additional learning unit 52h sequentially generates new trained AI models 200 by performing additional learning of the neural network 190 using the additional learning data 301. The additional learning unit 52h performs additional learning processing when the additional learning command is input by an operator or the like.

図12及び図20を参照して、追加学習処理についてより詳しく説明する。追加学習処理では、まず、ステップS401において、再構成画像データを取得する。例えば、未学習の追加学習データ301として「IM(1)」が新たに記憶されている状態で、追加学習命令が入力されると、追加学習部52hは、非使用AI記憶部525に記憶された複製現用AIモデル200z1(但し、この段階における複製現用AIモデル200z1は初期AIモデル200aである)である「AI(0)」のニューラルネットワーク190の入力層に対し、追加学習データ301である「IM(1)」を入力データとして与える。そして、ニューラルネットワーク190の出力層から出力される再構成画像データを取得する。 The additional learning process will be described in more detail with reference to FIGS. 12 and 20. In the additional learning process, first, in step S401, reconstructed image data is acquired. For example, if an additional learning command is input in a state where “IM (1)” is newly stored as unlearned additional learning data 301, the additional learning unit 52h stores the data in the unused AI storage unit 525. For the input layer of the neural network 190 of "AI(0)" which is the replicated current AI model 200z1 (however, the replicated current AI model 200z1 at this stage is the initial AI model 200a), the additional learning data 301 " IM(1)'' is given as input data. Then, reconstructed image data output from the output layer of the neural network 190 is obtained.

続くステップS402では、追加学習データ301と、ステップS401においてニューラルネットワーク190により出力された再構成画像データを比較し、その誤差が十分に小さいか否か(所定の閾値以下であるか否か)を判定する。 In the subsequent step S402, the additional learning data 301 is compared with the reconstructed image data output by the neural network 190 in step S401, and it is determined whether the error is sufficiently small (whether it is below a predetermined threshold). judge.

ここで、前記誤差が十分に小さい場合には、ステップS404にて、追加学習の終了条件を満たすか否かを判定する。例えば、記憶された追加学習データ301を用いた追加学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク190及びその学習情報(更新後のパラメータ等)を、新たな学習済みのAIモデル200として非使用AI記憶部525に格納して、追加学習処理を終了する。 Here, if the error is sufficiently small, it is determined in step S404 whether or not the additional learning termination condition is satisfied. For example, if additional learning using the stored additional learning data 301 is repeated a predetermined number of times, it is determined that the termination condition is satisfied. If the termination conditions are met, the neural network 190 and its learning information (updated parameters, etc.) are stored in the unused AI storage unit 525 as a new trained AI model 200, and the additional learning process is terminated. .

一方、ステップS402にて、前記誤差が十分に小さくない場合には、ステップS403において、ネットワーク更新処理(ニューラルネットワーク190の学習)を行った後、再びステップS401へ戻り、上記一連の処理を繰り返す。ネットワーク更新処理は、上記学習処理におけるステップS204の処理と同様である。ステップS401~403の処理を繰り返すことにより、ニューラルネットワーク190では、追加学習データ301と再構成画像データとの誤差が極力小さくなり、より正確な再構成画像データが出力されるようになる。 On the other hand, in step S402, if the error is not small enough, in step S403, network update processing (learning of the neural network 190) is performed, and then the process returns to step S401 to repeat the above series of processes. The network update process is similar to the process in step S204 in the learning process described above. By repeating the processing of steps S401 to S403, the error between the additional learning data 301 and the reconstructed image data is minimized in the neural network 190, and more accurate reconstructed image data is output.

尚、追加学習処理によって新たに生成された学習済みAIモデル200は、現用AIモデル200zや初期AIモデル200aと同様に、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)であって、良品のPTPシート1に係る画像データが入力されたときには、入力された画像データとほぼ一致する再構成画像データを生成する。また、新たに生成された学習済みAIモデル200は、現用AIモデル200zや初期AIモデル200aと同様に、画像データ取得部52xにより得られた濃淡模様データ(元画像データ)であって、不良品のPTPシート1に係る画像データが入力されたときには、ノイズ部分(不良部分に相当する部分)が除去された、入力された画像データとほぼ一致する再構成画像データを生成する。 Note that the trained AI model 200 newly generated by the additional learning process is the shading pattern data (original image data) obtained by the image data acquisition unit 52x, like the current AI model 200z and the initial AI model 200a. When image data related to a non-defective PTP sheet 1 is input, reconstructed image data that substantially matches the input image data is generated. In addition, the newly generated trained AI model 200, like the current AI model 200z and the initial AI model 200a, is gray pattern data (original image data) obtained by the image data acquisition unit 52x, and is defective. When image data related to the PTP sheet 1 is input, reconstructed image data that substantially matches the input image data from which noise portions (portions corresponding to defective portions) have been removed is generated.

さらに、追加学習部52hは、機能部として要因データ特定部52i及び画像出力AI用の確認部52jを備えている。本実施形態では、要因データ特定部52iが「要因データ特定手段」を構成し、画像出力AI用の確認部52jが「画像出力AI用の確認手段」を構成する。 Further, the additional learning section 52h includes a factor data specifying section 52i and an image output AI confirmation section 52j as functional sections. In this embodiment, the factor data specifying section 52i constitutes a "factor data specifying means", and the confirmation section 52j for image output AI constitutes a "confirmation means for image output AI".

要因データ特定部52iは、特に追加学習修正処理にて機能する。要因データ特定部52iは、判定部52gの良否判定処理によって不良品のPTPシート1が良品であると誤判定された場合において、その誤判定に係る不良画像データ302に対する類似度に基づき、特定学習データ301aの中から、その誤判定の要因となった追加学習データ301を誤判定要因データとして特定する。本実施形態において、要因データ特定部52iは、不良画像データ302に対する特定学習データ301aの類似度(例えば、不良画像データ302から抽出される特徴量と、特定学習データ301aから抽出された特徴量とに基づき、両データ301a,302の類似度合いを示すスコアなど)を算出可能な公知の類似判定手段(例えば、ニューラルネットワークに対し、少なくとも不良画像データ302などを学習させて生成したAI)を有するものである。そして、要因データ特定部52iは、前記類似判定手段によって算出された類似度と予め設定された閾値との比較結果に基づき、誤判定要因データを特定する。算出される類似度は例えば0~100であり、類似度が閾値以上となった1又は複数の特定学習データ301aが誤判定要因データとして特定される。 The factor data specifying unit 52i particularly functions in additional learning correction processing. When the defective PTP sheet 1 is erroneously determined to be a good product by the quality determination process of the determination unit 52g, the factor data identification unit 52i performs specific learning based on the degree of similarity to the defective image data 302 related to the erroneous determination. The additional learning data 301 that caused the misjudgment is identified from the data 301a as misjudgment factor data. In this embodiment, the factor data identification unit 52i determines the degree of similarity between the specific learning data 301a and the defective image data 302 (for example, the feature amount extracted from the defective image data 302 and the feature amount extracted from the specific learning data 301a). (e.g., an AI generated by making a neural network learn at least the defective image data 302, etc.) capable of calculating a score indicating the degree of similarity between both data 301a and 302 based on It is. Then, the factor data specifying unit 52i specifies misjudgment factor data based on the comparison result between the degree of similarity calculated by the similarity determining means and a preset threshold value. The calculated degree of similarity is, for example, from 0 to 100, and one or more pieces of specific learning data 301a whose degree of similarity is equal to or greater than a threshold value are specified as data that causes a false determination.

画像出力AI用の確認部52jは、追加学習処理や追加学習修正処理にて新たに生成された学習済みのAIモデル200の学習状態を確認する等のために確認処理を行う。確認処理は、追加学習処理又は追加学習修正処理によって新たな学習済みのAIモデル200が生成されたことを契機として行われる。確認処理は、次のようにして行われる。 The image output AI confirmation unit 52j performs a confirmation process to confirm the learning state of the trained AI model 200 newly generated by the additional learning process or the additional learning correction process. The confirmation process is performed when a new trained AI model 200 is generated by the additional learning process or the additional learning correction process. The confirmation process is performed as follows.

図13に示すように、まず、ステップS501にて、新たに生成されたAIモデル200における学習状態が適切であるか否かを判定する。 As shown in FIG. 13, first, in step S501, it is determined whether the learning state of the newly generated AI model 200 is appropriate.

具体的には、再構成画像データ取得部52fによって、新たに生成された学習済みのAIモデル200に対し追加学習データ301又は不良画像データ302を入力して、再構成画像データを取得する。ここで、新たな学習済みのAIモデル200が追加学習処理によって生成されたものである場合には、追加学習データ301(追加学習処理の契機となった誤判定に係る元画像データ)が該AIモデル200に入力される。一方、新たな学習済みのAIモデル200が追加学習修正処理によって生成されたものである場合には、不良画像データ302(追加学習修正処理の契機となった誤判定に係る元画像データ)が該AIモデル200に入力される。 Specifically, the reconstructed image data acquisition unit 52f inputs additional learning data 301 or defective image data 302 to the newly generated trained AI model 200, and obtains reconstructed image data. Here, if the new trained AI model 200 is generated by additional learning processing, the additional learning data 301 (original image data related to the misjudgment that triggered the additional learning processing) is input to model 200. On the other hand, if the new trained AI model 200 is generated by the additional learning correction process, the defective image data 302 (original image data related to the misjudgment that triggered the additional learning correction process) Input to the AI model 200.

次いで、判定部52gによって、追加学習データ301又は不良画像データ302と再構成画像データとを比較させることに基づき、良否判定結果を得る。 Next, the determination unit 52g obtains a pass/fail determination result based on comparing the additional learning data 301 or the defective image data 302 with the reconstructed image data.

その上で、得られた良否判定結果が正しいか否かを判定する。ここで、追加学習データ301は良品のPTPシート1に係るものであるから、新たな学習済みのAIモデル200に対し追加学習データ301を入力した場合において、判定結果が「良品」となれば、良否判定結果は正しいといえる。また、不良画像データ302は不良品のPTPシート1に係るものであるから、新たな学習済みのAIモデル200に対し不良画像データ302を入力した場合において、判定結果が「不良品」となれば、良否判定結果は正しいといえる。 Then, it is determined whether the obtained quality determination result is correct or not. Here, since the additional learning data 301 is related to the non-defective PTP sheet 1, when the additional learning data 301 is input to the new trained AI model 200, if the determination result is "non-defective", It can be said that the pass/fail judgment result is correct. In addition, since the defective image data 302 is related to the defective PTP sheet 1, when the defective image data 302 is input to the new trained AI model 200, if the determination result is "defective". , it can be said that the pass/fail judgment result is correct.

そして、良否判定結果が正しい場合、すなわち、学習状態が適切である場合には、ステップS502にて、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換可能と判断し、確認処理を終了する。一方、良否判定結果が正しくない場合、すなわち、学習状態が不適切である場合には、ステップS503にて、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換不可能と判断し、確認処理を終了する。 Then, if the pass/fail determination result is correct, that is, if the learning state is appropriate, it is determined in step S502 that the current AI model 200z can be replaced with the newly generated trained AI model 200, Finish the confirmation process. On the other hand, if the pass/fail judgment result is incorrect, that is, if the learning state is inappropriate, it is determined in step S503 that it is impossible to replace the current AI model 200z with the newly generated trained AI model 200. Make a judgment and end the confirmation process.

尚、確認処理にあたっては、新たに生成された学習済みのAIモデル200に対し、追加学習処理や追加学習修正処理の契機となった、誤判定に係る元画像データ以外の追加学習データ301を入力して、得られた良否判定結果が正しくなるか否かを判定してもよい。 In addition, in the confirmation process, additional learning data 301 other than the original image data related to misjudgment, which triggered the additional learning process or additional learning correction process, is input to the newly generated trained AI model 200. Then, it may be determined whether the obtained quality determination result is correct or not.

さらに、追加学習部52hは、前記追加学習修正命令の入力に伴い、要因データ特定部52i及び画像出力AI用の確認部52jなどと協働して、追加学習修正処理を実行する。 Further, the additional learning section 52h cooperates with the factor data identification section 52i, the image output AI confirmation section 52j, and the like to execute additional learning and modification processing in response to the input of the additional learning and modification command.

追加学習修正処理では、図14に示すように、まず、ステップS551にて、要因データ特定部52iにより1又は複数の誤判定要因データを特定する。これにより、特定学習データ301aの中から、誤判定要因データが抽出される。 In the additional learning correction process, as shown in FIG. 14, first, in step S551, the factor data specifying unit 52i specifies one or more erroneous determination factor data. Thereby, misjudgment factor data is extracted from the specific learning data 301a.

次いで、ステップS552にて、再学習処理を実行する。再学習処理では、非使用AI記憶部525に記憶された初期AIモデル200aのニューラルネットワーク190に対し、ステップS551にて特定された誤判定要因データを除いた特定学習データ301aを学習させて、新たな学習済みのAIモデル200を生成する。例えば、ステップS551にて、画像データ記憶部526に記憶された特定学習データ301aである「IM(0)」~「IM(n)」の中から、誤判定要因データとして「IM(3)」が特定されたとする。この場合には、ステップS552にて、初期AIモデル200aに対し、「IM(3)」以外の特定学習データ301aである「IM(0)」~「IM(2)」及び「IM(4)」~「IM(n)」を用いて、上記追加学習処理が行われる。これにより、誤判定要因データである「IM(3)」以外の特定学習データ301aを学習した新たな学習済みのAIモデル200が生成される。 Next, in step S552, relearning processing is executed. In the relearning process, the neural network 190 of the initial AI model 200a stored in the unused AI storage unit 525 is made to learn the specific learning data 301a excluding the erroneous judgment factor data identified in step S551, and a new A trained AI model 200 is generated. For example, in step S551, "IM(3)" is selected as the misjudgment factor data from "IM(0)" to "IM(n)" which are the specific learning data 301a stored in the image data storage unit 526. Suppose that is specified. In this case, in step S552, specific learning data 301a other than "IM(3)" such as "IM(0)" to "IM(2)" and "IM(4)" are added to the initial AI model 200a. ” to “IM(n)”, the above additional learning process is performed. As a result, a new trained AI model 200 is generated that has learned the specific learning data 301a other than "IM(3)" which is the misjudgment factor data.

次いで、ステップS553にて、新たな学習済みのAIモデル200における学習状態が適切であるか否かが判定される。この処理は、確認処理におけるステップS501の処理と同様である。そして、学習状態が適切である場合には、誤判定を生じさせた不良画像データ302に対しても適切な良否判定が行われるように修正されたとして、追加学習修正処理を終了する。 Next, in step S553, it is determined whether the learning state of the new trained AI model 200 is appropriate. This process is similar to the process in step S501 in the confirmation process. If the learning state is appropriate, it is assumed that the defective image data 302 that caused the erroneous determination has been corrected so that an appropriate pass/fail determination is performed, and the additional learning correction process is terminated.

一方、学習状態が不適切である場合(ステップS553:NO)、ステップS551に戻り、誤判定要因データの特定を再度行う。このとき、要因データ特定部52iは、類似度のスコアと比較する閾値を変更したり、類似度が最も高い誤判定要因データを1つのみ特定したりするといった調整を適宜行った上で、誤判定要因データの再特定を行う。尚、ステップS553において学習状態が不適切である判定された場合には、良否判定処理にて用いられる閾値の変更処理を合わせて行ってもよい。 On the other hand, if the learning state is inappropriate (step S553: NO), the process returns to step S551 and the erroneous determination factor data is identified again. At this time, the factor data specifying unit 52i performs appropriate adjustments such as changing the threshold value for comparison with the similarity score or specifying only one piece of misjudgment factor data with the highest degree of similarity. Respecify the determination factor data. Note that if it is determined in step S553 that the learning state is inappropriate, processing for changing the threshold value used in the pass/fail determination process may also be performed.

そして、学習状態が正しいものとなるまで上記処理を繰り返し行うことで、最終的に、誤判定を生じさせた不良画像データ302に対し適切に対応可能な学習済みのAIモデル200が得られる。 Then, by repeating the above process until the learning state becomes correct, a trained AI model 200 that can respond appropriately to the defective image data 302 that caused the erroneous determination is finally obtained.

さらに、追加学習部52hは、機能部として承認用処理実行部52k、承認入力受付部52l及び置換部52mを備えている。本実施形態では、承認入力受付部52lが「承認入力受付手段」を構成する。 Further, the additional learning section 52h includes an approval processing execution section 52k, an approval input reception section 52l, and a replacement section 52m as functional sections. In this embodiment, the approval input receiving unit 52l constitutes an "approval input receiving means".

承認用処理実行部52kは、追加学習処理や追加学習修正処理の実行により新たな学習済みのAIモデル200が生成され、確認処理により、現用AIモデル200zを該学習済みのAIモデル200に置換可能と判断された場合に、承認用処理を実行する。承認用処理の実行により、少なくとも、追加学習情報記憶部527に記憶されている、追加学習部52hによる学習処理(追加学習処理及び追加学習修正処理)に係る各種情報と、確認処理による確認結果とが表示部522に表示される。例えば、新たな学習済みのAIモデル200を生成するために用いた追加学習データ301を示す画像などが表示される。 The approval processing execution unit 52k generates a new trained AI model 200 by executing additional learning processing and additional learning correction processing, and can replace the current AI model 200z with the learned AI model 200 through confirmation processing. If it is determined that this is the case, the approval process is executed. By executing the approval process, at least various information related to the learning process (additional learning process and additional learning correction process) by the additional learning unit 52h, which is stored in the additional learning information storage unit 527, and the confirmation result by the confirmation process. is displayed on the display section 522. For example, an image showing additional learning data 301 used to generate a new trained AI model 200 is displayed.

また、承認用処理の実行により、表示部522には、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成されたAIモデル200に置換することを承認するときに、オペレータ等によって選択される承認ボタンが表示される。尚、表示部522には、置換を承認しない場合にオペレータ等によって選択される非承認ボタンも表示される。 In addition, by executing the approval process, the currently used AI model 200z used for inspecting the PTP sheet 1 (stored in the used AI storage unit 524) is displayed on the display unit 522, and the newly generated AI model When approving replacement with 200, an approval button is displayed that is selected by an operator or the like. Note that the display section 522 also displays a non-approval button that is selected by the operator or the like when the replacement is not approved.

承認入力受付部52lは、入力部521を用いて前記承認ボタンが選択されたときに、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成されたAIモデル200に置換することについての承認に係る入力を受付ける。承認入力受付部52lは、承認に係る入力を受付けると、所定の置換実行命令を置換部52mに出力して、承認用処理を終了する。 When the approval button is selected using the input unit 521, the approval input receiving unit 52l inputs the current AI model 200z (stored in the used AI storage unit 524) used for inspecting the PTP sheet 1. , accepts input regarding approval for replacement with the newly generated AI model 200. When the approval input receiving unit 52l receives input related to approval, it outputs a predetermined replacement execution command to the replacement unit 52m, and ends the approval process.

一方、承認入力受付部52lは、入力部521を用いて前記非承認ボタンが選択されたとき、前記置換実行命令を出力することなく、承認用処理を終了する。 On the other hand, when the non-approval button is selected using the input unit 521, the approval input receiving unit 52l ends the approval process without outputting the replacement execution command.

尚、承認用処理の実行により、確認処理実行用ボタンが表示され、オペレータ等がこのボタンを選択することで、新たに生成された学習済みのAIモデル200に対し再度の確認処理が実行されるように構成してもよい。このとき、確認処理で用いられる追加学習データ301が、手動又は自動で選択されるようにしてもよい。 Note that when the approval process is executed, a confirmation process execution button is displayed, and when the operator or the like selects this button, the confirmation process is executed again for the newly generated trained AI model 200. It may be configured as follows. At this time, the additional learning data 301 used in the confirmation process may be selected manually or automatically.

置換部52mは、前記置換実行命令が入力されたときに、PTPシート1の検査に利用されている(使用AI記憶部524に記憶されている)現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換するための置換処理を実行する。 When the replacement execution command is input, the replacement unit 52m replaces the currently used AI model 200z (stored in the used AI storage unit 524) used for inspecting the PTP sheet 1 with a newly generated learning model. A replacement process for replacing the AI model 200 with the completed AI model 200 is executed.

置換処理では、まず、PTP包装機11によるPTPシート1の生産を一時的に停止させる。その上で、使用AI記憶部524に記憶されている現用AIモデル200zが、非使用AI記憶部525に記憶されている新たな学習済みのAIモデル200に置換えられる。そして、現用AIモデル200zの置換後、PTPシート1の生産が再開される。その結果、新たな現用AIモデル200zを利用したPTPシート1の検査が開始されることとなる。尚、置換処理により、非使用AI記憶部525に記憶されている新たな学習済みのAIモデル200が、複製現用AIモデル200z1となる。 In the replacement process, first, the production of PTP sheets 1 by the PTP packaging machine 11 is temporarily stopped. Then, the current AI model 200z stored in the used AI storage unit 524 is replaced with a new trained AI model 200 stored in the unused AI storage unit 525. After replacing the current AI model 200z, production of the PTP sheet 1 is restarted. As a result, inspection of the PTP sheet 1 using the new current AI model 200z will begin. Note that through the replacement process, the new learned AI model 200 stored in the unused AI storage unit 525 becomes the duplicate current AI model 200z1.

保存処理実行部52nは、追加学習情報記憶部527に対し、追加学習処理や追加学習修正処理(すなわち、追加学習部52hによる学習処理)に係る各種情報など、AIモデル200の学習に関する情報を記憶させる。保存処理実行部52nは、追加学習情報記憶部527に対し、現用AIモデル200zや初期AIモデル200aを含む現時点までに生成された全ての学習済みのAIモデル200(承認用処理にて不採用となったAIモデル200を含む)、学習済みのAIモデル200の生成に用いられた追加学習データ301、各種処理(例えば、追加学習処理、追加学習修正処理、確認処理及び承認用処理など)にて行われた入力部521に対する全ての操作内容、承認用処理にて承認に係る入力を受付けた日時、並びに、現用AIモデル200zの置換を実行した日時などを記憶させる。 The storage processing execution unit 52n stores information related to learning of the AI model 200, such as various information related to additional learning processing and additional learning correction processing (that is, learning processing by the additional learning unit 52h), in the additional learning information storage unit 527. let The storage processing execution unit 52n stores all trained AI models 200 (rejected in the approval process) generated up to the present time, including the current AI model 200z and the initial AI model 200a, in the additional learning information storage unit 527. (including the AI model 200 that has changed), additional learning data 301 used to generate the trained AI model 200, and various processes (for example, additional learning processing, additional learning correction processing, confirmation processing, approval processing, etc.) The contents of all the operations performed on the input unit 521, the date and time when the input related to approval was received in the approval process, the date and time when the replacement of the current AI model 200z was executed, etc. are stored.

上記にて詳しく説明した追加学習部52hによる各種処理(追加学習処理や追加学習修正処理など)の流れは、簡単に言えば、図15に示すものとなる。 Briefly speaking, the flow of various processes (additional learning processing, additional learning correction processing, etc.) by the additional learning section 52h described in detail above is as shown in FIG. 15.

すなわち、検査にて不良品のPTPシート1を良品と誤判定した場合(ステップS11:YES)には、オペレータ等によって追加学習修正命令が入力されることで、追加学習修正処理(ステップS12-A)が実行される。すなわち、初期AIモデル200aのニューラルネットワーク190に対し、誤判定要因データを除いた特定学習データ301aを学習させることで、新たな学習済みのAIモデル200が生成される。 That is, if the defective PTP sheet 1 is erroneously determined to be a good product in the inspection (step S11: YES), an additional learning correction command is input by an operator, etc., and the additional learning correction processing (step S12-A) is performed. ) is executed. That is, a new trained AI model 200 is generated by causing the neural network 190 of the initial AI model 200a to learn the specific learning data 301a excluding the data that causes erroneous determination.

一方、検査にて良品のPTPシート1を不良品と誤判定した場合(ステップS11:NO)には、オペレータ等によって追加学習命令が入力されることで、追加学習処理(ステップS12-B)が実行される。すなわち、複製現用AIモデル200z1に対し、誤判定に係る画像データを追加学習させることで、新たな学習済みのAIモデル200が生成される。 On the other hand, if the good PTP sheet 1 is erroneously determined to be a defective product during the inspection (step S11: NO), an additional learning command is input by the operator, etc., and the additional learning process (step S12-B) is performed. executed. That is, a new trained AI model 200 is generated by additionally learning the image data related to the erroneous determination with respect to the duplicate current AI model 200z1.

そして、新たな学習済みのAIモデル200が生成されると、ステップS14の確認処理が行われる。確認処理では、まず、ステップS14-1にて、生成されたAIモデル200の学習状態が確認される。ここで、学習状態が適切である場合(ステップS14-1:YES)、現用AIモデル200zを、新たな学習済みAIモデル200に置換可能と判断する(ステップS14-2-A)。一方、学習状態が不適切である場合(ステップS14-1:NO)、現用AIモデル200zを、新たな学習済みAIモデル200に置換不可能と判断する(ステップS14-2-B)。 Then, when a new trained AI model 200 is generated, a confirmation process in step S14 is performed. In the confirmation process, first, in step S14-1, the learning state of the generated AI model 200 is confirmed. Here, if the learning state is appropriate (step S14-1: YES), it is determined that the current AI model 200z can be replaced with a new trained AI model 200 (step S14-2-A). On the other hand, if the learning state is inappropriate (step S14-1: NO), it is determined that the current AI model 200z cannot be replaced with a new trained AI model 200 (step S14-2-B).

置換可能と判断された場合、承認用処理(ステップS15)が実行され、置換を行う上でオペレータ等が必要とする情報が表示部522に表示される。そして、オペレータ等によって前記承認ボタンが選択されると(ステップS16:YES)、PTP包装機11が一時停止された上で、現用AIモデル200zが新たな学習済みAIモデル200に置換される(ステップS17)。一方、オペレータ等によって前記非承認ボタンが選択されると(ステップS16:No)、置換は行われず、現用AIモデル200zがそのまま利用される。 If it is determined that replacement is possible, an approval process (step S15) is executed, and information required by an operator or the like to perform the replacement is displayed on the display unit 522. When the approval button is selected by the operator or the like (step S16: YES), the PTP packaging machine 11 is temporarily stopped, and the current AI model 200z is replaced with a new trained AI model 200 (step S16: YES). S17). On the other hand, if the operator or the like selects the disapproval button (step S16: No), no replacement is performed and the current AI model 200z is used as is.

尚、確認処理や承認用処理が終了する前に、新たな誤判定が生じた場合には、置換に係る承認又は非承認がなされるまで、新たな追加学習処理や追加学習修正処理の実行を保留するようにしてもよい。 In addition, if a new erroneous judgment occurs before the confirmation process or approval process is completed, the new additional learning process or additional learning correction process will be executed until the replacement is approved or disapproved. It may be put on hold.

以上詳述したように、本実施形態によれば、画像データ取得部52xにより取得された元画像データ(濃淡模様データ)と、該元画像データを現用AIモデル200zへ入力して再構成された再構成画像データとを比較し、その比較結果に基づき、PTPシート1の良否を判定している。そのため、比較する両画像データは、それぞれ同一のPTPシート1に係るものとなる。従って、比較する両画像データにおいて、PTPシート1の形状や外観はそれぞれほぼ同一となるため、形状や外観の違いによる誤検出を防止するために比較的緩い判定条件を設定する必要はなく、より厳しい判定条件を設定することができる。さらに、比較する両画像データにおいて、画像データを得る際の条件(例えばカメラ51に対するPTPシート1の配置位置や配置角度、明暗状態やカメラ51の画角等)を一致させることができる。これらの結果、良否判定を非常に精度よく行うことができる。 As described in detail above, according to the present embodiment, the original image data (shaded pattern data) acquired by the image data acquisition unit 52x and the original image data are input to the current AI model 200z and reconstructed. The PTP sheet 1 is compared with the reconstructed image data, and the quality of the PTP sheet 1 is determined based on the comparison result. Therefore, both image data to be compared are related to the same PTP sheet 1. Therefore, since the shape and appearance of PTP sheet 1 are almost the same in both image data to be compared, there is no need to set relatively loose judgment conditions to prevent false detection due to differences in shape and appearance. Strict judgment conditions can be set. Furthermore, the conditions for obtaining the image data (for example, the arrangement position and arrangement angle of the PTP sheet 1 with respect to the camera 51, the brightness and darkness state, the viewing angle of the camera 51, etc.) can be matched in both image data to be compared. As a result, pass/fail judgments can be made with high accuracy.

また、現用AIモデル200zに元画像データを入力して再構成された再構成画像データに基づく良否判定により、不良品のPTPシート1が良品であると誤判定された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習部52hは、追加学習が行われていない段階のAIモデル200(現用AIモデル200zよりも前の段階のAIモデル200)である初期AIモデル200aのニューラルネットワーク190に対する学習を行い、新たな学習済みのAIモデル200を生成する。このとき、追加学習部52hは、初期AIモデル200aのニューラルネットワーク190に対し、特定学習データ301aのうち誤判定要因データ以外のデータを学習させる。そのため、新たに生成されるAIモデル200において、過去の追加学習データ301(特定学習データ301a)を生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、不良品のPTPシート1が良品であると誤判定されることをより確実に防止でき、検査精度を高めることができる。 In addition, if the defective PTP sheet 1 is erroneously determined to be a good product by the quality judgment based on the reconstructed image data that was reconstructed by inputting the original image data to the current AI model 200z, in other words, due to overlearning. If it is thought that a misjudgment has occurred, the additional learning unit 52h uses the neural structure of the initial AI model 200a, which is the AI model 200 at a stage where additional learning has not been performed (the AI model 200 at a stage before the current AI model 200z). Learning is performed on the network 190 to generate a new trained AI model 200. At this time, the additional learning unit 52h causes the neural network 190 of the initial AI model 200a to learn data other than the erroneous determination factor data out of the specific learning data 301a. Therefore, in the newly generated AI model 200, while making use of the past additional learning data 301 (specific learning data 301a), the learning state is modified to more reliably suppress the occurrence of false judgments due to overfitting. It can be carried out. As a result, it is possible to more reliably prevent a defective PTP sheet 1 from being erroneously determined to be a good product, and it is possible to improve inspection accuracy.

加えて、追加学習部52hは、検査に利用されている現用AIモデル200zのニューラルネットワーク190ではなく、複製現用AIモデル200z1のニューラルネットワーク190に対して学習を行う。そのため、膨大な繰り返し処理となり得る、ニューラルネットワーク190の学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数のPTPシート1に対する検査を、迅速に、かつ、効率よく行うことができる。 In addition, the additional learning unit 52h performs learning on the neural network 190 of the replicated current AI model 200z1 instead of the neural network 190 of the current AI model 200z used for inspection. Therefore, the process related to the learning of the neural network 190 and the process related to the extraction (identification) of erroneous determination factor data can be performed without stopping the test, which can be a hugely repetitive process. Thereby, a large number of PTP sheets 1 can be inspected quickly and efficiently.

また、本実施形態では、良品のPTPシート1が不良品であると誤判定された場合、複製現用AIモデル200z1のニューラルネットワーク190に対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済みのAIモデル200を生成することが可能である。従って、良品のPTPシート1が不良品であると誤判定されることをより確実に防止可能となり、検査精度をより高めることができる。 Furthermore, in the present embodiment, when a good PTP sheet 1 is erroneously determined to be a defective product, the neural network 190 of the replica current AI model 200z1 is made to additionally learn the original image data that caused the erroneous determination. By doing so, it is possible to generate a new trained AI model 200. Therefore, it is possible to more reliably prevent a good PTP sheet 1 from being erroneously determined to be a defective product, and the inspection accuracy can be further improved.

加えて、この追加学習は複製現用AIモデル200z1を対象とするため、追加学習のために検査を停止させる必要はない。従って、多数のPTPシート1に対する検査を、より迅速に、かつ、より効率よく行うことが可能となる。 In addition, since this additional learning targets the replicated current AI model 200z1, there is no need to stop testing for additional learning. Therefore, it becomes possible to inspect a large number of PTP sheets 1 more quickly and more efficiently.

さらに、要因データ特定部52iによって、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である不良画像データ302に対する類似度に基づき、特定学習データ301aの中から誤判定要因データ(誤判定の要因と考えられる追加学習データ301)を特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成されるAIモデル200を用いた検査に係る精度をより確実に高めることができる。 Furthermore, the factor data specifying unit 52i selects misjudgment factor data from the specific learning data 301a based on the degree of similarity to the defective image data 302, which is the original image data related to the misjudgment (original image data that caused the misjudgment). (Additional learning data 301 that is considered to be the cause of the misjudgment) can be specified. Therefore, the misjudgment factor data can be specified more accurately, and in turn, the accuracy of the test using the newly generated AI model 200 can be more reliably increased.

また、画像出力AI用の確認部52jにより、新たに生成されたAIモデル200において、該AIモデル200の生成の契機となった誤判定に係る元画像データに基づく誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。また、万が一新たに生成されたAIモデル200を用いた検査でも同様の誤判定が生じることが確認されたときには、そのような誤判定への対処(例えば、誤判定要因データの再特定を行うとともに、再特定された誤判定要因データを除いた上での再度の学習や、元画像データと再構成画像データとを比較する段階で用いる閾値の変更など)を簡便に行うことが可能となる。 In addition, the image output AI confirmation unit 52j determines whether or not an erroneous judgment based on the original image data related to the erroneous judgment that triggered the generation of the AI model 200 occurs in the newly generated AI model 200. In other words, it is possible to easily confirm whether or not better inspection accuracy is achieved. In addition, if it is confirmed that a similar misjudgment occurs in a test using the newly generated AI model 200, we will take measures to deal with such misjudgment (for example, by re-identifying the data that caused the misjudgment and , re-learning after removing the re-identified erroneous determination factor data, changing the threshold value used in the step of comparing the original image data and the reconstructed image data, etc.).

加えて、オペレータ等による承認があって初めて、現用AIモデル200zが新たに生成された学習済みのAIモデル200に置換される。そのため、現用AIモデル200zを、新たに生成された学習済みのAIモデル200に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。
〔第2実施形態〕
次いで、第2実施形態について、図21等を参照しつつ上記第1実施形態との相違点を中心に説明する。尚、上記第1実施形態及び本第2実施形態において、AIモデルやその学習に係る主な相違点は次の通りである。
(上記第1実施形態)
・学習済みのAIモデル200…良品のPTPシート1に係る画像データのみを学習して生成されたものであり、画像データが入力されると、画像データを出力する。
・追加学習処理…良品のPTPシート1を不良品と誤判定した場合に実行される。
・追加学習修正処理…不良品のPTPシート1を良品と誤判定した場合に実行される。
(本第2実施形態)
・学習済みのAIモデル400…良品及び不良品のPTPシート1に係る画像データを学習して生成されたものであり、画像データが入力されると、分類結果を出力する。
・追加学習処理…良品のPTPシート1を不良品と誤判定した場合のみならず、不良品のPTPシート1を良品と誤判定した場合や、分類結果に誤判定が生じた場合にも実行される。
・追加学習修正処理…追加学習処理に続いて行われる確認処理にて誤判定が生じた場合に実行される。
In addition, the current AI model 200z is replaced with the newly generated trained AI model 200 only after approval by the operator or the like. Therefore, it is possible to more reliably prevent unintentional replacement of the current AI model 200z with the newly generated trained AI model 200. This makes it possible to more reliably prevent problems caused by unintended replacement.
[Second embodiment]
Next, the second embodiment will be described with reference to FIG. 21 and the like, focusing on the differences from the first embodiment. The main differences between the first embodiment and the second embodiment regarding the AI model and its learning are as follows.
(Above first embodiment)
- Learned AI model 200: This model is generated by learning only the image data related to the good PTP sheet 1, and outputs the image data when the image data is input.
-Additional learning process...Executed when a good PTP sheet 1 is erroneously determined to be a defective product.
・Additional learning correction processing...Executed when the defective PTP sheet 1 is incorrectly determined to be a good product.
(Second embodiment)
- Learned AI model 400: This model is generated by learning image data related to good and defective PTP sheets 1, and outputs a classification result when the image data is input.
・Additional learning process: This process is executed not only when a good PTP sheet 1 is incorrectly judged as a defective product, but also when a defective PTP sheet 1 is incorrectly judged as a good product, or when an incorrect classification result occurs. Ru.
・Additional learning correction processing: Executed when an erroneous determination occurs in the confirmation processing performed following the additional learning processing.

以下、本第2実施形態について詳しく説明する。 The second embodiment will be described in detail below.

上記第1実施形態において、検査装置21は、ポケット部成形装置16の下流に配置されており、ポケット部2の成形状態に関する検査を行うことで、PTPシート1の良否を判定する。これに対し、図21に示すように、本第2実施形態における検査装置23は、錠剤充填装置22よりも下流に配置されており、ポケット部2に充填された錠剤5の状態や、ポケット部2に対する異物の混入の有無などについての検査を行うことで、PTPシート1の良否を判定する。また、検査装置23は、PTPシート1の良否判定とともに、PTPシート1の不良種別を判定する。尚、本第2実施形態において、不良シート排出機構40は、検査装置23から不良品信号が入力されると、不良品のPTPシート1を排出する。 In the first embodiment, the inspection device 21 is disposed downstream of the pocket forming device 16, and determines the quality of the PTP sheet 1 by inspecting the forming state of the pocket portion 2. On the other hand, as shown in FIG. 21, the inspection device 23 in the second embodiment is disposed downstream of the tablet filling device 22, and inspects the state of the tablets 5 filled in the pocket portion 2 and the condition of the pocket portion. The quality of the PTP sheet 1 is determined by inspecting the PTP sheet 2 for the presence or absence of foreign matter. In addition, the inspection device 23 determines whether the PTP sheet 1 is good or bad and determines the type of defect in the PTP sheet 1. In the second embodiment, the defective sheet discharge mechanism 40 discharges the defective PTP sheet 1 when a defective product signal is input from the inspection device 23.

検査装置23は、シール前に容器フィルム3のポケット部2突出部側から検査を行う透過光式の検査装置である。検査装置23は、照明装置53、カメラ54及び検査制御装置55を有している。 The inspection device 23 is a transmitted light type inspection device that inspects the container film 3 from the pocket portion 2 protrusion side before sealing. The inspection device 23 includes a lighting device 53, a camera 54, and an inspection control device 55.

照明装置53は、錠剤充填装置22の下流において、容器フィルム3のポケット部2開口部側に配置されており、容器フィルム3の所定範囲に対し所定の光(近赤外光など)を照射する。 The illumination device 53 is disposed downstream of the tablet filling device 22 and on the opening side of the pocket portion 2 of the container film 3, and irradiates a predetermined range of the container film 3 with predetermined light (near infrared light, etc.). .

カメラ54は、容器フィルム3のポケット部2突出部側に設けられており、照明装置53から照射される光の波長領域に感度を有するものである。カメラ54は、照明装置53から照射される光(近赤外光)のうち、容器フィルム3を透過した光を撮像する。カメラ54は、少なくとも1枚分のPTPシート1に対応する計10個のポケット部2を含む範囲を一度に撮像する。 The camera 54 is provided on the protrusion side of the pocket portion 2 of the container film 3 and is sensitive to the wavelength region of the light irradiated from the illumination device 53. The camera 54 images the light that has passed through the container film 3 out of the light (near infrared light) irradiated from the illumination device 53 . The camera 54 images an area including a total of ten pocket sections 2 corresponding to at least one PTP sheet 1 at a time.

検査制御装置55は、上記第1実施形態における検査制御装置52と同様に、CPU等を有するコンピュータシステムによって構成されている。図22に示すように、検査制御装置55は、CPUが各種プログラムに従って動作することで、メイン制御部55a、照明制御部55b、カメラ制御部55c、画像取込部55d、画像処理部55e、判定処理部55g、追加学習部55h及び保存処理実行部55nなどの各種機能部として機能する。本第2実施形態では、追加学習部55hが「追加学習手段」を構成する。 The inspection control device 55 is configured by a computer system including a CPU and the like, similar to the inspection control device 52 in the first embodiment. As shown in FIG. 22, the inspection control device 55 includes a main control section 55a, a lighting control section 55b, a camera control section 55c, an image capturing section 55d, an image processing section 55e, and a judgment section by operating the CPU according to various programs. It functions as various functional units such as a processing unit 55g, an additional learning unit 55h, and a storage processing execution unit 55n. In the second embodiment, the additional learning section 55h constitutes an "additional learning means".

尚、メイン制御部55a、照明制御部55b、カメラ制御部55c、画像取込部55d及び画像処理部55eは、上記第1実施形態におけるメイン制御部52a、照明制御部52b、カメラ制御部52c、画像取込部52d及び画像処理部52eと同様に機能する。 Note that the main control section 55a, lighting control section 55b, camera control section 55c, image capturing section 55d, and image processing section 55e are the main control section 52a, lighting control section 52b, camera control section 52c, It functions similarly to the image capture section 52d and the image processing section 52e.

さらに、検査制御装置55には、入力部551、表示部552及び外部と各種データを送受信可能な通信部(不図示)などが設けられている。該通信部は、上記第1実施形態における通信部528と同様に機能する。本第2実施形態では、表示部552が「表示手段」を構成する。 Furthermore, the inspection control device 55 is provided with an input section 551, a display section 552, and a communication section (not shown) capable of transmitting and receiving various data to and from the outside. The communication unit functions similarly to the communication unit 528 in the first embodiment. In the second embodiment, the display section 552 constitutes a "display means".

また、検査制御装置55は、それぞれHDD等の記憶装置で構成された検査情報記憶部553、使用AI記憶部554、非使用AI記憶部555、画像データ記憶部556及び追加学習情報記憶部557を備えている。本実施形態では、非使用AI記憶部555が「識別手段記憶手段」を構成する。 The examination control device 55 also has an examination information storage section 553, a used AI storage section 554, an unused AI storage section 555, an image data storage section 556, and an additional learning information storage section 557, each of which is composed of a storage device such as an HDD. We are prepared. In this embodiment, the unused AI storage section 555 constitutes an "identification means storage means."

入力部551は、検査制御装置55に対する情報の入力や該情報の変更などに用いられる入力装置であり、該入力部551を介して所定の追加学習命令を入力可能である。追加学習命令は、例えば、後述する学習済みのAIモデル400による分類結果に誤判定があった場合にオペレータ等によって入力される。勿論、検査装置23以外に別途設けられた検査装置によって誤判定が生じたと判定された場合に、追加学習命令が検査制御装置55へと自動的に入力される構成としてもよい。尚、追加学習命令の入力により、後述する追加学習処理が行われる。 The input unit 551 is an input device used to input information to the inspection control device 55, change the information, etc., and can input a predetermined additional learning command via the input unit 551. The additional learning command is input by an operator or the like when, for example, there is a misjudgment in the classification result by the trained AI model 400, which will be described later. Of course, a configuration may also be adopted in which an additional learning command is automatically input to the inspection control device 55 when it is determined that an erroneous determination has occurred by an inspection device provided separately other than the inspection device 23. Note that additional learning processing, which will be described later, is performed by inputting the additional learning command.

表示部552は、各記憶部553~557に記憶された各種情報を表示可能な表示装置である。 The display unit 552 is a display device that can display various information stored in each of the storage units 553 to 557.

検査情報記憶部553は、検査に用いられる各種設定情報や、良否判定結果などを記憶するためのものである。本第2実施形態では、各種設定情報として、良否判定用の閾値や分類用の閾値が予め記憶されている。これら閾値は、学習済みのAIモデル400による分類分けに用いられる。 The inspection information storage section 553 is for storing various setting information used in the inspection, pass/fail determination results, and the like. In the second embodiment, thresholds for quality determination and classification thresholds are stored in advance as various setting information. These threshold values are used for classification by the trained AI model 400.

使用AI記憶部554は、「識別手段」としてのAIモデル400を記憶する。AIモデル400は、ディープニューラルネットワーク(以下、単に「ニューラルネットワーク」という。)によって、入力された元画像データを所定の項目で分類して、分類結果を出力する。つまり、本第2実施形態におけるAIモデル400は分類型のAIモデルである。 The used AI storage unit 554 stores the AI model 400 as an "identification means". The AI model 400 uses a deep neural network (hereinafter simply referred to as "neural network") to classify input original image data according to predetermined items, and outputs the classification results. In other words, the AI model 400 in the second embodiment is a classification type AI model.

使用AI記憶部554は、AIモデル400として、PTPシート1の検査に利用されている現用AIモデル400zを記憶している。現用AIモデル400zについては後により詳しく説明する。 The used AI storage unit 554 stores, as the AI model 400, a current AI model 400z used for inspecting the PTP sheet 1. The current AI model 400z will be explained in more detail later.

非使用AI記憶部555は、検査に利用されていないAIモデル400を記憶する。非使用AI記憶部555に記憶されるAIモデル400には、PTPシート1の検査に利用されている現用AIモデル400zとは別に記憶された、該現用AIモデル400zと同一内容の複製現用AIモデル400z1と、初期AIモデル400aとが含まれる。 The unused AI storage unit 555 stores AI models 400 that are not used for testing. The AI model 400 stored in the unused AI storage unit 555 includes a duplicate current AI model with the same content as the current AI model 400z, which is stored separately from the current AI model 400z used for inspecting the PTP sheet 1. 400z1 and an initial AI model 400a.

本第2実施形態において、現用AIモデル400z、複製現用AIモデル400z1及び初期AIモデル400aなどの学習済みのAIモデル400は、「学習済識別手段」を構成し、初期AIモデル400aは「旧識別手段」を構成する。また、現用AIモデル400zは「現用識別手段」を構成し、複製現用AIモデル400z1は「複製現用識別手段」を構成する。 In the second embodiment, the trained AI models 400 such as the current AI model 400z, the duplicate current AI model 400z1, and the initial AI model 400a constitute a "trained identification means", and the initial AI model 400a constitutes an "old identification means". "means" constitutes "means". Further, the current AI model 400z constitutes a "current identification means", and the duplicate current AI model 400z1 constitutes a "duplicate current identification means".

現用AIモデル400zは、追加学習部55hによる追加学習処理や追加学習修正処理によって生成され、後述する承認用処理にて採用されたAIモデル400である。検査装置23によるPTPシート1の検査は、現用AIモデル400zを用いて行われる。 The current AI model 400z is an AI model 400 that is generated by additional learning processing and additional learning correction processing by the additional learning unit 55h, and is adopted in the approval processing described later. The inspection of the PTP sheet 1 by the inspection device 23 is performed using the current AI model 400z.

現用AIモデル400z及び複製現用AIモデル400z1は、追加学習部55hによる追加学習処理や追加学習修正処理によって順次更新され得る。本実施形態において、各AI記憶部554,555には、現用AIモデル400zや複製現用AIモデル400z1として「AI2(n)」(図28参照)が記憶されている。尚、nは自然数を表す。 The current AI model 400z and the duplicate current AI model 400z1 can be sequentially updated by additional learning processing and additional learning correction processing by the additional learning section 55h. In this embodiment, each AI storage unit 554, 555 stores "AI2(n)" (see FIG. 28) as the current AI model 400z or the duplicate current AI model 400z1. Note that n represents a natural number.

初期AIモデル400aは、後述する学習処理が行われている一方、追加学習部55hによる追加学習処理が全く行われていない段階のAIモデル400である。本実施形態において、AI記憶部554には、初期AIモデル400aとして、工場出荷時のAIモデル400である「AI2(0)」(図28参照)が記憶されている。 The initial AI model 400a is an AI model 400 at a stage where learning processing to be described later has been performed, but no additional learning processing by the additional learning section 55h has been performed. In this embodiment, the AI storage unit 554 stores the factory-shipped AI model 400 "AI2(0)" (see FIG. 28) as the initial AI model 400a.

現用AIモデル400zや初期AIモデル400aなどの学習済みのAIモデル400は、良品のPTPシート1に係る画像データのみならず、不良品のPTPシート1に係る画像データをも学習データとして、ニューラルネットワークを深層学習(ディープラーニング)させて構築した生成モデルである。つまり、学習済みのAIモデル400は、良品及び不良品のPTPシート1に係る画像データを学習して生成されたものである。本第2実施形態において、初期AIモデル400aは、そのニューラルネットワークに対し後述する学習処理が予め行われてなるものであり、また、現用AIモデル400zや複製現用AIモデル400z1は、初期AIモデル400aのニューラルネットワークに対し、追加学習部55hによる追加学習処理などが複数回行われてなるものである。 The trained AI models 400, such as the current AI model 400z and the initial AI model 400a, use not only the image data related to the non-defective PTP sheet 1 but also the image data related to the defective PTP sheet 1 as learning data, and use the neural network as training data. This is a generative model built using deep learning. In other words, the trained AI model 400 is generated by learning image data related to non-defective and defective PTP sheets 1. In the second embodiment, the initial AI model 400a is a neural network that has undergone a learning process described later, and the current AI model 400z and the duplicate current AI model 400z1 are the initial AI model 400a. Additional learning processing by the additional learning unit 55h is performed multiple times on the neural network.

学習済みのAIモデル400は、元画像データが入力されると、該元画像データに係るPTPシート1が「良品」である確率と、該PTPシート1が「不良品」である確率と、不良種別に関する確率とを算出する。その上で、学習済みのAIモデル400は、算出した「良品」又は「不良品」である確率と、検査情報記憶部553に記憶された良否判定用の閾値とを比較することで、入力された元画像データに係るPTPシート1の良否を判定し、その良否判定結果を出力する。 When original image data is input, the trained AI model 400 calculates the probability that the PTP sheet 1 related to the original image data is a "good product", the probability that the PTP sheet 1 is a "defective product", and the probability that the PTP sheet 1 is a "defective product". Calculate the probability regarding the type. Then, the trained AI model 400 compares the calculated probability of being a "good product" or "defective product" with the threshold value for quality determination stored in the inspection information storage unit 553. The quality of the PTP sheet 1 based on the original image data is determined, and the quality determination result is output.

また、学習済みのAIモデル400は、算出した不良種別に関する確率と、検査情報記憶部553に記憶された分類用の閾値とを比較することで、入力された元画像データに係るPTPシート1における不良の種別を判定し、その判定結果を出力する。本第2実施形態における不良の種別は、「錠剤欠け」「異物混入」及び「その他不良」である。 In addition, the trained AI model 400 compares the probability regarding the calculated defect type with the classification threshold stored in the inspection information storage unit 553 to determine whether the PTP sheet 1 related to the input original image data Determine the type of defect and output the determination result. The types of defects in the second embodiment are "missing tablets," "contamination with foreign matter," and "other defects."

判定についてより詳しく説明すると、学習済みのAIモデル400は、「錠剤欠け」に関するスコアと、「異物混入」に関するスコアとを算出し、算出したスコアが分類用の閾値を超えていれば、該スコアに係る不良の種別(「錠剤欠け」又は「異物混入」)を判定結果として出力する。一方、学習済みのAIモデル400は、PTPシート1を不良と判定する場合であって、算出した各スコアがそれぞれ分類用の閾値以下である場合には、判定結果として「その他不良」を出力する。 To explain the determination in more detail, the trained AI model 400 calculates a score related to "missing tablets" and a score related to "foreign substance contamination", and if the calculated score exceeds the classification threshold, the trained AI model 400 The type of defect (“missing tablet” or “contamination with foreign matter”) related to the above is output as the determination result. On the other hand, when the trained AI model 400 determines the PTP sheet 1 as defective, and each calculated score is below the classification threshold, it outputs "other defects" as the determination result. .

尚、「錠剤欠け」は、錠剤5に欠けが発生していることを意味し、「異物混入」は、ポケット部2内に、錠剤5の破片など、錠剤5以外の異物が存在することを意味し、「その他不良」は、「錠剤欠け」や「異物混入」以外の不良が生じていることを意味する。勿論、「錠剤欠け」や「異物混入」以外のその他の不良種別を採用してもよい。その他の不良種別としては、例えば、「錠剤割れ」(錠剤5に割れが発生していること)、「欠錠」(ポケット部2内に錠剤5が充填されていないこと)、「錠剤形状・大きさ違い」(錠剤5の形状や大きさが、製造品種と適合していないこと)、「錠剤表面剥離」(錠剤5の表面層が剥離していること)などを挙げることができる。 Note that "tablet chipping" means that the tablet 5 is chipped, and "foreign object contamination" means that a foreign object other than the tablet 5, such as a fragment of the tablet 5, is present in the pocket part 2. "Other defects" means defects other than "missing tablets" and "contamination of foreign matter". Of course, other defect types other than "missing tablet" and "contamination with foreign matter" may also be used. Other types of defects include, for example, "tablet cracking" (cracking occurs in the tablet 5), "missing tablet" (tablet 5 is not filled in the pocket 2), and "tablet shape... Examples include "difference in size" (the shape and size of the tablet 5 do not match the manufactured product) and "tablet surface peeling" (the surface layer of the tablet 5 has peeled off).

ここで、初期AIモデル400aを生成する際に行われる学習処理(初期学習処理)について説明する。尚、この学習処理に先立って、学習データとして、良品のPTPシート1に係る画像データと、不良品のPTPシート1に係る画像データとが多数用意される。本第2実施形態において、不良品のPTPシート1に係る画像データには、不良の種別が異なるものが含まれる。また、各学習データには、分類結果の正解についての情報が関連付けられる。従って、例えば、不良品に係る学習データには、不良品という情報と、不良の種別についての情報とが関連付けられる。 Here, the learning process (initial learning process) performed when generating the initial AI model 400a will be described. Note that, prior to this learning process, a large number of image data related to the non-defective PTP sheet 1 and image data related to the defective PTP sheet 1 are prepared as learning data. In the second embodiment, the image data related to the defective PTP sheet 1 includes data of different types of defects. Further, each learning data is associated with information about the correct answer of the classification result. Therefore, for example, learning data related to a defective product is associated with information about the defective product and information about the type of defect.

図23に示すように、学習処理では、まず、ステップS601において、未学習のニューラルネットワークを準備する。次いで、ステップS602において、分類結果を取得する。すなわち、予め用意された学習データを入力データとして、ニューラルネットワークの入力層に与える。そして、該ニューラルネットワークの出力層から出力される分類結果を取得する。 As shown in FIG. 23, in the learning process, first, in step S601, an untrained neural network is prepared. Next, in step S602, classification results are obtained. That is, learning data prepared in advance is applied to the input layer of the neural network as input data. Then, the classification results output from the output layer of the neural network are obtained.

続くステップS603では、出力された分類結果と、学習データに関連付けられた分類結果の正解とを比較し、出力された分類結果が正しいか否かを判定する。 In the following step S603, the output classification result is compared with the correct classification result associated with the learning data, and it is determined whether the output classification result is correct.

ここで、出力された分類結果が正しい場合には、ステップS605にて、学習処理の終了条件を満たすか否かを判定する。例えば、後述するステップS604の処理を経ることなくステップS603にて肯定判定されることが所定回数連続で行われた場合や、用意した学習データの全てを用いた学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク及びその学習情報(後述する更新後のパラメータ等)を初期AIモデル400aとして各使用AI記憶部554,555に格納し、学習処理を終了する。尚、使用AI記憶部554に記憶された初期AIモデル400aは、追加学習処理や追加学習修正処理に伴い現用AIモデル400zに更新される。 Here, if the output classification result is correct, it is determined in step S605 whether the end condition of the learning process is satisfied. For example, if an affirmative determination is made in step S603 without going through the process of step S604, which will be described later, a predetermined number of times in a row, or if learning using all of the prepared learning data is repeated a predetermined number of times. If so, it is determined that the termination condition is satisfied. If the termination conditions are met, the neural network and its learning information (updated parameters, etc. to be described later) are stored as the initial AI model 400a in each of the used AI storage units 554 and 555, and the learning process is terminated. Note that the initial AI model 400a stored in the used AI storage unit 554 is updated to the current AI model 400z with additional learning processing and additional learning correction processing.

一方、ステップS605にて終了条件を満たさない場合には、ステップS602に戻り、ニューラルネットワークの学習を再度行う。 On the other hand, if the termination condition is not satisfied in step S605, the process returns to step S602 and the learning of the neural network is performed again.

また、ステップS603にて、出力された分類結果が正しくない場合には、ステップS604においてネットワーク更新処理(ニューラルネットワークの学習)を行った後、再びステップS602へ戻り、上記一連の処理を繰り返す。 If the output classification result is incorrect in step S603, network updating processing (neural network learning) is performed in step S604, and then the process returns to step S602 to repeat the series of processes described above.

ステップS604のネットワーク更新処理では、公知の学習アルゴリズムを用いて、出力された分類結果が正しいものとなるように、ニューラルネットワークにおける重み(パラメータ)をより適切なものに更新する。そして、ステップS602~604の処理を何度も繰り返すことにより、ニューラルネットワークでは、より正確な分類結果が出力されるようになる。 In the network update process in step S604, a known learning algorithm is used to update the weights (parameters) in the neural network to more appropriate ones so that the output classification results are correct. By repeating the processing in steps S602 to S604 many times, the neural network can output more accurate classification results.

画像データ記憶部556は、後述する画像データ取得部55xにより得られた画像データ(濃淡模様データ)などの各種画像データを記憶する。尚、画像データ取得部55xにより得られる画像データ(濃淡模様データ)は、1枚分のPTPシート1に対応するものであって、ポケット部2や錠剤5に係る濃淡模様を計10個分表すものである。本第2実施形態では、画像データ記憶部556によって、「特定学習データ記憶手段」及び「誤判定発生画像データ記憶手段」が構成される。 The image data storage section 556 stores various image data such as image data (shade pattern data) obtained by an image data acquisition section 55x described later. The image data (shade pattern data) obtained by the image data acquisition unit 55x corresponds to one PTP sheet 1, and represents a total of 10 shading patterns related to the pocket part 2 and the tablet 5. It is something. In the second embodiment, the image data storage section 556 constitutes "specific learning data storage means" and "misjudgment occurrence image data storage means."

画像データ記憶部556に記憶される画像データには、追加学習部55hによる追加学習処理に利用される追加学習データ501が含まれる。追加学習データ501は、画像データ取得部55xにより得られた複数の画像データ(濃淡模様データ)のうち、現用AIモデル400zによる分類結果に誤判定を生じさせた画像データであって、所定の条件を満たすもの(例えばオペレータ等によって選択されたもの)である。従って、追加学習データ501には、良品のPTPシート1に係る画像データのみならず、不良品のPTPシート1に係る画像データも含まれる。尚、追加学習データ501には、分類結果の正解についての情報が関連付けられている。 The image data stored in the image data storage section 556 includes additional learning data 501 used for additional learning processing by the additional learning section 55h. Additional learning data 501 is image data that has caused a misjudgment in the classification result by the current AI model 400z among a plurality of image data (shaded pattern data) obtained by the image data acquisition unit 55x, and is based on predetermined conditions. (for example, selected by an operator, etc.). Therefore, the additional learning data 501 includes not only image data related to the non-defective PTP sheet 1 but also image data related to the defective PTP sheet 1. Note that the additional learning data 501 is associated with information regarding the correct answer of the classification result.

本実施形態では、追加学習データ501として、「IM2(1)」~「IM2(n)」(図28参照)が記憶されている。例えば、「IM2(1)」は、初期AIモデル400aのニューラルネットワークに対する追加学習処理に用いられた画像データであり、この追加学習処理によって生成されたAIモデル400が「AI2(1)」である。 In this embodiment, “IM2(1)” to “IM2(n)” (see FIG. 28) are stored as additional learning data 501. For example, "IM2(1)" is image data used in additional learning processing for the neural network of the initial AI model 400a, and the AI model 400 generated by this additional learning processing is "AI2(1)". .

また、追加学習データ501には、特定学習データ501aが含まれている。特定学習データ501aは、初期AIモデル400aから現用AIモデル400zを生成するにあたって用いられた追加学習データ501である。従って、本第2実施形態では、全ての追加学習データ501が特定学習データ501aに相当する。 Further, the additional learning data 501 includes specific learning data 501a. The specific learning data 501a is additional learning data 501 used in generating the current AI model 400z from the initial AI model 400a. Therefore, in the second embodiment, all additional learning data 501 corresponds to specific learning data 501a.

さらに、画像データ記憶部556に記憶される画像データには、誤判定発生画像データ502が含まれる。誤判定発生画像データ502とは、後述する確認処理において分類結果の誤判定が生じた場合における、その誤判定に係る濃淡模様データ(元画像データ)である。 Further, the image data stored in the image data storage unit 556 includes image data 502 in which a false determination has occurred. The erroneous determination image data 502 is grayscale pattern data (original image data) related to an erroneous determination when a classification result is erroneously determined in a confirmation process to be described later.

尚、本第2実施形態では、分類結果の誤判定が生じたか否かについて、オペレータ等による目視検査によって判断されるようになっている。勿論、検査装置23以外に別途設けられた検査装置によって誤判定が生じたか否かを判定するようにしてもよい。 In the second embodiment, whether or not a misjudgment has occurred in the classification result is determined by visual inspection by an operator or the like. Of course, it is also possible to determine whether an erroneous determination has occurred using an inspection device provided separately other than the inspection device 23.

そして、オペレータ等が入力部551を利用した情報の入力を行うこと等によって、画像データ記憶部556に記憶された画像データ(濃淡模様データ)のうちの誤判定発生画像データ502が特定される。 Then, by inputting information using the input unit 551 by an operator or the like, the image data 502 in which a misjudgment has occurred is identified among the image data (shaded pattern data) stored in the image data storage unit 556.

追加学習情報記憶部557は、追加学習処理や追加学習修正処理(すなわち、追加学習部55hによる学習処理)に係る各種情報など、AIモデル400の学習に関する情報を記憶する。本第2実施形態では、上記第1実施形態で挙げた情報に加えて、例えば、学習済みのAIモデル400と関連付けて、該AIモデル400によって使用される前記良否判定用の閾値や前記分類用の閾値などが記憶される。また、本第2実施形態では、学習済みのAIモデル400ごとにヒートマップ(画像データにおける判定の根拠となった画素を重要度に応じて強調してなるデータ)が記憶される。 The additional learning information storage unit 557 stores information related to learning of the AI model 400, such as various information related to additional learning processing and additional learning correction processing (that is, learning processing by the additional learning unit 55h). In the second embodiment, in addition to the information listed in the first embodiment, for example, in association with the trained AI model 400, the threshold value for pass/fail judgment used by the AI model 400, the threshold value for the classification threshold values, etc. are stored. Further, in the second embodiment, a heat map (data obtained by emphasizing pixels that are the basis for determination in image data according to their importance) is stored for each trained AI model 400.

次いで、検査制御装置55を構成する上記各種機能部について説明する。但し、制御部55a~55c、画像取込部55d及び画像処理部55eは、上記第1実施形態における制御部52a~52c等と同様に機能するため、これらの説明は省略する。尚、本第2実施形態では、カメラ54、画像取込部55d及び画像処理部55eによって画像データ取得部55xが構成されており、この画像データ取得部55xによって、PTPシート1に係る濃淡模様データ(元画像データ)が取得される。本第2実施形態では、画像データ取得部55xが「画像データ取得手段」を構成する。 Next, the various functional units described above that constitute the inspection control device 55 will be explained. However, since the control units 55a to 55c, the image capture unit 55d, and the image processing unit 55e function in the same manner as the control units 52a to 52c, etc. in the first embodiment, a description thereof will be omitted. In the second embodiment, the camera 54, the image capture section 55d, and the image processing section 55e constitute an image data acquisition section 55x, and the image data acquisition section 55x acquires the shading pattern data regarding the PTP sheet 1. (original image data) is acquired. In the second embodiment, the image data acquisition section 55x constitutes "image data acquisition means."

取得される濃淡模様データ(元画像データ)は、1枚分のPTPシート1に相当するものであって、ポケット部2や錠剤5に係る領域を計10個分表すものである。濃淡模様データは、画像データ記憶部556に記憶される。本第2実施形態では、取得された複数の濃淡模様データのうちの一部が、追加学習データ501や誤判定発生画像データ502となる。 The acquired shading pattern data (original image data) corresponds to one PTP sheet 1 and represents a total of 10 areas related to the pocket portion 2 and the tablet 5. The shading pattern data is stored in the image data storage section 556. In the second embodiment, some of the acquired grayscale pattern data becomes the additional learning data 501 and the erroneous determination image data 502.

判定処理部55gは、現用AIモデル400zに検査対象となるPTPシート1に係る濃淡模様データ(元画像データ)を入力することで、該現用AIモデル400zから出力される分類結果を取得する。取得された分類結果は、PTPシート1の検査結果であり、PTPシート1の良否や不良の種別を示す。 The determination processing unit 55g obtains the classification result output from the current AI model 400z by inputting the grayscale pattern data (original image data) related to the PTP sheet 1 to be inspected into the current AI model 400z. The acquired classification results are the inspection results of the PTP sheet 1 and indicate whether the PTP sheet 1 is good or bad and the type of defect.

追加学習部55hは、追加学習データ501を用いてニューラルネットワークの追加学習処理を行うことで、学習済みのAIモデル400を順次生成する。追加学習部55hは、前記追加学習命令が入力されると、追加学習処理を行う。 The additional learning unit 55h sequentially generates trained AI models 400 by performing additional learning processing of the neural network using the additional learning data 501. The additional learning unit 55h performs additional learning processing when the additional learning command is input.

追加学習処理では、図24に示すように、ステップS701にて、分類結果を取得する。すなわち、例えば、新たに記憶された未学習の追加学習データ501である「IM2(1)」を、非使用AI記憶部555に記憶された複製現用AIモデル400z1(但し、この段階における複製現用AIモデル400z1は初期AIモデル400aである)である「AI2(0)」のニューラルネットワークの入力層に与える。そして、ニューラルネットワークの出力層から出力される分類結果を取得する。尚、「IM2(1)」などの追加学習データ501は、良品のPTPシート1に係る画像データであることもあれば、不良品のPTPシート1に係る画像データであることもある。また、追加学習データ501が不良品のPTPシート1に係る画像データである場合、追加学習データ501は、少なくとも1の不良の種別に係るものである。 In the additional learning process, as shown in FIG. 24, classification results are acquired in step S701. That is, for example, "IM2(1)" which is the newly stored unlearned additional learning data 501 is transferred to the duplicate current AI model 400z1 stored in the unused AI storage unit 555 (however, the duplicate current AI model 400z1 at this stage The model 400z1 is applied to the input layer of the neural network of "AI2(0)", which is the initial AI model 400a). Then, the classification results output from the output layer of the neural network are obtained. Note that the additional learning data 501 such as "IM2(1)" may be image data related to a good PTP sheet 1, or may be image data related to a defective PTP sheet 1. Further, when the additional learning data 501 is image data related to the defective PTP sheet 1, the additional learning data 501 is related to at least one type of defect.

続くステップS702では、分類結果が正しいか否かを判定する。ここで、分類結果が正しい場合には、ステップS704にて、追加学習処理の終了条件を満たすか否かを判定する。例えば、記憶された追加学習データ501を用いた追加学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク及びその学習情報(更新後のパラメータ等)を、新たな学習済みのAIモデル400として非使用AI記憶部555に格納する。 In the following step S702, it is determined whether the classification result is correct. Here, if the classification result is correct, it is determined in step S704 whether the conditions for ending the additional learning process are satisfied. For example, if additional learning using the stored additional learning data 501 is repeated a predetermined number of times, it is determined that the termination condition is satisfied. If the termination condition is met, the neural network and its learning information (updated parameters, etc.) are stored in the unused AI storage unit 555 as a new trained AI model 400.

一方、ステップS702にて、分類結果が正しくない場合には、ステップS704において、ネットワーク更新処理(ニューラルネットワークの学習)を行った後、再びステップS701へ戻り、上記一連の処理を繰り返す。ネットワーク更新処理は、上記学習処理におけるステップS604の処理と同様である。ステップS701~704の処理を繰り返すことにより、ニューラルネットワークでは、より正確な分類結果が出力されるようになる。追加学習の終了条件が満たされると、追加学習処理を終了する。 On the other hand, if the classification result is incorrect in step S702, a network update process (neural network learning) is performed in step S704, and then the process returns to step S701 to repeat the above series of processes. The network update process is similar to the process in step S604 in the learning process described above. By repeating the processing in steps S701 to S704, the neural network can output more accurate classification results. When the additional learning termination condition is satisfied, the additional learning process is terminated.

さらに、追加学習部55hは、機能部として要因データ特定部55i及び分類出力AI用の確認部55jを備えている。本第2実施形態では、要因データ特定部55iが「要因データ特定手段」を構成し、分類出力AI用の確認部55jが「分類出力AI用の確認手段」を構成する。 Further, the additional learning section 55h includes a factor data specifying section 55i and a confirmation section 55j for classification output AI as functional sections. In the second embodiment, the factor data specifying section 55i constitutes a "factor data specifying means", and the confirmation section 55j for classification output AI constitutes a "confirmation means for classification output AI".

要因データ特定部55iは、後述する確認処理によって分類結果に誤判定が生じていることが確認された場合において、その誤判定に係る(その誤判定を生じさせた)誤判定発生画像データ502に対する類似度に基づき、特定学習データ501aの中から、その誤判定の要因となった追加学習データ501を誤判定要因データとして特定する。本第2実施形態において、要因データ特定部55iは、その誤判定された分類結果と同一の分類結果のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。例えば、確認処理にて「異物混入」という誤判定が生じた場合、「異物混入」のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。また、例えば、確認処理にて「良品」という誤判定が生じた場合、「良品」のPTPシート1に係る特定学習データ501aの中から誤判定要因データを特定する。これは、分類結果の誤判定が生じた場合、追加学習に用いたデータ(特定学習データ501a)のうち、その誤判定された分類結果と同一の分類結果に係る画像データが、その誤判定を生じさせる要因になっていると考えられるためである。尚、誤判定要因データの特定は、上記第1実施形態と同様の手法により行うことができる。 When it is confirmed that a misjudgment has occurred in the classification result through the confirmation process described later, the factor data specifying unit 55i specifies the misjudgment occurrence image data 502 related to the misjudgment (that caused the misjudgment). Based on the degree of similarity, the additional learning data 501 that caused the misjudgment is identified from the specific learning data 501a as misjudgment factor data. In the second embodiment, the factor data specifying unit 55i specifies misjudgment factor data from the specific learning data 501a related to the PTP sheet 1 with the same classification result as the misjudged classification result. For example, if an erroneous determination of "foreign object contamination" occurs in the confirmation process, the erroneous determination factor data is specified from the specific learning data 501a related to the PTP sheet 1 of "foreign object contamination." Further, for example, if an erroneous determination of "good product" occurs in the confirmation process, the erroneous determination factor data is specified from the specific learning data 501a related to the "good product" PTP sheet 1. This means that when an erroneous classification result occurs, among the data used for additional learning (specific learning data 501a), image data related to the same classification result as the erroneous classification result This is because it is thought to be a factor causing this. Note that the identification of the erroneous determination factor data can be performed using the same method as in the first embodiment.

分類出力AI用の確認部55jは、追加学習処理等にて新たに生成された学習済みのAIモデル400における学習状態の確認などを行うための確認処理を実行する。 The classification output AI confirmation unit 55j executes confirmation processing to confirm the learning state of the trained AI model 400 newly generated by additional learning processing or the like.

確認処理は、次のように行われる。すなわち、図25に示すように、まず、ステップS801にて、追加学習処理によって新たな学習済みのAIモデル400が生成されると、該AIモデル400における学習状態が適切であるか否かを確認する。 The confirmation process is performed as follows. That is, as shown in FIG. 25, first, in step S801, when a new trained AI model 400 is generated by additional learning processing, it is checked whether the learning state of the AI model 400 is appropriate. do.

具体的には、新たに生成された学習済みのAIモデル400に対し、該AIモデル400の生成の契機となった誤判定に係る元画像データを入力することで、分類結果を取得する。 Specifically, the classification result is obtained by inputting the original image data related to the erroneous determination that triggered the generation of the AI model 400 to the newly generated trained AI model 400.

次いで、取得された分類結果と、入力された元画像データに関連付けられた分類結果の正解とを比較することに基づき、分類結果が正しいか否かを判定する。 Next, it is determined whether the classification result is correct based on a comparison between the obtained classification result and the correct classification result associated with the input original image data.

そして、分類結果が正しい場合(ステップS801:YES)、ステップS802にて、現用AIモデル400zを、新たに生成された学習済みのAIモデル400に置換可能と判断し、確認処理を終了する。一方、分類結果が正しくない場合(ステップS801:No)、後述する追加学習修正処理を実行して、確認処理を終了する。 If the classification result is correct (step S801: YES), it is determined in step S802 that the current AI model 400z can be replaced with the newly generated trained AI model 400, and the confirmation process ends. On the other hand, if the classification result is incorrect (step S801: No), an additional learning correction process to be described later is executed, and the confirmation process is ended.

尚、確認処理にあたって、新たに生成された学習済みのAIモデル400に対し、追加学習処理の契機となった、誤判定に係る元画像データ以外の追加学習データ501を入力して、得られた分類結果が正しくなるか否かを判定してもよい。 In addition, in the confirmation process, additional learning data 501 other than the original image data related to the misjudgment, which triggered the additional learning process, was input to the newly generated trained AI model 400. It may also be determined whether the classification result is correct.

さらに、追加学習部55hは、確認処理にて分類結果が正しくないと判定された場合(ステップS801:No)、つまり、追加学習処理により新たに生成された学習済みのAIモデル400にて誤判定が生じる場合、要因データ特定部55i及び画像出力AI用の確認部55jなどと協働して、追加学習修正処理を実行する。 Further, if the classification result is determined to be incorrect in the confirmation process (step S801: No), the additional learning unit 55h makes an erroneous determination using the trained AI model 400 newly generated by the additional learning process. If this occurs, additional learning correction processing is executed in cooperation with the factor data identification unit 55i, the image output AI confirmation unit 55j, and the like.

追加学習修正処理では、図26に示すように、まず、ステップS851にて、要因データ特定部55iによって、1又は複数の誤判定要因データを特定する。 In the additional learning correction process, as shown in FIG. 26, first, in step S851, the factor data specifying unit 55i specifies one or more erroneous determination factor data.

次いで、ステップS852にて、再学習処理を実行する。再学習処理では、非使用AI記憶部555に記憶された初期AIモデル400aのニューラルネットワークに対し、ステップS851にて特定された誤判定要因データを除いた特定学習データ501aを学習させて、新たな学習済みAIモデル400を生成する。例えば、ステップS851にて、画像データ記憶部556に記憶された特定学習データ501aである「IM2(0)」~「IM2(n)」の中から、誤判定要因データとして「IM2(3)」が特定されたとする。この場合には、ステップS852にて、初期AIモデル400aに対し、「IM2(3)」以外の特定学習データ501aである「IM2(0)」~「IM2(2)」及び「IM2(4)」~「IM2(n)」を用いて、上記追加学習処理が行われる。これにより、誤判定要因データである「IM2(3)」以外の特定学習データ501aを学習した新たな学習済みのAIモデル400が生成される。 Next, in step S852, relearning processing is executed. In the relearning process, the neural network of the initial AI model 400a stored in the unused AI storage unit 555 is trained with the specific learning data 501a excluding the erroneous judgment factor data identified in step S851, and a new A trained AI model 400 is generated. For example, in step S851, "IM2(3)" is selected as the misjudgment factor data from "IM2(0)" to "IM2(n)" which are the specific learning data 501a stored in the image data storage unit 556. Suppose that is specified. In this case, in step S852, specific learning data 501a other than "IM2(3)" such as "IM2(0)" to "IM2(2)" and "IM2(4)" are added to the initial AI model 400a. ” to “IM2(n)”, the above additional learning process is performed. As a result, a new trained AI model 400 that has learned the specific learning data 501a other than "IM2(3)" which is the erroneous determination factor data is generated.

次いで、ステップS853にて、誤判定発生画像データ502を用いて、新たな学習済みのAIモデル400における学習状態が適切であるか否かを判定する。この処理は、確認処理におけるステップS801の処理と同様である。そして、学習状態が適切である場合には、誤判定を生じさせた誤判定発生画像データ502に対しても適切な良否判定が行われるように修正されたとして、新たな学習済みのAIモデル400を非使用AI記憶部555に記憶した上で、追加学習修正処理を終了する。 Next, in step S853, it is determined whether the learning state of the new trained AI model 400 is appropriate using the erroneous determination image data 502. This process is similar to the process in step S801 in the confirmation process. If the learning state is appropriate, the new learned AI model 400 is corrected so that an appropriate pass/fail judgment is made even for the image data 502 that caused the misjudgment. is stored in the unused AI storage unit 555, and then the additional learning correction process ends.

一方、学習状態が不適切である場合、ステップS851に戻り、誤判定要因データの特定を再度行う。尚、ステップS853において学習状態が不適切である判定された場合には、分類に用いられる閾値の変更処理を合わせて行ってもよい。 On the other hand, if the learning state is inappropriate, the process returns to step S851 and the erroneous determination factor data is identified again. Note that if it is determined in step S853 that the learning state is inappropriate, processing for changing the threshold used for classification may also be performed.

そして、学習状態が正しいものとなるまで上記処理を繰り返し行うことで、最終的に、誤判定を生じさせた誤判定発生画像データ502に対し適切に対応可能な学習済みのAIモデル400が生成される。生成された学習済みのAIモデル400は、非使用AI記憶部555に記憶される。 Then, by repeating the above process until the learning state becomes correct, a trained AI model 400 that can respond appropriately to the erroneous judgment image data 502 that caused the erroneous judgment is finally generated. Ru. The generated trained AI model 400 is stored in the unused AI storage unit 555.

さらに、追加学習部55hは、機能部として承認用処理実行部55k、承認入力受付部55l及び置換部55mを備えている。本第2実施形態では、承認入力受付部55lが「承認入力受付手段」を構成する。 Further, the additional learning section 55h includes an approval processing execution section 55k, an approval input reception section 55l, and a replacement section 55m as functional sections. In the second embodiment, the approval input receiving unit 55l constitutes an "approval input receiving means".

承認用処理実行部55k、承認入力受付部55l及び置換部55mは、上記第1実施形態における承認用処理実行部52k、承認入力受付部52l及び置換部52mと同様に機能する。従って、置換部55mが置換処理を実行することで、現用AIモデル400zが、新たに生成された学習済みのAIモデル400に置換えられるとともに、新たな現用AIモデル400zを用いた、PTPシート1の検査が開始されることとなる。 The approval process execution unit 55k, the approval input reception unit 55l, and the replacement unit 55m function similarly to the approval process execution unit 52k, the approval input reception unit 52l, and the replacement unit 52m in the first embodiment. Therefore, by the replacement unit 55m executing the replacement process, the current AI model 400z is replaced with the newly generated trained AI model 400, and the PTP sheet 1 is replaced using the new current AI model 400z. The inspection will begin.

保存処理実行部55nは、基本的には上記第1実施形態における保存処理実行部52nと同様に機能する。従って、保存処理実行部55nは、追加学習情報記憶部557に対し、追加学習処理や追加学習修正処理(すなわち、追加学習部55hによる学習処理)に係る各種情報など、AIモデル400の学習に関する情報を記憶させる。但し、本第2実施形態における保存処理実行部55nは、追加学習情報記憶部557に対し、前記承認用処理にて採用された、又は、同処理にて不採用となった学習済みのAIモデル400とともに、これら学習済みのAIモデル400に関連付けて、前記良否判定用の閾値や前記分類用の閾値を記憶させる。また、保存処理実行部55nは、学習済みのAIモデル400ごとにヒートマップを記憶させる。 The storage processing execution unit 55n basically functions in the same manner as the storage processing execution unit 52n in the first embodiment. Therefore, the storage processing execution unit 55n stores information related to learning of the AI model 400, such as various information related to additional learning processing and additional learning correction processing (that is, learning processing by the additional learning unit 55h), to the additional learning information storage unit 557. to remember. However, the storage process execution unit 55n in the second embodiment stores the learned AI models that were adopted in the approval process or rejected in the same process, in the additional learning information storage unit 557. 400, the threshold value for pass/fail determination and the threshold value for classification are stored in association with these learned AI models 400. Furthermore, the storage processing execution unit 55n stores a heat map for each trained AI model 400.

上記にて詳しく説明した追加学習部55hによる各種処理(追加学習処理など)の流れは、簡単に言えば、図27に示すものとなる。 Briefly speaking, the flow of various processes (additional learning processing, etc.) by the additional learning section 55h described in detail above is as shown in FIG. 27.

すなわち、検査装置23(現用AIモデル400z)によって出力された分類結果に誤判定が生じた場合(ステップS21:YES)、オペレータ等によって追加学習命令が入力されることで、追加学習処理(ステップS22)が実行される。すなわち、非使用AI記憶部555に記憶された複製現用AIモデル400z1に対し、誤判定に係る、良品又は不良品の画像データを学習させることで、新たな学習済みのAIモデル400が生成される。 That is, if an erroneous determination occurs in the classification result output by the inspection device 23 (current AI model 400z) (step S21: YES), an additional learning command is input by an operator or the like, and the additional learning process (step S22) is performed. ) is executed. That is, a new trained AI model 400 is generated by making the duplicate current AI model 400z1 stored in the unused AI storage unit 555 learn the image data of a good product or a defective product related to the misjudgment. .

そして、確認処理(ステップS23)にて、新たに生成された学習済みAIモデル400の学習状態が確認される。そして、学習状態が適切であると判定された場合(ステップS23-1:YES)、ステップS23-2-Aにて、現用AIモデル400zを、新たな学習済みAIモデル400に置換可能と判断される。 Then, in a confirmation process (step S23), the learning state of the newly generated trained AI model 400 is confirmed. If it is determined that the learning state is appropriate (step S23-1: YES), it is determined in step S23-2-A that the current AI model 400z can be replaced with a new trained AI model 400. Ru.

一方、学習状態が不適切であると判定された場合(ステップS23-1:NO)、ステップS23-2-Bにて追加学習修正処理が行われる。そして、ステップS23-1の処理における分類結果が正しいものとなるまで、追加学習修正処理(ステップS23-2-B)が繰り返し行われることで、最終的に、誤判定を生じさせた誤判定発生画像データ502に対し適切に対応可能な学習済みのAIモデル400が得られる。繰り返し行われる追加学習修正処理では、誤判定要因データの再特定や、再特定した誤判定要因データを除いた特定学習データ501aを学習させる処理が繰り返し行われる。 On the other hand, if it is determined that the learning state is inappropriate (step S23-1: NO), additional learning correction processing is performed in step S23-2-B. Then, the additional learning correction process (step S23-2-B) is repeated until the classification result in the process of step S23-1 is correct, and the erroneous judgment that caused the erroneous judgment finally occurs. A trained AI model 400 that can appropriately respond to the image data 502 is obtained. In the additional learning correction process that is repeatedly performed, the process of re-identifying the erroneous determination factor data and learning the specific learning data 501a excluding the re-identified erroneous determination factor data is repeatedly performed.

そして、ステップS23-2-Aにて、新たな学習済みのAIモデル400に置換可能と判断されると、承認用処理(ステップS24)が実行されることで、置換を行う上でオペレータ等が必要とする情報が表示部551に表示される。そして、オペレータ等によって前記承認ボタンが選択されると(ステップS25:YES)、PTP包装機11が一時停止された上で、現用AIモデル400zが新たな学習済みAIモデル400に置換される(ステップS26)。一方、オペレータ等によって前記非承認ボタンが選択されると(ステップS25:No)、置換は行われず、現用AIモデル400zがそのまま利用される。 Then, in step S23-2-A, if it is determined that the new trained AI model 400 can be replaced, an approval process (step S24) is executed, so that an operator etc. can perform the replacement. The required information is displayed on the display section 551. When the approval button is selected by the operator or the like (step S25: YES), the PTP packaging machine 11 is temporarily stopped, and the current AI model 400z is replaced with a new trained AI model 400 (step S25: YES). S26). On the other hand, if the operator or the like selects the disapproval button (step S25: No), no replacement is performed and the current AI model 400z is used as is.

以上詳述したように、本第2実施形態によれば、PTPシート1の分類結果に関する誤判定が生じた場合には、複製現用AIモデル400z1のニューラルネットワークに対し、その誤判定を生じさせた元画像データを追加学習させることで、新たな学習済みのAIモデル400を生成することが可能である。従って、より良好な検査精度を有する学習済みのAIモデル400を得ることができる。 As described in detail above, according to the second embodiment, when a misjudgment regarding the classification result of the PTP sheet 1 occurs, the neural network of the replica current AI model 400z1 is configured to cause the misjudgment to occur. By additionally learning the original image data, it is possible to generate a new trained AI model 400. Therefore, a trained AI model 400 with better inspection accuracy can be obtained.

また、追加学習にあたっては、検査に利用されている現用AIモデル400zのニューラルネットワークではなく、非使用AI記憶部555に記憶された複製現用AIモデル400z1のニューラルネットワークに対して学習が行われる。これにより、検査を停止させることなく追加学習を行うことができ、検査の迅速性や効率性をより高めることができる。 Further, during additional learning, learning is performed not on the neural network of the current AI model 400z used for testing, but on the neural network of the duplicate current AI model 400z1 stored in the unused AI storage unit 555. Thereby, additional learning can be performed without stopping the test, and the speed and efficiency of the test can be further improved.

さらに、分類出力AI用の確認部55jによって、新たに生成された学習済みのAIモデル400において、誤判定を生じさせた元画像データに基づく再度の誤判定が生じないか否か、つまり、より良好な検査精度が実現されているか否かを容易に確認することができる。 Furthermore, the confirmation unit 55j for classification output AI checks whether or not another misjudgment based on the original image data that caused the misjudgment will occur in the newly generated trained AI model 400, that is, whether or not another misjudgment will occur based on the original image data that caused the misjudgment. It is possible to easily check whether good inspection accuracy is achieved.

加えて、分類出力AI用の確認部55jによって、再度の誤判定が生じない状態(より良好な検査精度が実現されている状態)となっていることが確認されて初めて、検査に利用されている現用AIモデル400zが、新たに生成された学習済みのAIモデル400に置換可能と判断される。従って、誤判定が生じ得る不適切なAIモデル400が、誤って検査で用いられることをより確実に防止できる。 In addition, the classification output AI confirmation unit 55j confirms that the classification output AI is in a state where no erroneous judgment will occur (a state in which better test accuracy is achieved) before it is used for testing. It is determined that the currently used AI model 400z can be replaced with a newly generated trained AI model 400. Therefore, it is possible to more reliably prevent an inappropriate AI model 400 that may cause erroneous determination from being erroneously used in an inspection.

一方、分類出力AI用の確認部55jによって、新たに生成された学習済みのAIモデル400を用いた検査において誤判定が生じることが確認された場合、つまり、過学習による誤判定が生じたと考えられる場合、追加学習部55hは、追加学習が行われていない段階のAIモデル400である初期AIモデル400aのニューラルネットワークに対する学習を行い、新たな学習済みのAIモデル400を生成する。このとき、初期AIモデル400aから現用AIモデル400zを生成するにあたって用いられた追加学習データ501である特定学習データ501aのうちの、その誤判定された分類結果と同一の分類結果のPTPシート1に係るデータの中から、その誤判定の要因と考えられるデータが、誤判定要因データとして特定される。 On the other hand, if the classification output AI confirmation unit 55j confirms that an erroneous judgment occurs in the test using the newly generated trained AI model 400, in other words, it is considered that an erroneous judgment has occurred due to overfitting. If so, the additional learning unit 55h performs learning on the neural network of the initial AI model 400a, which is the AI model 400 that has not undergone additional learning, and generates a new trained AI model 400. At this time, among the specific learning data 501a which is the additional learning data 501 used to generate the current AI model 400z from the initial AI model 400a, the PTP sheet 1 with the same classification result as the misjudged classification result is Among such data, data that is considered to be the cause of the misjudgment is specified as misjudgment factor data.

そして、追加学習部55hは、初期AIモデル400aのニューラルネットワークに対し、特定学習データ501aから誤判定要因データを除外したデータを学習させることで、新たな学習済みのAIモデル400を生成する。従って、分類出力AI用の確認部55jによって学習状態が不適切であると判定された場合に、過去の追加学習データ501(特定学習データ501a)を生かしつつ、過学習による誤判定の発生をより確実に抑制可能となるように学習状態の修正を行うことができる。その結果、PTPシート1の分類に関する誤判定が生じることをより確実に防止でき、検査精度を高めることができる。 The additional learning unit 55h then generates a new trained AI model 400 by causing the neural network of the initial AI model 400a to learn data obtained by excluding the false determination factor data from the specific learning data 501a. Therefore, when the learning state is determined to be inappropriate by the classification output AI confirmation unit 55j, while making use of the past additional learning data 501 (specific learning data 501a), it is possible to further reduce the occurrence of erroneous judgments due to overfitting. The learning state can be modified to ensure suppression. As a result, it is possible to more reliably prevent erroneous determination regarding the classification of the PTP sheet 1, and improve inspection accuracy.

加えて、分類出力AI用の確認部55jによって学習状態が不適切であると判定された場合には、検査に利用されている現用AIモデル400zのニューラルネットワークではなく、非使用AI記憶部555に記憶された初期AIモデル400aのニューラルネットワークに対し学習が行われる。そのため、膨大な繰り返し処理となり得る、ニューラルネットワークの学習に係る処理や誤判定要因データの抽出(特定)に係る処理を、検査を停止させることなく行うことができる。これにより、多数のPTPシート1に対する検査を、より迅速に、かつ、より効率よく行うことができる。 In addition, if the classification output AI confirmation unit 55j determines that the learning state is inappropriate, the information is stored in the unused AI storage unit 555 instead of in the neural network of the current AI model 400z used for inspection. Learning is performed on the neural network of the stored initial AI model 400a. Therefore, processing related to learning of a neural network and processing related to extraction (identification) of data causing false judgments, which can be a hugely repetitive process, can be performed without stopping the test. Thereby, a large number of PTP sheets 1 can be inspected more quickly and more efficiently.

また、分類出力AI用の確認部55jにより誤判定が生じることが確認された場合に、誤判定に係る元画像データ(誤判定を生じさせた元画像データ)である誤判定発生画像データ502に対する類似度に基づき、特定学習データ501aの中から誤判定要因データを特定することができる。従って、誤判定要因データをより正確に特定することができ、ひいては、新たに生成される学習済みのAIモデル400を用いた検査に係る精度をより確実に高めることができる。 In addition, when it is confirmed by the classification output AI confirmation unit 55j that a misjudgment has occurred, the misjudgment generated image data 502, which is the original image data related to the misjudgment (original image data that caused the misjudgment), is Misjudgment factor data can be specified from the specific learning data 501a based on the degree of similarity. Therefore, misjudgment factor data can be specified more accurately, and as a result, the accuracy of the test using the newly generated trained AI model 400 can be more reliably improved.

さらに、オペレータ等による承認があって初めて、現用AIモデル400zが新たに生成された学習済みのAIモデル400に置換される。そのため、現用AIモデル400zを、新たに生成された学習済みのAIモデル400に置換することが、意図せず行われることをより確実に防止できる。これにより、意図しない置換に伴う不具合の発生をより確実に防ぐことができる。 Further, the current AI model 400z is replaced with the newly generated trained AI model 400 only after approval by an operator or the like. Therefore, it is possible to more reliably prevent unintentional replacement of the current AI model 400z with the newly generated trained AI model 400. This makes it possible to more reliably prevent problems caused by unintended replacement.

尚、上記実施形態の記載内容に限定されず、例えば次のように実施してもよい。勿論、以下において例示しない他の応用例、変更例も当然可能である。 Note that the present invention is not limited to the content described in the above embodiment, and may be implemented as follows, for example. Of course, other applications and modifications not exemplified below are also possible.

(a)上記実施形態では、初期AIモデル200a,400aが「旧識別手段」を構成している。これに対し、追加学習処理が一部行われていない段階のAIモデル200,400である「AI(1)」~「AI(n-1)」や「AI2(1)」~「AI2(n-1)」のいずれかによって「旧識別手段」が構成されるようにしてもよい。従って、例えば、「AI(99)」が「旧識別手段」を構成することとしてもよい(図29参照)。また、このような構成においては、「AI(0)」~「AI(98)」に係るデータと、これらAIモデル200(「AI(0)」~「AI(98)」)の追加学習に用いられた追加学習データ301(「IM(1)」~「IM(99)」)とが仮に画像データ記憶部526に記憶されていない場合に、不良品のPTPシート1が良品であるなどの誤判定されたときには、例えば、「IM(100)」以降の追加学習データ301の中から誤判定要因データを特定し、この誤判定要因データを除いた「IM(100)」以降の追加学習データ301を用いて、「AI(99)」の再学習処理を行うようにしてもよい。 (a) In the above embodiment, the initial AI models 200a and 400a constitute the "old identification means". On the other hand, AI models 200,400 that have not undergone some additional learning processing, such as "AI(1)" to "AI(n-1)" and "AI2(1)" to "AI2(n -1)", the "old identification means" may be configured. Therefore, for example, "AI(99)" may constitute the "old identification means" (see FIG. 29). In addition, in such a configuration, data related to "AI(0)" to "AI(98)" and additional learning of these AI models 200 ("AI(0)" to "AI(98)") If the used additional learning data 301 (“IM(1)” to “IM(99)”) is not stored in the image data storage unit 526, it is possible to determine whether the defective PTP sheet 1 is a good product, etc. When a misjudgment is made, for example, the misjudgment factor data is identified from the additional learning data 301 after "IM (100)", and the additional learning data after "IM (100)" excluding this misjudgment factor data is generated. 301 may be used to perform relearning processing of "AI(99)".

また、追加学習処理が一部又は全部行われていない段階のAIモデル200,400である「AI(0)」~「AI(n-1)」や「AI2(0)」~「AI2(n-1)」の全てがそれぞれ「旧識別手段」を構成することとしてもよく、非使用AI記憶部525,555は、これらのAIモデル200,400の全てを記憶していてもよい。また、この場合には、再学習処理を、誤判定要因データを追加学習する直前のAIモデル200に対し行うようにしてもよい。例えば、誤判定要因データが「IM(3)」であると特定された場合、この誤判定要因データを追加学習する直前のAIモデル200である「AI(2)」に対し再学習処理を行うようにしてもよい。 In addition, AI models 200,400 that have not undergone some or all additional learning processing, such as "AI(0)" to "AI(n-1)" and "AI2(0)" to "AI2(n -1)" may respectively constitute the "old identification means", and the unused AI storage units 525, 555 may store all of these AI models 200, 400. Further, in this case, the relearning process may be performed on the AI model 200 immediately before additionally learning the error determination factor data. For example, if the misjudgment factor data is identified as "IM(3)", relearning processing is performed on "AI(2)", which is the AI model 200 immediately before additionally learning this misjudgment factor data. You can do it like this.

さらに、「旧識別手段」を、現用AIモデル200zとの関係で適宜変更する構成としてもよい。例えば、現用AIモデル200zを基準として、直近の所定回数(例えば10回など)の追加学習処理が行われる前の段階のAIモデル200を「旧識別手段」としてもよい。この場合、現用AIモデル200zの更新に伴い、「旧識別手段」となるAIモデル200が変更される。 Furthermore, the "old identification means" may be changed as appropriate in relation to the current AI model 200z. For example, with the current AI model 200z as a reference, the AI model 200 at a stage before additional learning processing has been performed the most recent predetermined number of times (for example, 10 times, etc.) may be used as the "old identification means". In this case, as the current AI model 200z is updated, the AI model 200 serving as the "old identification means" is changed.

(b)上記実施形態において、初期AIモデル200a,400aは、予め学習処理が行われたものとされているが、初期AIモデル200a,400aは、学習処理が行われていないものであってもよい。この場合には、追加学習部52h,55hによって、上記実施形態で述べた学習処理を初期AIモデル200a,400aに対し行うことで、学習済みのAIモデル200,400を生成してもよい。従って、追加学習部52h,55hは、学習処理及び追加学習処理の双方を実行可能なものであってもよい。 (b) In the above embodiment, the initial AI models 200a and 400a are assumed to have been subjected to learning processing in advance, but the initial AI models 200a and 400a may be those that have not undergone learning processing good. In this case, the learned AI models 200, 400 may be generated by performing the learning process described in the above embodiment on the initial AI models 200a, 400a by the additional learning units 52h, 55h. Therefore, the additional learning units 52h and 55h may be capable of executing both the learning process and the additional learning process.

(c)上記実施形態において、誤判定要因データは、不良画像データ302や誤判定発生画像データ502との類似度に基づき特定されているが、その特定手法を適宜変更してもよい。例えば、直近の追加学習処理に用いられた追加学習データ301,501を誤判定要因データとして特定するようにしてもよい。 (c) In the embodiment described above, the misjudgment factor data is specified based on the degree of similarity with the defective image data 302 and the misjudgment occurrence image data 502, but the identification method may be changed as appropriate. For example, the additional learning data 301, 501 used in the most recent additional learning process may be specified as the erroneous determination factor data.

(d)上記実施形態において、検査装置21,23は、PTPシート1の検査に用いられているが、検査装置21,23による検査対象物はPTPシート1に限定されるものではない。従って、例えば、検査装置21,23によって、錠剤5の検査を行うように構成してもよい。 (d) In the above embodiment, the inspection devices 21 and 23 are used to inspect the PTP sheet 1, but the object to be inspected by the inspection devices 21 and 23 is not limited to the PTP sheet 1. Therefore, for example, the tablet 5 may be inspected by the inspection devices 21 and 23.

尚、錠剤の種別や形状等については、上記実施形態に限定されるものではない。例えば錠剤には、医薬のみならず、飲食用に用いられる錠剤なども含まれる。また、錠剤には、素錠のみならず、糖衣錠やフィルムコーティング錠、口腔内崩壊錠、腸溶錠、ゼラチン被包錠などが含まれるのは勿論のこと、硬カプセルや軟カプセルなどの各種カプセル錠なども含まれる。 Note that the type, shape, etc. of the tablets are not limited to the above embodiments. For example, tablets include not only medicines but also tablets used for consumption. In addition, tablets include not only plain tablets, but also sugar-coated tablets, film-coated tablets, orally disintegrating tablets, enteric-coated tablets, gelatin-coated tablets, and various other capsules such as hard capsules and soft capsules. This also includes tablets.

また、例えば図30に示すようなPTPシート以外のブリスタパック800を検査対象物とすることもできる。ブリスタパック800は、所定の内容物を収容するためのポケット部801を有している。 Furthermore, for example, a blister pack 800 other than a PTP sheet as shown in FIG. 30 can be used as the object to be inspected. Blister pack 800 has a pocket portion 801 for accommodating predetermined contents.

(e)「識別手段」としてのAIモデル200,400の構成及びその学習方法は、上記実施形態に限定されるものではない。例えば、ニューラルネットワークの学習処理や、再構成画像データの取得処理などを行う際に、必要に応じて各種データに対し正規化等の処理を行う構成としてもよい。また、ニューラルネットワーク190の構造は、図9に示したものに限定されず、例えば畳み込み層193の後にプーリング層を設けた構成としてもよい。勿論、ニューラルネットワーク190の層数や、各層のノード数、各ノードの接続構造などが異なる構成としてもよい。 (e) The configuration of the AI models 200, 400 as "identification means" and the learning method thereof are not limited to the above embodiments. For example, when performing neural network learning processing, reconstructed image data acquisition processing, etc., it may be configured to perform processing such as normalization on various data as necessary. Furthermore, the structure of the neural network 190 is not limited to that shown in FIG. 9, and may have a configuration in which a pooling layer is provided after the convolutional layer 193, for example. Of course, the number of layers of the neural network 190, the number of nodes in each layer, the connection structure of each node, etc. may be different.

さらに、上記実施形態では、AIモデル200(ニューラルネットワーク190)が、畳み込みオートエンコーダ(CAE)の構造を有した生成モデルとなっているが、これに限らず、例えば変分自己符号化器(VAE:Variational Autoencoder)など、異なるタイプのオートエンコーダの構造を有した生成モデルとしてもよい。 Further, in the above embodiment, the AI model 200 (neural network 190) is a generative model having the structure of a convolutional autoencoder (CAE), but is not limited to this, for example, a variational autoencoder (VAE) It is also possible to use a generative model with the structure of a different type of autoencoder, such as (Variational Autoencoder).

また、上記実施形態では、誤差逆伝播法によりニューラルネットワーク190を学習する構成となっているが、これに限らず、その他の種々の学習アルゴリズムを用いて学習する構成としてもよい。 Further, in the above embodiment, the neural network 190 is configured to learn using the error backpropagation method, but the configuration is not limited to this, and a configuration may be adopted in which learning is performed using various other learning algorithms.

加えて、ニューラルネットワークは、いわゆるAIチップ等のAI処理専用回路によって構成されることとしてもよい。その場合、パラメータ等の学習情報のみがAI記憶部524,525(554,555)に記憶され、これをAI処理専用回路が読み出して、ニューラルネットワークに設定することによって、AIモデル200,400が構成されるようにしてもよい。 In addition, the neural network may be configured by a circuit dedicated to AI processing, such as a so-called AI chip. In that case, only learning information such as parameters is stored in the AI storage units 524, 525 (554, 555), and the AI processing dedicated circuit reads this information and sets it in the neural network to configure the AI model 200, 400. It is also possible to do so.

(f)上記第2実施形態において、学習済みのAIモデル400は、入力された元画像データを、良品又は不良品と各種不良の種別とで分類可能とされているが、少なくとも分類項目には良品/不良品が含まれていればよい。従って、学習済みのAIモデル400は、良品又は不良品で分類する一方、不良の種別による分類を行わないものであってもよい。 (f) In the second embodiment, the trained AI model 400 is capable of classifying the input original image data into non-defective products, defective products, and various types of defects. It is sufficient if it includes good/defective products. Therefore, the trained AI model 400 may classify products into non-defective products or defective products, but may not classify products based on the type of defect.

1…PTPシート(検査対象物)、11…PTP包装機、21,23…検査装置、52f…再構成画像データ取得部(再構成画像データ取得手段)、52g…判定部(判定手段)、52h,55h…追加学習部(追加学習手段)、52i,55i…要因データ特定部(要因データ特定手段)、52j…画像出力AI用の確認部(画像出力AI用の確認手段)、52x,55x…画像データ取得部(画像データ取得手段)、55j…分類出力AI用の確認部(分類出力AI用の確認手段)、190…ニューラルネットワーク、191…エンコーダ部(符号化部)、192…デコーダ部(復号化部)、200,400…AIモデル(識別手段)、200a,400a…初期AIモデル(学習済識別手段、旧識別手段)、200z,400z…現用AIモデル(学習済識別手段、現用識別手段)、200z1,400z1…複製現用AIモデル(学習済識別手段、複製現用識別手段)、525,555…非使用AIモデル記憶部(識別手段記憶手段)、526,556…画像データ記憶部(特定学習データ記憶手段、不良画像データ記憶手段)。 1...PTP sheet (inspection object), 11...PTP packaging machine, 21, 23...inspection device, 52f...reconstructed image data acquisition section (reconstructed image data acquisition means), 52g...judgment section (judgment means), 52h , 55h... Additional learning unit (additional learning means), 52i, 55i... Factor data specifying unit (factor data specifying unit), 52j... Confirmation unit for image output AI (confirmation unit for image output AI), 52x, 55x... Image data acquisition unit (image data acquisition means), 55j... Confirmation unit for classification output AI (confirmation unit for classification output AI), 190... Neural network, 191... Encoder unit (encoding unit), 192... Decoder unit ( decoding unit), 200, 400...AI model (identification means), 200a, 400a...initial AI model (trained identification means, old identification means), 200z, 400z...current AI model (trained identification means, current identification means) ), 200z1, 400z1...Replicated current AI model (trained identification means, replicated current identification means), 525,555...Unused AI model storage section (identification means storage means), 526,556...Image data storage section (specific learning data storage means, defective image data storage means).

Claims (9)

所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークによって、入力された画像データに応じた画像データを出力可能に構成された識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データのみを学習データとして学習させて生成した、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、良品の検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記画像データ取得手段により得られた画像データである元画像データを、前記学習済識別手段に入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
前記元画像データと、該元画像データを前記学習済識別手段に入力して取得された前記再構成画像データとを比較し、比較結果に基づき検査対象物の良否を判定可能な判定手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段を記憶する識別手段記憶手段と、
前記旧識別手段から、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段とを備え、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、不良品の検査対象物が良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定の要因として特定された前記追加学習データである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする検査装置。
An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
It is possible to output image data according to the input image data by using a neural network that has an encoding unit that extracts feature quantities from input image data and a decoding unit that reconstructs image data from the feature quantities. a trained identification means, which is the learned identification means, which is generated by causing the neural network of the configured identification means to learn only image data related to a non-defective inspection object as learning data;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to a non-defective inspection object as additional learning data;
Reconstructed image data acquisition means capable of inputting original image data, which is image data obtained by the image data acquisition means, into the learned identification means and acquiring reconstructed image data as reconstructed image data;
a determining unit capable of comparing the original image data and the reconstructed image data obtained by inputting the original image data to the learned identifying unit, and determining the quality of the inspection target based on the comparison result;
identification means storage means for storing the old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed;
Specific learning data that stores all of the specific learning data that is the additional learning data that was used to generate the current identification means that is the learned identification means that is used for inspecting the inspection object from the old identification means. and storage means;
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and performs a quality determination by the determination means based on the reconstructed image data, thereby inspecting defective products. When the target object is erroneously determined to be a good product, the neural network of the old identification means stored in the identification means storage means receives the erroneous judgment which is the additional learning data identified as the cause of the erroneous judgment. An inspection device characterized in that it is configured to be able to generate a new learned identification means by learning the specific learning data excluding factor data.
前記識別手段記憶手段は、前記現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段を記憶しており、
前記追加学習手段は、前記再構成画像データ取得手段によって前記現用識別手段に前記元画像データを入力して再構成された前記再構成画像データに基づく前記判定手段の良否判定により、良品の検査対象物が不良品であると誤判定された場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能に構成されていることを特徴とする請求項1に記載の検査装置。
The identification means storage means stores, separately from the current identification means, a duplicate current identification means which is the identification means having the same content as the current identification means,
The additional learning means inputs the original image data into the current identification means by the reconstructed image data acquisition means, and determines whether the inspection object is a non-defective product based on the quality judgment of the judgment means based on the reconstructed image data. When an object is erroneously determined to be defective, the neural network of the duplicate current identification means stored in the identification means storage means is additionally trained with the original image data that caused the erroneous determination. 2. The inspection device according to claim 1, wherein the inspection device is configured to be able to generate a new learned identification means.
前記判定手段の良否判定によって不良品の検査対象物が良品であると誤判定された場合における、その誤判定に係る前記元画像データである不良画像データを記憶する不良画像データ記憶手段と、
前記不良画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする請求項1に記載の検査装置。
a defective image data storage means for storing defective image data that is the original image data related to the erroneous determination when the defective inspection object is erroneously determined to be a good product by the quality determination of the determination means;
2. The inspection apparatus according to claim 1, further comprising factor data specifying means for specifying the misjudgment factor data from the specific learning data based on the degree of similarity to the defective image data.
新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して再構成された前記再構成画像データに基づき、前記判定手段による良否判定を行わせることで、新たに生成された前記学習済識別手段の学習状態を確認する画像出力AI用の確認手段を備えることを特徴とする請求項1に記載の検査装置。 Based on the reconstructed image data that was reconstructed by inputting the original image data related to the erroneous judgment that triggered the generation of the learned discrimination means to the newly generated learned discrimination means, 2. The inspection apparatus according to claim 1, further comprising a confirmation unit for image output AI that confirms the learning state of the newly generated learned identification unit by making the judgment unit perform a quality judgment. 前記追加学習手段による学習処理に係る情報、及び、前記画像出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする請求項4に記載の検査装置。
a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the image output AI confirmation means;
5. The inspection apparatus according to claim 4, further comprising: approval input receiving means capable of accepting input regarding approval for replacing the currently used identification means with the newly generated learned identification means.
所定の検査対象物に対する検査を行うための検査装置であって、
検査対象物に係る画像データを取得可能な画像データ取得手段と、
入力された画像データを所定の項目で分類し、分類結果を出力可能に構成された識別手段のニューラルネットワークに対し、良品及び不良品の検査対象物に係る画像データを学習データとして学習させることで生成してなる、学習済みの前記識別手段である学習済識別手段と、
前記識別手段の前記ニューラルネットワークに対し、検査対象物に係る画像データを追加学習データとして追加学習させることで、新たな前記学習済識別手段を生成する追加学習手段と、
前記追加学習手段による追加学習が一部又は全部行われていない段階の前記識別手段である旧識別手段と、検査対象物の検査に利用されている前記学習済識別手段である現用識別手段とは別に、該現用識別手段と同一内容の前記識別手段である複製現用識別手段とを記憶する識別手段記憶手段と、
前記旧識別手段から前記現用識別手段を生成するにあたって用いられた前記追加学習データである特定学習データの全てを記憶する特定学習データ記憶手段と、
前記追加学習手段は、前記現用識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じた場合、前記識別手段記憶手段に記憶された前記複製現用識別手段の前記ニューラルネットワークに対し、その誤判定を生じさせた前記元画像データを追加学習させて、新たな前記学習済識別手段を生成可能であり、
新たに生成された前記学習済識別手段に対し、該学習済識別手段の生成の契機となった誤判定に係る前記元画像データを入力して出力された分類結果に基づき、新たに生成された前記学習済識別手段の学習状態を確認する分類出力AI用の確認手段によって、学習状態が適切であると判定された場合には、前記現用識別手段を、新たに生成された前記学習済識別手段に置換可能と判断する一方、
新たに生成された前記学習済識別手段に対し前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合には、前記識別手段記憶手段に記憶された前記旧識別手段の前記ニューラルネットワークに対し、その誤判定された分類結果と同一の分類結果の検査対象物に係るデータであり、かつ、その誤判定の要因として特定されたデータである誤判定要因データを除いた前記特定学習データを学習させて、新たな前記学習済識別手段を生成可能であることを特徴とする検査装置。
An inspection device for inspecting a predetermined inspection object,
an image data acquisition means capable of acquiring image data related to the inspection target;
The neural network of the identification means, which is configured to classify input image data according to predetermined items and output the classification results, is trained by using image data related to inspected objects for good and defective products as learning data. a learned identification means that is the learned identification means that is generated;
additional learning means for generating a new learned identification means by causing the neural network of the identification means to additionally learn image data related to the inspection object as additional learning data;
The old identification means, which is the identification means at a stage where some or all of the additional learning by the additional learning means has not been performed, and the current identification means, which is the learned identification means, which is used for the inspection of the inspection object. Separately, an identification means storage means for storing a duplicate current identification means which is the identification means having the same content as the current identification means;
specific learning data storage means for storing all specific learning data that is the additional learning data used in generating the current identification means from the old identification means;
The additional learning means is configured to control the neural network of the duplicate current identification means stored in the identification means storage means when an erroneous determination occurs in the classification result output by inputting the original image data to the current identification means. , it is possible to generate a new learned identification means by additionally learning the original image data that caused the misjudgment,
Based on the classification result output by inputting the original image data related to the erroneous judgment that triggered the generation of the learned identification means to the newly generated learned identification means, If the classification output AI confirmation means for confirming the learning state of the learned identification means determines that the learning state is appropriate, the currently used identification means is replaced with the newly generated learned identification means. While it is determined that it can be replaced with
An erroneous judgment occurs in the classification result outputted by inputting the original image data to the newly generated trained identification means, and the learning state is determined to be inappropriate by the classification output AI confirmation means. If the neural network of the old identification means stored in the identification means storage means is data related to the inspection object with the same classification result as the incorrectly determined classification result, and An inspection device capable of generating a new learned identification means by learning the specific learning data excluding erroneous judgment factor data that is data specified as a factor of erroneous judgment.
新たに生成された前記学習済識別手段に前記元画像データを入力して出力された分類結果に誤判定が生じ、前記分類出力AI用の確認手段によって学習状態が不適切であると判定された場合における、その誤判定に係る前記元画像データである誤判定発生画像データを記憶する誤判定発生画像データ記憶手段と、
前記誤判定発生画像データに対する類似度に基づき、前記特定学習データの中から前記誤判定要因データを特定する要因データ特定手段とを有することを特徴とする請求項6に記載の検査装置。
An erroneous judgment occurred in the classification result output by inputting the original image data to the newly generated trained identification means, and the learning state was determined to be inappropriate by the classification output AI confirmation means. a misjudgment occurrence image data storage means for storing misjudgment occurrence image data that is the original image data related to the misjudgment in the case;
7. The inspection apparatus according to claim 6, further comprising factor data specifying means for specifying the misjudgment factor data from the specific learning data based on the degree of similarity to the image data in which misjudgment has occurred.
前記追加学習手段による学習処理に係る情報、及び、前記分類出力AI用の確認手段による確認結果を表示可能な表示手段と、
前記現用識別手段を、新たに生成された前記学習済識別手段に置換することの承認に係る入力を受付可能な承認入力受付手段とを備えることを特徴とする請求項6に記載の検査装置。
a display means capable of displaying information related to learning processing by the additional learning means and confirmation results by the classification output AI confirmation means;
7. The inspection apparatus according to claim 6, further comprising: approval input receiving means capable of accepting an input regarding approval for replacing the currently used identification means with the newly generated learned identification means.
検査対象物としての錠剤又はPTPシートを検査する、請求項1又は6に記載の検査装置を備えたPTP包装機。 A PTP packaging machine equipped with the inspection device according to claim 1 or 6, which inspects a tablet or a PTP sheet as an object to be inspected.
JP2023078284A 2022-06-28 2023-05-11 Inspection equipment and PTP packaging machine Pending JP2024004458A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022103193 2022-06-28
JP2022103193 2022-06-28

Publications (1)

Publication Number Publication Date
JP2024004458A true JP2024004458A (en) 2024-01-16

Family

ID=89537942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023078284A Pending JP2024004458A (en) 2022-06-28 2023-05-11 Inspection equipment and PTP packaging machine

Country Status (1)

Country Link
JP (1) JP2024004458A (en)

Similar Documents

Publication Publication Date Title
JP6235684B1 (en) Inspection device and PTP packaging machine
JP6777784B2 (en) Manufacturing method for inspection equipment, blister packaging machines and blister packs
JP4368808B2 (en) Appearance inspection device and PTP packaging machine
CN110036280B (en) Inspection device and PTP packaging machine
JP6368408B1 (en) Blister packing machine
CN112673249B (en) Inspection device, PTP packaging machine, and method for manufacturing PTP sheet
JP6062396B2 (en) Inspection system and PTP packaging machine
WO2018078613A1 (en) System and method for automatic inspection and classification of discrete items
WO2022030088A1 (en) Inspection device, blister packing machine, and method of manufacturing blister pack
JP2024004458A (en) Inspection equipment and PTP packaging machine
JP7071956B2 (en) Vacuum stacking system, vacuum stacking system molding defect detection method, and vacuum stacking system molding condition correction method
US11994477B2 (en) Inspection device, packaging sheet manufacturing device, and inspection method
WO2022215296A1 (en) Inspection device, blister packaging machine, and method for manufacturing blister pack
JP2015203640A (en) inspection system and PTP packaging machine
JP4397850B2 (en) Inspection device, correction data generation device, and PTP packaging machine
US20230410287A1 (en) Machine Learning Fault Detection in Manufacturing
JPH08193954A (en) Method and apparatus for detecting peeling off of sheet in package
JP5679650B2 (en) Tablet inspection device and PTP packaging machine
TW202414288A (en) Risk management system for leakage of heterogeneous tablets, risk management method for leakage of heterogeneous tablets, and containment production system
CN117392444A (en) Automatic defect marking method and device for cigarette case outer package

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240327