JP2022553572A - 自動目視検査機器への深層学習のターゲット化された適用 - Google Patents

自動目視検査機器への深層学習のターゲット化された適用 Download PDF

Info

Publication number
JP2022553572A
JP2022553572A JP2022524988A JP2022524988A JP2022553572A JP 2022553572 A JP2022553572 A JP 2022553572A JP 2022524988 A JP2022524988 A JP 2022524988A JP 2022524988 A JP2022524988 A JP 2022524988A JP 2022553572 A JP2022553572 A JP 2022553572A
Authority
JP
Japan
Prior art keywords
container
stopper
sample
images
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022524988A
Other languages
English (en)
Other versions
JPWO2021092297A5 (ja
Inventor
チャバリ,ニーリマ
ピアソン,トーマス・シー
ソト,マヌエル・エイ
トレス,ジョージ・デルガド
アルバラド・レンタス,ロベルト・シー
タピア,ハビエル・オー
ロドリゲス-トレド,サンドラ
フロレス-アコスタ,エリック・アール
ペレス-バレラ,オズバルド
トレス,ブレンダ・エイ
Original Assignee
アムジエン・インコーポレーテツド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アムジエン・インコーポレーテツド filed Critical アムジエン・インコーポレーテツド
Publication of JP2022553572A publication Critical patent/JP2022553572A/ja
Publication of JPWO2021092297A5 publication Critical patent/JPWO2021092297A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8803Visual inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Input (AREA)

Abstract

容器の自動目視検査において精度及び効率を高める方法において、サンプルを含有する容器が、ラインスキャンカメラが容器のストッパのエッジのプロファイル画像を得るように、方向付けられている。容器をスピンさせている間に、ストッパのエッジの複数の画像が、第1のラインスキャンカメラによりキャプチャされ、複数の画像のうちの各画像が容器の異なる回転位置に対応する。ストッパのエッジの2次元画像が、少なくとも複数の画像に基づいて生成され、2次元画像のピクセルが、訓練されたニューラルネットワークを含む推論モデルを実行する1つ以上のプロセッサにより処理されて、サンプルが欠陥を含む尤度を示す出力データを生成する。

Description

本出願は、全般的に、医薬品又は他の製品の自動目視検査(AVI)システムに関し、より具体的には、サンプル(例えば、溶液)で充填された容器内の粒子及び他の物体(例えば、気泡)を検出及び区別するための技術に関する。
製造された医薬品の品質管理手順などの特定の状況では、サンプル(例えば、シリンジ若しくはバイアルなどの容器/入れ物、及び/又は液体若しくは凍結乾燥医薬品などの内容物)に欠陥がないかを調べる必要がある。適用可能な品質基準下での特定のサンプルの受理可能性は、例えば、容器の欠陥(例えば、チップ又はクラック)のタイプ及び/若しくはサイズ、又は医薬品中の望ましくない粒子(例えば、繊維)のタイプ、数、及び/若しくはサイズなどの、測定基準に依存する場合がある。サンプルに受理不可能な測定基準がある場合、それは拒否及び/又は破棄される場合がある。
医薬品の商業生産に典型的に関連する量を処理するために、欠陥検査タスクは次第に自動化されている。しかしながら、溶液中の粒子状物質の自動検出は、製薬業界において特別な課題を提示する。高い検出精度を達成することは一般に困難であり、より高い粘度の溶液が、そうでない場合に粒子タイプを示し得る粒子の動きを阻止するので、更に困難になる。気泡の形成を促進するガスを放出する配合物を有するタンパク質ベースの製品の場合、従来の粒子検出技術は、特に高い割合の誤った拒否をもたらし得る。例えば、そのような技術では、(容器に付着する可能性がある)これら気泡を、容器の一部分に対して(例えば、溶液で充填されたシリンジのプランジャに対して)沈殿/静止する傾向がある重い粒子から区別することが難しい場合がある。
その上、自動欠陥検査を支援するために使用される専用機器は、非常に大きくなり、非常に複雑になり、非常に高価になっている。単一の商用ライン機器が多数の異なるAVIステーションを含み、AVIステーションのそれぞれが異なる特定の検査タスクを処理する場合がある。ほんの一例として、薬剤充填シリンジの充填完了検査段階で使用されるBosch(登録商標)自動検査機(AIM)5023商用ライン機器は、16個の一般検査タスクと、多数のカメラ及びその他のセンサとを備える、14個の別個の目視検査ステーションを含む。全体として、そのような機器は、大きなクラック又は容器閉鎖性などの容器の完全性の欠陥、容器表面上の引っかき傷又は汚れなどの美観上の容器の欠陥、及び液体の色又は異物粒子の存在などの医薬品自体に関連する欠陥、を含む広範囲の欠陥を検出するように設計されてもよい。しかしながら、粒子の検出及び特性評価に関連する上述した課題に起因して、このような機器は、AVIステーション間に冗長性を必要とする場合がある。例えば、Bosch(登録商標)AIM 5023ライン機器の場合、(シリンジプランジャのドーム上に静止している重い粒子を検出及び区別するための)「ストッパエッジ」検査ステーションの性能が比較的低いことにより、粒子検査の精度の全体的レベルを受理可能にするために、粒子検査を、追加のカメラを有する別の「ストッパトップ」AVIステーションで実施することも必要になる。これにより、機器の複雑さ及びコストが増加し、及び/又は「ストッパトップ」AVIステーションを、単一のタスク(例えば、ストッパ自体の欠陥の検出)用に最適化するのではなく、複数の検査タスクを実行するように適合させる必要がある。
本明細書に記載される実施形態は、深層学習が特定のタイプのAVIステーション(例えば、複数のAVIステーションを含み得る商用ライン機器内の)に適用されて、相乗作用により精度を大幅に改善する(例えば、誤った拒否及び/又は偽陽性が遥かに少ない)システム及び方法に関する。加えて又は代わりに、記載されたシステム及び方法は、他のAVIステーションが他のタスクに専念することを可能にすること、及び/又は他のAVIステーションを完全に排除すること、などにより、(例えば、同じ商用ライン機器内の)他のAVIステーションへの有利な変更を可能にしてもよい。
具体的には、深層学習は1つ以上のラインスキャンカメラ(例えば、CMOSラインスキャンカメラ)を利用するAVIステーションに適用され、ラインスキャンカメラは、サンプル(例えば、液体溶液医薬品)を含有する容器のストッパのエッジに又はその近くに静止している又は置かれている物体を検出及び区別する(例えば、ガス充填気泡に対する、ガラス及び/又は他の粒子)。例えば、AVIステーションは、ラインスキャンカメラを利用して、シリンジ内の液体サンプルと接触しているシリンジプランジャドームの表面上に又はその近くに置かれている物体を検出及び区別してもよい。ラインスキャンカメラは、AVIステーションが容器を少なくとも1回転(360度)回転/スピンさせるにつれて複数のライン画像をキャプチャしてもよく、その後、処理デバイス又はAVIステーション内の(又はAVIステーションに通信的に結合された)構成要素が、複数のライン画像から2次元画像を生成する。
AVIステーション又は外部の処理構成要素は、2次元画像のピクセル値(例えば、正規化されたピクセル強度値)を訓練済みニューラルネットワークに提供する。これにより、容器サンプルが受理不可能であるか(例えば、画像化されたエリア内の粒子が、受理不可能な数、サイズ、及び/又はタイプを含有するか)否かが推論される。ニューラルネットワークは、例えば、粒子及び/又はガス充填気泡の受理可能又は受理不可能な数、タイプ、サイズなどを有することが知られている(及びラベル付けされている)サンプルの幅広い2次元画像を使用して、教師あり学習手法で訓練されてもよい。ニューラルネットワークの訓練するために使用される画像の選択及び分類は、推論フェーズにおける性能にとって重要である。更に、欠陥のあるユニットを受理することを回避するために、予期しない状況を予測し、それを訓練画像に含めるべきである。重要なことに、訓練されたニューラルネットワーク、又はニューラルネットワークを含むより大きな推論モデルは、再認定なしにモデルを変更すること(例えば、更に訓練すること)ができないように、認定前に「ロック」されてもよい。システムが手動の目視検査と同等に又はそれよりも良好に機能することを確実にするために、好ましくは、受理基準が確立され事前に承認されているべきである。
AVIステーション(又は通信可能に結合された処理デバイス)がサンプルに欠陥があることを示した場合、AVIステーション、又はAVIステーションを含む商用ライン機器は、容器/サンプルを拒否エリアに物理的に搬送させ、拒否エリアでは、サンプルは廃棄/破壊されるか、又は転送されて更に検査され得る(例えば、手動検査)。容器/サンプルは、実施形態に応じて、排出/拒否エリア(例えば、ビン)に直接搬送されてもよく、又は最初に1つ以上の他のAVIステーションを通過してもよい。推論モデルがサンプルに欠陥があることを示さない場合、AVIステーション又は商用ライン機器は、容器/サンプルを、受理された製品用に指定されたエリアに、又は更なる検査のために次のAVIステーション(例えば、他のタイプのサンプル及び/又は容器の欠陥を検出するように設計された1つ以上のAVIステーション)に、直接搬送させてもよい。
本明細書で説明される図は、説明のために含められたものであり、本開示を限定するものではないことが当業者に理解されるであろう。図面は、必ずしも縮尺通りではなく、代わりに本開示の原理を示すことに重点が置かれている。場合によっては、記載される実現形態の様々な態様は、記載される実現形態の理解を促進するために誇張又は拡大して示される場合があることを理解されたい。図面では、様々な図面を通した同様の参照符号は、全般的に、機能的に類似する及び/又は構造的に類似する構成要素を指す。
本明細書に記載される画像化及び深層学習技術が実装され得る、例示的なライン機器の簡略化されたブロック図である。 従来技術の商用ライン機器内のAVIステーションの簡略化された描写である。 容器のストッパのエッジがラインスキャンカメラを使用して画像化される例示的な容器を示す。 容器のストッパのエッジがラインスキャンカメラを使用して画像化される例示的な容器を示す。 ラインスキャンカメラによりキャプチャされたライン画像から生成され得る例示的な2次元ストッパエッジ画像を示す。 図4の2次元画像などの画像に基づいて、サンプルの受理可能性又は受理不可能性を推論するために使用され得る例示的なニューラルネットワークを示す。 AVIステーションを用いて深層学習を実装するための例示的な開発及び認定プロセスのステージを示す。 特定のAVIステーションに対して深層学習を利用したときに得られた概念実証の結果を示す。 容器の自動目視検査における精度及び効率を高めるための例示的な方法のフロー図である。
上記で導入され、以下でより詳細に説明される様々な概念は、多くの手法のうちのいずれかで実現することができ、説明される概念は、いかなる特定の実現手法にも限定されるものではない。実現形態の例は、例示を目的として提供されている。
図1は、本明細書に記載される技術が実装され得る例示的なライン機器100の簡略化されたブロック図である。ライン機器100は、例えば、N(N≧1)個のAVIステーション110-1~110-N(総称してAVIステーション110とも呼ばれる)を有する任意の生産グレードの機器であり得る。より具体的な例を提供すると、ライン機器100は、Bosch(登録商標)自動検査機械(AIM)5023商用ライン機器の修正版であってもよく、これは図2を参照して以下で論じられる。AVIステーション110のそれぞれは、容器(例えば、シリンジ、バイアルなど)の様々な態様及び/又は容器内のサンプル(例えば、液体溶液医薬品)の検査に使用される画像をキャプチャする役割を担ってもよい。例えば、第1のAVIステーション110-1が、シリンジ、バイアル、又は他の容器の上面図の画像をキャプチャして、クラック又はチップを検査してもよく、第2のAVIステーション110-2(図1には示されず)が、側面画像をキャプチャして、容器内のサンプル全体にわたって異物粒子の有無を検査してもよい。
図1も簡略化されたブロック図の形で、i番目のAVIステーション110-iの一般的な構成要素を示し、ここでiは、1~Nの任意の整数であってもよい。AVIステーション110-iは、具体的にはサンプルが容器のストッパのエッジに出合う/接触するエリアにおいて、サンプル(容器の内容物)を視覚的に自動的に検査するように構成されている。ストッパは、例えば、シリンジのプランジャ、又はバイアルの開口部を封止するキャップ若しくはプラグなどであってもよい。この検査を実施するために、AVIステーション110-iは、画像化システム112、照明システム114、及びサンプル位置決めハードウェア116を含む。(もしあれば)他のAVIステーション110が、概ね同様のタイプの構成要素(例えば、画像化システム、照明システム、及びサンプル位置決めハードウェア)を有してもよいが、場合によっては、所与の各ステーション110にとって適切な異なる構成要素のタイプ及び構成を有することを理解されたい。
画像化システム112は、少なくとも1つのラインスキャンカメラと、場合によっては関連する光学構成要素(例えば、追加のレンズ、ミラー、フィルタなど)を含んで、各サンプル(医薬品)のライン画像をキャプチャする。ラインスキャンカメラのそれぞれは、例えば、CMOSラインスキャンカメラであってもよい。説明を簡単にするために、以下の説明の大部分が単一ラインスキャンカメラのみに言及する。しかしながら、複数のラインスキャンカメラが使用されてもよいことを理解されたい。例えば、スループットを向上させるために、2つのラインスキャンカメラのそれぞれが、異なる容器/サンプルを同時に並行して画像化してもよい。
照明システム114は1つ以上の照明デバイスを含んで、サンプルがラインスキャンカメラにより画像化されている間に各サンプルを照明する。照明デバイスは、例えばバックライトパネルとして配置されたLEDアレイなどの、1つ以上の発光ダイオード(LED)を含んでもよい。
サンプル位置決めハードウェア116は、AVIステーション110-iのために容器を保持し(又は他の方法で支持し)、移動させる任意のハードウェアを含んでもよい。図1の実施形態では、サンプル位置決めハードウェア116は、少なくとも、画像化システム112のラインスキャンカメラが容器のストッパのエッジのプロファイル画像を得るように各容器を方向付けするための搬送手段117と、ラインスキャンカメラがライン画像をキャプチャしている間に各容器をスピンさせる(例えば、容器の中心軸を中心に回転させる)ためのスピン手段118と、を含む。搬送手段117は、電動回転テーブル、スターホイール又はカルーセル、ロボットアーム、及び/又は各容器を方向付ける(例えば、移動及び位置決めする)ための任意の他の好適な機構を含んでもよい。スピン手段118は、例えば、電動スピン機構(例えば、図2を参照して以下で論じられるように、シリンジのために「直接スピン」機能を提供するBosch(登録商標)AIM 5023の構成要素)を含んでもよい。以下で更に説明されるように、搬送手段117が所与の容器を適切に位置決め/方向付けした後、ストッパがサンプルに接触するエリアにおいて、ラインスキャンカメラがストッパの360度全体の図面を総合的にカバーするライン画像をキャプチャできるように、スピン手段118は容器をスピンさせる。
いくつかの実施形態では、サンプル位置決めハードウェア116はまた、各容器を反転させるための(例えば、重い粒子がストッパの上に直接静止している可能性を高めるように、画像化が行われているときにストッパがサンプルの下に配置されることを確実にするために)、及び/又は各容器内に含有されるサンプルを攪拌するための、ハードウェアを含む。他の実施形態では、各容器を適切に方向付けること(例えば、容器反転)の特定の態様は、最初の方のAVIステーション110にて、最初の方のAVIステーション110の中で、又はライン機器100などによる取り扱いの前に生じる。スピンするサンプルの画像をラインスキャンカメラがキャプチャするときの、容器/サンプルに対するラインスキャンカメラの様々な例示的な方向付けが、図3A及び図3Bを参照して以下に説明される。
ライン機器100はまた、1つ以上のプロセッサ120及びメモリ122を含む。プロセッサ120のそれぞれは、メモリ122に保存されたソフトウェア命令を実行して、本明細書で説明されるように、ライン機器100のソフトウェア制御機能のいくつか又は全てを実行するプログラム可能なマイクロプロセッサであってもよい。代わりに又は加えて、プロセッサ120のうちの1つ以上が、他のタイプのプロセッサ(例えば、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)など)であってもよく、本明細書に記載されるプロセッサ120の機能のいくつかが、代わりにハードウェアで実装されてもよい。メモリ122は、1つ以上の揮発性及び/又は不揮発性メモリを含み得る。読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリ、ソリッドステートドライブ(SSD)、ハードディスクドライブ(HDD)など、1つ以上の任意の適切なメモリタイプをメモリ122に含めることができる。メモリ122は、集合的に、1つ以上のソフトウェアアプリケーション、それらのアプリケーションによって受け取られる/使用されるデータ、及びそれらのアプリケーションによって出力/生成されるデータを保存し得る。
プロセッサ120及びメモリ122は、集合的に、AVIステーション110の動作を制御/自動化するための、及びAVIステーション110によってキャプチャ/生成された画像を処理して、容器及び/又は容器の内容物の(例えば、医薬品サンプル)に対して、対応する欠陥のタイプを検出するための、処理手段を構成する。具体的には、以下で更に詳細に説明するように、AVIステーション110-iについて、処理手段(120及び122)は、(1)スピン手段118が容器をスピンさせている間に、画像化システム112に、適切な時間に容器のストッパエッジの画像をキャプチャさせ、(2)画像化システム112によりキャプチャされた画像のセットに基づいて、ストッパエッジの2次元画像を生成し、(3)得られた2次元画像のピクセル(例えば、ピクセル強度値)を、訓練されたニューラルネットワークを使用して処理して出力データを生成する、ように構成されている。代替的な実施形態では、プロセッサ120及び/又はメモリ122の機能は、N個の異なる処理ユニット及び/又はメモリユニットにそれぞれ分散され、これらはそれぞれ、AVIステーション110-1から110-Nのうちの異なる1つに固有である。更に別の実施形態では、プロセッサ120及びメモリ122の機能のいくつか(例えば、サンプルの搬送、スピン、及び/又は画像化のための機能)が、AVIステーション110にわたって分散される一方で、プロセッサ120及びメモリ122の他の機能(例えば、ラインスキャンカメラ画像から2次元画像を生成するための、及び/又は2次元画像を処理して欠陥を検出するための機能)が、集中化された処理場所において実行される。いくつかの実施形態では、プロセッサ120及び/又はメモリ122の少なくとも一部分が、ライン機器100の外部にある(場合によってはリモートにある)コンピューティングシステムに含まれる。
メモリ122は、AVIステーション110によりキャプチャされた容器/サンプルの画像124を記憶し、また、AVIコード126を記憶し、AVIコードはプロセッサ120により実行されると、AVIステーション110に上述したような対応する機能を実行させる。AVIステーション110-iについて、例えば、AVIコード126は、図1においてコード128として示される対応する部分を含む。一実施形態の例として、コード128は、サンプルが照明システム114により照らされ、スピン手段118によりスピンされている間に、画像化システム112をトリガーさせてラインスキャン画像をキャプチャさせてもよく、サンプル位置決めハードウェア116を制御して、容器を適切な時間にて正しい位置に配置させてもよい。画像がキャプチャされ、画像124内に格納された後、コード128が、それぞれの画像124を処理して、ステーション310-iに関連付けられた欠陥を検出する(例えば、粒子、及び/又は気泡などの他の物体の、数、サイズ、及び/又はタイプに基づいて)。上述したように、いくつかの実施形態では、画像を処理するコード128の部分は、搬送、画像化、スピンなどを制御するコード128の部分を実行するものとは異なる、プロセッサ、構成要素、及び/又はデバイスにより実行されてもよい。
図1に示されるように、AVIステーション110-i用のコード128は、上述したような搬送手段117及びスピン手段118を制御するためのコマンド/信号を生成する、サンプル移動及び画像キャプチャユニット134を含む。コード128はまた、画像生成ユニット136を含み、これは、異なる容器ごとにラインスキャンカメラ画像から異なる2次元画像を構築/生成する。更に、コード128は、画像生成ユニット136により生成された2次元画像を推論モデルを使用して処理する推論モデルユニット138を含む。推論モデルは、訓練されたニューラルネットワークを含み(場合によっては全面的にこれから構成される)、推論モデルは、ピクセル(例えば、強度値、場合によっては色値)を処理して、特定のサンプルが欠陥である可能性が高い(例えば、ストッパエッジ上又はその近くに、受理不可能な粒子の数、サイズ、及び/又はタイプ数がある可能性が高い)か否かを示す出力データを生成する。様々な例示的な実施形態によるニューラルネットワーク及びその訓練は、図5及び図6を参照して以下で更に説明される。
図2は、既存の(従来技術の)商用ライン機器200、より具体的には、Bosch(登録商標)AIM 5023モデル、を簡略化された形で示す。一実施形態では、ライン機器200は、本明細書に記載される技術を使用してアップグレード又は修正される。すなわち、ライン機器200は、(例えば、フィールドアップグレード又は製品の完全再設計により)そのように修正された後、図1のライン機器100として使用され得る。
生産モードでは、機器200(Bosch(登録商標)AIM 5023)は、一般に、溶液(医薬品)が充填されたシリンジの輸送、検査、及び選別の役割を担う。機器200は、一連のインフィードスクリュー及びスターホイールを介してデネスターマシン(例えば、Kyoto(登録商標)G176De-Nester)からシリンジを受け取り、その後、インフィード(事前検査)ユニットにおいて自動検査が開始され、メインユニットにおいて継続される。インフィードユニット及びメインユニットは、様々なAVIステーションを有し、これが、ステーション202として図2に示される(単一のステーションにおいて2つの参照番号により示されるように、いくつかのステーション202が同じ場所に配置されている)。図2は、Bosch(登録商標)AIM 5023のレイアウト及び構成要素を正確に又は完全に再構築することを試みているわけではないことを理解されたい。例えば、様々なスターホイール、排出ビン、及び他の構成要素は示されておらず、様々なAVIステーション202について示されている相対的な位置は正確には正しくない。
インフィードユニットでは、ライン機器200は、回転するスターホイール212Aに沿って、以下の3つの事前検査ステーションを含む。(1)電荷結合装置(CCD)カメラ(「C01-1」インチ及び「C01-2」カメラと称される)を有するベントニードルシールド検査ステーション202-1;(2)CCDカメラ(「C02」カメラと称される)を備えるフランジ検査ステーション202-2;及び(3)CCDカメラ(「C03」カメラと称される)を備えるストッパプレゼンス/カラーステーション202-3。これらの事前検査は、CCDカメラ、安定光源、及び画像プロセッサを含む技術の組み合わせに基づいている。これらステーション202-1~202-3のいずれかにおいて、欠陥があると識別されたシリンジは、反転される又はメインユニットに移送されることなく、(スターホイール212A及び別のスターホイール212Bを介して)排出エリア/ビンの中に放出される。しかしながら、これらの検査に合格したユニットは、反転され、スターホイール212Cを介して機器200のメインユニットに輸送される。
メインユニットでは、ライン機器200は、2つのスターホイール212D及び212Eによって結合された3つの回転テーブル210A~210Cに沿った13個の検査ステーションを含む。具体的には、回転テーブル210Aに沿って、2つの検査ステーションが配置されている:(1)CCDカメラ(「C04」カメラと称される)を備える濁度検査ステーション202-4;及び(2)CCDカメラ(「C05」カメラと称される)を備える液色検査ステーション202-5。回転テーブル210Bに沿って、5つの検査ステーションが配置されている:(1)CCDカメラ(「C1-1」及び「C1-2」カメラと称される)を有する本体/繊維検査ステーション202-6;(2)CCDカメラ(「C2-1」及び「C2-2」カメラと称される)を有する本体(浮遊粒子)検査ステーション202-7;(3)ラインスキャンCMOSカメラ(「C3-1」及び「C3-2」カメラと称される)を有するストッパエッジ検査ステーション202-8;(4)CCDカメラ(「C4-1」及び「C4-2」カメラと称される)を備えるストッパ側部検査ステーション202-9;(5)CCDカメラ(「C5-1」及び「C5-2」カメラと称される)を有するストッパ上部検査ステーション202-10。回転テーブル210Bと210Cとの間のスターホイール212Eには、CCDカメラ(「C06」カメラと称される)を有するニードルシールド色検査ステーション202-11が存在する。回転テーブル210Cに沿って、更に5つの検査ステーションが配置されている:(1)CCDカメラ(「C6-1」及び「C6-2」カメラと称される)を有する粒子検査ステーション202-12;(2)第3世代静的分割(SDx)センサ(「SD1-1」及び「SD1-2」センサと称される)を使用する粒子検査ステーション202-13;(3)CCDカメラ(「C7-1」及び「C7-2」カメラと称される)を有する粒子検査ステーション202-14;(4)SDxセンサ(「SD2-1」及び「SD2-2」センサと称される)を使用する粒子検査ステーション202-15;(5)CCDカメラ(「C8」カメラと称される)を有する充填レベル/エアギャップ検査ステーション202-16。
機器200の様々なステーション202-4~202-16は、シリンジがメインユニットを通して輸送される際にシリンジを検査する。輸送の一環として、シリンジは自由に回転するベースアタッチメントとスピンキャップとによりしっかりと保持される。回転テーブル210A上には、テーブル210Aの周辺エリアにスピンモーターが配置され、ベースアタッチメントアセンブリをスピンさせる摩擦ベルトを使用して、気泡の散逸及び検査のための適切なスピンを設定する。回転テーブル210Bには、イオン化された空気をシリンジに吹き付けて、いかなる外部粒子又は埃をも除去するエアナイフイオナイザが装備されている。回転テーブル210B及び210C上では、各シリンジの場所に対するベース取り付けシャフトに、溶液中の目に見える粒子を適切に検査するためのダイレクトスピン機能が装備されている。各ベースアタッチメントは、高速又は低速で、時計回り方向又は反時計回り方向に個別にスピンさせることができる。
メインユニットの全ての検査ステーションを通って処理された後、シリンジは排出され、別のエリアに輸送され下流のマシン(例えば、Kyoto(登録商標)G176 Auto Trayerなど)により収集される「受理」ルート、又は3つの排出エリア/ステーションのうちの1つ、のいずれかに分類される。各排出ステーションは、手動で切り替え可能な放出排出レールを有する。様々な回転テーブル及び/又はスターホイールが、特定の容器を指定された拒否エリアに搬送するための手段を構成し得る。例えば、ステーション202-8に関して、スターホイール212E、212F、212G、及び回転テーブル210C、並びに場合によっては他のスターホイール、レール、及び/又は他の機構が、ステーション202-8において拒否された容器/サンプルを適切な拒否/排出エリアに搬送するための手段を提供し得る。
図1に戻ると、一実施形態では、ライン機器100が変更されて機器200になり、ストッパエッジ検査ステーション202-8が変更されてAVIステーション110-iになる(例えば、「C3-1」及び「C3-2」カメラの一方又は両方を含む、画像化システム112のラインスキャンカメラを用いて)。また、この実施形態では、搬送手段117は、回転テーブル210B(及び場合により、各シリンジを反転させるユニット)を含み、スピン手段118は、上述した自由回転ベースアタッチメント、スピンキャップ、スピンモーター、及び摩擦ベルトを含む。そのような一実施形態では、具体的にはストッパエッジ検査ステーション202-8の改善された精度に起因して、ストッパ上部検査ステーション202-10は省略され得るか又は変更され得る(例えば、粒子検査よりもむしろストッパ欠陥検出に焦点を合わせることにより、場合によりステーション202-10並びにステーション202-8の検出精度を向上させるために)。
図3A及び図3Bは、例示的な容器(シリンジ)300を示し、略円筒形の壁312内のストッパ(プランジャ)310、特にプランジャドーム314のエッジ(すなわち、ドーム314がシリンジ300中の溶液と出会う場所)が、画像化システム112のラインスキャンカメラなどのラインスキャンカメラを使用して画像化され得る。プランジャ310が配置されている壁312は、半透明のプラスチック、ガラス、又は他の任意の適切な材料で作製されていてもよい。図3A及び図3Bに示される特定の向き(すなわち、プランジャ310がシリンジ300の下側にある)では、シリンジ300内のサンプル/溶液中のあらゆる大きなエアポケットが、シリンジ300の反対(ニードル)端部により、プランジャドーム314の十分に上方にあるべきである。
図3Aの拡大挿入図に示されるように、画像化システム112のラインスキャンカメラは、シリンジ300の回転位置ごとに、エリア322に対応する1つの垂直ライン画像(本明細書では単に「画像」と称されることもある)をカメラがキャプチャするように方向付けられている。各ライン画像は、画像がキャプチャされた時点における非常に狭いスライス/エリア322内にあるものだけをキャプチャする。図3Aでは、例えば、第1のライン画像が、物体330の一部(例えば、粒子又は気泡)をキャプチャしてもよい一方で、第2のライン画像(回転が上面から反時計回り方向である場合)が、物体330の別の部分をキャプチャしてもよい。シリンジ300が(例えば、スピン手段118により)360度回転にわたってスピンするにつれて、ラインスキャンカメラは、画像が十分に小さい回転増分でキャプチャされている限り(例えば、ラインスキャンカメラの画像幅に応じて、1度ごと、又は3度ごとなど)、プランジャ310のドーム314のエッジ全体をカバーするのに十分なライン画像(ピクセルの垂直スライス/スタック)をキャプチャする。
図3Bに示されるように、ラインスキャンカメラは、プランジャドーム314の傾斜に整合する又は近似するように、水平面に対して(例えば、シリンジ300のフランジの平面に対して)僅かに上向きに角度をなしていてもよい。このようにして、ドーム314の傾斜に沿った任意の場所(例えば、頂点の近く、壁312の近く、又はその間のどこかにある)にある粒子、気泡、又は他の物体を、シリンジ300中の照らされた溶液によりもたらされる比較的明るい背景に対して鮮明なレリーフとして見える/示される。シリンジ300に対するラインスキャンカメラの他の向きも可能である。
図4は、(例えば、スピン手段118が図3のシリンジ300を少なくとも360度回転させるにつれて)ラインスキャンカメラによりキャプチャされたライン画像(例えば、垂直ピクセルスタック)から生成され得る例示的な2次元画像400を示す。画像400は、ストッパエッジ402(その上に半透明の溶液がある)を示しており、例えば、図1の画像生成ユニット136により生成されてもよい。例示的な画像400では、ストッパエッジ402上に静止している2つの物体410、412(ここではそれぞれ、気泡及びガラス粒子)を、プロファイル画像から比較的明瞭に見ることができる。例えば、ストッパエッジ402は、プランジャドーム314のエッジであってもよく、物体410又は412は、図3A及び図3Bの物体330であり得る。
図5は、例えば図4の2次元画像400などの2次元画像に基づいて、受理可能性又は受理不可能性を推論するために使用され得る例示的なニューラルネットワーク500を示す。ニューラルネットワーク500は、例えば、図1の推論モデルユニット138により実装される推論モデルを形成する(又は推論モデルに含まれる)訓練されたニューラルネットワークであってもよい。ニューラルネットワーク500は、畳み込みニューラルネットワーク(CNN)、又は別の好適なタイプのニューラルネットワークであってもよい。図5に示されるように、例示的なニューラルネットワーク500は、入力層510、3つの隠れ層512、及び出力層514を含み、これらのそれぞれは、いくつかのノード又は「ニューロン」を含む。他の実施形態では、ニューラルネットワーク500は、3つより多い又は少ない隠れ層512を含んでもよい、及び/又は各層は、図5に示されるよりも多い又は少ないノード/ニューロンを含んでもよいことを理解されたい。
ニューラルネットワーク500は、特定の2次元画像(例えば、画像400)が受理可能であるか又は受理不可能であるか否かを推論するように訓練されている。「受理可能」は、対応するサンプルがそれ以上の検査を必要としないことを意味してもよい又は意味しなくてもよく、「受理不可能」は、対応するサンプルを廃棄しなければならないことを意味してもよい又は意味しなくてもよいことを理解されたい。ライン機器100において、例えば、容器/サンプルが全体として品質検査に合格するために、容器/サンプルが、AVIステーション110-1から110-Nのそれぞれにおける検査に首尾よく「合格」する必要がある場合がある。この場合、AVIステーション110-iでの「受理」出力は、必ずしも対応する容器/サンプルが使用可能である(例えば、商業販売又は他の使用に適している)ことを意味するわけではない。別の例として、いくつかの実施形態では、AVIステーション110-iにおける「受理不可能」出力は、容器/サンプルが、必ずしも拒否又は廃棄されるわけではなく、追加の(例えば、手動の)検査を受けなければならないことを意味する。
図1のライン機器100を参照すると、推論モデルユニット138は、画像400の異なるピクセル502の値(例えば、強度値、及び場合によってはRGBカラー値)を、入力層510の異なるニューロン/ノードに渡してもよい。いくつかの実施形態では、推論モデルユニット138は、それらの値を入力層510に適用する前に、ピクセル値(例えば、0~255の強度及び/又は色値など)を前処理してもよい。1つの簡単な例として、推論モデルユニット138は、各ピクセル値を0から1の間の正規化された値に変換してもよい。他の前処理(例えば、ピクセルサブセット内の複数のピクセル値を平均化すること、又は画像400の比較的広いエリアに対して最初にピクセルを切り出して、強度値が閾値量を超えて変化することがないようにし、したがって、ストッパ本体を表す可能性があるようにすること)も可能である。
図5は、入力層510の4つのニューロンに渡される4つのピクセル値のみを示すが、他の実施形態では、より多くのピクセル値が入力層510のより多くのニューロンに渡され、その結果、ニューラルネットワーク500は、より大きなサブセット又は「チャンク」で画像400を処理する。いずれにせよ、いくつかの実施形態では、ニューラルネットワーク500が、全てのピクセルサブセット502が個別に受理可能であると判定した場合にのみ、推論モデルユニット138は、画像400が「受理可能」であると判定してもよい。他の、より複雑な実施形態では、ニューラルネットワーク500は、出力層514において3つ以上のニューロンを含んで、非気泡粒子が所与のピクセルサブセットに示される中間確率を反映させてもよく、推論モデルユニット138は、全てのピクセルサブセットについての結果を共同で処理して、全体として、画像400が、受理可能なサンプルを表すか又は受理不可能なサンプルを表すかを判断する(具体的には、ストッパエッジにおいて)。更に他の実施形態では、ニューラルネットワーク500は、入力層510に多数のニューロンを有して、画像400の全て(又は画像400において、ストッパがサンプル/溶液と出会う狭い水平バンド内の全てのピクセル)を一度に処理する。
いくつかの実施形態では、ニューラルネットワーク500において第1のニューロンを第2のニューロンに接続する各ラインは重みに関連付けられ、その値は、訓練プロセス中に決定される(以下で更に説明する)。ニューラルネットワーク500は、「ソース」ニューロン(すなわち、図5に見られるような接続部の左側)の値/出力にその重みを乗算し、乗算された値を、「宛先」ニューロン(すなわち、図5に示すような接続部の右側)において計算された関数への入力として提供する。更に、各隠れ層512の各ニューロンは、前の層510又は512からの入力に作用する「活性化関数」に関連付けられてもよい。例えば、各隠れ層512のニューロンは次の関数を適用してもよい。
Figure 2022553572000002
式中、
Figure 2022553572000003
=i番目の層におけるj番目のニューロンの活性化値;
Figure 2022553572000004
(シグモイド関数);
Figure 2022553572000005
=(i-1)番目の層におけるk番目のニューロンと、i番目の層におけるj番目のニューロンとの間の重み値;
Figure 2022553572000006
=i番目の層におけるj番目のニューロンのバイアス。
代わりに、例えば、双曲線正接(Tanh)関数又は正規化線形ユニット(ReLU)関数などの、シグモイド関数以外の関数を、隠れ層512の各ニューロンに適用してもよい。
ニューラルネットワーク500の配置に関して、ピクセル値が前処理される(例えば、平均化、セグメント化など)及び/又はニューラルネットワーク500に提供される方法に関して、及びニューラルネットワーク500の出力が推論モデルユニット138により処理される又は利用される方法に関して、多くの他の実施形態が可能であることを理解されたい。
ニューラルネットワーク500は、教師あり学習を使用して訓練されてもよい。より具体的には、ニューラルネットワーク500は、溶液/ストッパの境界におけるストッパエッジを示す2次元画像の大きなセット(例えば、それぞれが画像400に類似している)を、幅広く組み合わせた様々な条件と共に使用して、訓練されてもよい。例えば、訓練画像は、粒子及び/又は気泡の多くの異なる数、サイズ、タイプ及び位置、並びに場合によっては(例えば、異なるレベルの半透明性、及び場合によっては異なる粘度を有する)異なる溶液タイプ、及び/又は他のバリエーションを含んでもよい。更に、各訓練画像は、ニューラルネットワーク500によって提供される利用可能な出力のセットの中からの単一の正しい又は「真の」出力に対応する形でラベル付けされる(例えば、図5では、「受理可能」又は「受理不可能」)。全てのラベルが正しいことを確実にするために、ラベル付けは注意深く行うべきである(例えば、手動検査により、及び場合によっては実験室テストにより)。訓練用サンプルを十分に広範囲の条件で使用することにより、ニューラルネットワーク500は、重い粒子(例えば、ガラス粒子)に対するガス充填気泡など、従来は区別が困難であった物体を確実に判別することができる。
いったん訓練データセットが完成すると、ニューラルネットワーク500が訓練され得る。任意の好適な訓練手法が使用されてもよい。例えば、ニューラルネットワーク500は、各訓練画像について、順伝搬、推論結果に基づく誤差計算(例えば、平均二乗誤差(MSE))、及び勾配降下法を使用する逆伝搬、の既知の技術を使用して訓練されてもよい。
より高いレベルでは、図6は、深層学習を、図1のステーション110-iなどのAVIステーションを用いて実装するための例示的な開発及び認定プロセス600を示す。プロセス600の開発段階では、訓練目的のために、ラベル付けされた画像データ602が生成及び/又は収集される。データ602は注意深く精選されるべきであり、上述したように、広範囲の様々な条件(例えば、粒子サイズ/タイプ、気泡など)を伴う、溶液/ストッパ界面におけるストッパエッジを示す多数の2次元画像を含み得る。ステージ604において、機械学習アルゴリズムは、ラベル付けされた画像データを使用してニューラルネットワーク(例えば、上記で論じたようなニューラルネットワーク500)を訓練する。
いったんニューラルネットワークが訓練されると、プロセス600の認定段階では、ステージ612において、(画像データ602とは異なる)画像データ610が、訓練されたモデルに入力される。「訓練されたモデル」は、ニューラルネットワーク単独であってもよく、又はいくつかの追加のモデリング又は処理(例えば、訓練されたニューラルネットワークに画像データを入力する前の画像データの前処理)を含んでもよい。認定の全体にわたって、訓練されたモデルは「ロック」されている。すなわち、認定結果が有効なままであることを確実にするために、認定フェーズ中又は認定フェーズ後に、モデルを修正することはできない。これには、例えば、追加の訓練データでニューラルネットワークを改良し、それによりニューラルネットワークの性能を低下させるリスクを回避することは含まれない(例えば、追加の訓練画像が不適切にラベル付けされている場合など)。
ステージ614では、認定の目的で推論の結果が観察される。結果が受理可能なレベルの精度を示す場合(例えば、十分に大きいサンプルサイズに対して偽陽性及び/又は偽陰性の割合が十分に低い場合)、認定は成功し、モデルは生産に使用されてもよい。モデルが変更された場合はいつでも、(例えば、新しい条件を表す画像を使用してモデルを更に訓練/改良することにより)、一般的には認定フェーズが繰り返されなければならない。
図7は、ストッパエッジ検査ステーション(例えば、Bosch(登録商標)AIM 5023ライン機器のストッパエッジ検査ステーション202-8と同様)用のニューラルネットワークベースの深層学習を利用して得られた概念実証結果700、720を示す。結果700及び結果720で分かるように、深層学習なしでステーションを稼働させた場合と比較して、深層学習により、この特定のステーションについては、検出能力が約500%(5倍に)増加し、誤った拒否が約50%減少した。
図8は、容器(例えば、シリンジ、バイアルなど)の自動目視検査における精度及び効率を高めるための例示的な方法800のフロー図である。方法800は、例えば、図1のAVIステーション110-iにより実装されてもよく、プロセッサ120が、メモリ122内のAVIコード128を実行する。
方法800では、ブロック802において、ラインスキャンカメラが容器のストッパ(例えば、プランジャ又はプラグ)のエッジのプロファイル画像を有するように、サンプル(例えば、液体溶液医薬品)を含有する容器が方向付けられている。例えば、容器は、図3A及び図3Bに示されるように、ラインスキャンカメラに対して配置されてもよい。ブロック802は、例えば、サンプル移動及び画像キャプチャユニット134を実行させる、プロセッサ120により生成されたコマンドに応答して、図1の搬送手段117により実行されてもよい。
ブロック804において、容器は、例えば、サンプル移動及び画像キャプチャユニット134を実行させる、プロセッサ120により生成されたコマンドに応答して、スピン手段118によりスピンされる。ブロック806において、容器がスピンしている間(例えば、少なくとも1回の完全な360度回転の間)、ラインスキャンカメラ(例えば、画像化システム112のラインスキャンカメラ)を使用して、ストッパエッジの複数の画像がキャプチャされる。各画像は、容器の様々な回転位置でキャプチャされる。本明細書で使用される表現では、容器が停止したときに画像がキャプチャされたとしても、「容器がスピンしている間に」画像がキャプチャされたと見なすことを理解されたい。例えば、いくつかの実施形態では、ラインスキャンカメラによる各画像キャプチャのタイミングは、容器が静止している短い時間と一致してもよい(例えば、容器を概ね360度回転をステップごとにスピンさせている間に、離散的な小さな回転間隔の間は静止している)。代わりに、ラインスキャンカメラは、ラインスキャン中のいかなる時点においても容器がスピン/回転を停止する必要なく、容器の適切な回転位置で画像をキャプチャすることができる。ブロック806は、例えば、サンプル移動及び画像キャプチャユニット134を実行させる、プロセッサ120により生成されたコマンドに応答して、画像化システム112のラインスキャンカメラにより実行されてもよい。
ブロック808において、少なくとも複数の画像に基づいて、ストッパエッジの2次元画像が生成される。ブロック806においてキャプチャされた画像の各画像は、2次元画像の第1の(例えば、水平)軸にて1つ(又はいくつかなど)のピクセルのみを提供し得るが、2次元画像の第2の(例えば、垂直)軸にて全てのピクセルを提供し得る。ブロック808は、例えば、画像生成ユニット136を実行させるプロセッサ120により実行されてもよい。
ブロック810では、訓練されたニューラルネットワーク(例えば、図5のニューラルネットワーク500)を含む推論モデルを実行して、サンプルが欠陥を含む尤度を示す出力データを生成させることにより、2次元画像のピクセルが処理される(例えば、ストッパエッジにある又はその近くにあるサンプル中の粒子又は他の物体の数、サイズ、及び/又はタイプに基づく)。いくつかの実施形態では、ブロック810は、異なるピクセルに関連する強度値、又は強度値(例えば、正規化された値)から導出された他の値を、訓練されたニューラルネットワークの入力層の異なるノードに適用することにより、2次元画像のピクセルを処理することを含む。ブロック810は、例えば、推論モデルユニット138を実行するプロセッサ120により実行されてもよい。
いくつかの実施形態では、方法800は、図8に示されない1つ以上の追加的なブロックを含む。
一実施形態では、例えば、方法800は、ブロック810において生成された出力データに基づいて、指定された拒否エリアに容器が選択的に搬送される追加のブロックを含む。これは、例えば、サンプル移動及び画像キャプチャユニット134を実行させる、プロセッサ120により生成されたコマンドに応答して、追加の搬送手段(例えば、図2を参照して上で論じたような追加の回転テーブル、スターホイール、レールなど)により実行されてもよい。
別の例として、方法800は、ブロック802~806と並行して実施されるが、第2の容器/サンプルのための(すなわち、スループットを増加させるための)、ブロック802~806と同様のブロックを含んでもよい。そのような一実施形態では、方法800はまた、ブロック808及び810と同様に、(第2の容器のストッパエッジの)追加の2次元画像が生成及び処理される追加のブロックを含んでもよい。
システム、方法、装置及びそれらの構成要素を例示的な実施形態の観点から説明してきたが、システム、方法、装置及びそれらの構成要素は、これらに限定されるものではない。詳細な説明は、例としてのみ解釈されものとし、考え得る全ての実施形態の全てを説明することは、不可能ではないとしても非現実的であることから、本発明の考え得る全ての実施形態を説明しているわけではない。現在の技術又は本特許の申請日以降に開発された技術のいずれかを使用して、多くの代替的な実施形態を実現することができるが、このような実施形態は、本発明を定義する請求項の範囲内に依然として含まれる。
当業者であれば、本発明の範囲から逸脱することなく上記の実施形態に対して多種多様な修正、変更、及び組み合わせを施すことができ、そうした修正、変更、及び組み合わせは本発明の概念の範囲内であると解釈されることを理解するであろう。

Claims (30)

  1. 容器の自動目視検査における精度及び効率を高めるための方法であって、
    サンプルを含有する容器を、ラインスキャンカメラが前記容器のストッパのエッジのプロファイル画像を得るように、方向付けることと、
    前記容器をスピンさせることと、
    前記容器をスピンさせながら、前記ラインスキャンカメラにより、前記ストッパの前記エッジの複数の画像をキャプチャすることであって、前記複数の画像の各画像は、前記容器の異なる回転位置に対応する、ことと、
    1つ以上のプロセッサにより、少なくとも前記複数の画像に基づいて、前記ストッパの前記エッジの2次元画像を生成することと、
    訓練されたニューラルネットワークを含む推論モデルを実行する1つ以上のプロセッサにより、前記2次元画像のピクセルを処理して、前記サンプルが欠陥を含む尤度を示す出力データを生成することと、
    を含む方法。
  2. 1つ以上のプロセッサにより、前記出力データに基づいて、前記容器が、指定された拒否エリアに選択的に搬送されるようにすること、を更に含む、請求項1に記載の方法。
  3. 前記出力データは、前記サンプルが特定のタイプの1つ以上の物体を含むか否かを示す、請求項1に記載の方法。
  4. 前記訓練されたニューラルネットワークは、前記サンプル中のガス充填気泡と粒子とを判別するように構成されている、請求項3に記載の方法。
  5. 前記2次元画像の前記ピクセルを処理することは、異なるピクセルに関連する強度値、又は前記強度値から導出された他の値を、前記訓練されたニューラルネットワークの入力層の異なるノードに適用することを含む、請求項1に記載の方法。
  6. 前記容器がシリンジであり、前記ストッパがプランジャであり、前記ストッパの前記エッジが前記サンプルに接触するプランジャドームのエッジである、請求項1に記載の方法。
  7. 前記容器を方向付けることは、電動回転テーブル又はスターホイールを使用して前記容器を搬送することを含む、請求項1に記載の方法。
  8. 前記容器を方向付けることは、前記ストッパが前記サンプルの下になるように前記容器を反転させることを含む、請求項1に記載の方法。
  9. 前記容器をスピンさせることは、前記容器を前記容器の中心軸を中心として少なくとも360度回転させることを含む、請求項1に記載の方法。
  10. 前記ラインスキャンカメラが第1のラインスキャンカメラであり、前記複数の画像が第1の複数の画像であり、前記容器が第1の容器であり、前記2次元画像が第1の2次元画像であり、前記方法は、
    前記第1の容器を方向付けている間に、第2の容器も方向付けて、第2のラインスキャンカメラが前記第2の容器のストッパのエッジのプロファイル画像を得るようにすることと、
    前記第1の容器をスピンさせながら、前記第2の容器をスピンさせることと、
    前記第1の複数の画像をキャプチャしている間に、前記第2の容器をスピンさせている間に、前記第2のラインスキャンカメラにより、前記第2の容器の前記ストッパの前記エッジの第2の複数の画像をキャプチャすることであって、前記第2の複数の画像の各画像は、前記第2の容器の異なる回転位置に対応する、ことと、
    少なくとも前記第2の複数の画像に基づいて第2の2次元画像を生成することと、
    を更に含む、請求項1に記載の方法。
  11. 前記2次元画像の前記ピクセルを処理する前に、容器のストッパエッジのラベル付けされた2次元画像を使用して、前記ニューラルネットワークを訓練することを更に含む、請求項1に記載の方法。
  12. 物体の異なるタイプ、数、サイズ、及び位置を含むサンプルを含有する容器のラベル付けされた2次元画像を使用して、前記ニューラルネットワークを訓練することを含む、請求項11に記載の方法。
  13. ラインスキャンカメラと、
    サンプルを含有する容器を方向付けて、前記ラインスキャンカメラが前記容器のストッパのエッジのプロファイル画像を得るようにする、搬送手段と、
    前記容器をスピンさせるためのスピン手段と、
    処理手段であって、
    前記スピン手段が前記容器をスピンさせている間に、前記ラインスキャンカメラに、前記ストッパの前記エッジの複数の画像をキャプチャさせることであって、前記複数の画像の各画像は、前記容器の異なる回転位置に対応する、ことと、
    少なくとも前記複数の画像に基づいて、前記容器の前記ストッパの前記エッジの2次元画像を生成することと、
    訓練されたニューラルネットワークを含む推論モデルを実行することにより、前記2次元画像のピクセルを処理して、前記サンプルが受理可能であるか否かを示す出力データを生成することと、を含む、処理手段と、
    を備える、自動目視検査システム。
  14. 前記搬送手段は第1の搬送手段であり、前記自動目視検査システムは、
    前記容器を指定された拒否エリアに搬送するための第2の搬送手段を更に備え、
    前記処理手段は更に、
    前記出力データに基づいて、前記第2の搬送手段に、前記容器を前記指定された拒否エリアに選択的に搬送させるためのものである、請求項13に記載の自動目視検査システム。
  15. 前記出力データは、前記サンプルが特定のタイプの1つ以上の物体を含むか否かを示す、請求項13に記載の自動目視検査システム。
  16. 前記訓練されたニューラルネットワークは、前記サンプル中のガス充填気泡と粒子とを判別するように構成されている、請求項15に記載の自動目視検査システム。
  17. 前記処理手段は、少なくとも、異なるピクセルに関連する強度値、又は前記強度値から導出された他の値を、前記訓練されたニューラルネットワークの入力層の異なるノードに適用することにより、前記2次元画像の前記ピクセルを処理する、請求項13に記載の自動目視検査システム。
  18. 前記容器がシリンジであり、前記ストッパがプランジャであり、前記ストッパの前記エッジが前記サンプルに接触するプランジャドームのエッジである、請求項13に記載の自動目視検査システム。
  19. 前記搬送手段は、電動回転テーブル又はスターホイールを含み、前記搬送手段は、少なくとも、前記電動回転テーブル又は前記スターホイールを使用して前記容器を搬送することにより前記容器を方向付ける、請求項13に記載の自動目視検査システム。
  20. 前記搬送手段は、前記ストッパが前記サンプルの下になるように前記容器を反転させる、請求項13に記載の自動目視検査システム。
  21. 前記スピン手段が前記容器を前記容器の中心軸を中心に少なくとも360度スピンさせている間に、前記処理手段が前記ラインスキャンカメラに前記複数の画像をキャプチャさせる、請求項13に記載の自動目視検査システム。
  22. 前記ラインスキャンカメラが第1のラインスキャンカメラであり、前記複数の画像が第1の複数の画像であり、前記容器が第1の容器であり、前記サンプルが第1のサンプルであり、前記搬送手段が第1の搬送手段であり、前記スピン手段が第1のスピン手段であり、前記2次元画像は第1の2次元画像であり、前記出力データが第1の出力データであり、
    前記自動目視検査システムは、第2のラインスキャンカメラ、第2の搬送手段、及び第2のスピン手段を更に備え、
    前記第2の搬送手段は、前記第1の搬送手段が前記第1の容器を方向付けている間に第2の容器を方向付けて、前記第2のラインスキャンカメラが前記第2の容器のストッパのエッジのプロファイル画像を得るようにするためのものであり、
    前記第2のスピン手段は、前記第1のスピン手段が前記第1の容器をスピンさせている間に、前記第2の容器をスピンさせるためのものであり、
    前記処理手段は更に、
    前記第1のラインスキャンカメラが前記第1の複数の画像をキャプチャしている間に、前記第2のラインスキャンカメラに前記第2の容器の前記ストッパの前記エッジの第2の複数の画像をキャプチャさせることと、
    少なくとも前記第2の複数の画像に基づいて、前記第2の容器の前記ストッパの前記エッジの第2の2次元画像を生成することと、
    前記推論モデルを実行することにより、前記第2の2次元画像のピクセルを処理して、第2のサンプルが受理可能であるか否かを示す第2の出力データを生成することと、のためのものである、請求項13に記載の自動目視検査システム。
  23. 自動目視検査システムであって、
    ラインスキャンカメラと、
    サンプルを含有する容器を方向付けて、前記ラインスキャンカメラが前記容器のストッパのエッジのプロファイル画像を得るようにし、そのように方向付けられている間に、前記容器をスピンさせるように構成された、サンプル位置決めハードウェアと、
    命令を記憶するメモリであって、前記命令は、1つ以上のプロセッサにより実行されると、前記1つ以上のプロセッサに、
    前記容器がスピンしている間に、前記ストッパの前記エッジの複数の画像であって、前記複数の画像の各画像が前記容器の異なる回転位置に対応する、複数の画像を、前記ラインスキャンカメラにキャプチャさせ、
    少なくとも前記複数の画像に基づいて、前記容器の前記ストッパの前記エッジの2次元画像を生成させ、
    訓練されたニューラルネットワークを含む推論モデルを実行させることにより、前記2次元画像のピクセルを処理させて、前記サンプルが受理可能であるか否かを示す出力データを生成させる、メモリと、
    を備える、自動目視検査システム。
  24. 前記出力データは、前記サンプルが特定のタイプの1つ以上の物体を含むか否かを示す、請求項23に記載の自動目視検査システム。
  25. 前記訓練されたニューラルネットワークは、前記サンプル中のガス充填気泡と粒子とを判別するように構成されている、請求項24に記載の自動目視検査システム。
  26. 前記命令は、少なくとも、異なるピクセルに関連する強度値又は前記強度値から導出された他の値を前記訓練されたニューラルネットワークの入力層の異なるノードに適用することにより、前記1つ以上のプロセッサに、前記2次元画像の前記ピクセルを処理させる、請求項23に記載の自動目視検査システム。
  27. 前記容器がシリンジであり、前記ストッパがプランジャであり、前記ストッパの前記エッジが前記サンプルに接触するプランジャドームのエッジである、請求項23に記載の自動目視検査システム。
  28. 前記サンプル位置決めハードウェアは、電動回転テーブル又はスターホイールを含み、少なくとも、前記電動回転テーブル又は前記スターホイールを使用して前記容器を搬送することにより前記容器を方向付ける、請求項23に記載の自動目視検査システム。
  29. 前記サンプル位置決めハードウェアは、前記ストッパが前記サンプルの下になるように前記容器を反転させる、請求項23に記載の自動目視検査システム。
  30. 前記命令は、前記1つ以上のプロセッサに、
    前記容器が前記容器の中心軸を中心に少なくとも360度スピンしている間に、前記ラインスキャンカメラに前記複数の画像をキャプチャさせる、請求項23に記載の自動目視検査システム。
JP2022524988A 2019-11-07 2020-11-06 自動目視検査機器への深層学習のターゲット化された適用 Pending JP2022553572A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962932413P 2019-11-07 2019-11-07
US62/932,413 2019-11-07
US201962949667P 2019-12-18 2019-12-18
US62/949,667 2019-12-18
PCT/US2020/059293 WO2021092297A1 (en) 2019-11-07 2020-11-06 Targeted application of deep learning to automated visual inspection equipment

Publications (2)

Publication Number Publication Date
JP2022553572A true JP2022553572A (ja) 2022-12-23
JPWO2021092297A5 JPWO2021092297A5 (ja) 2023-11-02

Family

ID=73654910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022524988A Pending JP2022553572A (ja) 2019-11-07 2020-11-06 自動目視検査機器への深層学習のターゲット化された適用

Country Status (12)

Country Link
US (1) US20220398715A1 (ja)
EP (1) EP4055559A1 (ja)
JP (1) JP2022553572A (ja)
KR (1) KR20220090513A (ja)
CN (1) CN114631125A (ja)
AU (1) AU2020378062A1 (ja)
BR (1) BR112022008676A2 (ja)
CA (1) CA3153701A1 (ja)
CL (1) CL2022001166A1 (ja)
IL (1) IL291773A (ja)
MX (1) MX2022005355A (ja)
WO (1) WO2021092297A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230153978A1 (en) * 2021-11-17 2023-05-18 Communications Test Design, Inc. Methods and systems for grading devices

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309486A (en) * 1992-11-12 1994-05-03 Westinghouse Electric Corp. Non-contact flaw detection for cylindrical nuclear fuel pellets

Also Published As

Publication number Publication date
EP4055559A1 (en) 2022-09-14
US20220398715A1 (en) 2022-12-15
CN114631125A (zh) 2022-06-14
IL291773A (en) 2022-06-01
CL2022001166A1 (es) 2023-02-10
CA3153701A1 (en) 2021-05-14
AU2020378062A1 (en) 2022-04-07
MX2022005355A (es) 2022-06-02
WO2021092297A1 (en) 2021-05-14
BR112022008676A2 (pt) 2022-07-19
KR20220090513A (ko) 2022-06-29

Similar Documents

Publication Publication Date Title
US7342655B2 (en) Inspecting apparatus and method for foreign matter
JP5276845B2 (ja) 注入済みの複数の容器において異物または不良を検出する方法および装置
US20230196096A1 (en) Deep Learning Platforms for Automated Visual Inspection
JP7490655B2 (ja) 医薬品容器における粒子検出のためのシート照明
JP5787670B2 (ja) 気泡判別検査装置および気泡判別検査方法
JPS5937451A (ja) 対象物の透明度のコントラストにより対象物を検査する方法及び装置
US20030210397A1 (en) Inspecting apparatus for foreign matter and inspecting mechanism thereof
CN110809731A (zh) 玻璃处理装置和方法
JP2005017004A (ja) ガラス瓶の異物検査システム
JP2022553572A (ja) 自動目視検査機器への深層学習のターゲット化された適用
AU2023218255A1 (en) Visual inspection systems for containers of liquid pharmaceutical products
JPH08159989A (ja) 液体密封容器の検査方法および検査装置
JP2005017003A (ja) バイアルの検査システム
JP2005121592A (ja) ボトル液内異物検査システム
JP6761377B2 (ja) 異物検査装置及び方法
CN112697810B (zh) 用于容器的光学检查的方法和装置
JPH02257044A (ja) びん検査装置
JP2007071895A (ja) 異物検査装置
JP2002267612A (ja) 透明容器等の充填液体中の異物検査装置及びシステム
Moghadas et al. Detection and classification of foreign substances in medical vials using MLP neural network and SVM
US20230254589A1 (en) Pulsed illumination for fluid inspection
CN105115985A (zh) 一种灯检机及瓶内杂质检测方法
JPH11248644A (ja) 容器の欠陥検査方法及びその装置
JP6521852B2 (ja) 検査装置
US20210245203A1 (en) Inspection process

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231025