JP6865776B2 - 深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理 - Google Patents

深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理 Download PDF

Info

Publication number
JP6865776B2
JP6865776B2 JP2019013898A JP2019013898A JP6865776B2 JP 6865776 B2 JP6865776 B2 JP 6865776B2 JP 2019013898 A JP2019013898 A JP 2019013898A JP 2019013898 A JP2019013898 A JP 2019013898A JP 6865776 B2 JP6865776 B2 JP 6865776B2
Authority
JP
Japan
Prior art keywords
sample
processors
features
product
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019013898A
Other languages
English (en)
Other versions
JP2020042756A (ja
Inventor
ボヌー,オリビエ
アマニ,サミ
ラ コンブル,アロエス ピーター ピリュ デ
ラ コンブル,アロエス ピーター ピリュ デ
コテリュ,パトリック
Original Assignee
アクセンチュア グローバル ソリューションズ リミテッド
アクセンチュア グローバル ソリューションズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクセンチュア グローバル ソリューションズ リミテッド, アクセンチュア グローバル ソリューションズ リミテッド filed Critical アクセンチュア グローバル ソリューションズ リミテッド
Publication of JP2020042756A publication Critical patent/JP2020042756A/ja
Application granted granted Critical
Publication of JP6865776B2 publication Critical patent/JP6865776B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1912Selecting the most significant subset of features
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Business, Economics & Management (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Emergency Management (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Description

本開示は、全般的に、品質管理のためのコンピュータ実装された方法および品質管理システムに関する。
企業は、製品および/またはサービスの品質を確保するために品質管理プロセスを採用する。様々な産業で事業を行う企業が品質管理プロセスを実装する。例示の産業には、医薬、生物工学、ワクチン、体外診断、食品、飲料、化学、および公共事業が含まれるがこれらに限定はされない。例えば食品産業では、品質管理プロセスを使用して、販売される食品に汚染物(例えば微生物学的)が存在しない(または少なくとも閾値レベルを下回る)ことを確実にすることができる。しかし、品質管理プロセスは、手作業が多く、誤りを伴う場合がある。場合によっては、許容されない可能性のあるレベルの汚染物が、品質管理プロセスにおいて適切に検出されない。
本開示の各実装は、全般的に、コンピュータビジョニングおよび深層学習を使用した品質管理システムを対象とする。特に、本開示の各実装は、自動的または半自動的に徹底した品質管理プロセスを実行する、人工知能(AI:artificial intelligence)ベースのコンピュータビジョニングシステムを対象とする。
一部の実装において、アクションは、製品のサンプルを表すデジタルデータとして生成されるサンプルデータを受け取ることと、残差ネットワークの複数の層を介してサンプルデータを処理することによって特徴のセットを提供することであって、残差ネットワークの第1の層はサンプルデータの特徴1つ以上を識別し、残差ネットワークの第2の層は第1の層の1つ以上の特徴を受け取って追加の特徴1つ以上を識別する、提供することと、製品のサンプルの領域のセットを識別するために特徴のセットを処理することと、識別された領域のセットに基づいて、製品のサンプルのデジタルデータ表現の分解能を変更することと、領域のセットの中の領域中の物体少なくとも1つを識別して少なくとも1つの物体のタイプを判断するために、特徴のセットを処理することと、製品のサンプル内の汚染を示す警告を、少なくとも1つの物体のタイプに少なくとも部分的に基づいて選択的に発することと、を含む。この側面の他の実装は、対応するシステム、装置、および方法のアクションを実行するように構成されコンピュータ記憶デバイス上にエンコードされたコンピュータプログラムを含む。
これらおよび他の実装はそれぞれ任意選択で、以下の特徴のうちの1つ以上を含むことができる:残差ネットワークはResnet−101であること、特徴のセットは畳み込みニューラルネットワーク(CNN:convolution neural network)を使用して処理されること、CNNは領域ベースCNN(R−CNN:region−based CNN)であること、アクションがさらに、ユーザインターフェース内にサンプルの視覚的描写を提供することを含み、視覚的描写はサンプルにおいて識別された物体を示す1つ以上のグラフィックオーバーレイを含むこと、アクションがさらに、サンプルを収容しているサンプル容器をカメラに対して相対的な或るポジションにロボットアームを使用して移動させることを含み、カメラはサンプルデータを生成すること、そのポジションは、サンプル容器内のサンプルの撮像のためにカメラへとサンプル容器を運搬するコンベヤ上に位置すること、出力が、提供されて、サンプル内の少なくとも1つの物体を表すワンホットエンコードされたベクトルと、信頼度スコアとを含み、信頼度スコアは、少なくとも1つの物体が分類されたタイプのものであることの信頼度の程度を表現すること、サンプルデータはサンプルのデジタル画像1つ以上を含むこと、特徴のセットが、領域の体積および/または領域の面積および/または領域の色を識別するために処理されること、製品が生物学的物質および/または医薬製品および/または食料品を含むこと、識別された領域が水分のコロニーを含むこと、および識別された物体がバクテリアを含むこと。
本開示は、1つ以上のプロセッサに結合され、命令が記憶されているコンピュータ可読記憶媒体をさらに提供し、命令は、1つ以上のプロセッサによって実行されると1つ以上のプロセッサに本願明細書において提供された方法の実装に従った動作を実行させる。
本開示はさらに、本願明細書において提供された方法を実装するシステムを提供する。システムは、1つ以上のプロセッサと、命令が記憶され1つ以上のプロセッサに結合されているコンピュータ可読記憶媒体とを含み、命令は、1つ以上のプロセッサによって実行されると1つ以上のプロセッサに本願明細書において提供された方法の実装に従った動作を実行させる。
当然のことながら、本開示に従った方法は、本願明細書に記載される側面および特徴の任意の組み合わせを含むことができる。つまり、本開示に従った方法は、本願明細書に具体的に記載される側面および特徴の組み合わせに限定されず、提供される側面および特徴の任意の組み合わせも含む。
本開示の1つ以上の実装の詳細は、添付の図面および以下の説明に記載される。本開示の他の特徴および利点は、本記載および図面、ならびに特許請求の範囲から明らかになるであろう。
本開示の実装を実行することができる例示のシステムを示す。 本開示の実装に従った例示のモジュールアーキテクチャを示す。 例示のサンプルを含む例示のサンプル容器を示す。 本開示の各実装において実行できる例示のプロセスを示す。
本開示の各実装は、全般的に、コンピュータビジョニングおよび深層学習を使用した品質管理システムを対象とする。特に、本開示の各実装は、自動的または半自動的に徹底した品質管理プロセスを実行する、コンピュータビジョニングを用いる人工知能(AI:artificial intelligence)ベースの品質管理プラットフォームを対象とする。一部の実装において、アクションは、製品のサンプルを表すデジタルデータとして生成されるサンプルデータを受け取ることと、残差ネットワークの複数の層を介してサンプルデータを処理することによって特徴のセットを提供することであって、残差ネットワークの第1の層はサンプルデータの特徴1つ以上を識別し、残差ネットワークの第2の層は第1の層の1つ以上の特徴を受け取って追加の特徴1つ以上を識別する、提供することと、領域のセットと、領域のセットの中の領域中の物体少なくとも1つとを識別して、少なくとも1つの物体のタイプを判断するために、畳み込みニューラルネットワーク(CNN)を使用して特徴のセットを処理することと、製品のサンプル内の汚染を示す警告を少なくとも1つの物体のタイプに少なくとも部分的に基づいて選択的に発することとを含む。
図1は、本開示の実装を実行することができる例示のシステム100を示す。例示のシステム100は、データ捕捉システム102、バックエンドシステム108、およびネットワーク110を含む。一部の例では、ネットワーク110は、ローカルエリアネットワーク(LAN:local area network)、ワイドエリアネットワーク(WAN:wide area network)、インターネット、またはその組み合わせを含み、ウェブサイト、デバイス(例えばデータ捕捉システム102のコンポーネント)、およびバックエンドシステム(例えばバックエンドシステム108)を接続する。一部の例において、ネットワーク110は、有線および/または無線の通信リンク上でアクセスできる。例えば、スマートフォンなどのモバイルコンピューティングデバイスは、セルラネットワークを利用してネットワーク110にアクセスすることができる。
示されている例において、バックエンドシステム108は、少なくとも1つのサーバシステム112およびデータストア114(例えばデータベース)を含む。一部の例において、少なくとも1つのサーバシステム112は、ユーザがコンピューティングデバイスを使用して相互作用できる1つ以上のコンピュータ実装されたサービスをホストする。例えばサーバシステム112は、本開示の各実装に従って徹底した品質管理プロセスを自動的または半自動的に実行する、コンピュータ実装された品質管理プラットフォームをホストすることができる。
示されている例において、データ捕捉システム102は、サンプル容器120のセット、コンベヤベルト122、ロボットアーム124、およびカメラ126を含む。サンプル容器120は、品質管理のために分析されるべき項目のサンプルを収容する任意の適切な容器(例えば保管箱、ペトリ皿)を含むことができる。一部の例において、カメラ126は、デジタル画像および/またはデジタルビデオを捕捉する任意の適切なデバイスを含むことができる。一部の例において、カメラ126は、立体画像を捕捉することができる。一部の例において、カメラ126は、コンベヤベルト122に対して相対的に固定のポジションにある。一部の例において、カメラ126は自由に、コンベヤベルト122に対して相対的に移動することができる。例えばカメラ126は、第1のポジションからデジタルデータを捕捉し、移動して、第2のポジションからデジタルデータを捕捉することができる。
図1には示されていないが、例示のデータ捕捉システム102はさらに、コンピューティングデバイスおよび/または1つ以上の光源を含むことができる。一部の例において、コンピューティングデバイスは、データ捕捉システム102の2つ以上のコンポーネント間のアクティビティを調整する。一部の例において、コンピューティングデバイスは、デスクトップコンピュータ、ラップトップコンピュータ、ハンドヘルドコンピュータ、タブレットコンピュータ、携帯情報端末(PDA:personal digital assistant)、携帯電話、ネットワークアプライアンス、カメラ、スマートフォン、拡張汎用パケット無線サービス(EGPRS:enhanced general packet radio service)モバイル電話、メディアプレーヤ、ナビゲーションデバイス、電子メールデバイス、ゲーム機、またはこれらのデバイスもしくは他のデータ処理デバイスの任意の2つ以上の適切な組み合わせなど、任意の適切なタイプのコンピューティングデバイスを含むことができる。一部の例において、1つ以上の光源は、サンプル容器内のサンプルを照明することができる。一部の例において、1つ以上の光源は、可視光、紫外線(UV:ultra−violet)光、赤外線(IR:infra−red)光を含むことができる。一部の例では、データ捕捉システム102は、多角ビューを得るための追加のカメラ、またはバーコードスキャナ、計算されたデータを送信できるように任意の適切な情報システムへのインターフェース、および/または無菌環境で作業するための垂直ラミナーフローフードを含むことができる。
一部の実装において、バックエンドシステム108は、本開示の各実装に従ったAIベースの品質管理プラットフォームをホストする。一部の例では、本願明細書にさらに詳細に記載されるように、AIベースの品質管理プラットフォームは、コンピュータビジョニングおよびAIを使用してサンプルデータを処理して、サンプル内の物体1つ以上を検出し、各物体のタイプを判断する。一部の例において、物体は、複数タイプの汚染(例えば生物学的)を含む場合がある。一部の例において、1つ以上のタイプの汚染がもたらされる。一部の例において、汚染が検出された場合、AIベースの品質管理システムは警告を提供する。一部の例において、汚染が検出され閾値レベルを上回る場合、AIベースの品質管理システムは警告を提供する。一部の例において、警告が生成された場合、警告を生じさせたサンプルを、後の分析のために保管所に移動させることができる。
本願明細書にさらに詳細に記載されるように、ロボットアーム124は、選択的に、サンプル容器120をコンベヤベルト122に載せ、サンプル容器120をコンベヤベルト122から取り去る。一部の例において、サンプル容器120は保管箱および/またはペトリ皿として提供される。一部の実装において、サンプル容器120がコンベヤベルト122に載せられた後、コンベヤベルト122は、サンプル容器122をカメラ126による撮像のためのポジションへと運搬する。カメラ126は、デジタル画像および/またはデジタルビデオを捕捉する。例えばカメラ126は、サンプル容器120内に収容されたサンプルのデジタル画像および/またはデジタルビデオ1つ以上を捕捉できる。一部の例において、デジタル画像および/またはデジタルビデオは、サンプルファイルにサンプルデータを記録する。一部の例において、サンプルファイルは、本願明細書にさらに詳細に記載されるように、処理のためにAIベースの品質管理プラットフォームへ送られる。
本願明細書にさらに詳細に記載されるように、本開示のAIベースの品質管理プラットフォームは、品質管理試験の支援として、識別の加速され増大された信頼性、ならびに汚染のタイプの量を可能にする。さらに、分析の結果が判断された後、AIベースの品質管理プラットフォームは、結果を、任意の適切なタイプの情報システムまたはソフトウェア(例えばエンタープライズリソースプランニング(ERP:enterprise resource planning)システム)へ送信することができる。
本開示の各実装は、非限定的な例示の状況を参照して、本願明細書にさらに詳細に記載される。例示の状況は、食品の品質管理を含む。例えば、本願明細書に記載されるように、本開示のAIベースの品質管理プラットフォームにより食品項目のサンプルを汚染について分析でき、警告を選択的に発することができる。なお、本開示の各実装は、任意の適切な状況(例えば食品、飲料、医薬、ワクチン、生物工学、化学、公共事業の各産業)において実現可能であると考えられる。
図2は、本開示の実装に従った例示のモジュールアーキテクチャ200を示す。例示のモジュールアーキテクチャ200は、AIベースの品質管理プラットフォーム202を含む。本願明細書にさらに詳細に記載されるように、本開示の各実装に従い、AIベースの品質管理プラットフォーム202は、サンプルデータ204を受け取り、サンプルデータ204を処理して出力206を提供する。一部の例において、サンプルデータ204は、項目(例えば食品)のサンプルを表すデジタル画像および/またはデジタルビデオ(集合的にデジタルデータ)を含む。一部の例において、出力206は、サンプルデータ204について判断された、汚染、またはそれがないことを表すデータを含む。一部の例において、出力206は警告を含む。
図2の例において、AIベースの品質管理プラットフォーム202は、インターフェースモジュール208、深層学習(DL:deep learning)物体検出器モジュール210、物体カウントモジュール212、および汚染タイプカウントモジュール214を含む。一部の例において、インターフェースモジュール208は、サンプルデータ204をDL物体検出器モジュール210に提供する。一部の例において、インターフェースモジュール208は、ユーザがAIベースの品質管理プラットフォームと相互作用できるようにする1つ以上のユーザインターフェース(UI:user interface)を提供する。例えばインターフェースモジュール208は、結果(例えば出力206のグラフィック表現)を見るため、サンプルデータ204(例えば処理されているサンプルのデジタルデータ)を見るため、および/または警告が発せられていれば警告を見るためにユーザが使用できる1つ以上のUIを提供することができる。一部の例において、1つ以上のUIは、リアルタイムの結果、解析、および/または警告を提供するダッシュボードの一部として提供される。
本開示の各実装に従って、サンプルデータ204は、1つ以上のDLアルゴリズムを使用して処理される。例えばDL物体検出器モジュール210は、サンプルデータ204において検出された汚染のタイプ1つ以上を識別し、適格とし、分類するために、1つ以上のDLアルゴリズムを介してサンプルデータ204を処理する。一部の例において、DLアルゴリズムは、サンプルデータ204中の1つ以上の特徴を識別する。例示の特徴には、形状、点、水分、透明度、幅、反射、屈折、偏光、吸収、およびフォトルミネセンスが含まれるが、これに限定はされない。一部の例において、連続した抽象化層において1つ以上の特徴が識別される。例示の抽象化層には、基本的特徴、局所的特徴、複合的特徴、および大域的特徴が含まれるが、これに限定はされない。識別された特徴に基づいて、AIベースの品質管理プラットフォームは、サンプル内の1つ以上のタイプの物体(例えば微生物学的汚染、水分)を識別する。
一部の実装において、本開示のDLは、畳み込みニューラルネットワーク(CNN)を使用して実装される。例示のCNNは、残差ネットワーク(resnet)バックボーンを用いて実装された領域ベースCNN(R−CNN)を含む。R−CNNは、画像内の、物体が中に位置するかもしれない領域を識別するCNNと説明することができる。例示のresnetは、Resnet−101(例えば101の層を有する残差ネットワーク)を含む。なお、本開示の各実装は、任意の適切なニューラルネットワークおよび/または残差ネットワークを使用して実現できると考えられる。
一部の実装において、resnetは、正規化画像としてサンプルデータ204を処理する特徴抽出器である。一部の例において、正規化画像を提供するために、デジタル画像を処理して、すべての画素強度が所定範囲の値以内となるように画素強度値の範囲を調節することができる。一部の例において、デジタル画像は画素をゼロセンタリングすることにより正規化される。一部の例において、センタリングは、事前訓練用データセットの各チャネル(例えば赤、緑、青)の平均強度に基づく。その場合、チャネルごとの平均がデジタル画像内の各画素のチャネルから減算される。
一部の実装において、resnetバックボーンを介したサンプルデータ(画像)の処理は、事前訓練されたモデルに基づく。一部の例において、事前訓練されたモデルは、関心対象となり得る物体(例えば汚染物、水分)に関連する特徴の検出のために訓練される。一部の例において、事前訓練されたモデルは第三者により提供される。例示の事前訓練されたモデルには、Microsoftによって提供されているコモン・オブジェクツ・イン・コンテクスト(CoCo:Common Objects in Context)モデルが含まれるが、これに限定はされない。一部の例において、本開示の状況では、事前訓練されたモデルは物体(例えば汚染物、水分)を含むサンプルのラベル付き画像に基づく。
一部の実装において、処理されている画像(例えばRGB画像形式)(例えば正規化画像)は、resnetバックボーンを段階的に通過する。各層にて、画像内の特徴が識別され、精緻化される。さらに詳細には、画像は、resnetバックボーンの畳み込み層のセットを介して処理され、各層でフィルタリングされ、特徴が識別される。一部の例では、コントラストの変化(例えば左から右、水平から垂直)に基づいて特徴が識別される。次の層は、さらなる処理、および追加の特徴があればその識別のために、前の層において識別された特徴を受け取る。
resnetは、特徴のセットを出力し、それらはCNNに入力される。一部の実装において、CNNは、複数ステップのプロセスにおいて特徴のセット中の特徴を処理する。例示のステップは、領域提案および分類を提供することを含む。一部の例において、領域提案は、CNNの1つ以上の層を介して判断された関心対象領域のセット(領域のセットとも呼ばれる)を含む。一部の例において、関心対象領域は、物体を含むかもしれないサンプルのエリアを含む。例示の物体には、汚染(例えば(微)生物学的汚染)および水分が含まれるがこれに限定はされない。一部の実装において、領域のセットの中の各領域は、サイズを変更され、CNNの1つ以上の層(例えば最後の層)が、存在する物体のタイプを予測する。つまり、各領域内の1つ以上の物体がタイプ(例えば汚染または水分)により分類される。
一部の実装において、サンプル内で検出された物体の数が物体の閾値数よりも多ければ、サンプルデータが調節され、再処理される。一部の例において、サンプルデータの調節は、分解能を調節することを含む。つまり、画像の分解能を反復的に調節できる。一部の例では、画像が分割され、分解能が調節される。一部の例では、画像は重なり合う複数の部分(例えば重なり合う4つの部分)へと分割される。一部の例において、分割されたそれぞれの幅(個々の高さ)は完全な画像の幅(個々の高さ)の1/2+1/8=5/8である。ここで重なり合いがあるのは、コンテクストの不足(例えば生物学的なコロニーが2つに分割される)により予測が妨げられることが決してないようにするためである。非最大値抑制が、予測されたボックスに適用される。コロニーが2回発見された場合、最も信頼度の高い予測のみが保持される。
一部の実装では、各物体について、信頼度スコアと、サンプル内の物体の場所を特定する境界線とが提供される。一部の例において、信頼度スコアは、物体が実際に、分類されたタイプのものである信頼度の程度を表現する。一部の例において、境界線は、物体の全部または少なくとも一部分を囲む、サンプルのデジタル画像上の視覚的なオーバーレイとして提供される。境界線は、任意の適切な形状(例えば正方形、矩形、楕円形)とすることができると考えられる。一部の例において、異なる物体に対して異なる境界線を提供できる。例えば、汚染に対して第1の境界線を提供でき、水分に対して第2の境界線を提供でき、第1の境界線は第2の境界線とは異なる。
一部の実装において、AI処理の出力は、エンコードされた1つ以上のベクトルを含む。一部の例において、各ベクトルは、サンプル内の識別された物体(例えば微生物学的なコロニー)のタイプに対応する。一部の例において、エンコードされたベクトルは、ワンホットエンコードされたベクトルとして提供される。一部の例において、ワンホットエンコードされたベクトルは、1は個々の物体が特定のタイプのものであることを示し、0は個々の物体が特定のタイプのものでないことを示す、タイプ(カテゴリ)のベクトルを含むことができる。
一部の実装において、各ベクトルは、物体が実際に、分類されたタイプのものであることの信頼度の程度を表現する個別の信頼度スコアに関連する。一部の実装において、1つ以上の信頼度閾値が規定され、これに対して信頼度スコアを比較できる。一部の例において、信頼度スコアが第1の閾値を上回る場合、予測が正確である信頼度は高い(例えば緑のレベル)。一部の例において、信頼度スコアが第2の閾値を上回るが第1の閾値を上回らない場合、予測が正確である信頼度はより低い(例えばオレンジのレベル)。一部の例において、信頼度スコアが第2の閾値を上回らない場合、予測が正確である信頼度は低い(例えば赤のレベル)。一部の例において、信頼度レベル(例えば緑、オレンジ、赤)をUIの中に視覚的に示すことができる。
図3は、例示のサンプル302を含む例示のサンプル容器300を示す。図3の例は、サンプル容器300およびサンプル302のデジタル画像を含むことができる(例えばUIの中に表示される)。示されている例では、サンプル302は、サンプル302内の識別された複数の物体を含む。各物体は、デジタル画像内のグラフィックオーバーレイとしてそれぞれが提供される境界線により境界を示されていている。図3の例には、異なる2つのタイプの物体が示され、個々の境界線304、306により境界を示されている。例えば、第1のタイプの物体は、境界線304により境界を示された汚染物を含むことができ、第2のタイプの物体は、境界線306により境界を示された水分を含むことができる。
一部の実装では、各タイプの物体のいくつかのインスタンスのカウントに基づいて物体カウントを提供できる。図3の例では、第1のタイプの物体について第1の物体カウントを6として提供でき、第2のタイプの物体について第2の物体カウントを4として提供できる。一部の実装では、各タイプの物体の量が提供される。一部の例では、物体のタイプについて、面積に基づいて量が求められ、さらに/または体積が求められる。例えば、各タイプの物体について各境界線内の量を求めることができ、各量が合計されて各タイプの物体の総量を求めることができる。
図4は、本開示の各実装において実行可能な例示のプロセス400を示す。一部の例において、例示のプロセス400は、1つ以上のコンピューティングデバイス(例えば図1のバックエンドシステム108)により実行される1つ以上のコンピュータ実行可能プログラムを使用して提供される。
サンプル容器が選択される(402)。例えば、ロボットアーム124は、サンプル容器のセットからサンプル容器120を選択することができる。一部の例において、各サンプル容器120は、一意の識別子(UID:unique identifier)を含み、UIDは、サンプル容器120および/またはその中に収容されたサンプルを一意に識別する。一部の例において、サンプル容器はUIDに基づいて選択される。例えば、機械可読コード(例えばバーコード、QRコード)がUIDをエンコードし、分析されるべき対象サンプル容器120を識別するためにサンプル容器120の機械可読コードが(例えばコードリーダによって)読み取られる。ロボットアーム124は、サンプル容器120をつかむ。
サンプル容器はコンベヤに移動される(404)。例えばロボットアーム124は、サンプル容器120を或る場所からコンベヤ122に移動させる。一部の例において、ロボットアーム124は、サンプル容器120をコンベヤ122上の他のサンプル容器120の後ろに並べて配置する。一部の例において、コンベヤ122は、カメラ126の下にサンプル容器120を運搬する。サンプルデータが生成される(406)。例えば、サンプル容器120がカメラ126の真下に配置されると、カメラ126はサンプルデータを生成する。一部の例において、サンプルデータは、1つ以上のデジタル画像および/またはデジタルビデオとして提供される。サンプルデータは正規化される(408)。一部の例において、サンプルデータを正規化するために、1つ以上の画像処理技術がサンプルデータに対して実行される。
特徴のセットが判断される(410)。例えば、本願明細書にさらに詳細に記載されたように、サンプルデータはresnet(例えばResnet−101)の複数の層を介して処理され、resnetバックボーンを段階的に通過する。resnetバックボーンの各層にて、サンプルデータ(例えばデジタル画像)内の特徴が識別され、精緻化される。1つ以上の物体と、物体のタイプ1つ以上とが識別される(412)。例えば、本願明細書にさらに詳細に記載されたように、領域提案および分類を提供するために、特徴のセットの中の各特徴が、CNN(例えばR−CNN)を介して複数ステップのプロセスにおいて処理される。一部の例において、領域提案は、CNNの1つ以上の層を介して判断された関心対象領域のセット(領域のセットとも呼ばれる)を含む。一部の例において、関心対象領域は、物体を含むかもしれないサンプルのエリアを含む。一部の実装において、領域のセットの中の各領域は、サイズを変更され、CNNの1つ以上の層(例えば最後の層)が、存在する物体のタイプを予測する。一部の実装では、各物体について、信頼度スコアと、サンプル内の物体の場所を特定する境界線とが提供される。一部の例において、信頼度スコアは、物体が実際に、分類されたタイプのものである信頼度の程度を表現する。一部の例において、境界線は、物体の全部または少なくとも一部分を囲む、サンプルのデジタル画像上の視覚的なオーバーレイとして提供される。
結果が記録される(414)。一部の例において、1つ以上のシステムに結果を記録できる。例示のシステムはERPシステムを含むことができる。例えば、サンプルは企業により販売される製品のものとすることができる。結果は、特定の製品および/または製品のバッチの品質管理分析を追跡するために、企業のERPシステムに記録できる。
汚染が存在するかどうかが判断される(416)。例えば、結果を処理して汚染が存在するかどうかを判断できる。一部の例では、サンプル内の汚染物の単一のインスタンスが、汚染が存在することを示すことができる。一部の例において、汚染が存在するかどうかは汚染物の量に基づいて判断できる。例えば、汚染物の量が閾値量を上回れば、汚染は存在すると判断される。汚染物の量が閾値量を上回らなければ、汚染は存在しないと判断される。
汚染が存在すれば、警告が発せられ(418)、サンプルは保管される(420)。例えば警告がUIの中で提供され、サンプル(例えばUID)、汚染物、および/または汚染物の量を示すことができる。一部の例において、サンプル(すなわちサンプルを収容しているサンプル容器120)は、後の検査に利用できるように、保管場所に(例えばロボットアーム124によって)移動される。汚染が存在しなければ、通知が発せられ(422)、サンプルは解放される(424)。
本明細書に記載された各実装およびすべての機能動作は、デジタル電子回路において、またはこの明細書で開示された構造およびその構造上の等価物を含むコンピュータソフトウェア、ファームウェア、もしくはハードウェアにおいて、またはそれらのうちの1つ以上の組み合わせにおいて実現され得る。各実装は、1つ以上のコンピュータプログラム製品として、すなわちデータ処理装置により実行されまたはデータ処理装置の動作を制御するようコンピュータ可読媒体上にエンコードされたコンピュータプログラム命令の1つ以上のモジュールとして実現されてもよい。コンピュータ可読媒体は、機械可読記憶デバイス、機械可読記憶基板、メモリデバイス、機械可読伝播信号をもたらす物質の構成、またはそれらのうちの1つ以上の組み合わせとされてもよい。「コンピューティングシステム」という用語は、データを処理するすべての装置、デバイス、および機械を含み、例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む。この装置は、ハードウェアに加えて、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つ以上の組み合わせなどを構成する、対象のコンピュータプログラム(例えばコード)の実行環境を作り出すコードを含んでもよい。伝播信号とは、適切な受信機装置に伝送される情報をエンコードするために生成される人工的に生成された信号(例えば機械生成された電気信号、光信号、または電磁信号)である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても知られる)は、コンパイル型またはインタープリタ型言語を含む任意の適切な形態のプログラミング言語で書かれてもよく、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境用に適した他のユニットとしてを含め、任意の適切な形態で展開されてもよい。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応するとは限らない。プログラムは、他のプログラムまたはデータを保持するファイルの一部(例えば、マークアップ言語ドキュメントに格納される1つ以上のスクリプト)、対象のプログラム専用の単一ファイル、または複数の連携ファイル(例えば1つ以上のモジュール、サブプログラム、またはコードの一部を格納する複数ファイル)に格納されてもよい。コンピュータプログラムは、1つのコンピュータ上または1つの場所に位置するかもしくは複数の場所に分散し通信ネットワークにより相互接続された複数のコンピュータ上で実行されるよう展開されてもよい。
本明細書に記載されたプロセスおよび論理フローは、入力データに作用し出力を生成することにより機能を実行する1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサにより実行されてもよい。プロセスおよび論理フローは、専用論理回路(例えばFPGA(field programmable gate array:フィールドプログラマブルゲートアレイ)またはASIC(application specific integrated circuit:特定用途向け集積回路))によっても実行でき、装置は該専用論理回路としても実装できる。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用および専用両方のマイクロプロセッサ、ならびに任意の適切な種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。一般に、プロセッサは、読み取り専用メモリもしくはランダムアクセスメモリまたは両方から命令およびデータを受け取る。コンピュータの構成要素は、命令を実行するプロセッサ、ならびに命令およびデータを記憶する1つ以上のメモリデバイスを含むことができる。一般に、コンピュータはさらに、データを記憶する1つ以上の大容量記憶デバイス(例えば磁気、光磁気ディスク、もしくは光ディスク)を含むか、またはそれからデータを受け取るよう、もしくはそれへデータを転送するよう動作可能に結合されるか、またはその両方である。なお、コンピュータはそのようなデバイスを有する必要はない。さらに、コンピュータは、別のデバイス(例えばモバイル電話、携帯情報端末(PDA:personal digital assistant)、モバイルオーディオプレーヤ、衛星航法システム(GPS:Global Positioning System)受信機)に組み込まれてもよい。コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、あらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含み、例として、の半導体メモリデバイス(例えばEPROM、EEPROM、およびフラッシュメモリデバイス)、磁気ディスク(例えば内蔵ハードディスクまたはリムーバブルディスク)、光磁気ディスク、ならびにCD ROMおよびDVD−ROMディスクなどが含まれる。プロセッサおよびメモリは、専用論理回路により補完されてもよく、またはそれに組み込まれてもよい。
ユーザとの相互作用を提供するために、情報をユーザに表示するディスプレイデバイス(例えばCRT(cathode ray tube:陰極線管)、LCD(liquid crystal display:液晶ディスプレイ)、LED(light−emitting diode:発光ダイオード)モニタ、ならびにユーザがコンピュータに入力を提供できるキーボードおよびポインティングデバイス(例えばマウスまたはトラックボール)を有するコンピュータ上で、各実装が実現されてもよい。他の種類のデバイスが、同じくユーザとの相互作用を提供するために使用されてもよい。例えば、ユーザに提供されるフィードバックは、任意の適切な形態の感覚フィードバック(例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響、発話、または触覚入力を含め、任意の適切な形態で受け取られてもよい。
各実装は、バックエンドコンポーネントを含むコンピューティングシステム(例えばデータサーバとして)、またはミドルウェアコンポーネントを含むコンピューティングシステム(例えばアプリケーションサーバ)、またはフロントエンドコンポーネントを含むコンピューティングシステム(例えばユーザが実装と相互作用するのに用いることができるグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータ)、またはそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、もしくはフロントエンドコンポーネントのうちの1つ以上の任意の適切な組み合わせにおいて実現されてもよい。システムのコンポーネントは、任意の適切な形態または媒体のデジタルデータ通信(例えば通信ネットワーク)により相互接続されてもよい。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、およびワイドエリアネットワーク(「WAN」)(例えばインターネット)を含む。
コンピューティングシステムは、クライアントおよびサーバを含んでもよい。クライアントおよびサーバは、一般に、互いに遠隔にあり、典型的には通信ネットワークを介して相互作用する。クライアントおよびサーバの関係は、個々のコンピュータ上で実行され互いにクライアント−サーバ関係を有するコンピュータプログラムにより生じる。
本明細書は多数の詳述を含むが、これらは、本開示の範囲または特許請求の範囲に対する制限として解釈されるべきではなく、むしろ特定の実装に特有の特徴の記載として解釈されるべきである。別々の実装との関連で本明細書に記載されている特定の特徴はさらに、単一の実装に組み合わせて実装されることも可能である。逆に、単一の実装との関連で記載されている様々な特徴はさらに、複数の実装において別々に、または任意の適切な一部組み合わせにおいて実装されてもよい。さらに、各特徴は、特定の組み合わせで動作するよう上述されていることもあり、当初そのように請求されていることもあるが、一部のケースでは、請求されている組み合わせの特徴1つ以上が、その組み合わせから削除されることが可能であり、請求されている組み合わせは、一部組み合わせまたは一部組み合わせの変形物を対象とし得る。
同じく、各動作は図面内に特定の順序で示されているが、これは、望ましい結果を達成するために、当該の動作が示されている特定の順序もしくは順次的な順序で実行されることまたは示されているすべての動作が実行されることを要求するものと理解されてはならない。特定の状況では、マルチタスクおよび並列処理が有利なこともある。さらに、上述の実装における様々なシステムコンポーネントの分離は、すべての実装においてそのような分離を要求するものと理解されてはならず、当然のことながら、記載されているプログラムコンポーネントおよびシステムは、一般に、単一ソフトウェア製品に統合されても、または複数のソフトウェア製品にパッケージ化されてもよい。
いくつかの実装について記載した。しかし、当然のことながら、本開示の意図および範囲から逸脱することなく、様々な変更が加えられ得る。例えば、ステップが並べ替え、追加、または削除された、上記で示されたフローの種々の形態が使用されてもよい。よって、他の実装は、添付の特許請求の範囲に記載の範囲内にある。

Claims (36)

  1. 製品のサンプル1つ以上に基づく品質管理のためのコンピュータ実装された方法であって、前記方法は、1つ以上のプロセッサによって実行され、
    前記製品のサンプルを表すデジタルデータとして生成されるサンプルデータを、前記1つ以上のプロセッサによって受け取るステップと、
    残差ネットワークの複数の層を介して前記サンプルデータを処理することによって、特徴のセットを前記1つ以上のプロセッサによって提供するステップであって、前記残差ネットワークの第1の層は前記サンプルデータの特徴1つ以上を識別し、前記残差ネットワークの第2の層は前記第1の層の前記1つ以上の特徴を受け取って追加の特徴1つ以上を識別する、前記提供するステップと、
    畳み込みニューラルネットワークを使用して前記製品の前記サンプルの領域のセットを識別するために、前記特徴のセットを前記畳み込みニューラルネットワークに入力し前記1つ以上のプロセッサによって処理するステップと、
    前記識別された領域のセットに基づいて、前記製品の前記サンプルの前記デジタルデータ表現の分解能を、前記1つ以上のプロセッサによって変更するステップであって、前記デジタルデータ表現を重なり合う複数の部分へと分割することを含む、変更するステップと、
    前記領域のセットの中の領域中の物体少なくとも1つを識別して前記少なくとも1つの物体のタイプを判断するために、前記1つ以上のプロセッサによって前記特徴のセットを処理するステップと、
    前記製品の前記サンプル内の汚染を示す警告を、前記少なくとも1つの物体の前記タイプに少なくとも部分的に基づいて、前記1つ以上のプロセッサによって選択的に発するステップと、
    を含む方法。
  2. 前記残差ネットワークは、Resnet−101である、請求項1に記載の方法。
  3. 前記畳み込みニューラルネットワークは、領域ベース畳み込みニューラルネットワークである、請求項に記載の方法。
  4. 前記方法はさらに、ユーザインターフェース内に前記サンプルの視覚的描写を提供するステップを含み、前記視覚的描写は、前記サンプルにおいて識別された物体を示す1つ以上のグラフィックオーバーレイを含む、請求項1に記載の方法。
  5. 前記方法はさらに、前記サンプルを収容しているサンプル容器を、カメラに対して相対的な或るポジションに、ロボットアームを使用して移動させるステップを含み、前記カメラは、前記サンプルデータを生成する、請求項1に記載の方法。
  6. 前記ポジションは、前記サンプル容器内の前記サンプルの撮像のために前記カメラへと前記サンプル容器を運搬するコンベヤ上に位置する、請求項に記載の方法。
  7. 出力が、提供されて、前記サンプル内の前記少なくとも1つの物体を表すワンホットエンコードされたベクトルと、信頼度スコアとを含み、前記信頼度スコアは、前記少なくとも1つの物体が分類された前記タイプのものであることの信頼度の程度を表現する、請求項1に記載の方法。
  8. 前記サンプルデータは、前記サンプルのデジタル画像1つ以上を含む、請求項1に記載の方法。
  9. 前記特徴のセットは、前記領域の体積、および/または前記領域の面積、および/または前記領域の色を識別するために処理される、請求項1に記載の方法。
  10. 前記製品は、生物学的物質、および/または医薬製品、および/または食料品を含む、請求項1に記載の方法。
  11. 前記識別された領域は、水分のコロニーを含む、請求項1に記載の方法。
  12. 前記識別された物体は、バクテリアを含む、請求項1に記載の方法。
  13. 1つ以上のプロセッサに結合され、命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、製品のサンプル1つ以上に基づく品質管理のための動作を実行させ、前記動作は、
    前記製品のサンプルを表すデジタルデータとして生成されるサンプルデータを、前記1つ以上のプロセッサによって受け取ることと、
    残差ネットワークの複数の層を介して前記サンプルデータを処理することによって、特徴のセットを前記1つ以上のプロセッサによって提供することであって、前記残差ネットワークの第1の層は前記サンプルデータの特徴1つ以上を識別し、前記残差ネットワークの第2の層は前記第1の層の前記1つ以上の特徴を受け取って追加の特徴1つ以上を識別する、前記提供することと、
    畳み込みニューラルネットワークを使用して前記製品の前記サンプルの領域のセットを識別するために、前記特徴のセットを前記畳み込みニューラルネットワークに入力し前記1つ以上のプロセッサによって処理することと、
    前記識別された領域のセットに基づいて、前記製品の前記サンプルの前記デジタルデータ表現の分解能を、前記1つ以上のプロセッサによって変更することであって、前記デジタルデータ表現を重なり合う複数の部分へと分割することを含む、変更することと、
    前記領域のセットの中の領域中の物体少なくとも1つを識別して前記少なくとも1つの物体のタイプを判断するために、前記1つ以上のプロセッサによって前記特徴のセットを処理することと、
    前記製品の前記サンプル内の汚染を示す警告を、前記少なくとも1つの物体の前記タイプに少なくとも部分的に基づいて、前記1つ以上のプロセッサによって選択的に発することと、
    を含む、コンピュータ可読記憶媒体。
  14. 前記残差ネットワークは、Resnet−101である、請求項13に記載のコンピュータ可読記憶媒体。
  15. 前記畳み込みニューラルネットワークは、領域ベース畳み込みニューラルネットワークである、請求項13に記載のコンピュータ可読記憶媒体。
  16. 前記動作はさらに、ユーザインターフェース内に前記サンプルの視覚的描写を提供することを含み、前記視覚的描写は、前記サンプルにおいて識別された物体を示す1つ以上のグラフィックオーバーレイを含む、請求項13に記載のコンピュータ可読記憶媒体。
  17. 前記動作はさらに、前記サンプルを収容しているサンプル容器を、カメラに対して相対的な或るポジションに、ロボットアームを使用して移動させることを含み、前記カメラは、前記サンプルデータを生成する、請求項13に記載のコンピュータ可読記憶媒体。
  18. 前記ポジションは、前記サンプル容器内の前記サンプルの撮像のために前記カメラへと前記サンプル容器を運搬するコンベヤ上に位置する、請求項17に記載のコンピュータ可読記憶媒体。
  19. 出力が、提供されて、前記サンプル内の前記少なくとも1つの物体を表すワンホットエンコードされたベクトルと、信頼度スコアとを含み、前記信頼度スコアは、前記少なくとも1つの物体が分類された前記タイプのものであることの信頼度の程度を表現する、請求項13に記載のコンピュータ可読記憶媒体。
  20. 前記サンプルデータは、前記サンプルのデジタル画像1つ以上を含む、請求項13に記載のコンピュータ可読記憶媒体。
  21. 前記特徴のセットは、前記領域の体積、および/または前記領域の面積、および/または前記領域の色を識別するために処理される、請求項13に記載のコンピュータ可読記憶媒体。
  22. 前記製品は、生物学的物質、および/または医薬製品、および/または食料品を含む、請求項13に記載のコンピュータ可読記憶媒体。
  23. 前記識別された領域は、水分のコロニーを含む、請求項13に記載のコンピュータ可読記憶媒体。
  24. 前記識別された物体は、バクテリアを含む、請求項13に記載のコンピュータ可読記憶媒体。
  25. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサに結合され、命令が記憶されているコンピュータ可読記憶デバイスと、
    を含むシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、製品のサンプル1つ以上に基づく品質管理のための動作を実行させ、前記動作は、
    前記製品のサンプルを表すデジタルデータとして生成されるサンプルデータを、前記1つ以上のプロセッサによって受け取ることと、
    残差ネットワークの複数の層を介して前記サンプルデータを処理することによって、特徴のセットを前記1つ以上のプロセッサによって提供することであって、前記残差ネットワークの第1の層は前記サンプルデータの特徴1つ以上を識別し、前記残差ネットワークの第2の層は前記第1の層の前記1つ以上の特徴を受け取って追加の特徴1つ以上を識別する、前記提供することと、
    畳み込みニューラルネットワークを使用して前記製品の前記サンプルの領域のセットを識別するために、前記特徴のセットを前記畳み込みニューラルネットワークに入力し前記1つ以上のプロセッサによって処理することと、
    前記識別された領域のセットに基づいて、前記製品の前記サンプルの前記デジタルデータ表現の分解能を、前記1つ以上のプロセッサによって変更することであって、前記デジタルデータ表現を重なり合う複数の部分へと分割することを含む、変更することと、
    前記領域のセットの中の領域中の物体少なくとも1つを識別して前記少なくとも1つの物体のタイプを判断するために、前記1つ以上のプロセッサによって前記特徴のセットを処理することと、
    前記製品の前記サンプル内の汚染を示す警告を、前記少なくとも1つの物体の前記タイプに少なくとも部分的に基づいて、前記1つ以上のプロセッサによって選択的に発することと、
    を含む、システム。
  26. 前記残差ネットワークは、Resnet−101である、請求項25に記載のシステム。
  27. 前記畳み込みニューラルネットワークは、領域ベース畳み込みニューラルネットワークである、請求項25に記載のシステム。
  28. 前記動作はさらに、ユーザインターフェース内に前記サンプルの視覚的描写を提供することを含み、前記視覚的描写は、前記サンプルにおいて識別された物体を示す1つ以上のグラフィックオーバーレイを含む、請求項25に記載のシステム。
  29. 前記動作はさらに、前記サンプルを収容しているサンプル容器を、カメラに対して相対的な或るポジションに、ロボットアームを使用して移動させることを含み、前記カメラは、前記サンプルデータを生成する、請求項25に記載のシステム。
  30. 前記ポジションは、前記サンプル容器内の前記サンプルの撮像のために前記カメラへと前記サンプル容器を運搬するコンベヤ上に位置する、請求項29に記載のシステム。
  31. 出力が、提供されて、前記サンプル内の前記少なくとも1つの物体を表すワンホットエンコードされたベクトルと、信頼度スコアとを含み、前記信頼度スコアは、前記少なくとも1つの物体が分類された前記タイプのものであることの信頼度の程度を表現する、請求項25に記載のシステム。
  32. 前記サンプルデータは、前記サンプルのデジタル画像1つ以上を含む、請求項25に記載のシステム。
  33. 前記特徴のセットは、前記領域の体積、および/または前記領域の面積、および/または前記領域の色を識別するために処理される、請求項25に記載のシステム。
  34. 前記製品は、生物学的物質、および/または医薬製品、および/または食料品を含む、請求項25に記載のシステム。
  35. 前記識別された領域は、水分のコロニーを含む、請求項25に記載のシステム。
  36. 前記識別された物体は、バクテリアを含む、請求項25に記載のシステム。
JP2019013898A 2018-09-06 2019-01-30 深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理 Active JP6865776B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18193035.5A EP3620984B1 (en) 2018-09-06 2018-09-06 Digital quality control using computer visioning with deep learning
EP18193035.5 2018-09-06

Publications (2)

Publication Number Publication Date
JP2020042756A JP2020042756A (ja) 2020-03-19
JP6865776B2 true JP6865776B2 (ja) 2021-04-28

Family

ID=63524210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013898A Active JP6865776B2 (ja) 2018-09-06 2019-01-30 深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理

Country Status (5)

Country Link
US (2) US11373287B2 (ja)
EP (1) EP3620984B1 (ja)
JP (1) JP6865776B2 (ja)
CN (1) CN110879955B (ja)
SG (1) SG10201900591SA (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3620984B1 (en) * 2018-09-06 2024-04-10 Accenture Global Solutions Limited Digital quality control using computer visioning with deep learning
CN111723204B (zh) * 2020-06-15 2021-04-02 龙马智芯(珠海横琴)科技有限公司 语音质检区域的校正方法、装置、校正设备及存储介质
US20220084306A1 (en) * 2020-07-14 2022-03-17 Kalpit Jain Method and system of guiding a user on a graphical interface with computer vision
CH718327A1 (it) * 2021-02-05 2022-08-15 Printplast Machinery Sagl Metodo per l'identificazione dello stato operativo di un macchinario industriale e delle attività che vi si svolgono.
CN113418889B (zh) * 2021-05-17 2023-05-26 中国海洋大学 一种基于深度学习的干菜水分含量和菌落总数的实时检测方法
JP7491274B2 (ja) 2021-07-29 2024-05-28 トヨタ自動車株式会社 検査装置および検査方法
US11928756B2 (en) * 2021-09-22 2024-03-12 Google Llc Geographic augmented reality design for low accuracy scenarios

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2793808B1 (fr) 1999-05-20 2003-09-19 Biomerieux Sa Procede d'analyse de la predisposition genetique d'un patient a au moins une maladie
FR2793809B1 (fr) 1999-05-20 2006-07-28 Biomerieux Sa Procede d'analyse de la predisposition genetique d'un patient a au moins une maladie et amplification adaptee a un tel procede
FR2801903B1 (fr) 1999-12-06 2004-01-30 Biomerieux Sa Nouveaux substrats enzymatiques pour la detection de pseudomonas aeruginosa, compositions les contenant et procede de detection de cette espece
US8512975B2 (en) 2008-07-24 2013-08-20 Biomerieux, Inc. Method for detection and characterization of a microorganism in a sample using time dependent spectroscopic measurements
CN101477630A (zh) * 2009-02-17 2009-07-08 吴俊� 智能化水处理微生物机器视觉辨识系统和方法
US8340435B2 (en) * 2009-06-11 2012-12-25 California Institute Of Technology Method and system for object recognition search
EP2586873B1 (en) * 2010-06-23 2015-11-18 Kabushiki Kaisha N-Tech Methods and devices for detecting a microbial colony
FR2962445B1 (fr) 2010-07-08 2013-06-28 Biomerieux Sa Procede de detection et d'identification directe d'un microorganisme dans un echantillon biologique dilue dans un bouillon d'enrichissement
KR101989202B1 (ko) 2011-03-04 2019-07-05 엘비티 이노베이션스 리미티드 미생물 성장을 분석하는 방법 및 소프트웨어
EP2520923A1 (en) 2011-05-06 2012-11-07 bioMérieux Bio-imaging method and system
CN102564964B (zh) * 2011-12-29 2014-07-30 南京林业大学 基于光谱图像的肉品品质可视化非接触检测方法
FR2986237A1 (fr) 2012-01-27 2013-08-02 Advencis Dispositif de detection rapide de micro-organismes
US9470510B2 (en) 2012-03-29 2016-10-18 Biomerieux, Inc. Systems and methods for detecting fallen containers suitable for apparatus for automated evaluation of microorganism growth in test samples
CN103177243B (zh) * 2013-03-15 2016-04-13 浙江大学 一种海洋微生物的实时监测方法
US9463132B2 (en) * 2013-03-15 2016-10-11 John Castle Simmons Vision-based diagnosis and treatment
FR3006692B1 (fr) 2013-06-11 2016-05-06 Biomerieux Sa Dispositif, systeme et procede de detection permettant de detecter la presence d'un micro-organisme dans un echantillon a l'interieur d'un contenant
FR3019556A1 (fr) 2014-04-07 2015-10-09 Advencis Dispositif d’incubation et de detection
CN104125419B (zh) * 2014-06-24 2017-08-15 北京理工大学 一种基于cmos图像传感器的自适应分辨率实现方法
FR3022916B1 (fr) 2014-06-30 2018-04-06 Biomerieux Procede de detection d'une presence ou d'une absence de particules biologiques.
US9914213B2 (en) * 2016-03-03 2018-03-13 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10281386B2 (en) * 2016-05-11 2019-05-07 Bonraybio Co., Ltd. Automated testing apparatus
US10706533B2 (en) * 2016-05-13 2020-07-07 National Jewish Health Systems and methods for automatic detection and quantification of pathology using dynamic feature classification
JP6937325B2 (ja) 2016-05-27 2021-09-22 ビオメリュー・インコーポレイテッド 標本容器内の泡の検出のための方法および装置
CN105973858B (zh) * 2016-06-13 2019-08-16 宜春学院 一种中药品质自动检测系统
CN106127226B (zh) * 2016-06-14 2019-09-03 河南工业大学 粮粒和粮粒测试样本的柔性粮食品质检测方法
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US20180039853A1 (en) 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
JP6830593B2 (ja) 2016-09-02 2021-02-17 国立大学法人東京農工大学 微生物の判別方法
CN110073404B (zh) * 2016-10-21 2023-03-21 南坦生物组学有限责任公司 数字组织病理学和显微解剖
JP2019537157A (ja) 2016-12-01 2019-12-19 バークレー ライツ,インコーポレイテッド マイクロ流体デバイスによる微小物体の自動検出及び再配置
CN106780612B (zh) * 2016-12-29 2019-09-17 浙江大华技术股份有限公司 一种图像中的物体检测方法及装置
US10713540B2 (en) 2017-03-07 2020-07-14 Board Of Trustees Of Michigan State University Deep learning system for recognizing pills in images
US10271008B2 (en) * 2017-04-11 2019-04-23 Advanced Micro Devices, Inc. Enhanced resolution video and security via machine learning
CN107358596B (zh) * 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统
US10902577B2 (en) * 2017-06-19 2021-01-26 Apeel Technology, Inc. System and method for hyperspectral image processing to identify object
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
CN107563446B (zh) * 2017-09-05 2020-08-18 华中科技大学 一种微操作系统目标检测方法
CN108090501B (zh) 2017-11-24 2020-08-18 华南农业大学 基于平皿实验和深度学习的抑菌程度识别方法
CN108346058A (zh) * 2018-01-16 2018-07-31 湖南省中医药研究院 一种中药饮片生产多维动态质量监控系统及方法
EP3591572B1 (en) * 2018-07-06 2021-09-01 Tata Consultancy Services Limited Method and system for automatic chromosome classification
CN108921117A (zh) * 2018-07-11 2018-11-30 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
US10527699B1 (en) * 2018-08-01 2020-01-07 The Board Of Trustees Of The Leland Stanford Junior University Unsupervised deep learning for multi-channel MRI model estimation
US11430084B2 (en) * 2018-09-05 2022-08-30 Toyota Research Institute, Inc. Systems and methods for saliency-based sampling layer for neural networks
EP3620984B1 (en) * 2018-09-06 2024-04-10 Accenture Global Solutions Limited Digital quality control using computer visioning with deep learning
CN111340879B (zh) * 2018-12-17 2023-09-01 台达电子工业股份有限公司 基于上采样的影像定位系统及其方法

Also Published As

Publication number Publication date
EP3620984A1 (en) 2020-03-11
CN110879955A (zh) 2020-03-13
JP2020042756A (ja) 2020-03-19
SG10201900591SA (en) 2020-04-29
US20200082522A1 (en) 2020-03-12
US20220292668A1 (en) 2022-09-15
US11373287B2 (en) 2022-06-28
EP3620984B1 (en) 2024-04-10
CN110879955B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
JP6865776B2 (ja) 深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理
US20170255830A1 (en) Method, apparatus, and system for identifying objects in video images and displaying information of same
JP6445127B2 (ja) 貨物の検査方法およびそのシステム
US20230162347A1 (en) System and method for set up of production line inspection
Eppel et al. Computer vision for recognition of materials and vessels in chemistry lab settings and the vector-labpics data set
JP2023534261A (ja) ジェスチャの検出及び分析に基づくバーコードスキャン
Lorenzo et al. Capformer: Pedestrian crossing action prediction using transformer
Song et al. Pixel-level crack detection in images using SegNet
CA3062788C (en) Detecting font size in a digital image
US11865740B2 (en) Systematic disposal, classification and dynamic procurement of recyclable resin
Stavropoulos et al. Robust and secure quality monitoring for welding through platform-as-a-service: A resistance and submerged arc welding study
Canedo et al. A deep learning-based dirt detection computer vision system for floor-cleaning robots with improved data collection
Jarkas et al. ResNet and Yolov5-enabled non-invasive meat identification for high-accuracy box label verification
Hong et al. Hyperparameter optimization for convolutional neural network by opposite-based particle swarm optimization and an empirical study of photomask defect classification
Eppel Hierarchical semantic segmentation using modular convolutional neural networks
Egodawela et al. A Deep Learning Approach for Surface Crack Classification and Segmentation in Unmanned Aerial Vehicle Assisted Infrastructure Inspections
Tiong et al. Machine vision-based detections of transparent chemical vessels toward the safe automation of material synthesis
US11837000B1 (en) OCR using 3-dimensional interpolation
Nguyen et al. Vision-Based System for Black Rubber Roller Surface Inspection
Ricolfe-Viala et al. Detection of Bad Stapled Nails in Wooden Packages
US20230154064A1 (en) Transforming non-realistic to realistic virtual environments
They An investigation on smartphone based machine vision system for inspection
US20230030191A1 (en) Apparatuses, computer-implemented methods, and computer program products for improved generation of object identification data
WO2022244075A1 (ja) 検査システム
US20230031937A1 (en) Recycling system with discrete conveyor bins for improved accuracy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190405

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200608

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210406

R150 Certificate of patent or registration of utility model

Ref document number: 6865776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150