JP2020187735A - 表面欠陥識別方法及び装置 - Google Patents

表面欠陥識別方法及び装置 Download PDF

Info

Publication number
JP2020187735A
JP2020187735A JP2020055855A JP2020055855A JP2020187735A JP 2020187735 A JP2020187735 A JP 2020187735A JP 2020055855 A JP2020055855 A JP 2020055855A JP 2020055855 A JP2020055855 A JP 2020055855A JP 2020187735 A JP2020187735 A JP 2020187735A
Authority
JP
Japan
Prior art keywords
image
defect
neural network
acquired
acquired image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020055855A
Other languages
English (en)
Inventor
シャトン・トマ
Chaton Thomas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2020187735A publication Critical patent/JP2020187735A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

【課題】材料表面の欠陥の効率的な識別方法を提供する。【解決手段】方法は、ニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成しS101、対象材料表面の画像を取得しS102、取得された画像をニューラルネットワークに入力して取得された画像の欠陥低減バージョンを生成しS103、取得された画像の生成された欠陥低減バージョンを取得された画像と比較して差異を識別しS104、識別された差異の位置で対象材料表面の欠陥を識別するS105。【選択図】図1

Description

本発明は、材料表面欠陥識別の分野に存する。特に、本発明は、欠陥検出及び識別を自動化するための機械学習アルゴリズムの使用に関する。
材料製造会社は、かなり厳しい基準の下で制約されている。より複雑なコンポーネントを常に生産しながら可能な最高品質の材料を提供するために、製造業者は自社製品を効率的にコントロールする必要がある。そのために、非破壊試験(NDT)が用いられてきた。NDTは、材料、コンポーネント、又はシステムの特性を損傷をもたらさずに評価するために科学及び技術産業で使用される広範な解析手法群をカバーしている。しかしながら、自動化された生産レーンにおいて、検査プロセスはボトルネックであり、ゆえに生産コストを増加させる。
製造業者は、製品を画像化することにより大量のデータを捕捉するが、それらがラベル付けされていないとき、検査プロセスにおいて人間の入力が必要とされる。
材料表面検査を自動化する既存の手法は、2つの方法にカテゴリ分けできる。
‐ 第1には、人間によりラベル付けされた画像の大きいデータセットを作成することであり、これは非常に骨が折れ、注釈者の専門知識により制限される。
‐ 第2には、手作りのアルゴリズムを作成することである。この手法は、ラベル付けされていないデータセット上でコンピュータビジョン法を適用し、小さいラベル付けされたデータセット上でアルゴリズムを評価する。このような手法は、効果的なアルゴリズムを設計することの困難さに悩まされる。
実施形態は、材料表面の画像を処理して画像化された材料表面の欠陥を識別する方法を含み、該方法は、ニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、対象材料表面の画像を取得するステップと、取得された画像をニューラルネットワークに入力して取得された画像の欠陥低減バージョンを生成するステップと、取得された画像の生成された欠陥低減バージョンを取得された画像と比較して差異を識別するステップと、識別された差異の位置で対象材料表面の欠陥を識別するステップとを含む。
実施形態は、自動化された欠陥検査メカニズムを提供する。実施形態は、自動的に訓練されたニューラルネットワークを利用して対象材料表面の画像の欠陥なし又は欠陥低減バージョンを生成し、これは、実際の画像と比較すると欠陥の位置を明らかにする。このようにして、ラベル付けされた訓練データのない状態でAIベースの欠陥識別を行うことができる。
実施形態は、教師なし人工知能を使用し、これは、モデル(すなわち、ニューラルネットワーク及び画像比較ステップ)が自身で学習して欠陥を検出することを意味する。実施形態は、欠陥なし又はほぼ欠陥なしのサンプル画像を利用してニューラルネットワークを訓練し、画像からかき傷、へこみなどの欠陥を取り除き、それにより、欠陥が見える元の画像との比較により、欠陥を検出することができる。訓練は自動化されるため、システムを訓練するコストは既存の手法と比較して大幅に低減される。さらに、検出される欠陥は、人間のトレーナーの知識により制限されない。
画像の欠陥低減バージョンは、欠陥なしでもよい。訓練は、ニューラルネットワークを訓練して画像の欠陥なしバージョンを生成することでもよい。低減は、画像の取得されたバージョンに相対的であり、それにより、ニューラルネットワークは入力画像内の欠陥を低減するように訓練される。
ニューラルネットワークは、インペインタニューラルネットワーク又はオートエンコーダでもよい。ニューラルネットワークは、ジェネレータニューラルネットワーク、生成ニューラルネットワーク、又は生成するニューラルネットワークでもよく、それにより、入力データセットの制約下でデータを生成するニューラルネットワーク又はモデルが存在することが意図され、換言すれば、生成されたデータは入力データセットの新しいバージョンである。
比較は、例えば、残差(2つのバージョン間の差異のビットマップ又は何らかの他の表現)を作成して欠陥を発見するための視覚的比較である。例えば、それは、いくつかの局所的なメトリックを用いて、又は予め訓練されたニューラル活性化に基づいて、又はこれらの手法の何らかの組み合わせとして、画素ごと、ブロックごとに行われてもよい。
実施形態は、材料表面が製造される材料又はコンポーネントの表面である製造分野での実現に適する。実施形態はまた、材料表面が組織表面などのヒト又は非ヒト(特に爬虫類、鳥、動物を含む)の身体の表面、組織又は電気的活動のスキャンを含む内臓の画像である医療分野での実現にも適する。実施形態はまた、(ドローンから画像化された)風力タービンのブレード、(ドローンから画像化された)橋、又は(車両取り付けカメラで画像化された)道路表面などの構造物における欠陥を識別するためのインフラストラクチャ検査の分野での実現にも適する。
欠陥は、背景(表される背景が規則的なテクスチャ又は一連の構造である例を含む)から目立つ何らかであり得、これは、隆起/沈下(厚さの非一貫性を示し得る)、脱色を含んでもよい。欠陥は、動物などの特定の形状を含まないように構成されてもよい。
任意で、各訓練画像は、複数の画像部分としてニューラルネットワークに入力され、各画像部分は、訓練画像の空間的細分化(subdivision)を表し、本方法は、画像タイルの欠陥低減バージョンを訓練画像の欠陥低減バージョンに集約するステップをさらに含み、取得された画像は、複数の画像タイルとして生成ニューラルネットワークに入力され、各画像タイルは、取得された画像の空間的細分化を表し、本方法は、画像タイルの欠陥低減バージョンを集約して、取得された画像の欠陥低減バージョンを得るステップをさらに含む。
有利には、タイルベースの訓練手順は、ニューラルネットワークを訓練するためのより多数のサンプルを提供し、訓練データ中に存在するあらゆる欠陥の影響を低減する。さらに、処理に対するタイルベースのアプローチは計算的に効率的であり、欠陥の位置特定において結果的な利点を有する。タイルサイズは、ニューラルネットワークの訓練及び/又はニューラルネットワークによる取得された画像の欠陥低減バージョンの生成がGPUにより実行可能であることを確実にするように選択されてもよい。GPUは、一実施形態の方法を実行する特定のコンピュータ又はコンピュータシステムの一部でもよい。
任意で、比較は、画像の欠陥低減バージョンと取得された画像との間で差異が識別された1つ以上の位置を特定することと、1つ以上の位置を出力することとを含む。
ユーザは、画像化された材料表面上に欠陥があるか否か、又はいくつの欠陥があるかを単に知ることに関心がある可能性がある。一方、欠陥の位置は特に関心がある可能性があり、例えば、それにより、材料表面自体で欠陥をチェックすることができる。位置を出力することは、取得された画像を参照して出力することでもよく、あるいは例えば照明により材料表面自体に直接出力することでもよい。
実施形態は、取得された画像から、再生成された取得された画像と取得された画像との間で差異が識別された1つ以上の位置のうちの位置又は各位置と境を接する画像部分を抽出するステップと、上記又は各画像部分を、材料表面欠陥を示す入力画像部分を処理すること(上記又は各画像部分をニューラルネットワークで処理すること)により材料表面欠陥のエンコードされた特徴を出力するように訓練されたエンコーディングニューラルネットワークに入力するステップと、取得された画像から抽出された上記又は各画像部分を、それぞれの出力されたエンコードされた特徴に基づき、ラベルと共に出力するステップとをさらに含んでもよい。
有利には、そのような実施形態はさらなるニューラルネットワークを利用し、このネットワークは、欠陥を特徴付け、したがってラベル付けするように訓練される。これは、例えば重大度を評価する目的で、存在する欠陥の性質を要約したいユーザにとって特に関心がある可能性がある。例えば、ラベルは、欠陥を記述する語又は用語などの意味ラベルでもよい。さらなるニューラルネットワークは予め訓練されてもよく、あるいは画像部分にラベルを割り当てる処理の間に訓練されてもよい。
出力は、画像部分のラベル付けされたバージョンを記憶装置に出力すること、若しくは画像部分のラベル付けされたバージョンをユーザによる観察のために表示ユニットに出力すること、又は上記の双方でもよい。
任意で、1つ以上の位置は、取得された画像の欠陥低減バージョンと取得された画像との間で差異が識別された複数の位置であり、取得された画像から抽出された複数の画像部分があり、各々がそれぞれの位置と境を接し、複数の画像部分は、過去に取得された画像及びそれぞれの欠陥低減バージョンから差異が識別された位置と境を接する画像部分の記憶された集合(population)に追加され、画像部分の集合の各メンバは、画像部分をエンコーディングニューラルネットワークで処理することにより得られたそれぞれのエンコードされた特徴と共に記憶され、取得された画像から抽出された画像部分のエンコードされた特徴に対してクラスタリングアルゴリズムが実行されて、該画像部分をグループに分割し、取得された画像から抽出された複数の画像部分の各々は、それぞれのグループのメンバであり、取得された画像から抽出された複数の画像部分の各々に対して出力されるラベルは、画像部分のエンコードされた特徴の、過去に取得された画像からの記憶された画像部分のエンコードされた特徴との比較に基づいて、過去に取得された画像から抽出された記憶された画像部分に割り当てられたラベルから選択される。
有利には、クラスタリングアルゴリズムは、類似の特性を有する欠陥領域をグループ化し、ゆえに、ユーザはグループ内の欠陥を考慮し、それらに効率的な方法でラベル付けすることができる。
任意で、クラスタリングアルゴリズムは、過去に取得された画像から抽出された記憶された画像部分と、取得された画像から抽出された画像部分とに対して作用し(過去に取得された画像はラベルを既に割り当てられている)、同じグループ内の(現在)取得された画像から抽出された各画像部分に対して出力されるラベルは、共通してグループ化された(すなわち、現在取得されている画像からの画像部分でグループ化された)画像部分の中からの(最も一般的な)ラベルである。
任意で、同じグループ内の画像部分に割り当てられるラベルは、ユーザインターフェースを介してユーザによりそれぞれの画像部分に前に割り当てられたラベルである。
有利には、そのような実施形態は、アルゴリズムが過去のユーザ活動から学習することを可能にする。
具体的には、実施形態は、ユーザインターフェースを介して、同じグループ内の上記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力することが、画像部分に対する複数の候補ラベルを出力することであり、候補ラベルの各々はグループ内の画像部分に割り当てられたラベルから選択されることを含むことを含んでもよい。本方法は、ユーザインターフェースを介して、出力された候補ラベルの中からのラベルの選択を受け入れ、選択されたラベルを画像部分に割り当てることをさらに含んでもよい。
有利には、このような実施形態は、欠陥、又は欠陥を示す画像領域にラベル付けするための簡便なメカニズムを提供する。ラベル付けされた画像領域は、画像領域が抽出された取得された画像を識別するか又はそれに関連するユーザクエリに応答して出力されてもよい。
任意で、複数の画像部分の各々に対して出力されるラベル、又は複数の画像部分の各々に対して出力される候補ラベルのうち1つは、画像部分へのラベルの過去の割り当てに基づき機械学習アルゴリズムにより選択された推奨されたラベルである。
有利には、このような実施形態は、アクティブ学習アルゴリズムなどの機械学習アルゴリズムを利用して、過去のユーザ入力から学習し、欠陥にラベル付けする処理を完全に又は部分的に自動化する。
任意で、訓練は、敵対的生成ネットワークの一部としてニューラルネットワークモデルを訓練して、生成された画像データが訓練データセットに属するディスクリミネータネットワークを満たす画像データを生成することと、ディスクリミネータネットワークを訓練して、訓練データセットに属する画像データと生成された画像データとを区別することとを含む。
有利には、敵対的生成ネットワークは、手動介入がない状態でジェネレータニューラルネットワークを訓練するメカニズムを提供する。
ニューラルネットワークは、インペインタ、ジェネレータニューラルネットワーク、畳み込みノイズ除去ニューラルネットワーク、又はこれらの何らかの組み合わせでもよい。
実施形態は、プロセッサハードウェア及びメモリハードウェアを含むコンピューティングシステムにより実行されたときにプロセッサハードウェアに方法を実行させるコンピュータプログラムであって、方法は、ニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、対象材料表面の画像を取得するステップと、取得された画像をニューラルネットワークに入力して取得された画像の欠陥低減バージョンを生成するステップと、取得された画像の生成された欠陥低減バージョンを取得された画像と比較して差異を識別するステップと、識別された差異の位置で対象材料表面の欠陥を識別するステップと、を含む、コンピュータプログラムを含んでもよい。
実施形態は、プロセッサハードウェア及びメモリハードウェアを含む装置であって、メモリハードウェアは、プロセッサハードウェアにより実行されたときにプロセッサハードウェアに方法を実行させる処理命令を記憶し、方法は、第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、対象材料表面の画像を取得するステップと、取得された画像を第1のニューラルネットワークに入力して取得された画像の欠陥低減バージョンを生成するステップと、取得された画像の生成された欠陥低減バージョンを取得された画像と比較して差異を識別するステップと、識別された差異の位置で対象材料表面の欠陥を識別するステップと、を含む、装置をさらに含んでもよい。
任意で、プロセッサハードウェアはGPUを含む。
実施形態は、とりわけ、2つの顕著な特徴を有する。第1に、訓練フェーズが自動的であり、すなわち、人間の入力又は介入なしで実行される。第2に、実施形態は、材料表面を検査すると同時に一貫したデータセットを作成して欠陥のさらなる局所化、検出、及び/又は分類をサポートするための安定した手法を提供する。
次に、以下の図面を参照して純粋に例示として実施形態を説明する。
一実施形態の方法を示す。 訓練を実現するためのニューラルネットワークアーキテクチャを示す。 図3Aは画像の取得されたバージョンを示し、図3Bは訓練されたインペインタの出力を示し、図3Cはクリーニングされた画像を示し、図3Dは出力を示す。 図4Aは取得された画像を示し、図4Bはその生成された欠陥低減バージョンを示し、図4Cは出力を示す。 訓練処理及び推論処理における画像を示す。 畳み込みノイズ除去人工ニューラルネットワークを示す。 畳み込みノイズ除去人工ニューラルネットワークの機能性を示す。 一実施形態の方法における一連のステップを示すフローチャートである。 実施形態の一部を形成する方法ステップを示す。 実施形態の一部を形成する方法ステップを示す。 画像の断片化及び集約を示す。 図11A及び図11Bは同じ画像の欠陥ありバージョン及び欠陥低減バージョンを示す。 訓練フェーズにおける処理の間の画像を示す。 推論フェーズにおける処理の間の画像を示す。 一実施形態の出力を示す。 図14Aは取得された画像から抽出された欠陥を示し、図14Bは取得された画像から抽出された背景を示す。 一実施形態の装置を示す。
図1は、一実施形態の方法を示す。実施形態の説明は、例として、製造環境の広い視点及びその分野に典型的に関連づけられる欠陥のタイプから記載される。実施形態は、そのような実装に限定されず、表面欠陥の識別を必要とする任意の技術的環境に適用されてよい。例えば、実施形態は、「材料表面(material surface)」上の表面の非標準的な何らかを識別することを望む任意の技術分野に適用されてよい。例えば、材料表面は、ヒト組織、植物の表面、織物、検査に対するインフラストラクチャ(ドローンを使用するタービンブレード又は橋、車両取り付けカメラを使用する道路表面)を含むことができる。
ステップS101において、ニューラルネットワークの自動化された訓練が実行される。S101は、ニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減(reduced-defect)バージョンを生成することを含んでもよい。この文脈における自動は、教師なしである(unsupervised)、すなわち、訓練がニューラルネットワークからの出力の手動補正のない状態で実行されることを意味するとみなされる。
図2は、ステップS101を実行するためのニューラルネットワークアーキテクチャを概略的に示す。S101は、例えば、敵対的生成(generative adversarial)ニューラルネットワークにより実行されてもよく、これにおいて、ニューラルネットワーク201は、ディスクリミネータ(discriminator)ニューラルネットワーク202による実データとの弁別のためのデータを生成する。ニューラルネットワーク201の目標は、ディスクリミネータニューラルネットワーク202が実データと弁別できないデータを生成することである。ディスクリミネータニューラルネットワーク202からの出力(ジェネレータ(generator)データが実データであるか否か)は、例えば、逆誤差伝搬(backwards error propagation)によりニューラルネットワーク201を訓練する。ニューラルネットワーク201は、ディスクリミネータニューラルネットワーク202が実データと区別できないデータを生成するように訓練される。一方、ディスクリミネータニューラルネットワーク202も訓練されるが、生成されたデータと実データとを弁別するように訓練される。例えば、ディスクリミネータニューラルネットワーク202は、それが実データと生成されたデータとを成功裏に弁別したか否かについて通知され、例えば逆誤差伝搬により、成功裏に弁別するように訓練される。したがって、人間又は手動の介入なしで、ニューラルネットワーク201及びディスクリミネータニューラルネットワーク202は互いに訓練する。訓練データがラベル付けされる必要はなく、したがって、人間の専門家からの入力の必要を排除する。
実データは材料表面の画像でもよい。任意で、実データは、n個の領域に(例えば、グリッドで)分割されたときに閾値より高い比率の欠陥なしの(defect-free)領域を有する材料表面の画像でもよい。閾値比率は、例えば、0.99、0.95、0.90でもよく、あるいは0.9より大きく1以下の範囲でもよい。例えば、訓練画像は、取得された画像に画像化された材料と同じ材料の表面の画像でもよい。
実施形態は、図2に示されるような敵対的生成ネットワーク技術を利用して、欠陥を有する表面の画像を欠陥低減表面の画像として再生成する方法を学習する。(前処理にもかかわらず)画像の生成されたバージョンと画像の取得されたバージョンとの間に生じる誤差又は差異は、欠陥の位置でより大きい。したがって、2つのバージョン間の画素値の比較は、欠陥が検出されることを可能にする。例えば、2つのバージョン上の相当画素間の画素値差の比率は誤差として登録してもよく、所与のサイズの領域における閾値より大きい比率の誤差は欠陥として登録してもよい。
ステップS102は、ステップS101の実行の後、前、又は間に実行される。ステップS102は、対象材料表面の画像を取得することを含む。例えば、対象材料表面は、ユーザ又はオペレータが何らかの欠陥の存在及び/又は位置を識別したい材料表面である。画像は、例えば、ネットワークを介した受信、記憶装置からの読み出し、画像化ハードウェアにより実行される画像化処理のうち1つ以上により取得されてもよい。
ステップS103は、ステップS102及びS103の後に実行される。ステップS103はS101の後に実行され、なぜならば、ニューラルネットワーク201はそれが取得された画像を処理するときまでに訓練されているためである。しかしながら、ニューラルネットワーク201のさらなる訓練が継続して行われてもよいことに留意する。S103において、取得された画像はニューラルネットワーク201に入力され、取得された画像の欠陥低減バージョンを生成する。例えば、S103において、訓練されたニューラルネットワーク201は取得された画像(これは前処理されていてもよい)を供給され、取得された画像の欠陥が取り除かれた新しいバージョンを生成する。例えば、訓練されたニューラルネットワーク201はCDANNであり、画像のノイズ除去された、ゆえに欠陥除去された新しいバージョンを生成する。
CDANNは、画像又は画像のパッチを再生成し、必要に応じて画像パッチを画像に再構成するように訓練される。再構成された画像は入力画像と比較され、画像の2つのバージョンにわたる相当画素の画素値間の差異の位置に基づいて欠陥を識別する。一CDANNは、図6に示される、ニューラルネットワーク201の例示的な特定のアーキテクチャであり、これは、S101で訓練され、S103で画像の新しいバージョンを生成し、入力画像が何らかのノイズにより破壊されている場合に入力画像(訓練画像又は対象材料表面の取得された画像のいずれか)を処理し、入力画像を(エンコードされた)潜在空間にエンコードし、次いで画像をデコードするように構成される。CDANNは、入力画像を再構成するために最適化するが、図7に示すようにノイズ除去される。図7において、CDANNはエンコーダ701及びデコーダ702を含む。ノイズのある入力は、入力画像の圧縮された表現703(エンコードされた表現)からの特徴の抽出によりノイズ除去される。
ニューラルネットワーク201は、インペインタ(inpainter)ニューラルネットワーク又はオートエンコーダでもよい。ニューラルネットワーク201は、ジェネレータニューラルネットワーク、生成ニューラルネットワーク、又は生成するニューラルネットワークでもよく、それにより、入力データセットの制約下でデータを生成するニューラルネットワーク又はモデルが存在することが意図され、換言すれば、生成されたデータは入力データセットの新しいバージョンである。ニューラルネットワーク201は、畳み込みニューラルネットワーク、特に、畳み込みノイズ除去オートエンコーダニューラルネットワーク(convolutional denoising autoencoder neural network、CDANN)でもよい。ニューラルネットワーク201は、通常から通常へ、又はクリーンからクリーンへマッピングするように訓練される。畳み込みノイズ除去オートエンコーダニューラルネットワークの例において、ニューラルネットワークは、図7に示すように、入力画像を潜在空間703へ、次いでノイズが取り除かれた状態で同じ入力画像へエンコードするように最適化される。
ニューラルネットワーク201は、2つのモデル、例えば、入力画像(領域ごと)の新しい欠陥低減バージョンを生成するインペインタモデルと、新たに生成された画像からノイズを取り除くクリーニングモデルとを含んでもよい。図3A〜3Dは、一実施形態において生成された取得された画像の異なるバージョンを示す。特に、図3Aは取得された画像を例示し、図3Bは生成された画像を例示する。図3Cは、ニューラルネットワーク201がクリーニングモデルを含む一実施形態において生成された画像をさらに例示する。図3Dは、ユーザに対する欠陥の位置を識別する画像マスクを示す。
図3Aは、画像の取得されたバージョンを示す。
図3Bは、(図3Aで画像化されたのと同じ材料の表面の画像で訓練された)訓練されたインペインタの出力を示すが、別のタイプのニューラルネットワーク201もまた、取得された画像の新しいバージョンを生成するために使用されてよいことに留意する。例えば、インペインタモデルは、上に詳述したような敵対的生成ネットワークの一部として訓練されていてもよい。ニューラルネットワーク201の全部又は一部としてインペインタモデルを含む実施形態において、インペインタモデルは、取得された画像を画像全体をカバーする領域に分割し、各領域を順に「欠損」領域として扱い、訓練されたインペインタモデルを使用して欠損領域の新しいバージョンを生成する。次いで、欠損領域の生成された新しいバージョンが組み合わせられ、画像全体の新しいバージョンを提供する。例えば、各領域は、一画素、n×n画素の正方形、n×m画素の長方形、又は何らかの他のサイズ若しくは形状の領域でもよい。
図3Cは、画像の生成されたバージョンのクリーニングされたバージョンを示す。例えば、クリーニングモデルは、インペインタモデルを訓練するために使用された同じ訓練データセット上で訓練されていてもよい。クリーニングモデルは、例えばノイズ除去人工ニューラルネットワークでもよい。このような訓練では、インペインタモデル及びクリーニングモデルの双方が、テストデータセット(すなわち、テスト画像)とクリーニングモデルにより出力されたテスト画像のバージョンとの間の差異解析を実行することにより評価されることがあってもよい。
図3Dは、図3Aの取得された画像における欠陥の位置を強調又は識別する出力を示す。マスクが使用され、マスクされた領域は、差異又は誤差が検出されていない(あるいは、閾値より小さい差異又は誤差が検出され、例えば、領域内の集約画素値差が所定閾値を下回る)領域を表し、透過領域は、差異又は誤差が検出されている領域を識別し、そのような領域は、取得された画像内の欠陥の位置である。マスクは、対象材料表面の取得された画像(すなわち、図3Aの画像)、インペイントされた画像(すなわち、図3B)、又はクリーニングされたインペイントされた画像(すなわち、図3C)のいずれかに重ねられる。いずれの場合も、マスクは、検出された欠陥の位置をユーザに対し強調する。
図4A〜図4Cは、取得された画像(図4A)の新しいバージョン(図4B)の生成と、ユーザに対し欠陥の位置を強調するマスク(図4C)の出力のさらなる例を示す。例えば、インペインタモデルがニューラルネットワークとして使用されていて、図4Aによる入力画像から図4Bの画像を生成してもよい。
図5は、訓練処理及び推論処理における画像を示す。訓練処理は、ステップS101の例示である。推論処理は、ステップS102〜S105の例示である。図5は、訓練フェーズにおいて、モデルが、通常又は欠陥なしの画像を通常又は欠陥なしの画像にマッピングするように訓練されることを示す。左手側の入力訓練データに基づいて、モデル(モデルはニューラルネットワーク201である)は、データを生成又は再生成する方法を学習する。ライブフェーズ又は実現フェーズとも呼ばれ得る推論フェーズにおいて、欠陥なしの取得された画像がモデルにより処理され、これは同じ画像の生成された(又は再生成された)バージョンを出力する。画素ごとに画素値を比較することにより、検出される誤差又は差異はかなり小さく、ゆえに、出力マスクはいかなる欠陥位置も示さない。一方、欠陥ありの取得された画像を処理することにより、モデルは、画像の欠陥なし又は欠陥低減バージョンを出力し、したがって、比較において、差異の領域が識別され、出力マスク上に示される。取得された画像と画像の生成された(又は再生成された)バージョンとの差異は、残差誤差と呼ばれてもよい。
図5において、訓練データは、欠陥なし画像により表される。欠陥ありサンプルを用いた訓練もまた実現可能だが、訓練されたモデルの性能が訓練データの品質により部分的に制約されることに留意する。ニューラルネットワーク201が画像を一度に1つのサブセクション(又はタイル)で処理し、次いでサブセクションを集約するように訓練される、画像の訓練及び処理に対するタイル化アプローチは、訓練データにおける欠陥の影響を緩和するのに役立つ。例えば、256×256の画像が10%の欠陥率発生で、サイズ32×32のタイルのものである。画像の32×32タイルバージョンを生成する際、0.1*(32×32)/(256×256)のおよその欠陥選択機会があり、これは約0.1%である。
ステップS103の後、ステップS104が実行される。ステップS104において、再生成された取得された画像、すなわち取得された画像の生成されたバージョンが、取得された画像と比較され、差異を識別する。取得された画像の生成されたバージョンと比較される取得された画像は、元々取得されたバージョンでもよく、あるいはその前処理されたバージョンでもよいことに留意する。前処理は、S102の一部として実行されて、例えば、取得された画像をフォーマットし、任意で、取得された画像をニューラルネットワーク201による処理のためにタイル化又はその他の方法で領域に分割してもよい。
比較は、画像の2つのバージョン間の相当画素位置における画素値に基づいてもよい。画像は、比較のためにタイル化又はその他の方法で領域に分割されてもよい。画素値は、RGBのうち1つ以上、又は画素における強度の何らかの他のインジケータであってもよい。したがって、この比較は、直接の画素ごとの欠陥予測の形式をとる。
ステップS104の後、ステップS105が実行される。ステップS105は、識別された差異の位置で対象材料表面の欠陥を検出することを含む。ステップS105は、取得された画像を参照して実行されてもよく、例えば、取得された画像の識別された差異の位置が強調されたバージョンをユーザに対し出力する。任意で、画像がタイルなどの領域で処理及び解析される実施形態において、ステップS105は、差異が識別された領域を強調するマスクを出力すること(例えば、表示すること)を含んでもよい(識別される差異は、同じ領域の2つのバージョン間の画素ごとの差異の閾値レベルに基づいてもよい)。あるいは、本方法は、対象材料表面上の差異の位置を直接照明(illumination)又はその他の方法で強調することを含んでもよい。例えば図5から、S104の比較は欠陥の位置を識別できるようにし、その欠陥は、観察者が材料表面上の欠陥の位置を容易に識別できるようにするマスクの表示を介して出力できることが分かる。
図8は、一実施形態の方法における一連のステップを示すフローチャートである。ステップS101〜S105は、図1に関連して上述したとおりである。
ステップS106〜S108は任意的な拡張であり、これはS105で識別された欠陥を取り、Alexnetなどの訓練された人工知能アルゴリズムを使用して欠陥にラベル付けし、そのラベル付けされた欠陥が出力される。
ステップS106はステップS105の完了後に実行され、取得された画像から、再生成された取得された画像と取得された画像との間で差異が識別された1つ以上の位置のうちの位置又は各位置と境を接する(bounding)画像部分を抽出することを含む。
ステップS107はステップS106の後に実行され、上記又は各画像部分を、材料表面欠陥を示す入力画像部分を処理すること(上記又は各画像部分をニューラルネットワークで処理すること)により材料表面欠陥のエンコードされた特徴を出力するように訓練されたエンコーディングニューラルネットワークに入力することを含む。
エンコーディングニューラルネットワークは、エンコードされた特徴に基づいて入力画像部分にラベルを割り当てるようにさらに訓練される。ステップS108は、取得された画像から抽出された上記又は各画像部分を、それぞれの出力されたエンコードされた特徴に基づき、ラベルと共に出力することを含む。例えば、出力することは、グラフィカルユーザインターフェースを介してユーザに対し、それぞれに割り当てられたラベルを有する上記又は各画像部分を表示することでもよい。
ステップS106において、潜在的に検出される欠陥(すなわち、画像の取得されたバージョンと画像の再生成されたバージョンとの間の差異のレベルが閾値を超える画像部分)は、取得された画像から切り取られる。ステップS107において、画像の切り取られた部分は、Alexnetなどの訓練されたニューラルネットワークを通して順方向に供給され、各々の抽出された画像部分のための埋め込みを生成する。埋め込みは、画像領域のベクトル表現である。S108において、埋め込みに基づくラベルが各々の抽出された画像部分に割り当てられ、抽出された画像部分及びそのラベルがユーザに表示される。階層的クラスタリングアルゴリズムがステップS108で使用されて、埋め込みをクラスタリングし、クラスタの全てのメンバに割り当てるべき単一のラベルを決定してもよい。
任意で、同じグループ内の画像部分に割り当てられるラベルは、グラフィカルユーザインターフェースを介してユーザによりそれぞれの画像部分に前に割り当てられたラベルである。グラフィカルユーザインターフェースは、グラフィカルユーザインターフェースを介して、取得された画像から抽出された上記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力することが、画像部分のための複数の候補ラベルを出力することであり、候補ラベルの各々は同じグループ内の画像部分に割り当てられたラベルから選択される、ことと、グラフィカルユーザインターフェースを介して、出力された候補ラベルの中からのラベルの選択を受け入れ、選択されたラベルを画像部分に割り当てることとを容易にし得る。特に、複数の画像部分の各々に対して出力されるラベル、又は複数の画像部分の各々に対して出力される候補ラベルのうち1つは、画像部分へのラベルの過去の割り当てに基づき機械学習アルゴリズムにより選択された推奨されたラベルである。
図9A及び図9Bは、図1の方法の一例をより詳細に示す。図9Aは、ニューラルネットワーク201による、訓練又は推論のいずれかにおける、画像の処理におけるステップのフローを示す。図9Aの特定の例において、処理のための画像は、訓練のために画像タイルに断片化され、次いで、出力の前に集約される。
ステップS901において、画像がニューラルネットワーク201に入力される。画像は材料表面の画像であり、ニューラルネットワーク201の訓練フェーズにおける訓練画像でもよく、あるいは推論フェーズにおける対象材料表面の取得された画像でもよい。
ステップS902において、入力画像はタイル又は画像部分に断片化される。例えば、4000×3000画素の高解像度画像は、訓練のためのGPUに適合するには大きすぎる可能性がある。画像をそのより小さい画像部分、例えば256×256画素に分割することにより、ニューラルネットワーク201はGPU上で訓練できる。
ステップS101などの訓練フェーズでは、フローはS902からステップS903に進み、ニューラルネットワーク201は、ステップS101を参照して上で詳述されたように、例えば図2に示されるような敵対的生成ニューラルネットワークにより訓練される。
推論フェーズでは、フローはS902からS904に進み、画像は、ステップS103に関して上述したように処理され、すなわち、入力画像の新しいバージョン(部分ごと)が、入力画像に基づきニューラルネットワーク201により再生成される。
フローはS903又はS904からS905に進む。S905において、画像部分が集約され、任意でフォーマットされて、S901の入力画像と同じサイズ、フォーマットの入力画像の一バージョンに到達する。
図12Aは、訓練フェーズにおける図9Aの方法の種々の段階における画像を示す。
図12Bは、推論フェーズにおける図9Aの方法の種々の段階における画像を示す。参照を容易にするため欠陥の存在を強調するようにボックスが追加されているが、このようなボックスは実施形態中の画像には存在しないことに留意する。
図10は、入力画像を断片化(S902)及び集約(S905)する処理を示す。図10に示されるように、ビットマップ又はマスクが各画像部分に関連づけられ、それにより、S903又はS904における生成ニューラルネットワーク201による処理の後、画像はS905において再構成できる。
S906において、集約された画像は、例えばS104などの比較ステップによるさらなる処理のために出力される。
図11Aは、推論フェーズにおけるステップS901における、欠陥を示す入力画像を示し、図11Bは、ステップS902、S904、及びS905に続くS906における同じ画像の出力バージョンを示す。
ステップS906に続き、ステップS104などの処理が実行されて、S901における入力としての画像の取得されたバージョンと、S904で生成ニューラルネットワーク201により生成されS906で出力された画像のバージョンとの間の差異を識別する。
提示された例において、S905における画像の集約は比較ステップの前に実行されることに留意する。部分単位で比較を実行することは、可能である。最適解は、画像を集約し、集約された画像全体と元の入力画像とを使用して関心領域の閾値を定義することであり、それにより、関心領域の定義が画像全体にわたり正規化され得る。
図9Bは、図1のステップS104〜S105の例を示す。S906において、集約された画像、すなわち、生成ニューラルネットワーク201により再生成された画像が出力され、S907において、画像の再生成されたバージョンと画像の入力バージョンとの間で画素値の比較が実行される。画像の2つのバージョンにわたる相当画素位置における画素値(例えば、RGB又は強度)が比較され、差異が評価される。評価は、ある領域にわたる集約でもよく、あるいは、画素値の差異が閾値を上回り又は下回ることに基づく、2つの画像間における画素位置の異なる又は異ならないとしてのマーク付けでもよい。閾値は予め定義されてもよく、あるいは画像全体にわたる差異に基づき適応的に決定されてもよい。例えば、平均差異から1標準偏差を超える差異が、異なるとしてフラグを立てられてもよい。
S908において、差異の画素位置に基づいて、局所的差異(例えば、異なるとしてフラグを立てられた画素位置の途切れない領域)が括られる(bound)。例えば、スマート境界ボックスが、差異の画素位置の周囲に作成されてもよい。任意で、画像がユーザに提示される場合、誤差に対する処理が適用されて差異を強調してもよい。このような処理は、例えば、平滑化、セグメント化でもよい。ここで、誤差は、画素差異位置を意味するとみなされる。
S909において、括られた領域を強調するマスクが出力され、それにより、ユーザは材料表面上の欠陥又は潜在的欠陥の位置を識別することができる。図13は、そのようなマスクの一例を示す。マスクはユーザに出力されなくてもよく、欠陥のある又は潜在的に欠陥のある領域として元の画像からどの領域を抽出すべきかをマッピングするために、処理目的でビットマップとして使用されてもよいことに留意する。例えば、括られた領域は、閾値処理(thresholding)方法を使用してクラスタリングに基づく画像閾値処理を自動的に実行することにより定義されてもよい。アルゴリズムは、画像が二峰性ヒストグラム(差異の位置における前景画素と差異のない位置における背景画素)に従う2つのクラスの画素を含むと仮定し、次いで、それらの組み合わせられた分布したクラス内分散が最小又は等価であり(ペアごとの2乗差の和が一定であるため)、したがってそれらのクラス間分散が最大であるように、2つのクラスを分離する閾値を算出する。この閾値処理から、フレームワークは、与えられた閾値処理方法より上の平均値を有するあらゆるゾーンの周りに境界ボックスを作成する。各々の括られた領域は、領域における異常の可能性を表すスコアと関連して記憶されてもよく、これは、例えば、括られた領域内の誤差の和でもよい。
図8のステップS106〜S108に示されるように、ラベル付けなどのさらなる処理のために、潜在的な欠陥を有する領域のデータセットを記憶することができる。図14Aは、欠陥を有する入力画像から抽出された領域を示す。図14Bは、欠陥又は潜在的欠陥を含まないと決定された入力画像から抽出された領域を示し、すなわち、これらの領域内の位置における画像の2つのバージョンにわたる画素値の差異は、差異の閾値を満たさなかった。領域は、ファイル名と共に記憶されてもよい。
図15は、本発明を具現化し、図1、図8、図9A、及び図9Bに示されるように材料表面の画像を処理して画像化された材料表面上の欠陥を識別する方法を実現するために使用され得る、コンピューティング装置又はサーバなどのコンピューティングデバイス10のブロック図である。コンピューティングデバイスは、プロセッサ993及びメモリ994を備える。任意で、コンピューティングデバイスは、他のコンピューティングデバイスと、例えば発明実施形態の他のコンピューティングデバイスと通信するためのネットワークインターフェース997をさらに含む。
例えば、一実施形態は、そのようなコンピューティングデバイスのネットワークから構成されてもよい。任意で、コンピューティングデバイスは、キーボード及びマウス996などの1つ以上の入力機構、及び1つ以上のモニタ995などの表示ユニットをさらに含む。コンポーネントは、バス992を介して互いに接続可能である。コンピューティングデバイスは、材料表面の画像を取得するためにカメラなどの画像化デバイスを含み、あるいはそれとデータ通信してもよい。
メモリ994は、コンピュータ読取可能媒体を含んでもよく、この用語は、コンピュータ実行可能命令を搬送し又はデータ構造を記憶させるように構成された、単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース、及び/又は関連づけられたキャッシュ及びサーバ)を参照してもよい。コンピュータ実行可能命令は、例えば、汎用コンピュータ、専用コンピュータ、又は専用処理デバイス(例えば、1つ以上のプロセッサ)によりアクセス可能であり、かつこれらに1つ以上の機能又は動作を実行させる命令及びデータを含んでもよい。ゆえに、用語「コンピュータ読取可能記憶媒体」は、マシンによる実行のための命令のセットを記憶、符号化、又は搬送することができ、マシンに本開示の方法のいずれか1つ以上を実行させる任意の媒体をさらに含んでもよい。したがって、用語「コンピュータ読取可能記憶媒体」は、これらに限られないがソリッドステートメモリ、光学媒体、及び磁気媒体を含むとみなされてもよい。限定でなく例として、このようなコンピュータ読取可能媒体は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、コンパクトディスク読取専用メモリ(CD‐ROM)又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶デバイス、フラッシュメモリデバイス(例えば、ソリッドステートメモリデバイス)を含む、非一時的コンピュータ読取可能記憶媒体を含んでもよい。
プロセッサ993は、コンピューティングデバイスを制御し、処理動作を実行するように構成され、例えば、本明細書及び特許請求の範囲に記載された図1、図8、図9A、及び図9Bの種々の異なるステップを実現するために、メモリに記憶されたコードを実行する。プロセッサ993は、生成ニューラルネットワーク201などの1つ以上のニューラルネットワークを実現するように適合されたGPU(グラフィックス処理ユニット)を含んでもよい。メモリ994は、プロセッサ993により読み出され、書き込まれるデータを記憶する。本明細書で参照されるとき、プロセッサは、マイクロプロセッサ、中央処理ユニットなどの1つ以上の汎用処理デバイスを含んでもよい。プロセッサは、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実現するプロセッサ若しくは命令セットの組み合わせを実現する複数のプロセッサを含んでもよい。プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディジタル信号プロセッサ(DSP)、ネットワークプロセッサなどの1つ以上の専用処理デバイスをさらに含んでもよい。1つ以上の実施形態において、プロセッサは、本明細書で論じられる動作及びステップを実行するための命令を実行するように構成される。
表示ユニット997は、コンピューティングデバイスにより記憶されたデータの表現を表示することができ、ユーザとコンピューティングデバイスに記憶されたプログラム及びデータとの間の対話を可能にするカーソル及びダイアログボックス及び画面をさらに表示してもよい。入力機構996は、ユーザがデータ及びコンピューティングデバイスへの命令を入力することを可能にし得る。
ネットワークインターフェース(ネットワークI/F)997は、インターネットなどのネットワークに接続されてもよく、ネットワークを介して他のこのようなコンピューティングデバイスに接続可能である。ネットワークI/F997は、ネットワークを介して他の装置から/他の装置へ入力/出力されるデータを制御することができる。マイクロホン、スピーカ、プリンタ、電源ユニット、ファン、ケース、スキャナ、トラッカーボール等などの他の周辺デバイスが、コンピューティングデバイスに含まれてもよい。
本発明を具現化する方法は、図15に示すものなどのコンピューティングデバイスで実行できる。このようなコンピューティングデバイスは、図15に示すあらゆるコンポーネントを有する必要はなく、これらのコンポーネントのサブセットから構成されてもよい。本発明を具現化する方法は、ネットワークを介して1つ以上のデータ記憶サーバと通信する単一のコンピューティングデバイスにより実行されてもよい。コンピューティングデバイスは、訓練された生成ニューラルネットワーク201と、取得された画像からの欠陥の出力された識別とを記憶するデータ記憶装置自体でもよい。
本発明を具現化する方法は、互いに協働して動作する複数のコンピューティングデバイスにより実行されてもよい。複数のコンピューティングデバイスのうち1つ以上が、訓練された生成ニューラルネットワーク201の少なくとも一部分と、取得された画像からの欠陥の出力された識別とを記憶するデータ記憶サーバでもよい。
上記の実施形態につき以下の付記を残しておく。
(付記1)
材料表面の画像を処理して画像化された材料表面の欠陥を識別する方法であって、
第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
対象材料表面の画像を取得するステップと、
前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
を含む方法。
(付記2)
各訓練画像は複数の画像部分として前記第1のニューラルネットワークに入力され、各画像部分は前記訓練画像の空間的細分化を表し、当該方法は、前記画像部分の欠陥低減バージョンを前記訓練画像の欠陥低減バージョンに集約するステップをさらに含み、
前記取得された画像は複数の画像部分として前記第1のニューラルネットワークに入力され、各画像部分は前記取得された画像の空間的細分化を表し、当該方法は、前記画像部分の欠陥低減バージョンを集約して前記取得された画像の欠陥低減バージョンを得るステップをさらに含む、
付記1に記載の方法。
(付記3)
前記比較することは、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された1つ以上の位置を特定することと、前記1つ以上の位置を出力することとを含む、付記1又は2に記載の方法。
(付記4)
前記取得された画像から、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された前記1つ以上の位置のうちの位置又は各位置と境を接する画像部分を抽出するステップと、
前記又は各画像部分を第2のニューラルネットワークに入力するステップであり、前記第2のニューラルネットワークは、材料表面欠陥を示す入力画像部分を処理することにより前記材料表面欠陥のエンコードされた特徴を出力するように訓練されたエンコーディングニューラルネットワークである、ステップと、
前記取得された画像から抽出された前記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力するステップと、
をさらに含む付記3に記載の方法。
(付記5)
前記1つ以上の位置は、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された複数の位置であり、前記取得された画像から抽出された複数の画像部分があり、各々がそれぞれの位置と境を接し、
前記複数の画像部分は、過去に取得された画像と該画像のそれぞれの欠陥低減バージョンとから差異が識別された位置と境を接する画像部分の記憶された集合に追加され、前記画像部分の集合の各メンバは、前記画像部分を前記エンコーディングニューラルネットワークで処理することにより得られたそれぞれのエンコードされた特徴と共に記憶され、
前記取得された画像から抽出された前記画像部分の前記エンコードされた特徴に対してクラスタリングアルゴリズムが実行されて前記画像部分をグループに分割し、前記取得された画像から抽出された前記複数の画像部分の各々はそれぞれのグループのメンバであり、
前記取得された画像から抽出された前記複数の画像部分の各々に対して出力されるラベルは、前記画像部分の前記エンコードされた特徴の、過去に取得された画像からの記憶された画像部分のエンコードされた特徴との比較に基づいて、過去に取得された画像から抽出された記憶された画像部分に割り当てられたラベルから選択される、
付記4に記載の方法。
(付記6)
同じグループ内の画像部分に割り当てられるラベルは、ユーザインターフェースを介してユーザによりそれぞれの画像部分に前に割り当てられたラベルである、
付記5に記載の方法。
(付記7)
ユーザインターフェースを介して、同じグループ内の前記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力することは、前記画像部分に対する複数の候補ラベルを出力することを含み、前記候補ラベルの各々は、前記画像部分の前記エンコードされた特徴の、過去に取得された画像及び前記画像部分からの記憶された画像部分のエンコードされた特徴との比較に基づき、過去に取得された画像に割り当てられたラベルから選択され、
当該方法は、
ユーザインターフェースを介して、前記出力された候補ラベルの中からのラベルの選択を受け入れ、前記選択されたラベルを前記画像部分に割り当てるステップ
をさらに含む、付記5又は6に記載の方法。
(付記8)
前記複数の画像部分の各々に対して出力されるラベル、又は前記複数の画像部分の各々に対して出力される候補ラベルのうち1つは、画像部分へのラベルの過去の割り当てに基づき機械学習アルゴリズムにより選択された推奨されたラベルである、
付記5、6、又は7に記載の方法。
(付記9)
前記第1のニューラルネットワークは敵対的生成ネットワークであり、前記訓練することは、前記第1のニューラルネットワークを訓練して、生成された画像データが訓練データセットに属するディスクリミネータネットワークを満たす画像データを生成することと、前記ディスクリミネータネットワークを訓練して、訓練データセットに属する画像データと生成された画像データとを区別することとを含む、付記1乃至8のうちいずれか1項に記載の方法。
(付記10)
前記第1のニューラルネットワークは、材料表面の入力訓練画像の欠陥低減バージョンを生成するインペインタモデルと、前記生成された画像からノイズを取り除くクリーニングモデルとを含む、付記1乃至9のうちいずれか1項に記載の方法。
(付記11)
前記第1のニューラルネットワークは畳み込みノイズ除去ニューラルネットワークを含む、付記1乃至10のうちいずれか1項に記載の方法。
(付記12)
プロセッサハードウェア及びメモリハードウェアを含むコンピューティングシステムにより実行されたときに前記プロセッサハードウェアに方法を実行させるコンピュータプログラムであって、前記方法は、
第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
対象材料表面の画像を取得するステップと、
前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
を含む、コンピュータプログラム。
(付記13)
プロセッサハードウェア及びメモリハードウェアを含む装置であって、前記メモリハードウェアは、前記プロセッサハードウェアにより実行されたときに前記プロセッサハードウェアに方法を実行させる処理命令を記憶し、前記方法は、
第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
対象材料表面の画像を取得するステップと、
前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
を含む、装置。
(付記14)
前記プロセッサハードウェアはGPUを含む、付記13に記載の装置。

Claims (10)

  1. 材料表面の画像を処理して画像化された材料表面の欠陥を識別する方法であって、
    第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
    対象材料表面の画像を取得するステップと、
    前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
    前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
    前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
    を含む方法。
  2. 各訓練画像は複数の画像部分として前記第1のニューラルネットワークに入力され、各画像部分は前記訓練画像の空間的細分化を表し、当該方法は、前記画像部分の欠陥低減バージョンを前記訓練画像の欠陥低減バージョンに集約するステップをさらに含み、
    前記取得された画像は複数の画像部分として前記第1のニューラルネットワークに入力され、各画像部分は前記取得された画像の空間的細分化を表し、当該方法は、前記画像部分の欠陥低減バージョンを集約して前記取得された画像の欠陥低減バージョンを得るステップをさらに含む、
    請求項1に記載の方法。
  3. 前記比較することは、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された1つ以上の位置を特定することと、前記1つ以上の位置を出力することとを含む、請求項1又は2に記載の方法。
  4. 前記取得された画像から、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された前記1つ以上の位置のうちの位置又は各位置と境を接する画像部分を抽出するステップと、
    前記又は各画像部分を第2のニューラルネットワークに入力するステップであり、前記第2のニューラルネットワークは、材料表面欠陥を示す入力画像部分を処理することにより前記材料表面欠陥のエンコードされた特徴を出力するように訓練されたエンコーディングニューラルネットワークである、ステップと、
    前記取得された画像から抽出された前記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力するステップと、
    をさらに含む請求項3に記載の方法。
  5. 前記1つ以上の位置は、前記画像の欠陥低減バージョンと前記取得された画像との間で差異が識別された複数の位置であり、前記取得された画像から抽出された複数の画像部分があり、各々がそれぞれの位置と境を接し、
    前記複数の画像部分は、過去に取得された画像と該画像のそれぞれの欠陥低減バージョンとから差異が識別された位置と境を接する画像部分の記憶された集合に追加され、前記画像部分の集合の各メンバは、前記画像部分を前記エンコーディングニューラルネットワークで処理することにより得られたそれぞれのエンコードされた特徴と共に記憶され、
    前記取得された画像から抽出された前記画像部分の前記エンコードされた特徴に対してクラスタリングアルゴリズムが実行されて前記画像部分をグループに分割し、前記取得された画像から抽出された前記複数の画像部分の各々はそれぞれのグループのメンバであり、
    前記取得された画像から抽出された前記複数の画像部分の各々に対して出力されるラベルは、前記画像部分の前記エンコードされた特徴の、過去に取得された画像からの記憶された画像部分のエンコードされた特徴との比較に基づいて、過去に取得された画像から抽出された記憶された画像部分に割り当てられたラベルから選択される、
    請求項4に記載の方法。
  6. ユーザインターフェースを介して、同じグループ内の前記又は各画像部分をそれぞれの出力されたエンコードされた特徴に基づきラベルと共に出力することは、前記画像部分に対する複数の候補ラベルを出力することを含み、前記候補ラベルの各々は、前記画像部分の前記エンコードされた特徴の、過去に取得された画像及び前記画像部分からの記憶された画像部分のエンコードされた特徴との比較に基づき、過去に取得された画像に割り当てられたラベルから選択され、
    当該方法は、
    ユーザインターフェースを介して、前記出力された候補ラベルの中からのラベルの選択を受け入れ、前記選択されたラベルを前記画像部分に割り当てるステップ
    をさらに含む、請求項5に記載の方法。
  7. 前記複数の画像部分の各々に対して出力されるラベル、又は前記複数の画像部分の各々に対して出力される候補ラベルのうち1つは、画像部分へのラベルの過去の割り当てに基づき機械学習アルゴリズムにより選択された推奨されたラベルである、
    請求項5又は6に記載の方法。
  8. 前記第1のニューラルネットワークは敵対的生成ネットワークであり、前記訓練することは、前記第1のニューラルネットワークを訓練して、生成された画像データが訓練データセットに属するディスクリミネータネットワークを満たす画像データを生成することと、前記ディスクリミネータネットワークを訓練して、訓練データセットに属する画像データと生成された画像データとを区別することとを含む、請求項1乃至7のうちいずれか1項に記載の方法。
  9. プロセッサに、
    第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
    対象材料表面の画像を取得するステップと、
    前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
    前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
    前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
    を含む方法を実行させるコンピュータプログラム。
  10. プロセッサハードウェア及びメモリハードウェアを含む装置であって、前記メモリハードウェアは、前記プロセッサハードウェアにより実行されたときに前記プロセッサハードウェアに方法を実行させる処理命令を記憶し、前記方法は、
    第1のニューラルネットワークを自動的に訓練して材料表面の入力訓練画像の欠陥低減バージョンを生成するステップと、
    対象材料表面の画像を取得するステップと、
    前記取得された画像を前記第1のニューラルネットワークに入力して前記取得された画像の欠陥低減バージョンを生成するステップと、
    前記取得された画像の前記生成された欠陥低減バージョンを前記取得された画像と比較して差異を識別するステップと、
    前記識別された差異の位置で前記対象材料表面の欠陥を識別するステップと、
    を含む、装置。
JP2020055855A 2019-05-13 2020-03-26 表面欠陥識別方法及び装置 Pending JP2020187735A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19174221.2A EP3739513A1 (en) 2019-05-13 2019-05-13 Surface defect identification method and apparatus
EP19174221.2 2019-05-13

Publications (1)

Publication Number Publication Date
JP2020187735A true JP2020187735A (ja) 2020-11-19

Family

ID=66542047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020055855A Pending JP2020187735A (ja) 2019-05-13 2020-03-26 表面欠陥識別方法及び装置

Country Status (3)

Country Link
US (1) US11276162B2 (ja)
EP (1) EP3739513A1 (ja)
JP (1) JP2020187735A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106566A1 (ja) * 2019-11-25 2021-06-03 オムロン株式会社 画像検査装置
JP6955734B1 (ja) * 2021-03-08 2021-10-27 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
JPWO2022024245A1 (ja) * 2020-07-29 2022-02-03
JP2022100292A (ja) * 2020-12-23 2022-07-05 株式会社リコー ニューラルネットワーク訓練方法および欠陥検出方法、装置および記憶媒体
WO2022201451A1 (ja) * 2021-03-25 2022-09-29 株式会社日立国際電気 検知装置および検知方法
WO2022201973A1 (ja) * 2021-03-25 2022-09-29 ソニーセミコンダクタソリューションズ株式会社 情報処理システム及び学習モデルの生成方法
WO2022201968A1 (ja) * 2021-03-26 2022-09-29 コニカミノルタ株式会社 情報処理装置、制御プログラム、および制御方法
WO2022244406A1 (ja) * 2021-05-17 2022-11-24 コニカミノルタ株式会社 信号処理装置、信号処理方法、及びプログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095428A (ja) * 2018-12-12 2020-06-18 株式会社東芝 モデル学習システム、モデル学習方法、プログラム、及び記憶媒体
US11126895B2 (en) * 2019-05-22 2021-09-21 Lawrence Livermore National Security, Llc Mimicking of corruption in images
US11195012B1 (en) * 2019-05-31 2021-12-07 United Services Automobile Association (Usaa) System and method for assessing damage from aerial imagery
US11710158B2 (en) * 2020-01-23 2023-07-25 Ford Global Technologies, Llc Vehicle damage estimation
US11210774B2 (en) * 2020-03-31 2021-12-28 Disney Enterprises, Inc. Automated pixel error detection using an inpainting neural network
CN113822836B (zh) * 2020-06-05 2024-06-18 英业达科技有限公司 标记图像的方法
US11824894B2 (en) * 2020-11-25 2023-11-21 International Business Machines Corporation Defense of targeted database attacks through dynamic honeypot database response generation
WO2022115100A1 (en) * 2020-11-25 2022-06-02 Hewlett-Packard Development Company, L.P. Identifying anomaly location
CN114663335A (zh) * 2020-12-22 2022-06-24 富泰华工业(深圳)有限公司 图像瑕疵检测方法、装置、电子设备及介质
CN114764765A (zh) * 2020-12-30 2022-07-19 富泰华工业(深圳)有限公司 图像瑕疵检测方法、装置、电子设备及存储介质
EP4027300B1 (en) * 2021-01-12 2023-12-27 Fujitsu Limited Apparatus, program, and method for anomaly detection and classification
CN112950837B (zh) * 2021-03-03 2023-06-16 中国工商银行股份有限公司 基于深度学习的纸币破损情况识别方法及装置
CN113129265B (zh) * 2021-03-18 2022-10-18 广东工业大学 瓷砖表面缺陷检测方法、装置及存储介质
US20220392025A1 (en) * 2021-06-04 2022-12-08 Adobe Inc. Restoring degraded digital images through a deep learning framework
CN113570549A (zh) * 2021-06-30 2021-10-29 青岛海尔科技有限公司 反光表面的缺陷检测方法及装置
EP4123506A1 (de) * 2021-07-20 2023-01-25 Fujitsu Technology Solutions GmbH Verfahren und vorrichtung zum analysieren eines produkts, trainingsverfahren, system, computerprogramm und computerlesbares speichermedium
CN113592830B (zh) * 2021-08-04 2024-05-03 航天信息股份有限公司 一种图像缺陷检测方法、装置及存储介质
CN114897868A (zh) * 2022-05-31 2022-08-12 广东利元亨智能装备股份有限公司 极片缺陷识别及模型训练方法、装置及电子设备
DE102023115096A1 (de) * 2022-07-12 2024-01-18 Janoschka AG Verfahren zur Prüfung von Tiefdruckzylindern und Tiefdruckplatten
CN115100451B (zh) * 2022-08-29 2023-11-28 启东万惠机械制造有限公司 一种用于液压泵漏油监控的数据扩充方法
CN116481461B (zh) * 2022-11-24 2023-09-22 广州帕卡汽车零部件有限公司 一种汽车隔音隔热零配件成孔切口毛糙度检测方法
CN115984235A (zh) * 2023-01-31 2023-04-18 苏州大学 一种基于图像分割的晶圆图混合缺陷模式识别方法及系统
CN116682069B (zh) * 2023-07-31 2023-11-24 水利部珠江水利委员会珠江水利综合技术中心 基于人工智能的船闸混凝土修复决策方法及系统
CN116883393B (zh) * 2023-09-05 2023-12-01 青岛理工大学 一种基于无锚框目标检测算法的金属表面缺陷检测方法
CN116912637B (zh) * 2023-09-13 2023-12-22 国网山东省电力公司济南供电公司 输变电缺陷识别的方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012026982A (ja) * 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd 検査装置
JP2018120300A (ja) * 2017-01-23 2018-08-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2018205163A (ja) * 2017-06-06 2018-12-27 株式会社デンソー 外観検査装置、変換データ生成装置、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794116B1 (ko) 2013-03-18 2017-11-06 더 트러스티스 오브 컬럼비아 유니버시티 인 더 시티 오브 뉴욕 하드웨어 특징들을 사용한 이상 프로세스들의 비감시된 검출
US10579923B2 (en) * 2015-09-15 2020-03-03 International Business Machines Corporation Learning of classification model
US10635563B2 (en) 2016-08-04 2020-04-28 Oracle International Corporation Unsupervised method for baselining and anomaly detection in time-series data for enterprise systems
US20180096261A1 (en) 2016-10-01 2018-04-05 Intel Corporation Unsupervised machine learning ensemble for anomaly detection
US10607119B2 (en) * 2017-09-06 2020-03-31 Kla-Tencor Corp. Unified neural network for defect detection and classification
US10430937B2 (en) * 2017-09-25 2019-10-01 United Technologies Corporation Automated material characterization system including conditional generative adversarial networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012026982A (ja) * 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd 検査装置
JP2018120300A (ja) * 2017-01-23 2018-08-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2018205163A (ja) * 2017-06-06 2018-12-27 株式会社デンソー 外観検査装置、変換データ生成装置、及びプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106566A1 (ja) * 2019-11-25 2021-06-03 オムロン株式会社 画像検査装置
JPWO2022024245A1 (ja) * 2020-07-29 2022-02-03
JP7499337B2 (ja) 2020-07-29 2024-06-13 株式会社エビデント 検査システム、学習方法、検査方法、及び記憶媒体
JP7243801B2 (ja) 2020-12-23 2023-03-22 株式会社リコー ニューラルネットワーク訓練方法および欠陥検出方法、装置および記憶媒体
JP2022100292A (ja) * 2020-12-23 2022-07-05 株式会社リコー ニューラルネットワーク訓練方法および欠陥検出方法、装置および記憶媒体
JP6955734B1 (ja) * 2021-03-08 2021-10-27 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
JP2022136957A (ja) * 2021-03-08 2022-09-21 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
JP2022136583A (ja) * 2021-03-08 2022-09-21 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
JP7398127B2 (ja) 2021-03-08 2023-12-14 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
WO2022201451A1 (ja) * 2021-03-25 2022-09-29 株式会社日立国際電気 検知装置および検知方法
JPWO2022201451A1 (ja) * 2021-03-25 2022-09-29
JP7436752B2 (ja) 2021-03-25 2024-02-22 株式会社日立国際電気 検知装置および検知方法
WO2022201973A1 (ja) * 2021-03-25 2022-09-29 ソニーセミコンダクタソリューションズ株式会社 情報処理システム及び学習モデルの生成方法
WO2022201968A1 (ja) * 2021-03-26 2022-09-29 コニカミノルタ株式会社 情報処理装置、制御プログラム、および制御方法
WO2022244406A1 (ja) * 2021-05-17 2022-11-24 コニカミノルタ株式会社 信号処理装置、信号処理方法、及びプログラム

Also Published As

Publication number Publication date
US11276162B2 (en) 2022-03-15
EP3739513A1 (en) 2020-11-18
US20200364842A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP2020187735A (ja) 表面欠陥識別方法及び装置
US11727670B2 (en) Defect detection method and apparatus
US11922626B2 (en) Systems and methods for automatic detection and quantification of pathology using dynamic feature classification
US20220262108A1 (en) Apparatus, program, and method for anomaly detection and classification
Fuchs et al. Defect detection in CT scans of cast aluminum parts: A machine vision perspective
JP2015087903A (ja) 情報処理装置及び情報処理方法
CN114902279A (zh) 基于机器视觉的自动化缺陷检测
Yuan et al. A method for the evaluation of image quality according to the recognition effectiveness of objects in the optical remote sensing image using machine learning algorithm
GB2602581A (en) Automatic detection and replacement of identifying information in images using machine learning
US10726535B2 (en) Automatically generating image datasets for use in image recognition and detection
US20210337073A1 (en) Print quality assessments via patch classification
Ordoñez et al. Explaining decisions of deep neural networks used for fish age prediction
JP2021143884A (ja) 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット
CN116664839A (zh) 一种弱监督半监督缺陷感知分割方法、装置及电子设备
KR20210037199A (ko) 자동 분할 태깅 장치 및 이를 이용하여 학습된 손상영역 검출 장치
CN115082909B (zh) 一种肺部病变识别方法及系统
JP7401537B2 (ja) システム、該システムを備えるワークステーション及び撮像装置、並びにコンピュータによって実施される方法、該方法をプロセッサシステムに実行させる命令を表す一時的又は非一時的データを含むコンピュータ可読媒体
KR20220143119A (ko) 인지 시스템용 훈련 데이터 후보의 자동 식별
CN116977334B (zh) 一种光缆表面瑕疵检测方法及装置
CA2997335A1 (en) Automatically generating image datasets for use in image recognition and detection
CN117351196B (zh) 图像分割方法、装置、计算机设备和存储介质
US20240037717A1 (en) Generating neural network based perceptual artifact segmentations in modified portions of a digital image
US20220189005A1 (en) Automatic inspection using artificial intelligence models
Niaz et al. Increment-CAM: Incrementally-weighted Class Activation Maps for Better Visual Explanations
Priyadarshi et al. Deblurring of Images and Barcode Extraction of PV Modules using Supervised Machine learning for Plant Operation and Maintenance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312