JP7489240B2 - 自動表面評価のためのシステム及び方法 - Google Patents

自動表面評価のためのシステム及び方法 Download PDF

Info

Publication number
JP7489240B2
JP7489240B2 JP2020106950A JP2020106950A JP7489240B2 JP 7489240 B2 JP7489240 B2 JP 7489240B2 JP 2020106950 A JP2020106950 A JP 2020106950A JP 2020106950 A JP2020106950 A JP 2020106950A JP 7489240 B2 JP7489240 B2 JP 7489240B2
Authority
JP
Japan
Prior art keywords
image
contamination
map
input image
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020106950A
Other languages
English (en)
Other versions
JP2021022369A5 (ja
JP2021022369A (ja
Inventor
ロバート・アール・プライス
Original Assignee
パロ アルト リサーチ センター,エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パロ アルト リサーチ センター,エルエルシー filed Critical パロ アルト リサーチ センター,エルエルシー
Publication of JP2021022369A publication Critical patent/JP2021022369A/ja
Publication of JP2021022369A5 publication Critical patent/JP2021022369A5/ja
Application granted granted Critical
Publication of JP7489240B2 publication Critical patent/JP7489240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本開示は、一般的に人工知能(AI)の分野に関連する。より具体的には、本開示は、デバイスの表面の状態を自動的に評価するためのシステム及び方法に関する。
デバイス使用の急激な増加は、顕著なデバイスのターンオーバーにつながってきた。ターンオーバー時には、デバイスは、典型的には、再販売のために再洗浄及び/又は汚染除去される。表面上の欠陥を決定するために使用することができる自動目視検査を使用して、入来装置を自動的にトリアージすることができ、自動洗浄システムのための手引きを提供し、又は再製造プロセスに品質管理を提供することができる。1つの一般的な手法は、製品の表面の画像を捕捉し、画像のパッチ上の特徴を計算することである。次いで、分類指標が、パッチを「正常」又は「欠陥」としてラベル付けするために使用され得る。これらの技術は、繰り返されるテクスチャを有する連続シート材料を検査するのに好適である。しかしながら、このような技術は、複雑な幾何学的形状及び複数の材料を有する装置の欠陥を捕捉できない可能性がある。
プリント回路基板検査産業は、複雑な表面で作業する技術を開発してきた。プリント回路基板(PCB)検査は、画素マッチング技術及び設計ファイルに基づいて、複雑で詳細かつ完全に明示された構造を有する画像を使用することができる。このような技術は、過剰なはんだ及びはんだフィレットの体積及び形状の問題を検出することができ、並びに欠落した、又は不正確な構成要素、誤った配向の構成要素、及び曲がった導線を検出することができる。しかしながら、これらの検査システムは、製品の完全かつ詳細な仕様書を必要とし、影及びオクルージョンを生成し得る複雑な幾何学的形状を持たない平面回路基板のためだけに機能する。
ニューラルネットワーク方法は、バナナの自動等級付け又は温度ヒューズの欠陥の検出など、正式に特定することが困難な対象物を分類するようにトレーニングされ得る。事前の特徴抽出なしに画像に付加され得る深層畳込みニューラルネットワーク(CNN)は、糖尿病性網膜症によって引き起こされる眼の画像における血管ネットワークの微妙な損傷を検出するために使用されてきた。CNNは、製造プロセスにおける汚れ、傷、及びバリを検出するためにもまた使用されてきた。しかしながら、CNN法は、製造のために十分な精度に達成するために、多数のラベル付きトレーニングデータを必要としきた。その結果、CNNベースの技術は、特定の問題に限定される可能性があり、一般的な解決策を提供できない可能性がある。
既存のAIベースの解決策は、多くの望ましい機能を自動汚染検出にもたらすが、しかし不均一な表面の効率的な評価のためのいくつかの問題は、未解決のままである。
本明細書に記載される実施形態は、汚染又は他の欠陥を検出するために対象物の表面を評価するためのシステムを提供する。操作中、システムは、対象物上の汚染を示す入力画像を取得し、入力画像に基づいて人工知能(AI)モデルを使用して合成画像を生成する。合成画像は、汚染のない対象物を示すことができる。次いで、システムは、入力画像と合成画像との差分を決定して、汚染に対応する画像領域を識別する。続いて、システムは、1つ又は複数の画像強調操作に基づいて、画像領域をハイライトすることによって汚染の汚染マップを生成する。
この実施形態の変形例では、AIモデルが、周期の一貫した敵対的生成ネットワーク(CC-GAN)を含む。
変形例では、CC-GANは、2セットの画像サンプルでトレーニングされる。2セットの画像サンプルのうちの第1の画像サンプルは、汚染のある対象物の画像を含むことができ、2セットの画像サンプルのうちの第2の画像サンプルは、汚染なしの対象物の画像を含むことができる。更に、入力画像に示される汚染は、2セットの画像サンプルの中に存在しない可能性がある。
この実施形態の変形例では、入力画像と合成画像との差分が、赤-緑-青(RGB)空間、色相、彩度、明度(HSL)空間、及び色相、彩度、値(HSV)空間の1つ又は複数内の画素差分である。
この実施形態の変形例では、画像強調操作が、拡張、平滑化、閾値処理、及び深層分割ネットワークに関連付けられた操作のセットのうちの1つ又は複数を含む。
この実施形態の変形例では、システムは、入力画像に関連付けられた深度情報を決定し、深度情報を汚染マップに組み込み、強調汚染マップを生成する。
更なる変形例では、システムは、強調汚染マップに基づいて、汚染除去装置の軌道のセットを生成する。それぞれの軌道は、軌道に対応する深度で対象物上の汚染箇所を覆うことができる。
更なる変形例では、システムは、深度情報に基づいて、対象物の幾何学的形状を表すメッシュを決定し、汚染マップ内に示される汚染領域をメッシュ内の対応する箇所に投影することによって、深度情報を組み込む。
この実施形態の変形例では、システムは、対象物のための汚染マップのセットを生成する。それぞれの汚染マップは、対象物の視点を示すことができる。これにより、システムは、対象物が全ての側面から検査され、及び/又は洗浄され得るように、対象物の複数の視点を請求することができる。
この実施形態の変形例では、システムは、入力画像の背景及び対象物の汚染されていない要素を除外することによって汚染マップを生成する。
本出願の一実施形態による、例示的な表面評価システムを示す図である。 本出願の一実施形態による、以前に知られていない汚染物について例示的な一般的な表面評価を示す図である。 本出願の一実施形態による、対象物の表面上の汚染をハイライトする画像の例示的な生成を示す図である。 本出願の一実施形態による、対象物の深度情報に基づいた汚染除去装置の強調汚染マップの例示的な生成を示す図である。 本出願の一実施形態による、異なる視点からの対象物の深度情報に基づく汚染除去装置の軌道の例示的な生成を示す図である。 本出願の一実施形態による、対象物の表面上の汚染をハイライトする深層強調画像を生成する表面評価システムの方法を示すフローチャートである。 本出願の一実施形態による、対象物の表面上の汚染をハイライトする画像を生成する表面評価システムの方法を示すフローチャートである。 本出願の一実施形態による、対象物の深度情報に基づいて、汚染除去装置の軌道を生成する表面評価システムの方法を示すフローチャートである。 本出願の一実施形態による、表面評価システムを容易にする例示的なコンピュータシステムを示す図である。 本出願の一実施形態による、表面評価システムを容易にする例示的な装置を示す図である。
図面において、同様の参照番号は、同じ図要素を指す。
以下の説明は、当業者が実施形態を作製及び使用することを可能にするために提示され、特定の用途及びその要件に関連して提供される。開示される実施形態に対する様々な修正は、当業者には容易に明らかとなり、本明細書で定義される一般原理は、本開示の趣旨及び範囲から逸脱することなく、他の実施形態及び用途に適用され得る。したがって、本明細書に記載される実施形態は、示される実施形態に限定されるものではなく、本明細書に開示される原理及び特徴と一致する最も広い範囲を与えられるものである。
概要
本明細書に記載される実施形態は、(i)カメラ画像からの対象物の画像の位置合わせされた基準(例えば、透明なバージョン)を自動的に合成すること、及び画像上の汚染又は他の欠陥をハイライトすることによって、並びに(ii)対象物の幾何学的及び深度情報に基づいて、1つ又は複数の軌道を生成することによって、制約のない視点及び可変の照明状態における対象物の表面評価を容易にするという問題を解決する。
既存の技術は、複雑な電気機械システムの検査及び汚染除去を容易にするために十分に装備されていない。対象物のための汚染除去プロセスを自動化するために、自動化プロセスは、対象物上の箇所及び汚染の種類の詳細なマップを必要とする。そのような要件は、不規則な形状、ノイズの多い表面テクスチャ、照明の変化、及び対象物のオクルージョンを伴う対象物にとって困難である可能性がある。更に、汚染の色、厚さ、及び付着の可能な全ての変化は、汚染除去システムにとって既知ではない可能性がある。加えて、汚染除去システムはまた、傷などの永久的な欠陥と除去可能な汚染とを区別する必要がある。実際にレンダリングされた表面を有する対象物の詳細なモデルは、入手可能ではないことが多い。その結果、製品特有又は汚染特有のシステムは、対象物及び汚染物に関連する変化を裏付けることができる解決策を提供することができない。
これらの問題を解決するために、本明細書に記載される実施形態は、制約されないポーズ及び可変照明状態における対象物上の汚染の大きな変化を効率的かつ正確にマッピングする表面評価システムを提供する。システムは、対象物の画像上で直接トレーニングされることができ、基準図及び汚染図の一致した対を必要としない。このシステムは、異なる形態を取り、異なる背景上に現れる汚染をハイライトするために、深層周期の一貫した敵対的生成ネットワーク(CC-GAN)を使用することができる。GANは、合成だが現実的な画像などの合成データを生成するために一般的になった。これを行うために、GANは、典型的には、生成器ニューラルネットワーク(生成器と呼ばれる)と、識別器ニューラルネットワーク(識別器と呼ばれる)とを含む。
CC-GANは、別のクラスの画像に基づいて画像のクラスを生成することができる特定のクラスのGANである。換言すれば、CC-GANは、クラスが著しい全体的な構造を共有する場合、別のクラスのインスタンスから標的クラス内の対象物を合成することができる。CC-GANの生成器は、入力画像に基づいて画像サンプルを生成することができる。生成器は、生成された画像が標的クラスに属することを識別器に「納得させる」ことによって、画像サンプルの品質を改善するように試みることができる。識別器は、生成された画像サンプルが標的クラスに属するかどうかを決定するタスクを課される。結果として、複数回の反復によって、生成器は、標的クラスの画像の統計的特性を組み込む画像を生成することを学習する。
操作中、対象物上の汚染を検出するために、システムは、汚染された対象物の画像からクリーンな(例えば、汚染のない)画像を合成する。次いで、システムは、元の画像を合成画像と比較して、対象物の表面を評価し、汚染の箇所を特定する。このようにして、システムは、不規則な形状、オクルージョン、影、及び意識逸らし表面テクスチャを有する複雑な対象物上の汚染を検出することができる。合成画像を生成するために、システムは、汚染された対象物の元の画像上にCC-GANを使用することができる。次いで、CC-GANは、汚染のない対象物を描写する合成画像(すなわち、標的クラスに属する画像)を生成する。合成画像は、対象物の再構成を描写するため、合成画像は、再構成画像と呼ばれ得る。
次いで、システムは、再構成画像と元の画像との間に画素差分演算を適用することができる。いくつかの実施形態では、システムは、対応する赤-緑-青(RGB)値、色相、彩度、明度(HSL)表現、及び色相、彩度、値(HSV)表現のうちの1つ又は複数に基づいて、画素差分を決定する。例えば、再構成画像及び元の画像がハイパースペクトル画像に基づく場合、視覚チャンネルはRGB値よりも大きくなることができ、又はハイパースペクトルチャンネル(例えば、紫外線)になることができる。更に、X線などの他の撮像方法をシステムと共に使用することができる。次いで、システムは、結果として得られる差分に拡張、平滑化、及び閾値処理を適用する。このプロセスは、対象物の画像上の汚染をハイライトし、それによって対象物の汚染マップを生成する。このシステムはまた、汚染領域を識別するための深層分割ネットワークを使用することもできる。この拡張操作者はまた、ノイズの多いマップを平滑化して、より一貫した領域を生成する。システムは、この汚染マップを対象物の再構成画像から生成するので、汚染マップは、画像内の対象物の背景を見逃し、対象物の汚染されていない要素を除外することができる。合成画像は、元の画像の中に示されるポーズ、照明、構成オプション、及び非機能的欠陥に一致することができる。
この技術の重要な特徴は、システムが、同じポーズでクリーンな状態、及び汚染された状態を示す同一の対象物を特徴とする一致した対でトレーニングされる必要がないことである。汚染の可能性のあるあらゆる形態について、同じポーズ及び照明下で、汚染された部分と、汚染されていない部分との正確に一致する例を用意することは困難であろう。その代わりに、システムは、クリーンな画像又は参照画像の1つのセットと、異なるポーズにおける異なる対象物であり得る、いくつかの汚染された対象物の画像の第2のセットとによってトレーニングされ得る。
CC-GANに基づいて、システムは、予め指定されたモデルに依存する方法に比べて、増加された一般化を提供することができる。システムが1つの対象物の画像によってトレーニングされている場合、トレーニングされたシステムは、トレーニングに使用される対象物からのわずかな変化を有する別の対象物の表面を評価することができる。例えば、汚染を検出するためにシステムがプリンタの表面を評価するようにトレーニングされる場合、システムは、トレーニングに使用されるプリンタと同じシリーズに属する別のモデルのプリンタ上の汚染を検出することができる。これにより、システムをトレーニングするためのデータ収集及びラベル付けプロセスが簡略化される。
例示的なシステム
図1は、本出願の一実施形態による、例示的な表面評価システムを示す。この例では、環境100は、汚染除去装置136の汚染除去操作を制御することができるアプリケーションサーバ134を含む。汚染除去装置136は、対象物から汚染物を除去することができる任意の装置であり得る。例えば、汚染除去装置136は、内部で汚染除去剤(例えば、過酸化水素蒸気(HPV)、二酸化炭素、アイスブラスト)が対象物に添加される密閉環境を含むことができる。環境100の検査サーバ132は、表面検査を容易にし、アプリケーションサーバ134に検査結果を提供することができる。いくつかの実施形態では、検査サーバ132は、ローカル又は広域ネットワークであり得るネットワーク130を介してアプリケーションサーバ134と通信する。
既存の技術では、検査サーバ132は、複雑な電気機械システムの検査及び汚染除去を容易にするために十分に装備されていない可能性がある。対象物101のための汚染除去プロセスを自動化するために、アプリケーションサーバ134は、除去される汚染の箇所及び種類の詳細なマップを必要とする。対象物101が不規則な形状、ノイズの多い表面テクスチャ、及び/又は自己オクルージョン幾何学的形状を有する場合、そのような要件は困難になり得る。更に、汚染の色、厚さ、及び接着の可能な全ての変化は、アプリケーションサーバ134にとって既知ではない可能性がある。更に、アプリケーションサーバ134は、傷などの永久的な欠陥と除去可能な汚染とを区別する必要がある。結果として、検査サーバ132が、汚染の生成物固有又は汚染物固有の検出のみを提供することができる場合、アプリケーションサーバ134は、対象物101及びその上の汚染に関連付けられた変化を裏付けることができる解決策を提供することができない。
これらの問題を解決するために、表面評価システム120は、制約されないポーズ及び可変照明状態における対象物101上の汚染の大きな変化を効率的かつ正確にマッピングすることができる。システム120は、再構成モジュール122、ハイライトモジュール124、及び深度分析モジュール126を含み得る。操作中、対象物101上の汚染を検出するために、再構成モジュール122は、対象物の画像101の入力画像102からからクリーンな(例えば、汚染のない)画像を合成する。合成画像は、対象物101の再構成を描写するため、合成画像は、再構成画像104と呼ばれ得る。再構成画像104を生成するために、再構成モジュール122は入力画像102上のCC-GAN 140を使用することができる。次いで、CC-GAN 140は、汚染のない対象物101を描写する再構成画像104を生成する。
次いで、ハイライトモジュール124は、入力画像102を再構成画像104と比較して、対象物101の表面を評価する。ハイライトモジュール124は、再構成画像104と入力画像102との間に画素差分演算を適用することができる。いくつかの実施形態では、ハイライトモジュール124は、RGB空間、HSL空間、及びHSV空間のうちの1つ又は複数の画素差分を決定する。次いで、ハイライトモジュール124は、結果として得られる差分に拡張、平滑化、及び閾値処理を適用する。これらの操作の1つ又は複数に基づいて、ハイライトモジュール124は、対象物101の画像上の汚染をハイライトするハイライト画像106を生成する。ハイライトモジュール124はまた、対象物101の画像上の汚染領域を識別するための深層分割ネットワークを使用することもできる。このようにして、ハイライト画像106は、対象物101の汚染マップであり得る。ハイライト画像106のこの汚染マップは再構成画像104から作成されるため、ハイライト画像106内の汚染マップは、入力画像102内の対象物101の背景及び対象物101の汚染されていない要素を除外することができる。このようにして、システム120は、不規則な形状、オクルージョン、影、及び意識逸らし表面テクスチャの1つ又は複数を有する可能性がある、対象物101などの複雑な対象物上の汚染を検出することができる。
ハイライト画像106が2次元(2D)画像である場合、ハイライト画像106内の2D汚染マップは、対象物101のパネルなどの比較的平坦な構成要素の汚染除去のためのガイダンスを提供することができる。しかしながら、深度を有する構成要素の場合、汚染除去装置136は、洗浄経路が対象物101の幾何学的形状をたどることを確実にするために深度情報を組み込む必要がある。システム120は、ハイライト画像106に示される汚染領域を、対象物101の3D幾何学的形状の箇所に投影することによって、アプリケーションサーバ134に深度情報を提供することができる。いくつかの実施形態では、システム120は、入力画像102と共に対象物101の深度情報(例えば、幾何学的特性)を取得することができる。
深度情報は、画像上の対象物101の外観、及び画像の各画素について深度推定の両方を提供することができる撮像デバイス(例えば、深度カメラ)から取得することができる。撮像デバイスの例としては、ステレオカメラ、光検出及び測距(LIDAR)デバイス、及び赤外線エミッタが含まれるが、これらに限定されない。画像及び深度情報が別個に捕捉される場合、深度分析モジュール126は、深度点を別個に捕捉された視覚的画素と位置合わせすることができる。いくつかの実施形態では、深度分析モジュール126は、深度情報に基づいて、対象物101の幾何学的形状を表すメッシュを決定する。メッシュは、LIDARなどの装置によって生成された点群の簡略化された表現を提供する。
次いで、深度分析モジュール126は、対象物101の表面法線を決定し、ハイライト画像106で識別された汚染画素をメッシュ上に投影することができる。決定された表面法線は、汚染の所与の点において、対象物101の表面に垂直なベクトルであり得る。深度分析モジュール126は、点又はメッシュ三角形を色付けして、汚染の箇所を示すことができる。深度情報をハイライト画像106に組み込むことにより、深度分析モジュール126は、強調画像108を生成することができ、それにより、深度情報を組み込む強調汚染マップを生成することができる。いくつかの実施形態では、システム120はまた、汚染除去装置136によって実行される汚染除去操作の軌道を生成する経路プランナモジュール128を含むことができる。
例えば、汚染除去プロセスがノズルを介して対象物101上に汚染除去剤を噴霧することを含む場合、汚染除去装置136は、対象物101の深度情報に基づいて、有効な洗浄に必要なノズル距離及び角度を維持する必要がある。強調画像108に基づいて、経路プランナモジュール128は、汚染除去装置136のノズルのための軌道110のセットを生成することができる。これにより、ノズルは対象物101の幾何学的形状をたどることができる。経路プランナモジュール128はまた、アプリケーションサーバ134上に存在し、汚染除去装置136のコントローラの構成要素であり得ることに留意されたい。
表面評価システム
図2は、本出願の一実施形態による、以前に知られていない汚染物について例示的な一般的な表面評価を示す。システム120の重要な能力は、制約されないポーズ及び可変照明状態における対象物上の汚染の大きな変化を効率的かつ正確にマッピングすることが可能である。換言すれば、システム120は、同じポーズでクリーンな状態、及び汚染された状態を示す同一の対象物を特徴とする一致した対でトレーニングされる必要がない。システム120は、いくつかの汚染された対象物の画像、及び同様のポーズにおける同様のクリーンな対象物の対応する画像を含むことができる画像サンプル220によってトレーニングされ得る。この例では、画像サンプル220は、対象物200上の汚染を描写する画像222及び画像224、及びクリーンな対象物200を描写する画像226を含むことができる。
トレーニングに基づいて、システム120は、画像222及び224に描写される汚染及び汚染された構成要素以外の、対象物200の異なるタイプの汚染又は異なる構成要素上を検出することができる。システム120は、異なる照明状態及び/又はポーズで、対象物200上の汚染を更に検出することができる。この例では、入力画像250は、画像サンプル220に図示されていない異なる照明状態の対象物200を描写する。トレーニングに基づいて、システム120は、入力画像250に描写される汚染を検出し、ハイライトすることができる。
システム120は対象物200の画像サンプル220でトレーニングされるが、システム120は、対象物200からわずかな変化を有する別の対象物210の表面を評価することができる。例えば、対象物200がプリンタであり、システム120が、汚染を検出するために対象物200の表面を評価するようにトレーニングされる場合、システム120は、対象物200と同じシリーズに属する別のモデルのプリンタであり得る別の対象物210上の汚染を検出することができる。結果として、システム120は、画像サンプル220が対象物210上の汚染を描写する画像を含まない場合でも、対象物210の入力画像260からの汚染を検出することができる。入力画像260は、画像サンプル220に描写されなかった汚染を有する対象物210を描写することができることに留意されたい。これにより、トレーニングシステム120のデータ収集及びラベル付けプロセスが単純化される。
図3Aは、本出願の一実施形態による、対象物の表面上の汚染をハイライトする画像の例示的な生成を示す。操作中、システム120は、対象物300の入力画像302内の対象物300上の汚染322を示す画素を検出する。次いで、システム120は、入力画像302からクリーンな(例えば、汚染のない)画像を合成する。この合成画像を生成するために、システム120は、入力画像302でCC-GAN 312を使用して、汚染322のない対象物300を描写する再構成画像304を生成することができる。
次いで、システム120は、入力画像302を再構成画像304と比較して、対象物300の表面を評価する。システム120は、再構成画像304と入力画像302との間に画素差分演算314を適用することができる。システム120は、RGB空間、HSL空間、及びHSV空間のうちの1つ又は複数において差分演算314を決定することができる。次いで、差分演算314は、再構成画像304と入力画像302との間に画素差分324を描写する微分画像306を生成する。次いで、システム120は、1つ又は複数の強調操作316(例えば、拡張、平滑化、閾値処理など)を画素差分324に適用する。
例えば、拡張操作は、画素差分324の領域の境界を徐々に拡大することができる。拡張操作により、画素差分324上の画素はサイズを拡大することができ、それにより画素差分324の隙間がより小さくなる。画素差分324が粗い又はぎざぎざの縁部を含む場合、平滑化操作は、より滑らか、かつ連続的に見えるように粗い縁部を和らげることができる。閾値処理のために、システム120は、微分画像306の各画素を1つ又は複数の閾値と比較することができる。システム120が、画素の強度が閾値未満であると決定した場合、システム120は、画素を背景の画素色に設定することができる。画素差分324上の画素は、微分画像306の他の画素と比較してより高い値を有する可能性があるため、閾値処理操作は画素差分324上の画素を強調することができる。この操作はまた、それらの画素を背景の画素色に設定することによって、他の画素を除外することができる。
強調操作316に基づいて、システム120は、対象物300上の汚染322をハイライトするハイライト画像308を生成する。このようにして、ハイライト画像308は、対象物300の汚染マップ326を表すことができる。ハイライト画像306のこの汚染マップ326は再構成画像304から作成されるため、ハイライト画像308内の汚染マップ326は、入力画像302内の対象物300の背景330を除外することができる。同様に、汚染マップ326はまた、対象物300の汚染されていない要素を除外することもできる。このようにして、システム120は、不規則な形状、オクルージョン、影、及び意識逸らし表面テクスチャの1つ又は複数を有する可能性がある、対象物300などの複雑な対象物上の汚染を検出することができる。
ハイライト画像306が2次元(2D)画像である場合、汚染マップ326は、2Dの汚染マップであり得る。したがって、汚染マップ326は、対象物300のパネルなどの比較的平坦な構成要素の汚染除去のためのガイダンスを提供することができる。しかしながら、深度を有する構成要素の場合、システム120は、汚染除去プロセスが対象物300の幾何学的形状をたどることができることを確実にするために深度情報を組み込む必要がある。図3Bは、本出願の一実施形態による、対象物の深度情報に基づいた汚染除去装置の強調汚染マップの例示的な生成を示す。システム120は、ハイライト画像308に示される汚染領域を、対象物300の3D幾何学的形状の箇所に投影することによって、深度情報を組み込むことができる。
操作中、システム120は、入力画像302と共に対象物300の深度情報352(例えば、幾何学的特性)を取得することができる。システム120は、撮像デバイス(例えば、深度カメラ)によって捕捉され、及び/又は生成された対象物画像350から深度情報352を取得することができる。撮像デバイスの例としては、ステレオカメラ、及びLIDARデバイス、及び赤外線エミッタが含まれるが、これらに限定されない。対象物画像350は、画像上の対象物300の外観と、画像の各画素のための深度推定との両方を含むことができる。システム120は、画像及び深度推定を分割して、入力画像302及び深度情報352をそれぞれ生成することができる。いくつかの実施形態では、入力画像302及び深度情報352は、別個に捕捉される。次いで、システム120は、深度点を、入力画像302の別個に捕捉された視覚的画素と位置合わせすることができる。
ハイライト画像308を生成すると、システム120は、各画素(又は画素のセット)とその画素(又は画素のセット)の深度推定値とを組み合わせることができる。組み合わせ操作に基づいて、システム120は、汚染マップ326と、汚染マップ326の画素に関連付けられた深度情報との両方を含む強調画像360を生成することができる。このようにして、強調画像360は、各画素(又は画素群)の深度情報を含む、強調汚染マップ328を表すことができる。いくつかの実施形態では、システム120は、深度情報352に基づいて、対象物300の幾何学的形状を表すメッシュを決定することができる。次いで、システム120は、対象物300の表面法線を決定し、汚染マップ326で識別された汚染画素をメッシュ上に投影する。システム120は、点又はメッシュ三角形を色付けして、汚染の箇所を示すことができる。
いくつかの実施形態では、システム120はまた、汚染除去操作の軌道を生成する経路プランナを操作することができる。図4は、本出願の一実施形態による、異なる視点からの対象物の深度情報に基づく汚染除去装置の軌道の例示的な生成を示す。汚染除去プロセスがノズルを介して対象物300上に汚染除去剤を噴霧することを含む場合、汚染除去装置は、対象物300の深度情報に基づいて、有効な洗浄に必要なノズル距離及び角度を維持する必要がある。強調画像360及び強調汚染マップ328に基づいて、システム120は、ノズルが対象物300の幾何学的形状をたどることができるように、ノズルのための軌道410のセットを生成することができる。軌道410のそれぞれは、軌道に対応する深度で対象物300上の汚染箇所を覆うことができる。
対象物300が複雑な突出部又は空洞を有する構成要素を含む場合、システム120は、汚染を正確にマッピングするために、対象物300の視点を変更する必要があり得る。例えば、強調画像360は、対象物300の視点402を表すことができる。したがって、軌道410は、視点402からの汚染除去を容易にすることができる。しかしながら、対象物300の異なる視点404は、異なる汚染のセットを示すことができる。その結果、システム120は、図3Aと併せて説明されるように、視点404を表す別の強調画像412を生成することができる。強調画像412に基づいて、システム120は、図3Bと併せて説明されるように、軌道414のセットを生成することができる。軌道414は、視点404からの汚染除去を容易にすることができる。このようにして、システム120は、対象物に対する異なる視点から広範な汚染除去を容易にすることができる。
ユーザが、対象物の異なる視点に対応する対象物画像及び/又は入力画像を提供することができることに留意されたい。いくつかの実施形態では、システム120はまた、対応する対象物画像を取得するために、深度カメラ(又は任意の他の画像デバイス)を対象物の異なる視点に自動的に位置合わせするカメラ制御機構を含むことができる。システム120は、カメラ制御機構の所定の視点のセットを維持することができる。視点の微分画像が汚染を示していない場合、システム120は、その視点に対する更なる処理を中止することができる。
操作
図5Aは、本出願の一実施形態による、対象物の表面上の汚染をハイライトする深層強調画像を生成する表面評価システムの方法を示すフローチャートを示す。操作中、システムは、対象物の1つ又は複数の対象物画像を受信し(操作502)、各対象物画像に関連付けられた視点を決定する(操作504)。システムは、決定された視点から対象物の視点を選択することができる(操作506)。次いで、システムは、深度情報を生成し、選択された視点の入力画像を決定する(操作508)。対象物画像が深度情報を含む場合、システムは、深度情報及び入力画像を対象物画像から生成することができる。他の方法では、システムは、深度情報を別個に取得することができる。
次いで、このシステムは、入力画像からハイライト画像を生成し(操作510)、深度情報をハイライト画像と組み合わせて、強調画像を生成する(操作512)。次いで、システムは、全ての視点が分析されたかどうかを点検する(操作514)。全ての視点が分析されていない場合、システムは、決定された視点から対象物の視点を選択し続け(操作506)、選択された視点について深度情報及び入力画像を生成する(操作508)。全ての視点が分析された場合、システムは、生成された強調画像を局所記憶デバイス内に記憶する(操作516)。
図5Bは、本出願の一実施形態による、対象物の表面上の汚染をハイライトする画像を生成する表面評価システムの方法を示すフローチャートを示す。操作中、システムは、CC-GANを入力画像に付加して、対応する再構成画像を生成する(操作552)。次いで、システムは、入力画像と再構成画像との差分(例えば、画素差分)を決定する(操作554)。続いて、システムは、決定された差分に基づいて、微分画像を生成し(操作556)、微分画像上に拡張、平滑化、及び閾値処理などの1つ又は複数の強調操作を適用する(操作558)。強調操作はまた、微分画像上の汚染領域を識別することができる深層分割ネットワークに基づくことができる。次いで、システムは、強調操作に基づいて、微分画像からハイライト画像を生成する(560)。
図6は、本出願の一実施形態による、対象物の深度情報に基づいて、汚染除去装置の軌道を生成する表面評価システムの方法を示すフローチャートを示す。操作中、システムは、対象物画像から対象物の表現(例えば、メッシュ表現又はボクセル表現)を決定し(操作602)、対象物の表面法線を決定する(操作604)。次いで、システムは、対象物のハイライト画像内の汚染マップの画素を、決定されたメッシュ上に投影する(操作606)。続いて、システムは、点及び/又はメッシュ三角形をハイライトして、汚染箇所を示す(操作608)。次いで、システムは、ハイライトされた点及び/又はメッシュ三角形を覆う軌道を生成する(操作610)。
例示的なコンピュータシステム及び装置
図7は、本出願の一実施形態による、表面評価システムを容易にする例示的なコンピュータシステムを示す。コンピュータシステム700は、プロセッサ702、メモリデバイス704、及び記憶デバイス708を含む。メモリデバイス704は、揮発性メモリデバイス(例えば、デュアルインラインメモリモジュール(dual in-line memory module、DIMM))を含むことができる。更に、コンピュータシステム700は、ディスプレイデバイス710、キーボード712、及びポインティングデバイス714に連結することができる。記憶デバイス708は、オペレーティングシステム716、表面評価システム718、及びデータ736を記憶することができる。表面評価システム718は、システム120の操作を組み込むことができる。
表面評価システム718は、コンピュータシステム700によって実行されると、コンピュータシステム700に本開示に記載される方法及び/又はプロセスを実行させることができる命令を含むことができる。具体的には、表面評価システム718は、表面評価システム718のCC-GANをトレーニングするための命令を含むことができる(トレーニングモジュール720)。表面評価システム718はまた、対象物の入力画像及び/又は深度情報(例えば、対象物画像から)を生成するための命令を含むことができる(入力モジュール722)。更に、表面評価システム718は、再構成画像を生成する(例えば、CC-GANを使用して)ための命令を含む(再構成モジュール724)。
加えて、表面評価システム718は、入力画像及び再構成画像に基づいて、微分画像及び対応するハイライト画像を生成するための命令を含む(ハイライトモジュール726)。表面評価システム718はまた、深度情報をハイライト画像に組み込むための命令と、強調画像を生成するための命令とを含むことができる(深度合成モジュール728)。表面評価システム718は、強調画像から軌道のセットを生成するための命令を更に含むことができる(経路プランナモジュール730)。表面評価システム718はまた、対象物の異なる視点を覆うための命令を含むことができる(視点モジュール732)。加えて、表面評価システム718は、メッセージを送信及び受信するための命令を含むことができる(通信モジュール734)。
データ736は、システム120の操作を容易にすることができる任意のデータを含むことができる。データ736は、画像サンプル、対象物画像、入力画像、深度情報、微分画像、ハイライト画像、強調画像、及び軌道のうちの1つ又は複数を含むことができる。
図8は、本出願の一実施形態による、表面評価システムを容易にする例示的な装置を示す。表面評価装置800は、有線、無線、量子光、又は電気通信チャンネルを介して互いに通信し得る複数のユニット又は装置を備えることができる。装置800は、1つ又は複数の集積回路を使用して実現することができ、図8に示されているものよりも少ない又は多いユニット又は装置を含むことができる。更に、装置800は、コンピュータシステムに統合され得るか、又は他のコンピュータシステム及び/又はデバイスと通信することができる別個のデバイスとして実現され得る。具体的には、装置800は、トレーニングユニット802、入力ユニット804、再構成ユニット806、ハイライトユニット808、深度合成ユニット810、経路プランナユニット812、視点ユニット814、及び通信ユニット816を含む、図7のコンピュータシステム700のモジュール720-724と同様の機能又は操作を実行するユニット802-816を備えることができる。
「発明を実施するための形態」に記載されるデータ構造及びコードは、典型的には、コンピュータ可読記憶媒体に記憶され、コンピュータ可読記憶媒体は、コンピュータシステムが使用するためのコード及び/又はデータを記憶することができる任意のデバイス又は媒体であり得る。コンピュータ可読記憶媒体としては、揮発性メモリ、不揮発性メモリ、ディスク、磁気テープ、CD(compact disc、コンパクトディスク)、DVD(digital versatile disc、デジタル多用途ディスク、又はdigital video disc、デジタルビデオディスク)などの磁気及び光学ストレージデバイス、又は現在知られている若しくは今後開発されるコンピュータ可読メディア媒体を記憶できるその他の媒体が挙げられるが、これらに限定されない。
「発明を実施するための形態」の節に記載される方法及びプロセスは、上に論じられるようなコンピュータ可読記憶媒体内に記憶され得るコード及び/又はデータとして具体化され得る。コンピュータシステムが、コンピュータ可読記憶媒体上に記憶されたコード及び/又はデータを読み取って実行すると、コンピュータシステムは、データ構造及びコードとして具体化され、コンピュータ可読記憶媒体内に記憶された方法及び処理を実行する。
更に、上述の方法及びプロセスは、ハードウェアモジュールに含めることができる。例えば、ハードウェアモジュールとしては、特定用途向け集積回路(application-specific integrated circuit、ASIC)チップ、フィールドプログラマブルゲートアレイ(field-programmable gate array、FPGA)、及び現在知られている又は今後開発される他のプログラム可能論理デバイスを含むことができるが、これらに限定されない。ハードウェアモジュールが起動されると、ハードウェアモジュールは、ハードウェアモジュール内に含まれる方法及びプロセスを実行する。
本明細書に記載される前述の実施形態は、例示及び説明のみを目的として提示されている。これらは、網羅的であること、又は本明細書に記載される実施形態を開示される形態に限定することを意図するものではない。したがって、多くの修正及び変形が、当業者には明らかであろう。加えて、上記の開示は、本明細書に記載される実施形態を限定することを意図するものではない。本明細書に記載される実施形態の範囲は、添付の特許請求の範囲によって定義される。

Claims (16)

  1. 汚染を検出するために対象物の表面を評価する方法であって
    前記対象物上の前記汚染を示す入力画像を取得することと、
    前記入力画像に関連付けられた深度情報を決定することと、
    前記入力画像に基づいて人工知能(AI)モデルを使用して、合成画像を生成することであって、前記合成画像が、前記汚染のない前記対象物を示す、生成することと、
    前記入力画像と前記合成画像との差分を決定して、前記汚染に対応する画像領域を識別することと、
    1つ又は複数の画像強調操作に基づいて、前記画像領域をハイライトすることによって、汚染の汚染マップを生成することと、
    前記深度情報を前記汚染マップに組み込んで、強調汚染マップを生成することと、
    前記強調汚染マップに基づいて汚染除去装置の軌道のセットを生成することであって、それぞれの軌道が、前記軌道に対応する深度での前記対象物上の汚染箇所を覆う、生成することと、
    を含む、方法。
  2. 前記AIモデルが、周期の一貫した敵対的生成ネットワーク(CC-GAN)を含む、請求項1に記載の方法。
  3. 前記CC-GANが2セットの画像サンプルでトレーニングされ、前記2セットの画像サンプルのうちの第1の画像サンプルが、汚染を伴う前記対象物の画像を含み、前記2セットの画像サンプルのうちの第2の画像サンプルが、汚染のない前記対象物の画像を含み、前記入力画像内に示される前記汚染が、前記2セットの画像サンプルの中に存在しない、請求項2に記載の方法。
  4. 前記入力画像と前記合成画像との差分が、赤-緑-青(RGB)空間、
    色相、彩度、明度(HSL)空間、及び色相、彩度、値(HSV)空間のうちの1つ又は複数の画素差分である、請求項1に記載の方法。
  5. 前記画像強調操作が、拡張、平滑化、閾値処理、及び深層分割ネットワークに関連付けられた操作のセットのうちの1つ又は複数を含む、請求項1に記載の方法。
  6. 前記深度情報を組み込むことが、
    前記深度情報に基づいて、前記対象物の幾何学的形状を表すメッシュを決定することと、
    前記汚染マップ内に示された汚染領域を、前記メッシュ内の対応する箇所に投影することと
    を含む、請求項1に記載の方法。
  7. 前記対象物のための汚染マップのセットを生成することを更に含み、それぞれの汚染マップが前記対象物の視点を示す、請求項1に記載の方法。
  8. 前記汚染マップを生成することが、前記入力画像の背景及び前記対象物の汚染されていない要素を除外することを含む、請求項1に記載の方法。
  9. コンピュータによって実行されると、前記コンピュータに、汚染を検出するために対象物の表面を評価する方法を実行させる命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記方法が、
    前記対象物上の前記汚染を示す入力画像を取得することと、
    前記入力画像に関連付けられた深度情報を決定することと、
    前記入力画像に基づいて人工知能(AI)モデルを使用して、合成画像を生成することであって、前記合成画像が、前記汚染のない前記対象物を示す、生成することと、
    前記入力画像と前記合成画像との差分を決定して、前記汚染に対応する画像領域を識別することと、
    1つ又は複数の画像強調操作に基づいて、前記画像領域をハイライトすることによって、前記汚染の汚染マップを生成することと、
    前記深度情報を前記汚染マップに組み込んで、強調汚染マップを生成することと、
    前記強調汚染マップに基づいて汚染除去装置の軌道のセットを生成することであって、それぞれの軌道が、前記軌道に対応する深度での前記対象物上の汚染箇所を覆う、生成することと、
    を含む、非一時的コンピュータ可読記憶媒体。
  10. 前記AIモデルが、周期の一貫した敵対的生成ネットワーク(CC-GAN)を含む、請求項に記載のコンピュータ可読記憶媒体。
  11. 前記CC-GANが2セットの画像サンプルでトレーニングされ、前記2セットの画像サンプルのうちの第1の画像サンプルが、汚染を伴う前記対象物の画像を含み、前記2セットの画像サンプルのうちの第2の画像サンプルが、汚染のない前記対象物の画像を含み、前記入力画像内に示される前記汚染が、前記2セットの画像サンプルの中に存在しない、請求項10に記載のコンピュータ可読記憶媒体。
  12. 前記入力画像と前記合成画像との差分が、赤-緑-青(RGB)空間、
    色相、彩度、明度(HSL)空間、及び色相、彩度、値(HSV)空間のうちの1つ又は複数の画素差分である、請求項に記載のコンピュータ可読記憶媒体。
  13. 前記画像強調操作が、拡張、平滑化、閾値処理、及び深層分割ネットワークに関連付けられた操作のセットのうちの1つ又は複数を含む、請求項に記載のコンピュータ可読記憶媒体。
  14. 前記深度情報を組み込むことが、
    前記深度情報に基づいて、前記対象物の幾何学的形状を表すメッシュを決定することと、
    前記汚染マップ内に示された汚染領域を、前記メッシュ内の対応する箇所に投影することと
    を含む、請求項に記載のコンピュータ可読記憶媒体。
  15. 前記方法が、前記対象物のための汚染マップのセットを生成することを更に含み、それぞれの汚染マップが前記対象物の視点を示す、請求項に記載のコンピュータ可読記憶媒体。
  16. 前記汚染マップを生成することが、前記入力画像の背景及び前記対象物の汚染されていない要素を除外することを含む、請求項に記載のコンピュータ可読記憶媒体。
JP2020106950A 2019-07-25 2020-06-22 自動表面評価のためのシステム及び方法 Active JP7489240B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/522,510 2019-07-25
US16/522,510 US11222418B2 (en) 2019-07-25 2019-07-25 System and method for automated surface assessment

Publications (3)

Publication Number Publication Date
JP2021022369A JP2021022369A (ja) 2021-02-18
JP2021022369A5 JP2021022369A5 (ja) 2023-06-29
JP7489240B2 true JP7489240B2 (ja) 2024-05-23

Family

ID=71607723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020106950A Active JP7489240B2 (ja) 2019-07-25 2020-06-22 自動表面評価のためのシステム及び方法

Country Status (3)

Country Link
US (2) US11222418B2 (ja)
EP (1) EP3779874A3 (ja)
JP (1) JP7489240B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112557416A (zh) * 2019-09-09 2021-03-26 英业达科技有限公司 使用深度学习模型检测焊点是否桥接的系统及方法
JP7501264B2 (ja) * 2020-09-15 2024-06-18 株式会社アイシン 異常検出装置、異常検出プログラム、および異常検出システム
US11651497B2 (en) 2021-03-25 2023-05-16 Mitsubishi Electric Research Laboratories, Inc. InSeGAN: a generative approach to instance segmentation in depth images
CN113052972B (zh) * 2021-04-09 2022-08-23 杭州群核信息技术有限公司 基于神经网络的光照效果增强的方法、装置、系统和介质
KR102419738B1 (ko) * 2021-08-31 2022-07-12 주식회사 별하늘친구 인공지능을 이용하는 얼룩검사 학습을 위한 이미지 데이터를 생성하는 방법
CN113888506B (zh) * 2021-09-30 2023-05-05 电子科技大学 基于深度分割网络的包覆药形状缺陷检测算法
CN115100215A (zh) * 2022-08-29 2022-09-23 南通市赛孚环保科技有限公司 一种污水处理过程中溶解氧含量的预测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070217672A1 (en) 2006-03-20 2007-09-20 Siemens Power Generation, Inc. Combined 2D and 3D nondestructive examination
WO2016157349A1 (ja) 2015-03-30 2016-10-06 株式会社日立製作所 形状計測方法およびその装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922807B2 (en) * 2018-10-29 2021-02-16 Stmicroelectronics S.R.L. Wafer manufacturing system, device and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070217672A1 (en) 2006-03-20 2007-09-20 Siemens Power Generation, Inc. Combined 2D and 3D nondestructive examination
WO2016157349A1 (ja) 2015-03-30 2016-10-06 株式会社日立製作所 形状計測方法およびその装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kyosuke Komoto et al.,A Performance Evaluation of Defect Detection by using Denoising AutoEncoder Generative Adversarial Networks,[online],2018年03月31日,https://ieeexplore.ieee.org/document/8369766
Praveer Singh et al., Cloud-Gan: Cloud Removal for Sentinel-2 Imagery Using a Cyclic Consistent Generative Adversarial Networks,[online],2018年11月04日,https://ieeexplore.ieee.org/document/8519033

Also Published As

Publication number Publication date
US20210027442A1 (en) 2021-01-28
JP2021022369A (ja) 2021-02-18
US11222418B2 (en) 2022-01-11
US20220067908A1 (en) 2022-03-03
EP3779874A2 (en) 2021-02-17
EP3779874A3 (en) 2021-05-12
US11580634B2 (en) 2023-02-14

Similar Documents

Publication Publication Date Title
JP7489240B2 (ja) 自動表面評価のためのシステム及び方法
Murali et al. Shadow detection and removal from a single image using LAB color space
US9042662B2 (en) Method and system for segmenting an image
JP4610411B2 (ja) 物体を含むシーンの様式化された画像を生成する方法
Xu et al. Shadow removal from a single image
CN108377374B (zh) 用于产生与图像相关的深度信息的方法和系统
US20230351582A1 (en) A line clearance system
TW201434010A (zh) 具有在預處理層及一或多個更高層之間之多通道介面之影像處理器
CN115937059A (zh) 具有生成式训练模型的零件检查系统
JP2024529423A (ja) 保安検査ct対象物認識方法及び装置
Yan et al. Snow removal from light field images
CN111612681A (zh) 数据获取方法、水印识别方法、水印去除方法及装置
Haik et al. A novel inspection system for variable data printing using deep learning
Vasavi et al. Metadata Based Object Detection and Classification Using Key Frame Extraction Method
Antonello et al. Autonomous robotic system for thermographic detection of defects in upper layers of carbon fiber reinforced polymers
Krutov et al. Television images identification in the vision system basis on the mathematical apparatus of cubic normalized B-splines
Cardaillac et al. Marine snow detection for real time feature detection
Narasimharao et al. Advanced Techniques for Color Image Blind Deconvolution to Restore Blurred Images
Frick et al. Time-consistent foreground segmentation of dynamic content from color and depth video
JP2006145228A (ja) ムラ欠陥検出方法及び装置
Priyadarshi et al. Deblurring of Images and Barcode Extraction of PV Modules using Supervised Machine learning for Plant Operation and Maintenance
Cislariu et al. Defect detection and restoration of cultural heritage images
CN118351059A (zh) 电路板检测方法、装置、计算机设备和存储介质
Meng et al. Enhancing images for vision measurement in hazy tunnel construction
Ha et al. Glare and shadow reduction for desktop digital camera capture systems

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7489240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150