JP6952268B2 - 処理方法およびそれを利用した処理装置 - Google Patents

処理方法およびそれを利用した処理装置 Download PDF

Info

Publication number
JP6952268B2
JP6952268B2 JP2020500261A JP2020500261A JP6952268B2 JP 6952268 B2 JP6952268 B2 JP 6952268B2 JP 2020500261 A JP2020500261 A JP 2020500261A JP 2020500261 A JP2020500261 A JP 2020500261A JP 6952268 B2 JP6952268 B2 JP 6952268B2
Authority
JP
Japan
Prior art keywords
image
processing
layer
filter
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020500261A
Other languages
English (en)
Other versions
JPWO2019159419A1 (ja
Inventor
俊嗣 堀井
俊嗣 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2019159419A1 publication Critical patent/JPWO2019159419A1/ja
Application granted granted Critical
Publication of JP6952268B2 publication Critical patent/JP6952268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、処理技術、特に画像に対する処理を実行する処理方法およびそれを利用した処理装置に関する。
画像認識処理には、例えば、Deep Learningが使用される。Deep Learningは、多層のニューラルネットワークを使った機械学習の方法論として知られ、多層ニューラルネットワークには例えば畳み込みニューラルネットワークが使用される。畳み込みニューラルネットワークは、局所領域の畳み込み(Convolution)とプーリング(Pooling)とを繰り返す多層のニューラルネットワークによって形成される。さらに、畳み込みニューラルネットワークを構成する全結合層を畳み込み層にする完全畳み込みニューラルネットワークの構造が提案されている(例えば、非特許文献1参照)。
Jonathan Long,Evan Shelhamer,Trevor Darrell,"Fully Convolutional Networks for Semantic Segmentation",The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 3431−3440
完全畳み込みニューラルネットワークを画像認識処理に使用するためには、教師データを使用して完全畳み込みニューラルネットワークを予め学習させておく必要がある。完全畳み込みニューラルネットワークの場合、教師データには、色塗りによるセグメンテーションがなされた画像が使用される。一般的に、色塗りによるセグメンテーションがなされた画像は手作業により生成される。このような手作業による作業量は、教師データの数が多くなるほど増加する。一方、学習に使用される教師データの数が多くなるほど、画像認識処理の精度は向上する。
本開示はこうした状況に鑑みなされたものであり、その目的は、学習の作業量の増加を抑制しながら、画像認識処理の精度の低下を抑制する技術を提供することにある。
上記課題を解決するために、本開示のある態様の処理装置は、処理対象の画像を入力する入力部と、入力部に入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行する処理部と、処理部の処理結果を出力する出力部とを備える。処理部における畳み込みニューラルネットワークは、畳み込み層とプーリング層とを含む。処理部における畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、畳み込み層のフィルタの学習がなされており、入力部に入力される画像のサイズは、畳み込み層のフィルタを学習する際に畳み込みニューラルネットワークに入力される学習用画像であって、かつ畳み込み層のフィルタを学習する際の処理結果に対応した学習用画像のサイズよりも大きい。
本開示の別の態様は、処理方法である。この方法は、入力部が、処理対象の画像を入力するステップと、処理部が、入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行するステップと、出力部が、処理結果を出力するステップとを備える。畳み込みニューラルネットワークは、畳み込み層とプーリング層とを含む。畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、畳み込み層のフィルタの学習がなされており、入力される画像のサイズは、畳み込み層のフィルタを学習する際に畳み込みニューラルネットワークに入力される学習用画像であって、かつ畳み込み層のフィルタを学習する際の処理結果に対応した学習用画像のサイズよりも大きい。
なお、以上の構成要素の任意の組合せ、本開示の表現を方法、装置、システム、コンピュータプログラム、またはコンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本開示の態様として有効である。
本開示によれば、学習の作業量の増加を抑制しながら、画像認識処理の精度の低下を抑制できる。
図1(a)−(c)は、実施例の処理対象を示す図である。 実施例の比較対象となる処理装置における処理の概要を示す図である。 実施例の比較対象となる処理装置における処理の概要を示す図である。 図4(a)−(b)は、実施例に係る処理装置の構成を示す図である。 図4(a)−(b)の処理部における処理の概要を示す図である。 図5における畳み込み層における処理の概要を示す図である。 図7(a)−(c)は、図4(b)の処理装置において処理される画像を示す図である。 図8(a)−(b)は、図4(b)の出力部から出力される出力画像を示す図である。 図9(a)−(b)は、図4(a)−(b)の処理装置における処理手順を示すフローチャートである。
本開示の実施例を具体的に説明する前に、本実施例の概要を説明する。実施例は、太陽電池セルを撮像した画像に対して画像認識処理を実行することによって、太陽電池セルの検査を実行する処理装置に関する。太陽電池セルの検査の一例は、太陽電池セルにおける内部クラックの有無であり、内部クラックが生じている太陽電池セルは、衝撃を受けると割れやすくなるので不良品とされる。このような内部クラックは、太陽電池セルが単結晶シリコンである場合45度の角度に生じる。内部クラックが生じる角度が決まっていても内部クラックがエッチングムラ等と重なる場合には内部クラックの検出が困難である。そのため、太陽電池セルの検査には画像認識処理が使用される。
これまでは、太陽電池セルを撮像した画像に対してガボールフィルタ処理を実行して45度の線分を鮮鋭化させてからDeep Learningがなされていた。しかしながら、太陽電池セルの表面に45度の電極が形成されるようになると、このような電極もガボールフィルタ処理によって鮮鋭化されてしまうので、ガボールフィルタ処理の使用が困難である。このような状況下において、太陽電池セルを撮像した画像に対する畳み込みニューラルネットワークの使用が有力である。畳み込みニューラルネットワークは、複数のフィルタによる畳み込み処理により特徴を抽出する畳み込み層と、一定領域の反応をまとめるプーリング処理により局所的なデータの不変性を獲得するプーリング層と、Softmax関数等による確率を用いて認識を行う全結合層とを含む。これらのうちの全結合層により、畳み込みニューラルネットワークでは、任意のサイズの画像に対する処理が困難である。これらを解決するために、畳み込みニューラルネットワークの全結合層を畳み込み層に変えた完全畳み込みニューラルネットワークが使用される。
完全畳み込みニューラルネットワークでは、畳み込み層とプーリング層の処理が繰り返されるダウンサンプリング処理が実行された後、畳み込み層とアッププーリング層の処理が繰り返されるアップサンプリング処理が実行される。ここで、ダウンサンプリング処理によって画像の空間次元が小さくなり、アップサンプリング処理によって画像の空間次元が大きくなる。このような処理によって、完全畳み込みニューラルネットワークから出力される画像(以下、「出力画像」という)は、入力される画像(以下、「入力画像」という)と同等の空間次元を有する。また、出力画像には、画像中の物体に対して色塗りによるセグメンテーションがなされている。完全畳み込みニューラルネットワークを含むニューラルネットワークでは、画像認識処理を実行する前の学習が必要である。完全畳み込みニューラルネットワークの場合、教師データを使用して、畳み込み層のフィルタ係数が学習される。しかしながら、前述のごとく、教師データを生成するための作業量が大きい。画像認識処理の精度を向上させるために教師データの数を多くする必要があり、教師データの数が多くなると、教師データを生成するための作業量がさらに増加する。
教師データを生成するための作業量の増加を抑制するために、本実施例では、完全畳み込みニューラルネットワークにおけるアップサンプリング処理を除外した畳み込みニューラルネットワークを使用する。ここで、学習の際には、出力画像が1×1の空間次元となる教師データと、当該教師データに対応した入力画像とが使用される。本実施例において、教師データに対応した入力画像は「学習用画像」と呼ばれることもある。教師データでは、セグメンテーションの結果、例えば、OK、内部クラック、色ムラ等のみが示され、位置情報が削除されている。これにより、教師データを生成しやすくなるので、教師データの数を多くしても、教師データを生成するための作業量の増加は抑制される。一方、画像認識処理においては、不良とすべき太陽電池セルにおいて内部クラックが生じている位置を特定できればよく、太陽電池セルの相似形として処理結果が得られれば位置の特定が可能であるので、本実施例によっても画像認識処理の精度の低下は抑制される。
図1(a)−(c)は、実施例の処理対象を示す。図1(a)は、検査対象、つまり画像認識処理対象となる太陽電池セル10の構成を示す斜視図である。太陽電池セル10は、例えば、単結晶シリコンで形成され、受光面12と裏面14とを含む板形形状を有する。受光面12は主として太陽光が入射される面であり、裏面14は受光面12の反対側を向いた面である。図1(b)は、図1(a)の太陽電池セル10を受光面12側あるいは裏面14側から赤外線で撮像した画像20を示す。画像20には、吸着パッド22、エッチングムラ24、電極補強線26、ソーマーク28、ウエハ厚み分布30が太陽電池セル10上に模様のように示されている。これらについては公知の技術であるので、ここでは説明を省略するが、これらは、不良品のパターンではなく、良品のパターンである。
図1(c)は、図1(a)の太陽電池セル10を受光面12側あるいは裏面14側から赤外線で撮像した画像20を示す。図1(c)は、図1(b)とは異なった太陽電池セル10を撮像した画像20に相当する。図示のごとく、45度の方向に延びる線分と、135度の方向に延びる線分とが交差する「×」印の内部クラック32が太陽電池セル10上に示されている。これは、不良品のパターンである。ここでは、説明を明瞭にするために内部クラック32だけを示している。しかしながら実際には、図1(b)のような画像20に内部クラック32が混ざっている。例えば、吸着パッド22の中、エッチングムラ24の中に内部クラック32が埋もれている。そのため、画像20の中に内部クラック32が含まれているか否かを正確に判定することは容易でない。
図2は、実施例の比較対象となる処理装置50における処理の概要を示す。処理装置50は、前述の全結合層を含んだ畳み込みニューラルネットワークの構成を有する。処理装置50は、畳み込み層42と総称する第1畳み込み層42a、第2畳み込み層42b、第3畳み込み層42c、第4畳み込み層42d、第5畳み込み層42e、第6畳み込み層42f、プーリング層44と総称される第1プーリング層44a、第2プーリング層44b、第3プーリング層44c、第4プーリング層44d、第5プーリング層44e、全結合層46を含む。このような畳み込み層42、プーリング層44、全結合層46は、各処理を実行するブロックのイメージを示す。入力画像40は、処理装置50における画像認識処理の処理対象となる画像であり、前述の画像20の少なくとも一部に相当する。入力画像40は、第1畳み込み層42aに入力される。
各畳み込み層42は、直六面体で示され、それは、奥行き方向と高さ方向とを有する正方形の2つの第1面52と、2つの第1面52に挟まれる4つの第2面54で構成される。図面を明瞭にするために、第1面52と第2面54は第1畳み込み層42aだけに示される。第1面52の大きさは、畳み込み層42において処理される画像の空間次元の大きさ、つまり画像のサイズを示す。畳み込み層42は、画像に対して、画像のサイズよりも小さいサイズの空間フィルタをずらしながら空間フィルタリングを実行する。
空間フィルタリングは公知の技術であるので、ここでは説明を省略するが、この空間フィルタリングが畳み込み処理に相当し、畳み込み処理によって画像の特徴量が抽出される。畳み込み層42においてパディング等が実行されてもよい。さらに、畳み込み層42は、画像に対して、複数の空間フィルタを並列に使用して、複数の空間フィルタリングを並列して実行してもよい。このような複数の空間フィルタの並列使用によって、画像が増加する。畳み込み層42において並列に使用される空間フィルタの数は、チャンネル数と呼ばれ、これは第2面54の左右方向の長さによって示される。
各プーリング層44も畳み込み層42と同様に構成される。プーリング層44は、画像内の任意の領域に含まれた複数の画素を1つの画素にまとめることによって、画像のサイズを小さくする。ここで、複数の画素を1つの画素にまとめるために、平均プーリングあるいは最大プーリングが実行される。平均プーリングでは、領域内の複数の画素値の平均値が1つの画素に対して使用され、最大プーリングでは、領域内の複数の画素値のうちの最大値が1つの画素に対して使用される。プーリング処理は、着目領域における代表値あるいは平均値の並進移動に対してロバスト性を強化するためになされる。
ここでは、第1畳み込み層42a、第1プーリング層44a、第2畳み込み層42b、第2プーリング層44b、第3畳み込み層42c、第3プーリング層44c、第4畳み込み層42d、第4プーリング層44d、第5畳み込み層42e、第5プーリング層44e、第6畳み込み層42fの順に処理が実行される。つまり、畳み込み処理とプーリング処理とが繰り返し実行される。また、畳み込み処理とプーリング処理とが繰り返されることによって、画像のサイズが順に小さくされ、第6畳み込み層42fは、1×1の空間次元となり、かつ1以上のチャンネル数を有する画像を全結合層46に出力する。ここでは、一例として、チャンネル数を「8」とする。
全結合層46は、特徴量が抽出されている画像を第6畳み込み層42fから受けつける。全結合層46は、特徴量に基づいて、複数のクラスへの分類を実行することによって、画像を識別する。全結合層46における処理には公知の技術が使用されればよいので、ここでは説明を省略するが、全結合層46における分類結果、つまり識別結果が出力48である。出力48では、「OK」、「内部クラック」、「エッチングムラ」、「ピンホール」、「黒点」、「割欠け」、「吸着パッド」、「バスバー」の8つのクラスのそれぞれに対する確率が示される。この場合は、「内部クラック」に対する確率が「0.9」と高いので、入力画像40には内部クラック32が存在すると識別される。
このような画像認識処理を実行する前に、処理装置50に対して学習処理が実行される。学習処理は、既知の出力48となる教師データと、当該教師データに対応した学習用画像を処理装置50に入力して、全結合層46における係数、各畳み込み層42の空間フィルタの係数を学習させる。学習用画像は、入力画像40と同一のサイズを有しており、画像認識処理が正確に実行された場合に教師データが出力されるような元の画像である。このような学習処理には公知の技術が使用されればよい。学習処理において、教師データと学習用画像の組合せが大量に使用されるほど、これらの係数の精度が向上し、画像認識処理の精度も向上する。
学習処理が終了した後、前述の画像認識処理が実行される。処理装置50には、元画像である画像20を切り出して一定のサイズにされた入力画像40が入力される。処理装置50は、例えば内部クラック32などが入力画像40に存在するか否かを2元的に画像認識処理し、入力画像40に内部クラック32が存在していれば、内部クラック32の存在が示された出力48を生成する。これは、画像認識処理によって、8つのクラスに分類されることに相当する。
ここで、処理装置50において使用される畳み込みニューラルネットワークは、全結合層46を含む。全結合層46からの出力48のサイズは固定されているので、当該畳み込みニューラルネットワークが処理可能な入力画像40のサイズも固定される。つまり、処理装置50は、一定のサイズの入力画像40しか認識処理できない。そのため、処理装置50では、入力画像40のサイズに制限が設けられる。
図3は、実施例の比較対象となる処理装置70における処理の概要を示す。処理装置70は、完全畳み込みニューラルネットワークの構成を有する。処理装置70は、畳み込み層62と総称する第1畳み込み層62a、第2畳み込み層62b、第3畳み込み層62c、第4畳み込み層62d、第5畳み込み層62e、第6畳み込み層62f、第7畳み込み層62g、第8畳み込み層62h、第9畳み込み層62i、第10畳み込み層62j、第11畳み込み層62k、第12畳み込み層62l、第13畳み込み層62m、プーリング層64と総称する第1プーリング層64a、第2プーリング層64b、第3プーリング層64c、第4プーリング層64d、第5プーリング層64e、アッププーリング層66と総称される第1アッププーリング層66a、第2アッププーリング層66b、第3アッププーリング層66c、第4アッププーリング層66d、第5アッププーリング層66eを含む。このような畳み込み層62、プーリング層64、アッププーリング層66は、各処理を実行するブロックのイメージを示す。
入力画像60は、処理装置70における画像認識処理の処理対象となる画像である。完全畳み込みニューラルネットワークには、前述の全結合層が含まれないので、入力画像60のサイズに対する制限が設けられない。そのため、入力画像60は、前述の画像20であってもよい。入力画像60は、第1畳み込み層62aに入力される。
畳み込み層62は、前述の畳み込み層42と同様の処理を実行し、プーリング層64は、前述のプーリング層44と同様の処理を実行する。アッププーリング層66は、プーリング層64における処理とは逆の処理を実行する。つまり、プーリング層64では画像のサイズが小さくされるが、アッププーリング層66では画像のサイズが大きくされる。アッププーリング層66における処理には公知の技術が使用されればよいので、ここでは説明を省略する。
完全畳み込みニューラルネットワークは、ダウンサンプリング処理部72、アップサンプリング処理部74を順に配置する。ダウンサンプリング処理部72では、第1畳み込み層62a、第1プーリング層64a、第2畳み込み層62b、第2プーリング層64b、第3畳み込み層62c、第3プーリング層64c、第4畳み込み層62d、第4プーリング層64d、第5畳み込み層62e、第5プーリング層64e、第6畳み込み層62fが順に配置される。つまり、畳み込み処理とプーリング処理とが繰り返し実行される。また、畳み込み処理とプーリング処理とが繰り返されることによって、画像のサイズが順に小さくされる。
アップサンプリング処理部74では、第7畳み込み層62g、第8畳み込み層62h、第1アッププーリング層66a、第9畳み込み層62i、第2アッププーリング層66b、第10畳み込み層62j、第3アッププーリング層66c、第11畳み込み層62k、第4アッププーリング層66d、第12畳み込み層62l、第5アッププーリング層66e、第13畳み込み層62mが順に配置される。つまり、畳み込み処理とアッププーリング処理とが繰り返し実行される。また、畳み込み処理とアッププーリング処理とが繰り返されることによって、画像のサイズが順に大きくされ、第13畳み込み層62mは、入力画像60と近いサイズの画像(以下、「出力画像68」という)を出力する。
入力画像60に対して、ダウンサンプリング処理部72とアップサンプリング処理部74における画像認識処理を実行すると、出力画像68が取得される。出力画像68では、出力画像68に含まれた物体のそれぞれに対してクラスに応じた色塗りがなされている。つまり、画像認識処理の結果である出力画像68では、物体に対して色塗りによるセグメンテーションがなされている。例えば、入力画像60に内部クラック32が含まれている場合、出力画像68には内部クラック領域34が含まれる。内部クラック領域34は、内部クラック32と認識される領域であり、出力画像68における他の領域と異なった色で塗られている。また、入力画像60にエッチングムラ、吸着パッドが含まれる場合、出力画像68には、エッチングムラと認識される領域(以下、「エッチングムラ領域」という)、吸着パッドと認識される領域(以下、「吸着パッド領域」という)とが含まれる。その場合、内部クラック領域34、エッチングムラ領域、吸着パッド領域、その他の領域は、互いに異なった色で塗られている。出力画像68は特徴マップとも呼ばれる。
このような画像認識処理を実行する前に、処理装置70に対しても学習処理が実行される。学習処理は、既知の出力画像68となる教師データと、当該教師データに対応した学習用画像を処理装置70に入力して、各畳み込み層62の空間フィルタの係数を学習させる。ここで、教師データは、物体に対して色塗りによるセグメンテーションがなされた画像である。このような教師データは、一般的に手作業により生成される。そのため、教師データを生成するための作業量は、教師データの数が多くなるほど増加する。作業量を低減するために、教師データの数を少なくすると、画像認識処理の精度は低減する。このような状況下で、作業量の増加を抑制しながら、画像認識処理の精度の低下を抑制するためには、1つの教師データを生成するための作業量を低減する必要がある。入力画像60のサイズに対する制限が設けられないので、学習用画像と入力画像60は異なったサイズでもよい。
図4(a)−(b)は、処理装置100の構成を示す。特に、図4(a)は、学習処理のための構成を示し、図4(b)は、画像認識処理ための構成を示す。図4(a)における処理装置100と図4(b)における処理装置100とは、同一の装置であってもよいし、別の装置であってもよい。処理装置100は、学習処理ための構成として、第1入力部110、第2入力部112、処理部114を含み、画像認識処理のための構成として、入力部132、補正部134、処理部114、出力部136を含む。また、処理装置100は撮像装置130に接続される。つまり、学習処理において処理部114が学習され、画像認識処理において処理部114が使用される。処理装置100の構成を説明する前に、図2、図3と同様に、処理部114の構成を説明する。
図5は、処理部114における処理の概要を示す。処理部114は、畳み込み層142と総称する第1畳み込み層142a、第2畳み込み層142b、第3畳み込み層142c、第4畳み込み層142d、第5畳み込み層142e、第6畳み込み層142f、プーリング層144と総称する第1プーリング層144a、第2プーリング層144b、第3プーリング層144c、第4プーリング層144d、第5プーリング層144eを含む。このような畳み込み層142、プーリング層144は、各処理を実行するブロックのイメージを示す。
入力画像140は、処理装置100における画像認識処理の処理対象となる画像である。処理部114におけるニューラルネットワークには、完全畳み込みニューラルネットワークと同様に、全結合層が含まれないので、入力画像140のサイズに対する制限が設けられない。そのため、入力画像140は、前述の画像20であってもよい。入力画像140は、第1プーリング層144aに入力される。畳み込み層142は、前述の畳み込み層42、畳み込み層62と同様の処理を実行し、プーリング層144は、前述のプーリング層44、プーリング層64と同様の処理を実行する。
処理部114は、完全畳み込みニューラルネットワークと同様にダウンサンプリング処理部152を配置する。しかしながら、処理部114は、完全畳み込みニューラルネットワークとは異なり、アップサンプリング処理部を配置しない。ダウンサンプリング処理部152では、第1畳み込み層142a、第1プーリング層144a、第2畳み込み層142b、第2プーリング層144b、第3畳み込み層142c、第3プーリング層144c、第4畳み込み層142d、第4プーリング層144d、第5畳み込み層142e、第5プーリング層144e、第6畳み込み層142fが順に配置される。つまり、畳み込み処理とプーリング処理とが繰り返し実行される。
図6は、畳み込み層142における処理の概要を示す。画像200は、畳み込み層142における処理対象であり、ここでは、一例として10×10の画素により構成される。各画素は画素値を有する。畳み込み層142は、画像200の周囲をパディング202により拡張させることによって、拡張画像204を生成する。各パディング202も画素であり、拡張画像204は、12×12の画素により構成される。畳み込み層142は、拡張画像204に対して、拡張画像204のサイズよりも小さいサイズのフィルタ210をずらしながら畳み込みを実行する。フィルタ210は、例えば、3×3のサイズを有する。
ここで、パディング202の画素値は次のように決定される。処理部114は、パディング202を含むように拡張画像204とフィルタ210を対応付けた場合に、フィルタ210に対応付けられる画像の一部分、つまり画素のいずれかの画素値をパディング202に使用する。図6のごとく、拡張画像204の左上の部分にフィルタ210を対応付けた場合、5つのパディング202と4つの画素が含まれる。ここで、各パディング202の画素値には、4つの画素の画素値のいずれかが使用される。例えば、パディング202に最も近い画素の画素値が、当該パディング202の画素値とされる。また、処理部114は、パディング202を含むように拡張画像204とフィルタ210を対応付けた場合に、フィルタ210に対応付けられる画像の一部分、つまり画素の画素値の統計値をパディング202に使用する。図6のごとく、拡張画像204の左上の部分にフィルタ210を対応付けた場合、4つの画素の画素値の統計値が各パディング202の画素値とされる。統計値は、平均値、中央値を含む。図5に戻る。
畳み込み処理とプーリング処理とが繰り返されることによって、画像のサイズが順に小さくされ、第6畳み込み層142fは、1以上のチャンネル数を有する画像(以下、「出力画像148」という)を出力する。プーリング層144が最終段に配置され、プーリング層144が出力画像148を出力してもよい。ここでも、一例として、チャンネル数を「8」とする。つまり、入力画像140に対して、ダウンサンプリング処理部152における画像認識処理を実行すると、出力画像148が取得される。出力画像148については後述する。
このような処理部114の構成を元にして、ここでは、図4(a)を使用しながら、処理装置100における学習処理を説明する。第1入力部110は、既知の出力画像148となる教師データを受けつけ、第2入力部112は、第1入力部110において受けつけた教師データに対応した学習用画像を受けつける。処理部114は、図5の構成を有し、第1入力部110において受けつけた教師データと、第2入力部112において受けつけた学習用画像とをもとに、各畳み込み層142の空間フィルタの係数を学習させる。
本実施例において、教師データのサイズは1×1の空間次元を有する。そのため、教師データは、学習用画像に含まれた物体の位置情報を有さず、1つのチャンネルに対する教師データは、前述の出力48における8つのクラスのいずれかの物体の存在を示すだけである。例えば、学習用画像に内部クラック32が含まれている場合、「内部クラック」のクラスの教師データは、内部クラックの存在を示す。他のクラスについても同様であるので、8チャンネルに対する教師データは、各クラスの物体の存在を示しているだけである。つまり、1つのチャンネルに対する教師データは、1つのクラスの物体が存在するか否かだけを示せばよく、物体に対して色塗りによるセグメンテーションがなされた画像でなくてよい。そのため、物体に対して色塗りによるセグメンテーションがなされた画像を生成する場合と比較して、1つの教師データを生成するための作業量が低減する。その結果、作業量の増加を抑制しながら、教師データの数を多くすることが可能である。
一方、学習用画像は、画像認識処理が正確に実行された場合に教師データが出力されるような元の画像であり、そのサイズは教師データが1×1の空間次元となるように定められる。ここで、入力画像140のサイズに対する制限が設けられないので、学習用画像と入力画像140は異なったサイズでもよい。このような教師データと学習用画像を使用する状況下における空間フィルタの係数の学習自体には公知の技術が使用されればよいので、ここでは説明を省略する。
次に、図4(b)を使用しながら、処理装置100における画像認識処理を説明する。図4(a)と図4(b)における処理装置100とが別の装置である場合、図4(a)における処理部114に対する学習によって導出された空間フィルタの係数が、図4(b)における処理部114に設定される。
撮像装置130は、例えば、赤外線カメラであり、検査対象、つまり画像認識処理対象となる図1(a)の太陽電池セル10を赤外線で撮像する。例えば、8ビット、9Mピクセルによる撮像がなされる。撮像装置130は、撮像した画像を処理装置100に出力する。処理装置100の入力部132は、撮像装置130において撮像された画像(以下、「画像120」という)を受けつける。図7(a)−(c)は、処理装置100において処理される画像120を示し、特に、図7(a)は、入力部132に入力される画像120を示す。画像120には、太陽電池セル10の受光面12あるいは裏面14が示されている。一般的に、画像120において太陽電池セル10は傾いて配置される。図7(b)−(c)は後述し、図4(b)に戻る。入力部132は、画像120を補正部134に出力する。
補正部134は、入力部132から画像120を受けつける。補正部134は、画像120における太陽電池セル10の傾きを補正する。補正部134は、図7(a)の画像120における太陽電池セル10に対して、図7(b)のごとく、第1角辺L1、第2角辺L2、第3角辺L3、第4角辺L4を特定する。また、補正部134は、第1角辺L1と第2角辺L2とを延長させることによって交わる第1交点P1を導出する。さらに、補正部134は、第1交点P1と同様に、第2交点P2、第3交点P3、第4交点P4を導出する。これに続いて、補正部134は、透視投影変換を使用して、第1交点P1、第2交点P2、第3交点P3、第4交点P4を設定した座標へ移動するように画像120を変形する。変形した結果が図7(c)のように示される。補正部134は、補正した画像120を処理部114に出力する。
処理部114は、補正した画像120を補正部134から受けつける。処理部114は、図5に示される構成を有しており、受けつけた画像120は入力画像140に相当する。そのため、以下では、補正した画像120を入力画像140と呼ぶ。処理部114は、前述のごとく、入力画像140に対して、全結合層46が除外された畳み込みニューラルネットワークの処理を実行する。ここで、処理部114における畳み込みニューラルネットワークは、ダウンサンプリング処理部152を含み、ダウンサンプリング処理部152は、複数の畳み込み層142と複数のプーリング層144とを含む。そのため、処理部114は、ダウンサンプリング処理を実行するが、アップサンプリング処理を実行しない。
また、処理部114における畳み込みニューラルネットワークでは、1×1の空間次元を有し、かつ8チャンネルを有する処理結果、つまり教師データに対して、畳み込み層42の空間フィルタの学習がなされている。特に、畳み込み層42の空間フィルタの学習は、8チャンネルと1対1で対応する8クラスの物体の有無に対してなされている。8クラスの物体の1つが内部クラック32である。
学習処理後の処理部114による画像認識処理によって、処理結果あるいは検査結果である出力画像148が取得されるが、出力画像148では、8つのクラスの物体の有無が示される。一方、出力画像148のサイズは入力画像140のサイズよりも小さいので、出力画像148では、例えば内部クラック32の正確な位置情報が削除されている。しかしながら、処理装置100における検査では、内部クラック32の有無が検出できればよいので、内部クラック32の正確な位置情報は不要である。そのため、内部クラック32の正確な位置情報が削除されていても、画像認識処理の精度の低下にはならない。学習用画像と入力画像140が異なったサイズである場合、出力画像148は、教師データと異なり、1×1よりも大きい空間次元を有する。処理部114は、出力画像148を出力部136に出力し、出力部136は出力画像148を外部に出力する。
前述のごとく、学習用画像と入力画像140は異なったサイズであってもよいが、特に、入力画像140のサイズは学習用画像のサイズより大きくてもよい。ここで、学習用画像は、畳み込み層のフィルタ210を学習する際に完全畳み込みニューラルネットワークに入力されるとともに、教師データに対応する。このような入力画像140が処理装置100に入力されると、出力部136から出力される出力画像148は、入力画像140のサイズより小さく、かつ1×1よりも大きい空間次元を有する。
図8(a)−(b)は、出力部136から出力される出力画像148を示す。図8(a)では、出力画像148が全体的にほぼ同一の色で示される。これより、太陽電池セル10には内部クラック32が存在しないことが明確である。一方、図8(b)では、クラスに応じた色塗りがなされており、出力画像148の中央部分が他の部分よりも濃い色で示される。これより、太陽電池セル10の中央部分に内部クラック32が存在することが明確である。つまり、出力画像148が1×1よりも大きい空間次元を有するので、内部クラック32の有無だけではなく、太陽電池セル10中の相対的な位置が特徴マップにより特定される。この特徴マップはヒートマップとも呼ばれる。
本開示における装置、システム、または方法の主体は、コンピュータを備えている。このコンピュータがプログラムを実行することによって、本開示における装置、システム、または方法の主体の機能が実現される。コンピュータは、プログラムにしたがって動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、またはLSI(Large Scale Integration)を含む1つまたは複数の電子回路で構成される。複数の電子回路は、1つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは1つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータが読み取り可能なROM、光ディスク、ハードディスクドライブなどの非一時的記録媒体に記録される。プログラムは、記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。
以上の構成による処理装置100の動作を説明する。図9(a)−(b)は、処理装置100における処理手順を示すフローチャートである。図9(a)は学習処理の手順を示すフローチャートである。第1入力部110は教師用データを入力し、第2入力部112は学習用画像を入力する(S10)。処理部114は、教師用データと学習用画像とを使用して、各畳み込み層42の空間フィルタの係数を学習させる(S12)。教師用データと学習用画像との組合せが残っていれば(S14のY)、ステップ10に戻り、教師用データと学習用画像との組合せが残っていなければ(S14のN)、処理は終了される。
図9(b)は、画像認識処理の手順を示すフローチャートである。入力部132は画像120を入力する(S50)。補正部134は画像120の傾きを補正する(S52)。処理部114は、補正した画像120を入力画像140として画像認識処理を実行する(S54)。出力部136は、画像認識処理の結果である出力画像148を出力する(S56)。
本実施例によれば、1×1の空間次元を有する教師データに対して、畳み込み層142の空間フィルタの学習がなされている畳み込みニューラルネットワークを使用するので、教師データの作成の作業量を低減できる。また教師データの作成の作業量が低減されるので、学習の作業量の増加を抑制できる。また教師データの作成の作業量が低減されるので、教師データの数を多くできる。また、教師データの数が多くなるので、学習の精度を向上できる。
また、1×1の空間次元を有する教師データに対して、畳み込み層142の空間フィルタの学習がなされている畳み込みニューラルネットワークを使用するので、対象となる物体の有無を検出できる。また、対象となる物体の有無が検出されるので、画像認識処理の精度の低下を抑制できる。また、1×1の空間次元を有する教師データに対して、畳み込み層142の空間フィルタの学習がなされている畳み込みニューラルネットワークを使用するので、学習の作業量の増加を抑制しながら、画像認識処理の精度の低下を抑制できる。
また、畳み込みニューラルネットワークは、畳み込み層142とプーリング層144によるダウンサンプリング処理を実行し、アップサンプリング処理を実行しないので、1×1の空間次元を有する教師データを学習の際に使用できる。また、少なくとも内部クラック32の有無に対して、畳み込み層142の空間フィルタの学習がなされている状況下において、太陽電池セル10を撮像した画像を入力するので、内部クラック32の有無を検査できる。
また、学習用画像のサイズよりも大きいサイズの入力画像140を入力するので、1×1以上の空間次元を有する出力画像148を取得できる。また、1×1以上の空間次元を有する出力画像148が取得されるので、相対的な位置情報を取得できる。また、画像に含まれる画素の画素値をパディング202の画素値として使用するので、パディング202による検出精度の悪化を抑制できる。また、画像に含まれる画素の画素値の統計値をパディング202の画素値として使用するので、パディング202による検出精度の悪化を抑制できる。
本開示の一態様の概要は、次の通りである。本開示のある態様の処理装置(100)は、処理対象の画像を入力する入力部(132)と、入力部(132)に入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行する処理部(114)と、処理部(114)の処理結果を出力する出力部(136)とを備える。処理部(114)における畳み込みニューラルネットワークは、畳み込み層(142)とプーリング層(144)とを含む。処理部(114)における畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、畳み込み層(142)のフィルタ(210)の学習がなされている。入力部(132)に入力される画像のサイズは、畳み込み層(142)のフィルタ(210)を学習する際に畳み込みニューラルネットワークに入力される学習用画像であって、かつ畳み込み層(142)のフィルタ(210)を学習する際の処理結果に対応した学習用画像のサイズよりも大きい。
処理部(114)における畳み込みニューラルネットワークは、畳み込み層(142)とプーリング層(144)によるダウンサンプリング処理を実行し、アップサンプリング処理を非実行であってもよい。
出力部(136)から出力される処理結果は、入力部(132)に入力される画像のサイズよりも小さく、かつ1×1よりも大きい空間次元を有し、特徴マップを示す。
処理部(114)における畳み込みニューラルネットワークに含まれる畳み込み層(142)は、画像の周囲をパディング(202)により拡張させるとともに、拡張した画像に対して、当該拡張した画像のサイズよりも小さいサイズのフィルタ(210)をずらしながら畳み込みを実行し、処理部(114)は、パディング(202)を含むようにフィルタ(210)を対応付けた場合に、フィルタ(210)に対応付けられる画像の一部分のいずれかの値をパディング(202)に使用してもよい。
処理部(114)における畳み込みニューラルネットワークに含まれる畳み込み層(142)は、画像の周囲をパディング(202)により拡張させるとともに、拡張した画像に対して、当該拡張した画像のサイズよりも小さいサイズのフィルタ(210)をずらしながら畳み込みを実行し、処理部(114)は、パディング(202)を含むようにフィルタ(210)を対応付けた場合に、フィルタ(210)に対応付けられる画像の一部分の値の統計値をパディング(202)に使用してもよい。
入力部(132)に入力される画像は、検査対象となる物体を撮像した画像であり、処理部(114)における畳み込みニューラルネットワークでは、少なくとも不良の有無に対して、畳み込み層(142)のフィルタ(210)の学習がなされており、出力部(136)は、処理部(114)の処理結果を検査結果として出力してもよい。
入力部(132)に入力される画像は、検査対象となる物体を撮像した画像であり、処理部(114)における畳み込みニューラルネットワークでは、物体に含まれうる1つ以上の要素のそれぞれに対して、畳み込み層(142)のフィルタ(210)の学習がなされており、出力部(136)は、処理部(114)の処理結果を検査結果として出力してもよい。
本開示の別の態様は、処理方法である。この方法は、処理対象の画像を入力するステップと、入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行するステップと、処理結果を出力するステップとを備える。畳み込みニューラルネットワークは、畳み込み層(142)とプーリング層(144)とを含む。畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、畳み込み層(142)のフィルタの学習がなされている。入力される画像のサイズは、畳み込み層(142)のフィルタ(210)を学習する際に畳み込みニューラルネットワークに入力される学習用画像であって、かつ畳み込み層(142)のフィルタ(210)を学習する際の処理結果に対応した学習用画像のサイズよりも大きい。
以上、本開示を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
本実施例における処理部114の構成は、複数の畳み込み層42と複数のプーリング層44とが交互に並んでいる。しかしながらこれに限らず例えば、処理部114は、GoogLeNet系、DenseNet系等の構成を有していてもよい。本変形例によれば、構成の自由度を向上できる。
本実施例における処理装置100は、太陽電池セル10を撮像した入力画像140から内部クラック32の有無を検出するための処理を実行する。しかしながらこれに限らず例えば、太陽電池セル10以外の物体を撮像した入力画像140が処理対象とされてもよい。また、内部クラック32の有無以外の不良の有無を検出するための処理がなされてもよい。さらに、物体における不良の有無ではなく、物体に含まれうる1つ以上の要素を検出するための処理がなされてもよい。本変形例によれば、処理装置100の適用範囲を拡大できる。
10 太陽電池セル、 32 内部クラック、 100 処理装置、 110 第1入力部、 112 第2入力部、 114 処理部、 120 画像、 130 撮像装置、 132 入力部、 134 補正部、 136 出力部、 140 入力画像、 142 畳み込み層、 144 プーリング層、 148 出力画像、 152 ダウンサンプリング処理部。
本開示によれば、学習の作業量の増加を抑制しながら、画像認識処理の精度の低下を抑制できる。

Claims (8)

  1. 処理対象の画像を入力する入力部と、
    前記入力部に入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行する処理部と、
    前記処理部の処理結果を出力する出力部とを備え、
    前記処理部における前記畳み込みニューラルネットワークは、畳み込み層とプーリング層とを含み、
    前記処理部における前記畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、前記畳み込み層のフィルタの学習がなされており、
    前記入力部に入力される画像のサイズは、前記畳み込み層のフィルタを学習する際に前記畳み込みニューラルネットワークに入力される学習用画像であって、かつ前記畳み込み層のフィルタを学習する際の処理結果に対応した学習用画像のサイズよりも大きいことを特徴とする処理装置。
  2. 前記処理部における前記畳み込みニューラルネットワークは、前記畳み込み層と前記プーリング層によるダウンサンプリング処理を実行し、アップサンプリング処理を非実行であることを特徴とする請求項1に記載の処理装置。
  3. 前記出力部から出力される処理結果は、前記入力部に入力される画像のサイズよりも小さく、かつ1×1よりも大きい空間次元を有し、特徴マップを示すことを特徴とする請求項2に記載の処理装置。
  4. 前記処理部における前記畳み込みニューラルネットワークに含まれる前記畳み込み層は、画像の周囲をパディングにより拡張させるとともに、拡張した画像に対して、当該拡張した画像のサイズよりも小さいサイズのフィルタをずらしながら畳み込みを実行し、
    前記処理部は、パディングを含むようにフィルタを対応付けた場合に、フィルタに対応付けられる画像の一部分のいずれかの値をパディングに使用することを特徴とする請求項1から3のいずれかに記載の処理装置。
  5. 前記処理部における前記畳み込みニューラルネットワークに含まれる前記畳み込み層は、画像の周囲をパディングにより拡張させるとともに、拡張した画像に対して、当該拡張した画像のサイズよりも小さいサイズのフィルタをずらしながら畳み込みを実行し、
    前記処理部は、パディングを含むようにフィルタを対応付けた場合に、フィルタに対応付けられる画像の一部分の値の統計値をパディングに使用することを特徴とする請求項1から3のいずれかに記載の処理装置。
  6. 前記入力部に入力される画像は、検査対象となる物体を撮像した画像であり、
    前記処理部における前記畳み込みニューラルネットワークでは、少なくとも不良の有無に対して、前記畳み込み層のフィルタの学習がなされており、
    前記出力部は、前記処理部の処理結果を検査結果として出力することを特徴とする請求項1から5のいずれかに記載の処理装置。
  7. 前記入力部に入力される画像は、検査対象となる物体を撮像した画像であり、
    前記処理部における前記畳み込みニューラルネットワークでは、物体に含まれうる1つ以上の要素のそれぞれに対して、前記畳み込み層のフィルタの学習がなされており、
    前記出力部は、前記処理部の処理結果を検査結果として出力することを特徴とする請求項1から5のいずれかに記載の処理装置。
  8. 入力部が、処理対象の画像を入力するステップと、
    処理部が、入力した画像に対して、全結合層が除外された畳み込みニューラルネットワークの処理を実行するステップと、
    出力部が、処理結果を出力するステップとを備え、
    前記畳み込みニューラルネットワークは、畳み込み層とプーリング層とを含み、
    前記畳み込みニューラルネットワークでは、1×1の空間次元を有する処理結果に対して、前記畳み込み層のフィルタの学習がなされており、
    入力される画像のサイズは、前記畳み込み層のフィルタを学習する際に前記畳み込みニューラルネットワークに入力される学習用画像であって、かつ前記畳み込み層のフィルタを学習する際の処理結果に対応した学習用画像のサイズよりも大きいことを特徴とする処理方法。
JP2020500261A 2018-02-16 2018-09-28 処理方法およびそれを利用した処理装置 Active JP6952268B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/005494 WO2019159324A1 (ja) 2018-02-16 2018-02-16 処理方法およびそれを利用した処理装置
JPPCT/JP2018/005494 2018-02-16
PCT/JP2018/036248 WO2019159419A1 (ja) 2018-02-16 2018-09-28 処理方法およびそれを利用した処理装置

Publications (2)

Publication Number Publication Date
JPWO2019159419A1 JPWO2019159419A1 (ja) 2020-12-03
JP6952268B2 true JP6952268B2 (ja) 2021-10-20

Family

ID=67620971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020500261A Active JP6952268B2 (ja) 2018-02-16 2018-09-28 処理方法およびそれを利用した処理装置

Country Status (5)

Country Link
US (1) US11315235B2 (ja)
EP (1) EP3754593A4 (ja)
JP (1) JP6952268B2 (ja)
CN (1) CN111712853B (ja)
WO (2) WO2019159324A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11265540B2 (en) * 2018-02-23 2022-03-01 Sk Telecom Co., Ltd. Apparatus and method for applying artificial neural network to image encoding or decoding
US11538158B2 (en) * 2018-10-26 2022-12-27 National Cheng Kung University Convolutional neural network and associated method for identifying basal cell carcinoma
JP7160211B2 (ja) * 2019-09-27 2022-10-25 ブラザー工業株式会社 機械学習モデル、生成装置、コンピュータプログラム
JP7401246B2 (ja) 2019-10-08 2023-12-19 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
JP7273692B2 (ja) * 2019-11-01 2023-05-15 株式会社東芝 制御装置、制御方法およびプログラム
CN111368684A (zh) * 2020-02-27 2020-07-03 北华航天工业学院 一种基于可变形全卷积神经网络的冬小麦自动解译方法
CN111429415B (zh) * 2020-03-18 2020-12-08 东华大学 基于网络协同剪枝的产品表面缺陷高效检测模型构建方法
JP6789460B1 (ja) * 2020-05-14 2020-11-25 ポリプラスチックス株式会社 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル
JP7481956B2 (ja) * 2020-08-26 2024-05-13 株式会社東芝 推論装置、方法、プログラムおよび学習装置
EP4227892A4 (en) 2020-10-08 2024-04-03 Panasonic Ip Man Co Ltd TREATMENT METHOD AND TREATMENT DEVICE USING SAME
US20230377094A1 (en) 2020-10-08 2023-11-23 Panasonic Intellectual Property Management Co., Ltd. Processing method and processing device using same
CN112926688A (zh) * 2021-03-30 2021-06-08 太原理工大学 一种基于DenseNet进行激光芯片缺陷分类的方法
CN113936028A (zh) * 2021-10-19 2022-01-14 深圳市金视电子科技有限公司 结合自动产生三元图与深层空洞卷积网络之数字抠像技术
US20240161270A1 (en) * 2022-11-14 2024-05-16 Kla Corporation System and method for enhancing defect detection in optical characterization systems using a digital filter

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726560B2 (en) * 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
US10650508B2 (en) * 2014-12-03 2020-05-12 Kla-Tencor Corporation Automatic defect classification without sampling and feature selection
JP2016146174A (ja) * 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 決定方法およびプログラム
CN106548127B (zh) * 2015-09-18 2022-11-04 松下电器(美国)知识产权公司 图像识别方法
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
US11074492B2 (en) * 2015-10-07 2021-07-27 Altera Corporation Method and apparatus for performing different types of convolution operations with the same processing elements
US10380479B2 (en) * 2015-10-08 2019-08-13 International Business Machines Corporation Acceleration of convolutional neural network training using stochastic perforation
JP6993334B2 (ja) * 2015-11-29 2022-01-13 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
US10115040B2 (en) * 2016-09-14 2018-10-30 Kla-Tencor Corporation Convolutional neural network-based mode selection and defect classification for image fusion
US10402688B2 (en) * 2016-12-07 2019-09-03 Kla-Tencor Corporation Data augmentation for convolutional neural network-based defect inspection
CN106709568B (zh) * 2016-12-16 2019-03-22 北京工业大学 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法
CN106910161B (zh) * 2017-01-24 2020-06-19 华南理工大学 一种基于深度卷积神经网络的单幅图像超分辨率重建方法
US20180218254A1 (en) * 2017-02-02 2018-08-02 International Business Machines Corporation Solar power forecasting with volumetric convolutional neural network
CN107220980B (zh) * 2017-05-25 2019-12-03 重庆师范大学 一种基于全卷积网络的mri图像脑肿瘤自动分割方法
CN107657257A (zh) * 2017-08-14 2018-02-02 中国矿业大学 一种基于多通道卷积神经网络的语义图像分割方法
CN107578054A (zh) * 2017-09-27 2018-01-12 北京小米移动软件有限公司 图像处理方法及装置

Also Published As

Publication number Publication date
EP3754593A1 (en) 2020-12-23
JPWO2019159419A1 (ja) 2020-12-03
US11315235B2 (en) 2022-04-26
WO2019159324A1 (ja) 2019-08-22
CN111712853A (zh) 2020-09-25
WO2019159419A1 (ja) 2019-08-22
CN111712853B (zh) 2023-11-07
EP3754593A4 (en) 2021-04-28
US20200380665A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP6952268B2 (ja) 処理方法およびそれを利用した処理装置
JP7087397B2 (ja) 基板の欠陥検査装置、基板の欠陥検査方法及び記憶媒体
US11694318B2 (en) Electronic substrate defect detection
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
US7590277B2 (en) Pattern inspecting method
US11410409B2 (en) Image classification system and method, classification data creation system and method, and storage medium
JP2007026255A (ja) 画像中の変状点の進展状況を抽出する方法
JP2008051617A (ja) 画像検査装置、その方法、及びその記録媒体
US20110164129A1 (en) Method and a system for creating a reference image using unknown quality patterns
CN112200790A (zh) 布料缺陷检测方法、设备和介质
JP7415286B2 (ja) カラーフィルタ検査装置、検査装置、カラーフィルタ検査方法および検査方法
CN110349129B (zh) 一种高密度柔性ic基板外观缺陷检测方法
CN112213314B (zh) 晶圆侧面缺陷的检测方法和检测系统
JP4629086B2 (ja) 画像欠陥検査方法および画像欠陥検査装置
WO2022074878A1 (ja) 処理方法およびそれを利用した処理装置
JP2022168944A (ja) 欠陥を検出するシステム、及びコンピュータ可読媒体
WO2023238384A1 (ja) 試料観察装置および方法
WO2022091478A1 (ja) 処理方法およびそれを利用した処理装置
TWI842292B (zh) 自動化產線產品外觀瑕疵檢驗方法及系統
CN113554585B (zh) 影像分析系统及影像分析方法
WO2022074877A1 (ja) 処理方法およびそれを利用した処理装置
WO2023084849A1 (ja) 検査方法および検査装置
JP7052377B2 (ja) 検査装置及び検査方法
CN116309452A (zh) 一种基于机器视觉的晶圆圆心检测定位的方法
Zhou et al. An Innovative Lithography Process Window Decision Based On Aggregation of Multi Machine Learning Approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910