JP2020535569A - マシンビジョンシステム - Google Patents
マシンビジョンシステム Download PDFInfo
- Publication number
- JP2020535569A JP2020535569A JP2020537871A JP2020537871A JP2020535569A JP 2020535569 A JP2020535569 A JP 2020535569A JP 2020537871 A JP2020537871 A JP 2020537871A JP 2020537871 A JP2020537871 A JP 2020537871A JP 2020535569 A JP2020535569 A JP 2020535569A
- Authority
- JP
- Japan
- Prior art keywords
- machine vision
- vision system
- neural network
- series expansion
- processing means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 184
- 238000012545 processing Methods 0.000 claims abstract description 72
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 53
- 230000000670 limiting effect Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 66
- 238000012549 training Methods 0.000 claims description 52
- 210000002569 neuron Anatomy 0.000 claims description 51
- 230000004913 activation Effects 0.000 claims description 50
- 238000004519 manufacturing process Methods 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000000946 synaptic effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012886 linear function Methods 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 65
- 238000013527 convolutional neural network Methods 0.000 description 11
- 230000009466 transformation Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 238000010561 standard procedure Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000255925 Diptera Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012067 mathematical method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 101100219344 Arabidopsis thaliana CAT7 gene Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010052428 Wound Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000010800 human waste Substances 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/17—Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Business, Economics & Management (AREA)
- Algebra (AREA)
- Biodiversity & Conservation Biology (AREA)
- Manufacturing & Machinery (AREA)
- Operations Research (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
Abstract
Description
xを潜在状態、uをネットワーク入力、bをバイアス、σを活性化関数のインスタンスのベクトル、h、kを初期ニューラルネットワークアルゴリズムの層(h>0)、Aを状態行列、Bを入力伝達行列であるとして、
の形式で表現されるものであってもよい。
初期ニューラルネットワークアルゴリズムの畳み込み層に対して、微分可能な近似は、
の形式で表現されるものであってもよい。
を特徴とするマシンビジョンシステム。
・システム240に提供される「標準」ニューラルネットワークをトレーニングすること
・トレーニングされたニューラルネットワークを最適化された代数形式または双線形形式に変換すること
・最適化された代数形式を、最適化されたニューラルネットワークへ変換すること
・マシンビジョンアレンジメント100内の捕捉された画像を分類するために、最適化された代数的形式または最適化されたニューラルネットワーク形式のいずれかを適用すること
・キャプチャされた画像の分類出力に基づいて最適化された代数形式または最適化されたニューラルネットワーク形式を再トレーニングすること
を含む。
ここでuはニューロンへの入力でありyはニューロンの出力を表す。明らかに、この関数にはu=0に不連続点を有する。したがって、RLUはシグモイド関数によって置換される。シグモイド関数は、RLUとは異なり、ドメイン全体に渡って滑らかである。シグモイド関数の例には、双曲線正接関数、逆正接関数、ロジスティック関数、およびエラー関数がある。RLUをtanh関数に置き換えることもできる。この段階では、ニューラルネットワークを表す微分可能な方程式が得られる。次に、得られた方程式を微分する。
ここで、wiはニューロンへの各入力に関連する重み、uは入力パラメータ/関数、b は、アクティブ化関数に対する一定のバイアスである。この例では、合計はw0である。
ここで左辺はネットワークの微分を表す。この式は、2階微分方程式としては、実用的には解くのが難しい。したがって、本方法では、方程式を標準的な数学的方法を使用して状態空間形式に変換し、簡単で高速に解くことが可能な1階微分方程式を得る必要がある。
ここで、c0とc1はベクトル場の適用によって生成される。
ここで、xは潜在状態、uはネットワーク入力、bはバイアス、σは活性化関数のインスタンスのベクトル、h、kは初期ニューラルネットワークアルゴリズムの層(h>0)、Aは状態行列、Bを入力伝達行列である。つまり、ネットワークのk+1番目の層(又は、リカレントネットワークのk+1番目の時刻)においてベクトル表現を決定するためには、前の層におけるベクトル表現であるx(k)をある非線形変換によって追加的に更新する。
ここで、Xは層状態行列、Uは層入力行列、Eはバイアス、Cは状態フィルタ、Dは入力畳み込みフィルタである。すなわち、全結合層に使用される行列乗算は、代わりに畳み込み演算子で置き換えられる。
Claims (26)
- 分類対象となる物体を示す画像データを受信する受信手段と、
受信した前記画像データが提供される入力層と、少なくとも1つの隠れ層と、出力層と、を有する初期ニューラルネットワークアルゴリズムを備え、
前記少なくとも1つの隠れ層は、それぞれ関連する活性化関数を有する複数のニューロンを含み、
受信した前記画像データに応じて出力分類を前記出力層に提供するよう構成された
処理手段と、
を有するマシンビジョンシステムであって、
前記処理手段は、
前記活性化関数に基づいて前記初期ニューラルネットワークアルゴリズムを記述する微分方程式を決定し、
前記微分方程式の解を級数展開の形で決定し、
前記級数展開における項数を有限個に制限することによって前記級数展開を有限級数展開に変換し、
前記有限級数展開に基づいて前記出力分類を決定すること
を特徴とするマシンビジョンシステム。 - 請求項1に記載のマシンビジョンシステムであって、
前記処理手段は、
前記活性化関数が微分可能であるかどうかを判定し、
微分可能ではないと判定された前記活性化関数を微分可能な近似によって置換し、
決定された前記微分方程式は、微分可能である前記活性化関数または微分可能な前記近似に基づいて決定されること
を特徴とするマシンビジョンシステム。 - 請求項2に記載のマシンビジョンシステムであって、
1又は複数の前記活性化関数は正規化線形関数であり、
前記処理手段は、前記正規化線形関数をシグモイド関数によって置換すること
を特徴とするマシンビジョンシステム。 - 請求項2又は3に記載のマシンビジョンシステムであって、
1又は複数の前記活性化関数は最大プーリング層関数であり、
前記処理手段は、前記最大プーリング層関数を要素の加重和で置換すること
を特徴とするマシンビジョンシステム。 - 請求項2〜4のいずれか一項に記載のマシンビジョンシステムであって、
1又は複数の前記活性化関数は非線形活性化関数であり、
前記処理手段は、前記非線形活性化関数をChen−Fliess級数による等価システムで置換すること
を特徴とするマシンビジョンシステム。 - 請求項1〜5のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、
前記出力分類を決定するため、前記有限級数展開を用いて受信した前記画像データを評価すること
を特徴とするマシンビジョンシステム。 - 請求項1〜5のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、
前記有限級数展開を更新されたニューラルネットワークアルゴリズムに変換し、
前記出力分類を決定するため、前記更新されたニューラルネットワークアルゴリズムを用いて受信した前記画像データを評価すること
を特徴とするマシンビジョンシステム。 - 請求項1〜7のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、前記微分方程式の状態空間形式を決定して前記級数展開を決定すること
を特徴とするマシンビジョンシステム。 - 請求項8に記載のマシンビジョンシステムであって、
前記処理手段は、前記状態空間形式から1又は複数のベクトル場を抽出して前記級数展開を決定すること
を特徴とするマシンビジョンシステム。 - 請求項1〜9のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、
前記初期ニューラルネットワークアルゴリズムを微分可能な近似に変換し、
微分可能な前記近似に基づいて前記微分方程式を決定すること
を特徴とするマシンビジョンシステム。 - 請求項10に記載のマシンビジョンシステムであって、
前記初期ニューラルネットワークアルゴリズムの全結合層に対して、微分可能な前記近似は、
xを潜在状態、uをネットワーク入力、bをバイアス、σを活性化関数のインスタンスのベクトル、h、kを初期ニューラルネットワークアルゴリズムの層(h>0)、Aを状態行列、Bを入力伝達行列であるとして、
の形式で表現されること
を特徴とするマシンビジョンシステム。 - 請求項10又は11に記載のマシンビジョンシステムであって、
Xを層状態行列、Uを層入力行列、Eをバイアス、Cを状態フィルタ、Dを入力畳み込みフィルタであるとして、
前記初期ニューラルネットワークアルゴリズムの畳み込み層に対して、微分可能な前記近似は、
の形式で表現されること
を特徴とするマシンビジョンシステム。 - 請求項10〜12のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、微分可能な前記近似を微分して前記微分方程式を得ること
を特徴とするマシンビジョンシステム。 - 請求項13のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、微分可能な前記近似を微分するために数値計算法を適用すること
を特徴とするマシンビジョンシステム。 - 請求項1〜14のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、Chen−Fliess級数展開を用いて前記級数展開に現れる1又は複数の係数を決定すること
を特徴とするマシンビジョンシステム。 - 請求項1〜15のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、前記級数展開の収束ウィンドウを決定すること
を特徴とするマシンビジョンシステム。 - 請求項1〜16のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、前記級数展開を生成する最小基底を算出すること
を特徴とするマシンビジョンシステム。 - 請求項1〜17のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、複数の時間ウィンドウごとに前記級数展開の係数の異なる組を決定すること
を特徴とするマシンビジョンシステム。 - 請求項18に記載のマシンビジョンシステムであって、
前記処理手段は、所定の収束レベルが達成されるまで、決定された前記係数を調整して前記微分方程式のベクトル場パラメータを調整すること
を特徴とするマシンビジョンシステム。 - 請求項1〜19のいずれか一項に記載のマシンビジョンシステムであって、
前記処理手段は、再トレーニング処理の一部として、受信した前記画像データ及び関連する前記出力分類に基づいて、前記有限級数展開を更新すること
を特徴とするマシンビジョンシステム。 - 物体を示す画像データと前記物体の関連する既知の分類を含むトレーニングデータを受信する受信手段と、
受信した前記画像データが提供される入力層と、少なくとも1つの隠れ層と、出力層と、を有する初期ニューラルネットワークアルゴリズムを備え、
前記少なくとも1つの隠れ層は、それぞれ関連する活性化関数を有する複数のニューロンを含み、
前記ニューロンの間の接続は関連するシナプス荷重を有し、受信した前記画像データに基づいて前記初期ニューラルネットワークアルゴリズムを評価することで関連する前記分類を生成することが保証されるよう、前記シナプス荷重の値を決定するよう構成された
処理手段と、
を有するマシンビジョンシステムであって、
前記処理手段は、
前記活性化関数に基づいて前記初期ニューラルネットワークアルゴリズムを記述する微分方程式を決定し、
前記微分方程式の解を級数展開の形で決定し、
前記級数展開における項数を有限個に制限することによって前記級数展開を有限級数展開に変換し、
前記有限級数展開に基づいて出力分類を決定し、
前記シナプス荷重の値を調整して、決定した前記出力分類と前記物体の関連する既知の前記分類との間の誤差を減らすこと
を特徴とするマシンビジョンシステム。 - 生産プロセス装置又は生産プロセスシステムを構成するためのマシンビジョン制御システムであって、
前記マシンビジョン制御システムは、
分類対象となる物体を示す画像データを受信する受信手段と、
受信した前記画像データが提供される入力層と、少なくとも1つの隠れ層と、出力層と、を有する初期ニューラルネットワークアルゴリズムを備え、
前記少なくとも1つの隠れ層は、それぞれ関連する活性化関数を有する複数のニューロンを含み、
受信した前記画像データに応じて出力分類を前記出力層に提供するよう構成された
処理手段と、
前記出力分類に応じて、前記生産プロセス装置又は前記生産プロセスシステムに制御信号を送信し、前記生産プロセス装置又は前記生産プロセスシステムのセットアップを実行する制御手段
を有し、
前記処理手段は、
前記活性化関数に基づいて前記初期ニューラルネットワークアルゴリズムを記述する微分方程式を決定し、
前記微分方程式の解を級数展開の形で決定し、
前記級数展開における項数を有限個に制限することによって前記級数展開を有限級数展開に変換し、
前記有限級数展開に基づいて前記出力分類を決定すること
を特徴とするマシンビジョン制御システム。 - 生産ライン構成装置における損傷、異物、又は、不正確に取り付けられた部品を識別して位置を特定するため、前記生産ライン構成装置を検査する生産ライン配置であって、
前記生産ライン配置は、
前記生産ライン構成装置に関する画像データの1又は複数のセットを取得するように構成された少なくとも1つのカメラを含む光学システムと、
分類対象となる物体を示す画像データを受信する受信手段と、
受信した前記画像データが提供される入力層と、少なくとも1つの隠れ層と、出力層と、を有する初期ニューラルネットワークアルゴリズムを備え、
前記少なくとも1つの隠れ層は、それぞれ関連する活性化関数を有する複数のニューロンを含み、
受信した前記画像データに応じて出力分類を前記出力層に提供するよう構成された
処理手段と、
を有するマシンビジョン制御システムと、
前記出力分類に応じて、自身のセットアップを実行する生産プロセス装置又は生産プロセスシステムと、
を有し、
前記処理手段は、
前記活性化関数に基づいて前記初期ニューラルネットワークアルゴリズムを記述する微分方程式を決定し、
前記微分方程式の解を級数展開の形で決定し、
前記級数展開における項数を有限個に制限することによって前記級数展開を有限級数展開に変換し、
前記有限級数展開に基づいて前記出力分類を決定すること
を特徴とする生産ライン配置。 - 分類対象となる物体を示す画像データを受信し、
受信した前記画像データが提供される入力層と、少なくとも1つの隠れ層と、出力層と、を有する初期ニューラルネットワークアルゴリズムであって、前記少なくとも1つの隠れ層は、それぞれ関連する活性化関数を有する複数のニューロンを含む前記初期ニューラルネットワークアルゴリズムを提供し、
前記活性化関数及び関連するニューラルネットワークパラメータに基づいて前記初期ニューラルネットワークアルゴリズムを記述する微分方程式を決定し、
前記微分方程式の解を級数展開の形で決定し、
前記級数展開における項数を有限個に制限することによって前記級数展開を有限級数展開に変換し、
前記有限級数展開に基づいて決定される出力分類を、受信した前記画像データに応じて前記出力層に提供すること
を特徴とする、マシンビジョンに関する方法。 - 1又は複数のプロセッサによって実行されることにより、請求項24に記載された、マシンビジョンに関する方法を実行させる命令を格納するコンピュータプログラム製品。
- 請求項1〜21のいずれか一項に記載のマシンビジョンシステムを備えるタブレット端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1715456.8 | 2017-09-25 | ||
GB1715456.8A GB2570433A (en) | 2017-09-25 | 2017-09-25 | Machine vision system |
PCT/EP2018/075953 WO2019057987A1 (en) | 2017-09-25 | 2018-09-25 | ARTIFICIAL VISION SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020535569A true JP2020535569A (ja) | 2020-12-03 |
JP6912008B2 JP6912008B2 (ja) | 2021-07-28 |
Family
ID=60244276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537871A Active JP6912008B2 (ja) | 2017-09-25 | 2018-09-25 | マシンビジョンシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11386307B2 (ja) |
EP (1) | EP3688664A1 (ja) |
JP (1) | JP6912008B2 (ja) |
CN (1) | CN111465940B (ja) |
GB (1) | GB2570433A (ja) |
WO (1) | WO2019057987A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133158A (ja) * | 2021-03-01 | 2022-09-13 | 横河電機株式会社 | 測定データ記録装置、生成装置、システム、装置、方法およびプログラム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190114531A1 (en) * | 2017-10-13 | 2019-04-18 | Cambia Health Solutions, Inc. | Differential equations network |
US11328210B2 (en) | 2017-12-29 | 2022-05-10 | Micron Technology, Inc. | Self-learning in distributed architecture for enhancing artificial neural network |
US10522038B2 (en) | 2018-04-19 | 2019-12-31 | Micron Technology, Inc. | Systems and methods for automatically warning nearby vehicles of potential hazards |
US20190332814A1 (en) * | 2018-04-27 | 2019-10-31 | Nxp B.V. | High-throughput privacy-friendly hardware assisted machine learning on edge nodes |
WO2020097837A1 (en) | 2018-11-15 | 2020-05-22 | Lingdong Technology (Beijing) Co.Ltd | System and method for real-time supervised machine learning in on-site environment |
CN109785391A (zh) * | 2018-11-29 | 2019-05-21 | 昆山睿力得软件技术有限公司 | 一种基于视觉引导的自动搪锡系统 |
US11373466B2 (en) | 2019-01-31 | 2022-06-28 | Micron Technology, Inc. | Data recorders of autonomous vehicles |
US11410475B2 (en) | 2019-01-31 | 2022-08-09 | Micron Technology, Inc. | Autonomous vehicle data recorders |
EP3918428A4 (en) * | 2019-02-05 | 2022-10-26 | Urugus S.A. | AUTOMATIC OPTIMIZATION OF MACHINE LEARNING ALGORITHMS IN THE PRESENCE OF TARGET RECORDS |
US11900238B1 (en) * | 2019-04-25 | 2024-02-13 | Perceive Corporation | Removing nodes from machine-trained network based on introduction of probabilistic noise during training |
US11636334B2 (en) | 2019-08-20 | 2023-04-25 | Micron Technology, Inc. | Machine learning with feature obfuscation |
US11392796B2 (en) | 2019-08-20 | 2022-07-19 | Micron Technology, Inc. | Feature dictionary for bandwidth enhancement |
US11755884B2 (en) | 2019-08-20 | 2023-09-12 | Micron Technology, Inc. | Distributed machine learning with privacy protection |
JP7132196B2 (ja) * | 2019-09-17 | 2022-09-06 | 株式会社東芝 | 処理装置および推論システム |
CN111327785B (zh) * | 2020-01-15 | 2022-04-15 | 郑州埃文计算机科技有限公司 | 一种基于对抗生成网络的图像自动构建的信息隐写通信方法 |
CN112415467B (zh) * | 2020-11-06 | 2022-10-25 | 中国海洋大学 | 一种基于神经网络的单矢量潜标目标定位实现方法 |
CN112541574B (zh) * | 2020-12-03 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 保护隐私的业务预测方法及装置 |
CN112966433B (zh) * | 2021-02-08 | 2022-12-23 | 北京大学 | 一种基于即时编译的神经动力学仿真方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04305785A (ja) * | 1991-04-02 | 1992-10-28 | Hitachi Ltd | ニューラル・ネットワークの評価方法 |
JPH06301663A (ja) * | 1993-04-16 | 1994-10-28 | Meidensha Corp | 直列結合型リカレントニューラルネットワークの学習方式 |
US20160260014A1 (en) * | 2015-03-06 | 2016-09-08 | Panasonic Intellectual Property Management Co., Ltd. | Learning method and recording medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03168862A (ja) | 1989-11-29 | 1991-07-22 | Sharp Corp | ニューロコンピュータ |
US5497430A (en) * | 1994-11-07 | 1996-03-05 | Physical Optics Corporation | Method and apparatus for image recognition using invariant feature signals |
JPH09198364A (ja) * | 1996-01-23 | 1997-07-31 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネット発生装置 |
EP2748765B1 (en) * | 2011-08-25 | 2022-12-14 | Cornell University | Retinal encoder for machine vision |
JP6065543B2 (ja) * | 2012-06-08 | 2017-01-25 | 富士通株式会社 | ニューラルネットワーク設計方法、フィッティング方法、及びプログラム |
US9946970B2 (en) * | 2014-11-07 | 2018-04-17 | Microsoft Technology Licensing, Llc | Neural networks for encrypted data |
-
2017
- 2017-09-25 GB GB1715456.8A patent/GB2570433A/en not_active Withdrawn
-
2018
- 2018-09-25 WO PCT/EP2018/075953 patent/WO2019057987A1/en active Search and Examination
- 2018-09-25 EP EP18778889.8A patent/EP3688664A1/en active Pending
- 2018-09-25 US US16/650,126 patent/US11386307B2/en active Active
- 2018-09-25 JP JP2020537871A patent/JP6912008B2/ja active Active
- 2018-09-25 CN CN201880062423.2A patent/CN111465940B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04305785A (ja) * | 1991-04-02 | 1992-10-28 | Hitachi Ltd | ニューラル・ネットワークの評価方法 |
JPH06301663A (ja) * | 1993-04-16 | 1994-10-28 | Meidensha Corp | 直列結合型リカレントニューラルネットワークの学習方式 |
US20160260014A1 (en) * | 2015-03-06 | 2016-09-08 | Panasonic Intellectual Property Management Co., Ltd. | Learning method and recording medium |
JP2017084320A (ja) * | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
JONATHAN MASCI: "Steel Defect Classification with Max-Pooling Convolutional Neural Networks", WCCI 2012 IEEE WORLD CONGRESS ON COMPUTATIONAL INTELLIGENCE, JPN6021021217, 10 June 2012 (2012-06-10), ISSN: 0004524737 * |
W.S. GRAY, ET AL: "Volterra series analysis and synthesis of a neural network for velocity estimation", IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS, PART B (CYBERNETICS), vol. Volume 29, Issue 2, JPN6021021216, April 1999 (1999-04-01), US, pages 190 - 197, ISSN: 0004524736 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133158A (ja) * | 2021-03-01 | 2022-09-13 | 横河電機株式会社 | 測定データ記録装置、生成装置、システム、装置、方法およびプログラム |
JP7359174B2 (ja) | 2021-03-01 | 2023-10-11 | 横河電機株式会社 | 測定データ記録装置、生成装置、システム、装置、方法およびプログラム |
US11885719B2 (en) | 2021-03-01 | 2024-01-30 | Yokogawa Electric Corporation | Measurement data recording apparatus, generating apparatus, system, apparatus, method, and computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
CN111465940B (zh) | 2024-03-26 |
JP6912008B2 (ja) | 2021-07-28 |
US11386307B2 (en) | 2022-07-12 |
GB201715456D0 (en) | 2017-11-08 |
EP3688664A1 (en) | 2020-08-05 |
WO2019057987A1 (en) | 2019-03-28 |
US20200279129A1 (en) | 2020-09-03 |
GB2570433A (en) | 2019-07-31 |
CN111465940A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6912008B2 (ja) | マシンビジョンシステム | |
Xu et al. | Automatic seismic damage identification of reinforced concrete columns from images by a region‐based deep convolutional neural network | |
US11618438B2 (en) | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network | |
Meijer et al. | A defect classification methodology for sewer image sets with convolutional neural networks | |
CN106682697B (zh) | 一种基于卷积神经网络的端到端物体检测方法 | |
US11676365B2 (en) | Explainable artificial intelligence (AI) based image analytic, automatic damage detection and estimation system | |
KR102166458B1 (ko) | 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치 | |
US20200311855A1 (en) | Object-to-robot pose estimation from a single rgb image | |
Sulistijono et al. | From concrete to abstract: Multilayer neural networks for disaster victims detection | |
CN111105030B (zh) | 用于车辆感知系统的神经网络中的激活零旁路和权重剪枝 | |
CN114341878A (zh) | 信息处理装置以及具备该信息处理装置的电子设备 | |
JP2014041476A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7310718B2 (ja) | 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム | |
US11410327B2 (en) | Location determination apparatus, location determination method and computer program | |
CN112149491A (zh) | 用于确定探测到的对象的信任值的方法 | |
WO2020217371A1 (ja) | 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム | |
Khellal et al. | Pedestrian classification and detection in far infrared images | |
Israel et al. | Factors influencing CNN performance | |
Konrad et al. | Surface defect detection for automated inspection systems using convolutional neural networks | |
CN114120045A (zh) | 一种基于多门控混合专家模型的目标检测方法和装置 | |
Suzuki et al. | Superpixel convolution for segmentation | |
CN112907575A (zh) | 人脸质量评估方法、装置及电子设备 | |
US11188792B2 (en) | Defect detection using multiple models | |
Hou et al. | Neural units with higher-order synaptic operations for robotic image processing applications | |
Zhang et al. | Key technologies of smart factory machine vision based on efficient deep network model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6912008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |