JP2022536087A - ディープニューラルネットワーク可視化 - Google Patents
ディープニューラルネットワーク可視化 Download PDFInfo
- Publication number
- JP2022536087A JP2022536087A JP2021571948A JP2021571948A JP2022536087A JP 2022536087 A JP2022536087 A JP 2022536087A JP 2021571948 A JP2021571948 A JP 2021571948A JP 2021571948 A JP2021571948 A JP 2021571948A JP 2022536087 A JP2022536087 A JP 2022536087A
- Authority
- JP
- Japan
- Prior art keywords
- deep neural
- neural network
- feature
- elements
- library
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 159
- 238000012800 visualization Methods 0.000 title claims description 25
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000004590 computer program Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 41
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 description 12
- 238000001994 activation Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000007794 visualization technique Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
畳み込みディープニューラルネットワークは、通常の方法で画像分類又はセグメント化タスク上で訓練される(例えば、ImageNet Classification with Deep Convolutional Neural Networks [Alex Krizhevsky, Ilya Sutskever and Geoffrey E. Hinton, Advances in Neural Information Processing Systems 25 (NIPS 2012)] などを参照)。
出力(分類、セグメンテーション)近傍のディープニューラルネットワーク層の1つが、そのフィーチャを可視化させるために選択されることができる。選択された層は、そのすべてのフィーチャが可視化されることができる。フィーチャは、選択した層のノードにリンクされる。ある画像入力に対してノードが活性化される(すなわち、高い値を出力する)と、その画像は、対応するフィーチャを含むと言う。
多くの例示の画像(例えば、ディープニューラルネットワークによって作成されたモデルがドメインに関連して最適化される該ドメインに関する訓練又は検証(validation)セットからの画像)が、モデルへの入力として使用される。画像に注釈を付けられる必要はない。モデルに入力される各画像は、選択された層内の1又は複数のフィーチャノードの活性化を引き起こすことができる。
Grad-CAMなどの視覚化方法を使用して、1つの特定の活性化されたフィーチャノード(各画像及び選択された層の各ノード)について、1つの特定の画像の1又は複数の要素を強調表示することができる。画像分類のために、完全な(おそらく大きい)入力画像全体のピクセルが、単一ノードの活性化を説明するために強調表示され得ることが理解されるであろう。セグメント化の場合、活性化されたノードは通常、入力画像のサブセクション(又はパッチ)に対応する。
ステップ4で一般的に説明されている可視化方法によって生成されるすべての強調表示される画像は、フィーチャごとに記憶されることができ、その結果、フィーチャごとに1つの画像データベースをもたらす。
GAN生成器は、フィーチャごとに強調表示された画像に関して訓練される。GAN生成器は、選択されたフィーチャに関連して代表画像を生成するように構成される。
Claims (13)
- 結果に関連するものとしてディープニューラルネットワークによって識別されるフィーチャの表現を提供する方法であって、
結果に関連する複数のサンプルを含む訓練ライブラリを前記ディープニューラルネットワークに提供するステップと、
前記結果に関連する前記複数のサンプル内のフィーチャを認識するよう前記ディープニューラルネットワークを訓練するステップと、
前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする入力ライブラリ内の前記複数のサンプルの各サンプル内の1又は複数の要素を識別することによって、前記入力ライブラリからフィーチャ認識ライブラリを生成するステップと、
前記フィーチャ認識ライブラリを用いて、サンプルの1又は複数の要素のうち前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする特性を有する複数の要素を合成するステップと、
前記合成された複数の要素を用いて、前記結果に関連する前記複数のサンプル内の前記ディープニューラルネットワークによって識別されるフィーチャの表現を提供するステップと、
を有する方法。 - 前記フィーチャの表現が、前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする特性を有する合成された要素の連続的なライブラリを含む、請求項1に記載の方法。
- 前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする、前記入力ライブラリ内の前記複数のサンプルの各サンプル内の1又は複数の要素を識別することは、勾配ベースの方法を使用して、前記フィーチャの認識をトリガする前記複数のサンプルの各サンプル内の1又は複数の要素を識別することを含む、請求項1又は2に記載の方法。
- 前記勾配ベースの方法は、Grad-CAM、CAM、デコンボリューション又はガイドされたバックプロパゲーションのうちの1又は複数を含む、請求項3に記載の方法。
- 前記フィーチャ認識ライブラリ内のエントリーが、前記入力ライブラリ内の前記サンプルの1又は複数の要素と、前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする際に前記入力ライブラリ内の前記サンプルの1又は複数の要素の相対的重要度の前記勾配ベースの方法から得られる指標と、の組み合わせを含む、請求項3又は4に記載の方法。
- サンプルの1又は複数の要素のうち前記ディープニューラルネットワークによる前記フィーチャの前記認識をトリガする特性を有する複数の要素を合成する前記ステップは、前記フィーチャ認識ライブラリによってガイドされる生成モデリング方法を使用することを含む、請求項1乃至5のいずれか1項に記載の方法。
- 前記生成モデリング方法が、敵対的生成ネットワーク又は変分オートエンコーダのうちの1又は複数を含む、請求項6に記載の方法。
- 前記方法が、表現されるべき結果に関連するフィーチャを選択することを含む、請求項1乃至7のいずれか1項に記載の方法。
- 前記ディープニューラルネットワークを使用して、前記結果に関連する前記複数のサンプル内の代替フィーチャを認識するステップと、
前記ディープニューラルネットワークによる前記代替フィーチャの認識をトリガする前記入力ライブラリ内の前記複数のサンプルの各サンプル内の1又は複数の要素を識別することによって、前記入力ライブラリから代替フィーチャ認識ライブラリを作成するステップと、
前記代替フィーチャ認識ライブラリを用いて、サンプルの1又は複数の要素のうち前記ディープニューラルネットワークによる前記代替フィーチャの認識をトリガする特性を有する複数の要素を合成するステップと、
前記合成された複数の要素を用いて、前記結果に関連する前記複数のサンプル内の前記ディープニューラルネットワークによって識別される代替フィーチャの表現を提供するステップと、
を有する、請求項1乃至8のいずれか1項に記載の方法。 - 前記ディープニューラルネットワークによって認識される前記代替フィーチャは、前記複数のサンプルの各サンプル内の1又は複数の要素について、前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする要素と、前記ディープニューラルネットワークによる前記代替フィーチャの認識をトリガする要素との間の差が最大化されるように選択される、請求項9に記載の方法。
- 前記サンプルが、画像、音、又は信号トレースを含む、請求項1乃至10のいずれか1項に記載の方法。
- コンピュータ上で実行される場合に請求項1乃至11のいずれか1項に記載の方法を実行するように動作可能なコンピュータプログラム。
- 結果に関連するものとしてディープニューラルネットワークによって識別されるフィーチャの表現を提供する装置であって、
結果に関連する複数のサンプルを有する訓練ライブラリにより訓練されるディープニューラルネットワークであって、前記結果に関連する前記複数のサンプル内のフィーチャを認識するように該訓練によって構築されるディープニューラルネットワークと、
前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする、入力ライブラリを形成する前記複数のサンプルの各サンプル内の1又は複数の要素を識別することによって、入力ライブラリからフィーチャ認識ライブラリを作成するライブラリ作成ロジックと、
前記フィーチャ認識ライブラリを使用して、サンプルの1又は複数の要素のうち前記ディープニューラルネットワークによる前記フィーチャの認識をトリガする特性を有する複数の要素を合成する合成ロジックと、
前記合成された複数の要素を使用して、前記結果に関連する前記複数のサンプル内の前記ディープニューラルネットワークによって識別されるフィーチャの表現を提供するフィーチャ可視化ロジックと、
を有する装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19178746.4A EP3748540A1 (en) | 2019-06-06 | 2019-06-06 | Deep neural network visualisation |
EP19178746.4 | 2019-06-06 | ||
PCT/EP2020/064355 WO2020244941A1 (en) | 2019-06-06 | 2020-05-25 | Deep neural network visualisation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022536087A true JP2022536087A (ja) | 2022-08-12 |
JP7476239B2 JP7476239B2 (ja) | 2024-04-30 |
Family
ID=66776213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021571948A Active JP7476239B2 (ja) | 2019-06-06 | 2020-05-25 | ディープニューラルネットワーク可視化 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220319159A1 (ja) |
EP (2) | EP3748540A1 (ja) |
JP (1) | JP7476239B2 (ja) |
CN (1) | CN113924580A (ja) |
WO (1) | WO2020244941A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113963185A (zh) * | 2021-10-25 | 2022-01-21 | 上海交通大学 | 一种对神经网络中层特征表达能力的可视化及定量分析方法和系统 |
-
2019
- 2019-06-06 EP EP19178746.4A patent/EP3748540A1/en not_active Withdrawn
-
2020
- 2020-05-25 JP JP2021571948A patent/JP7476239B2/ja active Active
- 2020-05-25 WO PCT/EP2020/064355 patent/WO2020244941A1/en active Application Filing
- 2020-05-25 CN CN202080041624.1A patent/CN113924580A/zh active Pending
- 2020-05-25 EP EP20728463.9A patent/EP3980939A1/en active Pending
- 2020-05-25 US US17/615,946 patent/US20220319159A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113924580A (zh) | 2022-01-11 |
WO2020244941A1 (en) | 2020-12-10 |
EP3748540A1 (en) | 2020-12-09 |
JP7476239B2 (ja) | 2024-04-30 |
US20220319159A1 (en) | 2022-10-06 |
EP3980939A1 (en) | 2022-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10740651B2 (en) | Methods of systems of generating virtual multi-dimensional models using image analysis | |
CN110517253B (zh) | 基于3d多目标特征学习的肺结节良恶性分类的方法 | |
CN107155360A (zh) | 用于对象检测的多层聚合 | |
JP2021002338A (ja) | 画像セグメンテーション及び識別のための方法及びシステム | |
JP2009527063A (ja) | 仮想環境において見本及びデータを使用及び統合するシステム及びその方法 | |
Ogiela et al. | Natural user interfaces in medical image analysis | |
Singh et al. | Object classification to analyze medical imaging data using deep learning | |
JP7476239B2 (ja) | ディープニューラルネットワーク可視化 | |
Carloni et al. | On the applicability of prototypical part learning in medical images: breast masses classification using ProtoPNet | |
AL-Marghilani | Target Detection Algorithm in Crime Recognition Using Artificial Intelligence. | |
Gandhi et al. | A survey-insights of ML and DL in health domain | |
Haque et al. | NeuroNet19: an explainable deep neural network model for the classification of brain tumors using magnetic resonance imaging data | |
Gurevich et al. | Descriptive image analysis: Part II. Descriptive image models | |
Singamshetty et al. | Brain Tumor Detection Using the Inception Deep Learning Technique | |
Balachandar et al. | Deep learning technique based visually impaired people using YOLO V3 framework mechanism | |
Hajiyan et al. | Multi-scale local explanation approach for image analysis using model-agnostic Explainable Artificial Intelligence (XAI) | |
AU2019204365B1 (en) | Method and System for Image Segmentation and Identification | |
Priyanka Pramila et al. | Automated skin lesion detection and classification using fused deep convolutional neural network on dermoscopic images | |
Mudduluru et al. | Improving medical image segmentation and classification using a novel joint deep learning model | |
Chandra et al. | A Novel Framework For Brain Disease Classification Using Quantum Convolutional Neural Network | |
Abdullah et al. | Assessment and Evaluation of cancer CT images using deep learning Techniques | |
Bhajaj et al. | FIGSI—Facial Image Generation for Suspect Identification | |
Mudduluru | Developing and Applying Hybrid Deep Learning Models for Computer-Aided Diagnosis of Medical Image Data | |
Veeranki et al. | Detection and Classification of Brain Tumors using Convolutional Neural Network | |
Sharma | Medical Image Processing Using AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230516 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240325 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |