JP6725547B2 - 人工ニューラルネットワークの関連性スコア割当て - Google Patents

人工ニューラルネットワークの関連性スコア割当て Download PDF

Info

Publication number
JP6725547B2
JP6725547B2 JP2017567524A JP2017567524A JP6725547B2 JP 6725547 B2 JP6725547 B2 JP 6725547B2 JP 2017567524 A JP2017567524 A JP 2017567524A JP 2017567524 A JP2017567524 A JP 2017567524A JP 6725547 B2 JP6725547 B2 JP 6725547B2
Authority
JP
Japan
Prior art keywords
neuron
items
relevance
relevance score
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017567524A
Other languages
English (en)
Other versions
JP2018513507A5 (ja
JP2018513507A (ja
Inventor
セバスティアン バッハ
セバスティアン バッハ
ヴォイチェフ サメック
ヴォイチェフ サメック
クラウス−ロベルト ミュラー
クラウス−ロベルト ミュラー
アレクサンダー バインダー
アレクサンダー バインダー
グレゴワール モンタヴォン
グレゴワール モンタヴォン
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2018513507A publication Critical patent/JP2018513507A/ja
Publication of JP2018513507A5 publication Critical patent/JP2018513507A5/ja
Application granted granted Critical
Publication of JP6725547B2 publication Critical patent/JP6725547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Description

本発明は、人工ニューラルネットワークの関連性スコア割当てに関する。この種の関連性スコア割当ては、例えば、関心領域(ROI)識別のために使用され得る。
コンピュータプログラムは、画像およびテキストの自動分類などの多くの複雑なタスクを首尾よく解決することができ、または人の信用度を評価することができる。機械学習アルゴリズムは、データから学習する、すなわちプログラムは、大きなラベル付き(または弱くラベル付けされた)トレーニングセットを取得し、いくつかの訓練段階の後に、新たな不可視の例に一般化することができるため、特に成功を収めている。多くの銀行は、クレジットを申請する人の信用度(例えば、年齢、住所、所得などに基づく)を分類するシステムを保有している。この種のシステムの主な欠点は説明力である。すなわち、この種のシステムは、なぜ、どのようにして決定に至ったのか(例えば、なぜある人が信用力がないと分類される理由)に関する情報を通常提供しない。分類の決定を決定する知識と関係はむしろ「暗黙的」である。
分類決定を理解し、解釈することは、システムの推論を検証することを可能にし、人間の専門家、例えば、銀行家、ベンチャーキャピタル投資家、または医師に追加の情報を提供するなど、多くの用途において付加価値が高い。機械学習法は、ほとんどの場合、ブラックボックスとしての役割を果たし、何が特定の決定に到達させたかに関する情報を提供しないという欠点がある。一般に、複雑なアルゴリズムは、(十分な訓練データが利用可能な場合)単純な(線形の)方法よりもはるかに優れた性能を有するが、特に解釈能力を欠いている。近年、分類器の一種であるニューラルネットワークが非常に普及し、優れた結果を生んでいる。この種の方法は、一連の非線形マッピングで構成され、特に解釈するのが難しい。
典型的な画像分類タスクでは、例えば、画像(例えば、「サメの画像」)を与えることができる。図15を参照されたい。機械学習(ML)アルゴリズム900は、画像902を特定のクラス904(例えば、「サメの画像」)に属するものとして分類する。クラス(例えば、サメ、人、ナイトライフ、アウトドア)のセット906は、先験的に定義されることに留意されたい。アルゴリズム900は、ブラックボックスである。なぜなら、画像が「サメの画像」のクラスに属するという決定になった理由をユーザに教えないからである。ピクセルレベルのこの分類決定の説明は、例えば主にサメのひれのために、画像が「サメの画像」のクラスに属すると分類されていることを見極めることは、興味深い。この種の「関連性マップ」は、908に示されている。
画像の分類は、多くのコンピュータビジョンアプリケーション、例えば画像検索[15](非特許文献1)、ロボティックス[10](非特許文献2)、医用画像[50](非特許文献3)、レーダ画像の目標検出[17](非特許文献4)あるいは顔検出[49](非特許文献5)において重要な要素となっている。ニューラルネットワーク[6](非特許文献6)は、これらのタスクに広く使用されており、ImageNet [11](非特許文献7)などの画像分類およびランキングに関する競技会でのトップ提出物のなかの1つであった。しかしながら、機械学習における多くの方法と同様に、これらのモデルは、しばしば、分類器予測の直接的な解釈が不足している。換言すれば、分類器は、ブラックボックスとして機能し、なぜそれが特定の分類決定に到達したかについての詳細な情報を提供しない。すなわち、図15の解釈可能性は利用できない。
この解釈可能性の欠如は、raw画像ピクセルをその特徴表現に、そしてそれを最終的な分類関数に処理する様々なマッピングの非線形性に起因する。これは、人の専門家が分類の決定を慎重に検証するのを妨げるため、分類アプリケーションにおいてかなりの欠点である。ある種の構造の単なる存在または不存在の二進数または実数値の1次元評価よりも、何かが発生する場所や構造がどのようなものかといった質問がより適切であるアプリケーションでは、単純な「はい」または「いいえ」の回答が、時には価値がある。
ニューラルネットワークを説明するトピックにはいくつかの研究が注力されている。[54](非特許文献8)は、ピクセルレベルにも適用可能なニューロンでの分類器決定を分析することに注力している。これは、畳込みネットワークのアーキテクチャのために出力層から入力ピクセルに向かう層ごとのインバージョンダウンを実行する[23](非特許文献9)。この研究は、修正された線形活性化機能を有するニューロンの層を有する畳込みニューラルネットワークのアーキテクチャを特定している。入力画像のピクセルに関する偏微分の近似値として[54](非特許文献8)の研究の解釈を確立している[42](非特許文献10)を参照されたい。高度な意味で、[54](非特許文献8)の研究は、入力に向かって応答をどのように投影する画像入力を再構成するために最適化の問題を解決する[55](非特許文献11)における先任者の研究を使用し、[54](非特許文献8)は、修正された線形ユニットを使用して、展開されていないマップから入力に向けて情報を投影し、1つの目的で特徴マップが非負であることを保証する。
入力点xにおける偏微分と異なる点x0周りの完全なテイラー級数との間にある別のアプローチが[42](非特許文献10)に示されている。この研究では、入力点xとは異なる点x0を使用して導関数を計算し、残りのバイアスはそれ以上指定されないが、テイラー級数の完全な線形重み付け項x−x0を使用する不特定の理由は避ける。ニューラルネットワークモデルを使用して入力変数の重要性を定量化することは、エコロジカルモデリングなどの特定の分野でも研究されてきた、そこでは、[16,34](非特許文献12,非特許文献13)は、偏微分の計算、摂動分析、重み分析などの可能な分析の大きなアンサンブルを調査し、かつ、トレーニング時に変数を含めたり削除したりする効果を研究している。ニューラルネットワークの決定を理解する別の方法は、ニューラルネットワーク[41](非特許文献14)によって学習された関数に、より解釈可能なモデル(例えば、決定木)を適合させ、この新しいモデルによって学習されたルールを抽出することである。
しかしながら、人工ニューラルネットワークの関連性スコア割当てのタスクを実現するための、堅牢で実装が容易でかつ広く適用可能な概念が依然として必要である。
[15] L. Fei-Fei and P. Perona. A bayesian hierarchical model for learning natural scene categories. In Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, volume 2, pages 524−531 vol. 2, 2005. [10] Hendrik Dahlkamp, Adrian Kaehler, David Stavens, Sebastian Thrun, and Gary R. Bradski. Self-supervised monocular road detection in desert terrain. In Robotics: Science and Systems, 2006. [50] Ross Walker, Paul Jackway, Brian Lovell, and Dennis Longstaff. Classification of cervical cell nuclei using morphological segmentation and textural feature extraction. In Australian New Zealand Conference on Intelligent Information Systems, 1994. [17] Ronny Hansch and Olaf Hellwich. Object recognition from polarimetric SAR images. In Uwe Soergel, editor, Radar Remote Sensing of Urban Areas, volume 15 of Remote Sensing and Digital Image Processing, pages 109−131. Springer Netherlands, 2010. [49] Paul A. Viola and Michael J. Jones. Rapid object detection using a boosted cascade of simple features. In CVPR (1), pages 511−518, 2001. [6] Christopher M Bishop et al. Pattern recognition and machine learning, volume 1. springer New York, 2006. [11] Jia Deng, Alex Berg, Sanjeev Satheesh, Hao Su, Aditya Khosla, and Fei-Fei Li. The ImageNet Large Scale Visual Recognition Challenge 2012 (ILSVRC2012). http://www.image-net.org/challenges/LSVRC/2012/. [54] Matthew D. Zeiler and Rob Fergus. Visualizing and understanding convolutional networks. CoRR, abs/1311.2901, 2013. [23] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. In Peter L. Bartlett, Fernando C. N. Pereira, Christopher J. C. Burges, Leon Bottou, and Kilian Q. Weinberger, editors, NIPS, pages 1106−1114, 2012. [42] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. CoRR, abs/1312.6034, 2013. [55] Matthew D. Zeiler, Graham W. Taylor, and Rob Fergus. Adaptive deconvolutional networks for mid and high level feature learning. In ICCV, pages 2018−2025, 2011. [16] Muriel Gevrey, Ioannis Dimopoulos, and Sovan Lek. Review and comparison of methods to study the contribution of variables in artificial neural network models. Ecological Modelling, 160(3):249−264, 2003. [34] Julian D Olden, Michael K Joy, and Russell G Death. An accurate comparison of methods for quantifying variable importance in artificial neural networks using simulated data. Ecological Modelling, 178(3−4):389−397, 2004. [41] Rudy Setiono and Huan Liu. Understanding neural networks via rule extraction. In IJCAI, pages 480−487. Morgan Kaufmann, 1995. [31] Gregoire Montavon, Genevieve B. Orr, and Klaus-Robert Muller, editors. Neural Networks: Tricks of the Trade, Reloaded, volume 7700 of Lecture Notes in Computer Science (LNCS). Springer, 2nd edn edition, 2012. [25] Yann LeCun and Corinna Cortes. The MNIST database of handwritten digits. http://yann.lecun.com/exdb/mnist/, 1998. [39] David E. Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams. Learning representations by back-propagating errors. Nature, 323:533−536, Oct 1986. [43] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian J. Goodfellow, and Rob Fergus. Intriguing properties of neural networks. CoRR, abs/1312.6199, 2013. [26] Yann LeCun, Koray Kavukcuoglu, and Clement Farabet. Convolutional networks and applications in vision. In ISCAS, pages 253−256. IEEE, 2010. [36] Nicolas Pinto, David D Cox, and James J DiCarlo. Why is real-world visual object recognition hard? PLoS Comput Biol, 4(1):27, 1 2008. [20] Yangqing Jia. Caffe: An open source convolutional architecture for fast feature embedding. http://caffe.berkeleyvision.org/, 2013.
従って、本発明の目的は、人工ニューラルネットワークが適用される項目のセットに関連性スコアを割当てる概念を提供することであり、この概念は、より広範な人工ニューラルネットワークに適用可能であり、および/または計算上の努力を軽減する。
この目的は、係属中の独立請求項の主題によって達成される。
人工ニューラルネットワークが適用される項目のセットへの関連性スコア割当てのタスクは、各項目に関する関連性スコアを得るために人工ニューラルネットワークを介して初期関連性スコアを逆に伝播させることにより項目のセットへ、ネットワーク出力から導出された初期関連性値を再分配することにより得られ得ることが、本出願の基本的な知見である。特に、この逆伝播は、各ニューロンに関し、各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアが、分布関数に従って各ニューロンの上流近隣ニューロンのセットに分配されるような方法で、この方法を実行することにより、人工ニューラルネットワークのより広範なセットにおよび/またはより少ない計算努力で適用できる。
様々な実施形態による本発明の好ましい実施態様および適用例は、従属請求項の主題であり、本出願の好ましい実施形態は、図面に関して以下により詳細に記載されている。
図1aは、本発明の実施形態による逆伝播を用いた関連性スコア割当てが適用され得る人工ニューラルネットワークを使用する予測の一例を示す概略図を示す。 図1bは、ネットワークおよび関連性割当てが画像のピクセルではなく、特徴マップ上で操作される図1aの改良を示す図である。 図1cは、図1aをカラー画像に適用する可能性を示す図である。 図1dは、ネットワークおよび関連性割当てが画像ではなくテキスト上で操作される図1aの改良を示す図である。 図2aは、図1の人工ニューラルネットワークを基礎として例示的に使用する、本出願の実施形態に従って使用される逆伝播プロセスを示す概略図である。 図2bは、ネットワークおよび関連性割当てが画像のピクセルではなく、特徴マップ上で操作される図2aの改良を示す図である。 図2cは、図2aをカラー画像に適用する可能性を示す図である。 図2dは、ネットワークおよび関連性割当てが画像ではなくテキスト上で操作される図2aの改良を示す図である。 図3は、人工ニューラルネットワークの中間ニューロンと、上流及び下流の近隣ニューロンへのその接続を概略的に示しており、ここでは例示的に3つの上流近隣ニューロンも示す図である。 図4は、一実施形態による、項目のセットに関連性スコアを割当てる装置を示すブロック図である。 図5は、予測時間中のニューラルネットワーク形状分類器を示す図である。但し、wijは、接続重みであり、aiは、ニューロンiの活性化である。 図6は、層ごとの関連性計算時間が示される間の図5のニューラルネットワーク形状分類器を示す図である。但し、Ri (l)は、計算されるべきニューロンiの関連性である。Ri (l)の計算を容易にするために、メッセージRij (l,l+1)を導入する。Rij (l,l+1)は、式(2)における層ごとの関連性が保存されるように計算する必要があるメッセージである。メッセージは、分類に使用される接続を介して、ニューロンiからその入力ニューロンjに送られる。例えば2はニューロン4,5,6の入力ニューロンである。ニューロン3は、5,6の入力ニューロンである。ニューロン4,5,6は、ニューロン7の入力である。 図7は、0.6−0.9の領域で緑色のドットから−0.8の領域で青色のドットを分離する決定境界である黒色の破線で分類する例示的な実数値予測関数を示す図である。但し、前者のドットは、負にラベル付けされ、後者のドットは、正にラベル付けされる。左側には、予測点における分類関数の局所勾配が描かれ、右側には、決定境界上のルート点に対するテイラー近似が描かれている。 図8は、ニューロンおよび重み付け接続を記述する異なる変数およびインデックスを注釈付けした多層ニューラルネットワークの例を示す。但し、左:前方へ進む。右:後方へ進む。 図9は、ImageNetデータセットから1000のクラスを区別するように訓練されたニューラルネットワークのピクセル単位の分解を示す図である。 図10は、本出願の実施形態の概念が、右手に、これらの数字を「3」と認識し、それぞれを「9」と区別するために、高い関連性を有する数字「3」および「4」の周りの部分を例示的に示すヒートマップを例示的に示す0〜9の数字の画像を含むMNIST(Mixed National Institute of Standards and Technology;混合された、国立標準技術研究所の)データセットに適用した実験を示す図である。 図11は、実施例によるデータ処理のためのシステムのブロックダイアグラムを示す図である。 図12は、処理が、項目のセットが導出されるデータ上で実行される図11とは異なる実施例によるデータ処理のためのシステムのブロックダイアグラムを示す図である。 図13は、実施例によるROIハイライトシステムのブロックダイアグラムを示す図である。 図14は、実施例によるニューラルネットワーク最適化システムを示す図である。 図15は、人工ニューラルネットワークに関する関連性スコア割当てのタスク、および人工ニューラルネットワークの通常の予測タスクとの関係を示す概略図である。
ブロック図に関する本出願の様々な実施形態を説明する前に、これらの実施形態の根底にある概念を、人工ニューラルネットワークへの簡単な紹介によってまず第1に説明し、次いで、実施形態の概念の根底にある考え方を説明する。
ニューラルネットワークは、入力データと出力データとの間の複雑なマッピングを近似するように訓練することができる、相互接続された非線形処理ユニットのグラフである。なお、入力データは、例えば、画像(ピクセルのセット)および出力は、例えば、分類決定である。(最も単純な場合+1/−1は「はい」を意味し、画像にサメが存在し、あるいは、「いいえ」は、画像にサメが存在しない)。各非線形処理ユニット(またはニューロン)は、非線形活性化関数が適用される入力の重み付き線形結合から成る。インデックス j を用いてニューロンに入力されるニューロンを示すためにインデックスiを使用すると、非線形活性化関数は以下のように定義される。
ここで、g(・)は非線形単調増加活性化関数であり、wijは、ニューロンiをニューロンjに接続する重みであり、bjは、バイアス項である。ニューラルネットワークは、その接続構成、その非線形活性化関数、およびその重みによって定義される。
以下の実施形態は、関連性伝播と呼ばれ得る、そして以下の説明で関連性伝播と呼ばれる概念を使用する。それは、出力ニューロンによってモデル化され、入力ニューロンに戻るようにデータの特定の構造に関する痕跡を再分配する。従って、それは、入力変数(例えば、ピクセル)に関して、それ自身の予測の説明を生成しようとする。この概念は、レイヤの数、活性化関数のタイプなどに関係なく、(ループなしの)ニューラルネットワークのあらゆる種類に対して機能することに注意されたい。多くのアルゴリズムが、ニューラルネットワークに関して記述できるので、それは、多くの周知のモデルに適用され得る。
関連性伝播手順の説明は、畳込み/サブサンプリング層とそれに続く完全に連結された一連の層とからなるネットワークについて以下に与えられる。
特に、図1aは、簡略化された例示的な方法による人工ニューラルネットワークの例を示す。人工ニューラルネットワーク10は、図1に円として描かれているニューロン12で構成されている。ニューロン12は、互いに相互接続されているか互いに相互作用している。一般に、各ニューロンは、一方では下流近隣(または後継)ニューロンおよび他方では上流(先行)ニューロンに接続される。「上流」、「先行」、「下流」および「後継」という用語は、ニューラルネットワーク10が、項目のセット16をネットワーク出力18に、マップするようにすなわち予測を実行するように項目のセット16に適用されるときニューラルネットワークが作用する一般的な伝播方向14を指す。
図1aに示すように、項目のセット16は、例えば、各ピクセルを、画像22のピクセルの配列における各ピクセルの位置に対応する空間位置におけるシーンの色または強度に対応するピクセル値に関連付けることによって画像を形成するピクセル22のセットであってもよい。この場合、セット16は、項目の順序付けられたコレクション、すなわちピクセルの配列である。この場合、項目は、個々のピクセル値に対応する、すなわち各項目は、1つのピクセルに対応する。その後、本出願は、画像の分野に限定されないことが明らかになろう。むしろ、項目のセット16は、項目の間に何の順序も定義されていない項目のセットであってもよい。その間の混合も真実であってもよい。
ニューロン12の第1のまたは最下位レイヤ24は、人工ニューラルネットワーク10の入力の一種を形成する。すなわち、この最下位レイヤ24の各ニューロン12は、項目のセット16の少なくともサブセット、すなわち、ピクセル値の少なくともサブセットの入力値として受信する。最下位レイヤ24のあるニューロン12に値が入力されるセット16の項目のサブセットの結合は、例えばセット16、すなわち、図1aの場合には画像22全体に等しい。換言すれば、セット16の各項目について、その値が最下位レイヤ24のニューロン12のうちの少なくとも1つに入力される。
ニューラルネットワーク10の反対側、すなわちその下流/出力側には、ネットワーク10は、前者は下流近隣/後継ニューロンを欠いているという点においてニューロン12とは異なる1つまたは複数の出力ニューロン12’を含む。セット16に適用され、処理が終了した後、各出力ニューロン12’に記憶された値は、ネットワーク出力18を形成する。すなわち、ネットワーク出力は、例えば、スカラーであってもよい。その場合、ただ1つの出力ニューロン12’が存在し、ネットワーク10の動作後にネットワーク出力を形成する。図1に示すように、そのようなネットワーク出力は、例えば、項目のセット16、すなわち図1aの場合には画像22があるクラスに属するか否かの可能性の尺度とすることができる。しかしながら、ネットワーク出力18は、代わりにベクトルであってもよい。その場合、2つ以上の出力ニューロン12’が存在し、ネットワーク10の動作の終了時に得られるようにこれらの出力ニューロン12’のそれぞれの値は、ネットワーク出力ベクトルのそれぞれの成分を形成する。図1は、例えば、ネットワーク出力18の各成分が、セット16が「ボートを表示する」、「トラックを表示する」、「乗用車を表示する」などのそれぞれの成分に関連するそれぞれのクラスに属する尤度を測定する尺度であることを示している。他の例も考えられ、それを以下に示す。
従って、上記を要約すると、ニューラルネットワークは、前方伝播または通常動作において、項目のセット16を神経出力にマッピングするように相互接続されたニューロン12を含む。出力ニューロン12’と同様のやりかたで、ネットワーク操作の終わりにおいてネットワーク出力18を形成する値、セットの項目16、すなわち図1aの例示的な場合の画像22のピクセルは、ニューロン12と共にネットワーク10の入力ニューロンと見なされ、それによって形成された層は、中間のニューロンまたは中間層であるとそれぞれ見なされ得る。特に、入力ニューロンは、出力ニューロン12’が、ネットワーク10の最も高い中間層、または1つまたは複数の出力ニューロン12’をネットワーク10の最高層を形成すると解釈する場合、ネットワーク10の2番目に高い層を形成する中間ニューロン12の下流近隣/後続ニューロンを形成するのと同様に、中間ニューロン12の上流近隣/先行ニューロン、すなわち層24の上流近隣/先行ニューロンとみなすことができる。
図1は、層26が、すべてがそれぞれのニューロン12が属する層に対して直下の層のメンバーであり、すべての下流の近隣/後続ニューロンは、直上の層のメンバーである特定のニューロン12の上流近隣/後続ニューロンとの層のシーケンスを形成するという意味で、ネットワーク10のニューロン12が厳密に層26内に配置されたことにより、ニューラルネットワーク10の簡略化された例を示す。しかしながら、図1は、以下でさらに概説される本発明の実施形態がこの問題に関して適用できる、ニューラルネットワーク10の種類に限られるとして、解釈されるべきではない。むしろ、ニューロン12のこの厳密な層状配置は、例えば上流の近隣/先行ニューロンが2つ以上の先行する層のニューロンのサブセットであり、および/または下流の近隣/後続ニューロンが2つ以上の上位層のニューロンのサブセットである別の実施例に従って変更し得る。
さらに、図1は、各ニューロン12がネットワーク10の順方向伝播動作中に1回だけ横切られることを示唆しているが、1つ以上のニューロン12を2回以上横断することができる。さらなるバリエーションの可能性について以下に説明する。
これまで説明したように、ネットワーク10をセット16、すなわち図1aの例示的な場合の画像22に適用すると、ネットワーク10は、順方向伝播動作を実行する。この動作中に、その上流近隣/先行のニューロンからその入力値のすべてを受取った各ニューロン12は、それぞれのニューロン機能によって、その活性化と呼ばれる出力値を計算する。上記の例示的な式においてxjと呼ばれるこの活性化は、各下流近隣/後続ニューロンの入力値を形成する。この測定によって、セット16の項目の値は、出力ニューロン12’に行き着くように、ニューロン12を伝播する。より正確には、セットの項目16の値は、ネットワーク10の最下層のニューロン12の入力値を形成し、出力ニューロン12’は、入力値としてそれらの上流近傍/先行ニューロン12の活性化を受取り、それらの出力値、すなわちネットワーク出力18を、それぞれのニューロン機能によって計算する。ネットワーク10のニューロン12および12’に関連するニューロン機能は、すべてのニューロン12および12’の間で等しくてもよいし、ニューロン機能がパラメータ化可能であり、機能パラメータは、平等を妨げずにニューロン間で異なり得る意味で「等しい」とで異なっていてもよい。様々な/異なるニューロン機能の場合、これらの機能は、ネットワーク10の同じ層のニューロン間で等しくてもよく、または1つの層内のニューロン間で異なっていてもよい。
従って、ネットワーク10は、例えば、コンピュータ上で、すなわちソフトウェアで実行されるコンピュータプログラムの形で実装することができるが、電気回路の形態のようなハードワイヤード形態での実装も同様に実現可能である。各ニューロン12は、上述のように、入力値の線形結合の非線形スカラー関数g(・)として例えば上記の明示的な例で提示されるニューロン関数を使用してその入力値に基づいて活性化を計算する。説明したように、ニューロン12および12’に関連するニューロン関数は、パラメータ化された関数であり得る。例えば、以下に概説する特定の例の1つでは、ニューロンjに関するニューロン関数は、それぞれのニューロンのすべての入力値iに対してオフセットbjおよび重みwijを使用してパラメータ化可能である。これらのパラメータは、破線の箱28を使用して図1aに示されている。これらのパラメータ28は、ネットワーク10を訓練することによって得られたものであってもよい。この目的のために、ネットワーク10は、例えば、正しいネットワーク出力が知られている項目のセット16のトレーニングセット、すなわち図1aの例の場合のラベル付き画像のトレーニングセットに繰返し適用される。しかしながら、他の可能性も存在し得る。組合わせでさえ可能かも知れない。以下でさらに説明される実施形態は、パラメータ28のいかなる種類の起源または決定方法に限定されない。図1aは、例えば、ネットワーク10の上流部分21が、セット16、すなわちネットワークの入力、から中間の隠れ層まで延びる層26から成り、例えば(下流)後続層の各ニューロンが特徴マップ20のうちの特徴値を表すように、畳込みフィルタによる画像22の特徴抽出をエミュレートするために、人工的に生成されまたは学習される。各特徴マップ20は、例えば、特定の特性または特徴またはインパルス応答などと関連付けられる。従って、各特徴マップ20は、例えば、関連付けられたフィルタの関連する特徴/特性/インパルス応答が別の特徴マップと異なる特徴マップ20を有する、入力画像22の疎にサンプリングされフィルタリングされたバージョンと考えることができる。例えば、セット16がX・Y項目、すなわち画素、すなわちX列およびY行の画素を有する場合、各ニューロンは、1つの特徴マップ20の1つの特徴値に対応し、その値は、画像22のある部分に関連する局所的特徴量スコアに対応する。たとえばP・Qスコアサンプル、例えばすなわちP行およびQ列の特徴値を有するN個の特徴マップの場合、部分21の下流の後続層におけるニューロンの数は、例えばN・P・Qであり、それはX・Yよりも小さくても大きくてもよい。特徴マップ20のそれぞれの下層にある特徴記述またはフィルタの変換は、それぞれ部分21内のニューロンのニューロン関数を設定する、またはニューロン関数をパラメータ化するために使用されている。しかしながら、ネットワークの「学習された」部分21のような「翻訳された」部分の存在は、本出願およびその実施形態にとって必須ではなく、そのような部分が代わりに存在しないこともあることに再度ご留意されたい。いずれにしても、ニューロン12のニューロン機能がすべてのニューロン間で等しいか、または1つの層などのニューロン間で等しいことが可能であると述べる場合、神経機能はパラメータ化可能であり、パラメータ化可能な神経機能はこれらのニューロン間で等しくなければならない場合、この神経機能の関数パラメータはこれらのニューロンの間で変化し得る。中間層の数は、同様に自由であり、1に等しいか、または1より大きくてもよい。
上記を要約すると、通常動作モードにおけるネットワーク10のアプリケーションは、以下の通りである。入力画像22は、セット16としての役割において、対象となるか、またはネットワーク10に結合される。すなわち、画像22のピクセル値は、第1層24のニューロン12の入力値を形成する。より正確には、クラス「乗用車」に対応する出力ニューロンは、高い値に終わるが、ここでは例示的に「トラック」および「ボート」に対応する他の出力ニューロンは、最終的に低い値になる。
しかしながら、本願の明細書の冒頭部分で説明したように、画像22、すなわちセット16が乗用車などを示すか否かに関する情報は、十分でない場合がある。むしろ、どのピクセル、すなわちどのセット16の項目がネットワーク10の決定に関連していたか否か、例えばどのピクセルが乗用車を表示し、どのピクセルが表示しないかを示す情報を、ピクセルの粒度レベルで有することが好ましい。この課題は、以下に説明する実施形態によって対処される。
具体的には、図2aは、以下でより詳細に説明する本発明の実施形態が、図2aの例示的な場合において、画素の領域であるセット16の項目への関連性スコア割当てのタスクを実行するためにどのように動作するかを示している。具体的には、図2aは、この関連性スコアの割当てが、関連性値Rが例えばネットワーク10を介してネットワーク入力、すなわち項目のセット16に向かって逆方向に伝播する逆伝播プロセス(バックプロパゲーションまたは関連性伝播)によって実行されることを示しており、セット16の項目のうちの16個を選択し、これにより、画像の各ピクセルについて、セット16の各項目iに対する関連性スコアRiを得る。例えば、X・Y画素を含む画像の場合、例えば、iは、画素位置(xi,yi)に対応する各項目/画素iを[1...X・Y]の範囲内にすることができる。図1の順方向伝播方向14とは逆方向に進行する逆伝播方向32に沿ってこの逆伝播を実行する際に、以下に説明する実施形態は、より詳細に説明され、関連性保存と関連性再分配と呼ばれる一定の制約に従う。
手短に言えば、関連性スコア割当ては、人工ニューラルネットワーク10の完成した機器からセット16までに開始する。上述したように、この機器は、ネットワーク出力18で終わる。初期関連性値Rは、このネットワーク出力18から得られる。例えば、後述する例では、1つの出力ニューロン12’の出力値がこの関連性値Rとして使用される。しかしながら、ネットワーク出力からの導出は、例えば、ネットワーク出力に適用される単調関数を用いて、異なって実行される。他の例を以下に示す。
いずれにしても、この関連性値は、逆方向(すなわち、32)でネットワーク10を伝播して、ネットワークは、ネットワーク出力18を結果として生じるようにセット16に適用されるとき、ネットワーク10が作用する順方向伝播方向14と比較して反対方向を指す。逆伝播は、関連性が「実質的に保存されている」ように各ニューロン12に対して、各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性値の和が、各ニューロンの上流近隣ニューロンのセットに分布されるように行われる。例えば、分布関数は、初期関連性値Rがすなわち正確にはR=(Ri または単調関数f()、すなわちR= f((Ri)による逆伝播を完了した後のセット16の項目iの関連性スコアRiの合計に等しいように選択され得る。以下では、分布関数およびどのようにして有利に選択すべきかに関するいくつかの一般的な考え方について論じる。
逆伝播の間に、ニューロン12のニューロン活性化が、逆伝播を誘導するために使用される。すなわち、ネットワーク出力18を得るためにネットワーク10をセット16に適用する間の人工ニューラルネットワーク10のニューロン活性化は、逆伝播手順を導くために予め記憶され、再使用される。以下でより詳細に説明するように、逆伝播を近似するためにテイラー近似を使用することができる。従って、図2aに示すように、逆伝播のプロセスは、出力ニューロンから出発して、逆伝播方向32に沿ってネットワーク10の入力側に向けて初期関連性値Rを分配するものと考えることができる。この手段により、関連性の高い関連性流路34が、出力ニューロン36からネットワーク10の入力側に向かう、すなわち入力ニューロンが項目自体のセット16によって形成される。経路は、例示的に図2に示すように、ネットワーク10を通る間に間欠的に分岐する。経路は、最終的に項目のセット16内の関連性の高いホットスポットで終わる。図2aに示すように、入力画像22を使用する特定の例では、関連性スコアRiは、ピクセルレベルで、画像22内の関連性の高い領域、すなわちネットワーク10内で主要な役割を果たす画像22内の領域が対応するネットワーク出力18に終わることをを示す。以下では、ネットワーク10のニューロンのためのニューロン機能として、非線形活性化機能のための上記の例を使用して、直前に言及した関連性保存および関連性再分布特性をより詳細に説明する。
プロパティ1:関連性の保全
関連性伝播モデルの第1の基本的な特性は、証拠を創造したり紛失したりすることができないことを課している。これは、グローバルスケール(すなわちニューラルネットワーク出力からニューラルネットワーク入力に戻る)とローカルスケール(すなわち、個々の非線形処理ユニットのレベル)の両方に適用される。このような制約は、キルヒホッフの回路法則をニューラルネットワークに適用し、「電流」の物理的概念を「意味論的証拠」の概念に置き換えることに相当する。特に、図3を参照されたい。
ここでは、2つの正の量の比が必ず正であることが分かり、関連性も高くなる。これら2つの機能強化は、安定性と正特性の両方を満たすために容易に組合わせることができる。
関連性の再配布にはどのように行うのか(「有意義な」再分配は、活性化に最も寄与するニューロン(大きな加重活性化xiijを有する)が入力される関連性の大部分を占めることを確実にすべきである)が記載されているのに対し、関連性の保存は再伝播の内容(全体の値(合計)を一定に保ちながら出力関連性を入力変数に分配する)を述べていることに注意すべきである。
本出願の実施形態による装置を説明する前に、上記の導入は、可能な代替案をより明確に提示するように拡張されるべきである。
例えば、図1aおよび2aに関して説明された実施形態は、画像22を項目のセット16として使用し、ネットワーク10を、その1つのレイヤーのニューロンのニューロン活性化が画像の「局所的特徴」、即ち、特徴マップ20のサンプルを表すように設計することも可能であるが、図1b及び図2bの実施形態は、特徴マップ20を項目のセット16として使用する。すなわち、ネットワーク10は、特徴マップ20の特徴サンプルが供給される。特徴マップ20は、入力画像22から、それを特徴抽出器にかけることによって得られてもよく、各々は、入力画像22からそれぞれの特徴マップ20を抽出する。特徴抽出操作が、矢印30を用いて図1bに示されている。特徴抽出器は、例えば、行および列に配置された特徴サンプルを構成する対応する特徴マップ20を得るために、フィルタカーネルを画像にわたって移動させて、特徴サンプルを器具毎に導出するように画像22にフィルタカーネルを局所的に適用することができる。フィルタカーネル/テンプレートは、それぞれの特徴抽出器および対応する特徴マップ20ごとに個別であってもよい。ここで、図1bのネットワーク10は、図1aのネットワーク10のリマインダ部分、すなわち部分21を除去した後のネットワーク10のリマインダと一致することができる。従って、図1bの場合、特徴サンプル値は、ネットワーク10を介して順方向14に沿って、いわゆる予測プロセスの一環として、伝播し、ネットワーク出力18になる。図2bは、図1bのネットワークに対する関連性逆伝播プロセスを示す。逆伝播プロセスは、関連性値Rをネットワーク10を介してネットワーク入力、すなわち項目のセット16に逆方向に伝播させ、それによって、それぞれの項目について関連性スコアRiを取得する。従って、図2bの場合において、関連性スコアRijは、特徴サンプルiごとに得られる。しかしながら、特徴マップ20は、特徴マップ個別フィルタ抽出機能を介して画像内容に関連するので、各関連性スコアiは、すなわち、固定された方法でセット16の項目の個々の関連性スコアを画像22の個々の画素位置に分配することにより、画素領域に、すなわち画素に翻訳されてもよい。従って、この逆関数38は、特徴セット領域からピクセルの空間領域へのギャップを閉じるように、逆伝播過程の一種の拡張を形成する。
さらに、図1aおよび図2aの場合、画像22の各ピクセル、すなわち16の各項目がスカラーを運ぶと仮定されていることに留意されたい。この解釈は、例えばグレースケール画像22の場合に適用され、各画素値はグレースケール値に対応する。しかし、他の可能性も存在する。例えば、画像22はカラー画像であってもよい。その場合、セット16の各項目は、画像22の1つ以上の色平面または色成分の1つのサンプルまたはピクセル値に対応することができる。図1aおよび図2aのカラー画像22への拡張を示す3つの構成要素が、図1cおよび図2cに例示的に示されている。従って、図1cおよび図2cの場合の項目のセット16は、X・Yピクセル位置のそれぞれに対して、3つの色成分のそれぞれについての色成分値を有する場合に、X・Y・3となる。しかしながら、色成分の数は、3以外であってもよい。さらに、色成分の空間分解能は、同じである必要はない。図2cのバックプロパゲーションは、項目、すなわち色成分サンプル当たりの関連性値となる。各画素の全ての成分の成分値を有する場合、最終的な関連性マップは、各画素の色成分について得られた関連性値を合計することによって得ることができる。これは37に示されている。
図1ないし図2cは、画像及び画素に関連するが、本出願の実施形態は、そのような種類のデータに限定されない。例えば、テキストおよびその単語は、基礎として使用できる。ソーシャルグラフ分析アプリケーションは、以下のように見ることができる。すなわち、グラフがニューラルネットワーク10への入力として与えられるグラフ内のノードおよび接続に、関連性が割当てられる。ソーシャルグラフ分析のコンテキストでは、ノードはユーザを表すことができ、接続は、これらのユーザ間の関係を表すことができる。そのような接続はまた、組織内のモデル情報フロー(例えば、引用ネットワーク)または責任の連鎖に向けられ得る。ニューラルネットワークは、例えば、与えられたグラフを予測するように訓練することができる。この場合において、関連性伝播およびヒートマッピング方法は、グラフにおいて予測特性を説明する部分構造またはノードを特定しようとする。ニューラルネットワークは、グラフの特定の特性(例えば、特定のソーシャルグラフに関連する生産性)を入力するとき、例えば、与えられたグラフを予測するように訓練することができる。ニューラルネットワークは、後の時点でグラフの状態を予測するように訓練することができる。この場合において、関連性伝播手順は、どのグラフにおける部分構造がグラフの将来の状態を説明するか(例えば、どの部分構造またはノードがグラフにおいて情報を拡散しあるいはその状態を変化するための能力におけるソーシャルグラフにおいて最も影響力が大きいか)を特定しようとする。従って、ニューラルネットワークは、例えば、広告キャンペーン(回帰タスク)の成功(販売された製品の数)を予測するために使用されることができる。関連性スコアは、成功のためのいくつかの影響力ある側面を特定するために使用することができる。企業は、これらの関連する側面にのみ焦点を当てることによって、経費を節約することができる。関連性スコア割当てプロセスは、広告キャンペーンのすべての項目についてスコアを与えることができる。決定プロセッサは、この入力と、広告キャンペーンのすべての項目のコストに関する情報とを獲得し、キャンペーンの最適な戦略を決定することができる。しかしながら、関連性は、上に示したように特徴選択のためにも使用され得る。
関連性スコアの割当ては、初期関連性値Rの導出から始まる。上述したように、ニューラルネットワークの出力ニューロンの1つに基づいて同じことを設定して、バックプロパゲーションによりセット16の項目に関する関連性値を得ることができ、その1つの出力ニューロンの「意味」を参照する。しかしながら、ネットワーク出力18は、代替的に、ベクトルであってもよく、出力ニューロンは、重複するまたは重複しないサブセットに分割されてもよいという意味のものであってもよい。例えば、意味(カテゴリ)「トラック」および「乗用車」に対応する出力ニューロンを組合わせて、意味「乗用車」の出力ニューロンのサブセットを得ることができる。従って、両方の出力ニューロンの出力値は、逆伝播の開始点として使用され、それによって、サブセットすなわち「乗用車」の意味に関する関連性を示す項目16、すなわちピクセルの関連性スコアが得られる。
上記の説明は、項目セットが、画像の1つの画素に対応する項目42のセット16の項目42のそれぞれを有する画像であることを示唆したが、これは異なっていてもよい。例えば、各項目は、図2cに示されているようなスーパーピクセルなどの画素またはサブ画素のセット(画素は通常rgb値を有する。サブ画素は、例えば画素の緑コンポーネントである。)に対応し得る。さらに、項目セット16は、ビデオの画像の1つまたは複数のピクセル、ビデオのビデオ画像またはビデオの画像シーケンスに対応する項目42のセット16の項目42のそれぞれを有するビデオであってもよい。項目が参照する画素のサブセットは、異なるタイムスタンプの画像の画素を含むことができる。さらに、項目セット16は、オーディオ信号であってもよく、項目42のセット16の各項目42は、PCMサンプルのようなオーディオ信号の1つ以上のオーディオサンプルに対応する。セット16の個々の項目は、サンプルまたはオーディオ録音の任意の他の部分であってもよい。あるいは、項目のセットは、周波数と時間の積空間であり、各項目は、例えば重複ウィンドウのシーケンスのMDCTスペクトルからなるスペクトログラムなどの1つまたは複数の周波数時間間隔のセットである。さらに、セット16は、局所的特徴に対応する項目42のセット16の項目42を有する画像、ビデオ、またはオーディオ信号、またはテキストの単語、文章または段落に対応する項目42のセット16の項目42を有するテキストから局所的に抽出された局所的特徴の特徴マップであり得る。
完全性のために、図1dおよび図2dは、項目のデータセット16が画像ではなくテキストである変形例を示す。その場合、図1dは、実際に(例えばl)ワード43のシーケンス41であるテキストが、各ワードwi43を共通の長さの、すなわち、ワードごとの変換49に従う構成要素vij47の共通数Jの、それぞれのベクトルvi45にマッピングすることによって、「抽象」または「解釈可能」バージョンに転送されることを示す。各構成要素は、意味論的意味と関連していてもよい。使用され得る単語ごとの変換は、例えば、Word2Vecまたはワードインジケータベクトルである。ベクトルvi45の成分vij47は、セット16の項目を表し、ネットワーク10の影響を受け、それによりネットワークの出力ノード12’において予測結果18が得られる。図2dに示す逆伝播は、項目毎、すなわち各ベクトル成分vij(0<i<I;0<j<J)の関連性値をもたらす。0<j<Jのそれぞれの単語wiに関連付けられたベクトルviの成分vijに関する関連性スコアは、例えば単語ごとの関連性合計値(関連性スコア)を結果として合計53に集約し、テキスト中の各単語wiは、関連性スコア合計に従って強調表示されてもよい。強調表示オプションの数は、2つ以上であってもよい。つまり、単語の関連性合計値を量子化して、単語ごとに強調表示オプションを得ることができる。強調表示オプションは、異なる強調表示強度に関連付けられてもよく、関連性合計値から強調表示オプションへのマッピングは、関連性合計値と強調表示強度との間の単調な関連性をもたらし得る。再び、ニューラルネットワークが画像への予測の実行に関係する例と同様に、図1dおよび2dのネットワーク10の入力側部分は、何らかの解釈可能な意味を有することができる。画像の場合、これは特徴セットであった。図1dおよび図2dの場合、ネットワーク10の入力部分は、ベクトルの最もありそうな低次元ベクトルへのセット16の構成要素からなるベクトルの別のベクトルごとのマッピングを表すことができ、その構成要素は、セット16の構成要素からなるベクトルのむしろ単語ファミリ関連性の構成要素と比較してむしろ意味論的意味を有する。
図4は、関連性スコアを項目のセットに割当てる装置の例を示す。この装置は、例えば、ソフトウェアで、すなわちプログラムされたコンピュータとして実装される。しかしながら、他の実現可能性もなお考えられる。いずれにしても、装置50は、この項目がそれに基づいてそのネットワーク出力18のネットワーク10の導出にどのような関連性を有するかを関連性スコアと共に示す項目ごとに関連性スコアを項目のセットに割当てるために、上に概説された逆伝播プロセスを使用するように構成されている。従って、図4は、ニューラルネットワークも示す。ネットワーク10は、装置50の一部ではないものとして示されているが、むしろ、ネットワーク10は、スコアが装置50によって項目のセット16に割当てられる「関連性」の意味の源を定義する。しかしながら、代替的に、装置50は、ネットワーク10も含むことができる。
図4は、ネットワーク10を項目の受信セット16として示しており、項目は小さな円42として例示的に示されている。図4は、ネットワーク10を項目の受信セット16として示しており、項目は小さな円42として例示的に示されている。図4はまた、ネットワーク10がニューロンパラメータ44、例えば、上述したようなニューロンの上流近隣/先行ニューロン、すなわちニューロン機能のパラメータに基づいてニューロン活性化計算を制御する関数重み、によって制御される可能性を示している。これらのパラメータ44は、例えば、メモリまたはストレージ46に格納される。図4はまた、パラメータ44を使用する項目42のセット16の処理を完了した後のネットワーク10の出力を示す。すなわち、ネットワーク出力18、およびオプションとして、処理セット16に起因するニューロン12のニューロン活性化を使用して、ニューロン活性化は、参照符号48により示される。ニューロン活性化48、ネットワーク出力18およびパラメータ44は、例示的に、メモリ46に記憶されるように示されているが、別個の記憶装置またはメモリに記憶されてもよく、記憶されなくてもよい。装置50は、ネットワーク出力18へのアクセスを有し、ネットワーク出力18および上記の逆伝播原理を使用して再分配タスク52を実行し、セット16の各項目i52に対する関連性スコアRiを得る。特に、上述したように、装置50は、ネットワーク出力から初期関連性値Rを導出し、逆伝播プロセスを使用してこの関連性Rを再分配して、項目iに関する個々の関連性スコアRiを完成させる。セット16の個々の項目は、参照符号42で示される小さな円によって図4に示されている。上述したように、再分配52は、パラメータ44およびニューロン活性化48によって導かれ得て、従って、装置50は、これらのデータ項目にもアクセスし得る。さらに、図4に示すように、実際のニューラルネットワーク10は、装置50内に実装される必要はない。むしろ、装置50は、ネットワーク10の構成、例えばニューロンの数、パラメータ44が属するニューロン機能、および、図4に示すように、メモリまたはストレージ46または他の場所に格納できるニューラルネットワーク記述54という用語を使用して情報が図4に示されているニューロン相互接続、にアクセス、すなわち理解しなければならない。代わりの実施形態では、装置50は、再配分タスク52を実行する再配分プロセッサに加えてニューラルネットワーク10をセット16に適用するニューラルネットワークプロセッサを備えることができるように、人工ニューラルネットワーク10も装置50上に実装される。
従って、上記提示された実施形態は、コンピュータビジョンにおいて人気を享受する多層ニューラルネットワークに関する分類と解釈可能性との間のギャップをとりわけ埋めることができる。ニューラルネットワーク(例えば、[6,31](非特許文献6,非特許文献15))に関して、一般化されたp平均に基づく任意の連続ニューロンおよびプーリング機能を用いた一般的な多層ネットワーク構造を考察する。
次節の一般的な概念としてのピクセル単位分解では、分類器のピクセル単位分解の根底にある基本的なアプローチについて説明する。このピクセル単位分解を、図1aおよび図2cに関して説明した。多層ネットワークに関するピクセル単位分解は、一般概念としてのピクセル単位分解で説明されたテイラーベースの関連性伝播アプローチとレイヤー別の関連性伝播アプローチの両方をニューラルネットワークアーキテクチャに適用する。我々のフレームワークの実験的評価は、実験において行われる。
定性的解釈は、Rd<0は分類すべき構造の存在に対する証拠に寄与し、Rd >0はその存在に関する証拠に寄与するということである。後続の視覚化の観点から、各入力画素x(d)に関する結果としての関連性Rdは、色空間にマッピングされ、従来のヒートマップとしてそのように視覚化され得る。すなわち、1つの基本的な制約は、Rdの符号が定性的解釈よりも上でなければならない、すなわち、Rdの正の値は正の寄与を、負の値は負の寄与を意味するという次の取組みにある。
以下では、式(1)のようなピクセル単位の分解を達成するための概念として、層単位の関連性伝播として概念を示す。我々はまた、層単位の関連性伝播の近似をもたらすテイラー分解に基づくアプローチを議論する。広い範囲の非線形分類アーキテクチャでは、テイラー展開による近似を用いる必要なしに、層単位の関連性伝搬を行うことができることを示す。後で提示する方法は、セグメンテーションを伴わない。それらは、トレーニングフェーズに関する学習セットアップまたはピクセル単位のラベリングとしての画素単位のトレーニングを必要としない。ここで使用されている設定は、画像ごとの分類であり、トレーニング中に画像全体に対して1つのラベルが提供されるが、寄与は、分類器の訓練に関するものではない。この方法は、予め訓練された分類器の上に構築される。それらはすでに事前に訓練された画像分類器に適用可能である。
層単位の関連性伝播
その一般的な形での層単位関連性伝播は、分類器がいくつかの計算層に分解され得ると仮定している。そのような層は、画像からの特徴抽出の一部であっても、あるいは計算機構上で実行される分類アルゴリズムの部分であってもよい。後で示すように、これはニューラルネットワークで可能である。
分類器出力f(x)である最後の層から画像画素からなる入力層xまで式(2)を反復すると、所望の式(1)が得られる。入力層の関連性は、式(1)の所望の和分解として働く。以下に示すように、このような分解自体は一意でもなく、分類器予測の意味のある解釈をもたらすことも保証されていない。
これは、式(1)および(2)を明らかに満たすが、すべての入力次元の関連性R(1)(xd)は、予測f(x)として同じ符号を有する。ピクセル単位の分解解釈に関しては、f(x)>0ならば全ての入力は、構造の存在の方向を指し、f(x)<0ならば構造の不在の方向を指す。これは、多くの分類問題に対して、現実的な解釈ではない。
レイヤー単位の関連性伝播を定義するより意味のある方法について説明する。この例では、
次に、特徴次元xdの関連性は、式(5)の項の符号に依存する。これは、多くの分類問題に関して、より説得力のある解釈である。この第2の例は、層単位の関連性伝播が、ある程度特徴空間マッピングφdのような非線形性を扱うことができ、式(2)を満たす層単位の関連性伝搬の例が実際にどのように見えるかを示す。特徴空間マッピングφdに関する規則性仮定は、ここでは全く必要ではなく、非連続的であっても、ルーベンス法の下では測定不可能であってもよい。基礎となる式(2)は、特徴処理のレイヤー間の関連性Rに関する保存則として解釈できる。
上記の例は、さらに、関連性Rが何であるか、すなわち予測関数f(x)への局所的寄与についての直感を与える。その意味で、出力層の関連性は、予測自体f(x)として選択されてもよい。この最初の例は、線形の場合の分解として期待できるものを示す。線形の場合は、最初の直感を提供する。
2番目の、よりグラフィック的で非線形の例を示す。図5は、ニューロンとニューロン間の接続に関する重みwijとを有するニューラルネットワーク形状の分類器を示す。各ニューロンiは、活性化関数からの出力aiを有する。
一般に、この条件は、次のように表すことができる。
一般に、これは次のように表すことができる。
テイラー型分解
一般的な微分可能な予測子fに関して、(1)のように分解を達成するための1つの代替アプローチは、1次テイラー近似である。
テイラー基点x0の選択は、この設定の自由なパラメータである。上記のように、分類の場合、点f(x0)=0のセットによって与えられる予測の最大不確実性の状態に対する各画素の寄与を調べることに興味がある。なぜなら、f(x)>0は、学習構造の存在を、およびf(x)<0は、不存在を示す。従って、x0は、予測子fの根となるように選択されるべきである。予測のテイラー近似の精度のために、より高次のテイラー近似に従ってテイラー剰余を最小にするために、x0は、ユークリッドノルムの下でxに近い値に選ぶべきである。最小数のノルムを持つ複数の既存の根x0の場合、これら全ての解についてそれらの平均値を得るために平均化または積分することができる。上記の式は、
ピクセル単位の分解は、近似根点x0を求める必要があるため、テイラー級数を超えて予測点xに非線形依存を含む。従って、根点x0は予測点xに依存するので、画素全体の分解は線形ではなく、局所線形アルゴリズムである。
いくつかの研究では、予測点xで偏微分を使用することに基づく分類器予測の視覚化のための感度マップ[2,18,38]が使用されている。予測点xにおける微分に基づく感度マップと画素単位の分解手法との間には、2つの本質的な相違点がある。まず、予測点xにおける関数値f(x)と、同じ点xにおける差分Df(x)との間には直接の関係はない。第2に、予測関数f(x0)=0の根のセットによって与えられるある状態に対する分類器予測を説明することに興味がある。予測点における差分Df(x)は、必ずしもユークリッドノルムのもとで近似する根を指しているとは限らない。それは、予測f(x)として同じ符号をまだ有している可能性があり、従って、予測関数の根の点のセットに対する差異を説明するために誤解を招く可能性がある最も近い局所的最適を指している。従って、予測点xにおける導関数は、我々の目的を達成するためには有用ではない。図7は、局所勾配(上向き矢印)と予測の次元別分解(下向き矢印)との間の質的差異を示す。特に、この図は、予測点x(ここでは正方形で示される)における勾配が、必ずしも決定境界上の近接点を指しているという直感を示している。その代わりに、局所最適値または決定境界上の遠い点を指すことがある。この例では、予測点xでの局所勾配からの説明ベクトルは、無関係な方向への寄与が大きすぎる。他のクラスの最も近い近隣は、非常に異なる角度で見つけることができる。従って、予測点xでの局所勾配は、関数値f(x)に対する単一次元の寄与についての良い説明ではないかもしれない。左画像内の予測点における局所勾配および右画像におけるテイラー根点は、黒色の矢印によって示される。最も近い根点x0は、決定境界上に三角形として示されている。右の画像の下向き矢印は、最も近い根点x0を中心とするテイラー展開によるf(x)の近似を視覚化する。近似は、Df(x0)とx−x0との間の外積の対角に等しいDf(x0)(右パネルの灰色の矢印)とx−x0(右パネルの破線)との間の次元方向の積を表すベクトルとして与えられる。
技術的な難点の1つは、根点x0を見つけることである。連続分類器の場合、ラベル付けされていないテストデータを使用するか、またはサンプリングアプローチでトレーニングデータから学習された生成モデルによって生成されたデータによって、予測点xと候補点{x´}のセットの間の線探索を行い、f(x)f(x´)<0である。線l(a)=ax+(1−a)x´は、区間交差によって見つかるfの根を含んでいなければならないことは明らかである。従って、各候補点x´は1つの根をもたらし、1つは、テイラー残留物を最小化する根点を選択するか、または低いテイラー剰余を有する根点のサブセットにわたって平均を使用することができる。
テイラー型分解は、1つの層または複数の層のサブセットに適用される場合、関数が非常に非線形である場合の関連性伝搬の近似的な方法と見ることができることに留意されたい。これは、特に、前の層f=f(zi-1)の関数として出力関数fに適用されるとき、式(18)が、出力層の関連性が予測関数f(x)の値として初期化されるとき、伝播式(2)を近似的に満たす。テイラー近似とは異なり、レイヤー単位の関連性伝播では、入力点以外の第2の点を使用する必要はない。多層ネットワークのピクセル単位分解における節の式は、テイラー展開によって近似する必要なしに、広範囲のアーキテクチャに対してレイヤー単位の関連性伝播を実装できることを実証する。
多層ネットワークのためのピクセル単位分解
多層ネットワークは、一般に、層ごとに編成された一連の相互接続されたニューロンとして構築される。それらは互いに結合されると数学的関数を定義し、最初の層のニューロン(入力)を最後の層のニューロン(出力)にマッピングする。各ニューロンをxで表す。ここで、iは、ニューロンのインデックスである。慣例により、ネットワークの各層ごとに異なるインデックスを関連付けている。与えられた層のすべてのニューロンの総和を“Σi”で表し、他の層のすべてのニューロンの総和を“Σj”で表す。ピクセル活性化
に対応する(すなわち、分類決定の分解を取得したいと思う)ニューロンをx(d)で表す。1つの層から次の層への一般的なマッピングは、線形投影に続く非線形関数を含む。
ij=xiij, (50)
j=Σiij+bj, (51)
j=g(zj), (52)
ここでwijは、ニューロンxiをニューロンxjに接続する重みであり、bjは、バイアス項であり、gは、非線形活性化関数である(使用される命名法を明確にするために図8を参照)。多層ネットワークは、多数のニューロンで構成されるこれらの層のそれぞれをスタックする。一般的な非線形関数は、双曲線正接g(t)=tanh(t)または整流関数g(t)=max(0,t)である。このニューラルネットワークの定式化は、コンボリューションおよび和プーリングが線形演算であるとき、単純な多層パーセプトロン[39]や畳込みニューラルネットワーク[25]などの広範なアーキテクチャを包含するのに十分一般的である。
テイラーベースの分解の要件は、xの分類決定の局所的説明をサポートする根x0(すなわち、分類境界上の点)を見つけることである。これら複数の根は、xの近傍の局所検索によって見つけることができる。しかしながら、[43]に記載されているように、これは、元のサンプルxと知覚的に等価な入力空間の点につながる可能性があり、その根としての選択が、非有益なピクセル単位の分解を生成する。
あるいは、xで定義されたセグメントとその別のクラスの最も近隣のライン検索によって根の点を見つけることができる。この解決策は、自然な画像の場合のように、データ多様性がまばらに配置されている場合には問題がある。そのような場合、xとその最も近隣の間の直線をたどることは、データ多様体から強く離れて、同様に劣悪な画素単位の分解を伴う根x0を生成する可能性が高い。
但し、乗数は、バイアス項によって吸収される(または注入される)関連性を説明する。必要であれば、残留バイアスの関連性を、各ニューロンxiに再分配することができる。
そのとき、保存法則が成立する。
但し、さらなる関連性がスタビライザーにより吸収されていることがわかる。特に、スタビライザーεが非常に大きくなると、関連性は、完全に吸収される。
ここで、α>0,β<0,α+β=1である。例えば、α=2β=−1に関し、保存則は次のようになる。
これは、式(57)と同様の形をしている。この代替伝播法は、異なる因子αおよびβを選択することによって、正および負の証拠の重要性を手動で制御することも可能にする。
上記の再分配式に加えて、次のような代替式を定義することができる。
ここで、nは、それぞれのニューロンの上流側ニューロンの数、Rijはそれぞれのニューロンjから上流近隣ニューロンiに再分配された関連性値、Rjはニューロンiの下流側ニューロンであるニューロンjの関連性、xiはニューラルネットワークの適用中の上流近傍ニューロンの活性化である。wijは上流近隣ニューロンiをそれぞれのニューロンに接続する重みであり、wrjは上流近隣ニューロンrをそれぞれのニューロンjに接続する重みでもあり、bjはそれぞれのニューロンjのバイアス項であり、h()はスカラー関数である。 典型的には、h()は数値スタビライザー項であり、小さなε、例えばh(x)= x +ε・sign(x)を加えることによって、値をゼロから離しておく。
同様に、他の代替手段は:
いったん関連性伝播のルールが選択されると、下位層の各ニューロンの全体的な関連性は、式(8)および(13)と一致するすべての上位層ニューロンからの関連性を合計することによって決定される。
上記式(58)および(60)は、ある構造を満たす層に直接適用可能である。先行層からの活性化xiからの入力の関数としてモデル化される1つの層からのニューロン活性化xjを有すると仮定する。次に、以下のように関数gjと関数hijが存在する場合には、層
単位の関連性伝播が直接適用できる。

j=gj(Σiij(xi)) (63)
このような一般的な場合、式(50)からの重み付け項zij=xiijは、それに応じてhij(xi)の関数で置き換えなければならない。最大プーリングさえも一般化された手段の限界としてこの構造に適合することを再度述べる。式(32)を参照のこと。局所的再正規化[26,36](非特許文献19,非特許文献20)のような、より高い程度の非線形性を有する構造に関し、式(63)で与えられる構造の近似を達成するために、ニューロン活性化xjに適用されるテイラー近似を再び使用することができる。
最後に、この節で確立された式から、層単位関連性伝播は、テイラー級数または部分導関数とは異なることが分かる。テイラー級数とは異なり、入力画像以外の第2の点は必要としない。テイラー級数の層単位のアプリケーションは、層単位の関連性伝播の近似バージョンを達成する一般的な方法として解釈できる。同様に、微分に依存する任意の方法とは対照的に、ニューロン活性化の微分可能性または滑らかさの特性は、層単位の関連性伝播を満たす式を定義するために必要な要件ではない。その意味では、より一般的な原則である。
が、層lのすべてのニューロンiに関する関連性を計算するために使用された。
その引数のそれぞれにおいて単調に増加すべきであり、式(8)の和の一般化として見ることができる。上流と下流のニューロンの用語を使用するときは、次のように記すことができる。
この一般化のやや一般的ではあるが、多分頻繁に使用される変数は:
但し、m2とm3は、1変数の単調増加関数である。
ここで、cは、関連性の保存が成立するように選ばれた定数である。この例では、nの大きな値に対する大きな項に関して大きな重みを付ける。
これは、式(13)がまだ成立することを保証する。
層l+1でのニューロンkのニューロン関連性スコアは、層l+2でのニューロンpのニューロン関連性スコアから以前に計算されているので、上記の式を次のように書き直すこともできる。
従って、我々は、一般化の第1レベルに到達する。
数値的安定性の要件は、関連性の層単位の和が5%の偏差に等しいなど、関連性保存特性がおおよそ満たされるような数値スタビライザー項を含める必要があることに注意されたい。数値スタビライザーの例として、式A5およびA6で使用されている関数h(z)= z +ε・sign(z)を参照されたい。
一般化2
関連性保存特性の許容範囲までの要件は、次のような条件で表される。
上流と下流の用語に関しては、これは次のようになる。
これは、2つの異なった見解で再公表することもできる。第1の見方では、ニューラルネットワークへの入力として働く入力項目のセットにおける各項目に関する出力からの初期関連性Rおよび関連性Riのみを考慮する。次に、ニューラルネットワークの中間層における関連性の合計を特定することなく、これらの条件で上記の要件を定式化することができる。
第2の見方では、ニューロンの関連性スコアの代わりに、1つの固定ニューロンに出入りするニューロン間の関連性メッセージを考慮する。
すべての下流のニューロンから特定のニューロンjに入るメッセージの合計が、ニューロンjからその上流のニューロンに送信されるメッセージの合計にほぼ等しく、再び典型的には5%の公差であることが必要である。
一般化の終わり2
これらの3つの見解は、入力にのみ依存する単調関数ζ、fまたはξを中期的に考慮すると、さらに一般化することができる。
一般化2B
視点1:ニューロンの関連性スコアRk
ビュー2:出力ニューロンの関連性スコアRおよび入力項目のセット内の項目の関連性スコア
ビュー3:ニューロンjの上流および下流ニューロン近傍に関する関連性メッセージRjk
一般化の終わり2B

さて、一般化の第3レベルについて考察しよう。
式A5からA8を調べると、上記一般化のレベルのいくつかの追加要件を特定することができる。まず、式A5〜A8のq(i)は、重み付けされた活性化zijに依存する。式A5とA6およびA7とA8との差は、単に重み付けされた活性化zijの定義にある。
従って、実際には、重み付けされた起動zijを定義する2つの異なる方法を有する2つの式A5およびA7から導出された2つの基本式のみがある。
この検査は、一般化の第3レベルにつながる:
一般化3
関数q(i)は、重み付け活性化zijに依存し、重み付け活性化は、ニューロン活性化xi、接続重みwijおよびバイアス項bjの関数である。
ij=s(xi,wij,bj
特例として
式A5*およびA7*を検査することは、これらの式によって満足される順序性のセットを思い付くことができる。順序性を定義する1つの方法は、重み付け活性化zijの絶対値とメッセージ重み付け関数(・)の絶対値の一般化を検討することである。
式A5の場合、次の順序性が保持される。
式A7*では、わずかに異なる順序性が保持される。以下を検討する。
上で与えられた関数g(・)のさらなる一般化は、その最小値がゼロであり、区間上で単調に減少し、区間上で単調に増加する関数をもたらす。
従って、我々は以下に到達する。
一般化の終わり4
順序性を定義する別の方法は、Rj>0の場合に自分自身を制限することである。それは、負のニューロン関連性を伝播することに興味がない場合に意味がある。これを理解するために、ニューラルネットによって行われた予測が、ニューラルネットワークの出力が入力としての項目のセットに関する非常に肯定的なスコアを有することを意味する構造の存在についてニューラルネットワークによりなされた予測が確かであるときに、項目のセット内の単一項目に関する予測を行うことに通常関心があることを考慮する必要がある。ニューラルネットワークの出力が非常に肯定的なスコアを有する場合、ほとんどのニューロンがニューラルネットの非常に正の予測を支持しているため、ほとんどのニューロン関連性も正であると予想することができ、従って、実際には負の関連性を持つニューロンの小数部分を無視することができる。
別の順序性を推論するには、Σiij>0ならば、h(t)=t+εsign(t)に
対してh(Σiij)>0である場合にも注意されたい。
順序性を定義する他の可能性があることに注意されたい。
例えば、以下の8つの条件は、関連性メッセージの観点から表現される意味のある順序性ももたらす。
さまざまな追加説明
従って、ディープニューラルネットワーク(DNN)などの最先端の分類器は、以下のように動作する。
1) ネットワーク構造(例えば、層数、ユニット数など)は人間によって設計される。
2) ネットワークパラメータ(重み)は、潜在的に何百万もの画像等のラベル付き(およびラベルなし)データサンプルを使用して訓練され/最適化される。事前に訓練されたネットワークの中には、Web上で利用可能なものがある点に注意されたい。
3) ネットワークは、新しい画像に適用することができ、例えば、画像を特定のクラス、例えば「サメを含む画像」、「ニュース記事であるテキスト文書」または「信用力がない人」のクラスに属するものとして分類する。
4) ネットワークは非常に非線形で非常に複雑なので、なぜこの特定の画像が「サメ」として分類されるのかを理解することは難しい。従って、ネットワークはブラックボックスとして機能する(図4参照)。
5) 提示された実施形態は、分類器がその決定に到達する理由、すなわち、重要な情報がどこに位置しているか(例えば画素に関して)を視覚化できる理由を説明することができる。抽象的な言い方をすれば、大規模(例えば、全体画像、全文文書)で計算された分類決定を、小さなスケール(例えば、個々のピクセル、個々の単語)に分解することができる。
6) DNNは画像上で訓練することができるだけでなく、時系列、単語、物理的測定など、事実上すべてのタイプのデータに適用されている。記載された実施形態の原理は、多くの異なるシナリオに適用可能である。
図5ないし10に関して公開された明細書は、次に、図4の関連性スコア割当装置の説明にいくつかの追加の注釈を提供するために使用されるものとする。装置50は、単に再分配52を実行するように構成されていてもよいことは既に上述した。しかしながら、さらに、装置50は、人工ニューラルネットワーク10のセット16への実際の適用を実行するように構成されていてもよい。従って、装置50は、この代替のために、参照符号10を再使用することができるニューラルネットワークプロセッサおよび参照記号52を再使用することができる再分配プロセッサを含むものとして考えられ得る。いずれの場合においても、装置50は、例えば、記憶装置またはメモリ46を備えることができる。しかしながら、興味深いことに、一方では例えば分類プロセスのような予測プロセス上のネットワーク10を含む層と、逆方向伝搬プロセス52がネットワーク10を逆に横切るまでの層との間のギャップが存在し得ることに注意すべきである。例えば、図1a−cおよび図2a−cの場合、予測プロセスに含まれる順方向伝播14は、逆方向伝搬プロセス32として同じネットワーク10の同じ層10にわたるかまたは含んでいることが示されている。すなわち、順方向伝播14およびネットワーク10は、セット16に直接適用され、逆伝搬32は、セット16の関連性スコアに直接結ばれる。図1bおよび図2bの場合、例えば、予測プロセス内では、このセット16は、特徴抽出プロセス30により予め充填され、かつ、増加した関連性スコアの関連性部分を強調表示するために、例えば、元画像22の重ね撮りの形で、この特徴抽出の反転、すなわち38は、後方伝播プロセスを拡張し、空間(画素)領域内の関連性部分の強調表示を実行するために使用される。しかしながら、上述した説明はまた、特徴抽出プロセス30が、人工ニューラルネットワークの1つ以上の追加の層、すなわち順方向伝播14、すなわち層または部分21におけるネットワーク10の実際の(訓練された)部分に先行するニューロンの層を使用して代わりに変換され得るか、または記述され得ることを公開する。特徴抽出30のタスクを単にミラーリングするこれらの層は、関連性割当てプロセスにおける逆方向伝播において実際に横切る必要はない。特徴抽出30のタスクを反映するだけのこれらの層は、関連性割当てプロセスにおける逆方向伝播において実際に横断される必要はない。しかしながら、上位レベル側の部分21のこれらの追加の(変換された)層は、予測プロセスの間の順方向伝播プロセス、すなわち、ネットワーク10の実際の(訓練された)部分を横切る前のその終わりの開始時に横切ることができる。これにより、画素ではなく、特徴サンプルに関して関連性スコアRiが得られる。言い換えれば、関連性は、入力変数(テキストの場合は各単語に関連するベクトルの画像または成分の場合、例えば各画素の赤、緑および青の成分)に関してだけでなく、これらの項目(例えば、ネットワークの特定の層のニューロン)の非線形変換に関して分解され得る。従って、特定の中間層で関連性バックプロジェクションを停止させたい場合がある。当然ながら、一方で順方向伝搬の開始点と他方で逆方向伝搬32の終点との間のこのギャップの例が、他の種類のデータ、すなわちそのような画像以外のデータ例えば、オーディオ信号、テキストなどに適用され得る。
ネットワーク出力18のソートおよびセット16の項目42に関しては、追加の注意に意義があるようである。ネットワーク出力18に関しては、上で概説したように、スカラーまたはベクトルであってもよく、スカラーまたはベクトルの成分は、例えば実数値である。そこから導出された関連性値Rは、スカラーまたはベクトルの成分の1つからそれぞれ導かれた実数値であってもよい。「項目」42に関して、上記の例は、スカラーまたはベクトルであることが同様に可能であることを十分に明確にすべきであったはずである。一方では図1aと図2a、他方では図1cと図2cの並置はこれを明らかにする。図1cおよび図2cに示されているようなカラー画像の画素の場合、画素値は、ベクトル、すなわちここでは例示的にRGB、CMYKなどのような3つ(またはそれ以上)のスカラー色成分に対応する3つまたはそれ以上の成分のベクトルである。セット16の項目42は、画素のスカラー成分である。関連性値を項目のセットに再分配することにより、各項目、すなわち各画素の各成分についての関連性値Riが得られる。各画素について1つのスカラー関連性値を導出するために、その画素に関するそのような共通の関連性値を得ようとして、各画素のすべての成分の関連性値を合計することができる。これは図2cの37に示されている。テキストの場合にも同様の措置が行われることがある。従って、入力変数に関しての関連性分解は、関連性分解の容易な視覚化および解釈を可能にする方法で再グループ化し得る。例えば、画素領域におけるヒートマップとしての関連性を視覚化するために、図2cに関して説明したように、赤、緑及び青成分に関連する関連性を各画素について合計し得る。同様に、テキスト分析の場合、ヒートマッピングされたテキストとしての文書の関連性の分解を視覚化するために、対応するベクトルの各成分に関連する関連性を各単語について合計し得る。
他の例も同様に評価することができる。しかしながら、安定化関数h(・)(式A5*およびA7*を参照)によって課せられるような状況は、関連性「漏れ」をもたらす可能性があるため、例えば一般化2Bからの前述の関数f、ξおよびζによって記述された関連性は、例えば、項目の各セット16について満たされないかもしれない。例えば、ネットワーク出力が最大ネットワーク出力の少なくとも75%に達するようなセットまたは項目に対してのみ適合させることができる。例えば、人工ニューラルネットワークによって実行される予測は、ある画像が「猫」を示すかどうかを想像しよう。次に、ネットワーク出力での予測が、画像が猫を示す75%以上の値をもたらす画像の予測が、逆伝搬の影響を受けたときに、他の画像が確実ではない、または確実ではない可能性があるが、f(それらの全てまたは少なくとも99%以上)に関する条件を満たす画素に関する関連性スコアをもたらす。
別の観点から、分布関数は、「有意義な」逆伝播関連性スコアにおいて同じ結果が得られるように、有利に選択されるべきである。この目的のために、分布関数は、関連性保存性に追加的または代替的に、いくつかの「順序」性に従うことができる。換言すれば、上述した関連性保存性に従わなくても、分布関数は、有意義な逆伝播関連性スコアをもたらす可能性がある。特に、各ニューロンjについて、どれだけの関連性Rijがそれぞれのニューロンjから上流近隣ニューロンiに再分配されるかをもたらす分布関数は、以下で与えられる。
q(i)は、各ニューロンjの上流近隣ニューロンiの活性化xiに依存する順序性を満足する関数であり、上流近隣ニューロンiの数をIとし、重みwijは、上流近隣ニューロンiをそれぞれのニューロンjに接続し、存在する場合、各ニューロンjのバイアス項bjは、存在しなければゼロであると仮定され、順序性は、一般化4および一般化5内およびその周辺で与えられるもののうちの1つである。
また、図4は、関連性スコア割当てプロセスの図を同時に示しており、その中に示されている要素、例えば、10および52、は、このような方法/プロセス中に実行されるプロセスステップを表すことにも留意すべきである。例えば、30および38等のステップは、プロセス中に追加的に実行されるオプションのステップまたはタスクを表す。あるいは、装置50は、タスク30および38または30をさらに実行するように構成することができる。例えば、これらのタスクのすべては、プロセスまたは装置50が実装される基盤上のコンピュータプログラムのコードの異なる部分を表すことができる。
さらに、上記の説明は、以下では、本出願の範囲に関する誤解を避けるために、いくつかの異なる用語を用いて記載される。
特に、上記の説明は、サンプルに対して行われた予測の分析を示し、「サンプル」は項目のセット16である。予測は、項目のセット16に基づいてネットワーク出力を導出するプロセスであり、マッピングによって実行され、サンプルが入力として取り込まれる。予測はサンプル全体に対して行われ、ベクトル値または実数値出力、またはベクトル値または実数値出力に変換できる出力、すなわちネットワーク出力18に変換できる出力が得られる。予測マッピングは、ニューラルネットワークを通る前方伝播14を含む。それは以下のように分解することができる。入力を取り、入力に関数、すなわちニューロ関数を適用することによって出力を計算する要素12からなる。少なくとも1つの要素12は、入力としてサンプル、すなわちセット16のサンプルの1つの項目を有する。モデルは、各要素が入力としてサンプルの多くとも1つの項目を取るように一般性を失うことなく作成される。少なくとも1つの要素12は、他の要素の出力を入力として受取る。これらは、上述のように、要素12およびその入力に依存する値を乗算することによって重み付けされてもよい。少なくとも1つの重みは非ゼロである。少なくとも1つの要素の出力は、サンプルの予測を行うために使用される。サンプルアイテムからモデルの予測への接続が存在する。
別の言い方をすれば、上記の輪郭を描かれた(階層化された)逆伝播は、項目のセットに関する予測が既に実行されているという前提で実行される。このプロセスは、予測によって、すなわちネットワーク出力に基づいて、直接計算されたすべてのそれらの要素の関連性の初期化から開始される。この出力が実数値である場合、関連性Rは、そのとき、それぞれの予測ネットワーク出力を計算した出力ニューロンを形成し、モデルの予測値を使用して初期化される。出力がベクトル値である場合、関連性Rは、すべての出力ニューロンに対して設定されてもよく、1つの出力ニューロンの場合の実数値出力の場合に関して説明した初期化を使用してかつ残りの出力ニューロンに関して関連性をゼロに設定することにより初期化されてもよい。初期化後、次の2つの式が交互に計算される。
ニューラルネットワークがサイクルを含む場合、すなわち、ニューラルネットワークが反復して時間依存状態を有する場合、その構造は時間的に展開され得、フィードフォワードマッピングをもたらし、上述したのと同じ手順を適用することができる。展開すると、各時間ステップでネットワークの状態をモデル化する1つの層を持つことを意味する。
以下では、層単位の関連性伝播の原理について、より技術的な視点を示す。各層にはインデックスが割当てられる。最初の層はインデックス1を持ち、最後の層は最大のインデックスを持つ。セット16内の各項目に関するスコアは、以下のように計算することができる。
我々は、すでに、注文した項目のコレクションについて予測していると仮定する。
・まず、以下のように出力層である最後の層の関連性を初期化する。
・出力が実数値の場合は、最後の層の単一要素に関する関連性をモデルの予測値として初期化する。
・出力がベクトル値の場合、出力層の少なくとも1つの要素に関する実数値出力の場合について説明した初期化を使用するか、および残りの要素については、関連性をゼロに設定するかのいずれかによって、最後の層のすべての要素に関する関連性を初期化する。
・次に、1つの層インデックスから上流層までの層の繰返しを実行する。
この方法の結果は、順序付けられた項目のコレクションに対してなされた予測に関する項目の関連性を示すかまたは結果が以下の少なくとも1つと組合せられたスコアである項目ごとに1つのスコアである。
・スコアの各間隔が1つの色にマッピングされるようなこれらのスコアの色へのマッピング
・各項目のスコアによって決定された順序に従う項目のソートされたリスト
サンプルは、順序付けられた項目のセットであってもよい。以下では、順序付けられた項目のコレクションのいくつかの可能な例のリストを示す。
順序付けられた項目のコレクションは、画像であってもよく、各項目は、その1つ以上のピクセルのセットであってもよい。
順序付けられた項目のコレクションは、テキストであってもよく、各項目は、その1つ以上の単語のセットであってもよい。
順序付けられた項目のコレクションは、テキストであってもよく、各項目は、その1つ以上の文のセットであってもよい。
順序付けられた項目のコレクションは、テキストであってもよく、各項目は、その1つ以上の段落のセットであってもよい。
順序付けられた項目のコレクションは、キー値のペアのリストであってもよく、各項目は、その1つ以上のキー値のペアのセットであってもよい。
順序付けられた項目のコレクションは、財務データまたは企業関連性データのキー値ペアのリストであってもよく、各項目は、1つまたは複数のキー値ペアのセットであってもよい。
順序付けられた項目のコレクションは、ビデオであってもよく、各項目は、タイムスタンプを有する1組以上の画素の対であってもよい。
順序付けられた項目のコレクションは、ビデオであってもよく、各項目は、1つ以上のフレームのセットであってもよい。
順序付けられた項目のコレクションは、ビデオであってもよく、各項目は、1つ以上の画素のセットであってもよい。
学習可能なニューラルネットワークの技術仕様
次の段落では、他のタイプの浅い学習アルゴリズムとの違いである訓練段階の間に、その層の大部分が学習されるようなニューラルネットワークについて説明する。それは、以下の特性を有するかもしれない。
- モデルがテスト時に2層である場合、第1層の重みは、訓練データのセットおよび訓練データのサブセットに依存する誤差尺度を使用して最適化される。
- モデルがテスト時に3層または4層積層されている場合、少なくとも第1または第2の層の重みは、訓練データのセットおよび訓練データのサブセットに依存する誤差尺度を用いて最適化される。
- モデルがテスト時に5層以上積層されている場合、訓練データのセットと訓練データのサブセットに依存する誤差尺度を使用して、少なくとも第1の層から第3の最後の層までの1つの層の重みが最適化される(これにより、最後の層も最適化される)。
層内の要素の少なくとも1つは、整流された線形活性化ユニットであってもよい。
層中の要素の少なくとも1つは、ヘヴィサイド活性化ユニットであってもよい。
層中の要素の少なくとも1つは、tanh活性化ユニットであってもよい。
層内の要素の少なくとも1つは、ロジスティック活性化ユニットであってもよい。
層中の要素の少なくとも1つは、シグモイド活性化ユニットであってもよい。
実験

我々は、2つのデータセット、解釈が容易なMNISTの結果の2つのセットと、Caffeオープンソースパッケージ[20](非特許文献21)の一部として提供されている15層の既に訓練されたネットワークに依存する第2の実験セットを示し、これは、ILSVRCチャレンジから1000のカテゴリを予測する。一方で、MNISTの数字の実験によって、我々は訓練段階に特有の詳細を明らかにすることができることを示すつもりである。他方で、Caffeツールボックスからの事前トレーニングされたネットワークの結果は、この方法が、箱の外でディープニューラルネットワークと一緒に動作し、訓練段階中に可能なトリックに依存していないことを示す。
事前訓練されたネットワークを使用して、他の現実的な画像に基準スコア割当てを適用した。関連性スコアの形での分類決定の説明は、クラスの有意な特徴を強調する。例えば「サメ」のサメひれ、「カップ」の丸い形、「火山」の山の形など。関連性スコアの割当てでは、画像内のすべてのグラデーションが強調表示されるわけではないが、識別機能が強調表示されている点に注意されたい。例えば、図9は、ImageNetデータセットから1000のクラスを区別するように訓練されたニューラルネットワークへの、上記で概説した関連性スコア割当ての適用を示す。上側の画像は、ネットワーク、すなわちセット16への入力を示し、下側の画像は、各入力画像に対して1つずつ、上記の実施形態による画素に割当てられた関連性スコアを示すヒートマップを示す。ヒートマップは、上に概説したように、入力画像上にオーバーレイされてもよい。ヘビの場合(左の画像)、シェルを表す画素は、初期関連性スコアの大部分を受取る、すなわち、画像を、蛇を示すものとして分類するネットワークの予測をもたらす主な理由として識別されることがわかる、サメ(右画像から2番目)の場合には、ひれを表す画素は、初期関連性スコアの大部分を受取り、丘(右画像から2番目)の場合には、頂点を表す画素は、初期関連性スコアの大部分を受取り、マッチの場合には、マッチ及び炎を表す画素は、初期関連性スコアの大部分を受ける。
我々はまた、MNISTデータセット上のニューラルネットワークを訓練した。このデータセットには、0から9までの数字の画像が含まれている。トレーニング後、ネットワークは、新しい不可視画像を分類できる。逆伝播の関連性スコア割当てによって、ネットワークが3の画像をクラス「3」、換言すれば3を他の数と異なるものに分類する理由を尋ねることができる。図10におけるヒートマップにおいて、(他の数字に関して)3の最も重要な特徴は、中央の水平ストロークと、左に垂直接続がないこと(数字8の場合はそこにある)がわかる。例えば、なぜ4の画像が「9」に分類されないのか、言い換えれば4の画像を見るときに9と対話するのかも尋ねることができる。「9」に対する証拠は、4の上の隙間であることが分かる。矢印62を用いて示された赤色は、あるクラスの証拠を表し、60で示された青色は、クラスに対する証拠を表すことに留意されたい。要約すると、この方法は分類の決定について意味のある説明を提供することを示した。
アプリケーション
今まで、説明は、関連性スコア割当てプロセスに集中していた。以下では、セット16の項目に割当てられた関連性スコアがどのように使用され得るかについて、簡単に説明する。
一般的なアプリケーションは、より大きい、より複雑なアルゴリズム(CA)の一部としてここに提案された関連性スコア割当て(RS割当て)を使用することである。アルゴリズムCAを適用するのが、非常にコストがかかる状況を考えることができるので、RS割当ては、アルゴリズムCAが適用される可能性があるいくつかの関心領域を定義することができる。例えば、
−医師の時間は貴重である。RS割当ては、癌をスクリーニングする際に、画像中の重要な領域を特定することができる。
−ビデオ符号化において、チャネル帯域幅は貴重である。RS割当ては、ビデオのどの部分が他の部分よりも重要であるかについてアルゴリズムCAに通知し、例えばより良い符号化戦略(例えば、重要な部分についてより多くのビットを使用する)、またはより良い送信スケジュール(例えば、重要な情報を最初に送信する)を決定するために通知することができる。
−ヒートマップは、いくつかの予測タスクの追加機能を計算するために使用できる。例えば、訓練されたネットワークを使用して、それをある画像に適用し、より重要な領域からより多くの特徴を抽出することができる。これは、計算時間または情報の伝送の減少をもたらす可能性がある。あるいは、そこから抽出された領域または追加情報を使用して、訓練されたネットワークを再トレーニングし改善することができる。
−RS割当ては、ユーザーまたは会社が、特定のタスクにとってどのような領域または機能が重要であるかを知りたい場合に、調査ツールとして使用できる。
さらに、画像応用分野では、
−RS割当ては、医療用途、例えば、医師が病理像の腫瘍を特定するか、またはMRI画像の観察を特定するための助けとして、使用できる。
より具体的な例としては、以下を含む
−生物学的組織の画像における炎症徴候の検出、
−生物学的組織の画像における癌の徴候の検出、
−生物学的組織の画像における病理学的変化の検出、
−RS割当ては、一般的な画像に適用することができる。例えば、ソーシャルウェブサイトのプラットフォームや検索エンジンには多くのイメージがあり、何が画像を「面白い」、「珍しい」、「面白い」、とさせるのか、何が人を、住宅のイメージや住宅のインテリアを魅力的または美的にまたは魅力的でなくまたは美学的でないとさせるかに興味があるかもしれない。
−RS割当てを監視アプリケーションで使用して、画像のどの部分が異常なイベントを検出するためにシステムをトリガするかを検出できる。
−衛星、航空機またはリモートセンシングデータによって撮影された画像における土地利用変化の検出。
ビデオアプリケーション分野において、
−ヒートマップは、例えば、重要な情報を含む領域にはより多くのビットを使用し、他の領域には少ないビットを使用して、符号化の圧縮強度を設定するために使用できる。
−RS割当ては、ビデオ要約、すなわち、ビデオ内の「関連性」フレームを識別するために使用することができる。これにより、インテリジェントなビデオ閲覧が可能になる。
−アニメーション映画は時にはあまり現実的ではない。映画がより現実的に見えるようにするために何が「欠落している」かははっきりしない。この場合、ヒートマップを使用して、ビデオの非現実的な部分を強調することができる。
テキストアプリケーションの場合、
−テキスト文書のカテゴリへの分類は、DNNまたはBoWモデルによって実行できる。 RS割当ては、文書が特定のクラスに分類される理由を視覚化することができる。トピックに関するテキストの関連性は、さらなる処理のために強調表示または選択することができる。RS割当ては重要な単語を強調し、長いテキストの要約を提供することができる。このようなシステムは、例えば、特許弁護士がすぐに多くのテキスト文書を閲覧するのに役立つ。
財務データアプリケーションの場合、
銀行は、(ディープ)ニューラルネットワークなどの分類器を使用して、誰かがクレジットローンを取得しているかどうかを判断する(ドイツのSchufaシステムなど)。これらのアルゴリズムがどのように作動するかは透明ではない。例えば、クレジットを取得していない人は、理由を知らない人もいる。RS割当ては、なぜ誰かがクレジット取得しないのかを正確に示すことができる。
マーケティング/セールスの分野において
−RS割当ては、何が、特定の商品説明イメージ/テキストが商品の販売をもたらすのか(例えば、アパートのレンタル、eBay商品の説明)を決定するために使用できる。
−RS割当ては、何が、オンラインビデオ/ブログ投稿を高評価させるかあるいは好まれるかを決定するために使用することができる。
−企業は、どの「特徴」が彼らのウェブサイトや製品を魅力的とさせるのかに一般的に関心を持つ可能性がある。
−企業は、なぜ一部のユーザーが製品を購入し、他のユーザーがそれを購入しないのかに関心がある。RS割当ては、ユーザーが製品を購入しない理由を特定し、それに応じて広告戦略を改善するのに使用できる。
言語学/教育分野
−RS割当ては、テキストのどの部分が、英語、フランス語、スペイン語、ドイツ語などの特定の言語のネイティブではない話者をネイティブと区別できるかを決定するために使用できる。
−RS割当ては、特定の人によって文書が書かれたか否かをテキスト中の校正要素を見つけるために使用することができる。
上記の説明では、項目のセットに関連性スコアを割当てるための異なる実施形態が提供されている。例えば、写真に関して例が提供されている。後者の例に関連して、関連性スコアの使用に関して、すなわち関連性スコアを用いて画像内の関連性部分を強調するために、すなわち元の画像と重ね合わされ得るヒートマップの使用に関して、実施形態が提供されている。以下では、関連性スコアを使用または利用する実施形態、すなわち上記の関連性スコア割当てを基礎として使用する実施形態を提示する。
図11は、1組の項目を処理するシステムを示す。システムは、参照符号100を使用して一般に示される。システムは、装置50の他に、処理装置102を含む。両方ともセット16で動作する。処理装置102は、処理結果104を得るために、項目のセット、すなわちセット16を処理するように構成されている。そうすることで、処理装置102は、関連性スコア割当て器50によってセット項目16に割当てられた関連性スコアRiに応じてその処理を適合させるように構成される。装置50および装置102は、1つまたは複数のコンピュータ上で走行するソフトウエアを使用して実現できる。それらは、別々のコンピュータプログラムまたは1つの共通のコンピュータプログラム上に実装することができる。セット16に関しては、上に示したすべての例が有効である。例えば、処理装置102がデータ圧縮等の非可逆処理を行うと仮定する。例えば、装置102によって実行されるデータ圧縮は、無関係な縮小を含むことができる。セット16は、例えば、画像またはビデオなどの画像データを表すことができ、装置102によって実行される処理は、損失性のある圧縮であってもよく、すなわち、装置はエンコーダであってもよい。
その場合、装置102は、例えば、それに割当てられたより低い関連性スコアを有するアイテムと比べて、それに割当てられたより高い関連性スコアを有する項目に対するプロセスの損失性を減少させるように構成することができる。損失は、例えば、量子化ステップサイズを介して、または符号器のレート制御の利用可能なビットレートを可変させることによって、可変させることができる。例えば、関連性スコアが高いサンプルの領域は、より高いビットレートを使用する、より低い量子化ステップサイズを使用するなどのように、損失の少ない符号化を行うことができる。従って、関連性スコア割当ては、例えば、ビデオシーン内の容疑者検出/予測に関して、関連性スコア割当てを実行する。その場合、処理装置102は、ビデオを非可逆圧縮する際により多くのデータレートを費やすことができ、この例によれば、興味深い場面、すなわち、容疑者が同じ場所内で「発見」されているため、時空間部分が関心のある興味深いシーンに関してセット16を表す。または、処理装置102は、同じデータレートを使用するが、関連性スコアによって達成される重み付けのために、高い関連性スコアを持つサンプルの項目に関しては圧縮率が低く、低い関連性スコアを持つサンプルの項目に関しては圧縮率が高い。処理結果104は、この場合、非可逆圧縮されたデータまたはデータストリーム、すなわちビデオ16の圧縮バージョンである。しかしながら、前述のように、セット16は、ビデオデータに限定されない。これは、画像またはオーディオストリームなどであってもよい。
完全を期すために、図12は、図11のシステムの変形例を示している。ここでは、セット16の項目に関する関連性スコアRiを導出するために、関連性スコア割当て50がセット16上で動作するが、処理装置102は、セット16と等しくない処理すべきデータ106上で動作する。むしろ、セット16は、データ106から導出されている。図12は、例えば、セット16が特徴抽出プロセス30によってデータ106から導出されたことによる図1の例示的なケースを示す。従って、セット16は、データ106を「記述する」。関連性値Riは、上述した方法で、特徴抽出プロセス30に関する反転マッピングまたは逆マッピングを表す逆マッピングプロセス38を介して元のデータ106に関連付けることができる。従って、処理装置102は、データ106上で動作し、関連性スコアRiに依存してその処理を適合させるか、または合理化する。
図11および図12の処理装置102の処理は、非可逆圧縮などの非可逆処理に限定されない。例えば、セット16またはデータ106に関する上記の例の多くにおいて、セット16の項目は、1,2またはそれ以上の次元で順序付けされた項目の順序付きコレクションを形成する。例えば、画素は、少なくとも2次元、すなわち、xおよびyは2つの横方向の次元であり、時間軸を含む場合は3次元である。オーディオ信号の場合、時間領域(例えば、PCM)サンプルまたはMDCT係数などのサンプルは、時間軸に沿って順序付けられている。しかしながら、セット16の項目は、スペクトル領域で順序付けられてもよい。すなわち、セット16の項目は、例えば、画像、ビデオまたはオーディオ信号のスペクトル分解の係数を表すことができる。その場合、プロセス30および逆プロセス38は、スペクトル分解または順方向変換または逆変換をそれぞれ表すことができる。これらのすべての場合において、関連性スコア割当器50によって得られるように関連性スコアRiは、同様に順序付けられている、すなわち、それらは関連性スコアの順序付けられたセットを形成する、あるいは、換言すれば、セット16で覆われた"関連性マップ"または処理38を介してデータ106を形成する。従って、処理装置102は、例えば、セット16の項目間の順序またはデータ106のサンプルの順序を使用してデータ106のセット16の視覚化を実行し、視覚化の関連性マップを強調するために関連性マップを使用する。例えば、処理結果104は、スクリーン上の画像の提示であり、セット16またはデータ106における関連性がそれぞれ増加した部分を示すために、関連性マップ装置102を使用して、例えば、点滅、色反転などを使用して画面上の一部を強調表示する。このようなシステム100は、例えば、データ106またはセット16によって表されるシーンの特定の部分、例えばビデオまたは画像に警備員の注意を引くためにビデオ監視の目的で使用することができる、
あるいは、装置102によって実行される処理は、データ補充を表すことができる。例えば、データ補充は、メモリからの読出しを指してもよい。別の代替として、データ補充は、さらなる測定を含むことができる。例えば、セット16が再び順序付けられたコレクションである、すなわち画像106に属する特徴マップであるということは、ピクチャ自体またはビデオであると仮定する。その場合、処理装置102は、ROIすなわち関心領域の情報内の関連性スコアRiから導出することができ、セット16が参照される完全なシーンに関するデータ補充を行わないようにするために、このROIにデータ補充を集中させることができる。例えば、第1の関連性スコアの割当ては、低解像度の顕微鏡画像上で装置50によって実行することができ、装置102は、関連性スコアが高い関連性であることを示す低解像度顕微鏡画像からローカル部分に関して別の顕微鏡測定を行うことができる。従って、処理結果104は、データ補充、すなわち、高解像度顕微鏡画像の形でのさらなる測定である。
従って、データレートの支出を制御する目的のために、図11および図12のシステム100を使用する場合において、システム100は、効率的な圧縮コンセプトをもたらす。視覚化プロセスのためにシステム100を使用する場合、システム100は、視聴者が関心のあるいくつかの領域を実現する可能性を高めることができる。データ補充を合理化するためにシステム100を使用する場合において、システム100は、無関係な領域に関するデータ補充の実行を回避することによって、データ補充の量を回避することができる。
図13は、1組の項目の関心領域を強調表示するシステム110を示す。すなわち、図13の場合、項目のセットは、再び、特徴マップ、画像、ビデオ、オーディオ信号などの順序付けられたコレクションであると仮定される。関連性スコア割当て器50は、関連性スコア割当て器50によって提供される関連性スコアRiに依存する関連性グラフを生成するグラフ生成器112に加えて、システム110によって構成される。関連性グラフ114は、すでに上述したように、関連性Riを「測定」するために色が使用されるヒートマップであってもよい。関連性スコアRiは、上述したように、スカラーであるか、あるいは、画像の1つのカラー画素に属する異なる色成分のサブ画素の関連性スコアのような、一緒に属している合計マッピング関連性スコアによってスカラー化することができる。スカラー関連性スコアRiは、例えば、個々の画素の1次元スカラー関連性スコアをCCT値として使用して、グレースケールまたはカラーにマッピングすることができる。しかしながら、1次元からRGBのような3次元色空間への任意のマッピングは、有色マップを生成するために使用することができる。たとえば、スコアを色相の間隔にマッピングし、彩度と値のディメンションを固定してから、HSV表現をRGB表現に変換する。
しかしながら、関連性グラフ114は、代わりに、ヒストグラムなどの形で表されてもよい。グラフ生成器112は、関連性グラフ114を表示するためのディスプレイを含むことができる。これを越えて、グラフ生成器112は、関連性スコア割当器50を実装するコンピュータプログラムとは別個のまたはその中に含まれ得るコンピュータプログラムのようなソフトウエアを使用して実装することができる。
具体的な例として、項目のセット16が画像であると仮定する。割当て器に従って得られた各画素の画素単位の関連性スコアは、値のセットの中に/の上に離散化/量子化されて、離散化/量子化インデックスは色のセットにマッピングされ得る。マッピングは、グラフ生成器112において行われてもよい。ピクセルの色への割当ての結果、すなわち色に関するいくつかのCCT(色温度)測定に従った関連性−色マッピングの場合における例えば「ヒートマップ」は、データベースにおけるまたは記憶媒体上の画像ファイル、または生成器112によってビューアに提示される画像ファイルとして保存され得る。
代替的に、画素の色への割当ては、元の画像と重なり合うことができる。この場合、図11および図12のプロセッサ102は、グラフ生成器として機能することができる。 得られたオーバーレイ画像は、媒体上の画像ファイルとして保存するか、または視聴者に提示することができる。「オーバーレイ」は、例えば、元の画像をグレースケール画像に変換し、画素単位の関連性スコアを明度に写像して色相値に写像するのに使用することによって行うことができる。オーバーレイ画像は、色相−彩度−明度表現を使用することによってプロセッサ102によって生成することができる。すなわち明度(ただし、ほぼ黒色の画素にははっきりと見える色がないために、非常に小さい値の上限を有し、元の画像から彩度も取られる)は、元画像のグレースケールバージョンの各サンプルのグレースケール値から得られ、色相値はカラーマップから取得される。プロセッサ102は、単に輪郭が描かれたように生成された画像、例えば、カラーマップまたはオーバーレイまたは関連性スコアの順序付けられたセット(画像として表現することができるが、これは要件ではない)をセグメンテーションに従わせることができる。非常に高いスコアまたは大きな絶対値を有するスコアを有する領域に対応する、そのようなセグメント化された画像内のセグメントは、抽出され、データベースまたは記憶媒体に記憶され、(後の手検測の有無にかかわらず)分類器訓練手順のための追加の訓練データとして使用される。項目のセット16がテキストである場合、関連性割当ての結果は、上述したように、単語または文ごとのスコアとの関連性となり得る。次に、関連性スコアは、離散化して値のセットにし、色のセットにマッピングし得る。次いで、プロセッサ102によって、単語が色によってマークされ、得られた色で強調表示されたテキストをデータベースまたは記憶媒体に保存するか、または人に提示し得る。あるいは、または単語に強調表示することに加え、プロセッサ102は、テキストの単語、文章部分または文のサブセット、すなわちスコアの最高値または最高絶対値を有するもの(例えば、スコアまたはその絶対値の閾値処理により)を選択し、この選択をデータベースまたは記憶媒体に保存するか、またはそれを人に提示する。関連性割当てがデータセット16に適用されて、サンプルがデータベースのテーブルに格納された企業に関する財務データなどのキー値の組のセットからなるようなデータセット16に適用される場合、各サンプルの結果は、キー値のペアごとに関連性スコアとなるであろう。所与のサンプルについて、スコアの最高値または最高の絶対値(例えば、スコアまたはその絶対値の閾値処理により)を有するキー値ペアのサブセットを選択でき、この選択をデータベースまたは記憶媒体に記録し、またはそれを人に提示することができる。これは、プロセッサ102または生成器112によって行うことができる。
さらに、プロセッサ102は、セット16としての画像である場合、以下のように作用し得る。ちょうど輪郭が描かれたセグメンテーションは、すべてのピクセルに対するスコアのセットまたはオーバーレイ画像またはカラーマップに適用され得て、非常に高いスコアを有する領域か、または絶対値が大きいスコアを有する領域に対応するセグメントが抽出され得る。次に、プロセッサは、原画像16のこれらの同じ位置にあるセグメントを、特徴的なまたは特異なコンテンツの可能性に関するコンテンツをチェックするために、人または別のアルゴリズムに提示することができる。これは、たとえばセキュリティガードアプリケーションで使用できる。同様に、セット16は、ビデオであってもよい。ビデオ全体は、順番に一連のフレームで構成されている。項目のセット16内の項目は、既に上述したように、フレームまたはフレームのサブセットまたはフレームのサブセットからの領域のセットであってもよい。時空間ビデオセグメンテーションは、項目の平均スコアが高いか、または項目のスコアの平均絶対値が高い時空間領域を見つけるために、項目の関連性スコア割当てに適用することができる。上述のように、領域内の項目に割当てられた平均スコアは、例えばp平均または区分点推定器を使用して測定し得る。ある閾値を超えるスコアのような最も高いこの種のスコアを有する時空間領域は、プロセッサ102によって(例えば、画像またはビデオセグメンテーションによって)抽出でき、特徴的なあるいは特異なコンテンツの可能性に関するコンテンツの検査のために、人または他のアルゴリズムに提示される。チェックのためのアルゴリズムは、プロセッサ102に含まれていてもよいし、外部のものであってもよい。これは、(最も)高いスコアの領域のチェッ
クに言及した上記の機会にも当てはまる。
一実施形態によれば、ちょうど言及したこのようなスコアの最も高い時空間的な領域は、ビデオに関してなされた予測のトレーニング改善のために使用される。前述したように、項目のセット16は、一連のフレームによって表すことができるビデオ全体である。項目のセット内の項目は、フレームまたはフレームのサブセット、またはフレームのサブセットからの領域のセットである。次いで、ビデオセグメンテーションが、項目の平均スコアが高いか、または項目のスコアの平均絶対値が高い時空間領域を見つけるのに適用される。プロセッサ102は、領域上の間接接続を介して選択されたニューロンの入力の一部となるように、他のニューロンに接続されたニューラルネットワークのニューロンを選択し得る。プロセッサ102は、入力画像および上記のように選択されたニューロン(例えば、関連性スコアが高いか、またはそれらの絶対値の高い領域からの直接的または間接的な入力を有することによって)が与えられた場合、プロセッサ102は、選択されたニューロンの入力の重みと、選択されたニューロンの直接的または間接的な上流近傍であるこれらのニューロンの重みを変更することによって、ネットワーク出力またはネットワーク出力の2乗を増加させようとするか、ネットワーク出力を減少させようとする。このような変化は、例えば、変更されるべき重みに関する所与の画像に関するニューロン出力の勾配を計算することによって行うことができる。次に、ステップサイズの定数の勾配倍で重みを更新する。言うまでもなく、時空間領域は、画素ごとのスコアのセグメント化、すなわち画素をセット16の項目として使用し、次に上で概説した最適化を実行することによっても得ることができる。
図14は、ニューラルネットワークを最適化するためのシステムを示す。このシステムは、一般に、参照符号120を用いて示され、関連性スコア割当て器50、アプリケーション装置122、および検出および最適化装置124を含む。アプリケーション装置122は、装置50を項目の複数の異なるセット16に適用するように構成されている。従って、各アプリケーションに関して、装置50は、セット16の項目に関する関連性スコアを決定する。しかしながら、このとき、装置50は、逆伝搬中にニューラルネットワーク10の個々の中間ニューロン12に割当てられた関連性値も出力し、それによって、各アプリケーションに関する前述の関連性パス34を得る。換言すれば、装置50の各アプリケーションに関しそれぞれのセット16に適用することにより、検出および最適化装置124は、ニューラルネットワーク10の関連する伝搬マップ126を得る。装置124は、装置50のアプリケーション中にネットワーク10の中間ニューロン12に割当てられた関連性を異なるセット16に蓄積するか重合わせることにより、ニューラルネットワーク10内の関連性の高い部分128を検出する。換言すれば、装置124は、セット16の母集団上で装置50の逆伝播プロセスにおいて関連性の高いパーセンテージを伝播するニューロンを含むニューラルネットワーク10の部分128を得るために、異なる関連性伝搬マップ126を重ね合わせることにより、重畳あるいは蓄積する。この情報は、人工ニューラルネットワーク10を最適化する(132)ように、装置124によって使用されてもよい。特に、例えば、人工ニューラルネットワーク10のニューロン12の相互接続のいくつかは、その予測能力を損なうことなく人工ニューラルネットワーク10を小さくするために取除かれてもよい。しかし、他の可能性も存在する。
さらに、関連性スコア割付けプロセスがヒートマップを与えることがあり、ヒートマップは、例えば、滑らかさおよび他の特性に関して分析される。分析に基づいて、何らかのアクションが引起こされる可能性がある。例えば、ニューラルネットワークのトレーニングは、ヒートマップ分析に従って「十分に良い」という概念を捕捉するので、停止することができる。さらに、ヒートマップ分析結果は、ニューラルネットワーク予測結果、すなわち何かを行うための予測と共に使用されてもよいことに留意されたい。特に、ヒートマップと予測結果の両方に頼ることは、例えば、ヒートマップが予測の確実性について何かを伝える可能性があるため、予測結果のみに頼るよりも有利かもしれない。ニューラルネットワークの品質は、ヒートマップの分析によって潜在的に評価することができる。
最後に、提案された関連性伝播が、分類タスクに関して訓練されたネットワークに関して主に上に例示されているが、一般性を失うことなく、上述の実施例は、出力クラスに帰属するスコアを割当てる任意のネットワークに適用できる。これらのスコアは、回帰や順位付けなどの他の手法を使用して学習することができる。
従って、上記の説明では、ニューラルネットワーク予測器を理解することを可能にする層単位関連性伝播と呼ぶことができる方法を具体化する実施形態が提示されている。この新しい原理の様々な応用が実証された。画像については、画素の寄与をヒートマップとして視覚化することができ、直観的に分類判定の妥当性を検証するだけでなく、潜在的な関心領域についてのさらなる解析に焦点を当てることができる人間の専門家に提供することができることが示されている。この原理は、上述のように、画像に限定されない様々なタスク、分類器およびデータのタイプに適用することができる。
いくつかの態様が装置の文脈で説明されているが、これらの態様は、ブロックまたは装置が方法ステップまたは方法ステップの特徴に対応する、対応する方法の記述も表すことは明らかである。同様に、方法ステップの文脈において説明される態様は、対応するブロックまたは項目の記述または対応する装置の特徴も表す。方法ステップの一部または全部は、例えば、マイクロプロセッサ、プログラム可能なコンピュータまたは電子回路のようなハードウェア装置によって(または、を使用することによって)、実行されてもよい。いくつかの実施形態では、最も重要な方法ステップのうちの1つまたは複数のいくつかを、そのような装置によって実行することができる。
特定の実施要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウエアで実施することができる。実装は、電子的に読み取り可能な制御信号が記憶されたデジタル記憶媒体、例えばフロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリなどを使用して実行でき、それは、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)。従って、デジタル記憶媒体は、コンピュータ可読であってもよい。
本発明によるいくつかの実施形態は、本明細書に記載の方法の1つが実行できるように、プログラム可能なコンピュータシステムと協働できる、電子的に読取り可能な制御信号を有するデータキャリアを備える。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実施することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で動作するときに、方法の1つを実行するように動作する。プログラムコードは、例えば、機械読取り可能なキャリアに格納することができる。
他の実施形態は、機械可読キャリアに格納された、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを含む。
換言すれば、本発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
従って、本発明の方法のさらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを含み、そこに記録されたデータキャリア(またはデジタル記憶媒体またはコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体または記録媒体は、典型的には有形および/または非移行型である。
従って、本発明の方法のさらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを表すデータストリームまたは一連の信号である。 データストリームまたは一連の信号は、データ通信接続、例えばインターネットを介して転送されるように構成することができる。
さらなる実施形態は、本明細書に記載の方法のうちの1つを実行するように構成された、または適合される処理手段、例えばコンピュータまたはプログラマブル論理装置を含む。
さらなる実施形態は、本明細書で説明される方法の1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
本発明によるさらなる実施形態は、本明細書で説明される方法の1つを実行するためのコンピュータプログラムを受信機に(例えば、電子的にまたは光学的に)転送するように構成された装置またはシステムを含む。受信機は、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであってもよい。この装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバを備えることができる。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能の一部または全部を実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書で説明する方法の1つを実行するためにマイクロプロセッサと協働することができる。一般に、これらの方法は、好ましくは、任意のハードウェア装置によって実行される。
本明細書に記載の装置は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータとの組合せを使用して実装することができる。
本明細書に記載の方法は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータとの組合せを使用して実行することができる。
上述の実施形態は、本発明の原理の単なる例示である。本明細書に記載された配置および詳細の修正および変形は、当業者には明らかであることが理解される。従って、差し迫った特許請求の範囲によってのみ限定され、本明細書の実施形態の記述および説明によって示される特定の詳細によっては限定されないことが意図される。
参考文献一覧
[6] Christopher M Bishop et al. Pattern recognition and machine learning, volume 1. springer New York, 2006.
[10] Hendrik Dahlkamp, Adrian Kaehler, David Stavens, Sebastian Thrun, and Gary R. Bradski. Self-supervised monocular road detection in desert terrain. In Robotics: Science and Systems, 2006.
[11] Jia Deng, Alex Berg, Sanjeev Satheesh, Hao Su, Aditya Khosla, and Fei-Fei Li. The ImageNet Large Scale Visual Recognition Challenge 2012 (ILSVRC2012). http://www.image-net.org/challenges/LSVRC/2012/.
[12] Dumitru Erhan, Yoshua Bengio, Aaron Courville, and Pascal Vincent. Visualizing higher-layer features of a deep network. Technical Report 1341, University of Montreal, June 2009.
[15] L. Fei-Fei and P. Perona. A bayesian hierarchical model for learning natural scene categories. In Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, volume 2, pages 524−531 vol. 2, 2005.
[16] Muriel Gevrey, Ioannis Dimopoulos, and Sovan Lek. Review and comparison of methods to study the contribution of variables in artificial neural network models. Ecological Modelling, 160(3):249−264, 2003.
[17] Ronny Hansch and Olaf Hellwich. Object recognition from polarimetric SAR images. In Uwe Soergel, editor, Radar Remote Sensing of Urban Areas, volume 15 of Remote Sensing and Digital Image Processing, pages 109−131. Springer Netherlands, 2010.
[20] Yangqing Jia. Caffe: An open source convolutional architecture for fast feature embedding. http://caffe.berkeleyvision.org/, 2013.
[23] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. In Peter L. Bartlett, Fernando C. N. Pereira, Christopher J. C. Burges, Leon Bottou, and Kilian Q. Weinberger, editors, NIPS, pages 1106−1114, 2012.
[25] Yann LeCun and Corinna Cortes. The MNIST database of handwritten digits. http://yann.lecun.com/exdb/mnist/, 1998.
[26] Yann LeCun, Koray Kavukcuoglu, and Clement Farabet. Convolutional networks and applications in vision. In ISCAS, pages 253−256. IEEE, 2010.
[27] Quoc V. Le. Building high-level features using large scale unsupervised learning. In ICASSP, pages 8595−8598, 2013.
[31] Gregoire Montavon, Genevieve B. Orr, and Klaus-Robert Muller, editors. Neural Networks: Tricks of the Trade, Reloaded, volume 7700 of Lecture Notes in Computer Science (LNCS). Springer, 2nd edn edition, 2012.
[34] Julian D Olden, Michael K Joy, and Russell G Death. An accurate comparison of methods for quantifying variable importance in artificial neural networks using simulated data. Ecological Modelling, 178(3−4):389−397, 2004.
[36] Nicolas Pinto, David D Cox, and James J DiCarlo. Why is real-world visual object recognition hard? PLoS Comput Biol, 4(1):27, 1 2008.
[39] David E. Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams. Learning representations by back-propagating errors. Nature, 323:533−536, Oct 1986.
[41] Rudy Setiono and Huan Liu. Understanding neural networks via rule extraction. In IJCAI, pages 480−487. Morgan Kaufmann, 1995.
[42] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. CoRR, abs/1312.6034, 2013.
[43] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian J. Goodfellow, and Rob Fergus. Intriguing properties of neural networks. CoRR, abs/1312.6199, 2013.
[49] Paul A. Viola and Michael J. Jones. Rapid object detection using a boosted cascade of simple features. In CVPR (1), pages 511−518, 2001.
[50] Ross Walker, Paul Jackway, Brian Lovell, and Dennis Longstaff. Classification of cervical cell nuclei using morphological segmentation and textural feature extraction. In Australian New Zealand Conference on Intelligent Information Systems, 1994.
[54] Matthew D. Zeiler and Rob Fergus. Visualizing and understanding convolutional networks. CoRR, abs/1311.2901, 2013.
[55] Matthew D. Zeiler, Graham W. Taylor, and Rob Fergus. Adaptive deconvolutional networks for mid and high level feature learning. In ICCV, pages 2018−2025, 2011.


Claims (34)

  1. 関連性スコアを項目のセットに割り当てるための装置であって、前記関連性スコアはニューロン(12)で構成された人工ニューラルネットワーク(10)の適用に対する関連性を項目(42)の前記セット(16)上に示して、前記項目(42)のセット(16)をネットワーク出力(18)上にマッピングし、前記装置は、
    前記人工ニューラルネットワーク(10)を介して初期関連性スコアを逆伝播させることによって、前記ネットワーク出力(18)から導き出された前記初期関連性スコア(R)を項目のセット(16)に再分配して、各項目について関連性スコアを得るように構成され、
    前記装置は、各ニューロンについて、前記各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアが、分布関数を使用して前記各ニューロンの上流近隣ニューロンのセットに分配されるように逆伝播を実行するように構成され、
    前記装置は、前記分布関数が、
    前記各ニューロンの上流近隣ニューロンのセットによって前記各ニューロンの影響の程度を決定する、前記人工ニューラルネットワークの重みと、
    項目(42)のセット(16)に前記人工ニューラルネットワーク(10)を適用した際に現れる、前記上流近隣ニューロンのセットのニューロン活性化と、
    前記各ニューロンの前記下流近隣ニューロンのセットの予備的に再分配された関連性スコアの合計と、
    の関数であるように構成されている、
    装置。
  2. 前記装置は、前記分布関数が関連性保存性を有するように構成される、請求項1に記載の装置。
  3. 前記装置は、前記人工ニューラルネットワークのすべてのニューロンに対して1つの分布関数を等しく使用して前記逆伝播を実行するように構成されている、請求項1または2に記載の装置。
  4. m([Rjk,kは、jの下流ニューロンである])=Σkjkである、請求項に記載の装置。
  5. 前記装置は、前記関数q(i)が、q(i)= p({zij|iはjの上流近隣ニューロンである})となるように関数sによって計算される重み付き活性化zij=s(xi,wij,bj)の関数pであるように構成されている、請求項またはに記載の装置。
  6. 前記装置は、前記関数g(・)
    (z)=αmax(0,z)?βmin(0,z)
    で与えられ、ここでα> 0,β≧0であるように構成されている、請求項9に記載の装置。
  7. 前記装置は、前記関数q(i)が前記ニューロンのニューラルネットワーク関数のテイラー分解を継承する、または前記ニューロンの人工ニューラルネットワーク関数のテイラー分解に比例するように構成されている、請求項ないし10のいずれかに記載の装置。
  8. 前記関連性メッセージRijが、データから学習され、ニューロンjの上流近隣iの活性化xiを近似誤差まで値m([Rjk,kはjの下流ニューロン])にマッピングする関数のテイラー近似に比例するように構成されている、請求項ないし10のいずれかに記載の装置。
  9. m([Rjk,kはjの下流ニューロンである])= Σkjk
    である、請求項13または14に記載の装置。
  10. h()は安定化関数
    h(t)=t+ε・sign(t)
    であって、ここで、εは0以上の値を有し、分数関数として表現される前記分布関数の分母に記述される前記安定化関数の値がゼロになることを阻止する、請求項13から15までのいずれかに記載の装置。
  11. 前記装置は、各項目iについて、それぞれの項目を上流近隣ニューロンとして有するニューロンの、それぞれの項目に再分配された関連性メッセージを合計することによって、各項目iの関連性スコアRiを計算するように構成された、請求項1ないし16のいずれかに記載の装置。
  12. 前記人工ニューラルネットワークは項目のセットに直接適用されて、前記項目(42)のセット(16)の前記項目が人工ニューラルネットワークの人工ニューロンのサブセットにとっての上流近隣を形成、前記ネットワーク出力は、前記人工ニューラルネットワークの下流端におけるニューロンのニューロン活性化に対応する請求項1ないし17のいずれかに記載の装置。
  13. 前記ネットワーク出力(18)はスカラーであり、そこから導出された初期関連性スコアは前記スカラーの値に等しいか、単調増加関数を前記スカラーの値に適用することによって導出される、または、前記ネットワーク出力はベクトルであり、初期関連性スコアはベクトルの1つまたは複数の成分の値に等しいか、または単調増加関数を前記ベクトルの1つまたは複数の成分の値に適用することによって導出される、請求項1ないし18のいずれかに記載の装置。
  14. 前記装置は、0.95・R≦f(ΣRi)≦1.05・Rとなるように逆伝播を実行するように構成され、ΣRiは、前記項目(42)のセット(16)のすべての項目iの関連性スコアを合計したものを表し、fはΣRiにのみ依存する単調関数である、請求項1ないし19のいずれかに記載の装置。
  15. 前記装置は、fが恒等関数であるように構成されている、請求項20に記載の装置。
  16. 前記装置は、各ニューロンについて、前記分布関数によって各ニューロンの上流近隣ニューロンの前記セットに分配された関連性メッセージの合計がξ(SN)に等しいか、5%以下しか逸脱しないように構成され、但し、SNは前記各ニューロンの下流隣接ニューロンのセットから前記各ニューロンへの関連性メッセージの合計を表し、ξはSNにのみ依存する単調関数を表す、請求項1ないし21のいずれかに記載の装置。
  17. 前記装置は、ξが恒等関数であるように構成される、請求項22に記載の装置。
  18. 前記人工ニューラルネットワークは、各ニューロン(12)が層シーケンスのうちの1つに属するように層化され、前記装置は、前記人工ニューラルネットワークのすべてのニューロンについて1つの分布関数を等しく使用して前記逆伝播を実行するように構成される、請求項1ないし23のいずれかに記載の装置。
  19. 前記人工ニューラルネットワークは、各ニューロン(12)が層シーケンスのうちの1つに属するように層化されており、前記装置は、各層について、各層のニューロンに分配された関連性メッセージの合計がζ(SL)に等しいか、または5%以下しか逸脱しないように逆伝播を実行するように構成され、
    但し、SLは各層の下流の層のニューロンの予備的に再分配された関連性スコアの合計を表し、ζはSLにのみ依存する単調関数を表す、請求項1ないし23のいずれかに記載の装置。
  20. 前記項目のセット(16)は、
    前記項目(42)のセット(16)のうちの各項目(42)がピクチャの1つ以上のピクセルまたはサブピクセルに相当する、ピクチャ、および/または
    前記項目(42)のセット(16)のうちの各項目(42)がビデオのピクチャの1つ以上のピクセルまたはサブピクセル、ビデオのピクチャ、またはビデオのピクチャシーケンスに相当する、ビデオ、および/または
    前記項目(42)のセット(16)のうちの各項目(42)がオーディオ信号の1つ以上のオーディオサンプルに相当する、オーディオ信号、および/または
    前記項目(42)のセット(16)の内の前記項目(42)が局所的特徴に相当する、ピクチャ、ビデオまたは音声信号から局所的にまたは大域的に抽出された局所的特徴の特徴マップまたは変換、および/または
    前記項目(42)のセット(16)の各項目(42)がテキストの単語、文章または段落に相当する、テキスト、および/または
    前記項目(42)のセット(16)の前記項目(42)がノードまたはエッジまたはノードのセットまたはエッジのセットまたはサブグラフに相当する、ソーシャルネットワーク関係グラフ等のグラフ、
    である、または上記の組合せである、請求項1ないし25のいずれかに記載の装置。
  21. データ処理のためのシステム(100)であって、
    目のセットに関連性スコアを割当てるための装置(50)であって、前記装置は、請求項1ないし26のいずれかに記載の装置と、
    前記項目のセットまたは前記項目のセットから導出された処理すべきデータ(106)を、前記関連性スコアに応じて前記処理を適応させて、処理するための装置(102)と、を備えるシステム。
  22. 前記処理は非可逆処理であり、前記処理するための装置は、割当てられた関連性スコアが低い項目と比較するとより高い関連性スコアを有する項目の前記非可逆処理の非可逆性を低減するように構成される、請求項27に記載のシステム。
  23. 前記処理は視覚化であって、前記処理するための装置は前記関連性スコアに応じて前記視覚化においてハイライトを実行するように構成される、請求項27に記載のシステム。
  24. 前記処理は、メモリからの読出しまたはさらなる測定の実行によるデータ補充であって、前記処理するための装置(102)は前記関連性スコアに応じて前記データ補充に集中するように構成される、請求項27に記載のシステム。
  25. 関心領域をハイライトするためのシステム(110)であって、
    目のセットに関連性スコアを割当てるための装置(50)であって、請求項1ないし26のいずれかに記載の装置と、
    前記関連性スコアに応じて関連性グラフ(114)を生成するための装置(112)とを備える、システム。
  26. 人工ニューラルネットワークを最適化するためのシステム(120)であって、
    目のセットに関連性スコアを割当てるための装置(50)であって、前記装置は請求項1ないし26のいずれかに記載の装置と、
    複数の異なる項目のセットに前記割当てるための装置を適用するための装置(122)と、
    前記割り当てるための装置を前記複数の異なる項目のセットに適用している最中に前記人工ニューラルネットワークの前記ニューロンに割当てられた関連性を蓄積することによって前記人工ニューラルネットワーク内の関連性の高い部分(128)を検出し、関連性の高い部分に応じて前記人工ニューラルネットワークを最適化するための装置(124)とを備えた、
    システム(120)。
  27. 項目のセットに関連性スコアを割り当てるための方法であって、前記関連性スコアは、ニューロン(12)で構成される人工ニューラルネットワーク(10)の前記項目(42)のセット(16)への適用に関しての関連性を示して前記項目(42)のセット(16)をネットワーク出力にマッピングし、前記方法は、
    関連性スコア取得装置により前記人工ニューラルネットワーク(10)を介して初期関連性スコアを逆伝播させることによって、前記ネットワーク出力(18)から導出された前記初期関連性スコア(R)を前記項目(42)のセット(16)に再分配して各項目について関連性スコアを得るステップを含み
    前記逆伝播は、各ニューロンについて、各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアが、分布関数を使用して各ニューロンの上流近隣ニューロンのセットに分配されるように実行され、
    前記分布関数は、
    前記各ニューロンの上流近隣ニューロンのセットによって前記各ニューロンの影響の程度を決定する前記人工ニューラルネットワークの重みと、
    項目(42)のセット(16)に前記人工ニューラルネットワーク(10)を適用した際に現れる、上流近隣ニューロンのセットのニューロン活性化と、
    前記各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアの合計と、
    の関数である、
    方法。
  28. コンピュータ上で実行された時に、請求項33に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2017567524A 2015-03-20 2015-03-20 人工ニューラルネットワークの関連性スコア割当て Active JP6725547B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2015/056008 WO2016150472A1 (en) 2015-03-20 2015-03-20 Relevance score assignment for artificial neural network

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020003182A Division JP2020123329A (ja) 2020-01-10 2020-01-10 人工ニューラルネットワークの関連性スコア割当て

Publications (3)

Publication Number Publication Date
JP2018513507A JP2018513507A (ja) 2018-05-24
JP2018513507A5 JP2018513507A5 (ja) 2020-04-30
JP6725547B2 true JP6725547B2 (ja) 2020-07-22

Family

ID=52727129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567524A Active JP6725547B2 (ja) 2015-03-20 2015-03-20 人工ニューラルネットワークの関連性スコア割当て

Country Status (9)

Country Link
US (1) US20180018553A1 (ja)
EP (1) EP3271863B1 (ja)
JP (1) JP6725547B2 (ja)
KR (1) KR102130162B1 (ja)
CN (1) CN107636693B (ja)
BR (1) BR112017019821B8 (ja)
CA (1) CA2979579C (ja)
RU (1) RU2703343C2 (ja)
WO (1) WO2016150472A1 (ja)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2983749C (en) 2015-05-11 2021-12-28 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
GB201620199D0 (en) 2015-12-18 2017-01-11 British Telecomm Autonomic method for managing a computer system
US20170249547A1 (en) * 2016-02-26 2017-08-31 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Holistic Extraction of Features from Neural Networks
AU2017230184B2 (en) 2016-03-11 2021-10-07 Magic Leap, Inc. Structure learning in convolutional neural networks
US10157332B1 (en) 2016-06-06 2018-12-18 A9.Com, Inc. Neural network-based image manipulation
US11086471B2 (en) * 2016-06-06 2021-08-10 Salesforce.Com, Inc. Visualizing neural networks
US11023711B2 (en) * 2016-10-10 2021-06-01 University Of Maryland, College Park All-in-one convolutional neural network for face analysis
US10623775B1 (en) * 2016-11-04 2020-04-14 Twitter, Inc. End-to-end video and image compression
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
CN110574041B (zh) 2017-02-23 2023-06-20 诺基亚技术有限公司 针对深度学习领域的协同激活
US10140709B2 (en) * 2017-02-27 2018-11-27 International Business Machines Corporation Automatic detection and semantic description of lesions using a convolutional neural network
US10540961B2 (en) * 2017-03-13 2020-01-21 Baidu Usa Llc Convolutional recurrent neural networks for small-footprint keyword spotting
JP6915349B2 (ja) * 2017-04-04 2021-08-04 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
EP3399465A1 (en) * 2017-05-05 2018-11-07 Dassault Systèmes Forming a dataset for fully-supervised learning
EP3270308B9 (en) * 2017-06-14 2022-05-18 Siemens Healthcare GmbH Method for providing a secondary parameter, decision support system, computer-readable medium and computer program product
US10728553B2 (en) 2017-07-11 2020-07-28 Sony Corporation Visual quality preserving quantization parameter prediction with deep neural network
KR101880901B1 (ko) * 2017-08-09 2018-07-23 펜타시큐리티시스템 주식회사 기계 학습 방법 및 장치
EP3682271B1 (en) * 2017-09-12 2024-02-14 Services Pétroliers Schlumberger Seismic image data interpretation system
US11194330B1 (en) * 2017-11-03 2021-12-07 Hrl Laboratories, Llc System and method for audio classification based on unsupervised attribute learning
KR101880907B1 (ko) * 2017-09-22 2018-08-16 펜타시큐리티시스템 주식회사 비정상 세션 감지 방법
US11200513B2 (en) * 2017-10-13 2021-12-14 Carrier Corporation Real estate image analysis
US10976429B1 (en) * 2017-10-16 2021-04-13 Hrl Laboratories, Llc System and method for synthetic aperture radar target recognition utilizing spiking neuromorphic networks
US11823008B2 (en) 2017-10-19 2023-11-21 British Telecommunications Public Limited Company Algorithm consolidation
CN107783960B (zh) 2017-10-23 2021-07-23 百度在线网络技术(北京)有限公司 用于抽取信息的方法、装置和设备
US10762390B2 (en) 2017-11-22 2020-09-01 Sas Institute Inc. Computer-based visualization of machine-learning models and behavior
US20200050932A1 (en) * 2017-12-25 2020-02-13 Sony Corporation Information processing apparatus, information processing method, and program
US20190258933A1 (en) * 2018-02-19 2019-08-22 International Business Machines Corporation Deep Forecasted Human Behavior from Digital Content
US10489511B2 (en) * 2018-03-01 2019-11-26 Ink Content, Inc. Content editing using AI-based content modeling
CN108562899B (zh) * 2018-04-20 2021-08-20 西安电子科技大学 高分辨极化sar目标图像快速仿真方法
EP3564862A1 (en) * 2018-05-03 2019-11-06 Siemens Aktiengesellschaft Determining influence of attributes in recurrent neural networks trained on therapy prediction
JP7240657B2 (ja) * 2018-05-15 2023-03-16 Tokyo Artisan Intelligence株式会社 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
WO2019219846A1 (en) * 2018-05-17 2019-11-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor
CN110147872B (zh) * 2018-05-18 2020-07-17 中科寒武纪科技股份有限公司 编码存储装置及方法、处理器及训练方法
KR102177728B1 (ko) 2018-05-25 2020-11-12 서강대학교 산학협력단 합성곱 신경망을 활용한 데이터 확장방법 및 장치
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US11823038B2 (en) * 2018-06-22 2023-11-21 International Business Machines Corporation Managing datasets of a cognitive storage system with a spiking neural network
WO2020009670A1 (en) * 2018-07-04 2020-01-09 Solmaz Gumruk Musavirligi A.S. A method using artificial neural networks to find a unique harmonized system code from given texts and system for implementing the same
KR102637105B1 (ko) * 2018-07-13 2024-02-15 삼성전자주식회사 영상 데이터를 처리하는 방법 및 장치
IT201800007377A1 (it) * 2018-07-20 2020-01-20 Rete neurale avente un numero ridotto di parametri
DE102018213052A1 (de) * 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Erklärungskarte
DE102018213056A1 (de) * 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Erklärungskarte
KR102547802B1 (ko) 2018-08-23 2023-06-26 삼성전자주식회사 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법
US10311337B1 (en) * 2018-09-04 2019-06-04 StradVision, Inc. Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network
US11436495B2 (en) * 2018-10-02 2022-09-06 Insitu, Inc. a subsidiary of The Boeing Company Change detection in digital images
US10909671B2 (en) * 2018-10-02 2021-02-02 International Business Machines Corporation Region of interest weighted anomaly detection
KR102248796B1 (ko) * 2018-10-31 2021-05-07 울산과학기술원 사용자의 의사결정 예측 방법 및 장치
US11550970B2 (en) * 2018-11-02 2023-01-10 Wells Fargo Bank, N.A. Resolving opaqueness of complex machine learning applications
WO2020102339A1 (en) * 2018-11-14 2020-05-22 Cape Analytics, Inc. Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery
WO2020110776A1 (ja) * 2018-11-28 2020-06-04 富士フイルム株式会社 分類装置、分類方法及びプログラム、分類結果表示装置
KR102175997B1 (ko) * 2018-12-13 2020-11-06 성균관대학교산학협력단 뇌파 기반의 사용자 의도 인식 방법 및 장치
DE102018221920A1 (de) * 2018-12-17 2020-06-18 Robert Bosch Gmbh Inhaltsadaptive verlustbehaftete Kompression von Messdaten
US11455538B2 (en) * 2018-12-20 2022-09-27 GM Global Technology Operations LLC Correctness preserving optimization of deep neural networks
EP3671536A1 (en) * 2018-12-20 2020-06-24 Optos PLC Detection of pathologies in ocular images
LU101088B1 (en) * 2019-01-04 2020-07-07 Iee Sa Method and System for Processing Neural Network Predictions in the Presence of Adverse Perturbations
US20200242771A1 (en) * 2019-01-25 2020-07-30 Nvidia Corporation Semantic image synthesis for generating substantially photorealistic images using neural networks
US11687783B2 (en) * 2019-02-04 2023-06-27 International Business Machines Corporation L2-nonexpansive neural networks
US20220157048A1 (en) * 2019-02-08 2022-05-19 Singapore Health Services Pte Ltd Method and System for Classification and Visualisation of 3D Images
US20200278423A1 (en) * 2019-03-01 2020-09-03 GM Global Technology Operations LLC Removing false alarms at the beamforming stage for sensing radars using a deep neural network
CN109977232B (zh) * 2019-03-06 2022-05-10 中南大学 一种基于力导图的图神经网络可视分析方法
EP3942468A4 (en) 2019-03-18 2023-01-04 Geomagical Labs, Inc. SYSTEM AND METHOD FOR VIRTUAL MODELING OF INTERIOR SCENES FROM IMAGING
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
WO2020191101A1 (en) 2019-03-18 2020-09-24 Geomagical Labs, Inc. Virtual interaction with three-dimensional indoor room imagery
JP7205328B2 (ja) * 2019-03-19 2023-01-17 富士通株式会社 推定プログラム、推定装置および推定方法
CN109992642B (zh) * 2019-03-29 2022-11-18 华南理工大学 一种基于科技词条的单任务专家自动遴选方法及系统
US11631266B2 (en) * 2019-04-02 2023-04-18 Wilco Source Inc Automated document intake and processing system
US11645510B2 (en) * 2019-04-08 2023-05-09 Mipsology SAS Accelerating neuron computations in artificial neural networks by selecting input data
EP3726433A1 (en) * 2019-04-17 2020-10-21 Siemens Aktiengesellschaft A method for computer-implemented analysis of a classification model
US11494616B2 (en) * 2019-05-09 2022-11-08 Shenzhen Malong Technologies Co., Ltd. Decoupling category-wise independence and relevance with self-attention for multi-label image classification
CN113874883A (zh) 2019-05-21 2021-12-31 奇跃公司 手部姿势估计
KR102157441B1 (ko) * 2019-05-31 2020-09-17 이화여자대학교 산학협력단 관련성 전사를 이용한 신경망 학습 방법 및 서비스 장치
US11373390B2 (en) * 2019-06-21 2022-06-28 Adobe Inc. Generating scene graphs from digital images using external knowledge and image reconstruction
US11087183B2 (en) * 2019-06-28 2021-08-10 Wipro Limited Method and system of multi-modality classification using augmented data
EP3767543A1 (en) * 2019-07-17 2021-01-20 Robert Bosch GmbH Device and method for operating a neural network
US11355134B2 (en) * 2019-08-02 2022-06-07 Audioshake, Inc. Deep learning segmentation of audio using magnitude spectrogram
US11521630B2 (en) 2020-10-02 2022-12-06 Audioshake, Inc. Deep learning segmentation of audio using magnitude spectrogram
CN110414618B (zh) * 2019-08-05 2023-07-14 上海图趣信息科技有限公司 一种动态平衡分类数据的神经网络训练系统、方法及存储介质
US11568212B2 (en) * 2019-08-06 2023-01-31 Disney Enterprises, Inc. Techniques for understanding how trained neural networks operate
US11829871B2 (en) * 2019-08-20 2023-11-28 Lg Electronics Inc. Validating performance of a neural network trained using labeled training data
US11222242B2 (en) 2019-08-23 2022-01-11 International Business Machines Corporation Contrastive explanations for images with monotonic attribute functions
US11551054B2 (en) * 2019-08-27 2023-01-10 International Business Machines Corporation System-aware selective quantization for performance optimized distributed deep learning
US11449578B2 (en) * 2019-09-27 2022-09-20 Botty Todorov DIMANOV Method for inspecting a neural network
US11593673B2 (en) 2019-10-07 2023-02-28 Servicenow Canada Inc. Systems and methods for identifying influential training data points
EP4052191A1 (en) * 2019-10-30 2022-09-07 British Telecommunications public limited company A computer-implemented method of modifying an algorithm operating on a computing system
US11295199B2 (en) * 2019-12-09 2022-04-05 UMNAI Limited XAI and XNN conversion
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11816553B2 (en) 2019-12-11 2023-11-14 Inait Sa Output from a recurrent neural network
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
KR20220107300A (ko) * 2019-12-11 2022-08-02 이나이트 에스아 인공 순환 신경 네트워크 구성 및 운영
US11651210B2 (en) * 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US11256959B2 (en) * 2019-12-31 2022-02-22 Wipro Limited Method and system for training artificial neural network based image classifier using class-specific relevant features
WO2021148658A1 (en) 2020-01-23 2021-07-29 UMNAI Limited An explainable neural net architecture for multidimensional data
KR20210096342A (ko) 2020-01-28 2021-08-05 주식회사 딥바이오 뉴런-레벨 가소성 제어를 통해 파국적인 망각을 극복하기 위한 방법 및 이를 수행하는 컴퓨팅 시스템
KR102356438B1 (ko) * 2020-03-10 2022-01-27 연세대학교 산학협력단 요소 간 관계 추출 기반 이종 얼굴 인식 장치 및 방법
US11436830B2 (en) * 2020-03-11 2022-09-06 Bank Of America Corporation Cognitive robotic process automation architecture
US11741340B2 (en) 2020-03-23 2023-08-29 D5Ai Llc Data-dependent node-to-node knowledge sharing by regularization in deep learning
CN111653088B (zh) * 2020-04-21 2022-02-01 长安大学 一种车辆出行量预测模型构建方法及预测方法和系统
CN111291838B (zh) * 2020-05-09 2020-09-01 支付宝(杭州)信息技术有限公司 实体对象分类结果的解释方法和装置
US20210365771A1 (en) * 2020-05-21 2021-11-25 International Business Machines Corporation Out-of-distribution (ood) detection by perturbation
JP7282715B2 (ja) * 2020-06-02 2023-05-29 Kddi株式会社 評価装置、評価方法及び評価プログラム
US20200327118A1 (en) * 2020-06-27 2020-10-15 Intel Corporation Similarity search using guided reinforcement learning
DE102020208008A1 (de) * 2020-06-29 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben
CN111754356A (zh) * 2020-06-30 2020-10-09 复旦大学 边符号预测方法、装置及设备
US11250475B2 (en) * 2020-07-01 2022-02-15 Deepmind Technologies Limited Neural network architecture for efficient resource allocation
DE102020210732A1 (de) 2020-08-25 2022-03-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Messung der Relevanz von Bildbereichen für Entscheidungen eines Bildklassifikators
CN112052957B (zh) * 2020-09-02 2023-08-04 平安科技(深圳)有限公司 深度学习模型的可解释性参数获取方法及装置
CN112257863B (zh) * 2020-10-09 2023-04-07 天津大学 网络参数确定方法、装置、区块链的节点及存储介质
KR102344718B1 (ko) * 2020-10-30 2021-12-30 주식회사 아이싸이랩 동물을 식별 및 인증 중 적어도 하나를 수행하기 위해 획득한 동물 이미지를 클러스터링하는 방법
DE102020213830A1 (de) 2020-11-03 2022-05-05 Volkswagen Aktiengesellschaft Verfahren und System zur Bereitstellung einer Diagnoseinformation
CN112270406B (zh) * 2020-11-11 2023-05-23 浙江大学 一种类脑计算机操作系统的神经信息可视化方法
DE102020214944A1 (de) 2020-11-27 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Bestimmung der für einen Bildklassifikator entscheidungsrelevanten Bildanteile mit vermindertem Rechenzeitbedarf
KR102314713B1 (ko) * 2020-12-24 2021-10-20 한국방송공사 스트리밍을 위한 영상 데이터 패킹 방법 및 이를 이용한 전자 장치
WO2022146031A1 (en) * 2020-12-29 2022-07-07 Samsung Electronics Co., Ltd. Method and device of computing layout selection for efficient dnn inference
KR102446792B1 (ko) * 2021-03-23 2022-09-22 연세대학교 산학협력단 인공 신경망을 설명하기 위한 관련성 가중 클래스 활성화 맵 생성 장치 및 방법
JP7325015B2 (ja) * 2021-03-24 2023-08-14 パナソニックIpマネジメント株式会社 量子化方法、量子化装置、及び、プログラム
TWI803852B (zh) * 2021-04-16 2023-06-01 馬爾他商優奈有限公司 可解釋人工智慧及可解釋神經網路轉換
KR20230050727A (ko) * 2021-10-08 2023-04-17 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
WO2022216521A1 (en) * 2021-11-10 2022-10-13 Innopeak Technology, Inc. Dual-flattening transformer through decomposed row and column queries for semantic segmentation
US11501084B1 (en) 2021-12-08 2022-11-15 Sas Institute Inc. Graphical user interface for visualizing contributing factors to a machine-learning model's output
US20230196062A1 (en) * 2021-12-17 2023-06-22 Sap Se Method and system for global explainability of neural networks
CN114816963B (zh) * 2022-06-28 2022-09-20 南昌航空大学 嵌入式软件质量评估方法、系统、计算机及可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330406A (ja) * 1996-06-10 1997-12-22 Fuji Facom Corp 学習支援装置およびパターン認識装置
EP1006458A1 (en) * 1998-12-01 2000-06-07 BRITISH TELECOMMUNICATIONS public limited company Methods and apparatus for information retrieval
US7685084B2 (en) * 2007-02-09 2010-03-23 Yahoo! Inc. Term expansion using associative matching of labeled term pairs
US8812493B2 (en) * 2008-04-11 2014-08-19 Microsoft Corporation Search results ranking using editing distance and document information
US8326785B2 (en) * 2008-09-30 2012-12-04 Microsoft Corporation Joint ranking model for multilingual web search
KR101030613B1 (ko) * 2008-10-08 2011-04-20 아이리텍 잉크 아이이미지에서 관심영역정보 및 인식적 정보획득방법
CN102169555B (zh) * 2011-03-30 2013-12-25 华南理工大学 关联性传感信号多传感元件故障定位及传感信号自恢复方法

Also Published As

Publication number Publication date
BR112017019821B8 (pt) 2024-02-15
RU2017135085A3 (ja) 2019-04-05
WO2016150472A1 (en) 2016-09-29
CA2979579A1 (en) 2016-09-29
EP3271863A1 (en) 2018-01-24
RU2703343C2 (ru) 2019-10-16
CA2979579C (en) 2020-02-18
BR112017019821A2 (pt) 2018-05-15
US20180018553A1 (en) 2018-01-18
JP2018513507A (ja) 2018-05-24
KR102130162B1 (ko) 2020-07-06
CN107636693A (zh) 2018-01-26
KR20170134508A (ko) 2017-12-06
BR112017019821B1 (pt) 2023-09-05
EP3271863B1 (en) 2021-07-28
RU2017135085A (ru) 2019-04-05
CN107636693B (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
JP6725547B2 (ja) 人工ニューラルネットワークの関連性スコア割当て
Yan Computational methods for deep learning
Guibas et al. Synthetic medical images from dual generative adversarial networks
US20220309762A1 (en) Generating scene graphs from digital images using external knowledge and image reconstruction
US20230067026A1 (en) Automated data analytics methods for non-tabular data, and related systems and apparatus
CN112262395A (zh) 基于注释信息的分类
Xu et al. Attribute-based structural damage identification by few-shot meta learning with inter-class knowledge transfer
Shen et al. Sky region detection in a single image for autonomous ground robot navigation
Ye et al. MasterplanGAN: Facilitating the smart rendering of urban master plans via generative adversarial networks
Zhang et al. Simultaneous pixel-level concrete defect detection and grouping using a fully convolutional model
Veeravasarapu et al. Adversarially tuned scene generation
US20240119697A1 (en) Neural Semantic Fields for Generalizable Semantic Segmentation of 3D Scenes
Inthiyaz et al. Flower segmentation with level sets evolution controlled by colour, texture and shape features
JP2020123329A (ja) 人工ニューラルネットワークの関連性スコア割当て
Siddalingappa et al. Anomaly detection on medical images using autoencoder and convolutional neural network
Terven et al. Loss functions and metrics in deep learning. A review
Khoshboresh-Masouleh et al. 2D target/anomaly detection in time series drone images using deep few-shot learning in small training dataset
Nakanishi Approximate Inverse Model Explanations (AIME): Unveiling Local and Global Insights in Machine Learning Models
Manjunatha et al. CrackDenseLinkNet: a deep convolutional neural network for semantic segmentation of cracks on concrete surface images
Varlik et al. Filtering airborne LIDAR data by using fully convolutional networks
Xu et al. RETRACTED ARTICLE: Research on professional talent training technology based on multimedia remote image analysis
Lu et al. Deep neural network for precision multi-band infrared image segmentation
Gritzner et al. Semantic segmentation of aerial images using binary space partitioning
Kannagi et al. Image Retrieval based on Deep Learning-Convolutional Neural Networks
US20220309597A1 (en) Computer vision framework for real estate

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200109

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250