JP6725547B2 - 人工ニューラルネットワークの関連性スコア割当て - Google Patents
人工ニューラルネットワークの関連性スコア割当て Download PDFInfo
- Publication number
- JP6725547B2 JP6725547B2 JP2017567524A JP2017567524A JP6725547B2 JP 6725547 B2 JP6725547 B2 JP 6725547B2 JP 2017567524 A JP2017567524 A JP 2017567524A JP 2017567524 A JP2017567524 A JP 2017567524A JP 6725547 B2 JP6725547 B2 JP 6725547B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- items
- relevance
- relevance score
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Description
関連性伝播モデルの第1の基本的な特性は、証拠を創造したり紛失したりすることができないことを課している。これは、グローバルスケール(すなわちニューラルネットワーク出力からニューラルネットワーク入力に戻る)とローカルスケール(すなわち、個々の非線形処理ユニットのレベル)の両方に適用される。このような制約は、キルヒホッフの回路法則をニューラルネットワークに適用し、「電流」の物理的概念を「意味論的証拠」の概念に置き換えることに相当する。特に、図3を参照されたい。
その一般的な形での層単位関連性伝播は、分類器がいくつかの計算層に分解され得ると仮定している。そのような層は、画像からの特徴抽出の一部であっても、あるいは計算機構上で実行される分類アルゴリズムの部分であってもよい。後で示すように、これはニューラルネットワークで可能である。
一般的な微分可能な予測子fに関して、(1)のように分解を達成するための1つの代替アプローチは、1次テイラー近似である。
多層ネットワークは、一般に、層ごとに編成された一連の相互接続されたニューロンとして構築される。それらは互いに結合されると数学的関数を定義し、最初の層のニューロン(入力)を最後の層のニューロン(出力)にマッピングする。各ニューロンをxで表す。ここで、iは、ニューロンのインデックスである。慣例により、ネットワークの各層ごとに異なるインデックスを関連付けている。与えられた層のすべてのニューロンの総和を“Σi”で表し、他の層のすべてのニューロンの総和を“Σj”で表す。ピクセル活性化
に対応する(すなわち、分類決定の分解を取得したいと思う)ニューロンをx(d)で表す。1つの層から次の層への一般的なマッピングは、線形投影に続く非線形関数を含む。
zj=Σizij+bj, (51)
xj=g(zj), (52)
同様に、他の代替手段は:
単位の関連性伝播が直接適用できる。
xj=gj(Σihij(xi)) (63)
関連性保存特性の許容範囲までの要件は、次のような条件で表される。
これらの3つの見解は、入力にのみ依存する単調関数ζ、fまたはξを中期的に考慮すると、さらに一般化することができる。
視点1:ニューロンの関連性スコアRk
さて、一般化の第3レベルについて考察しよう。
関数q(i)は、重み付け活性化zijに依存し、重み付け活性化は、ニューロン活性化xi、接続重みwijおよびバイアス項bjの関数である。
zij=s(xi,wij,bj)
特例として
式A5の場合、次の順序性が保持される。
従って、我々は以下に到達する。
順序性を定義する別の方法は、Rj>0の場合に自分自身を制限することである。それは、負のニューロン関連性を伝播することに興味がない場合に意味がある。これを理解するために、ニューラルネットによって行われた予測が、ニューラルネットワークの出力が入力としての項目のセットに関する非常に肯定的なスコアを有することを意味する構造の存在についてニューラルネットワークによりなされた予測が確かであるときに、項目のセット内の単一項目に関する予測を行うことに通常関心があることを考慮する必要がある。ニューラルネットワークの出力が非常に肯定的なスコアを有する場合、ほとんどのニューロンがニューラルネットの非常に正の予測を支持しているため、ほとんどのニューロン関連性も正であると予想することができ、従って、実際には負の関連性を持つニューロンの小数部分を無視することができる。
対してh(Σizij)>0である場合にも注意されたい。
例えば、以下の8つの条件は、関連性メッセージの観点から表現される意味のある順序性ももたらす。
従って、ディープニューラルネットワーク(DNN)などの最先端の分類器は、以下のように動作する。
1) ネットワーク構造(例えば、層数、ユニット数など)は人間によって設計される。
2) ネットワークパラメータ(重み)は、潜在的に何百万もの画像等のラベル付き(およびラベルなし)データサンプルを使用して訓練され/最適化される。事前に訓練されたネットワークの中には、Web上で利用可能なものがある点に注意されたい。
3) ネットワークは、新しい画像に適用することができ、例えば、画像を特定のクラス、例えば「サメを含む画像」、「ニュース記事であるテキスト文書」または「信用力がない人」のクラスに属するものとして分類する。
4) ネットワークは非常に非線形で非常に複雑なので、なぜこの特定の画像が「サメ」として分類されるのかを理解することは難しい。従って、ネットワークはブラックボックスとして機能する(図4参照)。
5) 提示された実施形態は、分類器がその決定に到達する理由、すなわち、重要な情報がどこに位置しているか(例えば画素に関して)を視覚化できる理由を説明することができる。抽象的な言い方をすれば、大規模(例えば、全体画像、全文文書)で計算された分類決定を、小さなスケール(例えば、個々のピクセル、個々の単語)に分解することができる。
6) DNNは画像上で訓練することができるだけでなく、時系列、単語、物理的測定など、事実上すべてのタイプのデータに適用されている。記載された実施形態の原理は、多くの異なるシナリオに適用可能である。
我々は、すでに、注文した項目のコレクションについて予測していると仮定する。
・まず、以下のように出力層である最後の層の関連性を初期化する。
・出力が実数値の場合は、最後の層の単一要素に関する関連性をモデルの予測値として初期化する。
・出力がベクトル値の場合、出力層の少なくとも1つの要素に関する実数値出力の場合について説明した初期化を使用するか、および残りの要素については、関連性をゼロに設定するかのいずれかによって、最後の層のすべての要素に関する関連性を初期化する。
・次に、1つの層インデックスから上流層までの層の繰返しを実行する。
・スコアの各間隔が1つの色にマッピングされるようなこれらのスコアの色へのマッピング
・各項目のスコアによって決定された順序に従う項目のソートされたリスト
次の段落では、他のタイプの浅い学習アルゴリズムとの違いである訓練段階の間に、その層の大部分が学習されるようなニューラルネットワークについて説明する。それは、以下の特性を有するかもしれない。
- モデルがテスト時に2層である場合、第1層の重みは、訓練データのセットおよび訓練データのサブセットに依存する誤差尺度を使用して最適化される。
- モデルがテスト時に3層または4層積層されている場合、少なくとも第1または第2の層の重みは、訓練データのセットおよび訓練データのサブセットに依存する誤差尺度を用いて最適化される。
- モデルがテスト時に5層以上積層されている場合、訓練データのセットと訓練データのサブセットに依存する誤差尺度を使用して、少なくとも第1の層から第3の最後の層までの1つの層の重みが最適化される(これにより、最後の層も最適化される)。
我々は、2つのデータセット、解釈が容易なMNISTの結果の2つのセットと、Caffeオープンソースパッケージ[20](非特許文献21)の一部として提供されている15層の既に訓練されたネットワークに依存する第2の実験セットを示し、これは、ILSVRCチャレンジから1000のカテゴリを予測する。一方で、MNISTの数字の実験によって、我々は訓練段階に特有の詳細を明らかにすることができることを示すつもりである。他方で、Caffeツールボックスからの事前トレーニングされたネットワークの結果は、この方法が、箱の外でディープニューラルネットワークと一緒に動作し、訓練段階中に可能なトリックに依存していないことを示す。
今まで、説明は、関連性スコア割当てプロセスに集中していた。以下では、セット16の項目に割当てられた関連性スコアがどのように使用され得るかについて、簡単に説明する。
−医師の時間は貴重である。RS割当ては、癌をスクリーニングする際に、画像中の重要な領域を特定することができる。
−ビデオ符号化において、チャネル帯域幅は貴重である。RS割当ては、ビデオのどの部分が他の部分よりも重要であるかについてアルゴリズムCAに通知し、例えばより良い符号化戦略(例えば、重要な部分についてより多くのビットを使用する)、またはより良い送信スケジュール(例えば、重要な情報を最初に送信する)を決定するために通知することができる。
−ヒートマップは、いくつかの予測タスクの追加機能を計算するために使用できる。例えば、訓練されたネットワークを使用して、それをある画像に適用し、より重要な領域からより多くの特徴を抽出することができる。これは、計算時間または情報の伝送の減少をもたらす可能性がある。あるいは、そこから抽出された領域または追加情報を使用して、訓練されたネットワークを再トレーニングし改善することができる。
−RS割当ては、ユーザーまたは会社が、特定のタスクにとってどのような領域または機能が重要であるかを知りたい場合に、調査ツールとして使用できる。
−RS割当ては、医療用途、例えば、医師が病理像の腫瘍を特定するか、またはMRI画像の観察を特定するための助けとして、使用できる。
より具体的な例としては、以下を含む
−生物学的組織の画像における炎症徴候の検出、
−生物学的組織の画像における癌の徴候の検出、
−生物学的組織の画像における病理学的変化の検出、
−RS割当ては、一般的な画像に適用することができる。例えば、ソーシャルウェブサイトのプラットフォームや検索エンジンには多くのイメージがあり、何が画像を「面白い」、「珍しい」、「面白い」、とさせるのか、何が人を、住宅のイメージや住宅のインテリアを魅力的または美的にまたは魅力的でなくまたは美学的でないとさせるかに興味があるかもしれない。
−RS割当てを監視アプリケーションで使用して、画像のどの部分が異常なイベントを検出するためにシステムをトリガするかを検出できる。
−衛星、航空機またはリモートセンシングデータによって撮影された画像における土地利用変化の検出。
−ヒートマップは、例えば、重要な情報を含む領域にはより多くのビットを使用し、他の領域には少ないビットを使用して、符号化の圧縮強度を設定するために使用できる。
−RS割当ては、ビデオ要約、すなわち、ビデオ内の「関連性」フレームを識別するために使用することができる。これにより、インテリジェントなビデオ閲覧が可能になる。
−アニメーション映画は時にはあまり現実的ではない。映画がより現実的に見えるようにするために何が「欠落している」かははっきりしない。この場合、ヒートマップを使用して、ビデオの非現実的な部分を強調することができる。
−テキスト文書のカテゴリへの分類は、DNNまたはBoWモデルによって実行できる。 RS割当ては、文書が特定のクラスに分類される理由を視覚化することができる。トピックに関するテキストの関連性は、さらなる処理のために強調表示または選択することができる。RS割当ては重要な単語を強調し、長いテキストの要約を提供することができる。このようなシステムは、例えば、特許弁護士がすぐに多くのテキスト文書を閲覧するのに役立つ。
銀行は、(ディープ)ニューラルネットワークなどの分類器を使用して、誰かがクレジットローンを取得しているかどうかを判断する(ドイツのSchufaシステムなど)。これらのアルゴリズムがどのように作動するかは透明ではない。例えば、クレジットを取得していない人は、理由を知らない人もいる。RS割当ては、なぜ誰かがクレジット取得しないのかを正確に示すことができる。
−RS割当ては、何が、特定の商品説明イメージ/テキストが商品の販売をもたらすのか(例えば、アパートのレンタル、eBay商品の説明)を決定するために使用できる。
−RS割当ては、何が、オンラインビデオ/ブログ投稿を高評価させるかあるいは好まれるかを決定するために使用することができる。
−企業は、どの「特徴」が彼らのウェブサイトや製品を魅力的とさせるのかに一般的に関心を持つ可能性がある。
−企業は、なぜ一部のユーザーが製品を購入し、他のユーザーがそれを購入しないのかに関心がある。RS割当ては、ユーザーが製品を購入しない理由を特定し、それに応じて広告戦略を改善するのに使用できる。
−RS割当ては、テキストのどの部分が、英語、フランス語、スペイン語、ドイツ語などの特定の言語のネイティブではない話者をネイティブと区別できるかを決定するために使用できる。
−RS割当ては、特定の人によって文書が書かれたか否かをテキスト中の校正要素を見つけるために使用することができる。
その場合、装置102は、例えば、それに割当てられたより低い関連性スコアを有するアイテムと比べて、それに割当てられたより高い関連性スコアを有する項目に対するプロセスの損失性を減少させるように構成することができる。損失は、例えば、量子化ステップサイズを介して、または符号器のレート制御の利用可能なビットレートを可変させることによって、可変させることができる。例えば、関連性スコアが高いサンプルの領域は、より高いビットレートを使用する、より低い量子化ステップサイズを使用するなどのように、損失の少ない符号化を行うことができる。従って、関連性スコア割当ては、例えば、ビデオシーン内の容疑者検出/予測に関して、関連性スコア割当てを実行する。その場合、処理装置102は、ビデオを非可逆圧縮する際により多くのデータレートを費やすことができ、この例によれば、興味深い場面、すなわち、容疑者が同じ場所内で「発見」されているため、時空間部分が関心のある興味深いシーンに関してセット16を表す。または、処理装置102は、同じデータレートを使用するが、関連性スコアによって達成される重み付けのために、高い関連性スコアを持つサンプルの項目に関しては圧縮率が低く、低い関連性スコアを持つサンプルの項目に関しては圧縮率が高い。処理結果104は、この場合、非可逆圧縮されたデータまたはデータストリーム、すなわちビデオ16の圧縮バージョンである。しかしながら、前述のように、セット16は、ビデオデータに限定されない。これは、画像またはオーディオストリームなどであってもよい。
クに言及した上記の機会にも当てはまる。
[6] Christopher M Bishop et al. Pattern recognition and machine learning, volume 1. springer New York, 2006.
[10] Hendrik Dahlkamp, Adrian Kaehler, David Stavens, Sebastian Thrun, and Gary R. Bradski. Self-supervised monocular road detection in desert terrain. In Robotics: Science and Systems, 2006.
[11] Jia Deng, Alex Berg, Sanjeev Satheesh, Hao Su, Aditya Khosla, and Fei-Fei Li. The ImageNet Large Scale Visual Recognition Challenge 2012 (ILSVRC2012). http://www.image-net.org/challenges/LSVRC/2012/.
[12] Dumitru Erhan, Yoshua Bengio, Aaron Courville, and Pascal Vincent. Visualizing higher-layer features of a deep network. Technical Report 1341, University of Montreal, June 2009.
[15] L. Fei-Fei and P. Perona. A bayesian hierarchical model for learning natural scene categories. In Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, volume 2, pages 524−531 vol. 2, 2005.
[16] Muriel Gevrey, Ioannis Dimopoulos, and Sovan Lek. Review and comparison of methods to study the contribution of variables in artificial neural network models. Ecological Modelling, 160(3):249−264, 2003.
[17] Ronny Hansch and Olaf Hellwich. Object recognition from polarimetric SAR images. In Uwe Soergel, editor, Radar Remote Sensing of Urban Areas, volume 15 of Remote Sensing and Digital Image Processing, pages 109−131. Springer Netherlands, 2010.
[20] Yangqing Jia. Caffe: An open source convolutional architecture for fast feature embedding. http://caffe.berkeleyvision.org/, 2013.
[23] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. In Peter L. Bartlett, Fernando C. N. Pereira, Christopher J. C. Burges, Leon Bottou, and Kilian Q. Weinberger, editors, NIPS, pages 1106−1114, 2012.
[25] Yann LeCun and Corinna Cortes. The MNIST database of handwritten digits. http://yann.lecun.com/exdb/mnist/, 1998.
[26] Yann LeCun, Koray Kavukcuoglu, and Clement Farabet. Convolutional networks and applications in vision. In ISCAS, pages 253−256. IEEE, 2010.
[27] Quoc V. Le. Building high-level features using large scale unsupervised learning. In ICASSP, pages 8595−8598, 2013.
[31] Gregoire Montavon, Genevieve B. Orr, and Klaus-Robert Muller, editors. Neural Networks: Tricks of the Trade, Reloaded, volume 7700 of Lecture Notes in Computer Science (LNCS). Springer, 2nd edn edition, 2012.
[34] Julian D Olden, Michael K Joy, and Russell G Death. An accurate comparison of methods for quantifying variable importance in artificial neural networks using simulated data. Ecological Modelling, 178(3−4):389−397, 2004.
[36] Nicolas Pinto, David D Cox, and James J DiCarlo. Why is real-world visual object recognition hard? PLoS Comput Biol, 4(1):27, 1 2008.
[39] David E. Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams. Learning representations by back-propagating errors. Nature, 323:533−536, Oct 1986.
[41] Rudy Setiono and Huan Liu. Understanding neural networks via rule extraction. In IJCAI, pages 480−487. Morgan Kaufmann, 1995.
[42] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. CoRR, abs/1312.6034, 2013.
[43] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian J. Goodfellow, and Rob Fergus. Intriguing properties of neural networks. CoRR, abs/1312.6199, 2013.
[49] Paul A. Viola and Michael J. Jones. Rapid object detection using a boosted cascade of simple features. In CVPR (1), pages 511−518, 2001.
[50] Ross Walker, Paul Jackway, Brian Lovell, and Dennis Longstaff. Classification of cervical cell nuclei using morphological segmentation and textural feature extraction. In Australian New Zealand Conference on Intelligent Information Systems, 1994.
[54] Matthew D. Zeiler and Rob Fergus. Visualizing and understanding convolutional networks. CoRR, abs/1311.2901, 2013.
[55] Matthew D. Zeiler, Graham W. Taylor, and Rob Fergus. Adaptive deconvolutional networks for mid and high level feature learning. In ICCV, pages 2018−2025, 2011.
Claims (34)
- 関連性スコアを項目のセットに割り当てるための装置であって、前記関連性スコアはニューロン(12)で構成された人工ニューラルネットワーク(10)の適用に対する関連性を項目(42)の前記セット(16)上に示して、前記項目(42)のセット(16)をネットワーク出力(18)上にマッピングし、前記装置は、
前記人工ニューラルネットワーク(10)を介して初期関連性スコアを逆伝播させることによって、前記ネットワーク出力(18)から導き出された前記初期関連性スコア(R)を項目のセット(16)に再分配して、各項目について関連性スコアを得るように構成され、
前記装置は、各ニューロンについて、前記各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアが、分布関数を使用して前記各ニューロンの上流近隣ニューロンのセットに分配されるように逆伝播を実行するように構成され、
前記装置は、前記分布関数が、
前記各ニューロンの上流近隣ニューロンのセットによって前記各ニューロンの影響の程度を決定する、前記人工ニューラルネットワークの重みと、
項目(42)のセット(16)に前記人工ニューラルネットワーク(10)を適用した際に現れる、前記上流近隣ニューロンのセットのニューロン活性化と、
前記各ニューロンの前記下流近隣ニューロンのセットの予備的に再分配された関連性スコアの合計と、
の関数であるように構成されている、
装置。 - 前記装置は、前記分布関数が関連性保存特性を有するように構成される、請求項1に記載の装置。
- 前記装置は、前記人工ニューラルネットワークのすべてのニューロンに対して1つの分布関数を等しく使用して前記逆伝播を実行するように構成されている、請求項1または2に記載の装置。
-
- m([Rjk,kは、jの下流ニューロンである])=ΣkRjkである、請求項4に記載の装置。
- 前記装置は、前記関数q(i)が、q(i)= p({zij|iはjの上流近隣ニューロンである})となるように関数sによって計算される重み付き活性化zij=s(xi,wij,bj)の関数pであるように構成されている、請求項4または5に記載の装置。
-
-
-
- 前記装置は、前記関数g(・)が
g(z)=αmax(0,z)?βmin(0,z)
で与えられ、ここでα> 0,β≧0であるように構成されている、請求項9に記載の装置。 - 前記装置は、前記関数q(i)が前記ニューロンのニューラルネットワーク関数のテイラー型分解を継承する、または前記ニューロンの人工ニューラルネットワーク関数のテイラー型分解に比例するように構成されている、請求項4ないし10のいずれかに記載の装置。
- 前記関連性メッセージRijが、データから学習され、ニューロンjの上流近隣iの活性化xiを近似誤差まで値m([Rjk,kはjの下流ニューロン])にマッピングする関数のテイラー近似に比例するように構成されている、請求項4ないし10のいずれかに記載の装置。
-
-
- m([Rjk,kはjの下流ニューロンである])= ΣkRjk
である、請求項13または14に記載の装置。 - h()は安定化関数
h(t)=t+ε・sign(t)
であって、ここで、εは0以上の値を有し、分数関数として表現される前記分布関数の分母に記述される前記安定化関数の値がゼロになることを阻止する、請求項13から15までのいずれかに記載の装置。 - 前記装置は、各項目iについて、それぞれの項目を上流近隣ニューロンとして有するニューロンの、それぞれの項目に再分配された関連性メッセージを合計することによって、各項目iの関連性スコアRiを計算するように構成された、請求項1ないし16のいずれかに記載の装置。
- 前記人工ニューラルネットワークは項目のセットに直接適用されて、前記項目(42)のセット(16)の前記項目が人工ニューラルネットワークの人工ニューロンのサブセットにとっての上流近隣を形成し、前記ネットワーク出力は、前記人工ニューラルネットワークの下流端におけるニューロンのニューロン活性化に対応する請求項1ないし17のいずれかに記載の装置。
- 前記ネットワーク出力(18)はスカラーであり、そこから導出された初期関連性スコアは前記スカラーの値に等しいか、単調増加関数を前記スカラーの値に適用することによって導出される、または、前記ネットワーク出力はベクトルであり、初期関連性スコアはベクトルの1つまたは複数の成分の値に等しいか、または単調増加関数を前記ベクトルの1つまたは複数の成分の値に適用することによって導出される、請求項1ないし18のいずれかに記載の装置。
- 前記装置は、0.95・R≦f(ΣRi)≦1.05・Rとなるように逆伝播を実行するように構成され、ΣRiは、前記項目(42)のセット(16)のすべての項目iの関連性スコアを合計したものを表し、fはΣRiにのみ依存する単調関数である、請求項1ないし19のいずれかに記載の装置。
- 前記装置は、fが恒等関数であるように構成されている、請求項20に記載の装置。
- 前記装置は、各ニューロンについて、前記分布関数によって各ニューロンの上流近隣ニューロンの前記セットに分配された関連性メッセージの合計がξ(SN)に等しいか、5%以下しか逸脱しないように構成され、但し、SNは前記各ニューロンの下流隣接ニューロンのセットから前記各ニューロンへの関連性メッセージの合計を表し、ξはSNにのみ依存する単調関数を表す、請求項1ないし21のいずれかに記載の装置。
- 前記装置は、ξが恒等関数であるように構成される、請求項22に記載の装置。
- 前記人工ニューラルネットワークは、各ニューロン(12)が層のシーケンスのうちの1つに属するように層化され、前記装置は、前記人工ニューラルネットワークのすべてのニューロンについて1つの分布関数を等しく使用して前記逆伝播を実行するように構成される、請求項1ないし23のいずれかに記載の装置。
- 前記人工ニューラルネットワークは、各ニューロン(12)が層のシーケンスのうちの1つに属するように層化されており、前記装置は、各層について、各層のニューロンに分配された関連性メッセージの合計がζ(SL)に等しいか、または5%以下しか逸脱しないように逆伝播を実行するように構成され、
但し、SLは各層の下流の層のニューロンの予備的に再分配された関連性スコアの合計を表し、ζはSLにのみ依存する単調関数を表す、請求項1ないし23のいずれかに記載の装置。 - 前記項目のセット(16)は、
前記項目(42)のセット(16)のうちの各項目(42)がピクチャの1つ以上のピクセルまたはサブピクセルに相当する、ピクチャ、および/または
前記項目(42)のセット(16)のうちの各項目(42)がビデオのピクチャの1つ以上のピクセルまたはサブピクセル、ビデオのピクチャ、またはビデオのピクチャシーケンスに相当する、ビデオ、および/または
前記項目(42)のセット(16)のうちの各項目(42)がオーディオ信号の1つ以上のオーディオサンプルに相当する、オーディオ信号、および/または
前記項目(42)のセット(16)の内の前記項目(42)が局所的特徴に相当する、ピクチャ、ビデオまたは音声信号から局所的にまたは大域的に抽出された局所的特徴の特徴マップまたは変換、および/または
前記項目(42)のセット(16)の各項目(42)がテキストの単語、文章または段落に相当する、テキスト、および/または
前記項目(42)のセット(16)の前記項目(42)がノードまたはエッジまたはノードのセットまたはエッジのセットまたはサブグラフに相当する、ソーシャルネットワーク関係グラフ等のグラフ、
である、または上記の組合せである、請求項1ないし25のいずれかに記載の装置。 - データ処理のためのシステム(100)であって、
項目のセットに関連性スコアを割当てるための装置(50)であって、前記装置は、請求項1ないし26のいずれかに記載の装置と、
前記項目のセットまたは前記項目のセットから導出された処理すべきデータ(106)を、前記関連性スコアに応じて前記処理を適応させて、処理するための装置(102)と、を備えるシステム。 - 前記処理は非可逆処理であり、前記処理するための装置は、割当てられた関連性スコアが低い項目と比較するとより高い関連性スコアを有する項目の前記非可逆処理の非可逆性を低減するように構成される、請求項27に記載のシステム。
- 前記処理は視覚化であって、前記処理するための装置は前記関連性スコアに応じて前記視覚化においてハイライトを実行するように構成される、請求項27に記載のシステム。
- 前記処理は、メモリからの読出しまたはさらなる測定の実行によるデータ補充であって、前記処理するための装置(102)は前記関連性スコアに応じて前記データ補充に集中するように構成される、請求項27に記載のシステム。
- 関心領域をハイライトするためのシステム(110)であって、
項目のセットに関連性スコアを割当てるための装置(50)であって、請求項1ないし26のいずれかに記載の装置と、
前記関連性スコアに応じて関連性グラフ(114)を生成するための装置(112)とを備える、システム。 - 人工ニューラルネットワークを最適化するためのシステム(120)であって、
項目のセットに関連性スコアを割当てるための装置(50)であって、前記装置は請求項1ないし26のいずれかに記載の装置と、
複数の異なる項目のセットに前記割当てるための装置を適用するための装置(122)と、
前記割り当てるための装置を前記複数の異なる項目のセットに適用している最中に前記人工ニューラルネットワークの前記ニューロンに割当てられた関連性を蓄積することによって前記人工ニューラルネットワーク内の関連性の高い部分(128)を検出し、関連性の高い部分に応じて前記人工ニューラルネットワークを最適化するための装置(124)とを備えた、
システム(120)。 - 項目のセットに関連性スコアを割り当てるための方法であって、前記関連性スコアは、ニューロン(12)で構成される人工ニューラルネットワーク(10)の前記項目(42)のセット(16)への適用に関しての関連性を示して前記項目(42)のセット(16)をネットワーク出力にマッピングし、前記方法は、
関連性スコア取得装置により前記人工ニューラルネットワーク(10)を介して初期関連性スコアを逆伝播させることによって、前記ネットワーク出力(18)から導出された前記初期関連性スコア(R)を前記項目(42)のセット(16)に再分配して各項目について関連性スコアを得るステップを含み、
前記逆伝播は、各ニューロンについて、各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアが、分布関数を使用して各ニューロンの上流近隣ニューロンのセットに分配されるように実行され、
前記分布関数は、
前記各ニューロンの上流近隣ニューロンのセットによって前記各ニューロンの影響の程度を決定する前記人工ニューラルネットワークの重みと、
項目(42)のセット(16)に前記人工ニューラルネットワーク(10)を適用した際に現れる、上流近隣ニューロンのセットのニューロン活性化と、
前記各ニューロンの下流近隣ニューロンのセットの予備的に再分配された関連性スコアの合計と、
の関数である、
方法。 - コンピュータ上で実行された時に、請求項33に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2015/056008 WO2016150472A1 (en) | 2015-03-20 | 2015-03-20 | Relevance score assignment for artificial neural network |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020003182A Division JP2020123329A (ja) | 2020-01-10 | 2020-01-10 | 人工ニューラルネットワークの関連性スコア割当て |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018513507A JP2018513507A (ja) | 2018-05-24 |
JP2018513507A5 JP2018513507A5 (ja) | 2020-04-30 |
JP6725547B2 true JP6725547B2 (ja) | 2020-07-22 |
Family
ID=52727129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017567524A Active JP6725547B2 (ja) | 2015-03-20 | 2015-03-20 | 人工ニューラルネットワークの関連性スコア割当て |
Country Status (9)
Country | Link |
---|---|
US (1) | US20180018553A1 (ja) |
EP (1) | EP3271863B1 (ja) |
JP (1) | JP6725547B2 (ja) |
KR (1) | KR102130162B1 (ja) |
CN (1) | CN107636693B (ja) |
BR (1) | BR112017019821B8 (ja) |
CA (1) | CA2979579C (ja) |
RU (1) | RU2703343C2 (ja) |
WO (1) | WO2016150472A1 (ja) |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2983749C (en) | 2015-05-11 | 2021-12-28 | Magic Leap, Inc. | Devices, methods and systems for biometric user recognition utilizing neural networks |
GB201620199D0 (en) | 2015-12-18 | 2017-01-11 | British Telecomm | Autonomic method for managing a computer system |
US20170249547A1 (en) * | 2016-02-26 | 2017-08-31 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Holistic Extraction of Features from Neural Networks |
AU2017230184B2 (en) | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
US10157332B1 (en) | 2016-06-06 | 2018-12-18 | A9.Com, Inc. | Neural network-based image manipulation |
US11086471B2 (en) * | 2016-06-06 | 2021-08-10 | Salesforce.Com, Inc. | Visualizing neural networks |
US11023711B2 (en) * | 2016-10-10 | 2021-06-01 | University Of Maryland, College Park | All-in-one convolutional neural network for face analysis |
US10623775B1 (en) * | 2016-11-04 | 2020-04-14 | Twitter, Inc. | End-to-end video and image compression |
US11615285B2 (en) | 2017-01-06 | 2023-03-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Generating and identifying functional subnetworks within structural networks |
CN110574041B (zh) | 2017-02-23 | 2023-06-20 | 诺基亚技术有限公司 | 针对深度学习领域的协同激活 |
US10140709B2 (en) * | 2017-02-27 | 2018-11-27 | International Business Machines Corporation | Automatic detection and semantic description of lesions using a convolutional neural network |
US10540961B2 (en) * | 2017-03-13 | 2020-01-21 | Baidu Usa Llc | Convolutional recurrent neural networks for small-footprint keyword spotting |
JP6915349B2 (ja) * | 2017-04-04 | 2021-08-04 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
EP3399465A1 (en) * | 2017-05-05 | 2018-11-07 | Dassault Systèmes | Forming a dataset for fully-supervised learning |
EP3270308B9 (en) * | 2017-06-14 | 2022-05-18 | Siemens Healthcare GmbH | Method for providing a secondary parameter, decision support system, computer-readable medium and computer program product |
US10728553B2 (en) | 2017-07-11 | 2020-07-28 | Sony Corporation | Visual quality preserving quantization parameter prediction with deep neural network |
KR101880901B1 (ko) * | 2017-08-09 | 2018-07-23 | 펜타시큐리티시스템 주식회사 | 기계 학습 방법 및 장치 |
EP3682271B1 (en) * | 2017-09-12 | 2024-02-14 | Services Pétroliers Schlumberger | Seismic image data interpretation system |
US11194330B1 (en) * | 2017-11-03 | 2021-12-07 | Hrl Laboratories, Llc | System and method for audio classification based on unsupervised attribute learning |
KR101880907B1 (ko) * | 2017-09-22 | 2018-08-16 | 펜타시큐리티시스템 주식회사 | 비정상 세션 감지 방법 |
US11200513B2 (en) * | 2017-10-13 | 2021-12-14 | Carrier Corporation | Real estate image analysis |
US10976429B1 (en) * | 2017-10-16 | 2021-04-13 | Hrl Laboratories, Llc | System and method for synthetic aperture radar target recognition utilizing spiking neuromorphic networks |
US11823008B2 (en) | 2017-10-19 | 2023-11-21 | British Telecommunications Public Limited Company | Algorithm consolidation |
CN107783960B (zh) | 2017-10-23 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 用于抽取信息的方法、装置和设备 |
US10762390B2 (en) | 2017-11-22 | 2020-09-01 | Sas Institute Inc. | Computer-based visualization of machine-learning models and behavior |
US20200050932A1 (en) * | 2017-12-25 | 2020-02-13 | Sony Corporation | Information processing apparatus, information processing method, and program |
US20190258933A1 (en) * | 2018-02-19 | 2019-08-22 | International Business Machines Corporation | Deep Forecasted Human Behavior from Digital Content |
US10489511B2 (en) * | 2018-03-01 | 2019-11-26 | Ink Content, Inc. | Content editing using AI-based content modeling |
CN108562899B (zh) * | 2018-04-20 | 2021-08-20 | 西安电子科技大学 | 高分辨极化sar目标图像快速仿真方法 |
EP3564862A1 (en) * | 2018-05-03 | 2019-11-06 | Siemens Aktiengesellschaft | Determining influence of attributes in recurrent neural networks trained on therapy prediction |
JP7240657B2 (ja) * | 2018-05-15 | 2023-03-16 | Tokyo Artisan Intelligence株式会社 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
WO2019219846A1 (en) * | 2018-05-17 | 2019-11-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor |
CN110147872B (zh) * | 2018-05-18 | 2020-07-17 | 中科寒武纪科技股份有限公司 | 编码存储装置及方法、处理器及训练方法 |
KR102177728B1 (ko) | 2018-05-25 | 2020-11-12 | 서강대학교 산학협력단 | 합성곱 신경망을 활용한 데이터 확장방법 및 장치 |
US11893471B2 (en) | 2018-06-11 | 2024-02-06 | Inait Sa | Encoding and decoding information and artificial neural networks |
US11663478B2 (en) | 2018-06-11 | 2023-05-30 | Inait Sa | Characterizing activity in a recurrent artificial neural network |
US11823038B2 (en) * | 2018-06-22 | 2023-11-21 | International Business Machines Corporation | Managing datasets of a cognitive storage system with a spiking neural network |
WO2020009670A1 (en) * | 2018-07-04 | 2020-01-09 | Solmaz Gumruk Musavirligi A.S. | A method using artificial neural networks to find a unique harmonized system code from given texts and system for implementing the same |
KR102637105B1 (ko) * | 2018-07-13 | 2024-02-15 | 삼성전자주식회사 | 영상 데이터를 처리하는 방법 및 장치 |
IT201800007377A1 (it) * | 2018-07-20 | 2020-01-20 | Rete neurale avente un numero ridotto di parametri | |
DE102018213052A1 (de) * | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln einer Erklärungskarte |
DE102018213056A1 (de) * | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln einer Erklärungskarte |
KR102547802B1 (ko) | 2018-08-23 | 2023-06-26 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법 |
US10311337B1 (en) * | 2018-09-04 | 2019-06-04 | StradVision, Inc. | Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network |
US11436495B2 (en) * | 2018-10-02 | 2022-09-06 | Insitu, Inc. a subsidiary of The Boeing Company | Change detection in digital images |
US10909671B2 (en) * | 2018-10-02 | 2021-02-02 | International Business Machines Corporation | Region of interest weighted anomaly detection |
KR102248796B1 (ko) * | 2018-10-31 | 2021-05-07 | 울산과학기술원 | 사용자의 의사결정 예측 방법 및 장치 |
US11550970B2 (en) * | 2018-11-02 | 2023-01-10 | Wells Fargo Bank, N.A. | Resolving opaqueness of complex machine learning applications |
WO2020102339A1 (en) * | 2018-11-14 | 2020-05-22 | Cape Analytics, Inc. | Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery |
WO2020110776A1 (ja) * | 2018-11-28 | 2020-06-04 | 富士フイルム株式会社 | 分類装置、分類方法及びプログラム、分類結果表示装置 |
KR102175997B1 (ko) * | 2018-12-13 | 2020-11-06 | 성균관대학교산학협력단 | 뇌파 기반의 사용자 의도 인식 방법 및 장치 |
DE102018221920A1 (de) * | 2018-12-17 | 2020-06-18 | Robert Bosch Gmbh | Inhaltsadaptive verlustbehaftete Kompression von Messdaten |
US11455538B2 (en) * | 2018-12-20 | 2022-09-27 | GM Global Technology Operations LLC | Correctness preserving optimization of deep neural networks |
EP3671536A1 (en) * | 2018-12-20 | 2020-06-24 | Optos PLC | Detection of pathologies in ocular images |
LU101088B1 (en) * | 2019-01-04 | 2020-07-07 | Iee Sa | Method and System for Processing Neural Network Predictions in the Presence of Adverse Perturbations |
US20200242771A1 (en) * | 2019-01-25 | 2020-07-30 | Nvidia Corporation | Semantic image synthesis for generating substantially photorealistic images using neural networks |
US11687783B2 (en) * | 2019-02-04 | 2023-06-27 | International Business Machines Corporation | L2-nonexpansive neural networks |
US20220157048A1 (en) * | 2019-02-08 | 2022-05-19 | Singapore Health Services Pte Ltd | Method and System for Classification and Visualisation of 3D Images |
US20200278423A1 (en) * | 2019-03-01 | 2020-09-03 | GM Global Technology Operations LLC | Removing false alarms at the beamforming stage for sensing radars using a deep neural network |
CN109977232B (zh) * | 2019-03-06 | 2022-05-10 | 中南大学 | 一种基于力导图的图神经网络可视分析方法 |
EP3942468A4 (en) | 2019-03-18 | 2023-01-04 | Geomagical Labs, Inc. | SYSTEM AND METHOD FOR VIRTUAL MODELING OF INTERIOR SCENES FROM IMAGING |
US11652603B2 (en) | 2019-03-18 | 2023-05-16 | Inait Sa | Homomorphic encryption |
US11569978B2 (en) | 2019-03-18 | 2023-01-31 | Inait Sa | Encrypting and decrypting information |
WO2020191101A1 (en) | 2019-03-18 | 2020-09-24 | Geomagical Labs, Inc. | Virtual interaction with three-dimensional indoor room imagery |
JP7205328B2 (ja) * | 2019-03-19 | 2023-01-17 | 富士通株式会社 | 推定プログラム、推定装置および推定方法 |
CN109992642B (zh) * | 2019-03-29 | 2022-11-18 | 华南理工大学 | 一种基于科技词条的单任务专家自动遴选方法及系统 |
US11631266B2 (en) * | 2019-04-02 | 2023-04-18 | Wilco Source Inc | Automated document intake and processing system |
US11645510B2 (en) * | 2019-04-08 | 2023-05-09 | Mipsology SAS | Accelerating neuron computations in artificial neural networks by selecting input data |
EP3726433A1 (en) * | 2019-04-17 | 2020-10-21 | Siemens Aktiengesellschaft | A method for computer-implemented analysis of a classification model |
US11494616B2 (en) * | 2019-05-09 | 2022-11-08 | Shenzhen Malong Technologies Co., Ltd. | Decoupling category-wise independence and relevance with self-attention for multi-label image classification |
CN113874883A (zh) | 2019-05-21 | 2021-12-31 | 奇跃公司 | 手部姿势估计 |
KR102157441B1 (ko) * | 2019-05-31 | 2020-09-17 | 이화여자대학교 산학협력단 | 관련성 전사를 이용한 신경망 학습 방법 및 서비스 장치 |
US11373390B2 (en) * | 2019-06-21 | 2022-06-28 | Adobe Inc. | Generating scene graphs from digital images using external knowledge and image reconstruction |
US11087183B2 (en) * | 2019-06-28 | 2021-08-10 | Wipro Limited | Method and system of multi-modality classification using augmented data |
EP3767543A1 (en) * | 2019-07-17 | 2021-01-20 | Robert Bosch GmbH | Device and method for operating a neural network |
US11355134B2 (en) * | 2019-08-02 | 2022-06-07 | Audioshake, Inc. | Deep learning segmentation of audio using magnitude spectrogram |
US11521630B2 (en) | 2020-10-02 | 2022-12-06 | Audioshake, Inc. | Deep learning segmentation of audio using magnitude spectrogram |
CN110414618B (zh) * | 2019-08-05 | 2023-07-14 | 上海图趣信息科技有限公司 | 一种动态平衡分类数据的神经网络训练系统、方法及存储介质 |
US11568212B2 (en) * | 2019-08-06 | 2023-01-31 | Disney Enterprises, Inc. | Techniques for understanding how trained neural networks operate |
US11829871B2 (en) * | 2019-08-20 | 2023-11-28 | Lg Electronics Inc. | Validating performance of a neural network trained using labeled training data |
US11222242B2 (en) | 2019-08-23 | 2022-01-11 | International Business Machines Corporation | Contrastive explanations for images with monotonic attribute functions |
US11551054B2 (en) * | 2019-08-27 | 2023-01-10 | International Business Machines Corporation | System-aware selective quantization for performance optimized distributed deep learning |
US11449578B2 (en) * | 2019-09-27 | 2022-09-20 | Botty Todorov DIMANOV | Method for inspecting a neural network |
US11593673B2 (en) | 2019-10-07 | 2023-02-28 | Servicenow Canada Inc. | Systems and methods for identifying influential training data points |
EP4052191A1 (en) * | 2019-10-30 | 2022-09-07 | British Telecommunications public limited company | A computer-implemented method of modifying an algorithm operating on a computing system |
US11295199B2 (en) * | 2019-12-09 | 2022-04-05 | UMNAI Limited | XAI and XNN conversion |
US11580401B2 (en) | 2019-12-11 | 2023-02-14 | Inait Sa | Distance metrics and clustering in recurrent neural networks |
US11816553B2 (en) | 2019-12-11 | 2023-11-14 | Inait Sa | Output from a recurrent neural network |
US11797827B2 (en) | 2019-12-11 | 2023-10-24 | Inait Sa | Input into a neural network |
KR20220107300A (ko) * | 2019-12-11 | 2022-08-02 | 이나이트 에스아 | 인공 순환 신경 네트워크 구성 및 운영 |
US11651210B2 (en) * | 2019-12-11 | 2023-05-16 | Inait Sa | Interpreting and improving the processing results of recurrent neural networks |
US11256959B2 (en) * | 2019-12-31 | 2022-02-22 | Wipro Limited | Method and system for training artificial neural network based image classifier using class-specific relevant features |
WO2021148658A1 (en) | 2020-01-23 | 2021-07-29 | UMNAI Limited | An explainable neural net architecture for multidimensional data |
KR20210096342A (ko) | 2020-01-28 | 2021-08-05 | 주식회사 딥바이오 | 뉴런-레벨 가소성 제어를 통해 파국적인 망각을 극복하기 위한 방법 및 이를 수행하는 컴퓨팅 시스템 |
KR102356438B1 (ko) * | 2020-03-10 | 2022-01-27 | 연세대학교 산학협력단 | 요소 간 관계 추출 기반 이종 얼굴 인식 장치 및 방법 |
US11436830B2 (en) * | 2020-03-11 | 2022-09-06 | Bank Of America Corporation | Cognitive robotic process automation architecture |
US11741340B2 (en) | 2020-03-23 | 2023-08-29 | D5Ai Llc | Data-dependent node-to-node knowledge sharing by regularization in deep learning |
CN111653088B (zh) * | 2020-04-21 | 2022-02-01 | 长安大学 | 一种车辆出行量预测模型构建方法及预测方法和系统 |
CN111291838B (zh) * | 2020-05-09 | 2020-09-01 | 支付宝(杭州)信息技术有限公司 | 实体对象分类结果的解释方法和装置 |
US20210365771A1 (en) * | 2020-05-21 | 2021-11-25 | International Business Machines Corporation | Out-of-distribution (ood) detection by perturbation |
JP7282715B2 (ja) * | 2020-06-02 | 2023-05-29 | Kddi株式会社 | 評価装置、評価方法及び評価プログラム |
US20200327118A1 (en) * | 2020-06-27 | 2020-10-15 | Intel Corporation | Similarity search using guided reinforcement learning |
DE102020208008A1 (de) * | 2020-06-29 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben |
CN111754356A (zh) * | 2020-06-30 | 2020-10-09 | 复旦大学 | 边符号预测方法、装置及设备 |
US11250475B2 (en) * | 2020-07-01 | 2022-02-15 | Deepmind Technologies Limited | Neural network architecture for efficient resource allocation |
DE102020210732A1 (de) | 2020-08-25 | 2022-03-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Messung der Relevanz von Bildbereichen für Entscheidungen eines Bildklassifikators |
CN112052957B (zh) * | 2020-09-02 | 2023-08-04 | 平安科技(深圳)有限公司 | 深度学习模型的可解释性参数获取方法及装置 |
CN112257863B (zh) * | 2020-10-09 | 2023-04-07 | 天津大学 | 网络参数确定方法、装置、区块链的节点及存储介质 |
KR102344718B1 (ko) * | 2020-10-30 | 2021-12-30 | 주식회사 아이싸이랩 | 동물을 식별 및 인증 중 적어도 하나를 수행하기 위해 획득한 동물 이미지를 클러스터링하는 방법 |
DE102020213830A1 (de) | 2020-11-03 | 2022-05-05 | Volkswagen Aktiengesellschaft | Verfahren und System zur Bereitstellung einer Diagnoseinformation |
CN112270406B (zh) * | 2020-11-11 | 2023-05-23 | 浙江大学 | 一种类脑计算机操作系统的神经信息可视化方法 |
DE102020214944A1 (de) | 2020-11-27 | 2022-06-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Bestimmung der für einen Bildklassifikator entscheidungsrelevanten Bildanteile mit vermindertem Rechenzeitbedarf |
KR102314713B1 (ko) * | 2020-12-24 | 2021-10-20 | 한국방송공사 | 스트리밍을 위한 영상 데이터 패킹 방법 및 이를 이용한 전자 장치 |
WO2022146031A1 (en) * | 2020-12-29 | 2022-07-07 | Samsung Electronics Co., Ltd. | Method and device of computing layout selection for efficient dnn inference |
KR102446792B1 (ko) * | 2021-03-23 | 2022-09-22 | 연세대학교 산학협력단 | 인공 신경망을 설명하기 위한 관련성 가중 클래스 활성화 맵 생성 장치 및 방법 |
JP7325015B2 (ja) * | 2021-03-24 | 2023-08-14 | パナソニックIpマネジメント株式会社 | 量子化方法、量子化装置、及び、プログラム |
TWI803852B (zh) * | 2021-04-16 | 2023-06-01 | 馬爾他商優奈有限公司 | 可解釋人工智慧及可解釋神經網路轉換 |
KR20230050727A (ko) * | 2021-10-08 | 2023-04-17 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
WO2022216521A1 (en) * | 2021-11-10 | 2022-10-13 | Innopeak Technology, Inc. | Dual-flattening transformer through decomposed row and column queries for semantic segmentation |
US11501084B1 (en) | 2021-12-08 | 2022-11-15 | Sas Institute Inc. | Graphical user interface for visualizing contributing factors to a machine-learning model's output |
US20230196062A1 (en) * | 2021-12-17 | 2023-06-22 | Sap Se | Method and system for global explainability of neural networks |
CN114816963B (zh) * | 2022-06-28 | 2022-09-20 | 南昌航空大学 | 嵌入式软件质量评估方法、系统、计算机及可读存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330406A (ja) * | 1996-06-10 | 1997-12-22 | Fuji Facom Corp | 学習支援装置およびパターン認識装置 |
EP1006458A1 (en) * | 1998-12-01 | 2000-06-07 | BRITISH TELECOMMUNICATIONS public limited company | Methods and apparatus for information retrieval |
US7685084B2 (en) * | 2007-02-09 | 2010-03-23 | Yahoo! Inc. | Term expansion using associative matching of labeled term pairs |
US8812493B2 (en) * | 2008-04-11 | 2014-08-19 | Microsoft Corporation | Search results ranking using editing distance and document information |
US8326785B2 (en) * | 2008-09-30 | 2012-12-04 | Microsoft Corporation | Joint ranking model for multilingual web search |
KR101030613B1 (ko) * | 2008-10-08 | 2011-04-20 | 아이리텍 잉크 | 아이이미지에서 관심영역정보 및 인식적 정보획득방법 |
CN102169555B (zh) * | 2011-03-30 | 2013-12-25 | 华南理工大学 | 关联性传感信号多传感元件故障定位及传感信号自恢复方法 |
-
2015
- 2015-03-20 EP EP15711738.3A patent/EP3271863B1/en active Active
- 2015-03-20 BR BR112017019821A patent/BR112017019821B8/pt active IP Right Grant
- 2015-03-20 JP JP2017567524A patent/JP6725547B2/ja active Active
- 2015-03-20 RU RU2017135085A patent/RU2703343C2/ru active
- 2015-03-20 CN CN201580080124.8A patent/CN107636693B/zh active Active
- 2015-03-20 WO PCT/EP2015/056008 patent/WO2016150472A1/en active Application Filing
- 2015-03-20 CA CA2979579A patent/CA2979579C/en active Active
- 2015-03-20 KR KR1020177030274A patent/KR102130162B1/ko active IP Right Grant
-
2017
- 2017-09-20 US US15/710,455 patent/US20180018553A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
BR112017019821B8 (pt) | 2024-02-15 |
RU2017135085A3 (ja) | 2019-04-05 |
WO2016150472A1 (en) | 2016-09-29 |
CA2979579A1 (en) | 2016-09-29 |
EP3271863A1 (en) | 2018-01-24 |
RU2703343C2 (ru) | 2019-10-16 |
CA2979579C (en) | 2020-02-18 |
BR112017019821A2 (pt) | 2018-05-15 |
US20180018553A1 (en) | 2018-01-18 |
JP2018513507A (ja) | 2018-05-24 |
KR102130162B1 (ko) | 2020-07-06 |
CN107636693A (zh) | 2018-01-26 |
KR20170134508A (ko) | 2017-12-06 |
BR112017019821B1 (pt) | 2023-09-05 |
EP3271863B1 (en) | 2021-07-28 |
RU2017135085A (ru) | 2019-04-05 |
CN107636693B (zh) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6725547B2 (ja) | 人工ニューラルネットワークの関連性スコア割当て | |
Yan | Computational methods for deep learning | |
Guibas et al. | Synthetic medical images from dual generative adversarial networks | |
US20220309762A1 (en) | Generating scene graphs from digital images using external knowledge and image reconstruction | |
US20230067026A1 (en) | Automated data analytics methods for non-tabular data, and related systems and apparatus | |
CN112262395A (zh) | 基于注释信息的分类 | |
Xu et al. | Attribute-based structural damage identification by few-shot meta learning with inter-class knowledge transfer | |
Shen et al. | Sky region detection in a single image for autonomous ground robot navigation | |
Ye et al. | MasterplanGAN: Facilitating the smart rendering of urban master plans via generative adversarial networks | |
Zhang et al. | Simultaneous pixel-level concrete defect detection and grouping using a fully convolutional model | |
Veeravasarapu et al. | Adversarially tuned scene generation | |
US20240119697A1 (en) | Neural Semantic Fields for Generalizable Semantic Segmentation of 3D Scenes | |
Inthiyaz et al. | Flower segmentation with level sets evolution controlled by colour, texture and shape features | |
JP2020123329A (ja) | 人工ニューラルネットワークの関連性スコア割当て | |
Siddalingappa et al. | Anomaly detection on medical images using autoencoder and convolutional neural network | |
Terven et al. | Loss functions and metrics in deep learning. A review | |
Khoshboresh-Masouleh et al. | 2D target/anomaly detection in time series drone images using deep few-shot learning in small training dataset | |
Nakanishi | Approximate Inverse Model Explanations (AIME): Unveiling Local and Global Insights in Machine Learning Models | |
Manjunatha et al. | CrackDenseLinkNet: a deep convolutional neural network for semantic segmentation of cracks on concrete surface images | |
Varlik et al. | Filtering airborne LIDAR data by using fully convolutional networks | |
Xu et al. | RETRACTED ARTICLE: Research on professional talent training technology based on multimedia remote image analysis | |
Lu et al. | Deep neural network for precision multi-band infrared image segmentation | |
Gritzner et al. | Semantic segmentation of aerial images using binary space partitioning | |
Kannagi et al. | Image Retrieval based on Deep Learning-Convolutional Neural Networks | |
US20220309597A1 (en) | Computer vision framework for real estate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190910 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200109 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20200110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200214 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6725547 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |