JP2002342738A - 畳み込みネットワーク挙動のシミュレーション方法 - Google Patents

畳み込みネットワーク挙動のシミュレーション方法

Info

Publication number
JP2002342738A
JP2002342738A JP2002069912A JP2002069912A JP2002342738A JP 2002342738 A JP2002342738 A JP 2002342738A JP 2002069912 A JP2002069912 A JP 2002069912A JP 2002069912 A JP2002069912 A JP 2002069912A JP 2002342738 A JP2002342738 A JP 2002342738A
Authority
JP
Japan
Prior art keywords
layer
source
filter
encoding
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002069912A
Other languages
English (en)
Other versions
JP4132892B2 (ja
Inventor
Julian Eggert
ジュリアン・エゲルト
B Baeuml
ビー・バウム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda R&D Europe Deutschland GmbH
Original Assignee
Honda R&D Europe Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda R&D Europe Deutschland GmbH filed Critical Honda R&D Europe Deutschland GmbH
Publication of JP2002342738A publication Critical patent/JP2002342738A/ja
Application granted granted Critical
Publication of JP4132892B2 publication Critical patent/JP4132892B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 畳み込みネットワークのシミュレーションの
コストを削減し、直観的な視覚化可能性を含めたネット
ワークの活性度を理解するための手段を提供する。 【解決手段】 畳み込みネットワークは、それぞれニュ
ーロンの二次元格子から構成される一組の層によって定
義される。ネットワークの最後の層以外の各層は、それ
ぞれ後続のターゲット層についてソース層を表す。部分
ソース領域と呼ばれるソース層の複数のニューロンは、
同一の結合重み行列(畳み込みネットワークの重み共有
技法)を共有する。結合重み行列は、符号化フィルタと
復号化フィルタのスカラー積によって表すことができ、
これによって、ソース層(ソース層の活性度)からそれ
ぞれのソース層への駆動信号の通信を、符号化フィルタ
ステップと復号化フィルタステップに分解することがで
きる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は畳み込みネットワー
ク(convolutional network)挙動のシミュレーション
方法に関し、ネットワークの内部状態の視覚化に関し、
また、パターン認識等の方法を実施するコンピュータ・
ソフトウェア・プログラムに関する。
【0002】
【従来の技術】生物学上現実的なコネクショニスト・ネ
ットワークを取扱うときは、通常、複数の問題に遭遇す
る。第1に、結合が統計学的に学習されない場合、結合
を高次元ニューロン特徴空間における2つの点を結ぶも
のとして、機能的に定義しなければならないが、これは
ほとんど不可能な作業である。第2に、高次元であるた
めに、シミュレーションの間に、ネットワークの内部状
態を解釈して視覚化することは困難である。さらに、こ
のようなネットワークの(メモリ及び性能の)シミュレ
ーションは、主に結合の数によって決定される。
【0003】本発明は、畳み込みネットワーク、すなわ
ち、部分領域(sub-area)を有する層を持つネットワー
クを特に対象とする。このようなネットワークでは、ネ
ットワークの層の部分領域のニューロンは、共通の結合
重み行列を共有する。畳み込みネットワークが遭遇する
主な問題は、共有結合を使用しているダイナミクスの大
規模な計算、結合パターンの非直観的な設計、及びその
結果の処理の困難さである。局所的なダイナミック正規
化手順は、計算のオーバーヘッドをさらに増加させる。
最後に、ネットワーク状態(すなわち、その活性度)の
視覚化は、多次元空間で発生する。
【0004】
【発明が解決しようとする課題】畳み込みネットワーク
が遭遇する上述の問題に鑑みて、本発明は、シミュレー
ションのコストを削減し、直観的な視覚化可能性を含め
たネットワークの活性度を理解するためのより良い手段
を提供することを目的とする。
【0005】
【課題を解決するための手段】本発明の第1の態様によ
ると、畳み込みネットワーク挙動のシミュレーション方
法が提案される。畳み込みネットワークは、それぞれニ
ューロンの二次元格子から構成される一組の層によって
定義される。ネットワークの最後の層以外の各層は、そ
れぞれ後続のターゲット層(target layer)のためのソ
ース層(sourcelayer)を表す。部分ソース領域と呼ば
れるソース層の複数のニューロンは、同一の結合重み行
列(畳み込みネットワークの重み共有技法)を共有す
る。結合重み行列は、符号化フィルタと復号化フィルタ
とのスカラー積によって表すことができ、これによっ
て、ソース層(ソース層の活性度)からそれぞれのター
ゲット層への駆動信号の通信を、符号化フィルタステッ
プと復号化フィルタステップに分解することができる。
【0006】符号化フィルタステップは、符号化フィル
タとソース層の活性度に基づいて、再構成ソースイメー
ジ(source reconstruction image)を算出するステッ
プを含むことができる。復号化フィルタステップは、再
構成ソースイメージと復号化フィルタの畳込み演算によ
ってターゲット層への入力を算出するステップを含むこ
とができる 再構成ソースイメージは、各部分ソース領域と対応する
符号化フィルタのスカラー積を求め、全ての部分ソース
領域のスカラー積の結果を結合することによって算出す
ることができる。
【0007】符号化フィルタ及び/又は復号化フィルタ
は、予め設定することも、あるいは学習過程によって生
成することもできる。
【0008】有利なことに、符号化フィルタステップ及
び/又は復号化フィルタステップは、高速フーリエ変換
(FFT)によって実行することができる。
【0009】符号化フィルタ及び復号化フィルタは、そ
れぞれ、対応する結合重み行列が並進不変性を示す軸に
沿って、伸張することができる。
【0010】本発明のさらなる態様は、上述の方法を用
いてネットワークの内部状態を視覚化する方法に関す
る。ネットワークの内部状態は、ソース層と後続するタ
ーゲット層間の各結合についての再構成ソースイメージ
によって視覚化される。各再構成イメージは、符号化フ
ィルタ及び対応するソース層の活性度に基づいて算出さ
れる。
【0011】各再構成ソースイメージは、ソース層の各
部分ソース領域と対応する符号化フィルタとのスカラー
積をとった後に、全ての部分領域について、得られたス
カラー積を結合することによって、算出される。
【0012】本発明のさらなる態様によると、畳み込み
ネットワーク挙動のシミュレーションのための別の方法
が提案される。畳み込みネットワークは、一組の層によ
って定義される。各層は、ニューロンの二次元格子から
構成される。最後の層を除いた各層は、それぞれに後続
するターゲット層のついてのソース層を表す。部分ソー
ス領域と呼ばれるソース層の複数のニューロンは、それ
ぞれ同一の結合重み行列を共有する。本発明によれば、
各結合重み行列は、符号化フィルタと復号化フィルタの
とスカラー積によって表される。各ソース層について、
対応する符号化フィルタと対応する部分ソース領域の活
性度に基づいて、再構成ソースイメージが算出される。
各結合重み行列、各部分ターゲット領域、及び各ターゲ
ット層について、ターゲット層の入力は、先行するソー
ス層の再構成ソースイメージと復号化フィルタの畳み込
みとして算出される。最後に、各ターゲット層につい
て、ターゲット層のニューロンの応答関数及びターゲッ
ト層の計算された入力を使用して、ターゲット層の活性
度が算出される。
【0013】各再構成ソースイメージは、ソース層の各
部分ソース領域と対応する符号化フィルタとのスカラー
積をとった後に、全ての部分領域について、得られたス
カラー積を結合することによって、算出される。
【0014】本発明のさらに別の態様によると、データ
処理デバイス上で実行されるときに上記方法を実現する
コンピュータ・ソフトウェア・プログラムが提案され
る。
【0015】最後に、パターン認識方法の使用(ロボッ
ト等)が提案される。
【0016】
【発明の実施の形態】本発明の第1の理論上の背景を、
図1〜図3を参照して説明する。
【0017】複数の層1,2,3から構成される大抵の
ニューラルネットワーク12で共通であるのは、ニュー
ロン4の活性度Ai(t)の評価のある部分において、す
べてのソース(source)ニューロンjからターゲット
(target)ニューロンi(図1参照)へ到来する信号の
寄与度Aj(t)は、重み行列Ji;jを使用して線形に加算
され、単一のスカラーhi(t)になる。
【0018】
【数1】
【0019】ニューロンのインデックスi、jは、全て
のニューロンを一意に番号付ける。例えば、空間の局所
部分を用いて入力空間(以下、「特徴空間」とも呼ぶ)
を離散的にサンプリングするとき、インデックスは、ニ
ューロンがどの部分に反応しているかを一意に指示する
ことができる。同様に、高次元特徴空間において、i及
びjは、単一のインデックスではなく、それぞれがいく
つかのサブインデックスで構成されていると考えること
ができる。
【0020】ニューロンのインデックスは、ソースタイ
プインデックスkとターゲットタイプインデックスl、
及び、タイプ従属のニューロンインデックスi、jに分
けることができる。つまり、所定のタイプmのすべての
ニューロンの集合をTmで表すとすると、i∈Tk、j∈
lとなる。対応するソースニューロンタイプ及びター
ゲットニューロンタイプの組k、lによって結合タイプ
が一意に決定され、従って式(1)の合計を同一タイプの
結合グループに分割することができる。
【0021】
【数2】
【0022】
【数3】
【0023】
【0024】
【数4】
【0025】事実、「畳み込みネットワーク(図1の1
2)」又は「重み共有ネットワーク」と呼ぶことができ
る多数のニューラルネットワークは、この特定の特性を
利用する。重みを共有することによって、独立のパラメ
ータの数が削減され、またこのようなネットワークが扱
い易くなる。さらに、別個のニューロンi、j(但し、
タイプk、lは固定)に対して同一の重み行列を繰り返
し用いることは、固定されたタイプのすべてのニューロ
ン(すべて同一の重み行列を有する)について学習が事
実上同時に起こることを意味する。
【0026】
【0027】
【0028】大量のフィルタに対しての本発明による解
決策は、フィルタを分解することである。式(2)から開
始する。
【0029】
【数5】
【0030】
【0031】一般の結合カーネルは、前述のように並進
不変であり、また、インデックスを比較可能とするため
に、換算関数i→j、j=L(i)が2つのインデックス
i、jの間の「インタフェース」として動作すると仮定
する。これは、並進不変性の条件に、異なるサイズのn
i、及びni=L(nj)の、i及びjステップの増加を含
めることができることを意味する。従って以下の関係が
成り立つ。
【0032】
【数6】
【0033】もちろん、Lには目的に合った関数が選ば
れるべきであり、例えば、インデックスi、jの自然数
を使用する場合、Lは同じく自然数を返すべきである。
【0034】
【0035】
【数7】
【0036】インデックスi及びjに対して必要な並進
不変性を達成するために、線形関数j→x、x=M(j)
が存在すると仮定すると、以下の式が成り立つ。
【0037】
【数8】
【0038】従って、以下の式が成り立つ。
【0039】
【数9】
【0040】これは、結合カーネルが、共通の空間xに
おけるニューロン依存の位置xi:=M[L(i)] 及び
j:=M(j)を中心とする2つのフィルタのスカラー積
によって与えられる(生成される)ことを意味する。
【0041】並進不変性は、以下のようにして検査する
ことができる。
【0042】
【数10】
【0043】
【0044】この考え方の利点は以下に挙げるように明
白である。
【0045】・n”×n’個のフィルタの代わりにn”
+n’個のフィルタを記憶し処理すれば良いので、畳み
込みネットワークの組み合わせ問題を回避できる。
【0046】・ある結合のタイプによって渡されるソー
スデータを、再構成イメージR(x;t)を用いて視覚化
し変換できる。
【0047】・フィルタと再構成イメージが同一空間で
作用するので、フィルタを分析し、かつフィルタがソー
スデータにどのように作用するのかを理解することがで
きる。
【0048】本発明の考え方は、ソースニューロンの全
体グループ(同一タイプ)からターゲットニューロンの
全体グループ(同一タイプ)に渡されるメッセージを、
それらの間の再構成イメージ(視覚化のために使用でき
る)とともに、符号化/複合化のプロセスとして理解す
ることができることを意味している。このことを、図3
を参照して説明する。
【0049】
【0050】
【0051】・ターゲット層8のニューロンi(図2の
4)の全シナプス入力場(他の結合からの多くの寄与度
を含むことができる)が算出(図2の5)された後、局
所ニューロンダイナミクスの非線形処理ステップ(図2
の6)を適用する。
【0052】・ネットワーク内で識別可能なあらゆる可
能性のある結合タイプについて、上記3つのステップを
繰り返す。
【0053】シナプス場の算出は畳み込みを利用するだ
けなので、フーリエ畳み込み定理を使用して計算を簡単
にすることができる。特に、FFT手法を使用すること
ができる。並進不変の結合構造の場合とは逆に、フーリ
エ技法は提案された技法について意味を持つが、それ
は、k及びlのあらゆる組み合わせについて畳み込みカ
ーネルがあるからでなく、すべてのk及びすべてのlに
ついてのみ記憶する必要があるからである。これは、領
域間のシナプス場の算出について、n”×n’個のフィ
ルタを使用する代わりに、n”+n’個のみが必要であ
ることを意味する。
【0054】標準的な畳み込みネットワークで生じるそ
の他の計算は、以下に示すように、X空間における畳み
込み及び成分の線形結合を用いて記述することができ
る。再構成イメージは、式8を使用して以下のように記
述することができる。
【0055】
【数11】 但し、ソースニューロンlの各タイプについて、部分再
構成ソースイメージは以下の通りである。
【0056】
【数12】 また、部分活性度イメージは以下の通りである。
【0057】
【数13】
【0058】
【0059】
【数14】 そして、ターゲットユニット位置xiでの畳み込みを評
価する。
【0060】
【数15】
【0061】本発明の実施例について、図4を参照して
説明する。
【0062】ステップS1で処理を開始した後、ステッ
プS2でネットワーク結合構造が定義される。この定義
ステップS2とともに、結合を分解する符号化/復号化
フィルタを見つけなくてはならない。このステップS3
の後、シミュレーション・ループS4が開始する。各結
合タイプ及び各ソース領域/部分領域について、初め
に、符号化フィルタとソース層の活性度を使用して、再
構成ソースイメージが算出される。従って、このステッ
プS5において、処理領域(部分領域)のソース層の活
性度とともに符号化フィルタが使用され、再構成ソース
イメージが得られる。このイメージはターゲット領域へ
渡されるが、通信帯域幅の要求は低い。ステップS6
で、ターゲット層の入力は、単に復号化フィルタを再構
成ソースイメージに適用することによって算出される。
これらの2つのステップS5及びS6は、互いに独立に
実行することができるので、容易に並列化することがで
きる。加えて、計算は行列要素演算と離散フーリエ変換
を含むだけなので、システムのハードウェア実現が容易
である。ネットワークのダイナミクスがCAD実行であ
るべき時間の間、シミュレーション・ループが繰り返さ
れる。ステップS7のこの時間の間に、処理がまだ完了
しないことが決定され、従って、手続きはステップS8
でシミュレーション開始ステップS4に戻る。そうでな
い場合は、ステップS9で処理が停止される。
【0063】再構成ソースイメージは、ソース領域から
ターゲットが受け取る情報を最も圧縮した形態で含んで
いる。従って、符号化フィルタ及び復号化フィルタが直
観的な空間(例えば、視覚処理のための二次元空間)で
選択されると、再構成ソースイメージをステップS10
で使用して、ネットワークに沿った通信を視覚化するこ
とができる。
【0064】
【0065】
【0066】本発明を要約すると、畳み込みネットワー
クの2つの層間の結合を記述する重み行列は、付加空間
で伸張する2つのフィルタのスカラー積として記述され
る。付加空間は、通常重み行列がその並進不変性を示す
空間となるように選択される。駆動入力に対する分解及
び線形性の仮定から、1つの層(ソース層)から、次の
層(ターゲット層)まで駆動信号を通信するプロセスを
符号化ステップと復号化ステップに分解することができ
るという結果になる。
【0067】本発明の典型的な応用形態は、パターン認
識(例えば、音響又は視覚)であり、例えばロボットに
使用できる。
【0068】本発明の利点は、以下のように要約するこ
とができる。
【0069】・ネットワーク・ダイナミクス全体の計算
を通してのフーリエ変換の使用により、シミュレーショ
ン計算について最適化された環境及びハードウェアの使
用が可能になる。
【0070】・ネットワークの異なる層間の通信オーバ
ーヘッドの削減により、ネットワーク・ダイナミクス演
算の並列化が可能になる。
【0071】・高次層間の結合を、共通の作業空間(視
覚処理について、通常は二次元網膜座標x、y)上の符
号化フィルタ及び復号化フィルタとして直感的に設計す
ることができる。
【図面の簡単な説明】
【図1】並進不変の畳み込みネットワークを図式的に示
す図である。
【図2】ネットワーク挙動を計算するときの非線形ステ
ップと線形ステップの区切りを示す図である。
【図3】符号化フィルタ、再構成ソースイメージ及び復
号化フィルタによりソース層とターゲット層の間の結合
の分解を説明する図である。
【図4】本発明によって提案された処理を表すフローチ
ャートである。
【図5】ネットワークの活性度に基づいた、再構成イメ
ージの計算(符号化ステップ)を示す図である。
【図6】再構成イメージに基づいた、ネットワークの活
性度の計算(復号化ステップ)を示す図である。
【符号の説明】
1、2、3 層 4 ニューロン 7 ソース層 8 ターゲット層 9 再構成ソースイメージ 10 符号化フィルタ 11 復号化フィルタ 12 畳み込みネットワーク
───────────────────────────────────────────────────── フロントページの続き (71)出願人 501442529 Carl−Legien Strasse 30 63073 Offenbach/Ma in, Germany (72)発明者 ジュリアン・エゲルト ドイツ連邦共和国 63073 オッフェンバ ッハアムマイン市 カール・レギエン・シ ュトラーセ 30 ホンダ アールアンドデ ー ヨーロッパ(ドイッチェラント)ゲー エムベーハー フューチャー・テクノロジ ー・リサーチ内 (72)発明者 ビー・バウム ドイツ連邦共和国 82230 ヴェッセリン グ ドイッチェス ツェントルム フュー ア ルフト ウント ラウムファート デ ィエルアール内 Fターム(参考) 5B056 BB13 BB26 BB31

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 各層がニューロン(4)の二次元格子によ
    って構成され、 最後の層(3)を除いた各層(1,2,3)がそれぞれ後続の
    ターゲット層(8)についてソース層(7)を表し、 部分ソース領域と呼ばれるソース層(7)の複数のニュー
    ロン(4)が同一の結合重み行列を共有する、一組の層
    (1,2,3)で定義された畳み込みネットワーク(12)の
    挙動のシミュレーション方法であって、 各結合重み行列を符号化フィルタ(10)と復号化フィル
    タ(11)とのスカラー積で表して、ソース層(7)からそ
    れぞれのターゲット層(8)への駆動信号の通信を符号化
    フィルタステップと復号化フィルタステップに分解する
    ことを特徴とする、シミュレーション方法。
  2. 【請求項2】 前記符号化フィルタステップは、符号化
    フィルタ(10)及びソース層(7)の活性度に基づいて再
    構成ソースイメージを計算するステップを含み、 前記復号化フィルタステップは、前記再構成ソースイメ
    ージ(9)と前記復号化フィルタ(11)の畳み込みで、前
    記ターゲット層(8)の入力を計算するステップを含むこ
    とを特徴とする、請求項1に記載のシミュレーション方
    法。
  3. 【請求項3】 各部分ソース領域と対応する符号化フィ
    ルタ(10)のスカラー積を求め、全ての部分ソース領域
    のスカラー積の結果を結合することによって前記再構成
    ソースイメージを計算することを特徴とする、請求項2
    に記載のシミュレーション方法。
  4. 【請求項4】 前記符号化フィルタ(10)と前記復号化
    フィルタ(11)が予め設定されているか又は学習過程に
    よって生成されることを特徴とする、請求項2又は3に
    記載のシミュレーション方法。
  5. 【請求項5】 前記符号化フィルタステップ及び前記復
    号化フィルタステップがそれぞれ高速フーリエ変換を用
    いて実行されることを特徴とする、請求項1乃至4のい
    ずれか1項に記載のシミュレーション方法。
  6. 【請求項6】 前記符号化フィルタ(10)及び前記復号
    化フィルタ(11)は、それぞれ対応する結合重み行列が
    並進不変性を示す軸に沿って伸びることを特徴とする、
    請求項5に記載のシミュレーション方法。
  7. 【請求項7】 請求項1乃至6のいずれか1項に記載の
    方法を使用してネットワークの内部状態を視覚化する方
    法であって、 ネットワーク(12)の内部状態が、ソース層と後続する
    ターゲット層の間の各結合に対する1つの再構成ソース
    イメージ(9)によって視覚化され、該再構成イメージ
    (9)は前記符号化フィルタ(10)と対応するソース層
    (7)の活性度に基づいてそれぞれ計算されることを特徴
    とする、視覚化方法。
  8. 【請求項8】 前記ソース層(7)の各部分ソース領域と
    対応する符号化フィルタ(10)のスカラー積を求めるス
    テップと、 全ての部分ソース領域のスカラー積の結果を結合するス
    テップと、によって各再構成ソースイメージ(9)が計算
    されることを特徴とする、請求項7に記載の方法。
  9. 【請求項9】 各層がニューロン(4)の二次元格子によ
    って構成され、 最後の層(3)を除いた各層(1,2,3)がそれぞれ後続の
    ターゲット層(8)についてソース層(7)を表し、 部分ソース領域と呼ばれるソース層(7)の複数のニュー
    ロン(4)が同一の結合重み行列を共有する、一組の層
    (1,2,3)で定義された畳み込みネットワーク(12)の
    挙動のシミュレーション方法であって、 符号化フィルタ(10)と復号化フィルタ(11)のスカラ
    ー積によって各結合重み行列を表すステップ(S3)と、 各ソース層(7)について、対応する符号化フィルタ(1
    0)と対応する部分ソース領域の活性度に基づいて、再
    構成ソースイメージ(9)を計算するステップ(S5)と、 各結合重み行列、各部分ターゲット領域、及び各ターゲ
    ット層について、前記再構成ソースイメージ(9)と前記
    復号化フィルタの畳み込みで前記ターゲット層(8)の入
    力を計算するステップ(S6)と、 各ターゲット層(8)について、前記ターゲット層(8)の
    ニューロン(4)の応答関数と前記ターゲット層(8)の計
    算された入力を使用して、前記ソース層(7)の活性度に
    応答して前記ターゲット層(8)の活性度を計算するステ
    ップと、 を含むことを特徴とする、シミュレーション方法。
  10. 【請求項10】対応するソース層(7)の各部分ソース領
    域と対応する符号化フィルタ(10)のスカラー積を求め
    るステップと、 全ての部分ソース領域のスカラー積の結果を結合するス
    テップによって各再構成ソースイメージ(9)が計算され
    ることを特徴とする、請求項9に記載のシミュレーショ
    ン方法。
  11. 【請求項11】データ処理デバイスで実現されるとき
    に、請求項1乃至10の何れか1項に記載の方法を実現
    することを特徴とする、コンピュータソフトウェアプロ
    グラム。
  12. 【請求項12】パターン認識のために請求項8に記載の
    方法を使用する方法。
JP2002069912A 2001-03-15 2002-03-14 畳み込みネットワーク挙動のシミュレーション方法 Expired - Fee Related JP4132892B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP01106567A EP1241619B1 (en) 2001-03-15 2001-03-15 Simulation of convolutional network behavior and visualizing internal states of a network
EP01106567.9 2001-03-15

Publications (2)

Publication Number Publication Date
JP2002342738A true JP2002342738A (ja) 2002-11-29
JP4132892B2 JP4132892B2 (ja) 2008-08-13

Family

ID=8176804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002069912A Expired - Fee Related JP4132892B2 (ja) 2001-03-15 2002-03-14 畳み込みネットワーク挙動のシミュレーション方法

Country Status (4)

Country Link
US (1) US7236961B2 (ja)
EP (1) EP1241619B1 (ja)
JP (1) JP4132892B2 (ja)
DE (1) DE60140654D1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) * 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法
JP2017534956A (ja) * 2015-05-21 2017-11-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 多言語画像質問応答

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7073151B1 (en) * 2002-06-04 2006-07-04 Cadence Design Systems, Inc. Method and apparatus for identifying a path between a set of source states and a set of target states in a triangulated space
US7549111B2 (en) * 2005-09-21 2009-06-16 International Business Machines Corporation Apparatus, system, and method for converting between serial data and encoded holographic data
CN106599773B (zh) * 2016-10-31 2019-12-24 清华大学 用于智能驾驶的深度学习图像识别方法、系统及终端设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6122403A (en) * 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
WO1996002895A1 (en) * 1994-07-14 1996-02-01 Johnson Grace Company Method and apparatus for compressing images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) * 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法
JP2017534956A (ja) * 2015-05-21 2017-11-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 多言語画像質問応答
US10909329B2 (en) 2015-05-21 2021-02-02 Baidu Usa Llc Multilingual image question answering

Also Published As

Publication number Publication date
DE60140654D1 (de) 2010-01-14
US7236961B2 (en) 2007-06-26
EP1241619B1 (en) 2009-12-02
JP4132892B2 (ja) 2008-08-13
US20030028359A1 (en) 2003-02-06
EP1241619A1 (en) 2002-09-18

Similar Documents

Publication Publication Date Title
Lin et al. FFT-based deep learning deployment in embedded systems
Croall et al. Industrial applications of neural networks: project ANNIE handbook
US5442569A (en) Method and apparatus for system characterization and analysis using finite element methods
US6898583B1 (en) Method and apparatus of creating application-specific, non-uniform wavelet transforms
CN105512723A (zh) 一种用于稀疏连接的人工神经网络计算装置和方法
Ravichandar et al. Learning position and orientation dynamics from demonstrations via contraction analysis
US6976012B1 (en) Method and apparatus of using a neural network to train a neural network
Goebel The mathematics of mental rotations
CN111178545B (zh) 一种动态强化学习决策训练系统
CN114939870B (zh) 模型训练方法和装置、策略优化方法、设备及介质
CN115546888A (zh) 一种基于身体部位分组的对称语义图卷积姿态估计方法
JP2002342738A (ja) 畳み込みネットワーク挙動のシミュレーション方法
US6876779B2 (en) Method and apparatus of reconstructing audio/video/image data from higher moment data
CN114897130A (zh) 一种深度学习模型的转换和推断方法及系统
Sommer 10 The Global Algebraic Frame of the Perception-Action Cycle
CN112907450A (zh) 三维时序图像处理方法、装置、计算机设备和存储介质
Uhr Parallel, hierarchical software/hardware pyramid architectures
Chen Divisible nonlinear load distribution on complete b-Ary trees
Hamdi Parallel architectures for wavelet transforms
Little et al. Computational architectures for responsive vision: the vision engine
WO2023231559A1 (zh) 一种神经网络加速器、加速方法以及装置
Gauthier et al. On certain hyperelliptic signals that are natural controls for nonholonomic motion planning
Ahalt et al. The neural shell: a neural network simulation tool
Zin Using auto-associative neural networks to compress and visualize multidimensional data
Shapiro Programming parallel vision algorithms: a dataflow language approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees