JP7041244B1 - 表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法 - Google Patents

表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法 Download PDF

Info

Publication number
JP7041244B1
JP7041244B1 JP2020219478A JP2020219478A JP7041244B1 JP 7041244 B1 JP7041244 B1 JP 7041244B1 JP 2020219478 A JP2020219478 A JP 2020219478A JP 2020219478 A JP2020219478 A JP 2020219478A JP 7041244 B1 JP7041244 B1 JP 7041244B1
Authority
JP
Japan
Prior art keywords
artificial neural
neural network
rank
layers
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020219478A
Other languages
English (en)
Other versions
JP2022051484A (ja
Inventor
ドンユン ハン
サンドゥ ユン
ビョンホ ホ
ヨンジュン ユ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Application granted granted Critical
Publication of JP7041244B1 publication Critical patent/JP7041244B1/ja
Publication of JP2022051484A publication Critical patent/JP2022051484A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】多様な実施形態に係る電子装置およびその動作方法は、複数の中間層を有する人工ニューラルネットワークに基づき、入力されるデータを処理するように構成される。【解決手段】多様な実施形態によると、人工ニューラルネットワークは、中間層での表現的ボトルネック現象が最小化されるように中間層の加重値マトリックスに対するランクを拡張させるために、中間層のそれぞれに対して入力チャネルサイズが増加され、非線形活性化関数を利用し、中間層の間で拡張層の個数が増加されるように設計される。【選択図】図1

Description

特許法第30条第2項適用 2020年7月2日に「https://arxiv.org/abs/2007.00992」のウェブサイトで公開
多様な実施形態は、表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法に関する。
畳み込みニューラルネットワーク(convolutional neural network:CNN)は、人工ニューラルネットワーク(artificial neural network)の一種であり、データ処理のために幅広く利用されている。畳み込みニューラルネットワークの計算速度を改善するために、中間層(intermediate layer)のディメンション(dimension)が減少されている。しかしながら、中間層のディメンションの減少により、中間層の限定的なランク(rank)によって表現的ボトルネック現象(representational bottleneck)が発生し、これは情報の損失を誘発する。これにより、畳み込みニューラルネットワークの正確性および効率性が低下することがある。
多様な実施形態は、表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびこの動作方法を提供する。
多様な実施形態に係る電子装置の動作方法は、入力されるデータを検出する段階、および複数の中間層を有する人工ニューラルネットワークに基づき、前記データを処理する段階を含み、前記人工ニューラルネットワークは、前記中間層での表現的ボトルネック現象が最小化されるように、前記中間層の加重値マトリックス(weight matrix)に対するランク(rank)が拡張されるように設計されてよい。
多様な実施形態に係るコンピュータプログラムは、前記動作方法を前記電子装置に実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録されてよい。
多様な実施形態に係る記録媒体は、前記動作方法を前記電子装置に実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能なものとして構成されてよい。
多様な実施形態に係る電子装置は、メモリ、および前記メモリと連結し、前記メモリに記録される少なくとも1つの命令を実行するように構成されたプロセッサを含み、前記プロセッサは、複数の中間層を有する人工ニューラルネットワークに基づき、入力されるデータを処理するように構成され、前記人工ニューラルネットワークは、前記中間層での表現的ボトルネック現象が最小化されるように、前記中間層の加重値マトリックスに対するランクが拡張されるように設計されてよい。
多様な実施形態によると、電子装置は、表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づき、データを処理してよい。このとき、人工ニューラルネットワークは、中間層の加重値マトリックスに対するランクが拡張されるように設計され、これにより、人工ニューラルネットワークで発生し得る表現的ボトルネック現象が最小化される。より詳細には、人工ニューラルネットワークは、中間層のそれぞれに対して入力チャネルサイズが増加され、非線形活性化関数を利用し、中間層の間で拡張層の個数が増加されるように設計されることにより、中間層の加重値マトリックスに対するランクが拡張される。これにより、人工ニューラルネットワークで表現的ボトルネック現象による情報の損失を防ぎ、人工ニューラルネットワークの正確性および効率性のような性能を向上させることができる。
多様な実施形態に係る、電子装置を示した図である。 多様な実施形態に係る、人工ニューラルネットワークを説明するための図である。 多様な実施形態に係る、人工ニューラルネットワークを説明するための図である。 多様な実施形態に係る、人工ニューラルネットワークを説明するための図である。 多様な実施形態に係る、電子装置の動作方法を示した図である。
以下、本文書の多様な実施形態について、添付の図面を参照しながら説明する。
図1は、多様な実施形態に係る、電子装置100を示した図である。
図2、図3、および図4は、多様な実施形態に係る、人工ニューラルネットワークを説明するための図である。
図1を参照すると、多様な実施形態に係る電子装置100は、カメラモジュール110、連結端子120、通信モジュール130、入力モジュール140、表示モジュール150、オーディオモジュール160、メモリ170、またはプロセッサ180のうちの少なくともいずれか1つを含んでよい。一実施形態において、電子装置100の構成要素のうちの少なくともいずれか1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態では、少なくとも、電子装置100の構成要素のうちのいずれか2つが、1つの統合された回路によって実現されてよい。例えば、電子装置100は、スマートフォン(smart phone)、携帯電話、ナビゲーション、コンピュータ、ノート型PC、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、タブレット、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、家電機器、医療機器、ロボット(robot)、またはサーバのうちの少なくともいずれか1つを含んでよい。
カメラモジュール110は、電子装置100で映像を撮影してよい。このとき、カメラモジュール110は、電子装置100の予め定められた位置に設置され、映像を撮影してよい。また、カメラモジュール110は、映像データを生成してよい。例えば、カメラモジュール110は、少なくとも、レンズ、少なくとも1つのイメージセンサ、イメージシグナルプロセッサ、またはフラッシュのうちのいずれか1つを含んでよい。
連結端子120は、電子装置100と外部装置102とを物理的に連結してよい。例えば、外部装置102は、他の電子装置を含んでよい。このために、連結端子120は、少なくとも1つのコネクタを含んでよい。例えば、コネクタは、少なくとも、HDMIコネクタ、USBコネクタ、SDカードコネクタ、またはオーディオコネクタのうちのいずれか1つを含んでよい。
通信モジュール130は、電子装置100と外部装置102、104との通信を実行してよい。通信モジュール130は、電子装置100と外部装置102、104との間の通信チャネルを樹立し、通信チャネルを介し、外部装置102、104との通信を実行してよい。ここで、外部装置102、104は、少なくとも、衛星、基地局、サーバ、または他の電子装置のうちのいずれか1つを含んでよい。通信モジュール130は、少なくとも、有線通信モジュールまたは無線通信モジュールのうちのいずれか1つを含んでよい。有線通信モジュールは、連結端子120を介し、外部装置102と有線で連結し、有線で通信してよい。無線通信モジュールは、少なくとも、近距離通信モジュールまたは遠距離通信モジュールのうちのいずれか1つを含んでよい。近距離通信モジュールは、外部装置102と近距離通信方式によって通信してよい。例えば、近距離通信方式は、少なくとも、ブルートゥース(Bluetooth)(登録商標)、Wi-Fiダイレクト(Wi-Fi direct)、または赤外線通信(IrDA:infrared data association)のうちのいずれか1つを含んでよい。遠距離通信モジュールは、外部装置104と遠距離通信方式によって通信してよい。ここで、遠距離通信モジュールは、ネットワーク190を介して外部装置104と通信してよい。例えば、ネットワーク190は、少なくとも、セルラネットワーク、インターネット、またはLAN(local area network)やWAN(wide area network)のようなコンピュータネットワークのうちのいずれか1つを含んでよい。
入力モジュール140は、電子装置100の少なくとも1つの構成要素に使用される信号を入力してよい。入力モジュール140は、少なくとも、ユーザが電子装置100に直接的に信号を入力するように構成される入力装置、または周辺環境を感知して信号を発生するように構成されるセンサ装置のうちのいずれか1つを含んでよい。例えば、入力装置は、少なくとも、マイクロフォン(microphone)、マウス(mouse)、またはキーボード(keyboard)のうちのいずれか1つを含んでよい。一実施形態において、センサ装置は、少なくとも、タッチを感知するように設定されたタッチ回路(touch circuitry)、またはタッチによって発生する力の強度を測定するように設定されたセンサ回路のうちのいずれか1つを含んでよい。
表示モジュール150は、電子装置100で視覚的に情報を表示してよい。例えば、表示モジュール150は、少なくとも、ディスプレイ、ホログラム装置、またはプロジエクタのうちのいずれか1つを含んでよい。一例として、表示モジュール150は、少なくとも、入力モジュール140のタッチ回路またはセンサ回路のうちのいずれか1つと組み立てられ、タッチスクリーンとして実現されてよい。
オーディオモジュール160は、電子装置100でオーディオ信号を処理してよい。オーディオモジュール160は、少なくとも、オーディオ入力モジュールまたはオーディオ出力モジュールのうちのいずれか1つを含んでよい。オーディオ入力モジュールは、入力モジュール140に入力される音からオーディオ信号を取得してよい。オーディオ出力モジュールは、オーディオ信号を音として出力してよい。例えば、オーディオ出力装置は、少なくとも、スピーカまたはレシーバのうちのいずれか1つを含んでよい。
メモリ170は、電子装置100の少なくとも1つの構成要素が使用する多様なデータを記録してよい。例えば、メモリ170は、少なくとも、揮発性メモリまたは不揮発性メモリのうちのいずれか1つを含んでよい。データは、少なくとも1つのプログラム、およびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ170に少なくとも1つの命令を含むソフトウェアとして記録されてよく、例えば、少なくとも、オペレーティングシステム、ミドルウェア、またはアプリケーションのうちのいずれか1つを含んでよい。
プロセッサ180は、メモリ170のプログラムを実行し、電子装置100の少なくとも1つの構成要素を制御してよい。これにより、プロセッサ180は、データ処理または演算を実行してよい。このとき、プロセッサ160は、メモリ170に記録された命令を実行してよい。プロセッサ180は、人工ニューラルネットワーク(artificial neural network)に基づき、データを処理してよい。人工ニューラルネットワークは、入力層(input layer)、出力層(output layer)、および入力層と出力層との間の複数の中間層(intermediate layer)を含んでよい。各中間層は、少なくとも、入力側層または出力側層のうちのいずれか1つであってよい。言い換えれば、隣接する2つの中間層のそれぞれが、入力側層と出力側層とであってよい。ここで、拡張層(expand layer)および圧縮層(condense layer)が定義されてよい。拡張層は、出力側層のディメンション(d)が入力側層のディメンション(di-1)よりも大きいとき(d>di-1)の出力側層としての中間層を示してよい。圧縮層は、入力側層のディメンションが出力側層のディメンションよりも大きいとき(di-1>d)の出力側層としての中間層を示してよい。
多様な実施形態によると、中間層での表現的ボトルネック現象(representational bottleneck)を最小化するために、人工ニューラルネットワークは、中間層の加重値マトリックス(weight matrix)に対するランク(rank)が拡張されるように設計されてよい。このために、人工ニューラルネットワークは、次の3つの条件に基づいて設計されてよい。例えば、人工ニューラルネットワークは、畳み込みニューラルネットワーク(convolutional neural network:CNN)を含んでよい。一例として、畳み込みニューラルネットワークの中間層、例えば、畳み込み層(convolutional layer)が、次の条件に基づいて設計されてよい。他の例として、畳み込みニューラルネットワークの中間層のうちのペナルト層(penultimate layer)が、次の条件に基づいて設計されてよい。
最初の条件は、中間層のそれぞれに対して入力チャネルサイズ(input channel size)が増加されるように設計されなければならないという点であってよい。入力チャネルサイズとは、各中間層でのインプットディメンション(input dimension)(din)に対するアウトプットディメンション(output dimension)(dout)の割合(din/dout)を示してよい。ここで、アウトプットディメンション(dout)は、該当の中間層のディメンション(d)を示し、インプットディメンション(din)は、該当の中間層に対する入力側層のディメンション(di-1)を示してよい。すなわち、該当の中間層のディメンション(d)が固定されるとき、該当の中間層に対する入力側層のディメンション(di-1)が拡張されることにより、入力チャネルサイズが増加されてよい。
次の条件は、非線形活性化関数(nonlinear activation function)を利用するように設計されなければならないという点であってよい。ここで、非線形活性化関数は、0が少ない関数として決定されてよい。
i-番目の中間層の加重値マトリックスWiに基づき、該当の中間層によって生成されるi-番目の特徴(feature)が
Figure 0007041244000002

として与えられるとき、加重値マトリックスWiに対するランクrank(Xi)は、該当の中間層のディメンション
Figure 0007041244000003

と該当の中間層の入力側層のディメンション(di-1)のうちの最小値に限定されてよい。
Figure 0007041244000004

であるが、ここで、oは、他の点ごとの乗算関数gとの点ごとの乗算(pointwise multiplication)を示してよい。不等式
Figure 0007041244000005

によると、加重値マトリックスWiに対するランクrank(Xi)は、下記の数式(1)のように、rank(Wii-1)と点ごとの乗算関数gによって限定されてよい。
Figure 0007041244000006
前記数式(1)によると、i-番目の中間層の加重値マトリックスWiに対するランクrank(Xi)は、rank(Wii-1)が増加されることにより、拡張されてよい。すなわち、i-番目の中間層の加重値マトリックスWiに対するランクrank(Xi)は、該当の中間層の入力側層のディメンションdi-1が増加されることにより、拡張されてよい。同時に、前記数式(1)によると、i-番目の中間層の加重値マトリックスWiに対するランクrank(Xi)は、適切な点ごとの乗算関数giが利用されることにより、拡張されてよい。すなわち、i-番目の中間層の加重値マトリックスWiに対するランクrank(Xi)は、非線形活性化関数を点ごとの乗算関数giとして利用することにより、拡張されてよい。
最初の条件と次の条件とに基づいて人工ニューラルネットワークが設計される場合、図2に示すように、入力チャネルサイズが増加されることにより、ランクが線形的に拡張されてよい。具体的には、図2(a)に示すように、各中間層に対して入力チャネルサイズが増加されることにより、ランクが線形的に拡張されてよい。また、図2(b)に示すように、複数の中間層に対して入力チャネルサイズが増加されることにより、ランクが線形的に拡張されてよい。
最後の条件は、中間層の間で拡張層の個数が増加されるように設計されなければならないという点であってよい。ここで、拡張層の個数は、2と中間層の個数よりも1だけ少ない数との間のある1つの値であってよい。例えば、中間層の個数が5つであるとき、拡張層の個数は、2つ、3つ、または4つであってよい。ここで、中間層の個数が5つであるとき、下記の表1のように、拡張層の個数および中間層のディメンション構成により、ランクが検出されてよい。
Figure 0007041244000007
最後の条件に基づいて人工ニューラルネットワークが設計される場合、図3に示すように、拡張層の個数が増加されることにより、ランクが線形的に拡張されてよい。例えば、中間層の個数が5つであるとき、図3(a)に示すように、中間層の間で拡張層の個数が増加されることにより、ランクが拡張されてよい。また、中間層の個数が5つであるとき、図3(b)に示すように、表現的ボトルネック現象が発生したとしても、中間層の間で拡張層の個数が増加されることにより、ランクが線形的に拡張されてよい。
多様な実施形態によると、上述した3つの条件に基づいて人工ニューラルネットワークが設計されることにより、ランクが拡張されてよい。具体的に、図4(a)は、従来の人工ニューラルネットワークの特異値分布を示しており、図4(b)は、多様な実施形態に係る人工ニューラルネットワークの特異値分布を示している。図4の(a)と(b)とを比較すると、多様な実施形態に係る人工ニューラルネットワークに比べ、従来の人工ニューラルネットワークは、0に近い特異値を有していることが分かる。ここで、特異値が0に近いということは、ランクが低いということを意味する。すなわち、従来の人工ニューラルネットワークに比べ、多様な実施形態に係る人工ニューラルネットワークは、より拡張されたランクを有することができる。
上述したようなランクの拡張により、多様な実施形態に係る人工ニューラルネットワークのデータの処理性能を向上させることができる。これを確認するために、下記の表2のように、従来の人工ニューラルネットワークと多様な実施形態に係る人工ニューラルネットワークのそれぞれに基づき、多様なタイプのイメージが処理された。ここで、イメージから特徴、例えば、食べ物に関する特徴、自動車に関する特徴、航空機に関する特徴、および花に関する特徴を区別する性能が測定された。この結果、従来の人工ニューラルネットワークに比べ、多様な実施形態に係る人工ニューラルネットワークは、少ない数のパラメータを利用しながらも、高い性能でイメージから特徴を区別した。言い換えれば、多様な実施形態に係る人工ニューラルネットワークが上述した3つの条件に基づいて設計されることにより、より高い性能でデータを処理することができる。
Figure 0007041244000008
例えば、多様な実施形態に係る人工ニューラルネットワークは、下記の表3または表4のようなディメンション構成で設計されてよい。一例として、人工ニューラルネットワークは、下記の表3のように、中間層に対して約11.5ずつ増加されるディメンション構成で設計されてよい。他の例として、人工ニューラルネットワークは、下記の表4のように、中間層に対して約48ずつ増加されるディメンション構成で設計されてよい。
Figure 0007041244000009
Figure 0007041244000010
図5は、多様な実施形態における、電子装置100の動作方法を示した図である。
図5を参照すると、電子装置100は、段階510で、入力されるデータを検出してよい。次に、電子装置100は、段階520で、人工ニューラルネットワークに基づき、データを処理してよい。例えば、人工ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を含んでよい。
多様な実施形態によると、中間層での表現的ボトルネック現象が最小化されるように、人工ニューラルネットワークは、中間層の加重値マトリックスに対するランクが拡張されるように設計されてよい。このために、人工ニューラルネットワークは、次の3つの条件に基づき、設計されてよい。
最初の条件は、中間層のそれぞれに対して入力チャネルサイズが増加されるように設計されなければならないという点であってよい。入力チャネルサイズとは、各中間層でのインプットディメンション(din)に対するアウトプットディメンション(dout)の割合(din/dout)を示してよい。ここで、アウトプットディメンション(dout)は、該当の中間層のディメンション(d)を示し、インプットディメンション(din)は、該当の中間層に対する入力側層のディメンション(di-1)を示してよい。すなわち、該当の中間層のディメンション(d)が固定されるとき、該当の中間層に対する入力側層のディメンション(di-1)が拡張されることにより、入力チャネルサイズが増加されてよい。
次の条件は、非線形活性化関数を利用するように設計されなければならないという点であってよい。ここで、非線形活性化関数は、0が少ない関数として決定されてよい。
最後の条件は、中間層の間で拡張層の個数が増加されるように設計されなければならないという点であってよい。ここで、拡張層の個数は、2と中間層の個数よりも1だけ少ない数との間のある1つの値であってよい。例えば、中間層の個数が5つであるとき、拡張層の個数は、2つ、3つ、または4つであってよい。
多様な実施形態によると、電子装置100は、表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づいてデータを処理してよい。このとき、人工ニューラルネットワークは、中間層の加重値マトリックスに対するランクが拡張されるように設計され、これにより、人工ニューラルネットワークで発生し得る表現的ボトルネック現象が最小化されてよい。より詳細には、人工ニューラルネットワークは、中間層のそれぞれに対して入力チャネルサイズが増加され、非線形活性化関数を利用し、中間層の間で拡張層の個数が増加されるように設計されることにより、中間層の加重値マトリックスに対するランクが拡張されてよい。これにより、人工ニューラルネットワークで表現的ボトルネック現象による情報の損失を防ぎ、人工ニューラルネットワークの正確性および効率性のような性能を向上させることができる。
多様な実施形態に係る電子装置100の動作方法は、入力されるデータを検出する段階510、および複数の中間層を有する人工ニューラルネットワークに基づき、データを処理する段階520を含んでよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層での表現的ボトルネック現象が最小化するように、中間層のそれぞれの加重値マトリックスに対するランクが拡張されるように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、中間層のそれぞれに対して入力チャネルサイズが増加されるように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、非線形活性化関数を利用するように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、中間層の間で拡張層の個数が増加されるように設計されてよい。
多様な実施形態によると、入力チャネルサイズは、インプットディメンション(input dimension)に対するアウトプットディメンション(output dimension)の割合を示してよい。
多様な実施形態によると、拡張層のそれぞれは、出力側層のディメンションが入力側層のディメンションよりも大きいときの出力側層であり、入力側層は、中間層のうちのいずれか1つであり、出力側層は、中間層のうちの他の1つであって、入力側層に隣接するものであってよい。
多様な実施形態によると、ランクは、入力チャネルサイズが増加されることにより、線形的に拡張されてよい。
多様な実施形態によると、ランクは、拡張層の個数が増加されることにより、線形的に拡張されてよい。
多様な実施形態によると、拡張層の個数は、2と中間層の個数よりも1だけ少ない数との間のある1つの値であってよい。
多様な実施形態に係る電子装置100は、メモリ170、およびメモリ170と連結し、メモリ170に記録される少なくとも1つの命令を実行するように構成された、プロセッサ180とを含んでよい。
多様な実施形態によると、プロセッサ180は、複数の中間層を有する人工ニューラルネットワークに基づき、入力されるデータを処理するように構成されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層での表現的ボトルネック現象が最小化されるように、中間層の加重値マトリックスに対するランクが拡張されるように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、中間層のそれぞれに対して入力チャネルサイズが増加されるように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、非線形活性化関数を利用するように設計されてよい。
多様な実施形態によると、人工ニューラルネットワークは、中間層のランクを拡張させるために、中間層の間で拡張層の個数が増加されるように設計されてよい。
多様な実施形態によると、入力チャネルサイズは、インプットディメンションに対するアウトプットディメンションの割合を示してよい。
多様な実施形態によると、拡張層のそれぞれは、出力側層のディメンションが入力側層のディメンションよりも大きいときの出力側層であり、入力側層は、中間層のうちのいずれか1つであり、出力側層は、中間層のうちの他の1つであって、入力側層に隣接するものであってよい。
多様な実施形態によると、ランクは、入力チャネルサイズが増加されることにより、線形的に拡張されてよい。
多様な実施形態によると、ランクは、拡張層の個数が増加されることにより、線形的に拡張されてよい。
多様な実施形態によると、拡張層の個数は、2と中間層の個数よりも1だけ少ない数との間のある1つの値であってよい。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるものとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことを理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてもよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
多様な実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
本文書の多様な実施形態およびこれに使用された用語は、本文書に記載された技術を特定の実施形態に対して限定しようとするものではなく、該当の実施形態の多様な変更、均等物、および/または置換物を含むものと理解されなければならない。図面の説明に関し、類似する構成要素には類似の参照符号が付与されてよい。単数の表現は、文脈において明らかに異なるように意味されない限り、複数の表現を含んでよい。本文書において、「AまたはB」、「Aおよび/またはBのうちの少なくとも1つ」、「A、B、またはC」、または「A、B、および/またはCのうちの少なくとも1つ」などの表現は、ともに羅列された項目のすべての可能な組み合わせを含んでよい。「第1」、「第2」、「1番目」、または「2番目」などの表現は、該当の構成要素を、順序または重要度に関係なく修飾してよく、ある構成要素を他の構成要素と区分するために使用されるものに過ぎず、該当の構成要素を限定しない。ある(例:第1)構成要素が他の(例:第2)構成要素に「(機能的にまたは通信的に)連結されて」いるとか「接続されて」いるとされるときには、前記ある構成要素が前記他の構成要素に直接的に連結されてもよいし、他の構成要素(例:第3構成要素)を介して連結されてもよい。
本文書で使用された用語「モジュール」は、ハードウェア、ソフトウェア、またはファームウェアで構成されたユニットを含み、例えば、ロジック、論理ブロック、部品、または回路などの用語と相互互換的に使用されてよい。モジュールは、一体で構成された部品、または1つまたはそれ以上の機能を実行する最小単位、またはその一部となってよい。例えば、モジュールは、ASIC(application-specific integrated circuit)で構成されてよい。
多様な実施形態によると、記述した構成要素のそれぞれの構成要素(例:モジュールまたはプログラム)は、単数または複数の個体を含んでよい。多様な実施形態によると、上述した該当の構成要素のうちの1つ以上の構成要素または段階が省略されてもよいし、または1つ以上の他の構成要素または段階が追加されてもよい。大体的にまたは追加的に、複数の構成要素(例:モジュールまたはプログラム)は、1つの構成要素として統合されてよい。このような場合、統合された構成要素は、複数の構成要素それぞれの構成要素の1つ以上の機能を、統合以前に複数の構成要素のうちの該当の構成要素によって実行されることと同一または類似に実行してよい。多様な実施形態によると、モジュール、プログラム、または他の構成要素によって実行される段階は、順次的に、並列的に、反復的に、または発見的に実行されてもよいし、段階のうちの1つ以上が他の順序で実行されてもよいし、省略されてもよいし、または1つ以上の他の段階が追加されてもよい。
100:電子装置
102、104:外部装置
110:カメラモジュール
120:連結端子
130:通信モジュール
140:入力モジュール
150:表示モジュール
160:オーディオモジュール
170:メモリ
180:プロセッサ
190:ネットワーク

Claims (20)

  1. 電子装置の動作方法であって、
    入力されるデータを検出する段階、および
    複数の中間層を有する人工ニューラルネットワークに基づき、前記データを処理する段階を含み、
    前記人工ニューラルネットワークは、
    前記中間層での表現的ボトルネック現象が最小化されるように、前記中間層のそれぞれの加重値マトリックスに対するランクが拡張されるように設計される、
    動作方法。
  2. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、前記中間層のそれぞれに対して入力チャネルサイズが増加されるように設計される、
    請求項1に記載の動作方法。
  3. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、非線形活性化関数を利用するように設計される、
    請求項1に記載の動作方法。
  4. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、前記中間層の間で拡張層の個数が増加されるように設計される、
    請求項1に記載の動作方法。
  5. 前記入力チャネルサイズは、
    インプットディメンションに対するアウトプットディメンションの割合を示す、
    請求項2に記載の動作方法。
  6. 前記拡張層のそれぞれは、出力側層のディメンションが入力側層のディメンションよりも大きいときの前記出力側層であり、
    前記入力側層は、前記中間層のうちのいずれか1つであり、前記出力側層は、前記中間層のうちの他の1つであって、前記入力側層に隣接するものである、
    請求項4に記載の動作方法。
  7. 前記ランクは、
    前記入力チャネルサイズが増加されることにより、線形的に拡張される、
    請求項2に記載の動作方法。
  8. 前記ランクは、
    前記拡張層の個数が増加されることにより、線形的に拡張される、
    請求項4に記載の動作方法。
  9. 前記拡張層の個数は、
    2と前記中間層の個数よりも1だけ少ない数との間のある1つの値である、
    請求項4に記載の動作方法。
  10. 請求項1~9のうちのいずれか一項に記載の動作方法を前記電子装置に実行させる、コンピュータプログラム。
  11. 請求項1~9のうちのいずれか一項に記載の動作方法を前記電子装置に実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能な記録媒体。
  12. 電子装置であって、
    メモリ、および
    前記メモリと連結し、前記メモリに記録された少なくとも1つの命令を実行するように構成された、プロセッサを含み、
    前記プロセッサは、
    複数の中間層を有する人工ニューラルネットワークに基づき、入力されるデータを処理するように構成され、
    前記人工ニューラルネットワークは、
    前記中間層での表現的ボトルネック現象が最小化されるように、前記中間層の加重値マトリックスに対するランクが拡張されるように設計される、
    電子装置。
  13. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、前記中間層のそれぞれに対して入力チャネルサイズが増加されるように設計される、
    請求項12に記載の電子装置。
  14. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、非線形活性化関数を利用するように設計される、
    請求項12に記載の電子装置。
  15. 前記人工ニューラルネットワークは、
    前記中間層の前記ランクを拡張させるために、前記中間層の間で拡張層の個数が増加されるように設計される、
    請求項12に記載の電子装置。
  16. 前記入力チャネルサイズは、
    インプットディメンションに対するアウトプットディメンションの割合を示す、
    請求項13に記載の電子装置。
  17. 前記拡張層のそれぞれは、出力側層のディメンションが入力側層のディメンションよりも大きいときの前記出力側層であり、
    前記入力側層は、前記中間層のうちのいずれか1つであり、前記出力側層は、前記中間層のうちの他の1つであって、前記入力側層に隣接するものである、
    請求項15に記載の電子装置。
  18. 前記ランクは、
    前記入力チャネルサイズが増加されることにより、線形的に拡張される、
    請求項13に記載の電子装置。
  19. 前記ランクは、
    前記拡張層の個数が増加されることにより、線形的に拡張される、
    請求項15に記載の電子装置。
  20. 前記拡張層の個数は、
    2と前記中間層の個数よりも1だけ少ない数との間のある1つの値である、
    請求項15に記載の電子装置。
JP2020219478A 2020-09-18 2020-12-28 表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法 Active JP7041244B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200120504A KR102427737B1 (ko) 2020-09-18 2020-09-18 표현적 병목 현상이 최소화된 인공 신경망을 기반으로 하는 전자 장치 및 그의 동작 방법
KR10-2020-0120504 2020-09-18

Publications (2)

Publication Number Publication Date
JP7041244B1 true JP7041244B1 (ja) 2022-03-23
JP2022051484A JP2022051484A (ja) 2022-03-31

Family

ID=80854992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020219478A Active JP7041244B1 (ja) 2020-09-18 2020-12-28 表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法

Country Status (2)

Country Link
JP (1) JP7041244B1 (ja)
KR (1) KR102427737B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5242062B2 (ja) 2007-02-09 2013-07-24 田中貴金属工業株式会社 ハイドロキシアパタイト粒子分散金属膜及びその形成方法
JP2017525038A (ja) 2014-07-16 2017-08-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークにおける畳込み演算の分解
WO2019146189A1 (ja) 2018-01-29 2019-08-01 日本電気株式会社 ニューラルネットワークのランク最適化装置および最適化方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242062A (ja) * 1992-02-26 1993-09-21 Matsushita Graphic Commun Syst Inc ニューラルネット中間層ユニット数の決定方法
CN107633295B (zh) * 2017-09-25 2020-04-28 南京地平线机器人技术有限公司 用于适配神经网络的参数的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5242062B2 (ja) 2007-02-09 2013-07-24 田中貴金属工業株式会社 ハイドロキシアパタイト粒子分散金属膜及びその形成方法
JP2017525038A (ja) 2014-07-16 2017-08-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークにおける畳込み演算の分解
WO2019146189A1 (ja) 2018-01-29 2019-08-01 日本電気株式会社 ニューラルネットワークのランク最適化装置および最適化方法

Also Published As

Publication number Publication date
KR20220037711A (ko) 2022-03-25
JP2022051484A (ja) 2022-03-31
KR102427737B1 (ko) 2022-08-01

Similar Documents

Publication Publication Date Title
JP6912583B2 (ja) サービス処理方法および装置
TWI743458B (zh) 一種並行化執行區塊鏈交易的方法、裝置及系統
CN108733342B (zh) 音量调节方法、移动终端及计算机可读存储介质
CN109614372B (zh) 一种对象存储、读取方法、装置、及业务服务器
WO2017005085A1 (zh) 一种数据压缩方法、装置及终端
TW201644141A (zh) 異種電池細胞格切換
US9715502B1 (en) Distributed data migration using chunking
US20160269674A1 (en) Dynamic Video Capture Rate Control
US10028059B2 (en) Headphone and associated host apparatus supporting both digital and analog audio connectivity
CN110244963B (zh) 数据更新方法、装置及终端设备
KR102034661B1 (ko) 뉴럴네트워크를 위한 데이터 양자화 방법 및 장치
CN110650209A (zh) 实现负载均衡的方法和装置
CN111831448A (zh) 请求的处理方法、装置和电子设备
CN107977418A (zh) 一种截屏图片管理方法、截屏图片管理装置及移动终端
JP7041244B1 (ja) 表現的ボトルネック現象が最小化された人工ニューラルネットワークに基づく電子装置およびその動作方法
JP6440721B2 (ja) コンピューティングデバイスによるアプリケーションの使用の認証
CN106233274B (zh) 一种在计算装置之间同步文件的方法、系统和计算装置
KR20220101847A (ko) 전자 장치 및 전자 장치의 스토리지 운영 방법
US20150178101A1 (en) Adjusting settings based on sensor data
KR20200040554A (ko) 전자 장치, 외부 전자 장치 및 전자 장치를 이용한 외부 전자 장치를 제어하는 방법
KR20200068275A (ko) 저장 장치를 초기화하는 방법 및 전자 장치
CN112732426B (zh) 一种动态调整任务优先级的方法、系统、设备及介质
CN110633105B (zh) 指令序列处理方法、装置、电子设备和存储介质
EP3591926A1 (en) Providing connectivity for a plurality of iot devices
US9471782B2 (en) File scanning method and system, client and server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201228

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210107

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350