JP2022178980A - 機械学習プログラム、機械学習方法および情報処理装置 - Google Patents

機械学習プログラム、機械学習方法および情報処理装置 Download PDF

Info

Publication number
JP2022178980A
JP2022178980A JP2021086149A JP2021086149A JP2022178980A JP 2022178980 A JP2022178980 A JP 2022178980A JP 2021086149 A JP2021086149 A JP 2021086149A JP 2021086149 A JP2021086149 A JP 2021086149A JP 2022178980 A JP2022178980 A JP 2022178980A
Authority
JP
Japan
Prior art keywords
channel
machine learning
computational complexity
pruning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021086149A
Other languages
English (en)
Inventor
虹 高
Kou Kou
靖文 坂井
Yasubumi Sakai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021086149A priority Critical patent/JP2022178980A/ja
Priority to EP22161995.0A priority patent/EP4092579A1/en
Priority to US17/699,172 priority patent/US20220374716A1/en
Priority to CN202210339270.XA priority patent/CN115374900A/zh
Publication of JP2022178980A publication Critical patent/JP2022178980A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】推論の精度の低下を抑制し処理を高速化すること。【解決手段】機械学習プログラムは、ニューラルネットワークを分割し、分割された各部分ネットワークの計算量を算出し、前記各部分ネットワークの計算量と前記各部分ネットワークに含まれるバッチノーマライゼーション層における各チャネルのスケーリング係数とに基づいて、プルーニングを行う対象のチャネルを決定し、前記対象のチャネルに基づくプルーニングを実行する。【選択図】図6

Description

本発明は、情報処理装置等に関する。
ニューラルネットワークを用いた情報処理装置の処理を高速化させる技術としてプルーニング技術が知られている。プルーニング技術では、ニューラルネットワークを用いた推論の精度に与える影響が小さいノード、チャネル、レイヤ等を削除することにより、推論の精度を維持しつつ、推論時の計算量を減らし、処理を高速化することができる。
国際公開第2020/149178号 特表2019-522850号公報 米国特許出願公開第2019/0340493号明細書
しかしながら、上述した技術では、ニューラルネットワークの構成等によっては、プルーニングの効果も十分に得られない場合もある。例えば、複数のコンポーネントを持つ複雑なニューラルネットワークに適用する場合、プルーニングにより、精度が大幅に低下し、高速化の効果も小さい。
1つの側面では、推論の精度の低下を抑制し処理を高速化することができる機械学習プログラム、機械学習方法および情報処理装置を提供することを目的とする。
第1の案では、機械学習プログラムは、ニューラルネットワークを分割し、分割された各部分ネットワークの計算量を算出し、前記各部分ネットワークの計算量と前記各部分ネットワークに含まれるバッチノーマライゼーション層における各チャネルのスケーリング係数とに基づいて、プルーニングを行う対象のチャネルを決定し、前記対象のチャネルに基づくプルーニングを実行する、処理をコンピュータに実行させる。
一実施形態によれば、推論の精度の低下を抑制し処理を高速化することができることができる。
図1は、実施例に係る情報処理装置における処理を説明する図である。 図2は、BN層の機能を説明する図である。 図3は、L1正則化学習を説明する図である。 図4は、参考技術においてプルーニング率を増大させた場合のロスの増加率を示す図である。 図5は、参考技術においてプルーニング率を増大させた場合のロスの増加率を示す図である。 図6は、実施例に係る情報処理装置の機能構成を示す機能ブロック図である。 図7は、実施例に係る情報処理装置の処理手順を示すフローチャートである。 図8は、各機能の計算割合を示す図である。 図9は、実施例に係る情報処理装置においてプルーニング率を増大させた場合のロスの増加率を示す図である。 図10は、従来技術と実施例との比較結果を示す図である。 図11は、ハードウェア構成例を説明する図である。
以下に、本願の開示する機械学習プログラム、機械学習方法および情報処理装置の実施例を図面に基づいて説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、実施例に係る情報処理装置における処理を説明する図である。図1に示す処理は、情報処理装置において実行されるニューラルネットワークを用いた処理であり、例えばJetson nano等の低コストの情報処理装置によるtrt-pose(人の関節を認識するネットワーク)に適用することができる。情報処理装置は、入力データ(input)Iに対して、コンポーネントC1~C9に示す各種処理を実行し、出力データ(cmap,paf)O1,O2を出力する。
ここで、上記ニューラルネットワークに対するプルーニングに関する参考技術を説明する。参考技術では、コンポーネントのバッチノーマライゼーション(BN:Batch Normalization)層の出力にかけるスケーリング係数γを用いてプルーニングするチャネルを決定する。なお、コンポーネントがBN層を有しない場合、コンポーネントにBN層を挿入してプルーニングを実行し、BN層が出力する値は参考値として削除すればよい。
図2は、BN層の機能を説明する図である。図2に示すように、チャネル1~nがある場合、以下の式(1)を用いて、各チャネルの入力zinを平均0、分散1の分布に正規化した出力z’とするための平均値μと分散σ とを計算するノーマライゼーション処理を実行する。なお、下付き文字のBは、現在計算対象としているチャネルに対応する。
Figure 2022178980000002
さらに、以下の式(2)を用いて、正規化された分布である出力z’に、スケーリング係数γをかけてスケーリングを行い、バイアスβを加えてシフトすることにより各チャネルの出力zoutを算出するスケーリング処理を実行する。
Figure 2022178980000003
ここで、L1正則化による訓練(Lasso回帰)をスケーリング係数γに適用し、繰り返し訓練を実行する。L1正則化において、損失関数Lは、以下の式(3)により算出される。式(3)において、第1項は元の損失関数、第2項はL1正則化項である。L1正則化では、g(r)=|γ|を使用する。
Figure 2022178980000004
図3は、L1正則化学習を説明する図である。L1正則化による訓練を繰り返し実行すると、図3の左側に数値で示すように、各チャネルのスケーリング関数γが訓練ごとに算出される。そして、ニューラルネットワーク全体のプルーニング率を設定し、プルーニングするチャネル数が定まると、スケーリング関数γの絶対値が小さいほうから設定に応じた数だけチャネルが削除される。図3では、|γ|が小さいほうから8つのチャネルがプルーニングにより削除(値がゼロ)され、それ以外のチャネルがnon zeroとして残される。
図4、図5は、参考技術においてプルーニング率を増大させた場合のロスの増加率を示す図である。図4において、線L1~L4は、それぞれプルーニング率を0、10、20、30%としたときのエポック数とロスとの関係を表している。図5には、プルーニング率と、ロスの増加率、フレームレート、高速化の割合を図示した。なお、図4、図5は、jetson nanoによるtrt-poseの推論部分にプルーニングした機械学習モデルを適用した例である。図5に示すように、参考技術では、プルーニング率を10%に設定すると、4%処理が高速化するものの、ロスが3%増加する。なお、フレームレートは、1秒間に処理可能な画像の枚数を示し、高速化の割合は、プルーニング率0%のフレームレートに対するフレームレートの増加率である。プルーニング率をさらに増大させると、さらなる高速化が見込めるものの、ロスも増大する。このように、参考技術では、プルーニングによりロスが増大し、かつ処理を高速化する効果も小さかった。
そこで、本実施例では、ニューラルネットワークのプルーニングにおいて、ニューラルネットワークを機能の違いによりコンポーネントに分割し、スケーリング係数の値と各コンポーネントの計算量に基づき削減チャネルを決定することで、精度を犠牲にすることなく計算速度を向上させることができる情報処理装置について説明する。
図6は、実施例に係る情報処理装置の機能構成を示す機能ブロック図である。図6に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。なお、情報処理装置10は、図示したものに限らず、表示部などを有していてもよい。
通信部11は、他の装置との間の通信を実行する。例えば、通信部11は、入力データIを受信する。また、通信部11は、インターネット回線を経由して入力データIを受信してもよい。通信部11は、入力データIを訓練データDB13として記憶部12に記憶させてもよい。
記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する記憶装置であり、例えばメモリやハードディスクなどにより実現される。例えば、記憶部12は、訓練データDB13、機械学習モデル14などを記憶する。
訓練データDB13は、機械学習モデルの訓練に利用される複数の訓練データを記憶するデータベースである。例えば、訓練データDB13は、人の動きを撮像した動画であり、情報処理装置10により動画に映る人の関節の動きを認識し、様々な用途に利用するために用いられる。
機械学習モデル14は、訓練により生成されるモデルである。例えば、機械学習モデル14は、また、機械学習モデル14は、DNN(Deep Neural Network)やCNN(Convolution Neural Network)などのモデルを採用することができる。
制御部20は、情報処理装置10全体を司る処理部であり、プロセッサなどにより実現される。例えば、制御部20は、分割部21、計算量算出部22、割合算出部23、決定部24、実行25を有する。
分割部21は、ニューラルネットワークを部分ネットワークに分割する。ニューラルネットワークは、例えば図1に図示する複数のコンポーネントC1~C9により構成されている。そして、分割部21は、例えばニューラルネットワークを構成する部分ネットワークであるコンポーネントC1~C9を機能ごとに分類する。ただし、分割部21は、例えばニューラルネットワークを構成する部分ネットワークとして、層等の特定の処理の単位ごとに機能を分割してもよく、分割部21が機能ごとに分類する部分ネットワークは特に限定されない。分割部21は、画像の特徴を抽出する機能を有するコンポーネントC1を機能Aに分類し、関節点らしさを表すHeatmap(cmap:color map)と関節点の接続関係を表すpaf(part association field)との特徴の分離及び精度の向上の機能を有するコンポーネントC2~C9を機能Bに分類する。
計算量算出部22は、分割部21が分割した各コンポーネントの計算量を算出する。具体的には、計算量算出部22は、機能に応じて定まるコンポーネントの計算量を機能ごとに算出する。計算量算出部22は、機能Aの計算量Cを以下の式(4)により算出し、機能Bの計算量Cを以下の式(5)により算出する。
Figure 2022178980000005
Figure 2022178980000006
式(4)、(5)のCconv_iは、畳み込み層の計算量を表し、以下の式(6)により算出することができる。なお、k1は機能Aの中の畳込み層の数、k2は機能Bの中の畳込み層の数である。
Figure 2022178980000007
割合算出部23は、算出した機能ごとの計算量を、機能ごとに算出した計算量の和によって除算した計算量の割合を算出する。割合算出部23は、機能Aの計算量の割合C/Ctotal及び機能Bの計算量の割合C/Ctotalを算出する。なお、Ctotalは、以下の式(7)である。
Figure 2022178980000008
実行部24は、算出した機能ごとの計算量とコンポーネントに含まれるBN層における各チャネルのスケーリング係数とに基づいて、削除する対象のチャネルを決定する。具体的には、実行部24は、計算量の割合とコンポーネントに含まれるBN層における各チャネルのスケーリング係数との和が小さいチャネルを削除する対象のチャネルに決定する。実行部24は、機能Aの中のチャネルmのスケーリング係数γを用いて、式(8)により指標γ’を算出し、機能Bの中のチャネルnのスケーリング係数γを用いて、式(9)により指標γ’を算出する。
Figure 2022178980000009
Figure 2022178980000010
さらに、実行部24は、プルーニング率に応じて削除するチャネルの数を決定する。なお、コンポーネントがBN層を有しない場合、該コンポーネントにBN層を挿入すればよい。
実行部25は、対象のチャネルに基づくプルーニングを実行する。プルーニングは、対象のチャネルを削除する処理であってもよいが、対象のチャネルの重みを小さく設定する、又はゼロにする処理であってもよい。また、実行部25は、L1正則化による訓練をスケーリング係数に適用する。その結果、図3に示すようなプルーニングを実行し、推論の精度を維持しつつ、処理を高速化することができる。また、実行部25は、プルーニングを実行したニューラルネットワークを用いて訓練を実行し、機械学習モデル14を生成する。
図7は、実施例に係る情報処理装置の処理手順を示すフローチャートである。図7に示すように、処理が開始されると、はじめに、情報処理装置10は、スケーリング係数γ(γ,γ)付きの訓練を繰り返し実行する(ステップS1)。そして、情報処理装置10の記憶部12には、訓練を繰り返し実行するごとにスケーリング係数γ,γが記憶される。
続いて、分割部21は、コンポーネントを機能ごとに分類する(ステップS2)。分割部21は、画像の特徴を抽出する機能を有するコンポーネントC1を機能Aに分類し、関節点らしさを表すHeatmap(cmap)と関節点の接続関係を表すpafとの特徴の分離及び精度の向上の機能を有するコンポーネントC2~C9を機能Bに分類する。
その後、計算量算出部22は、コンポーネントの計算量を機能ごとに算出し、割合算出部23は、機能ごとの計算量の割合を算出する(ステップS3)。図8は、各機能の計算割合を示す図である。図8に示すように、一例として、機能Aの計算量Cの割合が全体の16%、機能Bの計算量Cの割合が全体の84%と算出することができる。
さらに、決定部24は、各チャネルの指標γ’(γ’,γ’)を計算する(ステップS4)。なお、ここでは、α=0.12としたが、αの値は特に限定されない。
続いて、決定部24は、プルーニング率を設定する(ステップS5)。例えば、決定部24は、プルーニング率を予め定めた値(0%,10%,20%,30%)にそれぞれ設定する。
さらに、決定部24は、各チャネルの指標γ’(γ’,γ’)をソート(絶対値が大きいほうから順に並べる)するとともに、プルーニング率に応じて削除する対象jのチャネル数を決定する(ステップS6)。例えば、チャネルの数がNであり、プルーニング率が10%である場合、決定部24は、N×10/100個のチャネルを削除する対象のチャネルに決定する。
そして、実行部25は、ソートした各チャネルの指標γ’(γ’,γ’)のうち、絶対値が小さいほうから決定した数の対象のチャネルを削除するプルーニングを実行する(ステップS7)。
その後、実行部25は、精度(ロス)と速度(高速化の割合)とを評価する(ステップS8)。図9は、実施例に係る情報処理装置においてプルーニング率を増大させた場合のロスの増加率を示す図である。図9において、線L11~L14は、それぞれプルーニング率を0、10、20、30%としたときのエポック数とロスとの関係を表している。
図10は、従来技術と実施例との比較結果を示す図である。図9、図10は、図4、図5と同様に、jetson nanoによるtrt-poseの推論部分にプルーニングした機械学習モデルを適用した例である。図10に示すように、プルーニング率が10%の場合、参考技術ではロスが3%増加するのに対し、実施例によればロスが増加しない(0%)ため、3%の改善がみられた。さらに、プルーニング率が10%の場合、参考技術では1.04倍処理が高速化するのに対し、実施例によれば1.36倍処理が高速化するため、0.32倍の改善がみられた。同様に、プルーニング率を30%の場合、ロスが5%改善し、処理が0.87倍高速化する。
そして、実行部25は、精度(ロス)と速度(高速化の割合)とを評価し、適切なプルーニング率を選択してプルーニングしたニューラルネットワークを用いて訓練を実行することにより、精度が高く処理速度が速い機械学習モデル14を生成する(ステップS9)。具体的には、実行部25は、適切なプルーニング率を選択してチャネルを削除し、チャネルが削除された状態で訓練を実行して機械学習モデル14を生成することにより、生成された機械学習モデル14による推論の精度の低下を抑制し処理を高速化することができる。例えば、Jetson nanoを用いたtrt-poseにこの機械学習モデル14を適用することにより、人の関節の動きを精度よく高速に認識することができる。
以上説明したように、実施例によれば、スケーリング係数γに計算量に関する値を加算した指標γ’を用いてプルーニングするチャネルを決定することにより、参考技術よりもロスを低減するとともに処理を高速化することができた。
上記実施例で用いたデータ例、数値例、コンポーネントの種類及び数、機能の種類及び数、具体例等は、あくまで一例であり、任意に変更することができる。例えば、分割部21は、コンポーネントを2つ以上の機能に分類してもよい。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図11は、ハードウェア構成例を説明する図である。図11に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図6に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図6に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図6等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、分割部21、計算量算出部22、割合算出部23、決定部24、実行部25等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、分割部21、計算量算出部22、割合算出部23、決定部24、実行部25等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで機械学習方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
10a 通信装置
10b HDD
10c メモリ
10d プロセッサ
11 通信部
12 記憶部
13 訓練データDB
14 機械学習モデル
20 制御部
21 分割部
22 計算量算出部
23 割合算出部
24 決定部
25 実行部

Claims (9)

  1. ニューラルネットワークを分割し、
    分割された各部分ネットワークの計算量を算出し、
    前記各部分ネットワークの計算量と前記各部分ネットワークに含まれるバッチノーマライゼーション層における各チャネルのスケーリング係数とに基づいて、プルーニングを行う対象のチャネルを決定し、
    前記対象のチャネルに基づくプルーニングを実行する、
    処理をコンピュータに実行させる機械学習プログラム。
  2. 前記分割する処理は、
    前記部分ネットワークであるコンポーネントを機能ごとに分類する、
    処理を含む請求項1に記載の機械学習プログラム。
  3. プルーニングを実行したニューラルネットワークを用いて訓練を実行する、
    処理を前記コンピュータに実行させる請求項1または2に記載の機械学習プログラム。
  4. 前記算出する処理は、
    前記各部分ネットワークの計算量を、前記各部分ネットワークの計算量の和によって除算した前記計算量の割合を算出し、
    前記決定する処理は、
    前記計算量の割合と前記スケーリング係数との和が小さいチャネルを前記対象のチャネルに決定する、
    処理を含む請求項1~3のいずれか1つに記載の機械学習プログラム。
  5. 前記各部分ネットワークが前記バッチノーマライゼーション層を有しない場合、該各部分ネットワークに前記バッチノーマライゼーション層を挿入する、
    処理を前記コンピュータに実行させる請求項1~4のいずれか1つに記載の機械学習プログラム。
  6. 前記決定する処理は、
    L1正則化による訓練を前記スケーリング係数に適用する、
    処理を含む請求項1~5のいずれか1つに記載の機械学習プログラム。
  7. 前記決定する処理は、
    プルーニング率に応じて前記対象のチャネルの数を決定する、
    処理を含む請求項1~6のいずれか1つに記載の機械学習プログラム。
  8. ニューラルネットワークを分割し、
    分割された各部分ネットワークの計算量を算出し、
    前記各部分ネットワークの計算量と前記各部分ネットワークに含まれるバッチノーマライゼーション層における各チャネルのスケーリング係数とに基づいて、プルーニングを行う対象のチャネルを決定し、
    前記対象のチャネルに基づくプルーニングを実行する、
    処理をコンピュータが実行する機械学習方法。
  9. ニューラルネットワークを分割する分割部と、
    分割された各部分ネットワークの計算量を算出する計算量算出部と、
    前記各部分ネットワークの計算量と前記各部分ネットワークに含まれるバッチノーマライゼーション層における各チャネルのスケーリング係数とに基づいて、プルーニングを行う対象のチャネルを決定する決定部と、
    前記対象のチャネルに基づくプルーニングを実行する実行部と、
    を有する制御部を備える情報処理装置。
JP2021086149A 2021-05-21 2021-05-21 機械学習プログラム、機械学習方法および情報処理装置 Pending JP2022178980A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021086149A JP2022178980A (ja) 2021-05-21 2021-05-21 機械学習プログラム、機械学習方法および情報処理装置
EP22161995.0A EP4092579A1 (en) 2021-05-21 2022-03-14 Machine learning program, machine learning method, and information processing device
US17/699,172 US20220374716A1 (en) 2021-05-21 2022-03-21 Storage medium, machine learning method, and information processing device
CN202210339270.XA CN115374900A (zh) 2021-05-21 2022-04-01 存储介质、机器学习方法和信息处理设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021086149A JP2022178980A (ja) 2021-05-21 2021-05-21 機械学習プログラム、機械学習方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2022178980A true JP2022178980A (ja) 2022-12-02

Family

ID=80780492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021086149A Pending JP2022178980A (ja) 2021-05-21 2021-05-21 機械学習プログラム、機械学習方法および情報処理装置

Country Status (4)

Country Link
US (1) US20220374716A1 (ja)
EP (1) EP4092579A1 (ja)
JP (1) JP2022178980A (ja)
CN (1) CN115374900A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3469522A4 (en) 2016-06-14 2020-03-18 The Governing Council of the University of Toronto ACCELERATOR FOR DEEP NEURAL NETWORKS
US11537892B2 (en) * 2017-08-18 2022-12-27 Intel Corporation Slimming of neural networks in machine learning environments
US11875260B2 (en) * 2018-02-13 2024-01-16 Adobe Inc. Reducing architectural complexity of convolutional neural networks via channel pruning
US11687759B2 (en) 2018-05-01 2023-06-27 Semiconductor Components Industries, Llc Neural network accelerator
WO2020149178A1 (ja) 2019-01-18 2020-07-23 日立オートモティブシステムズ株式会社 ニューラルネットワークの縮約装置

Also Published As

Publication number Publication date
EP4092579A1 (en) 2022-11-23
US20220374716A1 (en) 2022-11-24
CN115374900A (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN108510012B (zh) 一种基于多尺度特征图的目标快速检测方法
CN110807757B (zh) 基于人工智能的图像质量评估方法、装置及计算机设备
JP6569047B1 (ja) 学習方法、コンピュータプログラム、分類器、及び生成器
US20210089845A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
CN111968138B (zh) 基于3d动态边缘不敏感性损失函数的医学图像分割方法
US9734424B2 (en) Sensor data filtering
JP6977886B2 (ja) 機械学習方法、機械学習装置、及び機械学習プログラム
JP2023523029A (ja) 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
CN112446891A (zh) 基于U-Net网络脑胶质瘤的医学图像分割方法
CN112712546A (zh) 一种基于孪生神经网络的目标跟踪方法
CN112257738A (zh) 机器学习模型的训练方法、装置和图像的分类方法、装置
CN113256592B (zh) 图像特征提取模型的训练方法、系统及装置
CN113313663B (zh) 基于零样本学习的多聚焦图像融合方法
CN112052877A (zh) 一种基于级联增强网络的图片细粒度分类方法
CN115511069A (zh) 神经网络的训练方法、数据处理方法、设备及存储介质
WO2024060839A1 (zh) 对象操作方法、装置、计算机设备以及计算机存储介质
JP2022178980A (ja) 機械学習プログラム、機械学習方法および情報処理装置
JP7073171B2 (ja) 学習装置、学習方法及びプログラム
CN107644251B (zh) 对象分类方法、装置和系统
WO2022038660A1 (ja) 情報処理装置、情報処理方法、および、情報処理プログラム
CN114897884A (zh) 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法
JP2005078579A (ja) 信号分離方法、信号分離プログラム及びそのプログラムを記録した記録媒体
Atallah et al. NEURAL NETWORK WITH AGNOSTIC META-LEARNING MODEL FOR FACE-AGING RECOGNITION
CN112784635A (zh) 信息处理装置和方法以及利用模型分类的装置
Shi et al. Heuristic dropout: An efficient regularization method for medical image segmentation models