JP7091521B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7091521B2
JP7091521B2 JP2021075588A JP2021075588A JP7091521B2 JP 7091521 B2 JP7091521 B2 JP 7091521B2 JP 2021075588 A JP2021075588 A JP 2021075588A JP 2021075588 A JP2021075588 A JP 2021075588A JP 7091521 B2 JP7091521 B2 JP 7091521B2
Authority
JP
Japan
Prior art keywords
data
layer
input
compressed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021075588A
Other languages
English (en)
Other versions
JP2021131876A (ja
Inventor
琢也 松尾
渉 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021075588A priority Critical patent/JP7091521B2/ja
Publication of JP2021131876A publication Critical patent/JP2021131876A/ja
Application granted granted Critical
Publication of JP7091521B2 publication Critical patent/JP7091521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
ニューラルネットワークは、入力層、隠れ層、および、出力層で構成される。隠れ層は、複数の層で実現されることが多い。ある隠れ層で計算された特徴量データは、次の隠れ層または出力層の入力となる。このとき、層間で隠れ層の演算結果である特徴量データの入出力が行われる。近年のニューラルネットワークは、隠れ層を何層も接続し、深いネットワークを構築することが多い。従って、層間で入出力される特徴量データのデータ量も膨大となる。そのようなニューラルネットワークを用いた推論を実行する推論装置では、特徴量データの転送でバンド幅が逼迫したり、特徴量データの保存に多くのメモリを必要としたりする。このため、特徴量データを削減することが求められる。
特開2016-029568号公報
YH. Chen,T. Krishna,J. S. Emer and V. Sze,"Eyeriss: An Energy-Efficient Reconfigurable Accelerator for Deep Convolutional Neural Networks", IEEE Journal of Solid-State Circuits, Vol.52, No.3,pp.127-138,2017.
本発明が解決しようとする課題は、特徴量データのデータ量を削減することができる情報処理装置を提供することである。
実施形態の情報処理装置は、演算部と、圧縮部と、を備える。演算部は、ニューラルネットワークの入力層、隠れ層、および、出力層の演算を実行する。圧縮部は、入力層、隠れ層、および、出力層のうち少なくとも一部の層の出力データを非可逆圧縮し、圧縮データを出力する。
第1の実施形態の推論装置のブロック図。 別の推論部を備える推論装置のブロック図。 処理部およびメモリを備える推論装置のブロック図。 第1の実施形態における推論処理のフローチャート。 第2の実施形態にかかる学習装置のブロック図。 第2の実施形態における学習処理のフローチャート。 第1または第2の実施形態にかかる装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる情報処理装置の好適な実施形態を詳細に説明する。以下では、ニューラルネットワークを用いた推論を行う推論装置として情報処理装置を実現した例を説明する。
(第1の実施形態)
学習済みのニューラルネットワークの隠れ層の処理に用いる重みベクトルを量子化して、重みベクトルのデータ量を削減する技術が知られている。この技術では、隠れ層の演算結果である特徴量データは削減されない。第1の実施形態にかかる推論装置は、特徴量データを圧縮すること(量子化など)によりデータ量を削減する。
図1は、第1の実施形態の推論装置100の構成の例を示すブロック図である。図1に示すように、推論装置100は、推論部110と、メモリ101と、を備えている。推論部110は、伸張部111と、演算部112と、圧縮部113とを備えている。
上記各部(伸張部、演算部、圧縮部)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
メモリ101は、例えば、推論装置100による各種処理で用いられる各種データを一時的に記憶するためのメモリである。メモリ101は、SRAM(Static Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。メモリ101は、物理的に1つの記憶媒体により実現してもよいし、物理的に異なる複数の記憶媒体により実現してもよい。メモリ101は、推論部110の各部(伸張部111、演算部112、圧縮部113)のうち少なくとも1つと同じハードウェア上に構成してもよい。
伸張部111は、圧縮データを伸張し、伸張データを出力する。ここで、圧縮データは非可逆圧縮されたデータである。
演算部112は、演算の対象として入力されたデータ(演算データ)に対して所定の演算を行い、演算結果である出力データを出力する。以下では、演算部112による出力データを特徴量データという場合がある。ここで、演算部112が行う所定の演算は、ニューラルネットワークの各層(入力層、隠れ層、出力層)の一部または全部を構成する演算である。例えば所定の演算は、畳み込み処理、活性化関数処理、プーリング処理(サブサンプリング処理)、アンプーリング処理(アップサンプリング処理)、および、正規化処理などである。また、ここに例示しない処理であってもよい。
圧縮部113は、ニューラルネットワークの入力層、隠れ層、および、出力層のうち少なくとも一部の層の特徴量データを圧縮し、圧縮データを出力する。ここで、圧縮部113の行う圧縮処理は、非可逆圧縮処理である。圧縮部113の行う非可逆圧縮処理は、特徴量データの特性に応じた任意の方式を用いてよい。
例えば、推論装置100に入力された推論対象データが画像の場合、演算部112が出力する特徴量データは複数チャネルの画像データととらえることができる。従って、特徴量データをチャネルごとに2次元データとして分割し、2次元データをJPEG(Joint Photographic Experts Group)のような画像圧縮方法を用いて非可逆圧縮してもよい。また例えば、推論装置100に入力された推論対象データが音声の場合、演算部112が出力する特徴量データは複数チャネルの音声データととらえることができる。従って、特徴量データをチャネルごとに1次元データとして分割し、1次元データをAAC(Advanced Audio Coding)のような音声圧縮方法を用いて非可逆圧縮してもよい。また例えば、前述のような特性を用いずに単純に量子化して非可逆圧縮してもよいし、ここに例示しない非可逆圧縮方法で処理してもよい。
次に推論部110の動作の例を説明する。推論部110には、推論装置100に入力された推論対象データ、特徴量データ、および、圧縮データの少なくとも1つが入力データとして入力される。推論対象データは、伸張部111が伸張できる方式で圧縮されていてもよい。
推論部110の入力データが非圧縮データの場合、入力データを、演算部112の演算データとする。推論部110の入力データが圧縮データの場合、入力データを伸張部111で伸張した伸張データを、演算部112の演算データとする。
演算部112は、入力される演算データに対して、所定の演算処理を行い、特徴量データを出力する。
推論部110の出力データを非圧縮データとする場合、特徴量データを、推論部110の出力データとする。推論部110の出力データを圧縮データとする場合、演算部112が出力する特徴量データを圧縮部113で圧縮した圧縮データを、推論部110の出力データとする。
推論部110は、例えば、実行する各層の演算ごとに、入力データが圧縮されているか、および、出力データを圧縮するかを予め定めておき、その規定に従って入力データが圧縮されているか、および、出力データを圧縮データとするかを判定する。例えば推論部110は、各層の演算で用いるパラメータとともに、圧縮するか否かを示す情報を取得し、この情報を参照して判定を実行してもよい。データのヘッダなどに圧縮するか否かを示す情報を含むようにして、推論部110がこの情報を参照して判定を実行してもよい。
演算部112が実行するすべての演算で入力データまたは出力データ(特徴量データ)を圧縮する必要はなく、少なくとも一部の演算で圧縮すればよい。例えば、ニューラルネットワークの各層のうち、圧縮の効果がより大きい層、および、後段の識別処理などに対する影響がより小さい層などを対象に圧縮を実行してもよい。
特徴量データを圧縮することで、特徴量データの転送のためのバンド幅をより小さくすることが可能となる。出力データは、メモリ101に記憶されてもよい。本実施形態では、特徴量データを圧縮可能であるため、メモリ101のサイズを小さくすることが可能となる。
図1に示すように、推論部110の出力データは、推論部110に再度入力されてもよい。例えば推論部110(演算部112)は、再度入力されたデータを演算データとして、実行済みの演算に対応する層の後段の層の演算をさらに実行する。なお出力データを演算データとして演算を繰り返さない場合は、推論部110の出力データを再度入力しなくてもよい。また、推論部110と同様の動作を行う別の推論部に入力されてもよい。図2は、別の推論部110bを備える推論装置100bの構成例を示すブロック図である。推論部110bは、例えば推論部110に対応する層の後段の層の演算を行う。このような構成により、ニューラルネットワークにおける、N番目の隠れ層の出力が、(N+1)番目の隠れ層の入力になるデータフローを実現できる。
また、推論部110の出力データは、推論部110とは別の処理を行う処理部やメモリ101と異なるメモリに入力されてもよい。図3は、このように構成された推論装置100cの構成例を示すブロック図である。処理部120は、例えば推論部110が出力した特徴量データに基づいて、識別処理を行う。処理部120は、識別処理以外の処理を実行してもよい。メモリ102は、例えば、推論部110および処理部120を含む、推論装置100c内の各部により処理されるデータを記憶するためのメモリである。メモリ102は、例えばDRAM(Dynamic Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
次に、このように構成された第1の実施形態にかかる推論装置100による推論処理について図4を用いて説明する。図4は、第1の実施形態における推論処理の一例を示すフローチャートである。
まず、推論装置100は、推論対象データの入力を受け付ける(ステップS101)。推論対象データは、推論部110の入力データとなる。推論部110は、入力データが圧縮データであるか非圧縮データであるかを判断する(ステップS102)。入力データが圧縮データの場合(ステップS102:Yes)、伸張部111は、圧縮された入力データを伸張し、伸張データを出力する(ステップS103)。
入力データが圧縮データの場合、演算部112は、伸張データを演算データとして演算を実行する(ステップS104)。入力データが非圧縮データの場合(ステップS102:No)、演算部112は、入力データを演算データとして演算を実行する(ステップS104)。演算部112は、演算の実行結果である特徴量データを出力する。
推論部110は、推論部110の出力データを、圧縮データとするか、非圧縮データとするかを判断する(ステップS105)。推論部110の出力データを圧縮データとする場合(ステップS105:Yes)、圧縮部113は特徴量データを圧縮し、圧縮データを出力する(ステップS106)。
推論部110の出力データを圧縮データとする場合、圧縮データが推論部110の出力データとして出力される。推論部110の出力データを非圧縮データとする場合(ステップS105:No)、圧縮されない特徴量データが推論部110の出力データとして出力される。
推論部110は、すべての演算を終了したか否かを判断する(ステップS107)。例えば推論部110は、ニューラルネットワークの各層のうち所定の層の演算をすべて終了したかを判断する。すべての演算を終了していない場合(ステップS107:No)、推論部110の出力データを再度推論部110に入力し、ステップS102から処理が繰り返される。
すべての演算が終了した場合(ステップS107:Yes)、推論部110の出力データを推論装置100の推論結果として出力し(ステップS108)、推論処理を終了する。
このように、第1の実施形態にかかる推論装置では、推論処理の途中で生成される特徴量データが圧縮されていても、推論処理を実行することができる。また少なくとも一部の特徴量データを圧縮するため、特徴量データに係るデータ転送量の削減、および、メモリ領域の削減が可能となる。
(第2の実施形態)
第1の実施形態では、学習済みのニューラルネットワークを用いて推論処理を実行するとき(順伝播、および、フォワードパスともいう)に、特徴量データが圧縮(例えば、量子化)および伸張(例えば、逆量子化)される。このため、圧縮前の特徴量データと圧縮・伸張後の特徴量データとで、誤差(量子化誤差)が発生し、ニューラルネットワークの性能が低下する恐れがある。
第2の実施形態では、ニューラルネットワークの学習時にも特徴量データの圧縮および伸張を行う。第2の実施形態の推論装置は、このようにして学習されたニューラルネットワークを用いて推論処理を実行する。これにより、ニューラルネットワークの性能低下を抑制しつつ、特徴量データのデータ量を削減可能となる。
図5は、第2の実施形態にかかる推論装置100-2を含む学習装置200-2の構成の一例を示すブロック図である。図5に示すように、学習装置200-2は、推論装置100-2と、制御部130-2と、を備えている。推論装置100-2は、推論部110-2と、メモリ101と、を備えている。推論部110-2は、伸張部111と、演算部112-2と、圧縮部113-2とを備えている。
第2の実施形態では、推論装置100-2とともに、推論装置100-2で用いるニューラルネットワークの学習を制御する制御部130-2を備えた学習装置200-2が用いられる。装置構成は図5に示す例に限られない。例えば、推論装置100-2の機能と学習装置130-2(制御部130-2)の機能をともに備える装置(情報処理装置)として構成してもよい。第2の実施形態の推論装置100-2は、推論部110-2内の演算部112-2、および、圧縮部113-2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる推論装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
演算部112-2は、制御部130-2により演算のためのパラメータが制御される点が、第1の実施形態の演算部112と異なっている。圧縮部113-2は、制御部130-2により圧縮のためのパラメータが制御される点が、第1の実施形態の圧縮部113と異なっている。
制御部130-2は、推論装置100-2による推論処理で用いられるニューラルネットワークの学習を制御する。例えば制御部130-2は、圧縮部113-2により出力データが圧縮された層については、圧縮データを出力として、ニューラルネットワークの学習を制御する。また制御部130-2は、演算部112-2および圧縮部113-2の制御に用いられるパラメータの学習を制御する。例えば制御部130-2は、演算部112-2と圧縮部113-2の制御に用いられるパラメータを更新する。
演算部112-2の制御に用いられるパラメータは、例えば、畳み込み処理を行う際に用いる畳み込み係数、および、正規化処理を行う際に用いるスケール量とシフト量などである。圧縮部113-2の制御に用いられるパラメータは、例えば、目標圧縮率、および、JPEG圧縮の圧縮効率を決定するクオリティーファクターなどである。パラメータはこれらに限られるものではない。
制御部130-2がパラメータを学習し更新する方法としてはどのような方法を適用してもよい。例えば、バッチ勾配降下法、確率的勾配降下法、および、ミニバッチ勾配降下法、などを用いた誤差逆伝播法を用いることができる。
なお、制御部130-2は、演算部112-2と圧縮部113-2の制御に用いられるパラメータのうち、どちらか一方だけを更新してもよい。また、ニューラルネットワークを構成する層の一部のパラメータのみを更新してもよい。
次に、このように構成された第2の実施形態にかかる学習装置200-2による学習処理について図6を用いて説明する。図6は、第2の実施形態における学習処理の一例を示すフローチャートである。
学習装置200-2は、学習データの入力を受け付ける(ステップS201)。学習データは、推論装置100-2の入力データ、すなわち推論装置100-2の推論対象データとなる。
ステップS202からステップS207までは、第1の実施形態にかかる推論装置100におけるステップS102からステップS107までと同様の処理なので、その説明を省略する。すなわち、入力された学習データを推論対象データとして、図4と同様の推論処理が実行される。
ステップS207ですべての演算が終了したと判断された場合(ステップS207:Yes)、制御部130-2は、推論装置100-2から出力された推論結果に基づいて、演算部112-2および圧縮部113-2の制御に用いられるパラメータを更新する(ステップS208)。
制御部130-2は、学習が終了したか否かを判断する(ステップS209)。例えば制御部130-2は、誤差が十分に小さくなったか否か、学習回数が閾値に達したか、および、すべての学習データに対する処理が完了したか、などにより学習の終了を判定する。
学習が終了していない場合(ステップS209:No)、学習装置200-2に新たな学習データを入力し、処理が繰り返される。学習が終了した場合(ステップS209:Yes)、制御部130-2は、更新したパラメータを確定する。
以上のように、第2の実施形態によれば、推論装置100-2を備える学習装置200-2で学習されたニューラルネットワークを用いることができる。推論装置100-2には、特徴量データを非可逆圧縮する機能が備わっている。学習装置200-2は、特徴量データが非可逆圧縮されるニューラルネットワークを学習することができる。すなわち、推論装置100-2が推論処理に用いるニューラルネットワークの構造と、学習装置が学習処理に用いるニューラルネットワークの構造とは同様である。
そのため、非可逆圧縮による特徴量データの変化を考慮して、ニューラルネットワークを構成する各層のパラメータを学習したり、特徴量データの変化が学習結果に影響しにくいように圧縮処理の圧縮効率を学習したりできる。従って、学習装置200-2で学習されたニューラルネットワークは、非可逆圧縮によるニューラルネットワークの性能低下が抑制されている。学習されたニューラルネットワークを用いる推論装置100-2は、非可逆圧縮による性能低下を抑制しつつ、特徴量データのデータ量を削減できる。
なお、第1および第2の実施形態は、各機能を備えたプログラム等で実装されてもよく、汎用CPU等で実施されてもよい。また、学習装置200-2のうち学習に関する機能(制御部130-2)を汎用CPUなどでプログラムにより実装し、推論装置100-2を専用のハードウェア(専用のICなど)で実装してもよい。
以上説明したとおり、第1および第2の実施形態によれば、特徴量データのデータ量を削減することができる。
次に、第1または第2の実施形態にかかる装置(推論装置、学習装置)のハードウェア構成について図7を用いて説明する。図7は、第1または第2の実施形態にかかる装置のハードウェア構成例を示す説明図である。
第1または第2の実施形態にかかる装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施形態にかかる装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施形態にかかる装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる装置で実行されるプログラムは、コンピュータを上述した装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100、100-2 推論装置
101、102 メモリ
110、110-2 推論部
111 伸張部
112、112-2 演算部
113、113-2 圧縮部
120 処理部
130-2 制御部
200-2 学習装置

Claims (9)

  1. ニューラルネットワークの入力層、隠れ層、および、出力層の演算を実行する演算部と、
    前記入力層、前記隠れ層、および、前記出力層を含む複数の層ごとに定められた、圧縮するか否かを定める情報を参照し、圧縮することが定められた層の出力データを、前記出力データの特性に応じて定められる方式で非可逆圧縮し、圧縮データを出力する圧縮部と、を備え、
    前記圧縮部は、
    前記入力層に入力される推論対象データが画像の場合、前記出力データをチャネルごとに分割した2次元データを、JPEG(Joint Photographic Experts Group)を含む画像圧縮方法を用いて非可逆圧縮し、
    前記入力層に入力される推論対象データが音声の場合、前記出力データをチャネルごとに分割した1次元データを、AAC(Advanced Audio Coding)を含む音声圧縮方法を用いて非可逆圧縮する、
    報処理装置。
  2. 前記圧縮部により出力データが圧縮された層については、前記圧縮データを出力として、前記ニューラルネットワークの学習を制御する制御部をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、前記演算部の制御に用いられるパラメータの学習を制御する、
    請求項2に記載の情報処理装置。
  4. 前記制御部は、前記圧縮部の制御に用いられるパラメータの学習を制御する、
    請求項2に記載の情報処理装置。
  5. 圧縮されたデータを伸張して伸張データを出力する伸張部をさらに備え、
    前記演算部は、入力データが圧縮されていない場合は前記入力データに対して前記演算を実行し、前記入力データが圧縮されている場合は前記伸張部によって前記入力データが伸張された前記伸張データに対して前記演算を実行する、
    請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 前記出力データを非圧縮とする場合は、前記出力データを対応する層の出力とし、
    前記出力データを圧縮とする場合は、前記出力データを前記圧縮部で圧縮した前記圧縮データを、対応する層の出力とする、
    請求項1から請求項5のいずれか1項に記載の情報処理装置。
  7. 前記非可逆圧縮は、非可逆の画像圧縮、または、非可逆の音声圧縮である、
    請求項1から請求項6のいずれか1項に記載の情報処理装置。
  8. ニューラルネットワークの入力層、隠れ層、および、出力層の演算を実行する演算ステップと、
    前記入力層、前記隠れ層、および、前記出力層を含む複数の層ごとに定められた、圧縮するか否かを定める情報を参照し、圧縮することが定められた層の出力データを、前記出力データの特性に応じて定められる方式で非可逆圧縮し、圧縮データを出力する圧縮ステップと、を含み、
    前記圧縮ステップは、
    前記入力層に入力される推論対象データが画像の場合、前記出力データをチャネルごとに分割した2次元データを、JPEG(Joint Photographic Experts Group)を含む画像圧縮方法を用いて非可逆圧縮し、
    前記入力層に入力される推論対象データが音声の場合、前記出力データをチャネルごとに分割した1次元データを、AAC(Advanced Audio Coding)を含む音声圧縮方法を用いて非可逆圧縮する、
    報処理方法。
  9. コンピュータを、
    ニューラルネットワークの入力層、隠れ層、および、出力層の演算を実行する演算部と、
    前記入力層、前記隠れ層、および、前記出力層を含む複数の層ごとに定められた、圧縮するか否かを定める情報を参照し、圧縮することが定められた層の出力データを、前記出力データの特性に応じて定められる方式で非可逆圧縮し、圧縮データを出力する圧縮部と、として機能させ、
    前記圧縮部は、
    前記入力層に入力される推論対象データが画像の場合、前記出力データをチャネルごとに分割した2次元データを、JPEG(Joint Photographic Experts Group)を含む画像圧縮方法を用いて非可逆圧縮し、
    前記入力層に入力される推論対象データが音声の場合、前記出力データをチャネルごとに分割した1次元データを、AAC(Advanced Audio Coding)を含む音声圧縮方法を用いて非可逆圧縮する、
    ログラム。
JP2021075588A 2017-08-21 2021-04-28 情報処理装置、情報処理方法およびプログラム Active JP7091521B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021075588A JP7091521B2 (ja) 2017-08-21 2021-04-28 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017158389A JP2019036899A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム
JP2021075588A JP7091521B2 (ja) 2017-08-21 2021-04-28 情報処理装置、情報処理方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017158389A Division JP2019036899A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021131876A JP2021131876A (ja) 2021-09-09
JP7091521B2 true JP7091521B2 (ja) 2022-06-27

Family

ID=65361402

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017158389A Pending JP2019036899A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム
JP2021075588A Active JP7091521B2 (ja) 2017-08-21 2021-04-28 情報処理装置、情報処理方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017158389A Pending JP2019036899A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11411575B2 (ja)
JP (2) JP2019036899A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242165B2 (ja) 2017-09-20 2023-03-20 株式会社Preferred Networks プログラム、情報処理装置、および方法
CN109934881B (zh) * 2017-12-19 2022-02-18 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
JP7477260B2 (ja) * 2018-01-30 2024-05-01 株式会社Preferred Networks 情報処理装置、情報処理プログラム及び情報処理方法
JP7345262B2 (ja) * 2019-03-11 2023-09-15 キヤノン株式会社 データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル
WO2020232613A1 (zh) * 2019-05-20 2020-11-26 深圳先进技术研究院 一种视频处理方法、系统、移动终端、服务器及存储介质
US20230334282A1 (en) * 2021-02-05 2023-10-19 Hitachi, Ltd. Data management system and data management method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016118257A1 (en) 2015-01-22 2016-07-28 Qualcomm Incorporated Model compression and fine-tuning
JP2017097718A (ja) 2015-11-26 2017-06-01 株式会社リコー 識別処理装置、識別システム、識別処理方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2795147B2 (ja) * 1993-12-24 1998-09-10 日本電気株式会社 画質評価装置
JP2002511175A (ja) * 1998-03-23 2002-04-09 松下電器産業株式会社 画像認識方法
US6236749B1 (en) 1998-03-23 2001-05-22 Matsushita Electronics Corporation Image recognition method
JP2016029568A (ja) 2014-07-23 2016-03-03 国立大学法人電気通信大学 線形識別器、大規模一般物体認識装置、電子計算機、モバイル端末、データ処理装置、および画像認識システム
JP6706788B2 (ja) 2015-03-06 2020-06-10 パナソニックIpマネジメント株式会社 画像認識方法、画像認識装置およびプログラム
US9767381B2 (en) * 2015-09-22 2017-09-19 Xerox Corporation Similarity-based detection of prominent objects using deep CNN pooling layers as features
US20180075347A1 (en) * 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Efficient training of neural networks
KR102499396B1 (ko) * 2017-03-03 2023-02-13 삼성전자 주식회사 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016118257A1 (en) 2015-01-22 2016-07-28 Qualcomm Incorporated Model compression and fine-tuning
JP2017097718A (ja) 2015-11-26 2017-06-01 株式会社リコー 識別処理装置、識別システム、識別処理方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN,Yu-Hsin ほか3名,Eyeriss: An Energy-Efficient Reconfigurable Accelator for Deep Convolutional Neural Networks,IEEE JOURNAL OF SOLID STATE CIRCUITS,2017年01月,VOL.52, NO.1,p.127-138
武田 龍 ほか2名,量子化Deep Neural Networkのための有界重みモデルに基づく音響モデル学習 ,第46回AIチャレンジ研究会予稿集 ,人工知能学会,2016年11月09日,p.2-11

Also Published As

Publication number Publication date
JP2019036899A (ja) 2019-03-07
JP2021131876A (ja) 2021-09-09
US11411575B2 (en) 2022-08-09
US20190058489A1 (en) 2019-02-21

Similar Documents

Publication Publication Date Title
JP7091521B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11574188B2 (en) Data processing apparatus, data processing method, medium, and trained model
US11651224B2 (en) Method for formatting a weight matrix, accelerator using the formatted weight matrix, and system including the accelerator
JP6789894B2 (ja) ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム
JP2021535689A (ja) ディープ・ニューラル・ネットワークのための圧縮方法、チップ、電子デバイス、および媒体
JP6998968B2 (ja) ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム
JP6898778B2 (ja) 機械学習システム及び機械学習方法
CN102007489A (zh) 逆向离散余弦变换的计算期间的误差减少
US20200210844A1 (en) Training and application method of a multi-layer neural network model, apparatus and storage medium
CN113810693B (zh) 一种jpeg图像无损压缩和解压缩方法、系统与装置
CN114071141A (zh) 一种图像处理方法及其设备
Siddeq et al. A novel 2D image compression algorithm based on two levels DWT and DCT transforms with enhanced minimize-matrix-size algorithm for high resolution structured light 3D surface reconstruction
CN110135570B (zh) 压缩卷积运算系数的方法、卷积运算晶片及系统
JP7233875B2 (ja) 作成方法、コンピュータ及びプログラム
JP2021076900A (ja) データ処理装置及びその動作方法、プログラム
JP2022510944A (ja) 非可逆復元を伴う非可逆有意圧縮
JP6310747B2 (ja) データ記憶制御装置およびデータ記憶制御方法
CN111565314A (zh) 图像压缩方法、编解码网络训练方法、装置及电子设备
JP6289971B2 (ja) データ記憶制御装置およびデータ記憶制御方法
JP4315431B2 (ja) 直交変換器、逆直交変換器、直交変換方法及び逆直交変換方法
WO2022190195A1 (ja) 情報処理システム、符号化装置、復号装置、モデル学習装置、情報処理方法、符号化方法、復号方法、モデル学習方法、および、プログラム記憶媒体
US20240048703A1 (en) Encoding device, decoding device, encoding method, decoding method, and program
KR102539643B1 (ko) 하드웨어 특성을 이용하여 뉴럴 네트워크 모델을 경량화하는 방법 및 장치
CN113052258B (zh) 基于中间层特征图压缩的卷积方法、模型及计算机设备
CN109886858B (zh) 一种数据处理的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R151 Written notification of patent or utility model registration

Ref document number: 7091521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151