JP2020057286A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2020057286A
JP2020057286A JP2018188612A JP2018188612A JP2020057286A JP 2020057286 A JP2020057286 A JP 2020057286A JP 2018188612 A JP2018188612 A JP 2018188612A JP 2018188612 A JP2018188612 A JP 2018188612A JP 2020057286 A JP2020057286 A JP 2020057286A
Authority
JP
Japan
Prior art keywords
sum
product
data
shift
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188612A
Other languages
English (en)
Other versions
JP2020057286A5 (ja
JP7165018B2 (ja
Inventor
ソクイ チン
Tsewei Chen
ソクイ チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018188612A priority Critical patent/JP7165018B2/ja
Priority to EP19197809.7A priority patent/EP3633559A1/en
Priority to KR1020190118500A priority patent/KR102574307B1/ko
Priority to CN201910933454.7A priority patent/CN110991627A/zh
Priority to US16/589,483 priority patent/US11468600B2/en
Publication of JP2020057286A publication Critical patent/JP2020057286A/ja
Publication of JP2020057286A5 publication Critical patent/JP2020057286A5/ja
Priority to US17/897,353 priority patent/US11810330B2/en
Priority to JP2022169395A priority patent/JP7414930B2/ja
Application granted granted Critical
Publication of JP7165018B2 publication Critical patent/JP7165018B2/ja
Priority to KR1020230114588A priority patent/KR102585470B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F5/00Methods or arrangements for data conversion without changing the order or content of the data handled
    • G06F5/01Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)

Abstract

【課題】 複数の階層を有するネットワークの中に複数種類のビット幅の特徴データがあっても効率的な処理を実現するための技術を提供すること。【解決手段】 複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータと複数のフィルタ係数との積和演算を実行する。該複数の積和演算結果を複数のシフトパラメータに基づいてシフトする。該シフトされた複数の積和演算結果の総和を計算する。階層のビット幅に応じてシフトパラメータの値を切り替える。【選択図】 図4

Description

本発明は、複数の階層を有するネットワークにおける演算技術に関するものである。
近年、深層学習の進歩により、画像認識の精度が上がっている。畳み込みニューラルネットワーク(Convolutional Neural Networks : CNN)は、深層学習に用いられる手法として知られている。CNNでは、複数のレイヤ(階層)が階層的に接続されており、各レイヤの中に複数枚の特徴画像がある。図2に、レイヤの数が4(レイヤ1〜4)であって、各レイヤの中に特徴画像が4枚あるネットワークの例を示す。図2において特徴画像(i,j)は、レイヤiにおけるj枚目の特徴画像を表す。学習したフィルタ係数と特徴画像の画素(特徴データ)を用いてフィルタ処理の結果を計算する。フィルタ処理は積和演算であり、複数の乗算と累積加算を含んでいる。図2の矢印は積和演算を意味する。
現レイヤにおける特徴画像は、前レイヤにおける特徴画像と前レイヤに対応するフィルタ係数とを用いて計算する。現レイヤにおける1枚の特徴画像を計算するためには、前レイヤにおける複数枚の特徴画像の情報が必要である。現レイヤにおける特徴画像を計算するための畳み込み演算の計算式は以下の通りである。
Figure 2020057286
ここで、Oi,j(n)は、現レイヤにおけるn枚目の特徴画像中の位置(i,j)に対応する積和演算結果を表す変数である。この(式1)では、前レイヤの中に特徴画像がM枚あり、m枚目の特徴画像において位置(i,j)における特徴データををIi,j(m)と表している。フィルタ係数(C1,1(m,n)〜CX,Y(m,n))は(X×Y)個あり、特徴画像によって異なる。現レイヤにおけるn枚目の特徴画像を算出するための積和演算回数は(M×X×Y)回である。畳み込み演算を行った後に、現レイヤの情報に基づき、積和演算結果Oi,j(n)を用いて活性化処理やプーリング等の処理を行い、現レイヤの特徴画像を計算する。
CNNでは、積和演算の回数が多いため、携帯端末や車載機器等の組み込みシステムに適用する場合、効率的なデータ並列処理装置が求められる。処理データのビット幅を削減すると、畳み込み演算結果を計算する演算器のコストが小さくなるため、演算器の並列度を上げることが可能になる。非特許文献1では、レイヤ毎にデータのビット幅が異なるネットワークを処理するハードウェアの構成が提案されている。
Y. Li, et al., A 7.663-TOPS 8.2-W Energy-efficient FPGA Accelerator for Binary Convolutional Neural Networks, Proceedings of the 2017 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays, Pages 290-291, Feb. 2017 K. Lee, et al., A 502-GOPS and 0.984-mW Dual-Mode Intelligent ADAS SoC With Real-Time Semiglobal Matching and Intention Prediction for Smart Automotive Black Box System, IEEE Journal of Solid-State Circuits, Vol. 52, No. 1, Pages 139-150, Jan. 2017
非特許文献1に記載の手法では、異なる種類の演算器でレイヤ毎にビット幅が異なるCNNを処理する。入力レイヤの特徴データのビット幅が8ビットであり、中間レイヤの特徴データのビット幅が2ビットの場合、8ビットのデータ専用の畳み込み演算器と2ビットのデータ専用の畳み込み演算器が必要である。
8ビットのデータのレイヤと2ビットのデータのレイヤをパイプライン方式で処理し、データを並行して処理することができるが、レイヤ毎の畳み込み処理の計算量が異なる場合には、ハードウェアの利用効率が低下する。また、2ビットと8ビットの間のビット幅(4ビット等)の特徴データを処理する場合、専用の畳み込み演算器がないため、8ビットのデータ専用の畳み込み演算器を利用することになり、効率が下がる。
非特許文献2に記載の手法では、複数種類のビット幅の特徴データを処理可能なSIMD(シングルインストラクションマルチプルデータ)構成のRNN(Reccurent Neural Network)専用ハードウェアが提案されている。同じハードウェアで8ビット、16ビット、32ビットのデータを処理可能であるが、並行して出力されたデータの総和を計算する際に、一旦メモリに保持してからもう一回SIMDのコマンドを実行する必要があり、処理時間が長くなる。本発明では、複数の階層を有するネットワークの中に複数種類のビット幅の特徴データがあっても効率的な処理を実現するための技術を提供する。
本発明の一様態は、複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータと複数のフィルタ係数との積和演算を実行する複数の積和演算手段と、前記複数の積和演算手段による複数の積和演算結果を複数のシフトパラメータに基づいてシフトする複数のシフト演算手段と、前記複数のシフト演算手段によりシフトされた複数の積和演算結果の総和を計算する加算手段と、前記階層のビット幅に応じて前記シフトパラメータの値を切り替える制御手段とを備えることを特徴とする。
本発明の構成によれば、複数の階層を有するネットワークの中に複数種類のビット幅の特徴データがあっても効率的な処理を実現することができる。
データ処理のフローチャート。 処理対象ネットワークの構成例を示す図。 情報処理装置のハードウェア構成例を示すブロック図。 データ処理部305の構成例を示すブロック図。 積和演算部402とシフト演算部403の構成例を示すブロック図。 処理時間とデータの関係図。 データ処理部305の構成例を示すブロック図。 積和演算部702とシフト演算部701の構成例を示すブロック図。 データ処理のフローチャート。 特徴データが8ビット/2ビット/4ビットの例を示す図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。
[第1の実施形態]
先ず、本実施形態に係る情報処理装置のハードウェア構成例について、図3のブロック図を用いて説明する。情報処理装置には、PC(パーソナルコンピュータ)、タブレット型端末装置、スマートフォンなどのコンピュータ装置を適用することができる。また、この情報処理装置は、これらの機器などに組み込む組み込み機器であっても構わない。
入力部301は、キーボード、マウス、タッチパネルなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU306に対して入力することができる。
データ保存部302は、ハードディスクドライブ装置等の大容量情報記憶装置である。データ保存部302には、OS(オペレーティングシステム)、CPU306が実行する各種のコンピュータプログラム、CPU306が各種の処理を実行する際に用いるデータ等、情報処理装置にて使用される各種の情報が保存されている。データ保存部302に保存されているデータには、画像処理部309による処理対象となる画像も含まれている。また以下の説明において既知の情報として説明する情報は、このデータ保存部302に保存されている。データ保存部302に保存されているコンピュータプログラムやデータは、CPU306やデータ処理部305や画像処理部309などによりRAM308などにロードされ、CPU306やデータ処理部305や画像処理部309などの処理対象となる。
なお、データ保存部302は、記憶媒体(フレキシブルディスク、CD−ROM、CD−R、DVD、メモリーカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等)であっても良い。この場合、情報処理装置は、このような記憶媒体に対する情報の読み書きを行う装置を有する必要がある。
通信部303は、外部の機器との間のデータ通信を行うための通信インターフェースとして機能するものであり、情報処理装置において処理の実行に必要な情報等をこの通信部303によって外部から取得するようにしても良い。また、情報処理装置が行った処理の結果を通信部303によって外部の機器に対して送信しても良い。
表示部304は、液晶画面やタッチパネル画面などにより構成されており、CPU306やデータ処理部305や画像処理部309による処理結果を画像や文字などでもって表示することができる。なお、表示部304は、プロジェクタ装置などの投影装置であっても良い。また、入力部301と表示部304とを一体化させてタッチスクリーン装置のような、指示入力の受け付け機能と表示機能とを有する装置を形成しても良い。
データ処理部305は、画像処理部309によってRAM308に書き込まれた画像を用いて図1のフローチャートに従った処理を実行することでCNNの計算を行い、該計算によって得られた結果をデータ保存部302やRAM308等に出力する。なお、データ処理部305による処理対象となる画像は、画像処理部309によってRAM308に書き込まれた画像に限らず、例えば、他の装置によって入力された画像であっても良い。データ処理部305については、図4を用いて後述する。
CPU306は、ROM307やRAM308に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU306は、情報処理装置全体の動作制御を行う。
ROM307には、情報処理装置の設定データや起動プログラムなどの書換不要の情報が格納されている。RAM308は、データ保存部302やROM307からロードされたコンピュータプログラムやデータ、通信部303が外部から受信した情報、を格納するためのエリアを有する。またRAM308は、CPU306やデータ処理部305や画像処理部309が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM308は、各種のエリアを適宜提供することができる。
画像処理部309は、CPU306からの指示に従って、データ保存部302に保存されている画像を読み出し、該画像中の各画素の画素値のレンジ調整を行ってから、該画像をRAM308に書き込む。
上記の入力部301、データ保存部302、通信部303、表示部304、データ処理部305、CPU306、ROM307、RAM308、画像処理部309、は何れもバス310に接続されている。
なお、情報処理装置のハードウェア構成は図3に示した構成に限らない。例えば、図3の構成を複数の装置で実現させても良い。また、入力部301、データ保存部302、表示部304、といった機器を情報処理装置が有することに限らず、このような機器を情報処理装置と通信路を介して接続するようにしても良い。
また、RAM308に格納するものとして説明する情報の一部若しくは全部をデータ保存部302に格納するようにしても良いし、データ保存部302に格納するものとして説明する情報の一部若しくは全部をRAM308に格納するようにしても良い。あるいは、RAM308の一部をデータ保存部302として用いるようにしても良いし、通信部303が通信する相手の機器の記憶装置を、通信部303を介して利用するというように仮想的に構成するようにしても良い。
また、図3ではCPU306は1つとしているが、情報処理装置が有するCPU306の数は1に限らず、複数であっても良い。また、データ処理部305や画像処理部309はハードウェアとして実装するようにしても良いし、コンピュータプログラムとして実装するようにしても良い。後者の場合、このコンピュータプログラムはデータ保存部302に格納され、CPU306が該コンピュータプログラムを実行することでデータ処理部305や画像処理部309の機能を実現させることになる。
なお、CPU306は、データ処理部305による処理の結果に基づき、通信部303やデータ保存部302から取得する動画像における各フレームに対する画像処理および/または画像認識を行う。CPU306による画像処理や画像認識の結果は、RAM308やデータ保存部302に保存される、もしくは通信部303を介して外部の機器に対して出力される。また、CPU306による画像処理や画像認識の結果は、表示部304に画像や文字として表示されても良いし、情報処理装置が音声出力機能を有する場合には、音声として出力するようにしても良い。
<処理対象ネットワーク>
本実施形態では処理対象ネットワークとしてCNNを用いる。処理対象ネットワークの構成例を図2に示す。図2の処理対象ネットワークの詳細については上記の通りである。なお、処理対象ネットワークの積和演算の計算量、特徴画像のサイズ、枚数、ビット数等の情報はデータ保存部302等に保存されている。
図2の処理対象ネットワークのレイヤの数は4(レイヤ1〜4)であり、各レイヤの中に特徴画像が4枚ある。上記の通り、特徴画像(i,j)は、レイヤiにおけるj枚目の特徴画像を表す。また、レイヤにより、レイヤ中の特徴画像のビット幅が異なる。レイヤ1の特徴画像のビット幅は8ビットであり、レイヤ2の特徴画像のビット幅は2ビットであり、レイヤ3の特徴画像のビット幅は4ビットであり、レイヤ4の特徴画像のビット幅は8ビットである。最初のレイヤ(レイヤ1)と最後のレイヤ(レイヤ4)は入出力画像の情報を保持するため、中間レイヤ(レイヤ2,3)のビット幅(それぞれ2ビット、4ビット)より大きいビット幅(8ビット)を使用することが多い。特徴画像は複数の画素(特徴データ)で構成されている。
ここで、データ処理部305によるレイヤ1〜4のそれぞれの特徴画像の計算(生成)について説明する。レイヤ1における8ビットの特徴画像(1,1)、(1,2)、(1,3)、(1,4)と、フィルタ係数と、を用いて上記の(式1)に従った積和演算を行う。そして、この積和演算の結果から、レイヤ2における2ビットの特徴画像(2,1)、(2,2)、(2,3)、(2,4)を生成する。
そして、レイヤ2における2ビットの特徴画像(2,1)、(2,2)、(2,3)、(2,4)と、フィルタ係数と、を用いて上記の(式1)に従った積和演算を行う。そして、この積和演算の結果から、レイヤ3における4ビットの特徴画像(3,1)、(3,2)、(3,3)、(3,4)を生成する。
そして、レイヤ3における4ビットの特徴画像(3,1)、(3,2)、(3,3)、(3,4)と、フィルタ係数と、を用いて上記の(式1)に従った積和演算を行う。そして、この積和演算の結果から、レイヤ4における8ビットの特徴画像(4,1)、(4,2)、(4,3)、(4,4)を生成する。
<データ処理部305の構成例>
データ処理部305の構成例を図4に示す。データメモリ401は、各レイヤにおけるそれぞれの特徴画像を構成する特徴データを保持しており、係数メモリ404はフィルタ係数を保持している。積和演算部402は、係数メモリ404に保持されているフィルタ係数と、データメモリ401に保持されている特徴データと、を用いた積和演算を行うことで、積和演算結果を計算する。シフト演算部403は、積和演算部402によるそれぞれの積和演算結果をシフトし、加算部406は、シフトされた複数の積和演算結果を足し合わせて「シフトされた積和演算結果の総和」を求める。処理部407は、加算部406が求めた「シフトされた積和演算結果の総和」に基づいて、活性化・プーリングの処理結果を計算し、該計算した活性化・プーリングの処理結果をデータメモリ401に格納する。制御部405は、データ処理部305全体の動作制御を行う。
データ処理部305によるデータ処理について、図1のフローチャートに従って説明する。ステップS101では、制御部405は、複数枚の入力特徴画像の特徴データとフィルタ係数とをRAM308から読み出し、該読み出した特徴データをデータメモリ401に格納し、該読み出したフィルタ係数を係数メモリ404に格納する。
ステップS102では、制御部405は、レイヤについてのループを開始し、未処理のレイヤのうち1つを以下の処理対象レイヤとする。ここでは一例としてレイヤ1〜4の順に処理対象とするため、最初はレイヤ1が処理対象レイヤとなる。
ステップS103では、制御部405は、シフト演算部403のシフトパラメータをレイヤ情報に応じて設定する。ステップS104では、制御部405は、出力特徴画像のループを開始し、出力特徴データを順番に計算する。ステップS105では、制御部405は、加算部406に保存されている積和演算結果を初期化してゼロに設定する。加算部406は総和計算の機能を備えている。
ステップS106では、制御部405は、入力特徴画像のループを開始し、入力特徴データを順番に処理する。ステップS107では、制御部405による制御の元で、積和演算部402、シフト演算部403のそれぞれは上記の積和演算、シフト演算を行う。ステップS107における処理の詳細(ステップS115〜ステップS117)については後述する。
ステップS108では、加算部406は、複数の積和演算結果を足し合わせて「シフトされた積和演算結果の総和」を求める。ステップS109では、制御部405は、入力特徴画像のループの終了判定をする。全ての入力特徴画像の処理が終わった場合にはステップS110に進み、未処理の入力画像特徴が残っている場合には、ステップS107に戻り、次の未処理の入力特徴画像の処理を開始する。ステップS110では、処理部407は、加算部406が求めた「シフトされた積和演算結果の総和」に基づき、以下の(式2)に従って活性化処理結果を計算する。
Figure 2020057286
ここで、f(・)は活性化関数であり、xは入力データである。この例ではReLU(Rectified Linear Unit)を用いて活性化関数を実現したが、ReLUに限らず、他の非線形の関数、または量子化関数で実現してもよい。なお、必要に応じて活性化処理結果のビット幅に調整する。
ステップS111では、処理部407はレイヤの情報に応じて、活性化処理結果に基づいてプーリング処理を行うことで、活性化・プーリングの処理結果を計算する。ステップS112では、処理部407は、ステップS111で計算した活性化・プーリングの処理結果を、次のレイヤの特徴画像としてデータメモリ401に格納する。
ステップS113では、制御部405は、出力特徴画像のループの終了判定をする。全ての出力特徴画像の処理が終わった場合にはステップS114に進み、未処理の出力画像特徴が残ってる場合には、ステップS105に戻り、未処理の出力画像特徴について処理を開始する。
ステップS114では、制御部405はレイヤのループの終了判定をする。全てのレイヤの処理が終わった場合、図1のフローチャートに従った処理は終了し、未処理のレイヤが残っている場合には、ステップS103に戻り、未処理のレイヤについて処理を開始する。
<積和演算・シフト演算>
ステップS107における積和演算・シフト演算(ステップS115〜ステップS117)について説明する。ステップS115では、制御部405は、データメモリ401から特徴データを読み出して積和演算部402に転送すると共に、係数メモリ404からフィルタ係数を読み出して積和演算部402に転送する。ここで、フィルタ係数の個数と転送回数は特徴データのビット幅により異なる。
ステップS116では、積和演算部402は、特徴データとフィルタ係数とに基づいて積和演算結果を計算する。ステップS117では、シフト演算部403は、ステップS116で得られた積和演算結果を、ステップS103で設定されていたシフトパラメータに基づいてシフトする。
<ビット幅が異なる場合の詳細説明>
本実施形態では、ビット幅が異なるデータを処理することが可能である。図10(A)には、8ビットの特徴データを処理する場合における積和演算部402、シフト演算部403、加算部406の動作を示している。図10(B)には、2ビットの特徴データを処理する場合における積和演算部402、シフト演算部403、加算部406の動作を示している。
特徴データが8ビットの場合、図10(A)に示す如く、積和演算部402は8ビットの特徴データ1001(値:234)を2ビットのデータ(2ビットデータ)ごとに分割する。そして積和演算部402は、該分割した4個の2ビットデータ(値:2、2、2、3)と共通のフィルタ係数とを用いて4つの積和演算結果を計算し、シフト演算部403は、4個のシフトパラメータに基づいて4つの積和演算結果をシフトする。そして加算部406は、シフトされた4つの積和演算結果を足し合わせて1個の特徴データ(8ビットの入力特徴データの積和演算結果)を計算する。このように、データ処理部305は1個の8ビットの入力特徴データを処理できる。
特徴データが2ビットの場合、図10(B)に示す如く、積和演算部402は4個の2ビットデータ1002(値:2、2、2、3)と4個のフィルタ係数とを用いて、4つの積和演算結果を計算する。シフト演算部403は、1個のシフトパラメータに基づいて、4つの積和演算結果をシフトする。シフトパラメータはゼロのため、シフト演算前後の結果は同じである。そして加算部406は、4つの積和演算結果を足し合わせて1個の特徴データ(4個の2ビットの入力特徴データの積和演算結果の総和)を計算する。このように、データ処理部305は4個の2ビットの入力特徴データを並列に処理できる。
ここで、入力特徴画像の枚数をMとし、フィルタサイズを1×1とする。フィルタサイズが1画素であり、変数x、yの値は定数であるため、Oi,j(n)はIi,j(n)を用いて計算する。積和演算の計算(式1)が以下のように簡略化される。
Figure 2020057286
フィルタサイズが1×1以上の場合、積和演算部402はフィルタ係数と入力特徴データとの畳み込み演算結果を計算するが、フィルタサイズが1×1の場合、積和演算部402はI(m)とC(m,n)の積を計算する。
処理対象の特徴データはビット幅がαビットとビット幅がβビットの2種類であるとする。図4に示した積和演算部402は積和演算結果を計算するαビットのデータの積和演算ユニットがP個あり、シフト演算部403はシフト演算結果を計算するαビットのデータの積和演算ユニットがP個ある。α、β、Pは以下の条件を満たしている。
Figure 2020057286
入力特徴データI’(β)のビット幅がβビットの場合、加算部406の出力は以下の(式5)で表され、(式6)、(式7)、(式8)が前提条件になる。
Figure 2020057286
O(n)はn枚目の出力特徴画像の積和演算結果であり、I(α),p(m)はαビットのデータの積和演算ユニットの入力データであり、C(m,n)はフィルタ係数であり、S(p)はシフトパラメータである。変数mはαビットの入力特徴画像グループ(1グループ=P枚)の番号(積和演算部402の処理番号)であり、変数pは積和演算ユニット、シフト演算ユニットの番号であり、変数nは出力特徴画像の番号である。シフト演算は2のべき乗の処理で表現される。
フィルタ係数C(m,n)は(式6)に示す如く、m枚目のβビットの特徴画像が対応しているフィルタ係数C’(m,n)である。αビットの入力特徴画像グループはフィルタ係数が共通となるため、pを省略することができる。P個の積和演算ユニットに並列に供給するフィルタ係数の個数は1個であり、転送回数は1回である。
Figure 2020057286
ここでは、入力特徴データI’(β)をP個のαビットのデータI(α),p(m)に分割する。シフトパラメータS(p)の値は(式7)に示す如く、積和演算ユニットの番号pと分割されたデータのビット幅αに基づいて計算する。
Figure 2020057286
βビットの入力特徴データI’(β)は式(8)に示す如く、分割されたP個のαビットのデータI(α),p(m)で表現される。
Figure 2020057286
ここで、(式6)、(式7)、(式8)を(式5)に代入すると、出力データO(n)の式は以下の(式9)となる。
Figure 2020057286
一方、入力特徴データI’(α)のビット幅がαビットの場合、加算部406の出力は以下の(式10)で表され、(式11)、(式12)、(式13)が前提条件になる。
Figure 2020057286
O(n)はn枚目の出力特徴画像の積和演算結果であり、I(α),p(m)はαビットのデータの積和演算ユニットの入力データであり、C(m,n)はフィルタ係数であり、S(p)はシフトパラメータである。変数mはαビットの入力特徴画像グループ(1グループ=P枚)の番号(積和演算部402の処理番号)であり、変数pは積和演算ユニット、シフト演算ユニットの番号であり、変数nは出力特徴画像の番号である。シフト演算は2のべき乗の処理で表現される。
フィルタ係数C(m,n)は第{(m−1)×P+p}枚目のαビットの特徴画像が対応しているフィルタ係数C’((m−1)×P+p,n)である。積和演算ユニットの番号pによりフィルタ係数が異なるため、P個の積和演算ユニットに並列に供給するフィルタ係数の個数はP個であり、転送回数はP回である。
Figure 2020057286
入力特徴データI’(α)はαビットのデータの積和演算ユニットの入力データI(α),p(m)になり、シフトパラメータS(p)の値は(式12)に示す如く常に0である。
Figure 2020057286
P個のαビットの入力特徴データI’(α)をそのまま積和演算ユニットに入力するが、P個の入力データはそれぞれ異なる特徴画像の特徴データである。特徴画像の番号は、積和演算ユニットの番号pと、積和演算ユニットの個数Pと、積和演算部402の処理番号mで以下の(式13)に示す如く表現される。
Figure 2020057286
ここで、(式11)、(式12)、(式13)を(式10)に代入すると、出力データO(n)の式は以下の(式14)となる。
Figure 2020057286
シフトパラメータS(p)の値とフィルタ係数の個数を変更することにより、ビット幅がαビットの特徴データI’(α)とビット幅がβビットの特徴データI’(β)を、同じ演算器(積和演算部402、シフト演算部403、加算部406)で処理することができる。
<ビット幅が異なる場合の処理例>
図5と図10(A)、(B)は、P=4、β=8、α=2の場合の構成例である。積和演算部402は入力データのビット幅が2ビットであり、シフト演算部403は入力データのビット幅が6ビットであり、加算部406の入力データのビット幅が12ビットである。
図5のハードウェア構成を用いて図2の処理対象ネットワークを処理した場合の処理時間の例を図6に示す。図6(A)と図10(A)にレイヤ1(8ビットのデータ、入力特徴画像枚数M=4)を処理した場合の例を示す。特徴画像(1,1)の特徴データI’(8)(1)は8ビットであり、(式8)に基づいて4つに分割された4つのデータI(2),1(1)−I(2),4(1)を、積和演算部402に入力する。入力特徴データとシフトパラメータとフィルタ係数C(m,n)を用いてシフト演算結果を計算し、加算部406に入力し、初期値ゼロと足し合わせる。計算結果はシフト演算結果になり、加算部406に保持される。所要時間は1msである。
特徴画像(1,2)の特徴データI’(8)(2)は8ビットであり、(式8)に基づいて分割された4つのデータI(2),1(2)−I(2),4(2)を、積和演算部402に入力する。入力特徴データとシフトパラメータとフィルタ係数C(m,n)を用いてシフト演算結果を計算し、加算部406に入力し、前の結果に加算する。所要時間は1msである。
特徴画像(1,2)と同じように、特徴画像(1,3)と特徴画像(1,4)を順番に処理し、シフト演算結果を累積し、加算結果を計算する。所要時間は2msである。最後に処理部407を通して、特徴画像(2,1)の特徴データを出力する。4枚の特徴画像の処理時間は4msである。
図6(B)と図10(B)にレイヤ2(2ビットのデータ、入力特徴画像枚数M=4)を処理した場合の例を示す。特徴画像(2,1)−(2,4)の特徴データI’(2)(1)−I’(2)(4)は2ビットであり、(式13)に基づいて4つのデータI(2),1(1)−I(2),4(1)を、積和演算部402に並列に入力する。入力特徴データとシフトパラメータとフィルタ係数Cp(m,n)を用いてシフト演算結果を計算し、加算部406に入力し、初期値ゼロと足し合わせ、計算結果はシフト演算結果になる。最後に、処理部407を通して、特徴画像(3,1)の特徴データを出力する。4枚の特徴画像の処理時間は1msである。
図6(A)、(B)と図10(A)、(B)に示す如く、入力特徴データが8ビットの場合、出力データあたりの処理時間は4msであり、入力特徴データが2ビットの場合、出力データあたりの処理時間は1msである。共通のデータ処理部305でビット幅が異なるデータを効率よく処理することが可能である。
[第2の実施形態]
以下では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
<シフト演算と積和演算の順番>
第1の実施形態では、積和演算の後にシフト演算を行う例について説明したが、積和演算とシフト演算の順番を入れ替えても処理結果は同じである。積和演算とシフト演算の順番が入れ替わった場合、図1のフローチャートの一部が変更される。ステップS107は図9のステップS901〜ステップS903になる。
本実施形態に係るデータ処理部305の構成例を図7に示す。シフト演算部701は、データメモリ401に格納されている特徴データをシフトパラメータに基づいてシフトし、積和演算部702は、シフトされた特徴データとフィルタ係数とに基づいて積和演算結果を計算する。
<シフト演算・積和演算>
ステップS107で行われる積和演算・シフト演算(ステップS901〜ステップS903)について説明する。ステップS901では、制御部704は、データメモリ401から特徴データを読み出し、係数メモリ703からフィルタ係数を読み出す。ステップS902では、シフト演算部701は、ステップS103で設定されていたシフトパラメータに基づき、特徴データをシフトする。ステップS903では、積和演算部702は、シフトされた特徴データとフィルタ係数とに基づいて積和演算結果を計算する。
<ビット幅が異なる場合の詳細説明>
本実施形態では、シフト演算部701はシフト結果を計算するαビットのデータのシフト演算ユニットがP個あり、積和演算部702は積和演算結果を計算するαビットのデータの積和演算ユニットがP個ある。積和演算部702の出力は(式15)で表され、(式5)に示したシフト演算部403の出力と等価である。
Figure 2020057286
図8に、P=4、β=8、α=2の場合の例を示す。シフト演算部701は入力データのビット幅が2ビットであり、積和演算部702は入力データのビット幅が8ビットであり、加算部406の入力データのビット幅が12ビットである。シフト演算部701と積和演算部702はビット幅により回路規模が異なるため、シフト演算部701(シフト演算部403)と積和演算部702(積和演算部402)の順番を入れ替えることにより、全体的な回路規模を削減することが可能である。
[第3の実施形態]
第1,2の実施形態では、入力特徴データのビット幅がαビット(積和演算ユニットのビット幅)、βビット(積和演算ユニットのビット幅と積和演算ユニット数の積)である例について説明したが、制限があるわけでなく、α、β以外のビット幅でも良い。
<入力特徴データのビット幅がγビットの場合>
本実施形態では、ビット幅がγビットの入力特徴データを処理することが可能である。図10(C)に特徴データが4ビットの例を示す。特徴データが4ビットの場合、図10(C)に示す如く、積和演算部402は2個の4ビットの特徴データ1003(値:10、14)を2ビットずつ分割する。そして積和演算部402は、該分割された4個の2ビットのデータ(値:2、2、2、3)と2個のフィルタ係数を用いて、4つの積和演算結果を計算する。シフト演算部403は、2個のシフトパラメータに基づいて、4つの積和演算結果をシフトする。加算部406は、シフトされた4つの積和演算結果を足し合わせて1個の特徴データ(2個の4ビットの入力特徴データの積和演算結果の総和)を計算する。このように、データ処理部305は2個の4ビットの入力特徴データを並列に処理できる。γは入力特徴データのビット幅であり、γの値はβと異なる。α、β、Pは第1の実施形態と同じ定義であり、γ、α、P’は以下の条件を満たしている。
Figure 2020057286
γはβより小さく、PはP’の倍数である。入力特徴データI’(γ)のビット幅がγビットの場合、加算部406の出力データO(n)は以下の(式17)で表され、(式18)、(式19)、(式20)が前提条件になる。
Figure 2020057286
O(n)はn枚目の出力特徴画像の積和演算結果であり、I(α),p(m)はαビットのデータの積和演算ユニットの入力データであり、C(m,n)はフィルタ係数であり、S(p)はシフトパラメータである。変数mはαビットの入力特徴画像グループ(1グループ=P枚)の番号(積和演算部402の処理番号)であり。積和演算ユニットとシフト演算ユニットはそれぞれP/P’セットに分かれており、変数qは積和演算ユニットのセットの番号である。変数pはセット内の積和演算ユニット、シフト演算ユニットの番号であり、変数nは出力特徴画像の番号である。シフト演算は2のべき乗の処理で表現される。
フィルタ係数Cp,q(m,n)は第{(m−1)×P/P’+q}枚目のγビットの特徴画像が対応しているフィルタ係数C’((m−1)×P/P’+q,n)である。フィルタ係数は積和演算ユニットのセット番号qに基づいて計算する。フィルタ係数の一部が共通するため、P個の積和演算ユニットに並列に供給するフィルタ係数の個数はP/P’個であり、転送回数はP/P’回である。
Figure 2020057286
ここでは、入力特徴データI’(γ)をP’個のαビットのデータI(α),p(m)に分割する。シフトパラメータS(.)は積和演算ユニットのビット幅αと積和演算ユニットの番号pに基づいて計算する。
Figure 2020057286
γビットの入力特徴データI’(γ)は分割されたP’個のαビットのデータI(α),p,q(m)で表現される。
Figure 2020057286
(式18)、(式19)、(式20)を(式17)に代入すると、出力データO(n)の式は以下の(式21)になる。
Figure 2020057286
シフトパラメータS(p,q)の値とフィルタ係数の個数を設定することにより、ビット幅がγビットの特徴データI’(γ)を、第1の実施形態と同じ演算器(積和演算部402、シフト演算部403、加算部406)で処理することができる。
<ビット幅が異なる場合の処理例>
図5と図10(C)に、P=4、β=8、α=2の場合の構成例を示し、図5のハードウェア構成を用いて図2の処理対象ネットワークを処理した場合の処理時間の例を図6に示す。
図6(C)と図10(C)にP’=2、γ=4で、レイヤ3(4ビットのデータ、入力特徴画像枚数M=4)を処理した場合の例を示す。特徴画像(3,1)と(3,2)の特徴データI’(4),(1)、I’(4),(2)は4ビットであり、(式20)に基づいて分割された4つのデータI(2),1(1)−I(2),4(1)を、積和演算部402に入力する。入力特徴データとシフトパラメータとフィルタ係数C(m,n)を用いて、シフト演算結果を計算し、加算部406に入力し、初期値ゼロと足し合わせる。計算結果はシフト演算結果になり、加算部406に保持される。所要時間は1msである。
特徴画像(3,3)と(3,4)の特徴データI’(4),(3)、I’(4),(4)は4ビットであり、(式20)に基づいて分割された4つのデータI(2),1(2)−I(2),4(2)を、積和演算部402に入力する。入力特徴データとシフトパラメータとフィルタ係数C(m,n)を用いて、シフト演算結果を計算し、加算部406に入力し、前の結果に加算する。所要時間は1msである。最後に処理部407を通して、特徴画像(4,1)の特徴データを出力する。4枚の特徴画像の処理時間は2msである。
このように、本実施形態では、ビット幅がαビット(積和演算ユニットのビット幅)、βビット(積和演算ユニットのビット幅αと積和演算ユニットの数Pの積)以外の特徴データも処理できるため、柔軟性が高いというメリットがある。
[第4の実施形態]
第1の実施形態では、処理部407で活性化処理を実行する例について説明したが、活性化処理は処理部407で実行することに限らず、他の装置、例えば、CPU306が活性化処理を実行するようにしても良い。これは他の処理についても同様で、上記の各実施形態では、上記の様々な処理の主体については一例を示したに過ぎず、上記の各実施形態で説明した主体とは異なる主体であっても良い。
また、第1の実施形態では、レイヤ情報に応じて活性化・プーリング処理を実行するようにした。しかし、場合によっては、活性化・プーリング処理を省略するようにしても良い。
また、第1〜3の実施形態では、フィルタサイズ(フィルタの高さと幅)が1×1であるケースについて説明したが、フィルタサイズは1×1に限らず、他のサイズであっても良い。このように、上記の各実施形態における説明で使用した数値はあくまでも具体的な説明を行うために例示した数値であって、上記の各実施形態にて説明した数値に限定されることを意図したものではない。
フィルタサイズが小さい場合、フィルタ係数を保持するメモリ(係数メモリ404、703)の容量もより少なくてすむというメリットがある。フィルタの幅と高さの最小値は1である。
また、第1〜3の実施形態では、入力特徴画像の枚数をM、出力特徴画像の枚数をN、とした。しかし、M,Nに適用可能な数値は特定の数値に限らない。このように、上記の様々な変数に適用可能な数値は特定の数値に限らない。
また、第1〜3の実施形態では、フィルタ係数を係数メモリ404、703に保持し、特徴データをデータメモリ401に保持するようにしたが、フィルタ係数や特徴データを保持するメモリは特定のメモリに限らない。例えば、フィルタ係数や特徴データを積和演算部402、702が有するメモリに保持しても良いし、RAM308に保持しても良い。
また、フィルタ係数のビット幅は特定のビット幅に限らない。また、第1〜3の実施形態では、処理対象ネットワークとしてCNNを用いたが、処理対象ネットワークはCNNに限らず、RNNやMLP(多層パーセプトロン)等のような他の種類の複数のレイヤが階層的に接続されているネットワークであっても良い。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
401:データメモリ 402:積和演算部 403:シフト演算部 404:係数メモリ 405:制御部 406:加算部 407:処理部

Claims (12)

  1. 複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータと複数のフィルタ係数との積和演算を実行する複数の積和演算手段と、
    前記複数の積和演算手段による複数の積和演算結果を複数のシフトパラメータに基づいてシフトする複数のシフト演算手段と、
    前記複数のシフト演算手段によりシフトされた複数の積和演算結果の総和を計算する加算手段と、
    前記階層のビット幅に応じて前記シフトパラメータの値を切り替える制御手段と
    を備えることを特徴とする情報処理装置。
  2. 前記制御手段は、前記階層のビット幅に応じてフィルタ係数の転送回数を切り替えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記シフト演算手段は複数のシフトパラメータに基づいて前記複数の積和演算結果をシフトすることを特徴とする請求項1−2の積和演算装置。
  4. 複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータを複数のシフトパラメータに基づいてシフトする複数のシフト演算手段と、
    前記複数のシフト演算手段によりシフトされた複数のデータと複数のフィルタ係数との積和演算を実行する複数の積和演算手段と、
    前記複数の積和演算手段により計算された複数の積和演算結果の総和を計算する加算手段と、
    前記階層のビット幅に応じて前記シフトパラメータの値を切り替える制御手段と
    を備えることを特徴とする情報処理装置。
  5. 前記複数の積和演算手段と前記複数のシフト演算手段とは並列に動作することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記加算手段は、ある階層に対する前記総和を該階層の次の階層のデータとしてメモリに格納することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記加算手段は、ある階層に対する前記総和に対して活性化処理、プーリング処理を行った結果を、該階層の次の階層のデータとしてメモリに格納することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  8. 更に、
    前記メモリに格納されたデータに基づいて、動画像における各フレームに対する画像処理および/または画像認識を行う手段を備えることを特徴とする請求項6または7に記載の情報処理装置。
  9. 前記ネットワークは、階層ごとにデータのビット幅が異なることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の複数の積和演算手段が、複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータと複数のフィルタ係数との積和演算を実行する工程と、
    前記情報処理装置の複数のシフト演算手段が、前記複数の積和演算手段による複数の積和演算結果を複数のシフトパラメータに基づいてシフトする工程と、
    前記情報処理装置の加算手段が、前記複数のシフト演算手段によりシフトされた複数の積和演算結果の総和を計算する工程と、
    前記情報処理装置の制御手段が、前記階層のビット幅に応じて前記シフトパラメータの値を切り替える工程と
    を備えることを特徴とする情報処理方法。
  11. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の複数のシフト演算手段が、複数の階層を有するネットワークにおけるそれぞれの階層について、該階層の複数のデータを複数のシフトパラメータに基づいてシフトする工程と、
    前記情報処理装置の複数の積和演算手段が、前記複数のシフト演算手段によりシフトされた複数のデータと複数のフィルタ係数との積和演算を実行する工程と、
    前記情報処理装置の加算手段が、前記複数の積和演算手段により計算された複数の積和演算結果の総和を計算する工程と、
    前記情報処理装置の制御手段が、前記階層のビット幅に応じて前記シフトパラメータの値を切り替える工程と
    を備えることを特徴とする情報処理方法。
  12. コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2018188612A 2018-10-03 2018-10-03 情報処理装置、情報処理方法 Active JP7165018B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2018188612A JP7165018B2 (ja) 2018-10-03 2018-10-03 情報処理装置、情報処理方法
EP19197809.7A EP3633559A1 (en) 2018-10-03 2019-09-17 Information processing apparatus, information processing method, non-transitory computer-readable storage medium
KR1020190118500A KR102574307B1 (ko) 2018-10-03 2019-09-26 정보 처리장치, 정보 처리방법, 비일시적인 컴퓨터 판독가능한 기억매체
CN201910933454.7A CN110991627A (zh) 2018-10-03 2019-09-29 信息处理装置、信息处理方法
US16/589,483 US11468600B2 (en) 2018-10-03 2019-10-01 Information processing apparatus, information processing method, non-transitory computer-readable storage medium
US17/897,353 US11810330B2 (en) 2018-10-03 2022-08-29 Information processing apparatus, information processing method, non-transitory computer-readable storage medium
JP2022169395A JP7414930B2 (ja) 2018-10-03 2022-10-21 情報処理装置、情報処理方法
KR1020230114588A KR102585470B1 (ko) 2018-10-03 2023-08-30 정보 처리장치, 정보 처리방법, 비일시적인 컴퓨터 판독가능한 기억매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188612A JP7165018B2 (ja) 2018-10-03 2018-10-03 情報処理装置、情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022169395A Division JP7414930B2 (ja) 2018-10-03 2022-10-21 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2020057286A true JP2020057286A (ja) 2020-04-09
JP2020057286A5 JP2020057286A5 (ja) 2021-11-11
JP7165018B2 JP7165018B2 (ja) 2022-11-02

Family

ID=67997368

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018188612A Active JP7165018B2 (ja) 2018-10-03 2018-10-03 情報処理装置、情報処理方法
JP2022169395A Active JP7414930B2 (ja) 2018-10-03 2022-10-21 情報処理装置、情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022169395A Active JP7414930B2 (ja) 2018-10-03 2022-10-21 情報処理装置、情報処理方法

Country Status (5)

Country Link
US (2) US11468600B2 (ja)
EP (1) EP3633559A1 (ja)
JP (2) JP7165018B2 (ja)
KR (2) KR102574307B1 (ja)
CN (1) CN110991627A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7165018B2 (ja) * 2018-10-03 2022-11-02 キヤノン株式会社 情報処理装置、情報処理方法
US12039430B2 (en) * 2019-11-15 2024-07-16 Samsung Electronics Co., Ltd. Electronic device and method for inference binary and ternary neural networks
CN114201129A (zh) * 2020-09-18 2022-03-18 比亚迪股份有限公司 智能设备的屏幕投影方法、装置、存储介质及终端
CN112346703B (zh) * 2020-11-24 2021-10-22 华中科技大学 一种用于卷积神经网络计算的全局平均池化电路
CN114565501B (zh) * 2022-02-21 2024-03-22 格兰菲智能科技有限公司 用于卷积运算的数据加载方法及其装置
JP2024026993A (ja) * 2022-08-16 2024-02-29 キヤノン株式会社 情報処理装置、情報処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068196A1 (ja) * 2004-12-24 2006-06-29 Advantest Corporation 畳み込み演算回路
US20170116495A1 (en) * 2015-10-21 2017-04-27 Canon Kabushiki Kaisha Convolution operation apparatus

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1058185A1 (en) * 1999-05-31 2000-12-06 Motorola, Inc. A multiply and accumulate apparatus and a method thereof
JP4571903B2 (ja) 2005-12-02 2010-10-27 富士通株式会社 演算処理装置,情報処理装置,及び演算処理方法
US9031006B2 (en) * 2008-03-13 2015-05-12 Samsung Electronics Co., Ltd Apparatus and method for using guard band as data subcarrier in communication system supporting frequency overlay
JP5376920B2 (ja) * 2008-12-04 2013-12-25 キヤノン株式会社 コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置
US8706791B2 (en) * 2009-07-30 2014-04-22 Ceva D.S.P. Ltd. Low power fir filter in multi-MAC architecture
JP5589628B2 (ja) * 2010-07-12 2014-09-17 株式会社リコー 内積演算装置および内積演算方法
JP2013152454A (ja) 2011-12-27 2013-08-08 Canon Inc 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
KR102336932B1 (ko) 2013-12-27 2021-12-08 소니그룹주식회사 화상 처리 장치 및 방법
US20160328645A1 (en) * 2015-05-08 2016-11-10 Qualcomm Incorporated Reduced computational complexity for fixed point neural network
US10546211B2 (en) * 2016-07-01 2020-01-28 Google Llc Convolutional neural network on programmable two dimensional image processor
CN106528046B (zh) * 2016-11-02 2019-06-07 上海集成电路研发中心有限公司 长位宽时序累加乘法器
JP6961011B2 (ja) * 2016-12-09 2021-11-05 ベイジン ホライズン インフォメーション テクノロジー カンパニー リミテッド データ管理のためのシステム及び方法
US11775313B2 (en) * 2017-05-26 2023-10-03 Purdue Research Foundation Hardware accelerator for convolutional neural networks and method of operation thereof
CN108475188A (zh) * 2017-07-31 2018-08-31 深圳市大疆创新科技有限公司 数据处理方法和设备
JP2019074967A (ja) * 2017-10-17 2019-05-16 キヤノン株式会社 フィルタ処理装置およびその制御方法
CN107844826B (zh) * 2017-10-30 2020-07-31 中国科学院计算技术研究所 神经网络处理单元及包含该处理单元的处理系统
US10929746B2 (en) * 2017-11-27 2021-02-23 Samsung Electronics Co., Ltd. Low-power hardware acceleration method and system for convolution neural network computation
JP6540841B1 (ja) * 2018-02-27 2019-07-10 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム
JP7165018B2 (ja) * 2018-10-03 2022-11-02 キヤノン株式会社 情報処理装置、情報処理方法
JP7402623B2 (ja) * 2019-06-17 2023-12-21 キヤノン株式会社 フィルタ処理装置及びその制御方法
JP2022022876A (ja) * 2020-07-09 2022-02-07 キヤノン株式会社 畳み込みニューラルネットワーク処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068196A1 (ja) * 2004-12-24 2006-06-29 Advantest Corporation 畳み込み演算回路
US20170116495A1 (en) * 2015-10-21 2017-04-27 Canon Kabushiki Kaisha Convolution operation apparatus
JP2017079017A (ja) * 2015-10-21 2017-04-27 キヤノン株式会社 畳み込み演算装置

Also Published As

Publication number Publication date
KR20230130591A (ko) 2023-09-12
CN110991627A (zh) 2020-04-10
KR102574307B1 (ko) 2023-09-05
EP3633559A1 (en) 2020-04-08
JP7165018B2 (ja) 2022-11-02
KR20200038414A (ko) 2020-04-13
KR102585470B1 (ko) 2023-10-06
US11468600B2 (en) 2022-10-11
JP7414930B2 (ja) 2024-01-16
US20200111235A1 (en) 2020-04-09
US20220414938A1 (en) 2022-12-29
JP2022188301A (ja) 2022-12-20
US11810330B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
JP7414930B2 (ja) 情報処理装置、情報処理方法
CN110678840B (zh) 张量寄存器文件
CN110678841B (zh) 张量处理器指令集架构
US11429838B2 (en) Neural network device for neural network operation, method of operating neural network device, and application processor including the neural network device
US20190164043A1 (en) Low-power hardware acceleration method and system for convolution neural network computation
JP2021521516A (ja) 演算を加速するための加速器及びシステム
JP2015197702A (ja) 情報処理装置、情報処理方法
JP2019128806A (ja) データ圧縮装置、データ圧縮方法およびデータ圧縮プログラム
EP3137993B1 (en) Combining compute tasks for a graphics processing unit
KR20200023239A (ko) 복수의 프로세서를 이용하여 신경망 모델을 처리하는 전자 장치 및 그 동작 방법
CN112074847A (zh) 拆分用于在神经网络处理器中处理的输入数据
JP2020204894A (ja) フィルタ処理装置及びその制御方法
WO2018235357A1 (ja) 演算装置、演算方法及びプログラム
JP2021144461A (ja) 学習装置及び推論装置
JP7530187B2 (ja) データ処理装置、データ処理方法
JP2018525730A (ja) スライディングウィンドウ演算
US20220309778A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11861452B1 (en) Quantized softmax layer for neural networks
JP2024026993A (ja) 情報処理装置、情報処理方法
JP2024004400A (ja) データ処理装置及びその方法
JP7114321B2 (ja) データ処理装置及びその方法
JP7538826B2 (ja) 情報処理装置、情報処理方法
WO2022089421A1 (en) ReLU COMPRESSION TO REDUCE GPU MEMORY
US20240232571A1 (en) Palettization of Kernel Vector in Neural Network Processor
US9349196B2 (en) Merging and splitting data blocks

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220922

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R151 Written notification of patent or utility model registration

Ref document number: 7165018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151