JP2022102966A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2022102966A
JP2022102966A JP2020218058A JP2020218058A JP2022102966A JP 2022102966 A JP2022102966 A JP 2022102966A JP 2020218058 A JP2020218058 A JP 2020218058A JP 2020218058 A JP2020218058 A JP 2020218058A JP 2022102966 A JP2022102966 A JP 2022102966A
Authority
JP
Japan
Prior art keywords
feature map
dnn
information
partial feature
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020218058A
Other languages
English (en)
Other versions
JP7413249B2 (ja
Inventor
和香子 中野
Wakako Nakano
理宇 平井
Riu Hirai
延之 村中
Nobuyuki Muranaka
浩朗 伊藤
Hiroaki Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020218058A priority Critical patent/JP7413249B2/ja
Priority to DE112021005568.2T priority patent/DE112021005568T5/de
Priority to PCT/JP2021/035696 priority patent/WO2022137696A1/ja
Publication of JP2022102966A publication Critical patent/JP2022102966A/ja
Application granted granted Critical
Publication of JP7413249B2 publication Critical patent/JP7413249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Abstract

Figure 2022102966000001
【課題】2つの演算部を用いてDNN演算を行う情報処理装置において、2つの演算部の間でのデータ通信量を削減する。
【解決手段】情報処理装置1において、AIアクセラレータは、記憶部から重み情報123を取得し、演算処理部から送信される部分特徴マップ124および位置情報121を受信する。そして、位置情報121に基づく所定の前処理を実行し、その前処理の実行結果と部分特徴マップ124とを用いて、DNN演算を実行する。
【選択図】図3

Description

本発明は、情報処理装置および情報処理方法に関する。
従来、カメラの撮影画像や各種センサの情報から車両の周囲状況を認識し、その認識結果に基づいて様々な運転支援を行う技術が広く利用されている。こうした車両の運転支援技術において、近年では複雑な周囲状況に対して高精度な認識結果を得るために、人間の大脳における神経細胞の働きをモデル化したディープニューラルネットワーク(DNN)を利用した演算を行うことが提案されている。
従来のDNN演算では、多数の演算を並列で高速に実行するために、FPGA(Field Programmable Gate Array)やGPU(Graphics Processing Unit)が広く利用されている。近年では、こうしたFPGAやGPUの代わりに、AIアクセラレータと呼ばれるデバイスの利用が進んでいる。AIアクセラレータとは、複数の演算コアを有しており、ベクトル型演算を得意とするAI処理に特化した演算装置の一種である。
AIアクセラレータは、上記のようにDNN演算におけるベクトル型演算に特化したものであるが、DNN演算に必要な処理の全てを実行することはできず、一部の処理については実行が困難である。そのため、従来のAIアクセラレータを用いたDNN演算では、AIアクセラレータとは別の演算処理部をAIアクセラレータに接続し、これらを協調動作させることでDNN演算を行っていた。この場合、DNNの各層についてAIアクセラレータと演算処理部がそれぞれの演算結果を受け渡すために、層ごとにデータ転送を行う必要がある。したがって、AIアクセラレータと演算処理部の間でのデータ通信量が増大し、そのために広いバス帯域幅が必要となり、さらに演算処理部ではメモリリソースの使用率が大きくなってしまう。このように、AIアクセラレータと演算処理部のような2つの演算部を用いてDNN演算を実行する従来の情報処理装置では、2つの演算部の間でのデータ通信量の増大によって様々な問題が生じる。なお、演算処理部には、例えば汎用のマイクロコンピュータ、プログラマブル集積回路、プログラマブル論理デバイス、システムオンチップなど、演算処理が可能な様々なデバイスを利用することが可能である。
AIアクセラレータでは実行困難なDNN演算における処理の一つに、0パディングと呼ばれる処理がある。0パディングとは、DNN演算の対象とされる特徴マップの端部分のデータの畳み込みを可能とするために、特徴マップの周囲に0データを挿入する処理のことである。すなわち、DNN演算において畳み込み演算はベクトル同士の積和演算であるため、AIアクセラレータを用いて実行することが可能であるが、畳み込み演算の前処理として必要な0パディングはベクトルを用いた演算ではないため、AIアクセラレータでの実行が困難である。
DNN演算での処理負荷の軽減に関して、特許文献1の技術が知られている。特許文献1には、特徴マップを格納したグローバルメモリと、重みデータを格納したローカルメモリと、演算処理回路とを備え、これらを用いて畳み込み演算を行うシステムが開示されている。このシステムでは、演算処理回路へのデータ送信速度がグローバルメモリよりもローカルメモリの方が速い場合に、演算処理回路で受信した入力特徴マップの同じ受信部分に対して複数の畳み込み演算を行うことで、メモリ回路網を往復するデータの移動を減らすようにしている。
特表2020-503584号公報
特許文献1の技術は、畳み込み演算におけるデータの移動を低減する技術であり、0パディング処理のようにAIアクセラレータでは実行困難な処理を演算処理回路で実行する際のデータ転送量を削減するものではない。したがって、AIアクセラレータと演算処理部のような2つの演算部の間でのデータ通信量を削減することはできず、前述のような問題を解消するのは困難である。
本発明による情報処理装置は、特徴マップに対してDNN演算を実行するものであって、第1の演算部と、前記第1の演算部とバスを介して接続された第2の演算部と、前記DNN演算で利用される重み情報を格納する記憶部と、を備え、前記第1の演算部は、前記特徴マップの一部である部分特徴マップと、前記部分特徴マップの前記特徴マップ中の位置を表す位置情報とを前記第2の演算部へ送信し、前記第2の演算部は、前記記憶部から前記重み情報を取得し、前記第1の演算部から送信される前記部分特徴マップおよび前記位置情報を受信し、前記位置情報に基づく所定の前処理を実行し、前記前処理の実行結果と前記部分特徴マップとを用いて、前記DNN演算を実行する。
本発明による情報処理方法は、第1の演算部と、前記第1の演算部とバスを介して接続された第2の演算部と、DNN演算で利用される重み情報を格納する記憶部と、を備える情報処理装置を用いて、特徴マップに対してDNN演算を実行するものであって、前記第1の演算部により、前記特徴マップの一部である部分特徴マップと、前記部分特徴マップの前記特徴マップ中の位置を表す位置情報を前記第2の演算部へ送信し、前記第2の演算部により、前記記憶部から前記重み情報を取得し、前記第1の演算部から送信される前記部分特徴マップおよび前記位置情報を受信し、前記位置情報に基づく所定の前処理を実行し、前記前処理の実行結果と前記部分特徴マップとを用いて、前記DNN演算を実行する。
本発明によれば、2つの演算部を用いてDNN演算を行う情報処理装置において、2つの演算部の間でのデータ通信量を削減することができる。
本発明の一実施形態に係る情報処理装置の構成を示す図である。 情報処理装置の構成要素間で送受信される情報の流れを示す図である。 AIアクセラレータにおけるDNN演算部の機能構成を示す図である。 0パディング制御部により実行される処理の説明図である。 演算層情報の例を示す図である。 位置情報の例を示す図である。 DNN演算部の処理の流れを示すフローチャートである。 上端処理、中央処理および下端処理の流れを示すフローチャートである。 第1~第9領域に対する処理の流れを示すフローチャートである。 位置情報再演算処理の流れを示すフローチャートである。 重みレジスタと入力レジスタのデータ配置およびマスク箇所の一例を示す図である。 本発明の第2の実施形態に係る演算処理の説明図である。 本発明の第3の実施形態に係る演算処理の説明図である。 本発明の第4の実施形態に係るマスク処理が必要でない場合の重みレジスタと入力レジスタのデータ配置およびマスク箇所の一例を示す図である。
(第1の実施形態)
図1は、本発明の一実施形態に係る情報処理装置の構成を示す図である。本実施形態の情報処理装置1は、外部から入力される特徴マップに対してDNN演算を実行するものであり、図1に示すように、AIアクセラレータ10、演算処理部20および記憶部30を備えて構成される。
演算処理部20は、例えばマイクロコンピュータを用いて構成されており、所定の演算処理を実行する。演算処理部20には、不図示の外部装置から、DNN演算の実行対象である特徴マップが入力される。例えば、車両に搭載されたカメラによって撮影された画像や、車両に搭載されたLiDAR(Light Detection and Ranging)やレーダによって取得された距離情報などが、車両周辺の物体認識を行うための特徴マップとして演算処理部20に入力される。なお、記憶部30に記憶された特徴マップを演算処理部20に入力してもよい。
記憶部30は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性の記録媒体を用いて構成されており、情報処理装置1が行うDNN演算において利用される情報が格納されている。記憶部30に格納されている情報には、例えばDNN演算における畳み込み演算に使用される重み情報などが含まれる。
AIアクセラレータ10は、ベクトル型演算を得意とするAI処理に特化した演算装置の一種であり、演算処理部20とバスを介して接続されている。AIアクセラレータ10には、演算処理部20に入力された特徴マップの一部が演算処理部20からバスを介して送信される。以下では、演算処理部20に入力される特徴マップを「全体特徴マップ」、演算処理部20からAIアクセラレータ10へ送信される特徴マップの一部を「部分特徴マップ」とそれぞれ称することで、これらを互いに区別する。また、部分特徴マップの全体特徴マップ中の位置を表す位置情報も、部分特徴マップとともに演算処理部20からバスを介して送信される。
AIアクセラレータ10は、DNNの各層に対応してN個のDNN演算部11を有している。各DNN演算部11は、AIアクセラレータ10において第1層から第N層まで順に接続されており、各層のDNN演算を行うカーネル13(図3参照)を有している。
第1層のDNN演算部11には、演算処理部20からAIアクセラレータ10へ送信される部分特徴マップおよび位置情報が入力されるとともに、記憶部30から重み情報が入力される。第1層のDNN演算部11は、これらの入力データに基づいて第1層のDNN演算を実行し、その演算結果を次層(第2層)のDNN演算部11へ出力する。第2層のDNN演算部11は、前層(第1層)のDNN演算部11の演算結果と、記憶部30から入力される重み情報とに基づいて、第2層のDNN演算を実行し、その演算結果を次層のDNN演算部11へ出力する。これ以降の各層のDNN演算部11でも、同様の演算処理が行われる。なお、最終層(第N層)のDNN演算部11の演算結果は、AIアクセラレータ10による最終的なDNN演算の結果として、演算処理部20へ出力される。このようにして、各層のDNN演算部11が対応する層のDNN演算をそれぞれ行うことにより、AIアクセラレータ10においてDNN演算が実行される。
図2は、情報処理装置1の構成要素であるAIアクセラレータ10、演算処理部20および記憶部30の間で送受信される情報の流れを示す図である。図2において、実線の矢印は、矢印の起点から終点に向けたデータの送信を表している。また、破線の矢印は、矢印の起点から終点に向けたデータのストリーム転送、すなわち送信側から受信側への連続したデータの流れを表している。
情報処理装置1においてDNN演算の実行が開始されると、まず記憶部30からAIアクセラレータ10に向けて重み情報が送信される。続いて、演算処理部20からAIアクセラレータ10へ特徴マップの送信が開始される。このとき演算処理部20は、全体特徴マップを所定のデータサイズごとに分割することで複数の部分特徴マップを生成し、順次AIアクセラレータ10へ送信する。さらにこのとき、演算処理部20は、各部分特徴マップをAIアクセラレータ10へ送信するごとに、当該部分特徴マップの全体特徴マップ中での位置を表す位置情報を算出し、AIアクセラレータ10へ送信する。
AIアクセラレータ10は、演算処理部20から送信された部分特徴マップおよび位置情報を受信すると、事前に記憶部30から受信した重み情報を用いて、これらの入力データに基づくDNN演算を各層のDNN演算部11において順次実行する。全ての層についてDNN演算の実行を終えたら、その演算結果を演算処理部20に出力する。
図3は、AIアクセラレータ10におけるDNN演算部11の機能構成を示す図である。AIアクセラレータ10において、DNNの各層に対応するDNN演算部11は、ローカル記憶領域12およびカーネル13をそれぞれ備えて構成される。
ローカル記憶領域12は、DNN演算部11に入力された情報を一時的に記憶してカーネル13に受け渡す機能を有する。ローカル記憶領域12には、位置情報121、演算層情報122、重み情報123および部分特徴マップ124が格納される。位置情報121は、部分特徴マップ124が元の全体特徴マップにおいてどの位置にあるかを表す情報であり、演算処理部20または前層のDNN演算部11から入力される。演算層情報122は、当該DNN演算部11が実行するDNN演算の特徴を表す情報であり、ローカル記憶領域12において予め格納される。重み情報123は、当該DNN演算部11が実行するDNN演算の畳み込み演算において用いられる情報であり、記憶部30から入力される。部分特徴マップ124は、当該DNN演算部11の演算対象データであり、演算処理部20または前層のDNN演算部11から入力される。
カーネル13は、0パディング制御部131、次カーネル位置情報生成部132および畳み込み演算部133を備える。畳み込み演算部133は、重みレジスタ301、入力レジスタ302、積和演算部303および出力レジスタ304を備える。
0パディング制御部131は、ローカル記憶領域12からロードされて重みレジスタ301に格納された重み情報123に対して、位置情報121に基づく0パディング相当の処理を行う。ここで行われる0パディング相当の処理とは、位置情報121により表される位置において部分特徴マップ124が全体特徴マップの端部を含む場合に、その端部に対する畳み込み演算を実行可能とするため、重み情報123において位置情報121に対応する箇所を0データでマスクする処理のことである。すなわち、0パディング制御部131が重みレジスタ301に対して0パディング相当の処理を行うことにより、重みレジスタ301に格納された重み情報123の一部が0データに置き換えられ、マスク済み重み情報が生成される。
畳み込み演算部133は、ローカル記憶領域12から、重み情報123と部分特徴マップ124を重みレジスタ301と入力レジスタ302にそれぞれロードする。積和演算部303は、重みレジスタ301に格納されて0パディング制御部131により0パディング相当の処理が行われたマスク済み重み情報と、入力レジスタ302に格納された部分特徴マップとを用いて、部分特徴マップの各データ値に対する畳み込み演算(積和演算)を実行する。積和演算部303の演算結果は出力レジスタ304に格納され、出力レジスタ304から次層のDNN演算部11または演算処理部20に出力される。
出力レジスタ304より出力された演算結果が次層のDNN演算部11に入力されると、次層のDNN演算部11は、その演算結果を部分特徴マップ124としてローカル記憶領域12に格納する。そして、この部分特徴マップ124を演算対象データとして、畳み込み演算部133により畳み込み演算を実行する。
次カーネル位置情報生成部132は、ローカル記憶領域12に格納された位置情報121および演算層情報122に基づいて、次層のDNN演算部11における部分特徴マップ124として出力レジスタ304から送信される畳み込み演算結果が、元の全体特徴マップにおいてどの位置にあるかを判別する。そして、この判別結果に基づいて位置情報を生成し、次層のDNN演算部11へ出力する。
図4は、0パディング制御部131により実行される処理の説明図である。図4では、演算処理部20において全体特徴マップ401が縦方向と横方向にそれぞれ5分割された各部分特徴マップのうち、全体特徴マップ401の右上端部分に位置する部分特徴マップ124を演算対象とするDNN演算部11において、0パディング制御部131によって0パディング相当の処理を行う場合の例を示している。なお、図4の例では、部分特徴マップ124に対して3×3の重みデータで構成される重み情報123を用いて、1データごとのストライドにより畳み込み演算を行うものとしている。
図4に示すように、畳み込み演算時に3×3の重みデータが全体特徴マップ401上を移動する範囲の領域を畳み込み演算領域402とすると、この畳み込み演算領域402は、全体特徴マップ401が有する上下左右の端部のうちどの部分が含まれるかにより、9種類の領域に分けられる。具体的には、畳み込み演算領域402は、左上角部を含む第1領域と、上端部を含む第2領域と、右上角部を含む第3領域と、左端部を含む第4領域と、いずれの端部も含まない第5領域と、右端部を含む第6領域と、左下角部を含む第7領域と、下端部を含む第8領域と、右下角部を含む第9領域と、に分けられる。
ここで、全体特徴マップ401を分割した各部分特徴マップのうち、例えば前述のように全体特徴マップ401の右上に位置する部分特徴マップ124が入力された場合、DNN演算部11は、この部分特徴マップ124に対して、3×3の重みデータを左から右に向かってストライドに応じた移動距離ずつ移動させながら、各位置での畳み込み演算を行う。そして、重みデータが部分特徴マップ124の右端まで到達してその位置での畳み込み演算が終了すると、重みデータをストライド分の移動距離だけ下方向にずらした後、再び左から右に向かって畳み込み演算を開始する。このようにして、部分特徴マップ124の全ての位置に対して畳み込み演算が行われることにより、DNN演算の特定の層に対応する演算がDNN演算部11において実行される。
DNN演算部11において0パディング制御部131は、位置情報121に基づいて、畳み込み演算が行われる部分特徴マップ124の位置ごとに、その畳み込み演算の範囲が前述の第1~第9領域のうちどの領域に属するかを判定する。例えば、部分特徴マップ124において最初に畳み込み演算が行われる左上の部分は第2領域に属し、右上の部分は第3領域に属すると判定される。同様にして、部分特徴マップ124の各位置について領域判定が行われることにより、符号403に示すような領域判定結果が得られる。この領域判定結果403では、部分特徴マップ124の各位置が第1~第9領域のうちどの領域に属するかを丸数字で表している。
上記のようにして部分特徴マップ124の各位置に対する領域判定結果が得られたら、0パディング制御部131は、この領域判定結果に基づいて、重みレジスタ301に格納された重み情報123に対するマスク箇所を決定する。ここでは、部分特徴マップ124とマスク後の重み情報123との畳み込み演算結果が、部分特徴マップ124の端部分に対して1行1列分の0データを付加する0パディング処理を行った後に重み情報123で畳み込み演算を行ったときの演算結果と一致するように、マスク箇所を決定する。そして、重みレジスタ301において決定したマスク箇所の重み情報123の値を0とすることにより、重みレジスタ301に対して、0パディング相当の処理としてのマスク処理を実行する。こうしてマスク処理が実行された後の重みレジスタ301におけるマスク済み重み情報を生成する。
なお、第5領域に属する位置では0パディング処理が不要である。そのため、第5領域に属する位置において畳み込み演算が行われるときには、0パディング制御部131によるマスク処理を実行する必要がない。
図5は、各DNN演算部11においてローカル記憶領域12に格納される演算層情報122の例を示す図である。演算層情報122は、例えばサイズ変化率501、重みサイズ502、ストライド503、パディング幅504、入力特徴マップ幅505、入力特徴マップ高さ506、入力特徴マップチャンネル数507、出力特徴マップチャンネル数508の各データにより構成される。これらのデータは、当該DNN演算部11が行う演算の内容に対応して、それぞれの値が設定される。
サイズ変化率501は、演算前後での部分特徴マップのサイズの変化率を表している。重みサイズ502は重みデータの一辺のサイズを表し、ストライド503は部分特徴マップに対して重み付け演算を行う間隔を表し、パディング幅504は0パディング時に部分特徴マップに付加する0データの一辺あたりの幅を表している。入力特徴マップ幅505および入力特徴マップ高さ506は、演算対象とする部分特徴マップの水平方向と垂直方向のデータ数をそれぞれ表している。入力特徴マップチャンネル数507および出力特徴マップチャンネル数508は、演算前後での部分特徴マップの深さ方向のデータ数をそれぞれ表している。
図6は、各DNN演算部11においてローカル記憶領域12に格納される位置情報121の例を示す図である。位置情報121は、例えば分割ID601、全体特徴マップ幅602、全体特徴マップ高さ603、演算層604、開始x座標605、開始y座標606、終点x座標607、終点y座標608、横畳み込み数609、縦畳み込み数610の各データにより構成される。これらのデータは、当該DNN演算部11に入力されて演算対象とされる部分特徴マップの特徴に対応して、それぞれの値が設定される。
分割ID601は、当該DNN演算部11において部分特徴マップをさらに複数に分割して処理する場合に、各分割部分特徴マップをそれぞれ識別するために付与されるIDを表す情報である。なお、部分特徴マップを複数に分割して処理する場合については、後で第2の実施形態として詳しく説明する。
全体特徴マップ幅602および全体特徴マップ高さ603は、部分特徴マップに分割される前の元の全体特徴マップの水平方向と垂直方向のデータ数をそれぞれ表している。
演算層604は、当該DNN演算部11において実行される演算が対応するDNNの層を表す情報である。
開始x座標605および開始y座標606は、部分特徴マップにおいて畳み込み演算が開始される左上の点の全体特徴マップ上での座標値をそれぞれ表している。終点x座標607および終点y座標608は、部分特徴マップにおいて畳み込み演算が最後に行われる右下の点の全体特徴マップ上での座標値をそれぞれ表している。横畳み込み数609および縦畳み込み数610は、部分特徴マップに対して行われる畳み込み演算の横方向と縦方向での回数をそれぞれ表している。
次に、AIアクセラレータ10におけるDNN演算部11の処理の流れについて説明する。図7は、DNN演算部11の処理の流れを示すフローチャートである。図7のフローチャートに示す処理は、AIアクセラレータ10が有する各DNN演算部11において実行される。
ステップS701では、演算処理部20または前層のDNN演算部11から入力されてローカル記憶領域12に格納された位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの上端部分を含むか否かを判定する。上端部分を含む場合は、ステップS702で図8(a)に示す上端処理を行った後にステップS703へ進む。上端部分を含まない場合は、ステップS702の上端処理を実行せずにステップS703へ進む。
ステップS703では、演算対象の部分特徴マップに対する垂直方向の畳み込み演算の回数分だけステップS704の処理を繰り返し実行し、その後にステップS705へ進む。ステップS704では、図8(b)に示す中央処理を行う。
ステップS705では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの下端部分を含むか否かを判定する。下端部分を含む場合は、ステップS706で図8(c)に示す下端処理を行った後にステップS707へ進む。下端部分を含まない場合は、ステップS706の下端処理を実行せずにステップS707へ進む。
ステップS707では、次カーネル位置情報生成部132により、図10に示す位置情報再演算処理を行う。ステップS707の位置情報再演算処理を終えたら、図7のフローチャートに示す処理を終了する。
図8は、図7のステップS702、S704、S706でそれぞれ実行される上端処理、中央処理および下端処理の流れを示すフローチャートである。
図8(a)に示す上端処理において、ステップS711では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの左端部分を含むか否かを判定する。左端部分を含む場合は、ステップS712で第1領域に対する処理を行った後にステップS713へ進む。左端部分を含まない場合は、ステップS712の処理を実行せずにステップS713へ進む。
ステップS713では、演算対象の部分特徴マップに対する水平方向の畳み込み演算の回数分だけステップS714の処理を繰り返し実行し、その後にステップS715へ進む。ステップS714では、第2領域に対する処理を行う。
ステップS715では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの右端部分を含むか否かを判定する。右端部分を含む場合は、ステップS716で第3領域に対する処理を行った後に、図8(a)のフローチャートに示す上端処理を終了する。右端部分を含まない場合は、ステップS716の処理を実行せずに上端処理を終了する。
図8(b)に示す中央処理において、ステップS721では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの左端部分を含むか否かを判定する。左端部分を含む場合は、ステップS722で第4領域に対する処理を行った後にステップS723へ進む。左端部分を含まない場合は、ステップS722の処理を実行せずにステップS723へ進む。
ステップS723では、演算対象の部分特徴マップに対する水平方向の畳み込み演算の回数分だけステップS724の処理を繰り返し実行し、その後にステップS725へ進む。ステップS724では、第5領域に対する処理を行う。
ステップS725では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの右端部分を含むか否かを判定する。右端部分を含む場合は、ステップS726で第6領域に対する処理を行った後に、図8(b)のフローチャートに示す中央処理を終了する。右端部分を含まない場合は、ステップS726の処理を実行せずに中央処理を終了する。
図8(c)に示す下端処理において、ステップS731では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの左端部分を含むか否かを判定する。左端部分を含む場合は、ステップS732で第7領域に対する処理を行った後にステップS733へ進む。左端部分を含まない場合は、ステップS732の処理を実行せずにステップS733へ進む。
ステップS733では、演算対象の部分特徴マップに対する水平方向の畳み込み演算の回数分だけステップS734の処理を繰り返し実行し、その後にステップS735へ進む。ステップS734では、第8領域に対する処理を行う。
ステップS735では、位置情報121および部分特徴マップ124に基づき、演算対象の部分特徴マップが全体特徴マップの右端部分を含むか否かを判定する。右端部分を含む場合は、ステップS736で第9領域に対する処理を行った後に、図8(c)のフローチャートに示す下端処理を終了する。右端部分を含まない場合は、ステップS736の処理を実行せずに下端処理を終了する。
図9は、図8のステップS712、S714、S716、S722、S724、S726、S732、S734、S736においてそれぞれ実行される第1~第9領域に対する処理の流れを示すフローチャートである。
図9(a)のフローチャートにおいて、ステップS801では、畳み込み演算部133により、ローカル記憶領域12に格納されている重み情報123と部分特徴マップ124を読み出し、重みレジスタ301と入力レジスタ302にそれぞれ格納する。
ステップS802では、0パディング制御部131により、領域の種類に応じたマスク位置を決定するマスク位置決定処理を行う。ここでは、図9(b)のフローチャートに示す手順に従ってマスク位置決定処理が実行される。
ステップS803では、畳み込み演算部133により、ステップS802のマスク位置決定処理で決定されたマスク位置に従って、重みレジスタ301に対するマスク処理を行う。ここでは前述のように、重みレジスタ301に格納された重み情報123においてマスク位置の値を0データでマスクすることにより、0パディング相当の処理としてマスク処理を行う。ただし、0パディング処理が不要な第5領域については、後述するようにマスク位置が設定されていない。そのため、ステップS724の第5領域の処理では、ステップS802でマスク位置が出力されず、そのためステップS803においてマスク処理が行われない。
ステップS804では、畳み込み演算部133により、積和演算部303を用いて、ステップS803のマスク処理によって生成されたマスク済み重み情報、すなわちマスク処理後の重みレジスタ301の重み情報123と、入力レジスタ302に格納された部分特徴マップ124との積和演算(畳み込み演算)を行う。その後、出力レジスタ304から演算結果を出力し、図9(a)のフローチャートに示す処理を終了する。
図9(b)に示すマスク位置決定処理において、ステップS811では、演算対象の部分特徴マップが属する領域を取得する。ここでは、図8のステップS712、S714、S716、S722、S724、S726、S732、S734、S736のどの処理でマスク位置決定処理が実行されているかにより、第1~第9領域のうちどの領域に属するかを判定する。
ステップS812では、0パディング制御部131により、ステップS811で取得した領域でのマスク位置を照会する。ここでは、第1~第9領域の各領域に対して予め設定されたマスク位置のうち、ステップS811で取得した領域に対応するマスク位置を照会することで、当該領域でのマスク位置を決定する。なお、0パディング制御部131では、第1~第9領域の各領域について、部分特徴マップ124とマスク後の重み情報123との畳み込み演算結果が、各領域に応じた部分特徴マップ124の端部に対して0パディング処理を行った後に重み情報123で畳み込み演算を行ったときの演算結果と一致するように、マスク位置が予め設定されているものとする。ただし、0パディング処理が不要な第5領域については、マスク位置が設定されていない。
0パディング制御部131は、ステップS812の処理において、上記のように予め設定されたマスク位置の情報を照会して利用することで、0パディング処理に相当するマスク位置を領域ごとに決定することができる。これにより、各領域における全体特徴マップの端部の位置に応じて、重み情報123においてマスクする箇所を正しく決定することができる。
ステップS813では、ステップS812で決定したマスク位置を0パディング制御部131から畳み込み演算部133へ出力する。ステップS813の処理を終えたら、図9(b)のフローチャートに示すマスク位置決定処理を終了する。
図10は、図7のステップS707で実行される位置情報再演算処理の流れを示すフローチャートである。
図10(a)に示す位置情報再演算処理において、ステップS901では、演算層情報122に含まれるサイズ変化率501の値に基づき、畳み込み演算部133が行う畳み込み演算(積和演算)によって部分特徴マップの大きさが変化するか否かを判定する。サイズ変化率501の値が1以外の値であれば、部分特徴マップの水平方向および垂直方向の少なくとも一方の大きさが変化すると判定し、ステップS902へ進む。サイズ変化率501の値が1であれば、部分特徴マップの大きさが変化しないと判定し、ステップS902の処理を実行せずにステップS903へ進む。
ステップS902では、次カーネル位置情報生成部132により、演算層情報122に基づいて位置情報121を再計算する。ここでは、演算層情報122に含まれる各データ値に基づいて、位置情報121に含まれる各データ値を再計算する。
ステップS902では、例えば図10(b)に示す(1)~(7)の各計算式により、位置情報121の各データ値が再計算される。式(1)~(7)において、WW、WHは全体特徴マップ幅602、全体特徴マップ高さ603の値をそれぞれ表す。また、x、yは開始x座標605、開始y座標606の値をそれぞれ表し、endx、endyは終点x座標607、終点y座標608の値をそれぞれ表す。また、OW、OHは横畳み込み数609、縦畳み込み数610の値をそれぞれ表す。さらに、IW、IHは演算層情報122の入力特徴マップ幅505、入力特徴マップ高さ506の値をそれぞれ表し、k、k+1はDNN演算の全体における現在の演算層と次の演算層の位置(何層目か)をそれぞれ表し、KS、strideは演算層情報122の重みサイズ502、ストライド503の値をそれぞれ表す。
式(1)~(7)により、WW、WH、x、yは、現在の位置情報121におけるこれらの値に、演算層情報122のサイズ変化率501の値をそれぞれ乗算し、小数点以下の値を切り上げることで算出される。また、endx、endyは、次層のx、yにIW、IHをそれぞれ加えて算出される。また、OW、OHは、IW、IHからKSをそれぞれ減算した値をストライドで除算し、その切り捨て値に1を加えて算出される。
ステップS903では、次カーネル位置情報生成部132により、次層のDNN演算部11に対する位置情報を作成する。ここでは、ローカル記憶領域12に格納された位置情報121、またはこれにステップS902で再計算された値が反映された位置情報において、演算層604の値をインクリメントして次層のDNN演算部11に対応する値とすることで、次層の位置情報を作成する。
ステップS904では、ステップS903で作成した位置情報を次カーネル位置情報生成部132から次層のDNN演算部11へ送信する。ステップS904の処理を終えたら、図10のフローチャートに示す位置情報再演算処理を終了する。
AIアクセラレータ10では、各DNN演算部11において上記の処理がそれぞれ実行されることにより、演算処理部20から入力された部分特徴マップの各位置に対して、全体特徴マップの畳み込み演算領域内に設定された各領域の種類に応じた処理がそれぞれ行われる。これにより、AIアクセラレータ10において0パディング相当の処理を行ってマスク済み重み情報を生成し、このマスク済み重み情報を用いてDNNの各層に対応する畳み込み演算を実行することができる。
図11は、重みレジスタ301と入力レジスタ302のデータ配置およびマスク箇所の一例を示す図である。図11では、前述のように重み情報123が3×3の重みデータで構成されているときに、重みレジスタ301に一度に入力4チャンネル分、出力8チャンネル分の合計32個の重みデータが格納されている例を示している。この場合、図11に示すように、例えば重みレジスタ301には、32個の重みデータにおける横3データ分の値がそれぞれ格納される。図11では、重み情報123を構成する32個の重みデータにおける3×3のデータ値のうち、0~95の数字が付された箇所のデータ値が重みレジスタ301にそれぞれ格納されている。これらの数字は、重みレジスタ301の各格納箇所に付された数字と対応している。なお、重みレジスタ301中で96~127の数字が付された格納箇所には、重みのデータ値が入っていない。
また、図11に示すように、例えば入力レジスタ302には、ローカル記憶領域12からロードされた4チャンネル分の部分特徴マップ124のうち、0~27の数字が付された部分のデータ値がそれぞれ格納される。これらの数字も重みレジスタ301と同様に、入力レジスタ302の各格納箇所に付された数字と対応している。なお、入力レジスタ302において「x」が付された先頭の4つの格納箇所には、例えば他の格納箇所のうちいずれかと同じデータ値など、任意のデータ値を格納することができる。
図11に示した重みレジスタ301の各データ値と入力レジスタ302の各データ値との畳み込み演算を行う場合に、例えば第4領域に属する位置での畳み込み演算時には、符号1101に示す範囲、すなわち「set0」の行に対応する0~31の数字が付された各格納箇所のデータ値に対してマスク処理が行われる。これにより、重み情報123に対して0パディング相当の重みデータを設定することが可能となる。
以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。
(1)情報処理装置1は、特徴マップに対してDNN演算を実行するものであって、演算処理部20と、演算処理部20とバスを介して接続されたAIアクセラレータ10と、DNN演算で利用される重み情報を格納する記憶部30とを備える。演算処理部20は、特徴マップの一部である部分特徴マップ124と、部分特徴マップ124の特徴マップ中の位置を表す位置情報121とをAIアクセラレータ10へ送信する。AIアクセラレータ10は、記憶部30から重み情報123を取得し、演算処理部20から送信される部分特徴マップ124および位置情報121を受信する。そして、位置情報121に基づく所定の前処理を実行し(ステップS811~S813、S803)、その前処理の実行結果と部分特徴マップ124とを用いて、DNN演算を実行する(ステップS804)。このようにしたので、AIアクセラレータ10および演算処理部20の2つの演算部を用いてDNN演算を行う情報処理装置1において、AIアクセラレータ10により0パディング処理に相当する前処理を行うことができるため、これら2つの演算部の間でのデータ通信量を削減することができる。
(2)AIアクセラレータ10が実行する前処理は、重み情報123において位置情報121に対応する箇所をマスクする処理である。AIアクセラレータ10は、前処理を行うことで生成したマスク済み重み情報と部分特徴マップ124とを用いて、DNN演算としての積和演算をステップS804において実行する。このようにしたので、AIアクセラレータ10において実行可能な処理として、0パディング処理に相当する前処理を実現できる。
(3)AIアクセラレータ10は、位置情報121に基づいて、特徴マップに設定された複数の領域のうちどの領域に部分特徴マップ124が属するかを判定し(ステップS701~S707、S711~S716、S721~S726、S731~S736)、当該領域に対応する箇所をマスクする処理を、ステップS811~S813、S803において前処理として実行する。具体的には、特徴マップに設定された複数の領域は、図4において示すように、特徴マップ401の左上角部を含む第1領域と、特徴マップ401の上端部を含む第2領域と、特徴マップ401の右上角部を含む第3領域と、特徴マップ401の左端部を含む第4領域と、特徴マップ401のいずれの端部も含まない第5領域と、特徴マップ401の右端部を含む第6領域と、特徴マップ401の左下角部を含む第7領域と、特徴マップ401の下端部を含む第8領域と、特徴マップ401の右下角部を含む第9領域と、を有する。AIアクセラレータ10は、部分特徴マップ124が第5領域以外の各領域に属する場合は、ステップS811、S812において、当該領域における特徴マップの端部の位置に応じて、重み情報123においてマスクする箇所を決定し、部分特徴マップ124が第5領域に属する場合は、ステップS803においてマスクする処理を実行しない。このようにしたので、0パディング処理に相当する前処理を確実に行うことができる。
(4)AIアクセラレータ10は、ベクトル演算に特化した複数の演算コアを有しており、これら複数の演算コアを用いたAI処理によってDNN演算を実行する。このようにしたので、DNN演算を高速に実行することができる。
(5)AIアクセラレータ10は、DNNの各層に対応する複数のカーネル13を有している。DNN演算において複数のカーネル13のいずれかで部分特徴マップ124の水平方向および垂直方向の少なくとも一方の大きさが変化する場合(ステップS901:Yes)、当該カーネル13は、位置情報121を再計算して(ステップS902)次層に対応するカーネル13へ送信する(ステップS904)。このようにしたので、複数の層によって構成されるDNNを利用したDNN演算において、AIアクセラレータ10による0パディング処理に相当する前処理を適用することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、AIアクセラレータ10のいずれかのDNN演算部11において、部分特徴マップ124を垂直方向に複数に分割し、当該DNN演算部11が有する複数のカーネル13で1層分の演算を実行する例を説明する。
ここで、本実施形態のAIアクセラレータ10では、いずれか少なくとも1つのDNN演算部11について、第1の実施形態で説明した構成とは異なり、当該DNN演算部11がDNNの1層分の演算を行う際の部分特徴マップ124の分割数だけ、カーネル13を持つこととなる。なお、本実施形態における情報処理装置1の構成、AIアクセラレータ10の構成、カーネル13の個数以外のDNN演算部11の構成およびカーネル13の構成は、第1の実施形態において図1、図3で説明したものとそれぞれ同様である。そのため以下では、これらの説明を省略する。
図12は、本発明の第2の実施形態に係る演算処理の説明図である。図12では、3層分の演算のうち2層目の中間層において、部分特徴マップ124が3つに分割されて演算が行われる例を示している。この場合、3層分のDNN演算部11は、図12に示すように、1層目のDNN演算部11が有する分割カーネル1201と、2層目のDNN演算部11が有する3つの中間カーネル1202と、3層目のDNN演算部11が有するマージカーネル1203とを含んで構成される。これらのカーネルは、いずれも図3に示した第1の実施形態におけるカーネル13と同様の構成を有している。
図12において、分割カーネル1201は、1層目の処理を行った後、部分特徴マップ124を3分割することで3つの分割部分特徴マップ1204を生成し、次層のDNN演算部11に送る。中間カーネル1202は、分割カーネル1201から送られた分割部分特徴マップ1204をそれぞれ処理して次層のDNN演算部11に送る。マージカーネル1203は、3つの中間カーネル1202でそれぞれ処理された分割部分特徴マップ1204をマージしたのち、3層目の処理を行う。
分割カーネル1201は、3つの分割部分特徴マップ1204を生成する際に、それぞれの分割部分特徴マップ1204に対応する位置情報121を作成する。その際には、図6に示した位置情報121の各データのうち分割ID601の値を、開始x座標が小さい方から0,1,2と順に設定する。また、終点x座標607、終点y座標608の値を、各分割部分特徴マップ1204に対応する値へとそれぞれ変更する。こうして作成した位置情報121は、分割部分特徴マップ1204とともに各分割カーネル1201へ送信される。
中間カーネル1202は、各分割部分特徴マップ1204に対して、第1の実施形態と同様の処理をそれぞれ行う。
マージカーネル1203は、各中間カーネル1202から処理済みの分割部分特徴マップ1204とともに位置情報121を受け取ると、分割部分特徴マップ1204をマージして1つの部分特徴マップ124に戻す。このとき、分割ID601の値が最も小さい位置情報121の開始x座標605および開始y座標606の値と、分割ID601の値が最も大きい位置情報121の終点x座標607および終点y座標608の値とを用いて、マージ後の部分特徴マップ124に対する位置情報121を更新する。そして、マージ後の部分特徴マップ124と更新後の位置情報121を用いて、3層目に対応する畳み込み演算を行う。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態では、AIアクセラレータ10のいずれかのDNN演算部11において、部分特徴マップ124を続けて複数回入力し、次層のDNN演算部11に対して、複数の部分特徴マップ124の演算結果をまとめて一度に送信する例を説明する。
なお、本実施形態における情報処理装置1の構成、AIアクセラレータ10の構成、DNN演算部11の構成およびカーネル13の構成は、第1の実施形態において図1、図3で説明したものとそれぞれ同様である。そのため以下では、これらの説明を省略する。
図13は、本発明の第3の実施形態に係る演算処理の説明図である。図13の例では、3層分の演算を行う各DNN演算部11のカーネル13を、カーネル0、カーネル1、カーネル2でそれぞれ示している。この場合、図13(b)に示すように、カーネル0は第1の実施形態と同様に、演算処理済みの部分特徴マップ124と、その部分特徴マップ124の位置情報121とを、カーネル1に送信する。カーネル1は、第1の実施形態と同様に部分特徴マップ124の処理を行うが、次層のカーネル2の演算に必要なデータが揃わない場合は、部分特徴マップ124の演算結果とその部分特徴マップ124に対応する位置情報121とを、カーネル2へは送信しない。カーネル0がカーネル1に対して2回目のデータ送信を行い、そのデータを用いてカーネル1が処理した部分特徴マップ124と、1度目に処理した部分特徴マップ124とにより、カーネル2での演算に必要なデータが揃ったときに、カーネル1はカーネル2に対して、部分特徴マップ124と位置情報121の送信を行う。
上記の演算手順を実現するため、AIアクセラレータ10の各層のカーネル13(カーネル0~カーネル2)では、当該カーネルでの演算実行回数を表すカーネル実行回数と、当該カーネルから次層のカーネルへのデータ出力に必要な動作回数を表す出力数とを保持している。そして、これらの情報に基づいて図13(a)のフローチャートに示す処理を実行することで、各カーネルにおいて部分特徴マップ124と位置情報121の出力タイミング制御を行うようにしている。
図13(a)のフローチャートにおいて、ステップS1301では、保持している実行回数に1を加算する。なお、実行回数の初期値は0である。
ステップS1302では、保持している実行回数を出力数で除算したときの剰余を求め、その剰余が0であるか否かを判定する。剰余が0であればステップS1303へ進み、0でなければ、ステップS1303の処理を実行せずに図13(a)のフローチャートに示す処理を終了する。
ステップS1303では、位置情報121を更新し、更新後の位置情報121と部分特徴マップ124を次層のカーネルへと出力する。ステップS1303の処理を実行したら、実行回数を初期値の0にリセットした後、図13(a)のフローチャートに示す処理を終了する。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、処理対象の部分特徴マップ124や重み情報123における各データの並びによっては、必ずしもマスク処理が必要ではない場合について説明する。
なお、本実施形態における情報処理装置1の構成、AIアクセラレータ10の構成、DNN演算部11の構成およびカーネル13の構成は、第1の実施形態において図1、図3で説明したものとそれぞれ同様である。そのため以下では、これらの説明を省略する。
図14は、本発明の第4の実施形態に係るマスク処理が必要でない場合の重みレジスタ301と入力レジスタ302のデータ配置の一例を示す図である。図14では図11と同様に、重み情報123が3×3の重みデータで構成されているときに、重みレジスタ301に一度に入力4チャンネル分、出力8チャンネル分の合計32個の重みデータが格納されている例を示している。この場合に、第1領域に属する位置での畳み込み演算時には、3×3の重みデータの最初の1行目の処理の際に、符号1401に示す範囲に対してマスク処理が行われる。すなわち、重みレジスタ301において重みデータが格納されている全ての格納箇所に対して、マスク処理が行われることになる。
上記のように、重みレジスタ301に格納された全ての重みデータに対してマスク処理が行われる場合は、マスク処理を省略し、畳み込み演算自体を行わずに単に計算結果を0のデータとしても、マスク処理後の畳み込み演算と同じ結果が得られる。このようにすれば、不要な演算処理を省略して高速化を図ることが可能となる。なお、ここでは第1領域に属する位置での畳み込み演算時の例を述べたが、他の領域に属する位置でも同様に、重みレジスタ301に格納された全ての重みデータに対してマスク処理が行われる場合には、マスク処理と畳み込み演算を省略することができる。
以上説明した本発明の第2~第4の各実施形態によれば、第1の実施形態と同様の作用効果をそれぞれ奏する。
なお、以上説明した各実施形態では、AIアクセラレータ10において、0パディング処理に相当する前処理として、重み情報123において位置情報121に対応する箇所をマスクする処理を行う例を説明したが、AIアクセラレータ10において0パディング処理を行い、0パディング処理済みの部分特徴マップ124を用いてDNN演算を実行するようにしてもよい。このようにしても、第1の実施形態で説明したのと同様の効果を奏することができる。
以上説明した実施形態や各種変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、各実施形態や各種変形例は、単独で採用してもよいし、任意に組み合わせてもよい。さらに、上記では種々の実施形態や変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1:情報処理装置、10:AIアクセラレータ、11:DNN演算部、12:ローカル記憶領域、13:カーネル、20:演算処理部、30:記憶部、121:位置情報、122:演算層情報、123:重み情報、124:部分特徴マップ、131:0パディング制御部、132:次カーネル位置情報生成部、133:畳み込み演算部、301:重みレジスタ、302:入力レジスタ、303:積和演算部、304:出力レジスタ

Claims (8)

  1. 特徴マップに対してDNN演算を実行する情報処理装置であって、
    第1の演算部と、
    前記第1の演算部とバスを介して接続された第2の演算部と、
    前記DNN演算で利用される重み情報を格納する記憶部と、を備え、
    前記第1の演算部は、前記特徴マップの一部である部分特徴マップと、前記部分特徴マップの前記特徴マップ中の位置を表す位置情報とを前記第2の演算部へ送信し、
    前記第2の演算部は、
    前記記憶部から前記重み情報を取得し、
    前記第1の演算部から送信される前記部分特徴マップおよび前記位置情報を受信し、
    前記位置情報に基づく所定の前処理を実行し、
    前記前処理の実行結果と前記部分特徴マップとを用いて、前記DNN演算を実行する情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記前処理は、前記重み情報において前記位置情報に対応する箇所をマスクする処理であり、
    前記第2の演算部は、前記前処理を行うことで生成したマスク済み重み情報と前記部分特徴マップとを用いて、前記DNN演算を実行する情報処理装置。
  3. 請求項2に記載の情報処理装置において、
    前記第2の演算部は、前記位置情報に基づいて、前記特徴マップに設定された複数の領域のうちどの領域に前記部分特徴マップが属するかを判定し、当該領域に対応する箇所をマスクする処理を前記前処理として実行する情報処理装置。
  4. 請求項3に記載の情報処理装置において、
    前記複数の領域は、前記特徴マップの左上角部を含む第1領域と、前記特徴マップの上端部を含む第2領域と、前記特徴マップの右上角部を含む第3領域と、前記特徴マップの左端部を含む第4領域と、前記特徴マップのいずれの端部も含まない第5領域と、前記特徴マップの右端部を含む第6領域と、前記特徴マップの左下角部を含む第7領域と、前記特徴マップの下端部を含む第8領域と、前記特徴マップの右下角部を含む第9領域と、を有し、
    前記第2の演算部は、
    前記部分特徴マップが前記第5領域以外の各領域に属する場合は、当該領域における前記特徴マップの端部の位置に応じて、前記重み情報においてマスクする前記箇所を決定し、
    前記部分特徴マップが前記第5領域に属する場合は、前記マスクする処理を実行しない情報処理装置。
  5. 請求項1に記載の情報処理装置において、
    前記前処理は、前記部分特徴マップに0を挿入する0パディングであり、
    前記第2の演算部は、前記前処理を行うことで生成した0パディング済みの前記部分特徴マップを用いて、前記DNN演算を実行する情報処理装置。
  6. 請求項1に記載の情報処理装置において、
    前記第2の演算部は、ベクトル演算に特化した複数の演算コアを有しており、前記複数の演算コアを用いたAI処理によって前記DNN演算を実行する情報処理装置。
  7. 請求項1に記載の情報処理装置において、
    前記第2の演算部は、DNNの各層に対応する複数のカーネルを有しており、
    前記DNN演算において前記複数のカーネルのいずれかで前記部分特徴マップの水平方向および垂直方向の少なくとも一方の大きさが変化する場合、当該カーネルは前記位置情報を再計算して次層に対応するカーネルへ送信する情報処理装置。
  8. 第1の演算部と、前記第1の演算部とバスを介して接続された第2の演算部と、DNN演算で利用される重み情報を格納する記憶部と、を備える情報処理装置を用いて、特徴マップに対してDNN演算を実行する情報処理方法であって、
    前記第1の演算部により、前記特徴マップの一部である部分特徴マップと、前記部分特徴マップの前記特徴マップ中の位置を表す位置情報を前記第2の演算部へ送信し、
    前記第2の演算部により、
    前記記憶部から前記重み情報を取得し、
    前記第1の演算部から送信される前記部分特徴マップおよび前記位置情報を受信し、
    前記位置情報に基づく所定の前処理を実行し、
    前記前処理の実行結果と前記部分特徴マップとを用いて、前記DNN演算を実行する情報処理方法。
JP2020218058A 2020-12-25 2020-12-25 情報処理装置、情報処理方法 Active JP7413249B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020218058A JP7413249B2 (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理方法
DE112021005568.2T DE112021005568T5 (de) 2020-12-25 2021-09-28 Datenverarbeitungsvorrichtung und Datenverarbeitungsverfahren
PCT/JP2021/035696 WO2022137696A1 (ja) 2020-12-25 2021-09-28 情報処理装置、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020218058A JP7413249B2 (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理方法

Publications (2)

Publication Number Publication Date
JP2022102966A true JP2022102966A (ja) 2022-07-07
JP7413249B2 JP7413249B2 (ja) 2024-01-15

Family

ID=82157475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020218058A Active JP7413249B2 (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理方法

Country Status (3)

Country Link
JP (1) JP7413249B2 (ja)
DE (1) DE112021005568T5 (ja)
WO (1) WO2022137696A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2619918A (en) * 2022-06-17 2023-12-27 Imagination Tech Ltd Hardware implementation of an attention-based neural network
GB2619919A (en) * 2022-06-17 2023-12-27 Imagination Tech Ltd Hardware implementation of an attention-based neural network

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779786B1 (en) 2016-10-26 2017-10-03 Xilinx, Inc. Tensor operations and acceleration
US10733505B2 (en) 2016-11-10 2020-08-04 Google Llc Performing kernel striding in hardware
US11657119B2 (en) 2018-12-10 2023-05-23 Advanced Micro Devices, Inc. Hardware accelerated convolution

Also Published As

Publication number Publication date
WO2022137696A1 (ja) 2022-06-30
DE112021005568T5 (de) 2023-08-17
JP7413249B2 (ja) 2024-01-15

Similar Documents

Publication Publication Date Title
CN110383340B (zh) 使用稀疏体积数据进行路径规划
CN108073983B (zh) 在硬件中执行核心跨越
EP3685319B1 (en) Direct access, hardware acceleration in neural network
WO2022137696A1 (ja) 情報処理装置、情報処理方法
CN110689109A (zh) 神经网络方法和装置
CN101681449A (zh) 计算处理装置及方法
CN108304926B (zh) 一种适用于神经网络的池化计算装置及方法
CN111414994A (zh) 一种基于FPGA的Yolov3网络计算加速系统及其加速方法
CN108496188A (zh) 神经网络训练的方法、装置、计算机系统和可移动设备
EP3657402A1 (en) Pruning neural networks that include element-wise operations
US20180293486A1 (en) Conditional graph execution based on prior simplified graph execution
CN115829017B (zh) 一种基于芯粒的数据处理的方法、装置、介质及设备
CN114556260A (zh) 用于执行神经网络的装置和系统
CN112132255A (zh) 人工智能神经网络引擎中模型推断的批量归一化层融合和量化方法
CN114547972A (zh) 动力学模型构建方法、装置、存储介质及电子设备
JP2022117866A (ja) ニューラルネットワーク生成装置、ニューラルネットワーク演算装置、エッジデバイス、ニューラルネットワーク制御方法およびソフトウェア生成プログラム
CN108376283B (zh) 用于神经网络的池化装置和池化方法
US20220405561A1 (en) Electronic device and controlling method of electronic device
JP2020123338A (ja) ディープラーニング基盤装置の学習に使用されるバーチャル世界シミュレータの物理エンジンをキャリブレーションする方法及び装置、そしてそのためのリアル状態ネットワークを学習する方法及びそれを利用した学習装置
US11475311B2 (en) Neural network instruction streaming
CN112396072B (zh) 基于asic与vgg16的图像分类加速方法及装置
CN115587922A (zh) 张量分块方法、装置和存储介质
US20240037412A1 (en) Neural network generation device, neural network control method, and software generation program
WO2022230906A1 (ja) ニューラルネットワーク生成装置、ニューラルネットワーク演算装置、エッジデバイス、ニューラルネットワーク制御方法およびソフトウェア生成プログラム
JP2023006509A (ja) ソフトウェア生成装置およびソフトウェア生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7413249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150