JP7337741B2 - 情報処理装置、車載制御装置 - Google Patents

情報処理装置、車載制御装置 Download PDF

Info

Publication number
JP7337741B2
JP7337741B2 JP2020053749A JP2020053749A JP7337741B2 JP 7337741 B2 JP7337741 B2 JP 7337741B2 JP 2020053749 A JP2020053749 A JP 2020053749A JP 2020053749 A JP2020053749 A JP 2020053749A JP 7337741 B2 JP7337741 B2 JP 7337741B2
Authority
JP
Japan
Prior art keywords
unit
feature map
arithmetic
layer
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020053749A
Other languages
English (en)
Other versions
JP2021157207A (ja
Inventor
理宇 平井
浩朗 伊藤
洋生 内田
豪一 小野
真 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020053749A priority Critical patent/JP7337741B2/ja
Priority to CN202180014851.XA priority patent/CN115136149A/zh
Priority to US17/910,853 priority patent/US20230097594A1/en
Priority to PCT/JP2021/010005 priority patent/WO2021193134A1/ja
Publication of JP2021157207A publication Critical patent/JP2021157207A/ja
Application granted granted Critical
Publication of JP7337741B2 publication Critical patent/JP7337741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、情報処理装置と、これを用いた車載制御装置とに関する。
従来、カメラの撮影画像や各種センサの情報から車両の周囲状況を認識し、その認識結果に基づいて様々な運転支援を行う技術が広く利用されている。こうした車両の運転支援技術において、近年では複雑な周囲状況に対して高精度な認識結果を得るために、人間の大脳における神経細胞の働きをモデル化したニューラルネットワークを利用した演算を行うことが提案されている。
一般に、車両に搭載される情報処理装置(ECU:Electronic Control Unit)においてニューラルネットワークを利用した演算を行うためには、車載バッテリからの供給電力を用いてECUが駆動するという制約条件から、低消費電力であることが求められる。そのため、例えば小規模FPGA(Field Programmable Gate Array)のように、内部メモリ容量が比較的小さい演算回路が用いられることが多い。
内部メモリ容量が小さい演算回路では、演算の途中で生じる中間データを内部メモリに格納しきれないことがある。このような場合、少なくとも中間データの一部を演算回路の外に設けられた外部記憶装置に格納しておき、次に演算回路で必要となったときに外部記憶装置から読み出す必要がある。しかしながら、演算回路と外部記憶装置の間のデータ転送速度は通常、内部メモリのデータ転送速度よりも遅い。そのため、処理速度が低下してしまうという問題が生じる。
上記の課題を解決する技術として、特許文献1が知られている。特許文献1には、DRAMから読み出した入力特徴マップ、depthwise畳み込みカーネル、pointwise畳み込みカーネルに基づいて、depthwise畳み込み計算およびpointwise畳み込み計算を実行して、すべてのpointwise畳み込み出力チャネル上で第1の所定の数p個の点の出力特徴値を取得するステップと、上記の演算を繰り返して、すべてのpointwise畳み込み出力チャネル上ですべての点の出力特徴値を取得するステップとを含む、ニューラルネットワークにおける畳み込み計算方法が開示されている。これにより、中間結果を記憶するための記憶領域を減らすことができると記載されている。
特開2019-109895号公報
特許文献1の技術では、ニューラルネットワークにおける畳み込み計算を、depthwise畳み込み計算およびpointwise畳み込み計算という2つの畳み込み計算に分けて実行する。そのため、これらの畳み込み計算の間で中間結果を受け渡す際に情報の一部が失われてしまい、認識精度の劣化を引き起こすという課題がある。
本発明の一態様による情報処理装置は、複数の層からなるニューラルネットワークによるDNN演算を実行するものであって、前記ニューラルネットワークに入力される特徴マップを、第1の領域と、前記第1の領域とは異なる第2の領域と、を少なくとも含む複数の領域に分割する特徴マップ分割部と、前記ニューラルネットワークの各層に対応して設けられ、前記複数の領域のそれぞれについて、当該層に対応する演算処理を実行するNN演算部と前記NN演算部が実行した前記演算処理の結果を格納する内部記憶部と、前記ニューラルネットワークの所定の層に対応する前記NN演算部が前記複数の領域についてそれぞれ実行した前記演算処理の結果を統合し、前記特徴マップに対する前記演算処理の結果として出力して、前記情報処理装置の外部に設けられた外部記憶装置に格納する特徴マップ統合部と、を備え、前記特徴マップ分割部による前記特徴マップの分割数と、前記特徴マップ統合部が前記演算処理の結果を統合する前に前記NN演算部が前記演算処理を実行する前記ニューラルネットワークの層数とは、前記内部記憶部の記憶容量と、前記NN演算部による前記演算処理の合計演算量と、前記情報処理装置と前記外部記憶装置の間のデータ転送帯域と、前記NN演算部による前記演算処理の前後でのデータサイズの変化量と、のいずれか少なくとも一つに基づいて決定される
本発明の他の一態様による情報処理装置は、複数の層からなるニューラルネットワークによるDNN演算を実行するものであって、分割後の各領域が互いに重複する冗長部をそれぞれ含むように、前記ニューラルネットワークに入力される特徴マップを複数の領域に分割する特徴マップ分割部と、前記ニューラルネットワークの各層に対応して設けられ、前記複数の領域のそれぞれについて所定の演算処理を実行するNN演算部と、前記NN演算部が実行した前記演算処理の結果を格納する内部記憶部と、前記ニューラルネットワークの所定の層に対応する前記NN演算部が前記複数の領域についてそれぞれ実行した前記演算処理の結果を統合し、前記情報処理装置の外部に設けられた外部記憶装置に格納する特徴マップ統合部と、を備え、前記冗長部のサイズは、前記演算処理で用いられるフィルタのサイズおよびストライドに基づいて決定され、前記特徴マップ分割部による前記特徴マップの分割数と、前記特徴マップ統合部が前記演算処理の結果を統合する前に前記NN演算部が前記演算処理を実行する前記ニューラルネットワークの層数とは、前記内部記憶部の記憶容量と、前記NN演算部による前記演算処理の合計演算量と、前記情報処理装置と前記外部記憶装置の間のデータ転送帯域と、前記NN演算部による前記演算処理の前後でのデータサイズの変化量と、のいずれか少なくとも一つに基づいて決定される。
本発明による車載制御装置は、上記情報処理装置と、車両の行動計画を策定する行動計画策定部と、を備え、前記情報処理装置は、前記車両の周囲状況に関するセンサ情報に基づいて前記演算処理を実行し、前記行動計画策定部は、前記情報処理装置から出力される前記演算処理の結果に基づいて前記車両の行動計画を策定する。
本発明によれば、ニューラルネットワークを利用した演算を行う情報処理装置において、認識精度の劣化を生じることなく、処理速度の高速化を図ることができる。
本発明の一実施形態に係る車載制御装置の構成を示す図である。 本発明の一実施形態に係るDNN演算装置の構成を示す図である。 本発明の一実施形態に係る演算処理部の各NN演算部の機能ブロック図である。 本発明の一実施形態に係るDNN演算装置が行う演算処理の概要を示す図である。 特徴マップ分割部における冗長部の設定方法を説明する図である。 特徴マップの分割数および中間データの格納先を決定する処理の一例を示すフローチャートである。
図1は、本発明の一実施形態に係る車載制御装置の構成を示す図である。図1に示す車載制御装置1は、車両に搭載されて使用され、車両の周囲状況を検出するためのセンサとしてそれぞれ機能するカメラ2、LiDAR(Light Detection and Ranging)3およびレーダ4と接続されている。車載制御装置1には、カメラ2が取得した車両周囲の撮影画像と、LiDAR3およびレーダ4がそれぞれ取得した車両から周囲の物体までの距離情報とが入力される。なお、カメラ2、LiDAR3およびレーダ4は、車両に複数ずつ搭載されており、これら複数のセンサがそれぞれ取得した撮影画像や距離情報が車載制御装置1に入力されるようにしてもよい。
車載制御装置1は、DNN演算装置10、センサフュージョン部11、特徴マップ格納部12、外部記憶装置13および行動計画策定部15の各機能ブロックを有する。DNN演算装置10、センサフュージョン部11および行動計画策定部15は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等の演算処理回路や、これらと組み合わせて利用される各種プログラムを用いてそれぞれ構成される。また、特徴マップ格納部12および外部記憶装置13は、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を用いてそれぞれ構成される。なお、DNN演算装置10は、複数の層からなるニューラルネットワークによるDNN演算を実行することで車両の周囲状況を認識するための情報処理を行うものであり、本発明の一実施形態に係る情報処理装置に相当する。
カメラ2、LiDAR3およびレーダ4からそれぞれ入力された撮影画像や距離情報は、車両の周囲状況に関する特徴を二次元平面上の各画素値で表現した特徴マップとして、特徴マップ格納部12に格納される。なお、LiDAR3およびレーダ4からそれぞれ入力される距離情報は、センサフュージョン部11のセンサフュージョン処理によって統合されることで特徴マップに変換され、特徴マップ格納部12に格納される。ただし、センサフュージョン処理は必ずしも実施しなくてもよい。また、他のセンサからの情報に基づく特徴マップをさらに特徴マップ格納部12に格納してもよいし、撮影画像と距離情報の一方のみを特徴マップとして特徴マップ格納部12に格納してもよい。
DNN演算装置10は、特徴マップ格納部12から特徴マップ(撮影画像または距離情報)を読み出し、読み出した特徴マップに対してDNN(Deep Neural Network)演算を実行する。このDNN演算装置10が行うDNN演算とは、人工知能の一形態に相当する演算処理であり、複数の層からなるニューラルネットワークの機能を演算処理で実現したものである。DNN演算の実行に際して、DNN演算装置10は、外部記憶装置13から必要な重み情報を取得する。外部記憶装置13には、不図示のサーバにより予め計算され、DNN演算装置10がこれまでに実施したDNN演算の学習結果に基づいて更新された重み情報が、学習済みモデルとして格納されている。なお、DNN演算装置10の詳細については、後で説明する。
行動計画策定部15は、DNN演算装置10によるDNN演算結果に基づいて車両の行動計画を策定し、行動計画情報を出力する。例えば、車両の運転者が行うブレーキ操作やハンドル操作を支援するための情報や、車両が自動運転を行うための情報を、行動計画情報として出力する。行動計画策定部15から出力された行動計画情報は、車両内に設けられたディスプレイ上にその内容が表示されたり、車両に搭載された各種ECU(Electronic Control Unit)に入力されて様々な車両制御に用いられたりする。なお、行動計画情報をサーバや他の車両に送信してもよい。
次に、DNN演算装置10について説明する。図2は、本発明の一実施形態に係るDNN演算装置10の構成を示す図である。図2に示すように、DNN演算装置10は、特徴マップ分割部101、演算処理部102、特徴マップ統合部103および内部記憶部104を備えて構成される。
特徴マップ分割部101は、特徴マップ格納部12から読み出されてDNN演算装置10に入力される特徴マップを複数の領域に分割する。なお、特徴マップ分割部101による特徴マップの分割方法の詳細については後述する。
演算処理部102は、特徴マップ分割部101により特徴マップから分割された各領域に対して、前述のDNN演算を順次実行する。演算処理部102には、第1層NN演算部102-1から第N層NN演算部102-Nまで、N個のNN演算部(ただし、Nは3以上の自然数)が層状に並べられている。すなわち、演算処理部102には、第1層NN演算部102-1、第2層NN演算部102-2、・・・、第k層NN演算部102-k、・・・、第N層NN演算部102-NからなるN層のニューラルネットワークが形成されている。演算処理部102は、ニューラルネットワークの各層に対応して設けられたこれらのNN演算部に対して重みをそれぞれ設定してDNN演算を実行することで、特徴マップの各領域から車両の周囲状況の認識結果を示す演算結果を算出する。なお、図2に示したN層の各NN演算部のうち、最初の第1層NN演算部102-1は入力層に相当し、最後の第N層NN演算部102-Nは出力層に相当する。
演算処理部102における各層のNN演算部による演算結果は、中間データとして内部記憶部104または外部記憶装置13に格納され、次層のNN演算部に引き渡される。すなわち、入力層を除いた各層のNN演算部は、前層のNN演算部による演算結果を表す中間データを内部記憶部104または外部記憶装置13から読み出し、その演算結果を用いて、ニューラルネットワークの所定の層に対応する演算処理を実行する。
特徴マップ統合部103は、演算処理部102が各領域に対してDNN演算を順次実行することによって得られた各領域の演算結果を統合し、DNN演算装置10の演算結果として出力するとともに、外部記憶装置13に格納する。これにより、DNN演算装置10に入力された特徴マップに対するDNN演算結果が得られ、行動計画策定部15において車両の行動計画の策定に利用することができる。
図3は、本発明の一実施形態に係る演算処理部102の各NN演算部の機能ブロック図である。なお、演算処理部102において、第1層NN演算部102-1~第N層NN演算部102-Nは、いずれも同様の機能構成を有しているため、図3ではこれらを代表して、第k層NN演算部102-kの機能ブロックを示している。以下では、この第k層NN演算部102-kの機能ブロックを説明することで、本実施形態の演算処理部102を構成する全てのNN演算部についての説明を行う。
第k層NN演算部102-kは、畳み込み処理部121、活性化処理部122およびプーリング処理部123を有している。
第k層NN演算部102-kに対する前層(第k-1層)からの入力データは、畳み込み処理部121およびプーリング処理部123に入力される。なお、第1層NN演算部102-1の場合は、特徴マップ格納部12から読み出されて特徴マップ分割部101により分割された特徴マップの各領域が、前層からの入力データとして畳み込み処理部121およびプーリング処理部123に入力される。
畳み込み処理部121は、外部記憶装置13に学習済みモデルとして格納されている重み情報に基づき、ニューラルネットワークの第k層に対応する畳み込み演算を行う。畳み込み処理部121で行われる畳み込み演算とは、重み情報に応じて設定した所定サイズのフィルタ(カーネル)を入力データ上で所定間隔ごとに移動させたときのフィルタの各位置について、フィルタ範囲内にある入力データの各画素と対応する各フィルタ要素との積を合計する演算処理のことである。なお、このときのフィルタの移動間隔は、ストライドと呼ばれる。
活性化処理部122は、畳み込み処理部121の演算結果を活性化するための活性化演算を実施する。ここでは、例えばReLU(Rectified Linear Unit)関数と呼ばれる活性化関数を用いて、活性化演算を行う。ReLU関数とは、0未満の入力値に対しては0を出力し、0以上の値に対しては入力値をそのまま出力する関数である。なお、ReLU関数以外を用いて活性化演算を行ってもよい。この活性化処理部122が行う活性化演算により、畳み込み処理部121の演算結果における各データ値のうち、次層(第k+1層)での演算に及ぼす影響が小さいデータ値は0へと変換される。
プーリング処理部123は、ニューラルネットワークの第k層に対応するプーリング演算を行う。プーリング処理部123で行われるプーリング演算とは、所定サイズのフィルタを入力データ上で所定間隔ごとに移動させたときのフィルタの各位置について、フィルタ範囲内にある入力データの各画素の特徴を抽出する演算処理のことである。例えば、フィルタ範囲内の各画素の平均値を抽出する平均プーリングや、フィルタ範囲内の各画素の最大値を抽出する最大プーリング等のプーリング演算が知られている。なお、このときのフィルタの移動間隔も、畳み込み処理部121と同様にストライドと呼ばれる。
畳み込み処理部121が行った畳み込み演算によって算出され、その後に活性化処理部122によって活性化演算が行われた各データ値、または、プーリング処理部123が行ったプーリング演算によって算出された各データ値は、第k層NN演算部102-kから出力され、次層の入力データとなる。ここで、各層のNN演算部では通常、畳み込み演算またはプーリング演算のいずれか一方が行われる。演算処理部102のニューラルネットワークにおいて、畳み込み演算を行うNN演算部が配置された層は「畳み込み層」とも呼ばれ、プーリング演算を行うNN演算部が配置された層は「プーリング層」とも呼ばれる。なお、畳み込み層のNN演算部にはプーリング処理部123を設けなくてもよく、プーリング層のNN演算部には畳み込み処理部121と活性化処理部122を設けなくてもよい。あるいは、各層のNN演算部が図3の構成を備えることで、畳み込み層とプーリング層を任意に切り替え可能としてもよい。
続いて、本実施形態のDNN演算装置10の特徴について説明する。演算処理部102と外部記憶装置13の間のデータ転送帯域は、DNN演算装置10に内蔵されている内部記憶部104と比べて、一般的に帯域幅が狭い。すなわち、演算処理部102と外部記憶装置13の間のデータ転送速度は、内部記憶部104よりも遅い。したがって、DNN演算装置10が行うDNN演算を高速化するためには、各層のNN演算部により演算された中間データを、外部記憶装置13には格納せず、なるべく内部記憶部104に格納することが好ましい。しかしながら、DNN演算装置10に対するハードウェア上の制約等から、内部記憶部104として確保可能なメモリ容量は比較的小さく、そのため特徴マップのデータサイズによっては、各層のNN演算部で得られた中間データの全てを内部記憶部104に格納できない場合がある。
そこで、本実施形態のDNN演算装置10では、特徴マップ分割部101により特徴マップを複数の領域に分割し、分割された各領域について演算処理部102の各層のNN演算部が順次演算処理を行う。これにより、特徴マップを分割せずにそのまま演算処理部102に入力した場合と比べて、各層のNN演算部から出力される中間データのデータサイズを小さくし、内部記憶部104に格納できるようにする。そして、最後の出力層から出力される各領域の演算結果を、特徴マップ統合部103において統合することにより、特徴マップに対するDNN演算結果を得るようにしている。これにより、内部記憶部104のメモリ容量が小さくても、特徴マップに基づく認識精度の劣化を生じることなく、DNN演算装置10が行うDNN演算を高速化するようにしている。
図4は、本発明の一実施形態に係るDNN演算装置10が行う演算処理の概要を示す図である。
DNN演算装置10に入力された特徴マップ30は、まず特徴マップ分割部101において、複数の領域31~34に分割される。なお、図4ではR,G,Bの各画像データに対応する3種類の特徴マップ30がそれぞれ4分割されることで、各特徴マップ30に対して4つの領域31~34が生成される例を示しているが、特徴マップの数および分割数はこれに限定されるものではない。ここで、Mは各領域を識別するためのIDであり、領域31~34に対してM=1からM=4までのID値が順に設定される。
特徴マップ30から分割された領域31~34には、冗長部41~44がそれぞれ含まれる。冗長部41~44は、隣接する領域同士では分割前の特徴マップ30において同じ部分に対応している。例えば、領域31に含まれる冗長部41のうち右側の部分と、領域32に含まれる冗長部42のうち左側の部分とは、分割前の特徴マップ30において同じ部分に対応しており、互いに同一の内容である。また、領域31に含まれる冗長部41のうち下側の部分と、領域33に含まれる冗長部43のうち上側の部分とは、分割前の特徴マップ30において同じ部分に対応しており、互いに同一の内容である。すなわち、特徴マップ分割部101は、隣接する領域同士において互いに重複する冗長部41~44を含むように、特徴マップ30を領域31~34に分割する。
なお、特徴マップ分割部101において設定する冗長部41~44の大きさは、演算処理部102においてNN演算部102-1~102-Nがそれぞれ実行する畳み込み演算やプーリング演算において用いられるフィルタのサイズおよびストライドに基づいて決定される。この点については、後で図5を参照して説明する。
特徴マップ分割部101により特徴マップ30から分割された領域31~34は、演算処理部102に入力される。演算処理部102では、領域31~34のそれぞれについてニューラルネットワークの各層に対応するNN演算部102-1~102-Nを用いた演算処理を順次行うことで、特徴マップ30を分割した領域ごとにDNN演算を実行する。すなわち、領域31(M=1)に対してDNN演算を実行し、その演算結果を示す出力データ51を取得したら、次の領域32(M=2)に対してDNN演算を実行し、その演算結果を示す出力データ52を取得する。こうした処理を領域31~34に対して順次行うことにより、領域31~34のそれぞれについて、DNN演算結果に応じた出力データ51~54を取得することができる。
なお、演算処理部102におけるDNN演算の実行中、各層のNN演算部で求められた中間データは、内部記憶部104において一時的に記憶され、次の層のNN演算部の入力データとして利用される。このとき内部記憶部104に格納されるデータは、演算処理を行うニューラルネットワークの層ごとに書き換えられる。また、領域31についてDNN演算を実行しているときに内部記憶部104に格納される中間データと、次の領域32についてDNN演算を実行しているときに内部記憶部104に格納される中間データとは、互いに異なる内容である。領域33,34についても同様である。すなわち、領域31~34について各層のNN演算部が実行した演算処理の結果は、それぞれ異なるタイミングで内部記憶部104に格納される。
演算処理部102におけるDNN演算が全て完了したら、領域31~34に対して得られた出力層からの出力データ51~54が特徴マップ統合部103に入力される。特徴マップ統合部103では、出力データ51~54を統合することで、分割前の特徴マップ30に対するDNN演算結果を表す統合データ50を生成する。具体的には、例えば図4に示すように、特徴マップ30から領域31~34を分割したときの位置に合わせて、領域31~34に基づく出力データ51~54をそれぞれ並べて配置し、これらを合成することにより、統合データ50を生成することができる。特徴マップ統合部103で生成された統合データ50は、外部記憶装置13に格納される。
なお、特徴マップ統合部103は、演算処理部102の出力層から出力される各領域の演算結果だけでなく、入力層と出力層の間に設けられた各中間層のうち、任意の中間層から出力される各領域の演算結果を統合してもよい。すなわち、特徴マップ統合部103は、ニューラルネットワークの第k+α層(αは任意の自然数)に対応するNN演算部102-(k+α)が各領域について実行した演算処理の結果を統合することができる。さらにこのとき、外部記憶装置13に格納された中間層での演算結果を特徴マップ分割部101に入力し、特徴マップ分割部101において特徴マップと同様に複数の領域に分割した後に、次の層のNN演算部に入力して演算処理を行うようにしてもよい。この場合、特徴マップ統合部103により統合された中間層での演算結果は、外部記憶装置13に一旦格納され、そこから次の層のNN演算部、すなわちニューラルネットワークの第k+α+1層に対応するNN演算部102-(k+α+1)に入力されて、当該層での演算処理に用いられる。
次に、特徴マップ分割部101における冗長部の設定方法について説明する。特徴マップ分割部101では、入力された特徴マップを複数の領域に分割する際に、各領域に対して前述のような冗長部を設定する。この冗長部は、演算処理部102においてNN演算部102-1~102-Nがそれぞれの畳み込み演算やプーリング演算を正確に実行できるように、すなわち、分割前の特徴マップに対して実行した場合と同じ結果が得られるようにするためのものである。具体的には、各NN演算部において用いられるフィルタのサイズおよびストライドに基づき、以下のようにして冗長部を設定する。
図5は、特徴マップ分割部101における冗長部の設定方法を説明する図である。図5(a)は、入力層での演算処理において用いられるフィルタのサイズが3×3、ストライドが1であり、中間層での演算処理において用いられるフィルタのサイズが1×1、ストライドが1である場合の冗長部の設定例を示している。図5(b)は、入力層での演算処理において用いられるフィルタのサイズが3×3、ストライドが1であり、中間層での演算処理において用いられるフィルタのサイズが3×3、ストライドが2である場合の冗長部の設定例を示している。なお、図5(a)、図5(b)では、説明を簡単にするため、入力層と出力層の間に中間層を1つのみ有するDNN演算での冗長部の設定例をそれぞれ示している。2つ以上の中間層を有する場合についても、同様の方法により冗長部の設定を行うことができる。
特徴マップを分割した後の各領域に対して入力層の演算処理を正確に実行できるようにするためには、分割後の各領域の境界部分に対してフィルタを適用した際に、分割前と同じ演算結果が得られるようにする必要がある。入力層と出力層の間にある各中間層についても同様である。そこで特徴マップ分割部101では、入力層と各中間層の全てについてこうした条件が満たされるように、特徴マップを複数の領域に分割する際の冗長部の大きさを決定する。
図5(a)の例では、入力層の演算処理におけるフィルタのサイズが3×3、ストライドが1であるため、入力層の演算処理に対して2画素分の冗長部を設定する必要がある。一方、中間層の演算処理におけるフィルタのサイズが1×1、ストライドが1であるため、中間層の演算処理に対しては冗長部を設定する必要がない。したがって、図5(a)の入力層においてハッチングで示したように、特徴マップを分割した後の各領域の境界部分に対して、2画素分の幅で冗長部を設定すればよいことが分かる。なお、図5(a)では縦方向の冗長部の図示を省略しているが、縦方向に分割する場合も同様に、2画素分の幅で冗長部を設定すればよい。
図5(b)の例では、入力層の演算処理におけるフィルタのサイズが3×3、ストライドが1であるため、図5(a)と同様に、入力層の演算処理に対して2画素分の冗長部を設定する必要がある。また、中間層の演算処理におけるフィルタのサイズが3×3、ストライドが2であるため、中間層の演算処理に対して1画素分の冗長部を設定する必要がある。したがって、図5(b)の入力層においてハッチングで示したように、特徴マップを分割した後の各領域の境界部分に対して、入力層と中間層を合わせた3画素分の幅で冗長部を設定すればよいことが分かる。なお、図5(b)では縦方向の冗長部の図示を省略しているが、縦方向に分割する場合も同様に、3画素分の幅で冗長部を設定すればよい。
以上説明したように、特徴マップ分割部101では、演算処理部102に入力される特徴マップを分割する際に、出力データ統合前の演算処理部102の各層において行われる演算処理で必要となる冗長部の画素数を累積して、分割後の各領域に対する冗長部の大きさを決定する。具体的には、例えば以下の式(1)により、特徴マップを分割する際の冗長部の幅Wを決定することができる。式(1)において、Aは第k層のフィルタサイズを表し、Sは第k層のストライドを表す。また、Nは演算処理部102を構成するニューラルネットワークの層数、すなわちNN演算部の個数を表す。
次に、特徴マップの分割数および中間データの格納先の決定方法について説明する。前述のように、演算処理部102における各層のNN演算部による演算結果は、中間データとして内部記憶部104または外部記憶装置13に格納される。本実施形態のDNN演算装置10が行うDNN演算を高速化するためには、演算処理部102を構成する各層のNN演算部により演算された中間データをなるべく内部記憶部104に格納できるように、内部記憶部104のメモリ容量を考慮して設定する必要がある。ただし、中間層の演算処理で用いられるフィルタのストライド数が2以上の場合は、演算後のデータサイズが削減される。そのため、内部記憶部104に対して必要となるメモリ容量を抑えるには、その前の層までに得られた出力データを統合することが好ましい。特徴マップ分割部101における特徴マップの分割数と、内部記憶部104と外部記憶装置13のどちらを中間データの格納先とするかは、これらの条件を考慮して決定する必要がある。
図6は、特徴マップの分割数および中間データの格納先を決定する処理の一例を示すフローチャートである。なお、図6のフローチャートに示す処理は、DNN演算装置10において実施してもよいし、車載制御装置1内の他の部分において実施してもよい。あるいは、汎用コンピュータ等を用いて図6のフローチャートに示す処理を事前に実施することで、DNN演算装置10における特徴マップの分割数および中間データの格納先を予め決定しておき、その結果に基づいてDNN演算装置10の仕様を決定してもよい。
ステップS10では、処理対象とするNN演算部102-kについて、初期値k=1を設定する。
ステップS20では、現在の処理対象として選択中のNN演算部102-kの次の層、すなわちk+1層目にあるNN演算部102-(k+1)のストライドが2以上であるか否かを判定する。k+1層目のストライドが2以上である場合、すなわちNN演算部102-(k+1)の演算処理において用いられるフィルタの移動間隔が2画素以上である場合はステップS50に進み、そうでない場合はステップS30に進む。
ステップS30では、現在の処理対象として選択中のNN演算部102-kからの出力データサイズが、内部記憶部104のメモリ容量以下であるか否かを判定する。NN演算部102-kからの出力データサイズが内部記憶部104のメモリ容量以下である場合はステップS60に進み、そうでない場合、すなわちNN演算部102-kからの出力データサイズが内部記憶部104のメモリ容量を超えている場合はステップS40に進む。なお、既に前層のNN演算部102-(k-1)までを処理対象として実行された後述のステップS40の処理において、特徴マップの分割数を設定済みである場合は、分割後の特徴マップによるNN演算部102-kからの出力データサイズを用いて、ステップS30の判定を行うようにする。
ステップS40では、特徴マップ分割部101において特徴マップを半分に分割するように決定する。ステップS40を実行したら、特徴マップを分割した後の各領域のデータサイズに基づいて、NN演算部102-kからの出力データサイズを算出し、ステップS30に戻る。これにより、特徴マップを複数の領域に分割したときのNN演算部102-kからの出力データサイズが内部記憶部104のメモリ容量以下となるまで、特徴マップの分割数の設定値を増加させる。
ステップS20からステップS50に進んだ場合、ステップS50では、現在の処理対象として選択中のNN演算部102-kからの出力データの格納先を、外部記憶装置13に決定する。ステップS50の処理を実行したら、ステップS70に進む。
ステップS30からステップS60に進んだ場合、ステップS60では、現在の処理対象として選択中のNN演算部102-kからの出力データの格納先を、内部記憶部104に決定する。ステップS60の処理を実行したら、ステップS70に進む。
ステップS70では、k=N-1であるか否かを判定する。k=N-1である場合、すなわち、現在の処理対象として選択中のNN演算部102-kが、出力層の直前にある中間層である場合(中間層の最終段である場合)は、図6のフローチャートに示す処理を終了する。一方、k=N-1ではない場合は、ステップS80に進む。
ステップS80では、kの値に1を加えることで、処理対象とするNN演算部102-kを次の層に進める。ステップS80の処理を実行したらステップS20に戻り、前述の処理を繰り返す。これにより、演算処理部102を構成する各層のNN演算部が、第1層NN演算部102-1から順に処理対象として選択され、特徴マップの分割数および中間データの格納先が決定される。
なお、以上説明した図6の処理による特徴マップの分割数および中間データの格納先の決定方法は、あくまで一例である。これ以外の方法で、特徴マップの分割数や中間データの格納先を決定してもよい。例えば、以下の各条件の少なくとも一つに基づいて、特徴マップの分割数と、特徴マップ統合部103が各領域の演算処理の結果を統合する前に各層のNN演算部が演算処理を実行するニューラルネットワークの層数、すなわち、中間データを内部記憶部104に格納する演算処理部102のNN演算部の層数とを、それぞれ決定することができる。
(条件1)内部記憶部104の記憶容量
(条件2)各層のNN演算部による演算処理の合計演算量
(条件3)DNN演算装置10と外部記憶装置13の間のデータ転送帯域
(条件4)各層のNN演算部による演算処理の前後でのデータサイズの変化量
以上説明した本発明の一実施形態によれば、以下の作用効果を奏する。
(1)DNN演算装置10は、複数の層からなるニューラルネットワークによるDNN演算を実行する情報処理装置である。DNN演算装置10は、ニューラルネットワークに入力される特徴マップ30における第1の領域(例えば領域31)と、第1の領域とは異なる第2の領域(例えば領域32)とのそれぞれについて、ニューラルネットワークの所定の層に対応する演算処理を実行する(演算処理部102のNN演算部102-1~102-N)。そして、第1の領域に対する演算処理の結果と、第2の領域に対する演算処理の結果とを統合し、特徴マップ30に対する演算処理の結果として出力する(特徴マップ統合部103)。このようにしたので、ニューラルネットワークを利用した演算を行う情報処理装置において、認識精度の劣化を生じることなく、処理速度の高速化を図ることができる。
(2)DNN演算装置10は、特徴マップ30を第1の領域と第2の領域とに分割する特徴マップ分割部101を備える。このようにしたので、入力される特徴マップを適切に分割することができる。
(3)特徴マップ分割部101は、第1の領域と第2の領域とが互いに重複する冗長部(例えば領域31,32の冗長部41,42)をそれぞれ含むように、特徴マップ30を第1の領域と第2の領域とに分割する。このようにしたので、分割後の各領域について、演算処理部102の各NN演算部102-1~102-Nがそれぞれの演算処理を正確に実行することができる。
(4)冗長部のサイズは、演算処理部102の各NN演算部102-1~102-Nが行う演算処理で用いられるフィルタのサイズおよびストライドに基づいて決定される。このようにしたので、分割後の各領域の境界部分に対してフィルタを適用した際に、分割前の特徴マップに対して実行した場合と同じ結果が得られるようにすることができる。
(5)DNN演算装置10は、ニューラルネットワークの各層に対応して設けられ、第1の領域および第2の領域のそれぞれについて演算処理を実行するNN演算部102-1~102-Nと、内部記憶部104と、特徴マップ統合部103とを備える。内部記憶部104は、ニューラルネットワークの第k層に対応するNN演算部102-kが第1の領域について実行した演算処理の結果と、第k層に対応するNN演算部102-kが第2の領域について実行した演算処理の結果とを、異なるタイミングでそれぞれ格納する。特徴マップ統合部103は、ニューラルネットワークの第k+α層に対応するNN演算部102-(k+α)が第1の領域について実行した演算処理の結果と、第k+α層に対応するNN演算部102-(k+α)が第2の領域について実行した演算処理の結果とを統合することができる。このようにすれば、演算処理部102において入力層と出力層の間に設けられた各中間層のうち、任意の中間層から出力される各領域の演算結果を統合して、DNN演算を行うことができる。
(6)特徴マップ統合部103により統合された演算処理の結果は、DNN演算装置10の外部に設けられた外部記憶装置13に格納される。ニューラルネットワークの第k+α+1層に対応するNN演算部102-(k+α+1)には、外部記憶装置13に格納された演算処理の結果が入力されるようにしてもよい。このようにすれば、統合後の中間データを用いて残りの層の演算処理を実行できるため、DNN演算装置10全体でのDNN演算を継続することができる。
(7)第k+α+1層に対応するNN演算部102-(k+α+1)は、ストライドが2以上の畳み込み処理またはプーリング処理を実行するものとしてもよい。このようにすれば、内部記憶部104に格納する場合は、内部記憶部104に対して必要となるメモリ容量を抑えることができるし、また外部記憶装置13に格納する場合は、DNN演算装置10と外部記憶装置13の間のデータ転送帯域に対してデータ転送容量を抑えることができる。
(8)DNN演算装置10は、特徴マップ30を第1の領域および第2の領域を少なくとも含む複数の領域31~34に分割する特徴マップ分割部101と、ニューラルネットワークの各層に対応して設けられ、領域31~34のそれぞれについて演算処理を実行するNN演算部102-1~102-Nと、NN演算部102-1~102-Nが実行した演算処理の結果を格納する内部記憶部104と、ニューラルネットワークの所定の層に対応するNN演算部102-kが領域31~34についてそれぞれ実行した演算処理の結果を統合し、DNN演算装置10の外部に設けられた外部記憶装置13に格納する特徴マップ統合部103と、を備える。特徴マップ分割部101による特徴マップ30の分割数と、特徴マップ統合部103が演算処理の結果を統合する前にNN演算部102-1~102-kが演算処理を実行するニューラルネットワークの層数とは、(条件1)内部記憶部104の記憶容量と、(条件2)各層のNN演算部による演算処理の合計演算量と、(条件3)DNN演算装置10と外部記憶装置13の間のデータ転送帯域と、(条件4)各層のNN演算部による演算処理の前後でのデータサイズの変化量と、のいずれか少なくとも一つに基づいて決定される。このようにしたので、特徴マップ分割部101における特徴マップの分割数と、中間データを内部記憶部104に格納する演算処理部102のNN演算部の層数とを、それぞれ適切に決定することができる。
(9)車載制御装置1は、DNN演算装置10と、車両の行動計画を策定する行動計画策定部15とを備える。DNN演算装置10は、車両の周囲状況に関するセンサ情報を表す特徴マップに基づいてDNN演算を実行する。行動計画策定部15は、DNN演算装置10から出力されるDNN演算の結果に基づいて車両の行動計画を策定する。このようにしたので、DNN演算装置10が行うDNN演算の結果を利用して、車両の行動計画を適切に策定することができる。
なお、以上説明した実施形態では、車両に搭載される車載制御装置1に含まれるDNN演算装置10について、車両の周囲状況に関するセンサ情報に基づいてDNN演算を実行し、車両の周囲状況の認識を行うものを例として説明したが、本発明はこれに限定されない。複数の層からなるニューラルネットワークによるDNN演算を実行するものであれば、様々な情報処理装置について本発明を適用可能である。
以上説明した実施形態や各種変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、各実施形態や各種変形例は、単独で採用してもよいし、任意に組み合わせてもよい。さらに、上記では種々の実施形態や変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1:車載制御装置、2:カメラ、3:LiDAR、4:レーダ、10:DNN演算装置、11:センサフュージョン部、12:特徴マップ格納部、13:外部記憶装置、15:行動計画策定部、101:特徴マップ分割部、102:演算処理部、103:特徴マップ統合部、104:内部記憶部、121:畳み込み処理部、122:活性化処理部、123:プーリング処理部

Claims (8)

  1. 複数の層からなるニューラルネットワークによるDNN演算を実行する情報処理装置であって、
    前記ニューラルネットワークに入力される特徴マップを、第1の領域と、前記第1の領域とは異なる第2の領域と、を少なくとも含む複数の領域に分割する特徴マップ分割部と、
    前記ニューラルネットワークの各層に対応して設けられ、前記複数の領域のそれぞれについて、当該層に対応する演算処理を実行するNN演算部と
    前記NN演算部が実行した前記演算処理の結果を格納する内部記憶部と、
    前記ニューラルネットワークの所定の層に対応する前記NN演算部が前記複数の領域についてそれぞれ実行した前記演算処理の結果を統合し、前記特徴マップに対する前記演算処理の結果として出力して、前記情報処理装置の外部に設けられた外部記憶装置に格納する特徴マップ統合部と、を備え、
    前記特徴マップ分割部による前記特徴マップの分割数と、前記特徴マップ統合部が前記演算処理の結果を統合する前に前記NN演算部が前記演算処理を実行する前記ニューラルネットワークの層数とは、
    前記内部記憶部の記憶容量と、
    前記NN演算部による前記演算処理の合計演算量と、
    前記情報処理装置と前記外部記憶装置の間のデータ転送帯域と、
    前記NN演算部による前記演算処理の前後でのデータサイズの変化量と、のいずれか少なくとも一つに基づいて決定される情報処理装置。
  2. 請求項に記載の情報処理装置において、
    前記特徴マップ分割部は、前記第1の領域と前記第2の領域とが互いに重複する冗長部をそれぞれ含むように、前記特徴マップを前記第1の領域と前記第2の領域とに分割する情報処理装置。
  3. 請求項に記載の情報処理装置において、
    前記冗長部のサイズは、前記演算処理で用いられるフィルタのサイズおよびストライドに基づいて決定される情報処理装置。
  4. 請求項1に記載の情報処理装置において、
    前記内部記憶部は、前記ニューラルネットワークの第k層に対応する前記NN演算部が前記第1の領域について実行した前記演算処理の結果と、前記第k層に対応する前記NN演算部が前記第2の領域について実行した前記演算処理の結果とを、異なるタイミングでそれぞれ格納し、
    前記特徴マップ統合部は、前記ニューラルネットワークの第k+α層に対応する前記NN演算部が前記第1の領域について実行した前記演算処理の結果と、前記第k+α層に対応する前記NN演算部が前記第2の領域について実行した前記演算処理の結果とを統合する情報処理装置。
  5. 請求項に記載の情報処理装置において、
    記ニューラルネットワークの第k+α+1層に対応する前記NN演算部には、前記外部記憶装置に格納された前記演算処理の結果が入力される情報処理装置。
  6. 請求項5に記載の情報処理装置において、
    前記第k+α+1層に対応する前記NN演算部は、ストライドが2以上の畳み込み処理またはプーリング処理を実行する情報処理装置。
  7. 複数の層からなるニューラルネットワークによるDNN演算を実行する情報処理装置であって、
    分割後の各領域が互いに重複する冗長部をそれぞれ含むように、前記ニューラルネットワークに入力される特徴マップを複数の領域に分割する特徴マップ分割部と、
    前記ニューラルネットワークの各層に対応して設けられ、前記複数の領域のそれぞれについて所定の演算処理を実行するNN演算部と、
    前記NN演算部が実行した前記演算処理の結果を格納する内部記憶部と、
    前記ニューラルネットワークの所定の層に対応する前記NN演算部が前記複数の領域についてそれぞれ実行した前記演算処理の結果を統合し、前記情報処理装置の外部に設けられた外部記憶装置に格納する特徴マップ統合部と、を備え、
    前記冗長部のサイズは、前記演算処理で用いられるフィルタのサイズおよびストライドに基づいて決定され、
    前記特徴マップ分割部による前記特徴マップの分割数と、前記特徴マップ統合部が前記演算処理の結果を統合する前に前記NN演算部が前記演算処理を実行する前記ニューラルネットワークの層数とは、
    前記内部記憶部の記憶容量と、
    前記NN演算部による前記演算処理の合計演算量と、
    前記情報処理装置と前記外部記憶装置の間のデータ転送帯域と、
    前記NN演算部による前記演算処理の前後でのデータサイズの変化量と、のいずれか少なくとも一つに基づいて決定される情報処理装置。
  8. 請求項1から請求項のいずれか一項に記載の情報処理装置と、
    車両の行動計画を策定する行動計画策定部と、を備え、
    前記情報処理装置は、前記車両の周囲状況に関するセンサ情報に基づいて前記演算処理を実行し、
    前記行動計画策定部は、前記情報処理装置から出力される前記演算処理の結果に基づいて前記車両の行動計画を策定する、車載制御装置。
JP2020053749A 2020-03-25 2020-03-25 情報処理装置、車載制御装置 Active JP7337741B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020053749A JP7337741B2 (ja) 2020-03-25 2020-03-25 情報処理装置、車載制御装置
CN202180014851.XA CN115136149A (zh) 2020-03-25 2021-03-12 信息处理装置、车载控制装置
US17/910,853 US20230097594A1 (en) 2020-03-25 2021-03-12 Information processing device and onboard control device
PCT/JP2021/010005 WO2021193134A1 (ja) 2020-03-25 2021-03-12 情報処理装置、車載制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020053749A JP7337741B2 (ja) 2020-03-25 2020-03-25 情報処理装置、車載制御装置

Publications (2)

Publication Number Publication Date
JP2021157207A JP2021157207A (ja) 2021-10-07
JP7337741B2 true JP7337741B2 (ja) 2023-09-04

Family

ID=77891983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020053749A Active JP7337741B2 (ja) 2020-03-25 2020-03-25 情報処理装置、車載制御装置

Country Status (4)

Country Link
US (1) US20230097594A1 (ja)
JP (1) JP7337741B2 (ja)
CN (1) CN115136149A (ja)
WO (1) WO2021193134A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419605B (zh) * 2022-03-29 2022-07-19 之江实验室 基于多网联车空间对齐特征融合的视觉增强方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289631A (ja) 2003-03-24 2004-10-14 Fuji Photo Film Co Ltd デジタルカメラ
JP2013012055A (ja) 2011-06-29 2013-01-17 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
WO2019163121A1 (ja) 2018-02-26 2019-08-29 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977641A (zh) * 2017-12-14 2018-05-01 东软集团股份有限公司 一种智能识别地形的方法、装置、车载终端及车辆
JP2019200657A (ja) * 2018-05-17 2019-11-21 東芝メモリ株式会社 演算装置及び演算装置の制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289631A (ja) 2003-03-24 2004-10-14 Fuji Photo Film Co Ltd デジタルカメラ
JP2013012055A (ja) 2011-06-29 2013-01-17 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
WO2019163121A1 (ja) 2018-02-26 2019-08-29 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
神宮司 明良、他2名,特徴マップを空間分割したCNNのFPGAにおける小メモリ実装について,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2019年05月02日,Vol.119, No.18,pp.85-90,ISSN 2432-6380

Also Published As

Publication number Publication date
CN115136149A (zh) 2022-09-30
JP2021157207A (ja) 2021-10-07
WO2021193134A1 (ja) 2021-09-30
US20230097594A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
CN110674829B (zh) 一种基于图卷积注意网络的三维目标检测方法
WO2021115081A1 (zh) 三维目标检测和智能行驶
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
US9286524B1 (en) Multi-task deep convolutional neural networks for efficient and robust traffic lane detection
JP2022515895A (ja) 物体認識方法及び装置
CN111401517B (zh) 一种感知网络结构搜索方法及其装置
US10509987B1 (en) Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same
US11017542B2 (en) Systems and methods for determining depth information in two-dimensional images
CN111914997B (zh) 训练神经网络的方法、图像处理方法及装置
US11756308B2 (en) Neural network device and method using a neural network for sensor fusion
KR20200091324A (ko) 원거리 검출 또는 군사 목적을 위해, 이미지 컨캐터네이션을 이용한, cnn 기반의 하드웨어 최적화가 가능한 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스팅 방법 및 테스팅 장치
CN110659548B (zh) 车辆及其目标检测方法、装置
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
CN115082874A (zh) 用于车辆中深度估计的系统和方法
JP7337741B2 (ja) 情報処理装置、車載制御装置
CN113065575A (zh) 一种图像处理方法及相关装置
US20210064872A1 (en) Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof
CN111340935A (zh) 点云数据处理方法、智能行驶方法及相关装置、电子设备
CN118230194A (zh) 基于改进YOLOv8s算法的无人机航拍小目标检测方法及电子设备
CN116152800A (zh) 基于跨视图特征融合的3d动态多目标检测方法、系统及存储介质
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
CN117314968A (zh) 运动信息估计方法、装置、设备、存储介质和程序产品
CN111833363B (zh) 图像边缘和显著性检测方法及装置
CN116468702A (zh) 黄褐斑评估方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150