JP6653343B2 - 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ - Google Patents
自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ Download PDFInfo
- Publication number
- JP6653343B2 JP6653343B2 JP2018039360A JP2018039360A JP6653343B2 JP 6653343 B2 JP6653343 B2 JP 6653343B2 JP 2018039360 A JP2018039360 A JP 2018039360A JP 2018039360 A JP2018039360 A JP 2018039360A JP 6653343 B2 JP6653343 B2 JP 6653343B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- convolution
- groups
- scale
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 131
- 238000010606 normalization Methods 0.000 title claims description 92
- 239000013598 vector Substances 0.000 claims description 166
- 238000003062 neural network model Methods 0.000 claims description 63
- 238000000034 method Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 27
- 239000010410 layer Substances 0.000 description 315
- 230000001133 acceleration Effects 0.000 description 54
- 238000001514 detection method Methods 0.000 description 29
- 238000012549 training Methods 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000013528 artificial neural network Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 210000002569 neuron Anatomy 0.000 description 12
- 238000007405 data analysis Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 238000000605 extraction Methods 0.000 description 8
- 239000000523 sample Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000009472 formulation Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000001994 activation Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000003050 axon Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000003618 cortical neuron Anatomy 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
Description
なお、y1は出力、x1はコンボリューション/デコンボリューション層への入力、α1は層の重み、β1は層のシフトである。他の例示において、抽出モジュール123Aは、以下の形でバッチ正規化層に関する平均値と標準偏差値とを抽出することができる。
なお、y1はバッチ正規化層の入力又はコンボリューション/デコンボリューション層の出力、mean(y1)はy1の平均値、std(y1)はy1の標準偏差、y2はバッチ正規化層の出力である。注意すべきなのは、訓練されたディープニューラルネットワークについて、平均値及び標準偏差は既知の値である(例えば、それらはy1の値に依存しない)。
なお、y2はスケール層の入力又はバッチ正規化層の出力、y3はスケール層の出力、α2はスケール層のスケール因子、β2はスケール層のシフト因子である。以上の例示において、抽出されたパラメータは、訓練されたディープCNNモデルの任意の単一のアクティブに対応することができる。
なお、mean(y1)はy1の出力の平均値、std(y1)はy1の標準偏差である。バッチ正規化層とスケール層を示すスケールベクトルとシフトベクトルは以下の形である。
なお、mean(y1)はy1の出力の平均値、std(y1)はy1の標準偏差、α2はスケール層のスケール因子、β2はスケール層のシフト因子である。層生成モジュール123Cは、コンボリューション/デコンボリューション層と層のグループに対応するスケールベクトル及びシフトベクトルとを合併して、層のグループに対応する加速層を生成することができる。
なお、xは加速層の入力、yは加速層の出力、α0は加速層の重み、β0は加速層のシフトである。加速層は、初期CNNモデルの層のグループ(例えば、初期コンボリューション/デコンボリューション層、バッチ正規化層とスケール層)を示すことができる。
なお、α0は加速コンボリューション層718(或いは加速デコンボリューション層728)の重み、β0は加速コンボリューション層718(或いは加速デコンボリューション層728)のシフト、y1は出力、α1はコンボリューション層710(或いはデコンボリューション層720)の重み、β1はコンボリューション層710(或いはデコンボリューション層720)のシフト、mean(y1)はy1の出力の平均値、std(y1)はy1の標準偏差である。注意すべきなのは、CNNモデルが一旦訓練されると、mean(y1)とstd(y1)が一定の定数になり且つy1に依存しない。他の一実施形態において、多重加速層は、訓練されたCNNモデルのコンボリューション/デコンボリューション層のグループとバッチ正規化層のグループとにより生成されることができる。他の一実施形態において、加速CNNモデルは、加速CNNモデルがその後に自動運転車両により検知された目標を分類するのに用いられるように、生成された加速層に基づいて生成される。
なお、α0は加速コンボリューション層718(或いは加速デコンボリューション層728)の重み、β0は加速コンボリューション層718(或いは加速デコンボリューション層728)のシフト、y1は出力、α1はコンボリューション層710(或いはデコンボリューション層720)の重み、β1はコンボリューション層710(或いはデコンボリューション層720)のシフト、mean(y1)はy1の出力の平均値、std(y1)はy1の標準偏差、α2はスケール層のスケール因子、β2はスケール層のシフト因子である。
Claims (20)
- 第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と第一のバッチ正規化層とを含むことと、
前記複数の第一の層のグループのうちの各グループについて、
前記第一のバッチ正規化層に基づいて、第一のスケールベクトルと第一のシフトベクトルを算出し、且つ、
前記第一のコンボリューション層、前記第一のスケールベクトル及び前記第一のシフトベクトルに基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられることと、
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第一のスケールベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差を表す、
コンピュータ実施方法。 - 第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と、第一のスケール層と、第一のバッチ正規化層とを含む、ことと、
前記複数の第一の層のグループのうちの各グループについて、
前記複数の第一の層のグループにおける対応するグループの第一のバッチ正規化層と第一のスケール層に基づいて、第二のスケールベクトル及び第二のシフトベクトルを算出し、且つ、
前記第二のスケールベクトル、前記第二のシフトベクトル及び前記第一のコンボリューション層に基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられることと、
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第二のスケールベクトルと、前記第二のシフトベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差、α 2 は前記第一のスケール層のスケール因子、β 2 は前記第一のスケール層のシフト因子を表す、
コンピュータ実施方法。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記第二のバッチ正規化層に基づいて、第三のスケールベクトルと第三のシフトベクトルを算出し、且つ、
前記第三のスケールベクトル、前記第三のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記複数の第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項1に記載のコンピュータ実施方法。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と、第二のスケール層と、第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記複数の第二の層のグループにおける対応するグループの第二のバッチ正規化層と第二のスケール層に基づいて、第四のスケールベクトルと第四のシフトベクトルを算出し、且つ、
前記第四のスケールベクトル、前記第四のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記複数の第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項2に記載のコンピュータ実施方法。 - 前記第一のコンボリューション層は多次元の入力を有する、請求項1又は2に記載のコンピュータ実施方法。
- 前記多次元の入力のうちの各次元に対して、前記第一のスケールベクトルと前記第一のシフトベクトルとをスケール的に算出する、請求項5に記載のコンピュータ実施方法。
- 前記多次元の入力のうちの各次元の平均値及び標準偏差に基づいて、前記第一のスケールベクトルと前記第一のシフトベクトルを算出する、請求項6に記載のコンピュータ実施方法。
- 前記多次元の入力のうちの各次元に対して、前記平均値と前記標準偏差を独立的に算出する、請求項7に記載のコンピュータ実施方法。
- コマンドが記憶され、前記コマンドがプロセッサにより実行される場合に、前記プロセッサに操作を実行させる、非一時的機械可読媒体であって、
前記操作は、
第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と第一のバッチ正規化層とを含む、ことと、
前記複数の第一の層のグループのうちの各グループについて、
前記第一のバッチ正規化層に基づいて、第一のスケールベクトルと第一のシフトベクトルを算出し、且つ、
前記第一のコンボリューション層、前記第一のスケールベクトル及び前記第一のシフトベクトルに基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられる、ことと、
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第一のスケールベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差を表す、
非一時的機械可読媒体。 - コマンドが記憶され、前記コマンドがプロセッサにより実行される場合に、前記プロセッサに操作を実行させる、非一時的機械可読媒体であって、
前記操作は、
第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と、第一のスケール層と、第一のバッチ正規化層とを含む、ことと、
前記複数の第一の層のグループのうちの各グループについて、
前記複数の第一の層のグループにおける対応するグループの第一のバッチ正規化層と第一のスケール層に基づいて、第二のスケールベクトル及び第二のシフトベクトルを算出し、且つ、
前記第二のスケールベクトル、前記第二のシフトベクトル及び前記第一のコンボリューション層に基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられることと
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第二のスケールベクトルと、前記第二のシフトベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差、α 2 は前記第一のスケール層のスケール因子、β 2 は前記第一のスケール層のシフト因子を表す、
非一時的機械可読媒体。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記第二のバッチ正規化層に基づいて、第三のスケールベクトルと第三のシフトベクトルを算出し、且つ、
前記第三のスケールベクトル、前記第三のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記複数の第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項9に記載の非一時的機械可読媒体。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と、第二のスケール層と、第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記複数の第二の層のグループにおける対応するグループの第二のスケール層に基づいて、第四のスケールベクトルと第四のシフトベクトルを算出し、且つ、
前記第四のスケールベクトル、前記第四のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記複数の第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項10に記載の非一時的機械可読媒体。 - 前記第一のコンボリューション層は多次元の入力を有する、請求項9又は10に記載の非一時的機械可読媒体。
- 前記多次元の入力のうちの各次元に対して、前記第一のスケールベクトルと前記第一のシフトベクトルとをスケール的に算出する、請求項13に記載の非一時的機械可読媒体。
- 前記多次元の入力のうちの各次元の平均値と標準偏差に基づいて、前記第一のスケールベクトルと前記第一のシフトベクトルを算出する、請求項14に記載の非一時的機械可読媒体。
- 前記多次元の入力のうちの各次元に対して、前記平均値と前記標準偏差を独立的に算出する、請求項15に記載の非一時的機械可読媒体。
- プロセッサと、
前記プロセッサに接続され、コマンドが記憶されるメモリと、を備え、
前記コマンドが前記プロセッサにより実行される場合に、前記プロセッサに操作を実行させる、データ処理システムであって、
前記操作は、
第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と第一のバッチ正規化層とを含む、ことと、
前記複数の第一の層のグループのうちの各グループについて、
前記第一のバッチ正規化層に基づいて、第一のスケールベクトルと第一のシフトベクトルを算出し、且つ、
前記第一のコンボリューション層、前記第一のスケールベクトル及び前記第一のシフトベクトルに基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられる、ことと、
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第一のスケールベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差を表す、
システム。 - プロセッサと、
前記プロセッサに接続され、コマンドが記憶されるメモリと、を備え、
前記コマンドが前記プロセッサにより実行される場合に、前記プロセッサに操作を実行させる、データ処理システムであって、
前記操作は、
第一の畳み込みニューラルネットワークモデル(CNN)から複数の第一の層のグループを抽出することであって、前記複数の第一の層のグループのうちの各グループは第一のコンボリューション層と、第一のスケール層と、第一のバッチ正規化層とを含む、ことと、
前記複数の第一の層のグループのうちの各グループについて、
前記複数の第一の層のグループにおける対応するグループの第一のバッチ正規化層と第一のスケール層に基づいて、第二のスケールベクトル及び第二のシフトベクトルを算出し、且つ、
前記第二のスケールベクトル、前記第二のシフトベクトル及び前記第一のコンボリューション層に基づいて、前記複数の第一の層のグループにおける対応するグループを示す第二のコンボリューション層を生成することと、
前記複数の第一の層のグループに対応する第二のコンボリューション層に基づいて、第二の畳み込みニューラルネットワークモデルを生成することであって、前記第二の畳み込みニューラルネットワークモデルは、その後に自動運転車両(ADV)により検知された目標を分類するのに用いられることと
を含み、
ここで、前記第二のコンボリューション層は、以下の式になるように、前記第一のコンボリューション層と前記第二のスケールベクトルと、前記第二のシフトベクトルとが合併して得られており、
ただし、α 0 は前記第二のコンボリューション層の重み、β 0 は前記第二のコンボリューション層のシフト、y 1 は出力、α 1 は前記第一のコンボリューション層の重み、β 1 は前記第一のコンボリューション層のシフト、mean(y 1 )はy 1 の出力の平均値、std(y 1 )はy 1 の標準偏差、α 2 は前記第一のスケール層のスケール因子、β 2 は前記第一のスケール層のシフト因子を表す、
システム。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記第二のバッチ正規化層に基づいて、第三のスケールベクトルと第三のシフトベクトルを算出し、且つ、
前記第三のスケールベクトル、前記第三のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項17に記載のシステム。 - 前記第一の畳み込みニューラルネットワークモデルから複数の第二の層のグループを抽出することであって、前記複数の第二の層のグループのうちの各グループは第一のデコンボリューション層と、第二のスケール層と、第二のバッチ正規化層とを含む、ことと、
前記複数の第二の層のグループのうちの各グループについて、
前記複数の第二の層のグループにおける対応するグループの第二のバッチ正規化層と第二のスケール層に基づいて、第四のスケールベクトルと第四のシフトベクトルを算出し、且つ、
前記第四のスケールベクトル、前記第四のシフトベクトル及び前記第一のデコンボリューション層に基づいて、前記複数の第二の層のグループにおける対応するグループを示す第二のデコンボリューション層を生成することであって、前記第二の畳み込みニューラルネットワークモデルは前記複数の第二の層のグループに対応する第二のデコンボリューション層を含む、ことと、
を更に含む、請求項18に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/451,345 US11308391B2 (en) | 2017-03-06 | 2017-03-06 | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
US15/451,345 | 2017-03-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018173946A JP2018173946A (ja) | 2018-11-08 |
JP6653343B2 true JP6653343B2 (ja) | 2020-02-26 |
Family
ID=61580975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018039360A Active JP6653343B2 (ja) | 2017-03-06 | 2018-03-06 | 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ |
Country Status (4)
Country | Link |
---|---|
US (1) | US11308391B2 (ja) |
EP (1) | EP3373200B1 (ja) |
JP (1) | JP6653343B2 (ja) |
CN (1) | CN108537326B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170134713A (ko) * | 2015-04-23 | 2017-12-06 | 닛산 지도우샤 가부시키가이샤 | 씬 이해 장치 |
CN108628904B (zh) * | 2017-03-23 | 2021-03-02 | 北京嘀嘀无限科技发展有限公司 | 一种路径编码、相似路径检索方法及装置和电子设备 |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
US10438074B2 (en) * | 2017-06-14 | 2019-10-08 | Baidu Usa Llc | Method and system for controlling door locks of autonomous driving vehicles based on lane information |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
US11875260B2 (en) * | 2018-02-13 | 2024-01-16 | Adobe Inc. | Reducing architectural complexity of convolutional neural networks via channel pruning |
KR102637339B1 (ko) * | 2018-08-31 | 2024-02-16 | 삼성전자주식회사 | 음성 인식 모델을 개인화하는 방법 및 장치 |
US11325252B2 (en) * | 2018-09-15 | 2022-05-10 | X Development Llc | Action prediction networks for robotic grasping |
CN109242092B (zh) * | 2018-09-29 | 2021-02-12 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质 |
US10474930B1 (en) * | 2018-10-05 | 2019-11-12 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
US10311321B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device using regression loss and testing method, testing device using the same |
US11055857B2 (en) * | 2018-11-30 | 2021-07-06 | Baidu Usa Llc | Compressive environmental feature representation for vehicle behavior prediction |
US11144788B2 (en) * | 2018-12-04 | 2021-10-12 | Here Global B.V. | Method and apparatus for providing a low-power perception architecture |
CN109901572B (zh) * | 2018-12-13 | 2022-06-28 | 华为技术有限公司 | 自动驾驶方法、训练方法及相关装置 |
JP7214873B2 (ja) * | 2018-12-21 | 2023-01-30 | ウェイモ エルエルシー | 自律型車両のセンサデータリポジトリの検索 |
CN109635934A (zh) * | 2018-12-27 | 2019-04-16 | 深圳云天励飞技术有限公司 | 一种神经网络推理结构优化方法及装置 |
WO2020154973A1 (en) * | 2019-01-30 | 2020-08-06 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles |
US10796206B2 (en) * | 2019-01-31 | 2020-10-06 | StradVision, Inc. | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same |
US10956755B2 (en) * | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
CN113498391B (zh) * | 2019-03-08 | 2023-05-16 | 马自达汽车株式会社 | 汽车用运算装置 |
CN110007598B (zh) * | 2019-04-09 | 2020-07-03 | 吉林大学 | 一种基于代理模型的自动变速器控制参数预标定方法 |
CN110007675B (zh) * | 2019-04-12 | 2021-01-15 | 北京航空航天大学 | 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法 |
US11776072B2 (en) * | 2019-04-25 | 2023-10-03 | Shibaura Machine Co., Ltd. | Machine learning method, information processing device, computer program product, and additive manufacturing monitoring system |
JP7231511B2 (ja) * | 2019-07-29 | 2023-03-01 | 株式会社日立製作所 | 管理装置、管理方法、および管理プログラム |
US11620492B2 (en) * | 2019-08-27 | 2023-04-04 | Nec Corporation | Flexible edge-empowered graph convolutional networks with node-edge enhancement |
CN113408325A (zh) * | 2020-03-17 | 2021-09-17 | 北京百度网讯科技有限公司 | 车辆周围环境的识别方法、装置及相关设备 |
US20220114413A1 (en) * | 2020-10-12 | 2022-04-14 | Black Sesame International Holding Limited | Integer-based fused convolutional layer in a convolutional neural network |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082394B2 (en) * | 2002-06-25 | 2006-07-25 | Microsoft Corporation | Noise-robust feature extraction using multi-layer principal component analysis |
JP4567733B2 (ja) * | 2004-07-20 | 2010-10-20 | クゥアルコム・インコーポレイテッド | 動きベクトル処理のための方法及び装置 |
JP5772442B2 (ja) * | 2011-09-22 | 2015-09-02 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
KR102055355B1 (ko) | 2015-01-28 | 2019-12-12 | 구글 엘엘씨 | 배치 정규화 레이어들 |
CN104700099B (zh) * | 2015-03-31 | 2017-08-11 | 百度在线网络技术(北京)有限公司 | 识别交通标志的方法和装置 |
JP2016197389A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社デンソーアイティーラボラトリ | 学習システム、学習プログラムおよび学習方法 |
GB2559491A (en) * | 2015-07-24 | 2018-08-08 | Google Llc | Continuous control with deep reinforcement learning |
EP3329424B1 (en) | 2015-07-29 | 2023-07-12 | Nokia Technologies Oy | Object detection with neural network |
EP3582151A1 (en) * | 2015-08-15 | 2019-12-18 | Salesforce.com, Inc. | Three-dimensional (3d) convolution with 3d batch normalization |
CN108701253A (zh) * | 2015-11-12 | 2018-10-23 | 渊慧科技有限公司 | 使用规范化的目标输出训练神经网络 |
CN106056628B (zh) * | 2016-05-30 | 2019-06-18 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
CN106372571A (zh) * | 2016-08-18 | 2017-02-01 | 宁波傲视智绘光电科技有限公司 | 路面交通标志检测与识别方法 |
IL294129B2 (en) * | 2016-08-22 | 2024-01-01 | Magic Leap Inc | An augmented reality display device with deep learning sensors |
CN106407931B (zh) * | 2016-09-19 | 2019-11-22 | 杭州电子科技大学 | 一种深度卷积神经网络运动车辆检测方法 |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
US10685285B2 (en) * | 2016-11-23 | 2020-06-16 | Microsoft Technology Licensing, Llc | Mirror deep neural networks that regularize to linear networks |
CA3046035A1 (en) * | 2016-12-05 | 2018-06-14 | Avigilon Coporation | System and method for cnn layer sharing |
US10915817B2 (en) * | 2017-01-23 | 2021-02-09 | Fotonation Limited | Method of training a neural network |
-
2017
- 2017-03-06 US US15/451,345 patent/US11308391B2/en active Active
-
2018
- 2018-03-06 EP EP18160192.3A patent/EP3373200B1/en active Active
- 2018-03-06 JP JP2018039360A patent/JP6653343B2/ja active Active
- 2018-03-06 CN CN201810184840.6A patent/CN108537326B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20180253647A1 (en) | 2018-09-06 |
US11308391B2 (en) | 2022-04-19 |
JP2018173946A (ja) | 2018-11-08 |
CN108537326A (zh) | 2018-09-14 |
EP3373200A1 (en) | 2018-09-12 |
EP3373200B1 (en) | 2021-01-27 |
CN108537326B (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6653343B2 (ja) | 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ | |
JP6578439B2 (ja) | 自律走行車の移動をシミュレートするための物理モデル及び機械学習結合方法 | |
JP6738932B2 (ja) | シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法 | |
JP6748244B2 (ja) | 自動運転車に用いられる学習に基づく速度計画装置 | |
JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
KR102070527B1 (ko) | 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크 | |
JP6499806B2 (ja) | 自律走行車のステアリング率の動的調整 | |
JP6684346B2 (ja) | 車両の周囲の状況に基づいて車両の一つ又は複数の軌跡を予測する方法とシステム | |
JP6650028B2 (ja) | 自律走行車のための横滑り補償制御方法 | |
EP3714290B1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
JP6674019B2 (ja) | 自律走行車を運行させるための制御エラー補正計画方法 | |
JP6578331B2 (ja) | 自律走行車のコマンド遅延を決定するための方法 | |
EP3714285B1 (en) | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles | |
JP6494715B2 (ja) | 自律走行車の速度制御率の動的調整方法 | |
KR101975725B1 (ko) | 학습 기반 모델 예측 제어를 이용한 자율 주행 차량의 노면 마찰 결정 방법 및 시스템 | |
JP2019526840A (ja) | 自律走行車の制御フィードバックに基づくマップ更新方法およびシステム | |
WO2020154970A1 (en) | Deep learning–based feature extraction for lidar localization of autonomous driving vehicles | |
JP2018063703A (ja) | 自律走行車用のグループ運転スタイル学習フレーム | |
JP2019527862A (ja) | 自律走行のための地図画像に基づく交通予測 | |
JP2018116705A (ja) | ブレーキライトを利用して自動運転車両と追従車両との間の距離を保持する方法 | |
JP6543373B2 (ja) | 自動運転車両に用いられる制御型の計画と制御システム | |
JP2018070145A (ja) | 自律走行車用のバネシステムに基づく車線変更方法 | |
JP2019501809A (ja) | 自律走行車の速度を追従する方法及びシステム | |
JP6757442B2 (ja) | 自動運転車における車線後処理 | |
JP6952117B2 (ja) | 自動運転車両のためのスピード制御コマンド自動較正システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6653343 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |