JP7079445B2 - モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 - Google Patents

モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 Download PDF

Info

Publication number
JP7079445B2
JP7079445B2 JP2018178677A JP2018178677A JP7079445B2 JP 7079445 B2 JP7079445 B2 JP 7079445B2 JP 2018178677 A JP2018178677 A JP 2018178677A JP 2018178677 A JP2018178677 A JP 2018178677A JP 7079445 B2 JP7079445 B2 JP 7079445B2
Authority
JP
Japan
Prior art keywords
model
data
learning
input
learning process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018178677A
Other languages
English (en)
Other versions
JP2020052513A (ja
Inventor
康輔 中西
裕司 安井
航 佐々木
信 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Kyoto University
Original Assignee
Honda Motor Co Ltd
Kyoto University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Kyoto University filed Critical Honda Motor Co Ltd
Priority to JP2018178677A priority Critical patent/JP7079445B2/ja
Priority to US16/574,370 priority patent/US11144789B2/en
Publication of JP2020052513A publication Critical patent/JP2020052513A/ja
Application granted granted Critical
Publication of JP7079445B2 publication Critical patent/JP7079445B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、モデルパラメータを学習するモデルパラメータ学習装置などに関する。
従来、モデルパラメータ学習装置として、特許文献1に記載されたものが知られている。このモデルパラメータ学習装置では、入力用訓練画像と出力用訓練画像の平均二乗誤差を損失関数とする誤差逆伝播法により、ニューラルネットワークモデルのモデルパラメータが学習される。この場合、入力用訓練画像は、目的物を含む生体画像であり、出力用訓練画像は、目的物を含まない生体画像である。
特開2018-89301号公報
近年、例えば、自動運転車両において、撮像装置によって撮像した画像データをニューラルネットワークモデルに入力し、その出力データを用いて、自動運転車両の走行状態を制御することが実施されている。このような自動運転車両に対して、特許文献1のモデルパラメータ学習装置によってモデルパラメータが学習されたニューラルネットワークモデルを用いた場合、以下に述べるような問題が発生する。
すなわち、自動運転車両の場合、その周辺環境条件が変化することによって、画像データ中のノイズ成分が増大することがある。これに対して、特許文献1のニューラルネットワークモデルの場合、入力用訓練画像と出力用訓練画像の平均二乗誤差を損失関数とする誤差逆伝播法により、モデルパラメータが学習されるものに過ぎない。そのため、画像データ中のノイズ成分が増大した場合、ニューラルネットワークモデルの出力データが、ノイズの影響を受けやすいことで、自動運転車両の走行状態が不安定になってしまう。この点は、自動運転車両以外の産業機器や、ニューラルネットワークモデル以外のモデルを用いる場合においても同様である。また、画像データ以外の入力データを用いる場合にも同様にノイズの影響を受けやすくなる。
本発明は、上記課題を解決するためになされたもので、入力データ中のノイズの影響を抑制できるように、モデルパラメータを学習できるモデルパラメータ学習装置などを提供することを目的とする。
上記目的を達成するために、本発明のモデルパラメータ学習装置1は、対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データ(画像データXorg) を取得する特性データ取得手段(画像データ取得部2)と、特性データ(画像データXorg) に所定の第1ノイズデータ(ノイズXnoi)を付加することにより、第1ノイズ付加データ(入力データXin)を作成する第1ノイズ付加データ作成手段(加算器4)と、第1モデル(画像処理NNモデル10の入力層11から隠れ層12までの部分)及び第2モデル(画像処理NNモデル10の隠れ層12から出力層13までの部分)を有し、第1ノイズ付加データが第1モデルに入力されたときに、第1モデルの出力データを第2モデルに入力するとともに、第2モデルから出力される第2モデルデータ(出力データXout)を取得するモデルデータ取得手段(データ処理部5)と、特性データ(画像データXorg) に相当する教師データ(画像データXorg)を取得する教師データ取得手段(画像データ取得部2)と、第2モデルデータと教師データとの誤差が最小になるように、第1モデル及び第2モデルの少なくとも一方のモデルパラメータW,b,W,bを学習する第1学習処理を実行する第1学習手段(第1学習処理部7)と、第1学習処理の実行回数が第1所定値(値1)に達したときに、第1ノイズ付加データの第1モデルへの入力と第1学習処理を停止する実行停止手段(データ処理部5)と、特性データ(画像データX org )に所定の第2ノイズデータ(ノイズX noi )を付加したデータ又は、特性データ(画像データX org )を、入力用特性データ(入力データX in )として設定する入力用特性データ設定手段(加算器4)と、を備え、モデルデータ取得手段は、第2モデルと別個の第3モデル(制御処理NNモデル20の隠れ層12から出力層22までの部分)をさらに有し、第1学習処理が停止されている場合において入力用特性データが第1モデルに入力されたときに、第1モデルの出力データを第3モデルに入力するとともに、第3モデルから出力される第3モデルデータ(出力データQ)を取得し、第3モデルデータを独立変数として含む損失関数L RL が最小になるように、第1モデル及び第3モデルの少なくとも一方のモデルパラメータW ,b ,W ,b ,W ,b を学習する第2学習処理を実行する第2学習手段(第2学習処理部8)をさらに備えることを特徴とする。
このモデルパラメータ学習装置によれば、特性データに所定の第1ノイズデータを付加することにより、第1ノイズ付加データが作成される。また、教師データが、特性データに相当するものとして取得される。そして、第1ノイズ付加データが第1モデルに入力されたときに第2モデルから出力される第2モデルデータと教師データとの誤差が最小になるように、第1モデル及び第2モデルの少なくとも一方のモデルパラメータを学習する第1学習処理が実行される。したがって、この第1学習処理が繰り返し実行されるのに伴い、モデルパラメータは、第2モデルデータが教師データに近づくように学習されることになる。この教師データは、特性データに相当するものであるので、第2モデルデータが第1ノイズ付加データにおけるノイズの影響が抑制された値になるように、モデルパラメータを学習することができる。
このモデルパラメータ学習装置によれば、第1学習処理の実行回数が第1所定値に達したときに、第1ノイズ付加データの第1モデルへの入力と第1学習処理が停止される。さらに、特性データに所定の第2ノイズデータを付加したデータ又は特性データが、入力用特性データとして設定される。そして、そのような入力用特性データが第1モデルに入力されたときに第3モデルから出力される第3モデルデータを独立変数として含む損失関数が最小になるように、第1モデル及び第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理が実行される。したがって、この第2学習処理が実行されるのに伴い、モデルパラメータは、損失関数が最小になるように学習されることになる。それにより、特性データに所定の第2ノイズデータを付加した入力用特性データが第1モデルに入力される場合には、第3モデルデータが入力用特性データにおけるノイズの影響が抑制された値になるように、モデルパラメータを学習することができる。
本発明のモデルパラメータ学習装置において、実行停止手段は、第2学習処理の実行回数が第2所定値(値1)に達したときに、入力用特性データの第1モデルへの入力と第2学習処理を停止すると同時に、第1ノイズ付加データの第1モデルへの入力と第1学習処理を実行し、第1学習処理の実行以降、第1学習処理の実行回数が第1所定値に達する毎、及び第2学習処理の実行回数が第2所定値に達する毎に、第1学習処理及び第2学習処理の一方の停止と他方の実行を交互に実施することが好ましい。
このモデルパラメータ学習装置によれば、第2学習処理の実行回数が第2所定値に達したときに、入力用特性データの第1モデルへの入力と第2学習処理を禁止すると同時に、第1ノイズ付加データの第1モデルへの入力と第1学習処理が実行される。さらに、第1学習処理の実行以降、第1学習処理の実行回数が第1所定値に達する毎、及び第2学習処理の実行回数が第2所定値に達する毎に、第1学習処理及び第2学習処理の一方の停止と他方の実行が交互に実施される。このように、ノイズの影響が抑制されるように、第1モデル及び第2モデルの少なくとも一方のモデルパラメータを学習する処理と、ノイズの影響が抑制されるように、第1モデル及び第3モデルの少なくとも一方のモデルパラメータを学習する処理とを交互に実行することができる。それにより、2つの異なる学習方法を用いて、モデルパラメータを十分に学習することができる。
本発明のモデルパラメータ学習装置において、特性データは、対象の画像データであることが好ましい。
このモデルパラメータ学習装置によれば、特性データとして、対象の画像データを用いることにより、前述した作用効果を得ることができる。
本発明のモデルパラメータ学習装置において、特性データ取得手段及び教師データ取得手段はそれぞれ、特性データ(画像データXorg)及び教師データを仮想空間におけるデータとして取得することが好ましい。
このモデルパラメータ学習装置によれば、特性データ及び教師データが仮想空間におけるデータとして取得されるので、これらのデータを実空間においてセンサなどを用いて実際に取得する必要がなくなることで、その分、コストを削減することができる。また、ノイズを付加したデータを用いることにより、ノイズの少ない仮想空間の環境下でも、ノイズの影響が抑制されるように、モデルパラメータを学習することができる。
本発明のモデルパラメータ学習装置において、教師データ取得手段は、対象を画像に含むとともに画像データと同等以上の解像度又は画質を有する第2画像データ、及び、対象との距離を表す距離データの一方に基づき、教師データを取得することが好ましい。
このモデルパラメータ学習装置によれば、対象を画像に含むとともに画像データと同等以上の解像度又は画質を有する第2画像データ、及び、対象との距離を表す距離データの一方に基づき、教師データが取得される。したがって、例えば、教師データとして画像データよりも高い解像度又は画質(高S/N比、高感度、ハイダイナミックレンジ)のデータを用いた場合には、同等の解像度又は画質の画像データを用いた場合と比べて、より高い学習効果を得ることができる。また、対象との距離を表す距離データに基づき、教師データが取得された場合には、対象の距離データを反映させながら、モデルパラメータの学習を実行することができる。
本発明のモデルパラメータ学習装置において、特性データ取得手段は、第1カメラであり、教師データ取得手段は、第1カメラ以上の画素数を有する第2カメラであることが好ましい。
このモデルパラメータ学習装置によれば、2つのカメラを用いて、モデルパラメータを学習することができる。特に、第2カメラの画素数が第1カメラよりも大きいときには、教師データとして画像データよりも高い解像度又は画質のデータを用いることができる。それにより、同等の画素数のカメラを用いた場合と比べて、より高い学習効果を得ることができる。
本発明のモデルパラメータ学習装置において、特性データ取得手段は、カメラであり、教師データ取得手段は、LIDAR及びレーダの一方の検出データに基づいて、教師データを取得することが好ましい。
このモデルパラメータ学習装置によれば、LIDAR及びレーダの一方に基づいて、教師データが取得されるので、教師データとして距離画像データを取得することができる。それにより、対象の距離データを反映させながら、モデルパラメータの学習を実行することができる。
本発明のモデルパラメータ学習装置において、第1学習処理では、少なくとも第1モデルのモデルパラメータが学習され、第2学習処理では、少なくとも第3モデルのモデルパラメータが学習されることが好ましい。
このモデルパラメータ学習装置によれば、少なくとも第1モデル及び第3モデルのモデルパラメータを十分に学習することができる。
本発明の制御装置50は、上記のモデルパラメータ学習装置1において第1学習処理及び第2学習処理が交互に実行された回数が第3所定値に達したときの第1モデル及び第3モデルのモデルパラメータと、第1モデル及び第3モデルとを記憶する記憶手段(ECU52)と、記憶手段に記憶されたモデルパラメータと、第1モデル及び第3モデルとを用いて、車両を制御する制御手段(ECU52)と、を備えることを特徴とする。
この制御装置によれば、記憶手段に記憶されたモデルパラメータと、第1モデル及び第3モデルとを用いて、車両が制御される。この場合、第1モデル及び第3モデルのモデルパラメータは第1学習処理及び第2学習処理が交互に実行された回数が第3所定値に達したときの値であるので、モデルパラメータは、前述したように、第1ノイズ付加データ及び第2ノイズ付加データにおけるノイズの影響、又は第1ノイズ付加データにおけるノイズの影響を抑制できるように十分に学習されていることになる。したがって、そのようなモデルパラメータ、第1モデル及び第3モデルを用いることにより、車両の制御において、高いロバスト性を確保することができる。
本発明のモデルパラメータ学習方法は、対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データ(画像データXorg) を取得し、特性データ(画像データXorg) に所定の第1ノイズデータ(ノイズXnoi)を付加することにより、第1ノイズ付加データ(入力データXin)を作成し、第1ノイズ付加データを第1モデル(画像処理NNモデル10の入力層11から隠れ層12までの部分)に入力し、第1モデルの出力データを第2モデル(画像処理NNモデル10の隠れ層12から出力層13までの部分)に入力し、第2モデルの出力データである第2モデルデータ(出力データXout)を取得し、特性データ(画像データXorg) に相当する教師データ(画像データXorg)を取得し、第2モデルデータと教師データとの誤差が最小になるように、第1モデル及び第2モデルの少なくとも一方のモデルパラメータW,b,W,bを学習する第1学習処理を実行し、第1学習処理の実行回数が第1所定値(値1)に達したときに、第1ノイズ付加データの第1モデルへの入力と第1学習処理を停止し、特性データ(画像データX org ) に所定の第2ノイズデータ(ノイズX noi )を付加したデータ又は特性データ(画像データX org ) を、入力用特性データ(入力データX in )として設定し、入力用特性データを第1モデル(制御処理NNモデル20の入力層11から隠れ層12までの部分)に入力し、第1モデルの出力データを第2モデルと別個の第3モデル(制御処理NNモデル20の隠れ層12から出力層22までの部分)に入力し、第3モデルから出力される第3モデルデータ(出力データQ)を取得し、第3モデルデータを独立変数として含む損失関数L RL が最小になるように、第1モデル及び第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理を実行することを特徴とする。
本発明のモデルパラメータ学習方法において、第2学習処理の実行回数が第2所定値(値1)に達したときに、第2ノイズ付加データの第1モデルへの入力と第2学習処理を停止すると同時に、第1ノイズ付加データの第1モデルへの入力と第1学習処理を実行し、第1学習処理の実行以降、第1学習処理の実行回数が第1所定値に達する毎、及び第2学習処理の実行回数が第2所定値に達する毎に、第1学習処理及び第2学習処理の一方の停止と他方の実行を交互に実施することが好ましい。
本発明のモデルパラメータ学習方法において、特性データは、対象の画像データXorgであることが好ましい。
本発明のモデルパラメータ学習方法において、特性データ(画像データXorg) 及び教師データ(画像データXorg)は仮想空間におけるデータとして取得されることが好ましい。
本発明のモデルパラメータ学習方法において、画像データを、対象の画像を含むように取得し、対象を画像に含むとともに画像データと同等以上の解像度又は画質を有する第2画像データ、及び、対象との距離を表す距離データの一方に基づき、教師データを取得することが好ましい。
本発明のモデルパラメータ学習方法において、第1カメラによって、画像データを取得し、第1カメラ以上の画素数を有する第2カメラによって、教師データを取得することが好ましい。
本発明のモデルパラメータ学習方法において、カメラによって、画像データを取得し、LIDAR及びレーダの一方の検出データに基づいて、教師データを取得することが好ましい。
本発明の第1実施形態に係るモデルパラメータ学習装置の構成を示すブロック図である。 データ処理部における画像処理用のニューラルネットワークモデルの順伝播演算を実行したときの入出力を示す図である。 データ処理部における制御処理用のニューラルネットワークモデルの順伝播演算を実行したときの入出力を示す図である。 本発明の制御装置及びこれを適用した自動運転車両を示す図である。 制御装置による学習制御処理を示すフローチャートである。 制御装置による自動運転制御処理を示すフローチャートである。
以下、図面を参照しながら、本発明の第1実施形態に係るモデルパラメータ学習装置について説明する。本実施形態のモデルパラメータ学習装置は、以下に述べるように、モデルパラメータの学習処理を含む各種の演算処理を所定の制御周期ΔTで実行するものであり、具体的にはコントローラ(図示せず)によって構成されている。このコントローラは、プロセッサ、ストレージ及びメモリ(いずれも図示せず)などを備えている。
図1に示すように、本実施形態のモデルパラメータ学習装置1は、画像データ取得部2、ノイズ発生部3、加算器4、データ処理部5、出力切換部6、第1学習処理部7及び第2学習処理部8を備えている。なお、以下の説明において取得/算出される各種の値は、コントローラのメモリ内に記憶されるものとする。
まず、画像データ取得部2は、画像データXorgを上述した制御周期ΔTで取得し、これを加算器4に出力する。この画像データXorgは、1つ以上の撮像素子から取得されたピクセルのNa(Naは複数)個の値Xorg_j(j=1~Na)を要素とするベクトルとして、動画データのフレームから取得される。例えば、動画データとしては、仮想空間内の道路上を仮想車両が走行する際の、車両を中心として全周囲の風景の推移を表すように作成されたものが用いられる。
なお、本実施形態では、画像データ取得部2が特性データ取得手段及び教師データ取得手段に相当し、画像データXorgが特性データ及び教師データに相当する。
また、ノイズ発生部3は、ノイズXnoiを上述した制御周期ΔTで発生し、これを加算器4に出力する。このノイズXnoiは、インパルスノイズ、ガウシアンノイズ及びホワイトノイズなどを成分とするNa個の要素のベクトルとして出力される。なお、本実施形態では、ノイズXnoiが所定の第1ノイズデータ及び所定の第2ノイズデータに相当する。
さらに、加算器4は、下式(1)に示すように、上述した画像データXorg及びノイズXnoiの和として、入力データXinを算出し、これをデータ処理部5に入力する。この入力データXinは、Na個の値Xin_j(j=1~Na)を要素とするベクトルとして算出される。
Figure 0007079445000001
なお、本実施形態では、加算器4が第1ノイズ付加データ作成手段及び入力用特性データ設定手段に相当し、入力データ in が第1ノイズ付加データ及び入力用特性データに相当する。
次に、データ処理部5について説明する。このデータ処理部5は、図2及び図3に示すように、画像処理用のニューラルネットワークモデル(以下「画像処理NNモデル」という)10と、制御処理用のニューラルネットワークモデル(以下「制御処理NNモデル」という)20とを備えている。なお、本実施形態では、データ処理部5がモデルデータ取得手段及び実行停止手段に相当する。
このデータ処理部5では、以下に述べるように、前述した制御周期ΔTで、画像処理NNモデル10による順伝播演算と、制御処理NNモデル20による順伝播演算とが1回ずつ交互に実行される。この場合、画像処理NNモデル10による順伝播演算の実行中は、制御処理NNモデル20による順伝播演算が停止される一方、制御処理NNモデル20による順伝播演算の実行中は、画像処理NNモデル10による順伝播演算が停止される。
まず、図2を参照しながら、画像処理NNモデル10について説明する。同図に示すように、画像処理NNモデル10は、Na個のユニットを有する入力層11と、これに接続されたNb(Nbは複数)個のユニットを有する隠れ層(中間層)12と、これに接続されたNc(Ncは複数)個のユニットを有する出力層13を備えている。
画像処理NNモデル10では、以下に述べるように、順伝播演算が実行される。すなわち、図2に示すように、前述した入力データXinのNa個の要素Xin_j(j=1~Na)が入力層11のNa個のユニットにそれぞれ入力されると、隠れ層12において、下式(2),(3)により、中間データXh1がNb個の値を要素とするベクトルとして算出され、これが出力層13に出力される。
Figure 0007079445000002
Figure 0007079445000003
上式(2)において、yはNb個の値を要素とするベクトルである。また、Wは重み項であり、Nb×Na個の値を要素とする行列で構成される。また、bはバイアス項であり、Nb個の値を要素とするベクトルで構成される。また、式(3)のfは、活性化関数(例えば、シグモイド関数)であり、ベクトルyのNb個の要素の各々に対して作用することで、ベクトルyをNb個の要素のベクトルである中間データXh1に変換する。
また、出力層13では、上記の中間データXh1が隠れ層12から入力されると、下式(4),(5)により、出力データXoutがNc個の値Xout_j(j=1~Nc)を要素とするベクトルとして算出される。
Figure 0007079445000004
Figure 0007079445000005
上式(4)において、yはNc個の値を要素とするベクトルである。また、Wは重み項であり、Nc×Nb個の要素の行列で構成される。また、bはバイアス項であり、Nc個の要素のベクトルで構成される。また、式(5)のfは、活性化関数(例えば、シグモイド関数)であり、ベクトルyのNc個の要素の各々に対して作用することで、ベクトルyを、Nc個の要素のベクトルである出力データXoutに変換する。
画像処理NNモデル10において、出力データXout(第2モデルデータ)が以上のように算出された場合、この出力データXoutがデータ処理部5から出力切換部6に出力される。
以上の画像処理NNモデル10の場合、入力層11から隠れ層12までの部分は、入力データXinの特徴量を抽出する機能を備えており、隠れ層12から出力層13の部分は、抽出された特徴量から画像データを復元する機能を備えている。なお、本実施形態では、入力層11から隠れ層12までの部分が第1モデルに相当し、隠れ層12から出力層13の部分が第2モデルに相当する。
次に、図3を参照しながら、制御処理NNモデル20について説明する。同図に示すように、制御処理NNモデル20は、前述した画像処理NNモデル10と共通の入力層11及び隠れ層12と、隠れ層12に接続されたNd(Ndは複数)個のユニットの隠れ層21と、この隠れ層21に接続されたNe(Neは複数)個のユニットの出力層22を備えている。
この制御処理NNモデル20では、以下に述べるように、順伝播演算が実行される。すなわち、図3に示すように、前述した入力データXinのNa個の要素Xin_j(j=1~Na)が入力層11のNa個のユニットにそれぞれ入力されると、隠れ層12において、前述した式(2),(3)より、中間データXh1がNb個の要素のベクトルとして算出され、これが隠れ層21に出力される。
隠れ層21では、上記の中間データXh1が隠れ層12から入力されると、下式(6),(7)により、中間データXがNd個の要素のベクトルとして算出され、これが出力層22に出力される。
Figure 0007079445000006
Figure 0007079445000007
上式(6)において、yは、Nd個の要素のベクトルである。また、Wは重み項であり、Nd×Nb個の要素の行列で構成される。また、bはバイアス項であり、Nd個の要素のベクトルで構成される。また、式(7)のfは、活性化関数(例えば、シグモイド関数)であり、ベクトルyのNd個の要素の各々に対して作用することで、ベクトルyを、Nd個の要素のベクトルである中間データXに変換する。
さらに、出力層22では、上記の中間データXが隠れ層21から入力されると、下式(8),(9)により、出力データQがNe個の値Q(n=1~Ne)を要素とするベクトルとして算出される。
Figure 0007079445000008
Figure 0007079445000009
上式(8)において、yはNe個の要素のベクトルである。また、Wは重み項であり、Ne×Nd個の要素の行列で構成される。また、bはバイアス項であり、Ne個の要素のベクトルで構成される。また、式(9)のfは、活性化関数(例えば、シグモイド関数)であり、ベクトルyのNe個の要素の各々に対して作用することで、ベクトルyを、Ne個の要素のベクトルである出力データQ(n=1~Ne)に変換する。
制御処理NNモデル20において、順伝播演算により、出力データQ(第3モデルデータ)が以上のように算出された場合、この出力データQがデータ処理部5から出力切換部6に出力される。
なお、本実施形態では、制御処理NNモデル20における入力層11から隠れ層12までの部分が第1モデルに相当し、隠れ層12から出力層22の部分が第3モデルに相当する。
次に、出力切換部6について説明する。この出力切換部6は、出力データXoutがデータ処理部5から入力されたときには、これを第1学習処理部7に出力する。一方、出力データQがデータ処理部5から入力されたときには、これを第2学習処理部8に出力する。
次に、第1学習処理部7について説明する。この第1学習処理部7では、以下に述べるように、第1学習処理が実行される。この第1学習処理は、前述した制御周期ΔTで、誤差逆伝播演算により、画像処理NNモデル10のモデルパラメータW,b,W,bを算出(学習)するものである。
また、この第1学習処理は、出力データXoutが出力切換部6から第1学習処理部7に入力されたとき、すなわち、画像処理NNモデル10による順伝播演算が実行されたときに実行され、それ以外のときには停止される。なお、本実施形態では、第1学習処理部7が第1学習手段及び実行停止手段に相当する。
第1学習処理では、まず、下式(10)により、損失関数LAEが平均2乗和誤差として算出される。
Figure 0007079445000010
次いで、下式(11)により、重み項Wが算出される。
Figure 0007079445000011
上式(11)において、W’は重み項の前回値であり、ηは学習率である。また、右辺の∂LAE/∂Wは誤差勾配であり、その算出式はここでは省略するが、周知の連鎖律によって算出される。
また、下式(12)により、バイアス項bが算出される。
Figure 0007079445000012
上式(12)において、b’はバイアス項の前回値である。また、∂LAE/∂bは誤差勾配であり、周知の連鎖律によって算出される。
さらに、下式(13)により、重み項Wが算出される。
Figure 0007079445000013
上式(13)において、W’は重み項の前回値である。また、∂LAE/∂Wは誤差勾配であり、周知の連鎖律によって算出される。
また、下式(14)により、バイアス項bが算出される。
Figure 0007079445000014
上式(14)において、b’はバイアス項の前回値である。また、∂LAE/∂bは誤差勾配であり、周知の連鎖律によって算出される。
第1学習処理部7は、以上のように、モデルパラメータW,b,W,bを算出すると、これらの値をデータ処理部5に出力する。以上のように算出/学習されたモデルパラメータW,bは、制御処理NNモデル20での次回の順伝播演算で用いられ、モデルパラメータW,bは、画像処理NNモデル10での次回の順伝播演算で用いられる。
次に、第2学習処理部8について説明する。この第2学習処理部8では、以下に述べるように、第2学習処理が実行される。この第2学習処理は、前述した制御周期ΔTで、勾配法により、制御処理NNモデル20のモデルパラメータW,b,W,b,W,bを算出(学習)するものである。
また、この第2学習処理は、出力データQが出力切換部6から第2学習処理部8に入力されているとき、すなわち、制御処理NNモデル20による順伝播演算が実行されているときに実行され、それ以外のときには停止される。したがって、第2学習処理と第1学習処理は、1回ずつ交互に実行される。なお、本実施形態では、第2学習処理部8が第2学習手段及び実行停止手段に相当する。
第2学習処理では、まず、下式(15)により、損失関数LRLが算出される。この損失関数LRLは、出力データQを行動価値関数としたときのTD誤差の2乗項に値1/2を乗算したものに相当する。
Figure 0007079445000015
上式(15)において、rは、報酬であり、状態としての入力データXinに基づき、所定の報酬算出アルゴリズムを用いて算出される。また、γは、0<γ≦1が成立するように設定される割引率であり、Qaは、出力データQの要素Q(n=1~Ne)のうち、n=aという行動を選択した際に期待される行動価値関数の値を表している。さらに、Q’は、入力データXinを制御処理NNモデル20に入力し、aという行動を選択した後、次回の制御処理NNモデル20による順伝播演算の実行時、入力データXin’が制御処理NNモデル20に入力されたときに、制御処理NNモデル20から出力される出力データQの要素Qのうちの最大値である。
次いで、下式(16)により、重み項Wが算出される。
Figure 0007079445000016
上式(16)において、W’は重み項の前回値である。また、右辺の∂ RL /∂Wは誤差勾配であり、周知の連鎖律によって算出される。
また、下式(17)により、バイアス項bが算出される。
Figure 0007079445000017
上式(17)において、b’はバイアス項の前回値である。また、∂ RL /∂bは誤差勾配であり、周知の連鎖律によって算出される。
さらに、下式(18)により、重み項Wが算出される。
Figure 0007079445000018
上式(18)において、W’は重み項の前回値である。また、∂ RL /∂Wは誤差勾配であり、周知の連鎖律によって算出される。
また、下式(19)により、バイアス項bが算出される。
Figure 0007079445000019
上式(19)において、b’はバイアス項の前回値である。また、∂ RL /∂bは誤差勾配であり、周知の連鎖律によって算出される。
さらに、下式(20)により、重み項Wが算出される。
Figure 0007079445000020
上式(20)において、W’は重み項の前回値である。また、∂ RL /∂Wは誤差勾配であり、周知の連鎖律によって算出される。
また、下式(21)により、バイアス項bが算出される。
Figure 0007079445000021
上式(21)において、b’はバイアス項の前回値である。また、∂ RL /∂bは誤差勾配であり、周知の連鎖律によって算出される。
第2学習処理部8では、以上のように、モデルパラメータW,b,W,b,W,bが算出されたときに、これらの値がデータ処理部5に出力される。それにより、以上のように算出/学習されたモデルパラメータW,bは、画像処理NNモデル10での次回の順伝播演算に用いられ、モデルパラメータW,b,W,bは、制御処理NNモデル20での次回の順伝播演算に用いられる。
以上のように、第1実施形態のモデルパラメータ学習装置1によれば、画像データXorgにノイズXnoiを付加することにより、入力データXinが作成され、これがデータ処理部5に入力される。それに伴い、データ処理部5では、画像処理NNモデル10による順伝播演算[式(2)~(5)]と、制御処理NNモデル20による順伝播演算[式(2)~(3),(6)~(9)]とが1回ずつ交互に実行される。
その場合、画像処理NNモデル10での順伝播演算によって、出力データXoutが算出されたときには、第1学習処理部7において、誤差逆伝播演算[式(10)~(14)]によって、画像処理NNモデル10のモデルパラメータW,b,W,bが算出される。すなわち、損失関数LAEが最小になるように、モデルパラメータW,b,W,bが算出される。
この損失関数LAEは、教師データである画像データXorgと出力データXoutとの平均2乗和誤差であるので、画像データXorgと出力データXoutとの誤差が最小になるように、モデルパラメータW,b,W,bが算出されることになる。したがって、第1学習処理を繰り返し実行することにより、出力データXoutが入力データXinにおけるノイズXnoiの影響が抑制された値になるように、モデルパラメータW,b,W,bを学習することができる。
一方、制御処理NNモデル20による順伝播演算によって、出力データQが算出されたときには、これに基づき、第2学習処理部8において、誤差逆伝播演算[式(15)~(21)]によって、制御処理NNモデル20のモデルパラメータW,b,W,b,W,bが算出される。すなわち、損失関数LRLが最小になるように、モデルパラメータW,b,W,b,W,bが算出される。
この損失関数LRLは、出力データQを行動価値関数としたときのTD誤差の2乗項に値1/2を乗算したものであるので、TD誤差が最小になるように、モデルパラメータW,b,W,b,W,bが算出されることになる。したがって、第2学習処理を繰り返し実行することにより、出力データXoutが入力データXinにおけるノイズXnoiの影響が抑制された値になるように、モデルパラメータW,b,W,b,W,bを学習することができる。特に、第1学習処理と第2学習処理が交互に繰り返し実行されるので、モデルパラメータW,b,W,b,W,b,W,bを十分に学習することができる。
また、入力用のデータ及び教師データとして用いられる画像データXorgが、仮想空間におけるデータとして取得されるので、これらのデータを実空間においてセンサなどを用いて実際に取得する必要がなくなり、その分、コストを削減することができる。また、画像データXorgにノイズXnoiを付加した入力データXinを用いることにより、ノイズの少ない仮想空間の環境下でも、ノイズXnoiの影響が抑制されるように、モデルパラメータW,b,W,b,W,b,W,bを学習することができる。
なお、第1実施形態は、特性データとして画像データXorgを用いた例であるが、本発明の特性データはこれに限らず、対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータであればよい。例えば、特性データとして、距離センサ及び物標認識モジュール(LIDAR、レーダ及びソナーなど)を用いて、他の交通参加者(歩行者及び他車両など)や、物標(道路境界、白線、交差点及び信号など)の属性と距離を表す距離・物標データを用いてもよい。
その場合には、例えば、以下のように構成すればよい。すなわち、前述した図1の構成において、画像データ取得部2に代えて、距離・物標データ取得部を設け、この距離・物標データ取得部により、距離センサ及び物標認識モジュールを用いて、他の交通参加者及び物標などの距離・物標データを取得する。そして、この距離・物標データにノイズを付加したデータを入力データとしてデータ処理部5に入力する。さらに、この距離・物標データを教師データとして、前述したように、第1学習処理を実行するとともに、前述したように、第2学習処理を実行すればよい。このように構成した場合でも、第1実施形態と同様の作用効果を得ることができる。
また、第1実施形態は、所定の第1ノイズデータとして、インパルスノイズやガウシアンノイズなどを成分とするノイズXnoiを用いた例であるが、本発明の所定の第1ノイズデータはこれに限らず、画像データに対してノイズとして付加されるものであればよい。例えば、所定の第1ノイズデータとして、第1学習処理部7に対する敵対的摂動を用いてもよい。すなわち、式(10)で示される損失関数LAEを大きくするベクトルと同じ方向を有するノイズベクトルを用いてもよい。
さらに、第1実施形態は、所定の第2ノイズデータとして、インパルスノイズやガウシアンノイズなどを成分とするノイズXnoiを用いた例であるが、本発明の所定の第2ノイズデータはこれに限らず、画像データに対してノイズとして付加されるものであればよい。例えば、所定の第2ノイズデータとして、後述する式(22),(23)で示されるような、第2学習処理部8に対する敵対的摂動を用いてもよい。
また、第1実施形態は、第1モデル及び第2モデルとして、画像処理NNモデル10の入力層11から隠れ層12までの部分及び隠れ層12から出力層13の部分をそれぞれ用いた例であるが、本発明の第1モデル及び第2モデルはこれらに限らず、第1ノイズ付加データが第1モデルに入力されたときに、第1モデルの出力データが第2モデルに入力されるとともに、第2モデルから第2モデルデータが出力されるものであればよい。例えば、畳み込みニューラルネットワーク及び逆畳み込みニューラルネットワークをそれぞれ、第1モデル及び第2モデルとして用いることにより、第1モデルと第2モデルを接続したモデルとして、オートエンコーダアーキテクチャ(下記の文献1参照)を採用してもよい。
文献1:Ian Goodfellow, Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press
一方、第1実施形態は、第1モデル及び第3モデルとして、制御処理NNモデル20の入力層11から隠れ層12までの部分及び隠れ層12から出力層22までの部分をそれぞれ用いた例であるが、本発明の第1モデル及び第3モデルはこれに限らず、入力用画像データが第1モデルに入力されたときに、第1モデルの出力データが第3モデルに入力されるとともに、第3モデルから第3モデルデータが出力されるものであればよい。
例えば、畳み込みニューラルネットワーク及びQネットワークをそれぞれ、第1モデル及び第3モデルとして用いることにより、第1モデルと第3モデルを接続したモデルとして、深層Qネットワークアーキテクチャ(下記の文献2参照)を採用してもよい。
文献2:Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin Riedmiller, Andreas K. Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglou, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg & Demis Hassabis, Human-level control through deep reinforcement learning, Nature, 518, 529-533.
また、第1実施形態では、画像処理NNモデル10として、1層の隠れ層12を備えたニューラルネットワークモデルを用いたが、これに代えて、画像処理NNモデル10として、2層以上の隠れ層を備えた多層ニューラルネットワークモデルを用いてもよい。
さらに、第1実施形態では、制御処理NNモデル20として、2層の隠れ層12,21を備えたニューラルネットワークモデルを用いたが、これに代えて、制御処理NNモデル20として、3層以上の隠れ層を備えた深層ニューラルネットワークモデルを用いてもよい。
また、第1実施形態は、第1学習処理において、第1モデル及び第2モデルのモデルパラメータW,b,W,bを学習した例であるが、本発明の第1学習処理はこれに限らず、第1モデル及び第2モデルの少なくとも一方のモデルパラメータを学習するものであればよい。例えば、モデルパラメータW,b及びモデルパラメータW,bの一方を学習するように構成してもよい。
さらに、第1実施形態は、第2習処理において、第1モデル及び第3モデルのモデルパラメータW,b,W,b,W,bを学習した例であるが、本発明の第2学習処理はこれに限らず、第1モデル及び第3モデルの少なくとも一方のモデルパラメータを学習するものであればよい。例えば、モデルパラメータW,b及びモデルパラメータW,b,W,bの一方を学習するように構成してもよい。
一方、第1実施形態は、第2学習処理における損失関数として、式(15)に示す損失関数 RL を用いた例であるが、本発明の第2学習処理における損失関数はこれに限らず、第3モデルパラメータを独立変数として含むものであればよい。例えば、行動価値関数Qに代えて、Target Q-Networkの出力値TをTD誤差の期待報酬に含むように定義されたものを用いてもよい。
また、第1実施形態は、特性データとしての画像データXorgを仮想空間の動画データから取得した例であるが、これに代えて、カメラを用いて実空間から画像データXorgを取得するように構成してもよい。
さらに、第1実施形態は、教師データ取得手段として、画像データ取得部2を用いた例であるが、本発明の教師データ取得手段はこれに限らず、特性データに相当する教師データを取得できるものであればよい。
例えば、教師データ取得手段として、カメラを用いて実空間から教師データを取得するように構成してもよい。その場合、特性データ取得手段がカメラであるときに、これと同程度の画素数のカメラを用いてよく、特性データ取得手段よりも高画素数のカメラや、LIDAR及びレーダの一方を用いてもよい。
その場合、教師データ取得手段として、特性データ取得手段のカメラよりも高画素数のカメラを用いたときには、2つのカメラによって取得された2つの画像データの画素数が互いに異なることで、2つの画像データの画素位置がずれた状態になる可能性がある。その場合には、両者の画素位置が一致するように、2つの画像データの一方を補間演算(例えばバイリニア補間演算)すればよい。このように構成した場合、教師データとして画像データよりも高画素数のデータを用いることで、同一の画素数の画像データを用いた場合と比べて、より高い学習効果を得ることができる。
また、教師データ取得手段として、LIDAR及びレーダの一方を用いた場合には、これらの検出データに基づき、距離画像データを教師データとして作成すればよい。このように構成した場合、対象の距離データを反映させながら、モデルパラメータの学習を実行することができる。
また、第1実施形態は、第1学習処理と第2学習処理を1回ずつ交互に実行した例であるが、これに代えて、第1学習処理の実行回数が第1所定値(例えば値2~5)に達する毎、及び、第2学習処理の実行回数が第2所定値(例えば値2~5)に達する毎、2つの学習処理を切り換えて実行するように構成してもよい。
次に、本発明の第2実施形態に係るモデルパラメータ学習装置について説明する。このモデルパラメータ学習装置の場合、第1実施形態のモデルパラメータ学習装置1と比較して、前述したアルゴリズムの一部が異なっている点を除けば、同一の構成を備えているので、以下異なる点についてのみ説明する。
このモデルパラメータ学習装置では、ノイズ発生部3、データ処理部5、第1学習処理部7及び第2学習処理部8において、以下に述べるように、(A1)~(A5)の順に各種の演算処理が繰り返し実行される。
(A1)まず、データ処理部5の制御処理NNモデル20において、以下に述べるように、順伝播演算が実行される。この順伝播演算では、前述した式(2)において、入力データXinに代えて画像データXorgが用いられるとともに、前述した式(3),(6)~(9)により、出力データQが算出される。
(A2)次いで、第2学習処理部8では、前述した式(15)~(21)により、モデルパラメータW,b,W,b,W,bが算出される。
(A3)また、ノイズ発生部3では、下式(22),(23)に示す逆伝播演算により、敵対的摂動Xnoi’が算出される。
Figure 0007079445000022
Figure 0007079445000023
上式(22)において、Jはクロスエントロピーコスト関数であり、tは、Qの最大値のみが値1となり、それ以外は値0となるone-hotベクトルである。また、softmaxは、ソフトマックス関数である。さらに、上式(23)において、εはノイズのサイズを決定する定数である。また、∇xorgJ(Xorg,Q)は、∂J/∂Xorgに相当する誤差勾配であり、周知の連鎖律によって算出される。さらに、sign(∇xorgJ(Xorg,Q))は、符号関数であり、誤差勾配∇xorgJ(Xorg,Q)が正値のときに値1を、誤差勾配∇xorgJ(Xorg,Q)が負値のときに値-1をそれぞれ示す。
(A4)次に、加算器4では、前述した式(1)において、ノイズXnoiに代えて敵対的摂動Xnoi’を用いて、入力データXinが算出され、データ処理部5の画像処理NNモデル10では、この入力データXinを用いて、前述した式(2)~(5)の順伝播演算により、出力データQが算出される。
(A5)次いで、第1学習処理部7では、前述した式(10)~(14)の逆伝播演算により、モデルパラメータW,b,W,bが算出される。このように、(A1)から(A5)までの演算を実行した後、(A1)に戻り、(A1)から(A5)までの演算が繰り返し実行される。
以上のように、この敵対的摂動Xnoi’は、誤差勾配の符号関数と定数εの積として算出されるので、この敵対的摂動Xnoi’の影響が抑制されるように、第1学習処理部7で、モデルパラメータW,b,W,bが算出されることになる。それにより、制御処理NNモデル20において、出力データQを算出する際、そのようなモデルパラメータW,bを用いることによって、出力データQの誤差を迅速に低減することができる。その結果、第2学習処理部8における、モデルパラメータW,b,W,b,W,bの学習速度を高めることができる。
また、制御処理の結果が大きく変動する摂動が付加された入力データを学習することによって、取得データにはない入力に対しても所望の出力が得られることになる。それにより、このような制御処理NNモデル20を制御器に適用した場合には、制御器の汎化・ロバスト化を実現することができる。
なお、第2実施形態は、出力Qの要素Qの中からの行動選択を実施した例であるが、出力値として連続値を用いる場合には、上述した式(22)のコスト関数Jに代えて、下式(24)に示すコスト関数Jを用いることにより、敵対的摂動を算出することができる。
Figure 0007079445000024
上式(24)のδ(X-X)は、X=Xのときには値1となり、X≠Xのときには値0となる関数である。また、上式(24)のp(X)は、制御処理NNモデル20の連続値の出力が取り得る確率分布を表す値で、Xは制御処理NNモデルの出力値である。
また、本発明において、第1モデルとして、特徴量の抽出アルゴリズム(例えば、HOGアルゴリズム、Hough変換アルゴリズム、Canny変換アルゴリズム、Sobel変換アルゴリズム)及び2次曲線フィッテングアルゴリズムを用い、第2モデルとして、情報を復元する情報復元アルゴリズムを用いるとともに、第3モデルとして、PID制御アルゴリズム、モデル予測制御アルゴリズム、分類器及び決定木のいずれかを用いるように構成してもよい。
例えば、第1モデルとして、Sobel変換アルゴリズム及び2次曲線フィッテングアルゴリズムを用い、第2モデルとして、情報を復元する情報復元アルゴリズムを用いるとともに、第3モデルとして、PID制御アルゴリズムを用いた場合には、モデルパラメータが以下に述べるように学習される。
まず、第1モデル及び第2モデルのモデルパラメータは、以下のように学習される。すなわち、第1モデルでは、Sobel変換アルゴリズムによって、以下に述べるように、特徴量として道路の白線が抽出される。
まず、摂動を含んだ画像データを所定サイズ(ピクセル)にリサイズして、グレースケールで読み込む。次に、各ピクセルの特定方向への輝度勾配量を求めた後に、閾値を越えた勾配量のピクセルを抽出する。抽出されたピクセルを前時刻(前回の制御時刻)の白線データ位置、自車移動量を加味し、白線を構成する候補のピクセルのみ抽出する。
また、それらピクセルに対して2次曲線フィッテングアルゴリズムによって、2次曲線の係数が算出される。次いで、第2モデルでは、情報復元アルゴリズムによって、第1モデルで算出された2次曲線データから白線画像データが復元される。
この後、第2モデルで復元した白線画像データと、摂動を含まない画像データである教師データとの誤差が最小になるように、第1モデルにおけるSobel変換アルゴリズムのフィルタパラメータ(カーネルサイズ、勾配方向、検出閾値など)、前時刻データとの平滑化パラメータ、及び/又は2次曲線フィッテングアルゴリズムにおける2次曲線の係数がモデルパラメータとして学習される。これと同時に、上記の誤差が最小になるように、情報復元アルゴリズムのパラメータ(例えば、白線をピクセル上に展開するときの設定パラメータ)が学習される。
一方、第1モデル及び第3モデルのモデルパラメータは、以下のように学習される。まず、第1モデルでは、上記のように、2次曲線の係数が算出される。次いで、第3モデルでは、第1モデルで算出された2次曲線データを用いて、走行レーンの中心位置を算出し、この中心位置を目標値として、PID制御アルゴリズムにより、車両51が走行レーンをキープするように、操舵制御を実行する。
この後、実際の走行軌道と走行レーンの中心位置との誤差(又は2乗誤差)を損失関数として、この損失関数が減少するように、PID制御アルゴリズムのフィードバックゲインすなわちモデルパラメータが学習されるとともに、第1モデルにおけるSobel変換アルゴリズムのフィルタパラメータ(カーネルサイズ、勾配方向、検出閾値など)、前時刻データとの平滑化パラメータ、及び/又は2次曲線の係数が学習される。
以上のように、第1モデル、第2モデル及び第3モデルのモデルパラメータの学習を実行した場合でも、前述した第1実施形態及び第2実施形態と同じ作用効果を得ることができる。
次に、本発明の制御装置について説明する。図4に示すように、この制御装置50は、四輪タイプの自動運転車両51に適用されたものであり、ECU52を備えている。なお、以下の説明では、この自動運転車両51を「車両51」という。
このECU52には、状況検出装置53、原動機54及びアクチュエータ55が電気的に接続されている。この状況検出装置53は、カメラ、ミリ波レーダ、LIDAR、ソナー、GPS及び各種のセンサなどで構成されており、自車両51の周辺状況を表す周辺状況データdata_sをECU52に出力する。
この場合、周辺状況データdata_sは、周辺画像、車速、操舵角、ヨーレート、加速度、躍度、道路端の座標、他車両との相対位置及び他車両との相対速度などを含む数十種類のデータで構成されている。
原動機54は、例えば、電気モータなどで構成されており、後述するように、ECU52によって自動運転制御が実行される際、原動機54の動作状態が制御される。
また、アクチュエータ55は、制動用アクチュエータ及び操舵用アクチュエータなどで構成されており、後述するように、自動運転制御を実行するときに、アクチュエータ55の動作が制御される。
一方、ECU52は、CPU、RAM、ROM、E2PROM、I/Oインターフェース及び各種の電気回路(いずれも図示せず)などからなるマイクロコンピュータで構成されている。このE2PROM内には、前述した制御処理NNモデル20と、前述したモデルパラメータW,b,W,b,W,bとが記憶されている。なお、この制御装置50では、ECU52が記憶手段及び制御手段に相当する。
この場合、ECU52が自動運転車両51に搭載された時点では、モデルパラメータW,b,W,b,W,bとして、前述したモデルパラメータ学習装置1において、第1学習処理と第2学習処理とを交互に切り換えて実行した回数が第3所定値(例えば値10000~100000)に達したときの値がE2PROM内に記憶されている。
ECU52は、以下に述べるように、状況検出装置53からの状況データdata_sなどに基づき、制御処理NNモデル20及びモデルパラメータW,b,W,b,W,bを用いて、学習制御処理及び自動運転制御処理などを実行する。
次に、図5を参照しながら、学習制御処理について説明する。この学習制御処理は、行動aを算出するとともに、前述した第2学習処理の算出手法によって、制御処理NNモデル20のモデルパラメータW,b,W,b,W,bを更新するものであり、ECU52によって、所定の制御周期で実行される。
なお、以下の説明において算出される各種の値は、ECU52のE2PROM内に記憶されるものとする。
まず、入力データXin”を取得する(図5/STEP1)。この入力データXin”は、状況検出装置53のうちのカメラの検出信号から画像データとして取得される。
次いで、入力データXin”に基づき、制御処理NNモデル20を用いて、出力データQを算出する(図5/STEP2)。すなわち、前述した式(2)における入力データXinを入力データXin”に置き換えた式と、前述した式(3),(6)~(9)とを用いて、出力データQを算出する。
次に、出力データQに基づいて、ε-greedy法により、最適な行動aを決定する(図5/STEP3)。この場合の行動aは、車両51の操舵量及び加減速度の指令値として決定される。
次いで、所定の報酬算出アルゴリズムを用いて、報酬rを算出する(図5/STEP4)。
次に、前述した式(15)により、損失関数LRLを算出する(図5/STEP5)
そして、この損失関数LRLに基づき、前述したように、式(16)~(21)に示す誤差逆伝播演算により、制御処理NNモデル20のモデルパラメータを更新(算出)する(図5/STEP6)。以上のように、モデルパラメータを更新した後、本処理を終了する。
次に、図6を参照しながら、自動運転制御について説明する。この自動運転制御は、車両51の運転状態を制御するものであり、ECU52によって、所定の制御周期で実行される。なお、以下の説明では、先行車の追い越しを実行するときの自動運転制御の一例について説明する。
まず、前述した図5のSTEP1~3と同様に、入力データXin”を取得し(図6/STEP20)、出力データQを算出するとともに(図6/STEP21)、最適な行動aすなわち車両51の操舵量の指令値及び加減速度の指令値を決定する(図6/STEP22)。
次いで、車両51の加減速度が決定した加減速度の指令値になるように、原動機54を駆動する(図6/STEP23)。
次に、車両51の操舵量が決定した操舵量の指令値になるように、アクチュエータ55を駆動する(図6/STEP24)。その後、本処理を終了する。
以上のように、この制御装置50によれば、E2PROM内に記憶された制御処理NNモデル20とモデルパラメータW,b,W,b,W,bとを用いて、車両51の自動運転制御が実行される。この場合、制御処理NNモデル20のモデルパラメータW,b,W,b,W,bは、ECU52が自動運転車両51に搭載された時点では、第1学習処理及び第2学習処理を交互に実行した回数が第3所定値に達したときの値であるので、前述したように、ノイズの影響を抑制できるように十分に学習されていることになる。したがって、そのようなモデルパラメータW,b,W,b,W,bと制御処理NNモデル20を用いることにより、車両51の自動運転制御において、ノイズに対して高いロバスト性を確保することができる。
なお、ECU52において、図5の学習制御処理を省略し、図6の自動運転制御処理を
実行するように構成してもよい。
1 モデルパラメータ学習装置
2 画像データ取得部(特性データ取得手段、教師データ取得手段)
4 加算器(第1ノイズ付加データ作成手段、入力用特性データ設定手段)
5 データ処理部(モデルデータ取得手段、実行停止手段)
7 第1学習処理部(第1学習手段、実行停止手段)
8 第2学習処理部(第2学習手段、実行停止手段)
10 画像処理NNモデル(第1モデル、第2モデル)
11 入力層(第1モデル)
12 隠れ層(第1モデル、第2モデル)
13 出力層(第2モデル)
20 制御処理NNモデル(第1モデル、第3モデル)
21 隠れ層(第3モデル)
22 出力層(第3モデル)
50 制御装置
52 ECU(記憶手段、制御手段)
org 画像データ(特性データ、教師データ)
noi ノイズ(所定の第1ノイズデータ、所定の第2ノイズデータ)
in 入力データ(第1ノイズ付加データ、入力用特性データ)
out 出力データ(第2モデルデータ)
重み項、モデルパラメータ
バイアス項、モデルパラメータ
重み項、モデルパラメータ
バイアス項、モデルパラメータ
重み項、モデルパラメータ
バイアス項、モデルパラメータ
重み項、モデルパラメータ
バイアス項、モデルパラメータ
Q 出力データ(第3モデルデータ)
RL 損失関数

Claims (16)

  1. 対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データを取得する特性データ取得手段と、
    前記特性データに所定の第1ノイズデータを付加することにより、第1ノイズ付加データを作成する第1ノイズ付加データ作成手段と、
    第1モデル及び第2モデルを有し、前記第1ノイズ付加データが当該第1モデルに入力されたときに、当該第1モデルの出力データを前記第2モデルに入力するとともに、当該第2モデルから出力される第2モデルデータを取得するモデルデータ取得手段と、
    前記特性データに相当する教師データを取得する教師データ取得手段と、
    前記第2モデルデータと前記教師データとの誤差が最小になるように、前記第1モデル及び前記第2モデルの少なくとも一方のモデルパラメータを学習する第1学習処理を実行する第1学習手段と、
    前記第1学習処理の実行回数が第1所定値に達したときに、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を停止する実行停止手段と、
    前記特性データに所定の第2ノイズデータを付加したデータ又は前記特性データを、入力用特性データとして設定する入力用特性データ設定手段と、
    を備え、
    前記モデルデータ取得手段は、前記第2モデルと別個の第3モデルをさらに有し、前記第1学習処理が停止されている場合において前記入力用特性データが前記第1モデルに入力されたときに、当該第1モデルの出力データを前記第3モデルに入力するとともに、当該第3モデルから出力される第3モデルデータを取得し、
    当該第3モデルデータを独立変数として含む損失関数が最小になるように、前記第1モデル及び前記第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理を実行する第2学習手段をさらに備えることを特徴とするモデルパラメータ学習装置。
  2. 請求項1に記載のモデルパラメータ学習装置において、
    前記実行停止手段は、前記第2学習処理の実行回数が第2所定値に達したときに、前記入力用特性データの前記第1モデルへの入力と前記第2学習処理を停止すると同時に、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を実行し、当該第1学習処理の実行以降、前記第1学習処理の前記実行回数が前記第1所定値に達する毎、及び前記第2学習処理の前記実行回数が前記第2所定値に達する毎に、前記第1学習処理及び前記第2学習処理の一方の停止と他方の実行を交互に実施することを特徴とするモデルパラメータ学習装置。
  3. 請求項1又は2に記載のモデルパラメータ学習装置において、
    前記特性データは、前記対象の画像データであることを特徴とするモデルパラメータ学習装置。
  4. 請求項1ないし3のいずれかに記載のモデルパラメータ学習装置において、
    前記特性データ取得手段及び前記教師データ取得手段はそれぞれ、前記特性データ及び前記教師データを仮想空間におけるデータとして取得することを特徴とするモデルパラメータ学習装置。
  5. 請求項に記載のモデルパラメータ学習装置において、
    前記教師データ取得手段は、前記対象を画像に含むとともに前記画像データと同等以上の解像度又は画質を有する第2画像データ、及び、前記対象との距離を表す距離データの一方に基づき、前記教師データを取得することを特徴とするモデルパラメータ学習装置。
  6. 請求項に記載のモデルパラメータ学習装置において、
    前記特性データ取得手段は、第1カメラであり、
    前記教師データ取得手段は、前記第1カメラ以上の画素数を有する第2カメラであることを特徴とするモデルパラメータ学習装置。
  7. 請求項に記載のモデルパラメータ学習装置において、
    前記特性データ取得手段は、カメラであり、
    前記教師データ取得手段は、LIDAR及びレーダの一方の検出データに基づいて、前記教師データを取得することを特徴とするモデルパラメータ学習装置。
  8. 請求項に記載のモデルパラメータ学習装置において、
    前記第1学習処理では、少なくとも前記第1モデルのモデルパラメータが学習され、
    前記第2学習処理では、少なくとも前記第3モデルのモデルパラメータが学習されることを特徴とするモデルパラメータ学習装置。
  9. 請求項8に記載のモデルパラメータ学習装置において前記第1学習処理及び前記第2学習処理が交互に実行された回数が第3所定値に達したときの前記第1モデル及び前記第3モデルの前記モデルパラメータと、前記第1モデル及び前記第3モデルとを記憶する記憶手段と、
    当該記憶手段に記憶された前記モデルパラメータと、前記第1モデル及び前記第3モデルとを用いて、車両を制御する制御手段と、
    を備えることを特徴とする制御装置。
  10. 対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データを取得し、
    当該特性データに所定の第1ノイズデータを付加することにより、第1ノイズ付加データを作成し、
    前記第1ノイズ付加データを第1モデルに入力し、
    当該第1モデルの出力データを第2モデルに入力し、
    当該第2モデルの出力データである第2モデルデータを取得し、
    前記特性データに相当する教師データを取得し、
    前記第2モデルデータと前記教師データとの誤差が最小になるように、前記第1モデル及び前記第2モデルの少なくとも一方のモデルパラメータを学習する第1学習処理を実行し、
    前記第1学習処理の実行回数が第1所定値に達したときに、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を停止し、
    前記特性データに所定の第2ノイズデータを付加したデータ又は前記特性データを、入力用特性データとして設定し、
    当該入力用特性データを前記第1モデルに入力し、
    当該第1モデルの出力データを前記第2モデルと別個の第3モデルに入力し、
    当該第3モデルから出力される第3モデルデータを取得し、
    当該第3モデルデータを独立変数として含む損失関数が最小になるように、前記第1モデル及び前記第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理を実行することを特徴とするモデルパラメータ学習方法。
  11. 請求項10に記載のモデルパラメータ学習方法において、
    前記第2学習処理の実行回数が第2所定値に達したときに、前記入力用特性データの前記第1モデルへの入力と前記第2学習処理を停止すると同時に、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を実行し、
    当該第1学習処理の実行以降、前記第1学習処理の前記実行回数が前記第1所定値に達する毎、及び前記第2学習処理の前記実行回数が前記第2所定値に達する毎に、前記第1学習処理及び前記第2学習処理の一方の停止と他方の実行を交互に実施することを特徴とするモデルパラメータ学習方法。
  12. 請求項10又は11に記載のモデルパラメータ学習方法において、
    前記特性データは、前記対象の画像データであることを特徴とするモデルパラメータ学習方法。
  13. 請求項10ないし12のいずれかに記載のモデルパラメータ学習方法において、
    前記特性データ及び前記教師データは仮想空間におけるデータとして取得されることを特徴とするモデルパラメータ学習方法。
  14. 請求項12に記載のモデルパラメータ学習方法において、
    前記対象を画像に含むとともに前記画像データと同等以上の解像度又は画質を有する第2画像データ、及び、前記対象との距離を表す距離データの一方に基づき、前記教師データを取得することを特徴とするモデルパラメータ学習方法。
  15. 請求項14に記載のモデルパラメータ学習方法において、
    第1カメラによって、前記画像データを取得し
    前記第1カメラ以上の画素数を有する第2カメラによって、前記教師データを取得することを特徴とするモデルパラメータ学習方法。
  16. 請求項14に記載のモデルパラメータ学習方法において、
    カメラによって、前記画像データを取得し、
    LIDAR及びレーダの一方の検出データに基づいて、前記教師データを取得することを特徴とするモデルパラメータ学習方法。
JP2018178677A 2018-09-25 2018-09-25 モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 Active JP7079445B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018178677A JP7079445B2 (ja) 2018-09-25 2018-09-25 モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法
US16/574,370 US11144789B2 (en) 2018-09-25 2019-09-18 Model parameter learning device, control device, and model parameter learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178677A JP7079445B2 (ja) 2018-09-25 2018-09-25 モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法

Publications (2)

Publication Number Publication Date
JP2020052513A JP2020052513A (ja) 2020-04-02
JP7079445B2 true JP7079445B2 (ja) 2022-06-02

Family

ID=69883235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178677A Active JP7079445B2 (ja) 2018-09-25 2018-09-25 モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法

Country Status (2)

Country Link
US (1) US11144789B2 (ja)
JP (1) JP7079445B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
JP7106486B2 (ja) * 2019-04-22 2022-07-26 株式会社東芝 学習装置、学習方法、プログラムおよび情報処理システム
US11126895B2 (en) * 2019-05-22 2021-09-21 Lawrence Livermore National Security, Llc Mimicking of corruption in images
CN112581414B (zh) * 2019-09-30 2024-04-23 京东方科技集团股份有限公司 一种卷积神经网络、图像处理的方法及电子设备
KR20210042696A (ko) * 2019-10-10 2021-04-20 삼성전자주식회사 모델 학습 방법 및 장치
US11228683B2 (en) * 2019-12-06 2022-01-18 At&T Intellectual Property I, L.P. Supporting conversations between customers and customer service agents
US11254323B2 (en) * 2020-03-04 2022-02-22 Zoox, Inc. Localization error monitoring
US11798139B2 (en) * 2020-11-17 2023-10-24 GM Global Technology Operations LLC Noise-adaptive non-blind image deblurring
JP2022085164A (ja) 2020-11-27 2022-06-08 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング データ処理装置、ニューラルネットワークの深層学習の方法及びプログラム
JPWO2022185482A1 (ja) * 2021-03-04 2022-09-09
WO2023037504A1 (ja) * 2021-09-10 2023-03-16 日本電気株式会社 強化学習システム、強化学習装置及び強化学習方法
CN115190226B (zh) * 2022-05-31 2024-04-16 华为技术有限公司 参数调整的方法、训练神经网络模型的方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229115A (ja) 2013-05-23 2014-12-08 キヤノン株式会社 情報処理装置および方法、プログラム、記憶媒体
WO2017163538A1 (ja) 2016-03-25 2017-09-28 ソニー株式会社 情報処理装置
WO2018078712A1 (en) 2016-10-25 2018-05-03 Nec Corporation Pattern recognition apparatus, method and medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214174A (ja) * 1995-02-01 1996-08-20 Canon Inc 色処理方法
JP5772057B2 (ja) * 2011-02-24 2015-09-02 ソニー株式会社 通信制御装置、通信制御方法、プログラム及び通信システム
JP6813178B2 (ja) 2016-12-07 2021-01-13 学校法人常翔学園 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
JP6795090B2 (ja) * 2017-04-28 2020-12-02 富士通株式会社 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム
JP6794957B2 (ja) * 2017-08-04 2020-12-02 トヨタ自動車株式会社 車両の配車システム
JP6501018B1 (ja) * 2018-04-20 2019-04-17 トヨタ自動車株式会社 未燃燃料量の機械学習装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229115A (ja) 2013-05-23 2014-12-08 キヤノン株式会社 情報処理装置および方法、プログラム、記憶媒体
WO2017163538A1 (ja) 2016-03-25 2017-09-28 ソニー株式会社 情報処理装置
WO2018078712A1 (en) 2016-10-25 2018-05-03 Nec Corporation Pattern recognition apparatus, method and medium

Also Published As

Publication number Publication date
US20200097772A1 (en) 2020-03-26
JP2020052513A (ja) 2020-04-02
US11144789B2 (en) 2021-10-12

Similar Documents

Publication Publication Date Title
JP7079445B2 (ja) モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法
CN111137292B (zh) 经执行器-评价网络架构学习车道变换策略的方法和系统
CN110588653B (zh) 自主车辆的控制系统、控制方法以及控制器
KR102144623B1 (ko) 이동체의 이동 속성 획득 방법 및 이를 수행하는 장치
CN111204346B (zh) 用于自动车辆的控制命令的端对端学习的方法及系统
WO2019230339A1 (ja) 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
JP5782088B2 (ja) 歪みのあるカメラ画像を補正するシステム及び方法
JP6550678B2 (ja) 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム
US11783593B2 (en) Monocular depth supervision from 3D bounding boxes
JP7036610B2 (ja) 学習方法およびプログラム
US20210056388A1 (en) Knowledge Transfer Between Different Deep Learning Architectures
Wang et al. End-to-end self-driving using deep neural networks with multi-auxiliary tasks
CN111105030B (zh) 用于车辆感知系统的神经网络中的激活零旁路和权重剪枝
KR102320999B1 (ko) 폴트 톨러런스 및 플럭츄에이션 로버스트를 위한 복수의 뉴럴 네트워크를 사용하여 흔들리는 카메라로 인해 생성된 비디오에서 지터링을 제거하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
CN113614730A (zh) 多帧语义信号的cnn分类
US20230342960A1 (en) Depth estimation based on ego-motion estimation and residual flow estimation
CN112721950A (zh) 一种基于深度学习的自主车辆控制方法及系统
CN114067166A (zh) 用于确定物理对象的物理特性的设备和方法
US11756314B2 (en) Processors configured to detect objects and methods of detecting objects
JP7125286B2 (ja) 行動予測装置及び自動運転装置
CN113382908A (zh) 用于获取车辆动作预测的系统及相应方法
CN108764465B (zh) 一种进行神经网络运算的处理装置
CN113139567A (zh) 信息处理装置及其控制方法、车辆、记录介质、信息处理服务器、信息处理方法
CN112100787B (zh) 车辆动作预测方法、装置、电子设备及存储介质
CN114008698A (zh) 外部环境识别装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220513

R150 Certificate of patent or registration of utility model

Ref document number: 7079445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150