JP2022036586A - モデル学習システム及びサーバ - Google Patents

モデル学習システム及びサーバ Download PDF

Info

Publication number
JP2022036586A
JP2022036586A JP2020140878A JP2020140878A JP2022036586A JP 2022036586 A JP2022036586 A JP 2022036586A JP 2020140878 A JP2020140878 A JP 2020140878A JP 2020140878 A JP2020140878 A JP 2020140878A JP 2022036586 A JP2022036586 A JP 2022036586A
Authority
JP
Japan
Prior art keywords
learning
vehicle
model
server
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020140878A
Other languages
English (en)
Other versions
JP6939963B1 (ja
Inventor
大樹 横山
Daiki Yokoyama
亮 中林
Akira Nakabayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020140878A priority Critical patent/JP6939963B1/ja
Priority to DE102021118606.4A priority patent/DE102021118606A1/de
Priority to US17/405,515 priority patent/US20220058522A1/en
Priority to CN202110949057.6A priority patent/CN114091681A/zh
Application granted granted Critical
Publication of JP6939963B1 publication Critical patent/JP6939963B1/ja
Publication of JP2022036586A publication Critical patent/JP2022036586A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • G06F18/21375Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps involving differential geometry, e.g. embedding of pattern manifold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

【課題】車両で使用される学習モデルの再学習を、車両の使用地域の特性の変化にあわせた適切なタイミングで行わせる。【解決手段】デル学習システムは、サーバと、複数の車両と、を備える。サーバは、複数の車両のうちの一の車両において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、所定領域内に存在する複数の車両のうちの他の車両に対して、他の車両において使用される学習モデルの再学習を指示する。【選択図】図1

Description

本発明はモデル学習システム及びサーバに関する。
特許文献1には、サーバや車両で学習を行った学習モデルを用いて、内燃機関の排気浄化触媒の温度を推定するものが開示されている。
特開2019-183698号公報
通常、各車両が使用される地域は或る程度限定され、例えば自家用車であれば、基本的に各自家用車の所有者の生活圏内において使用され、タクシーやバスなどの商用車であれば、基本的に各商用車を所有する事業者のサービス提供地域内において使用される。したがって、各車両で使用される学習モデルを学習させる際には、各車両が使用される使用地域の特性(例えば地形や交通状況等)にあわせた訓練データセットを用いて学習を行うことで、各車両の使用地域の特性にあわせた精度の高い学習モデルを生成することができる。
しかしながら、使用地域の特性は、例えば地形の変化や道路の増設、街の再開発等によって時間の経過と共に変化することが考えられる。そのため、各車両で使用される学習モデルの精度を維持するためには、使用地域の特性の変化にあわせた適切なタイミングで学習モデルの再学習を行うことが必要になる。
しかしながら、従来においては、使用地域の特性の変化にあわせた適切なタイミングで学習モデルの再学習を行わせることできていなかった。
本発明はこのような問題点に着目してなされたものであり、車両で使用される学習モデルの再学習を、使用地域の特性の変化にあわせた適切なタイミングで行わせることを目的とする。
上記課題を解決するために、本発明のある態様によるモデル学習システムは、サーバと、当該サーバと通信可能に構成された複数の車両と、を備える。サーバは、複数の車両のうちの一の車両において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、所定領域内に存在する複数の車両のうちの他の車両に対して、他の車両において使用される学習モデルの再学習を指示するように構成される。
また、本発明のある態様によるサーバは、複数の車両と通信可能に構成されると共に、複数の車両のうちの一の車両において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、所定領域内に存在する複数の車両のうちの他の車両に対して、他の車両において使用される学習モデルの再学習を指示するように構成される。
本発明のこれらの態様によれば、各車両で使用される学習モデルの再学習を、使用地域の特性の変化にあわせた適切なタイミングで行わせることができる。
図1は、本発明の一実施形態によるモデル学習システムの概略構成図である。 図2は、本発明の一実施形態による車両のハードウェア構成を示す概略図である。 図3は、ニューラルネットワークモデルの一例を示す図である。 図4は、本発明の一実施形態によるモデル学習システムにおいて、サーバと、複数の車両のうちの一の車両と、の間で実行される処理の一例を示すフローチャートである。 図5は、本発明の一実施形態によるモデル学習システムにおいて、サーバと、複数の車両のうちの他の車両と、の間で実行される処理の一例を示すフローチャートである。
以下、図面を参照して本発明の一実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
図1は、本発明の一実施形態によるモデル学習システム100の概略構成図である。
図1に示すように、モデル学習システム100は、サーバ1と、複数の車両2と、を備える。
サーバ1は、サーバ通信部11と、サーバ記憶部12と、サーバ処理部13と、を備える。
サーバ通信部11は、サーバ1を例えばゲートウェイ等を介してネットワーク3と接続するための通信インターフェース回路を有し、各車両2との間で相互に通信することができるように構成される。
サーバ記憶部12は、HDD(Hard Disk Drive)や光記録媒体、半導体メモリ等の記憶媒体を有し、サーバ処理部13での処理に用いられる各種のコンピュータプログラムやデータ等を記憶する。
サーバ処理部13は、一又は複数個のプロセッサ及びその周辺回路を有する。サーバ処理部13は、サーバ記憶部12に格納された各種のコンピュータプログラムを実行し、サーバ1の全体的な動作を統括的に制御するものであり、例えばCPU(Central Processing Unit)である。
図2は、車両2のハードウェア構成を示す概略図である。
車両2は、電子制御ユニット20と、車外通信装置24と、例えば内燃機関や電動機、アクチュエータ等の各種の制御部品25と、各種の制御部品25を制御するために必要な各種のセンサ類26と、を備える。電子制御ユニット20、車外通信装置24、及び各種の制御部品25やセンサ類26は、CAN(Controller Area Network)等の規格に準拠した車内ネットワーク27を介して互いに接続される。
電子制御ユニット20は、車内通信インターフェース21、車両記憶部22及び車両処理部23、を備える。車内通信インターフェース21、車両記憶部22及び車両処理部23、信号線を介して互いに接続されている。
車内通信インターフェース21は、CAN(Controller Area Network)等の規格に準拠した車内ネットワーク27に電子制御ユニット20を接続するための通信インターフェース回路である。
車両記憶部22は、HDD(Hard Disk Drive)や光記録媒体、半導体メモリ等の記憶媒体を有し、車両処理部23での処理に用いられる各種のコンピュータプログラムやデータ等を記憶する。
車両処理部23は、一又は複数個のプロセッサ及びその周辺回路を有する。車両処理部23は、車両記憶部22に格納された各種のコンピュータプログラムを実行し、車両2に搭載された各種の制御部品を統括的に制御するものであり、例えばCPUである。
車外通信装置24は、無線通信機能を有する車載の端末である。車外通信装置24は、ネットワーク3(図1参照)と不図示のゲートウェイ等を介して接続される無線基地局4(図1参照)にアクセスすることで、無線基地局4を介してネットワーク3と接続される。これにより、サーバ1との間で相互に通信が行われる。
各車両2では、各車両2に搭載された各種の制御部品25を制御するにあたり、例えば機械学習などの学習を実施した学習モデル(人工知能モデル)が必要に応じて使用されている。本実施形態では、学習モデルとして、ディープニューラルネットワーク(DNN;Deep Neural Network)や畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)などを用いたニューラルネットワークモデル(以下「NNモデル」という。)を使用し、当該NNモデルに対して深層学習を実施している。したがって、本実施形態による学習モデルは、深層学習を実施した学習済みのNNモデルということもできる。深層学習は、人工知能(AI;Artificial Intelligence)を代表する機械学習手法の一つである。
図3は、NNモデルの一例を示す図である。
図3における丸印は人工ニューロンを表す。人工ニューロンは、通常、ノード又はユニットと称される(本明細書では、「ノード」と称す)。図3において、L=1は入力層を示し、L=2及びL=3は隠れ層を示し、L=4は出力層を示している。隠れ層は、中間層とも称される。なお、図3には、隠れ層が2層のNNモデルを例示しているが、隠れ層の層数は特に限られるものではなく、また、入力層、隠れ層及び出力層の各層のノードの数も特に限られるものではない。
図3において、x及びxは入力層(L=1)の各ノード及びそのノードからの出力値を示しており、yは出力層(L=4)のノード及びその出力値を示している。同様に、z (L=2) (L=2)及びz (L=2)は隠れ層(L=2)の各ノード及びそのノードからの出力値を示しており、z (L=3)及びz (L=3)は隠れ層(L=3)の各ノード及びそのノードからの出力値を示している。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x及びxが入力され、隠れ層(L=2)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値uが算出される。例えば、図3において隠れ層(L=2)のz (L=2)(k=1、2、3)で示される各ノードにおいて算出される総入力値u (L=2)は、次式のようになる(Mは入力層のノードの数)。
Figure 2022036586000002
次いで、この総入力値u (L=2)は活性化関数fにより変換され、隠れ層(L=2)のz (L=2)で示されるノードから、出力値z (L=2)(=f(u (L=2)))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z (L=2) (L=2)及びz (L=2)が入力され、隠れ層(L=3)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(=Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z (L=3)、z (L=3)として出力される。活性化関数は例えばシグモイド関数σである。
また、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z (L=3)及びz (L=3)が入力され、出力層のノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(Σz・w+b)が算出されるか、又は、それぞれ対応する重みwのみを用いて総入力値u(Σz・w)が算出される。例えば、出力層のノードでは活性化関数として恒等関数が用いられる。この場合、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力層のノードから出力される。
このようにNNモデルは、入力層と、隠れ層と、出力層と、を備え、一又は複数の入力パラメータが入力層から入力されると、入力パラメータに対応する一又は複数の出力パラメータを出力層から出力する。
入力パラメータの例としては、例えばNNモデルを用いて車両2に搭載された内燃機関を制御する場合であれば、機関回転速度や機関冷却水温度、燃料噴射量、燃料噴射時期、燃圧、吸入空気量、吸気温度、EGR率、過給圧といった、内燃機関の運転状態を示す各種パラメータの現在値が挙げられる。そして、このような入力パラメータに対応する出力パラメータの例としては、排気中のNOx濃度やその他の物質の濃度、機関出力トルクといった内燃機関の性能を表す各種パラメータの推定値が挙げられる。これにより、NNモデルに内燃機関の運転状態を示す各種パラメータの現在値を入力パラメータとして入力することで、内燃機関の性能を表す各種パラメータの推定値(現在の推定値又は将来の推定値)を出力パラメータとして取得することができるので、例えば出力パラメータに基づいて、内燃機関の性能が所望の性能に近づくように内燃機関を制御することができる。また、出力パラメータを実測するためのセンサ等を備える場合には、実測値と推定値との差に応じて、センサ等の故障を判断したりすることもできる。
NNモデルの精度を向上させるためには、NNモデルを学習させる必要がある。NNモデルの学習には、入力パラメータの実測値と、この入力パラメータの実測値に対応した出力パラメータの実測値(正解データ)と、を含む多数の訓練データセットが用いられる。多数の訓練データセットを用いて、公知の誤差逆伝搬法によってニューラルネットワーク内の重みw及びバイアスbの値を繰り返し更新することで、重みw及びバイアスbの値が学習され、学習モデル(学習済みのNNモデル)が生成される。
ここで、通常、各車両が使用される地域は或る程度限定され、例えば自家用車であれば、基本的に各自家用車の所有者の生活圏内において使用され、タクシーやバスなどの商用車であれば、基本的に各商用車を所有する事業者のサービス提供地域内において使用される。したがって、各車両で使用されるNNモデルを学習(再学習)させる際には、各車両が使用される使用地域の特性(例えば地形や交通状況等)にあわせた訓練データセットを用いて学習を行うことで、各車両の使用地域の特性にあわせた精度の高い学習モデルを生成することができる。
しかしながら、使用地域の特性は、例えば地形の変化や道路の増設、街の再開発等によって時間の経過と共に変化することが考えられる。そのため、各車両2で使用される学習モデルの精度を維持するためには、使用地域の特性の変化にあわせて適切なタイミングで学習モデルの再学習を行うことが必要になる。
しかしながら、従来においては、使用地域の特性の変化にあわせた適切なタイミングで学習モデルの再学習を行わせることできておらず、その結果、使用地域の特性が変化する前の学習モデルを使用し続けてしまい、精度の低くなった学習モデルを用いて車両2に搭載された各種の制御部品25の制御が行われるおそれがあった。
そこで本実施形態では、複数の車両2のうちの一の車両2において、所定領域内で取得された訓練データセットが所定期間内に所定量以上になったときは、当該訓練データセットを用いて一の車両2で使用されるNNモデルの再学習を実施すると共に、再学習前のNNモデルと再学習後のNNモデルとを比較して、両者の相違点を「モデル間差分値」として数値化することとした。モデル間差分値は、再学習前のNNモデルと、再学習後のNNモデルと、の相違点が大きくなるほど大きくなるパラメータであって、例えば、予め設定された差分検出用入力パラメータを再学習前後の各NNモデルに入力し、その際に各NNモデルから得られる出力パラメータの差分値とすることができる。
そして、モデル間差分値が所定値以上であった場合には、訓練データセットが取得された所定領域(すなわち一の車両2の使用地域)内の特性が変化していると判断し、所定領域内で主に使用されている、複数の車両2のうちの他の各車両2に対して、NNモデルの再学習を指示することとした。
これにより、複数の車両2のうちの一の車両2においてNNモデルの再学習が実施されたときの学習前後のモデル間差分値が所定値以上であったことをトリガーとして、一の車両2の使用地域と同じ地域で使用される他の車両2に対してNNモデルの再学習の指示を行うことができる。そのため、各車両2で使用される学習モデルの再学習を、使用地域の特性の変化にあわせた適切なタイミングで行わせることができる。
図4は、本実施形態によるモデル学習システムにおいて、サーバ1と、複数の車両2のうちの一の車両2と、の間で実行される処理の一例を示すフローチャートである。
ステップS1において、車両2の電子制御ユニット20は、自車両のNNモデルの再学習条件が成立したか否かを判定する。本実施形態では電子制御ユニット20は、所定期間内に所定領域内で取得された訓練データセットが所定量以上になったか否かを判定する。電子制御ユニット20は、所定期間内に所定領域内で取得された訓練データセットが所定量以上になっていれば、ステップS2の処理に進む。一方で電子制御ユニット20は、所定期間内に所定領域内で取得された訓練データセットが所定量以上になっていなければ、今回の処理を終了する。
なお所定期間は、地形の変化や道路の増設、街の再開発等によって所定領域の特性が変化するには基本的に一定の期間が必要になるため、そのような期間よりも短い期間、すなわち所定領域の特性が大きく変化することがないと想定される期間とされ、例えば直近の数週間や数か月間とすることができる
また所定領域は、例えば車両2が自家用車であれば、過去の走行履歴から判断した当該自家用車の所有者の生活圏内とすることもできるし、例えば車両2が商用車であれば、当該商用車を所有する事業者のサービス提供地域とすることもできる。また所定領域は、車両の種別にかかわらず、予め定められた一定の領域(例えば国内全域を数キロ四方の区画に分けた場合の一区間)とすることもできる。
また本実施形態では、車両2の電子制御ユニット20は、車両走行中に、訓練データセット(NNモデルの入力パラメータの実測値と出力パラメータの実測値)を随時取得し、取得した訓練データセットを、取得時期及び取得場所と関連付けて車両記憶部22に記憶している。また本実施形態では、車両2の電子制御ユニット20は、記憶した訓練データセットのデータ量が一定量を超えると、古いものから順に訓練データセットを自動的に破棄している。
ステップS2において、車両2の電子制御ユニット20は、所定期間内に所定領域内で取得された訓練データセットを用いて、自車両で使用しているNNモデルの再学習を実施する。
ステップS3において、車両2の電子制御ユニット20は、再学習前のNNモデルと、再学習後のNNモデルと、を比較して、モデル間差分値を算出する。
本実施形態では電子制御ユニット20は、前述したように、予め設定された差分検出用入力パラメータを再学習前後の各NNモデルに入力し、その際に各NNモデルから得られる出力パラメータの差分値を「モデル間差分値」として算出している。しかしながら、このような方法に限らず、例えば、複数の差分検出用入力パラメータを再学習前後の各NNモデルに入力し、その際に得られる複数の出力パラメータの差分値の平均値をモデル間差分値にするなど、複数の出力パラメータの差分値に基づいてモデル間差分値を算出するようにしてもよい。また、再学習前後の各NNモデルの各ノードの重みw又はバイアスbの差分値をモデル間差分値としてもよいし、各ノードの重みw又はバイアスbの差分値の平均値など、各ノードの重みw又はバイアスbの差分値に基づいてモデル間差分値を算出するようにしてもよい。
ステップS4において、車両2の電子制御ユニット20は、モデル間差分値が所定値以上か否かを判定する。電子制御ユニット20は、モデル間差分値が所定値以上であれば、ステップS5の処理に進む。一方で電子制御ユニット20は、モデル間差分値が所定値未満であれば、今回の処理を終了する。
ステップS5において、車両2の電子制御ユニット20は、再学習前後の各NNモデルのモデル間差分値が所定値以上となった所定領域(再学習に用いた訓練データセットが取得された領域)を「再学習推奨領域」に設定し、再学習推奨領域を特定するための位置情報などを含む再学習推奨領域情報をサーバ1に送信する。
ステップS6において、再学習推奨領域情報を受信したサーバ1は、再学習推奨領域をサーバ記憶部12のデータベースに記憶する。
図5は、本実施形態によるモデル学習システムにおいて、サーバ1と、複数の車両2のうちの他の車両2と、の間で実行される処理の一例を示すフローチャートである。
ステップS11において、車両2の電子制御ユニット20は、車両2の現在位置情報(例えば車両2の経度及び緯度)及び識別情報(例えば車両2の登録番号)を含む車両情報をサーバ1に定期的に送信する。
ステップS12において、サーバ1は、車両情報を受信したか否かを判定する。サーバ1は、車両情報を受信していれば、ステップS13の処理に進む。一方でサーバ1は、車両情報を受信していなければ、今回の処理を終了する。
ステップS13において、サーバ1は、再学習推奨領域を記憶させたデータベースを参照し、車両情報に含まれる現在位置情報に基づいて、当該車両情報を送信した他の車両(以下「送信元車両」という。)2が、再学習推奨領域を走行しているか否かを判定する。サーバ1は、送信元車両2が再学習推奨領域を走行していれば、ステップS14の処理に進む。一方でサーバ1は、送信元車両2が再学習推奨領域を走行していなければ、ステップS15の処理に進む。
ステップS14において、サーバ1は、再学習推奨領域情報及び再学習指示を含む返信データを作成する。
ステップS15において、サーバ1は、再学習指示を含まない返信データを作成する。
ステップS16において、サーバ1は、返信データを送信元車両2に送信する。このようにサーバ1は、複数の車両2のうちの一の車両2において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、当該所定領域内に存在する複数の車両2のうちの他の車両2に対して再学習推奨領域情報及び再学習指示を含む返信データを送信し、学習モデルの再学習を指示する。
ステップS17において、送信元車両2の電子制御ユニット20は、受信した返信データに再学習指示が含まれているか否かを判定する。電子制御ユニット20は、返信データに再学習指示が含まれていればステップS18の処理に進む。一方で電子制御ユニット20は、受信した返信データに再学習指示が含まれていなければ今回の処理を終了する。
ステップS18において、送信元車両2の電子制御ユニット20は、返信データに含まれていた再学習推奨領域情報に基づいて、自車両の主な使用地域が再学習推奨領域であるか否かを判定する。自車両の主な使用地域は、例えば、自車両の過去の走行履歴から判断してもよいし、所有者等が予め設定しておいてもよい。電子制御ユニット20は、自車両の主な使用地域が再学習推奨領域であれば、ステップS19の処理に進む。一方で電子制御ユニット20は、自車両の主な使用地域が再学習推奨領域でなければ、今回の処理を終了する。
ステップS19において、送信元車両2の電子制御ユニット20は、再学習指示に基づいて、自車両のNNモデルの再学習を、車両記憶部22に記憶されている、車両走行中に使用地域(再学習推奨領域)で取得された直近の所定量分の訓練データセットを用いて行う。なお、送信元車両(他の車両)のNNモデルの再学習にあたっては、必要な訓練データセットをサーバ1から受け取るようにしてもよい。
以上説明した本実施形態によるモデル学習システム100は、サーバ1と、当該サーバ1と通信可能に構成された複数の車両2と、を備える。そしてサーバ1は、複数の車両2のうちの一の車両2において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、所定領域内に存在する複数の車両2のうちの他の車両2に対して、他の車両2において使用される学習モデルの再学習を指示するように構成される。
これにより、複数の車両2のうちの一の車両2において使用される学習モデルの学習前後のモデル間差分値が所定値以上であったことをトリガーとして、所定領域内(例えば、一の車両2の使用地域内)に存在する他の車両2に対して学習モデルの再学習指示を行うことができる。モデル間差分値は、所定領域内の特性が変化するほど(所定領域内で取得される訓練データセットの特性が変化するほど)、NNモデルの中身が大きく変化して、大きくなることが想定される。そのため、各車両2で使用される学習モデルの再学習を、所定領域の特性の変化にあわせた適切なタイミングで行わせることができる。
なおモデル間差分値は、例えば、学習前後の各学習モデルに所定の入力パラメータを入力したときに各学習モデルから出力される各出力パラメータの差分値、又は各出力パラメータ差分値に基づいて算出される値(例えば平均値など)とすることができる。またこれに限らず、学習前後の各学習モデルの各ノードの重み又はバイアスの差分値、又は各ノードの重み又はバイアスの差分値に基づいて算出される値(例えば平均値など)とすることもできる。
また本実施形態において、複数の車両2のうちの一の車両2は、所定期間内に所定領域内で取得された訓練データセットが所定量以上になったときに学習モデルの学習を実施してモデル間差分値を算出し、その算出結果に応じた情報(再学習推奨領域情報)をサーバ1に送信するように構成される。
これにより、複数の車両2のうちの一の車両2において、定期的に学習モデルの再学習を実施させてモデル間差分値を算出することができるので、所定領域内の特性の変化を定期的に判断することができると共に、他の車両2に対して学習モデルの再学習指示を行うか否かを定期的に判断することができる。なお、この一の車両2は、複数の車両2の中の特定の1台の車両としてもよいし、特定の複数台の車両としてもよいし、全ての車両としてもよい。
また本実施形態において、複数の車両2のうちの他の車両2は、サーバ1から学習モデルの再学習を指示されたときは、他の車両2の使用地域が所定領域内であれば、他の車両2において使用される学習モデルの再学習を行うように構成される。
これにより、他の車両2の使用地域が所定領域とは関係ない地域であったとき、他の車両2において使用される学習モデルを不要に再学習させてしまうことを抑制できる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
例えば上記の実施形態では、NNモデルの再学習やモデル間差分値の算出を各車両2で実施していたが、再学習やモデル間差分値の算出に必要なデータを適宜サーバ1に送信してサーバ1でNNモデルの再学習やモデル間差分値の算出を実施するようにしてもよい。
1 サーバ
2 車両(一の車両、他の車両)
100 モデル学習システム

Claims (7)

  1. サーバと、前記サーバと通信可能に構成された複数の車両と、を備えるモデル学習システムであって、
    前記サーバは、
    前記複数の車両のうちの一の車両において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、前記所定領域内に存在する前記複数の車両のうちの他の車両に対して、前記他の車両において使用される学習モデルの再学習を指示する、
    モデル学習システム。
  2. 前記モデル間差分値は、学習前後の各学習モデルに所定の入力パラメータを入力したときに各学習モデルから出力される各出力パラメータの差分値、又は前記差分値に基づいて算出される値である、
    請求項1に記載のモデル学習システム。
  3. 前記モデル間差分値は、学習前後の各学習モデルの各ノードの重み又はバイアスの差分値、又は前記差分値に基づいて算出される値である、
    請求項1に記載のモデル学習システム。
  4. 前記一の車両は、
    所定期間内に前記所定領域内で取得された訓練データセットが所定量以上になったときに、学習モデルの学習を実施して前記モデル間差分値を算出し、その算出結果に応じた情報を前記サーバに送信する、
    請求項1から請求項3までのいずれか1項に記載のモデル学習システム。
  5. 前記他の車両は、
    前記サーバから学習モデルの再学習を指示されたときは、前記他の車両の使用地域が前記所定領域内であれば、前記他の車両において使用される学習モデルの再学習を行う、
    請求項1から請求項4までのいずれか1項に記載のモデル学習システム。
  6. 前記所定領域は、前記一の車両の使用地域である、
    請求項1から請求項5までのいずれか1項に記載のモデル学習システム。
  7. 複数の車両と通信可能に構成されたサーバであって、
    前記複数の車両のうちの一の車両において使用される学習モデルであって所定領域内で取得された訓練データセットに基づいて学習が行われる学習モデルの学習前後の相違度合いを表すモデル間差分値が所定値以上であったときは、前記所定領域内に存在する前記複数の車両のうちの他の車両に対して、前記他の車両において使用される学習モデルの再学習を指示する、
    サーバ。
JP2020140878A 2020-08-24 2020-08-24 モデル学習システム及びサーバ Active JP6939963B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020140878A JP6939963B1 (ja) 2020-08-24 2020-08-24 モデル学習システム及びサーバ
DE102021118606.4A DE102021118606A1 (de) 2020-08-24 2021-07-19 Modelllernsystem, Modelllernverfahren und Server
US17/405,515 US20220058522A1 (en) 2020-08-24 2021-08-18 Model learning system, model learning method, and server
CN202110949057.6A CN114091681A (zh) 2020-08-24 2021-08-18 模型学习系统及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020140878A JP6939963B1 (ja) 2020-08-24 2020-08-24 モデル学習システム及びサーバ

Publications (2)

Publication Number Publication Date
JP6939963B1 JP6939963B1 (ja) 2021-09-22
JP2022036586A true JP2022036586A (ja) 2022-03-08

Family

ID=78028271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020140878A Active JP6939963B1 (ja) 2020-08-24 2020-08-24 モデル学習システム及びサーバ

Country Status (4)

Country Link
US (1) US20220058522A1 (ja)
JP (1) JP6939963B1 (ja)
CN (1) CN114091681A (ja)
DE (1) DE102021118606A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423647B2 (en) * 2018-05-07 2022-08-23 Nec Corporation Identification system, model re-learning method and program
CN115306573B (zh) * 2022-08-29 2024-07-05 联合汽车电子有限公司 油路自学习方法、装置、终端及服务器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003328732A (ja) * 2002-05-15 2003-11-19 Caterpillar Inc 仮想センサを使用するNOx排出制御システム
JP2019183698A (ja) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 車載電子制御ユニット
JP2020071611A (ja) * 2018-10-30 2020-05-07 トヨタ自動車株式会社 機械学習装置
JP2021032116A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用制御装置、車両用学習システム、および車両用学習装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US20200033869A1 (en) * 2018-07-27 2020-01-30 GM Global Technology Operations LLC Systems, methods and controllers that implement autonomous driver agents and a policy server for serving policies to autonomous driver agents for controlling an autonomous vehicle
US20200116515A1 (en) * 2018-10-16 2020-04-16 Uatc, Llc Autonomous Vehicle Capability and Operational Domain Evaluation and Selection for Improved Computational Resource Usage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003328732A (ja) * 2002-05-15 2003-11-19 Caterpillar Inc 仮想センサを使用するNOx排出制御システム
JP2019183698A (ja) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 車載電子制御ユニット
JP2020071611A (ja) * 2018-10-30 2020-05-07 トヨタ自動車株式会社 機械学習装置
JP2021032116A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用制御装置、車両用学習システム、および車両用学習装置

Also Published As

Publication number Publication date
CN114091681A (zh) 2022-02-25
US20220058522A1 (en) 2022-02-24
DE102021118606A1 (de) 2022-02-24
JP6939963B1 (ja) 2021-09-22

Similar Documents

Publication Publication Date Title
JP7040571B2 (ja) 学習装置及びモデル学習システム
JP6939963B1 (ja) モデル学習システム及びサーバ
JP6741057B2 (ja) 内燃機関の制御システム、電子制御ユニット、サーバ及び内燃機関の制御方法
CN113830097B (zh) 车辆、模型学习系统以及服务器
CN113392573A (zh) 用于创建经训练的人工神经网络的方法、用于预测车辆排放数据的方法和确定校准值的方法
JP7040589B1 (ja) 機械学習方法及び機械学習システム
US11675999B2 (en) Machine learning device
JP6935837B1 (ja) 機械学習装置及び機械学習システム
JP6791347B1 (ja) モデル診断装置及びモデル診断システム
JP7276298B2 (ja) モデル学習システム、車両の制御装置及びモデル学習方法
CN115496177A (zh) 分布式系统的校准
JP6962435B1 (ja) 機械学習装置
JP7056794B1 (ja) モデル学習システム及びモデル学習装置
US20220155083A1 (en) Systems and methods for range estimations for electrified transit vehicles
JP2022173803A (ja) 学習モデルのパラメータの値の授受装置及び授受システム
JP2022035222A (ja) 機械学習装置
Shakya et al. Research Article Internet of Things-Based Intelligent Ontology Model for Safety Purpose Using Wireless Networks
JP2022079938A (ja) 機械学習システム
JP2022007079A (ja) 車両
JP2022076257A (ja) 機械学習システム、車両及びサーバ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6939963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151