JP6690743B1 - 機械学習装置 - Google Patents

機械学習装置 Download PDF

Info

Publication number
JP6690743B1
JP6690743B1 JP2019009666A JP2019009666A JP6690743B1 JP 6690743 B1 JP6690743 B1 JP 6690743B1 JP 2019009666 A JP2019009666 A JP 2019009666A JP 2019009666 A JP2019009666 A JP 2019009666A JP 6690743 B1 JP6690743 B1 JP 6690743B1
Authority
JP
Japan
Prior art keywords
learning
vehicle
neural network
network model
stop period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019009666A
Other languages
English (en)
Other versions
JP2020119246A (ja
Inventor
圭輔 福岡
圭輔 福岡
俊介 小鮒
俊介 小鮒
栄来 北川
栄来 北川
大樹 横山
大樹 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019009666A priority Critical patent/JP6690743B1/ja
Priority to US16/729,483 priority patent/US11442458B2/en
Priority to CN202010071013.3A priority patent/CN111476345B/zh
Application granted granted Critical
Publication of JP6690743B1 publication Critical patent/JP6690743B1/ja
Publication of JP2020119246A publication Critical patent/JP2020119246A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D29/00Controlling engines, such controlling being peculiar to the devices driven thereby, the devices being other than parts or accessories essential to engine operation, e.g. controlling of engines by signals external thereto
    • F02D29/02Controlling engines, such controlling being peculiar to the devices driven thereby, the devices being other than parts or accessories essential to engine operation, e.g. controlling of engines by signals external thereto peculiar to engines driving vehicles; peculiar to engines driving variable pitch propellers
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/02Circuit arrangements for generating control signals
    • F02D41/04Introducing corrections for particular operating conditions
    • F02D41/06Introducing corrections for particular operating conditions for engine starting or warming up
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/02Circuit arrangements for generating control signals
    • F02D41/14Introducing closed-loop corrections
    • F02D41/1401Introducing closed-loop corrections characterised by the control or regulation method
    • F02D41/1405Neural network control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D2200/00Input parameters for engine control
    • F02D2200/70Input parameters for engine control said parameters being related to the vehicle exterior
    • F02D2200/702Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

【課題】車両においてニューラルネットワークモデルの学習を効率的に行うことができる機械学習装置を提供する。【解決手段】車両に設けられた機械学習装置は、ニューラルネットワークモデルの学習計画を作成する学習計画部81と、複数の入力パラメータの実測値と、少なくとも一つの出力パラメータの実測値とを取得して訓練データセットを作成するデータセット作成部82と、車両が停車しているときにニューラルネットワークモデルの学習を行う学習部83と、車両の停車期間を予測する停車期間予測部84とを備える。データセット作成部は、複数の入力パラメータのそれぞれの範囲に基づいて定められた複数の学習領域に訓練データセットを振り分ける。学習部は学習領域毎にニューラルネットワークモデルの学習を行う。学習計画部は、停車期間においてニューラルネットワークモデルの学習が中断しないように、複数の学習領域を停車期間に割り当てる。【選択図】図5

Description

本発明は機械学習装置に関する。
従来、入力層、隠れ層及び出力層を含むニューラルネットワークモデルを用いて所定の入力パラメータから所定の出力パラメータを算出することが知られている。例えば、特許文献1に記載の内燃機関の制御装置では、学習済みのニューラルネットワークモデルを用いて、内燃機関の燃焼室に吸入される吸入ガスの流量が推定される。
特開2012−112277号公報
しかしながら、学習済みのニューラルネットワークモデルが車両に適用される場合、経年劣化等によって車両の特性が変化する場合がある。この場合、入力パラメータと出力パラメータとの対応関係が変化し、ニューラルネットワークモデルによる出力パラメータの算出精度が低下する。また、車両の特性は車両毎に若干異なる。
このため、出力パラメータの算出精度を向上させるべく、車両において学習のための訓練データセットを取得し、車両においてニューラルネットワークモデルの学習を行うことが考えられる。しかしながら、学習のために使用可能な制御装置は車両の走行中には車両の駆動源(内燃機関、電動機等)を制御する必要がある。このため、演算負荷の高い学習を車両の走行中に行うことは困難である。
そこで、車両の停車中にニューラルネットワークモデルの学習を行うことが考えられる。しかしながら、学習時間が停車期間よりも長い場合、停車期間中に学習を完了させることができない。この結果、ニューラルネットワークモデルを適切な頻度で更新することができず、ニューラルネットワークモデルによる出力パラメータの算出精度が悪化するおそれがある。
そこで、上記課題に鑑みて、本発明の目的は、車両においてニューラルネットワークモデルの学習を効率的に行うことができる機械学習装置を提供することにある。
本開示の要旨は以下のとおりである。
(1)車両に設けられた機械学習装置であって、複数の入力パラメータから少なくとも一つの出力パラメータを出力するニューラルネットワークモデルの学習計画を作成する学習計画部と、前記複数の入力パラメータの実測値と、該実測値に対応する前記少なくとも一つの出力パラメータの実測値とを取得して訓練データセットを作成するデータセット作成部と、前記学習計画に基づいて、前記車両が停車しているときに前記訓練データセットを用いて前記ニューラルネットワークモデルの学習を行う学習部と、前記車両の停車期間を予測する停車期間予測部とを備え、前記データセット作成部は、前記複数の入力パラメータのそれぞれの範囲に基づいて定められた複数の学習領域に前記訓練データセットを振り分け、前記学習部は学習領域毎に前記ニューラルネットワークモデルの学習を行い、前記学習計画部は、前記停車期間において前記ニューラルネットワークモデルの学習が中断しないように、前記複数の学習領域を前記停車期間に割り当てる、機械学習装置。
(2)前記複数の学習領域は、小学習領域と、該小学習領域を包含する大学習領域とを含み、該小学習領域及び該大学習領域は該小学習領域が該大学習領域よりもデータ密度が高くなるように定められ、前記学習計画部は前記小学習領域と前記大学習領域とを選択的に前記停車期間に割り当てる、上記(1)に記載の機械学習装置。
(3)前記複数の学習領域に学習の優先順位が付与されている、上記(1)に記載の機械学習装置。
(4)前記学習計画部は、出現頻度が相対的に高い前記入力パラメータの値を含む学習領域の学習の優先順位を、出現頻度が相対的に低い前記入力パラメータの値を含む学習領域の学習の優先順位よりも高くする、上記(3)に記載の機械学習装置。
(5)前記学習計画部は、前記車両が走行している道路の情報又は該車両に設けられた内燃機関の暖機状態に応じて前記学習の優先順位を変更する、上記(3)に記載の機械学習装置。
本発明によれば、車両においてニューラルネットワークモデルの学習を効率的に行うことができる機械学習装置が提供される。
図1は、第一実施形態に係る機械学習装置が適用される内燃機関を概略的に示す図である。 図2は、ECUの構成を概略的に示す図である。 図3は、単純な構成を有するニューラルネットワークの一例を示す。 図4は、ECUの機能ブロック図である。 図5は、停車期間の予測結果の一例を示す図である。 図6は、第一実施形態における複数の学習領域を概略的に示す図である。 図7は、本発明の第一実施形態におけるデータセット作成処理の制御ルーチンを示すフローチャートである。 図8は、本発明の第一実施形態における停車期間予測処理の制御ルーチンを示すフローチャートである。 図9は、本発明の第一実施形態における学習計画作成処理の制御ルーチンを示すフローチャートである。 図10は、本発明の第一実施形態における学習処理の制御ルーチンを示すフローチャートである。 図11は、第二実施形態における複数の学習領域を概略的に示す図である。 図12は、本発明の第二実施形態における学習計画作成処理の制御ルーチンを示すフローチャートである。 図13は、本発明の第三実施形態における学習領域設定処理の制御ルーチンを示すフローチャートである。 図14は、本発明の第四実施形態における学習領域番号変更処理の制御ルーチンを示すフローチャートである。 図15は、本発明の第五実施形態における学習領域番号変更処理の制御ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<第一実施形態>
最初に、図1〜図10を参照して、本発明の第一実施形態について説明する。
<内燃機関全体の説明>
図1は、第一実施形態に係る機械学習装置が適用される内燃機関を概略的に示す図である。内燃機関1は、点火プラグによって混合気が点火される火花点火式内燃機関(例えばガソリンエンジン)であり、車両に設けられる。
内燃機関1は機関本体3を備える。機関本体3は、複数の気筒2が形成されたシリンダブロックと、吸気ポート及び排気ポートが形成されたシリンダヘッドと、クランクケースとを備える。シリンダヘッドには、吸気ポートを開閉するように構成された吸気弁と、排気ポートを開閉するように構成された排気弁と、燃焼室内に燃料を直接噴射する燃料噴射弁と、火花を発生させる点火プラグとが設けられている。
本実施形態では、気筒2の数は四つである。各気筒2には吸気マニホルド4及び排気マニホルド5が接続されている。
吸気マニホルド4は吸気管6を介してターボチャージャ7のコンプレッサ7aの出口に連結される。コンプレッサ7aの入口は吸気管6を介してエアクリーナ8に連結される。吸気管6内には、スロットル弁駆動アクチュエータによって駆動されるスロットル弁9が配置される。さらに、吸気管6周りには吸気管6内を流れる吸入空気を冷却するためのインタークーラ13が配置される。なお、インタークーラ13は吸気マニホルド4に内蔵されていてもよい。吸気マニホルド4及び吸気管6は、空気を気筒2内に導く吸気通路を形成する。
一方、排気マニホルド5は排気管27を介してターボチャージャ7のタービン7bの入口に連結される。タービン7bの出口は排気管27を介して触媒29に連結される。触媒29は、例えば、排気ガス中のHC、CO、NOx等を浄化する三元触媒である。排気マニホルド5及び排気管27は、混合気の燃焼によって生じた排気ガスを気筒2から排出する排気通路を形成する。
排気通路と吸気通路とは排気ガス再循環通路(EGR通路)14を介して互いに連結される。EGR通路14は、排気通路を流れる排気ガスの一部をEGRガスとして吸気通路に還流させる。また、EGR通路14には電子制御式のEGR制御弁15が設けられている。EGR制御弁15は、排気通路から吸気通路に還流されるEGRガスの量を調整する。さらに、EGR通路14には、EGRガスを冷却するEGRクーラ16が設けられている。
本実施形態では、EGR通路14は触媒29よりも下流側の排気通路とコンプレッサ7aよりも上流側の吸気通路とに接続されている。したがって、内燃機関1はいわゆる低圧ループ方式(LPL方式)のEGRシステムを備える。なお、内燃機関1は他の方式のEGRシステムを備えていてもよい。例えば、内燃機関1はいわゆる高圧ループ方式(HPL方式)のEGRシステムを備えていてもよい。この場合、EGR通路は例えば排気マニホルド5と吸気マニホルド4とに接続される。
なお、内燃機関1の構成は上記構成に限定されない。したがって、気筒配列、燃料の噴射態様、吸排気系の構成、動弁機構の構成、過給機の構成及び過給機の有無のような内燃機関の具体的な構成は、図1に示した構成と異なっていてもよい。例えば、燃料噴射弁は、吸気ポート内に燃料を噴射するように配置されていてもよい。
<ECUの構成>
内燃機関1を搭載する車両には、電子制御ユニット(ECU)が設けられている。図2は、ECUの構成を概略的に示す図である。ECU60は、通信インターフェース61、メモリ62及びプロセッサ63を含み、車両の各種制御を実行する。例えば、内燃機関1の各種制御が各種センサの出力等に基づいてECU60によって実行される。なお、本実施形態では、一つのECU60が設けられているが、機能毎に複数のECUが設けられていてもよい。
通信インターフェース61は、CAN(Controller Area Network)等の規格に準拠した車内ネットワークにECU60を接続するためのインターフェース回路を有する。ECU60は通信インターフェース61を介して他の車載機器と通信する。
メモリ62は、例えば、揮発性の半導体メモリ(例えば、RAM)及び不揮発性の半導体メモリ(例えば、ROM)を有する。メモリ62は、プロセッサ63において実行されるプログラム、プロセッサ63によって各種処理が実行されるときに使用される各種データ等を記憶する。
プロセッサ63は、一つ又は複数のCPU(Central Processing Unit)及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ63は、論理演算ユニット又は数値演算ユニットのような演算回路を更に有していてもよい。通信インターフェース61、メモリ62及びプロセッサ63は信号線を介して互いに接続されている。
ECU60は、車内ネットワークを介してアクチュエータ91に接続され、アクチュエータ91を制御する。本実施形態では、アクチュエータ91は、燃料噴射弁、点火プラグ、スロットル弁駆動アクチュエータ、EGR制御弁15等を含む。
また、車両にはGPS受信機92が設けられている。GPS受信機92は、3個以上のGPS衛星から信号を受信し、車両の現在位置(例えば、車両の緯度及び経度)を検出する。GPS受信機92は車内ネットワークを介してECU60に接続され、GPS受信機92の出力はECU60に送信される。
また、車両には地図データベース93が設けられている。地図データベース93は地図情報を記憶している。地図情報には、道路の位置情報、道路の形状情報(例えばカーブと直線部との種別、カーブの曲率半径、道路勾配等)、道路種別、制限車速等の道路情報が含まれる。地図データベース93は車内ネットワークを介してECU60に接続され、ECU60は地図データベース93から地図情報を取得する。
また、車両にはナビゲーションシステム94が設けられている。ナビゲーションシステム94は、GPS受信機92によって検出された車両の現在位置、地図データベース93の地図情報、車両のドライバによる入力等に基づいて、目的地までの車両の走行ルートを設定する。ナビゲーションシステム94は車内ネットワークを介してECU60に接続され、ナビゲーションシステム94によって設定された走行ルートはECU60に送信される。なお、GPS受信機92及び地図データベース93はナビゲーションシステム94に組み込まれていてもよい。
また、車両には通信モジュール95が設けられている。通信モジュール95は、車両と車両の外部との通信を可能とする機器である。通信モジュール95は、例えば、データ通信モジュール(DCM(Data communication module))、近距離無線通信モジュール等を含む。車両はデータ通信モジュールを介して車両の外部のサーバ等と通信する。また、車両は、近距離無線モジュールを介して、路車間通信によって路側機と通信し、車車間通信によって車両と通信する。通信モジュール95によって受信された情報はECU60に送信される。
また、ECU60には、エアフロメータ71、空燃比センサ72、NOxセンサ73、クランク角センサ74、負荷センサ75、トルクセンサ76及び車速センサ77の出力が入力される。
エアフロメータ71は吸気通路内の空気の流量を検出する。図1に示されるように、エアフロメータ71はエアクリーナ8とコンプレッサ7aとの間の吸気管6に配置される。エアフロメータ71はECU60に電気的に接続され、エアフロメータ71の出力はECU60に送信される。
空燃比センサ72は排気ガスの空燃比を検出する。図1に示されるように、空燃比センサ72はタービン7bと触媒29との間の排気管27に配置される。空燃比センサ72はECU60に電気的に接続され、空燃比センサ72の出力はECU60に送信される。
NOxセンサ73は排気ガス中の窒素酸化物(NOx)濃度を検出する。図1に示されるように、NOxセンサ73はタービン7bと触媒29との間の排気管27に配置される。NOxセンサ73はECU60に電気的に接続され、NOxセンサ73の出力はECU60に送信される。
クランク角センサ74は内燃機関1のクランクシャフトが所定角度(例えば10度)回転する毎に出力パルスを発生させる。クランク角センサ74はECU60に電気的に接続され、クランク角センサ74の出力はECU60に送信される。ECU60はクランク角センサ74の出力に基づいて機関回転数を算出する。
負荷センサ75は、車両に設けられたアクセルペダルに接続され、アクセルペダルの踏み込み量を検出する。負荷センサ75はECU60に電気的に接続され、負荷センサ75の出力はECU60に送信される。ECU60は負荷センサ75の出力に基づいて機関負荷を算出する。
トルクセンサ76は、例えば内燃機関1のクランクシャフトに配置され、内燃機関1の出力トルクを検出する。トルクセンサ76はECU60に電気的に接続され、トルクセンサ76の出力はECU60に送信される。
車速センサ77は、車両に設けられ、車両の速度を検出する。車速センサ77はECU60に電気的に接続され、車速センサ77の出力はECU60に送信される。
また、本実施形態では、ECU60は、ニューラルネットワークモデルの学習を行うように車両に設けられた機械学習装置としても機能する。
<ニューラルネットワークモデルの概要>
最初に、図3を参照して、ニューラルネットワークモデルの概要について説明する。図3は、単純な構成を有するニューラルネットワークモデルの一例を示す。
図3における丸印は人工ニューロンを表す。人工ニューロンは、通常、ノード又はユニットと称される(本明細書では、「ノード」と称す)。図3において、L=1は入力層を示し、L=2及びL=3は隠れ層を示し、L=4は出力層を示している。なお、隠れ層は中間層とも称される。
図3において、x1及びx2は入力層(L=1)の各ノード及びそのノードからの出力値を示しており、yは出力層(L=4)のノード及びその出力値を示している。同様に、z1 (L=2) 2 (L=2)及びz3 (L=2)は隠れ層(L=2)の各ノード及びそのノードからの出力値を示しており、z1 (L=3)及びz2 (L=3)は隠れ層(L=3)の各ノード及びそのノードからの出力値を示している。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x1及びx2が入力され、隠れ層(L=2)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値uが算出される。例えば、図3において隠れ層(L=2)のzk (L=2)(k=1、2、3)で示される各ノードにおいて算出される総入力値uk (L=2)は、次式のようになる(Mは入力層のノードの数)。
Figure 0006690743
次いで、この総入力値uk (L=2)は活性化関数fにより変換され、隠れ層(L=2)のzk (L=2)で示されるノードから、出力値zk (L=2)(=f(uk (L=2)))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z1 (L=2) 2 (L=2)及びz3 (L=2)が入力され、隠れ層(L=3)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(=Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z1 (L=3)、z2 (L=3)として出力される、活性化関数は例えばシグモイド関数σである。
また、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z1 (L=3)及びz2 (L=3)が入力され、出力層のノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(Σz・w+b)が算出され、又はそれぞれ対応する重みwのみを用いて総入力値u(Σz・w)が算出される。例えば、出力層のノードでは活性化関数として恒等関数が用いられる。この場合、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力層のノードから出力される。
<ニューラルネットワークモデルにおける学習>
本実施形態では、誤差逆伝播法を用いて、ニューラルネットワークモデルにおける各重みwの値及び各バイアスbの値が学習される。誤差逆伝播法は周知であるため、誤差逆伝播法の概要について、以下に簡単に説明する。なお、バイアスbは重みwの一種なので、以下の説明では、バイアスbは重みwの一つとされている。
図3に示したようなニューラルネットワークモデルにおいて、L=2、L=3又はL=4の各層のノードへの総入力値u(L)における重みをw(L)で表すと、誤差関数Eの重みw(L)による微分、すなわち、勾配∂E/∂w(L)は次式に書き換えられる。
Figure 0006690743
ここで、z(L-1)・∂w(L)=∂u(L)であり、(∂E/∂u(L))=δ(L)とすると、上記(1)式は次式に変換される。
Figure 0006690743
ここで、u(L)が変動すると、次の層の総入力値u(L+1)の変化を通じて誤差関数Eの変動を引き起こすので、δ(L)を次式で表すことができる(KはL+1層におけるノードの数)。
Figure 0006690743
ここで、z(L)=f(u(L))と表すと、上記(3)式の右辺の総入力値uk (L+1)は次式で表される。
Figure 0006690743
ここで、上記(3)式の右辺第1項(∂E/∂u(L+1))はδ(L+1)である。また、上記(3)式の右辺第2項(∂uk (L+1)/∂u(L))は次式で表される。
Figure 0006690743
したがって、δ(L)は、次式で表される。
Figure 0006690743
すなわち、δ(L+1)が求まると、δ(L)を求めることができることになる。
ニューラルネットワークモデルの学習が行われる場合、或る入力値x及びその入力値xに対する出力値の正解データytを含む訓練データセットが用いられる。或る入力値xに対する出力層からの出力値がyであった場合、誤差関数として二乗誤差が用いられている場合には、誤差関数Eは、E=1/2(y−yt)2となる。また、図3の出力層(L=4)のノードでは、出力値y=f(u(L))となる。このため、出力層(L=4)のノードにおけるδ(L)の値は、次式で示されるようになる。
Figure 0006690743
ここで、出力層の活性化関数f(u(L))が恒等関数である場合、f’(u(L))=1となる。したがって、δ(L)=y−ytとなり、δ(L)が求まる。
δ(L)が求まると、上記(6)式を用いて前層のδ(L-1)が求まる。このようにして順次、前層のδが求められ、これらδの値を用いて、上記(2)式から、各重みwについて誤差関数Eの微分、すなわち、勾配∂E/∂w(L)か求められる。勾配∂E/∂w(L)か求められると、この勾配∂E/∂w(L)を用いて、誤差関数Eの値が減少するように、重みwの値が更新される。すなわち、重みwの学習が行われることになる。
<車両におけるニューラルネットワークモデルの学習>
本実施形態では、図3に示したようなニューラルネットワークモデルが車両(具体的にはECU60)に実装される。また、本実施形態では、ニューラルネットワークモデルの対象は内燃機関1である。このため、ニューラルネットワークモデルは内燃機関1の複数の入力パラメータから内燃機関1の少なくとも一つの出力パラメータを出力する。
ニューラルネットワークモデルの学習(すなわち、重みw及びバイアスbの設定)は車両の出荷前に行われる。ニューラルネットワークモデルの学習では、入力パラメータの実測値と、入力パラメータの実測値と対応する出力パラメータの実測値との組合せを含む訓練データセットが用いられる。具体的には、多数の訓練データセットを用いて、上述した誤差逆伝播法によってニューラルネットワークモデルにおける重みw及びバイアスbの値が繰り返し更新される。この結果、ニューラルネットワークモデルが学習され、学習済みのニューラルネットワークモデルが作成される。
しかしながら、多数の訓練データセットは、ニューラルネットワークモデルが実装される車両に設けられる実際の内燃機関1を用いることなく、エンジンベンチ等によって訓練データ作成用の内燃機関を用いて予め取得される。また、内燃機関1の特性は訓練データ作成用の内燃機関の特性と若干異なる場合がある。このため、学習済みのニューラルネットワークモデルが内燃機関1の特性に正確に適合しないおそれがある。また、経年劣化等によって内燃機関1の特性が変化する場合もある。
このため、本実施形態では、ニューラルネットワークモデルによって算出される出力パラメータの精度を向上させるべく、ECU60を用いて車両においてもニューラルネットワークモデルの学習を行う。このことによって、ニューラルネットワークモデルが内燃機関1の特性に正確に適合され、ニューラルネットワークモデルによって算出される出力パラメータの精度が向上する。
図4は、ECU60の機能ブロック図である。本実施形態では、ECU60は、学習計画部81、データセット作成部82、学習部83、停車期間予測部84、演算部85及び制御部86を有する。これらは、ECU60のメモリ62に記憶されたプログラムをECU60のプロセッサ63が実行することによって実現される機能ブロックである。
学習計画部81は、複数の入力パラメータから少なくとも一つの出力パラメータを出力するニューラルネットワークモデルの学習計画を作成する。データセット作成部82は、複数の入力パラメータの実測値と、これら実測値と対応する出力パラメータの実測値とを取得して訓練データセットを作成する。訓練データセットは、複数の入力パラメータの実測値と、これら実測値と対応する出力パラメータの実測値との組合せを含む。学習部83は、学習計画部81によって作成された学習計画に基づいて、データセット作成部82によって車両において取得された訓練データセットを用いてニューラルネットワークモデルの学習を行う。
ニューラルネットワークモデルはECU60のメモリ62に記憶されている。ニューラルネットワークモデルは、例えば図3に示される構成を有する。なお、ニューラルネットワークモデルの層数は三つ以上の任意の数であってもよい。また、入力層のノードの数は二つ以上の任意の数であってもよい。また、各隠れ層及び出力層のノードの数は、それぞれ、一つ以上の任意の数であってもよい。
停車期間予測部84は車両の停車期間(以下、単に「停車期間」と称する)を予測する。具体的には、停車期間予測部84は、停車期間が発生する日時(停車日時)と、停車期間の時間長さ(停車時間)とを予測する。なお、車両の停車とは、車速がゼロの状態を意味する。このため、車両の停車には、車両が信号機の前で一時停止している状態、渋滞によって車両が一時停止している状態、車両が自宅等の駐車場に駐車している状態等が含まれる。
通勤、通学、買い物等の用途のために車両が使用される場合、車両が用いられる時間帯はほぼ一定であることが多い。このため、停車期間予測部84は、例えば、車両の走行履歴情報に基づいて停車期間を予測する。この場合、過去の所定期間における車両の走行履歴情報が例えばECU60のメモリ62に記憶される。なお、車両の走行履歴情報は、車両に設けられた他の記憶装置に記憶されてもよい。
走行履歴情報には、日付、曜日、時間帯、天候、車両の位置、車両の走行の有無等が含まれる。また、車両のドライバを撮影して画像を生成するドライバモニタカメラが車両に設けられている場合、ドライバ情報が走行履歴情報に含まれていてもよい。この場合、停車期間を予測するためにドライバモニタカメラによって車両のドライバを特定することによって、複数人によって車両が使用される場合であっても、停車期間の予測精度を向上させることができる。
また、停車期間予測部84は、GPS受信機92によって検出される車両の現在位置、ナビゲーションシステム94によって設定される車両の走行ルート等に基づいて停車期間を予測してもよい。また、停車期間予測部84は、通信モジュール95によってサーバ、路側機又は他車両から受信された情報(信号機情報、渋滞情報、天候情報等)に基づいて停車期間を予測してもよい。また、停車期間予測部84は上記の予測方法を組み合わせて停車期間を予測してもよい。
停車期間予測部84は将来の所定期間における停車期間を予測する。図5は、停車期間の予測結果の一例を示す図である。この例では、停車期間予測部84は将来の三日間(8月9日〜8月11日)の期間における車両の停車期間を予測している。図5には、車両の走行が予測される走行期間と、車両の停車が予測される停車期間(斜線部分)とが示されている。走行期間の幅は走行期間の時間長さを示し、停車期間の幅は停車期間の時間長さを示している。連続する停車期間にはそれぞれ停車期間番号(p=1〜7)が付与されている。
ところで、ECU60は内燃機関1の制御装置としても機能する。このため、ECU60は、車両が走行するときには、走行用の動力を得るために内燃機関1を制御する。このため、ニューラルネットワークモデルの学習のために使用可能なECU60の演算リソースが限られる。しかしながら、ニューラルネットワークモデルの学習では、重みw及びバイアスbを更新するために多くの演算を行う必要がある。このため、演算負荷の高い学習をECU60によって車両の走行中に行うことは困難である。また、車両の走行中に学習を行うためにECU60の処理能力を向上させること、又は学習のために追加のECUを設けることは車両のコストを増加させる。
そこで、本実施形態では、学習部83は、車両が停止しているときにニューラルネットワークモデルの学習を行う。このことによって、ECU60の演算リソースが空いているときにニューラルネットワークモデルの学習を行うことができる。
しかしながら、ニューラルネットワークモデルの学習時間が停車期間よりも長い場合、停車期間中に学習を完了させることができない。この結果、ニューラルネットワークモデルを適切な頻度で更新することができず、ニューラルネットワークモデルによる出力パラメータの算出精度が悪化するおそれがある。
学習に用いられる訓練データセットの数が多いほど、ニューラルネットワークモデルの学習時間は長くなる。このため、学習時間を短くするためには、一回の学習において用いられる訓練データセットの数を絞る必要がある。
ニューラルネットワークモデルの複数の入力パラメータはそれぞれ所定範囲を有する。所定範囲は、例えば、内燃機関1において出現しうる値の上限値と下限値との間の範囲に設定される。入力パラメータの全ての範囲における訓練データセットを用いて学習が行われると、学習のために膨大な時間が必要となり、停車期間中に学習を完了させることができない。
そこで、本実施形態では、作成された訓練データセットを複数の学習領域に振り分け、学習領域毎に学習領域内の訓練データセットを用いてニューラルネットワークモデルの学習を行う。このことによって、一回当たりの学習時間を減少させることができ、ひいてはニューラルネットワークモデルの更新頻度を高めることができる。したがって、車両においてニューラルネットワークモデルの学習を効率的に行うことができる。
上述した処理を行うために、データセット作成部82は、複数の入力パラメータのそれぞれの範囲に基づいて定められた複数の学習領域に訓練データセットを振り分ける。図6は、第一実施形態における複数の学習領域を概略的に示す図である。この例では、ニューラルネットワークモデルの入力パラメータとして二つのパラメータ(入力パラメータA及び入力パラメータB)が用いられている。
入力パラメータAは所定範囲を有し、所定範囲が複数の領域に分割されている。同様に、入力パラメータBは所定範囲を有し、所定範囲が複数の領域に分割されている。この例では、入力パラメータA及び入力パラメータBにおいて、分割後の複数の領域は同一の幅を有する。
入力パラメータA及び入力パラメータBによって画定される空間(図6の例では二次元空間)が複数の学習領域に分割される。各学習領域は、入力パラメータAの一つの範囲と入力パラメータBの一つの範囲とによって画定される。各学習領域には学習領域番号(i=1〜n)が付与される。なお、複数の入力パラメータによって画定される空間及び学習領域の次元は入力パラメータの数と等しくなる。また、学習領域の数は、複数の入力パラメータの全ての領域の数を乗じた値となる。
学習部83は学習領域毎にニューラルネットワークモデルの学習を行う。学習計画部81は、停車期間においてニューラルネットワークモデルの学習が中断しないように、複数の学習領域を停車期間に割り当てる。言い換えれば、学習計画部81は、停車期間において各学習領域におけるニューラルネットワークモデルの学習が完了するように、複数の学習領域を停車期間に割り当てる。このことによって、連続する停車期間内に各学習領域におけるニューラルネットワークモデルの学習を完了させることができ、ひいてはニューラルネットワークモデルの更新頻度を高めることができる。
図5の例では、第1停車期間(p=1)に第1学習領域(i=1)が割り当てられ、第2停車期間(p=2)に第2学習領域(i=2)が割り当てられ、第3停車期間(p=3)に第3学習領域(i=3)が割り当てられ、第4停車期間(p=4)に第4学習領域(i=4)及び第5学習領域(i=5)が割り当てられ、第5停車期間(p=5)に第6学習領域(i=1)〜第12学習領域(i=12)が割り当てられ、第6停車期間(p=6)に第13学習領域(i=13)及び第14学習領域(i=14)が割り当てられ、第7停車期間(p=7)に第15学習領域(i=15)及び第16学習領域(i=16)が割り当てられている。
演算部85はニューラルネットワークモデルを用いて出力パラメータを算出する。具体的には、演算部85は入力パラメータをニューラルネットワークモデルに入力することによってニューラルネットワークモデルに出力パラメータを出力させる。このことによって、センサ等によって出力パラメータの実測値を検出することなく、入力パラメータに対応する出力パラメータを予測することができる。
制御部86は、演算部85によって算出された出力パラメータの値に基づいて車両を制御する。本実施形態では、制御部86は、演算部85によって算出された出力パラメータの値に基づいて、内燃機関1を制御する。例えば、出力パラメータが排気ガス中のNOx濃度である場合、演算部85によって算出されたNOx濃度の予測値が目標濃度よりも高いときには、制御部86は、NOx濃度が低下するようにEGR制御弁15の開度を大きくする。
以下、図7〜図10のフローチャートを参照して、車両においてニューラルネットワークモデルの学習を行うための制御について詳細に説明する。
<データセット作成処理>
図7は、本発明の第一実施形態におけるデータセット作成処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS101において、データセット作成部82は、入力パラメータの実測値と、これら実測値に対応する出力パラメータの実測値を取得する。入力パラメータ及び出力パラメータの実測値は、センサ等によって検出された値、ECU60からアクチュエータ91に出力される指令値に基づいて算出された値等である。
次いで、ステップS102において、データセット作成部82は入力パラメータの実測値と出力パラメータの実測値とを組み合わせることによって訓練データセットを作成する。
次いで、ステップS103において、データセット作成部82は訓練データセットを学習領域に振り分ける。このとき、訓練データセットの入力パラメータの実測値が、学習領域を画定する入力パラメータの範囲に含まれるように、訓練データセットが学習領域に振り分けられる。訓練データセットは、対応する学習領域の学習領域番号iと共にECU60のメモリ62に記憶される。メモリ62に記憶された訓練データセットは古いデータから順に消去され、最新の所定数の訓練データセットがメモリ62に記憶される。なお、訓練データセットは、車両に設けられた他の記憶装置に記憶されてもよい。ステップS103の後、本制御ルーチンは終了する。
<停車期間予測処理>
図8は、本発明の第一実施形態における停車期間予測処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS201において、停車期間予測部84は、上述したような予測方法を用いて停車期間を予測する。次いで、ステップS202において、停車期間予測部84は、図5の例に示されるように停車期間に停車期間番号pを付与する。ステップS202の後、本制御ルーチンは終了する。
<学習計画作成処理>
図9は、本発明の第一実施形態における学習計画作成処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS301において、学習計画部81は学習領域番号i及び停車期間番号pを1に設定する。
次いで、ステップS302において、学習計画部81は、第i学習領域に訓練データセットが存在しているか否かを判定する。学習計画部81は、第i学習領域に振り分けられた訓練データセットがECU60のメモリ62に記憶されている場合には、第i学習領域に訓練データセットが存在していると判定する。ステップS302において第i学習領域に訓練データセットが存在していると判定された場合、本制御ルーチンはステップS303に進む。
ステップS303では、学習計画部81は、第p停車期間の停車時間STpが第i学習領域の学習時間LTi以上であるか否かを判定する。このとき、学習計画部81は、第i学習領域に振り分けられた訓練データセットの数に基づいて第i学習領域の学習時間LTiを算出する。訓練データセットの数が多いほど、第i学習領域の学習時間LTiは長くなる。一方、第p停車期間の停車時間STpは、停車期間予測部84によって予測された値が用いられる。
ステップS303において第p停車期間の停車時間STpが第i学習領域の学習時間LTi以上であると判定された場合、本制御ルーチンはステップS304に進む。この場合、第p停車期間内に第i学習領域におけるニューラルネットワークモデルの学習を完了可能である。このため、ステップS304において、学習計画部81は第p停車期間に第i学習領域を割り当てる。
次いで、ステップS305において、学習計画部81は、次の学習領域も第p停車期間に振り分け可能であるか否かを判定すべく、第p停車期間の停車時間STpを更新する。具体的には、学習計画部81は、第p停車期間の停車時間STpから第i学習領域の学習時間LTiを減算した値を新たな停車時間STpに設定する。
ステップS305の後、本制御ルーチンはステップS308に進む。また、ステップS302において第i学習領域に訓練データセットが存在していないと判定された場合も、本制御ルーチンはステップS308に進む。ステップS308では、学習計画部81は学習領域番号iに1を加算する。次いで、ステップS309において、学習計画部81は学習領域番号iがn+1であるか否かを判定する。図6に示されるように、nは、予め定められた学習領域の総数である。
ステップS309において学習領域番号iがn+1であると判定された場合、本制御ルーチンは終了する。なお、各学習領域における訓練データセット及び停車期間の予測結果は図7及び図8の制御ルーチンによって繰り返し更新される。このため、次の制御ルーチンにおいて、学習領域の割り当てが最初から再開される。
一方、ステップS309において学習領域番号iがn以下であると判定された場合、本制御ルーチンはステップS310に進む。ステップS310では、学習計画部81は停車期間番号pを1に設定する。ステップS310の後、本制御ルーチンはステップS302に戻り、次の学習領域の割り当ての可否が判定される。
また、ステップS303において第p停車期間の停車時間STpが第i学習領域の学習時間LTi未満であると判定された場合、本制御ルーチンはステップS306に進む。ステップS306では、学習計画部81は、第i学習領域を割り当て可能な他の停車期間を探るべく、停車期間番号に1を加算する。
次いで、ステップS307において、学習計画部81は、停車期間番号pがm+1であるか否かを判定する。mは、予測された停車期間の総数であり、図5の例では7である。ステップS307において停車期間番号pがm以下であると判定された場合、本制御ルーチンはステップS303に戻り、次の停車期間への割り当ての可否が判定される。
一方、ステップS307において停車期間番号pがm+1であると判定された場合、第i学習領域を割り当て可能な停車期間が存在しないため、ステップS308において学習領域番号iに1が加算される。
次いで、ステップS309において、学習計画部81は学習領域番号iがn+1であるか否かを判定する。学習領域番号iがn+1であると判定された場合、本制御ルーチンは終了する。一方、学習領域番号iがn以下であると判定された場合、本制御ルーチンはステップS310に進み、以後の処理は上述したとおりである。
上述したように、本制御ルーチンでは、学習領域番号iが小さい学習領域から順に割り当ての可否が判定される。この結果、相対的に小さい学習領域番号iを有する学習領域が、相対的に大きい学習領域番号iを有する学習領域よりも優先的に停車期間に割り当てられる。すなわち、本実施形態では、学習領域番号iは学習の優先順位を示し、学習領域番号iが小さいほど、その学習領域の学習の優先順位が高くなる。したがって、複数の学習領域に学習の優先順位が付与されていると言える。なお、図6の例では学習領域の並び順に従って優先順位が付与されているが、例えば優先順位がランダムに付与されてもよい。
<学習処理>
図10は、本発明の第一実施形態における学習処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって繰り返し実行される。
最初に、ステップS401において、学習部83は、現在が停車期間であるか否かを判定する。例えば、学習部83は、車速センサ77によって検出された車両の速度がゼロである状態が所定時間以上続いた場合に、現在が停車期間であると判定する。ステップS401において現在が停車期間ではないと判定された場合、すなわち現在が走行期間であると判定された場合、本制御ルーチンは終了する。
一方、ステップS401において現在が停車期間であると判定された場合、本制御ルーチンはステップS402に進む。ステップS402では、学習部83は、停車期間予測部84によって予測された停車期間の日時と現在の日時とを照合することによって現在の停車期間の停車期間番号pを特定する。
次いで、ステップS402において、学習部83は、ステップS402において特定した停車期間番号pの停車期間に学習領域が割り当てられているか否かを判定する。学習領域が割り当てられていないと判定された場合、本制御ルーチンは終了する。一方、学習領域が割り当てられていると判定された場合、本制御ルーチンはステップS404に進む。
ステップS404では、学習部83は、割り当てられた学習領域におけるニューラルネットワークモデルの学習を行う。具体的には、学習部83は、割り当てられた学習領域における訓練データセットを用いて、上述した誤差逆伝播法によってニューラルネットワークモデルにおける重みw及びバイアスbの値を繰り返し更新する。ステップS404の後、本制御ルーチンは終了する。
また、学習部83は、学習の終了後、ニューラルネットワークモデルを更新する。具体的には、学習部83は、ニューラルネットワークモデルにおける重みw及びバイアスbの値を、学習によって更新された最終的な値に変更する。演算部85は更新後のニューラルネットワークモデルを用いて出力パラメータを算出する。
<第二実施形態>
第二実施形態に係る機械学習装置は、以下に説明する点を除いて、基本的に第一実施形態に係る機械学習装置の構成及び制御と同様である。このため、以下、本発明の第二実施形態について、第一実施形態と異なる部分を中心に説明する。
第一実施形態では、複数の学習領域は、それぞれ、入力パラメータの範囲の異なる組合せによって画定される。一方、第二実施形態では、複数の学習領域は、小学習領域と、小学習領域を包含する大学習領域とを含む。小学習領域及び大学習領域は、小学習領域が大学習領域よりもデータ密度が高くなるように定められる。すなわち、小学習領域は、出現頻度が相対的に高い入力パラメータの範囲によって画定され、大学習領域と小学習領域との差分領域は、出現頻度が相対的に低い入力パラメータの範囲によって画定される。
学習部83は小学習領域と大学習領域とを選択的に停車期間に割り当てる。この場合、ニューラルネットワークモデルの学習において小学習領域における訓練データセットが常に用いられることとなる。このため、出現頻度が相対的に高い入力パラメータの範囲について、ニューラルネットワークモデルの学習を促進することができる。この結果、車両の典型的な走行状態においてニューラルネットワークモデルによる出力パラメータの算出精度を向上させることができる。
図11は、第二実施形態における複数の学習領域を概略的に示す図である。この例では、第2学習領域(i=2)が第1学習領域(i=1)を包含し、第3学習領域(i=3)が第1学習領域(i=1)及び第2学習領域(i=2)を包含している。したがって、第1学習領域が小学習領域に相当し、第2学習領域及び第3学習領域が大学習領域に相当する。なお、大学習領域の数は2以外の他の数であってもよい。
例えば、小学習領域及び大学習領域は、複数の入力パラメータのそれぞれの範囲の出現頻度の予測に基づいて、小学習領域が大学習領域よりもデータ密度が高くなるように予め定められる。また、小学習領域及び大学習領域は、車両の出荷後の所定期間において取得された入力パラメータの実測値に基づいて、小学習領域が大学習領域よりもデータ密度が高くなるように定められてもよい。
<学習計画作成処理>
第二実施形態では、図7、図8及び図10の制御ルーチンに加えて、図9の制御ルーチンの代わりに図12の制御ルーチンが実行される。図12は、本発明の第二実施形態における学習計画作成処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS501において、図9のステップS301と同様に、学習計画部81は、第i学習領域に訓練データセットが存在しているか否かを判定する。学習領域番号iの初期値は1である。第i学習領域に訓練データセットが存在していないと判定された場合、本制御ルーチンは終了する。一方、第i学習領域に訓練データセットが存在していると判定された場合、本制御ルーチンはステップS502に進む。なお、第2学習領域及び第3学習領域が第1学習領域を包含しているため、第1学習領域に訓練データセットが存在している場合、第2学習領域及び第3学習領域にも訓練データセットが存在している。
ステップS502では、学習計画部81は第p停車期間の停車時間STpが第3学習領域の学習時間LT3以上であるか否かを判定する。このとき、学習計画部81は、第3学習領域に振り分けられた訓練データセットの数に基づいて第3学習領域の学習時間LT3を算出する。訓練データセットの数が多いほど、第3学習領域の学習時間LT3は長くなる。一方、第p停車期間の停車時間STpは、停車期間予測部84によって予測された値が用いられる。停車期間番号pの初期値は1である。
ステップS502において第p停車期間の停車時間STpが第3学習領域の学習時間LT3以上であると判定された場合、本制御ルーチンはステップS503に進む。ステップS503では、学習計画部81は第p停車期間に第3学習領域を割り当てる。
次いで、ステップS508において、学習計画部81は、次の停車期間への割り当ての可否を判定すべく、停車期間番号pに1を加算する。次いで、ステップS509において、学習計画部81は、停車期間番号pがm+1であるか否かを判定する。mは、予測された停車期間の総数である。
ステップS509において停車期間番号pがm以下であると判定された場合、本制御ルーチンは終了する。一方、ステップS509において停車期間番号pがm+1であると判定された場合、本制御ルーチンはステップS510に進む。ステップS510では、学習計画部81は停車期間番号pを1(初期値)にリセットする。ステップS510の後、本制御ルーチンは終了する。
また、ステップS502において第p停車期間の停車時間STpが第3学習領域の学習時間LT3未満であると判定された場合、本制御ルーチンはステップS504に進む。ステップS504では、学習計画部81はp停車期間の停車時間STpが第2学習領域の学習時間LT2以上であるか否かを判定する。このとき、学習計画部81は、第2学習領域に振り分けられた訓練データセットの数に基づいて第2学習領域の学習時間LT2を算出する。訓練データセットの数が多いほど、第2学習領域の学習時間LT2は長くなる。なお、第3学習領域が第2学習領域を包含しているため、第2学習領域の学習時間LT2は第3学習領域の学習時間LT3以下となる。
ステップS504において第p停車期間の停車時間STpが第2学習領域の学習時間LT2以上であると判定された場合、本制御ルーチンはステップS505に進む。ステップS505では、学習計画部81は第p停車期間に第2学習領域を割り当てる。次いで、ステップS508〜ステップS510が、上述したように実行される。
一方、ステップS504において第p停車期間の停車時間STpが第2学習領域の学習時間LT2未満であると判定された場合、本制御ルーチンはステップS506に進む。ステップS506では、学習計画部81はp停車期間の停車時間STpが第1学習領域の学習時間LT1以上であるか否かを判定する。このとき、学習計画部81は、第1学習領域に振り分けられた訓練データセットの数に基づいて第1学習領域の学習時間LT1を算出する。訓練データセットの数が多いほど、第1学習領域の学習時間LT1は長くなる。なお、第3学習領域及び第2学習領域が第1学習領域を包含しているため、第1学習領域の学習時間LT1は第3学習領域の学習時間LT3及び第2学習領域の学習時間LT2以下となる。
ステップS506において第p停車期間の停車時間STpが第1学習領域の学習時間LT1以上であると判定された場合、本制御ルーチンはステップS507に進む。ステップS507では、学習計画部81は第p停車期間に第1学習領域を割り当てる。次いで、ステップS508〜ステップS510が、上述したように実行される。
一方、ステップS506において第p停車期間の停車時間STpが第1学習領域の学習時間LT1未満であると判定された場合、本制御ルーチンはステップS508に進み、ステップS508〜ステップS510が、上述したように実行される。
<第三実施形態>
第三実施形態に係る機械学習装置は、以下に説明する点を除いて、基本的に第一実施形態に係る機械学習装置の構成及び制御と同様である。このため、以下、本発明の第三実施形態について、第一実施形態と異なる部分を中心に説明する。
第三実施形態では、第一実施形態と同様に、複数の学習領域に学習の優先順位が付与される。一方、第三実施形態では、第一実施形態と異なり、学習計画部81は、出現頻度が相対的に高い入力パラメータの値を含む学習領域の学習の優先順位を、出現頻度が相対的に低い入力パラメータの値を含む学習領域の学習の優先順位よりも高くする。このため、出現頻度が相対的に高い入力パラメータの範囲について、ニューラルネットワークモデルの学習を促進することができる。この結果、車両の典型的な走行状態においてニューラルネットワークモデルによる出力パラメータの算出精度を向上させることができる。
第三実施形態では、複数の入力パラメータによって画定される空間が複数の初期領域に分割される。複数の初期領域は、車両において取得された入力パラメータの実測値の取得回数に基づいて三つの学習領域(第1学習領域、第2学習領域及び第3学習領域)に振り分けられる。初期領域は、図5に示されるような学習領域と同様の領域である。なお、第三実施形態において、学習領域の数は二つ以上の任意の数であってもよい。
第三実施形態では、第一実施形態と同様に、図7〜図10の制御ルーチンが実行される。このとき、第三実施形態では、図7のステップS103においてデータセット作成部82は訓練データセットを学習領域及び初期領域に振り分ける。この場合、訓練データセットは、対応する学習領域の学習領域番号i及び対応する初期領域の初期領域番号qと共にECU60のメモリ62に記憶される。
<学習領域設定処理>
また、第三実施形態では、図7〜図10の制御ルーチンに加えて、図13の制御ルーチンが実行される。図13は、本発明の第三実施形態における学習領域設定処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS601において、学習計画部81は、第q初期領域に振り分けられた訓練データセットの数Nqが第1基準値R1以上であるか否かを判定する。第1基準値R1は予め定められる。初期領域番号qの初期値は1である。
ステップS601において訓練データセットの数Nqが第1基準値R1以上であると判定された場合、本制御ルーチンはステップS602に進む。ステップS602では、学習計画部81は、第q初期領域の学習領域番号iを1に設定する。
次いで、ステップS607において、学習計画部81は、次の初期領域の学習領域番号iを設定すべく、初期領域番号qに1を加算する。次いで、ステップS608において、学習計画部81は、初期領域番号qがk+1であるか否かを判定する。kは、予め定められた初期領域の総数である。
ステップS608において初期領域番号qがk以下であると判定された場合、本制御ルーチンは終了する。一方、ステップS608において初期領域番号qがk+1であると判定された場合、本制御ルーチンはステップS609に進む。ステップS609では、学習計画部81は初期領域番号qを1(初期値)にリセットする。ステップS609の後、本制御ルーチンは終了する。
一方、ステップS601において訓練データセットの数Nqが第1基準値R1未満であると判定された場合、本制御ルーチンはステップS603に進む。ステップS603では、学習計画部81は、第q初期領域に振り分けられた訓練データセットの数Nqが第2基準値R2以上であるか否かを判定する。第2基準値R2は、予め定められ、第1基準値R1よりも小さい値に設定される。
ステップS603において訓練データセットの数Nqが第2基準値R2以上であると判定された場合、本制御ルーチンはステップS604に進む。ステップS604では、学習計画部81は、第q初期領域の学習領域番号iを2に設定する。図9の制御ルーチンにおいて第1学習領域は第2学習領域よりも優先的に停車期間に割り当てられる。このため、第2学習領域は第1学習領域よりも学習の優先順位が低い。次いで、ステップS607〜ステップS609が、上述したように実行される。
一方、ステップS603において訓練データセットの数Nqが第2基準値R2未満であると判定された場合、本制御ルーチンはステップS605に進む。ステップS605では、学習計画部81は、第q初期領域に振り分けられた訓練データセットの数Nqが第3基準値R3以上であるか否かを判定する。第3基準値R3は、予め定められ、第1基準値R1及び第2基準値R2よりも小さい値に設定される。
ステップS605において訓練データセットの数Nqが第3基準値R3以上であると判定された場合、本制御ルーチンはステップS606に進む。ステップS606では、学習計画部81は、第q初期領域の学習領域番号iを3に設定する。図9の制御ルーチンにおいて第1学習領域及び第2学習領域は第3学習領域よりも優先的に停車期間に割り当てられる。このため、第3学習領域は第1学習領域及び第2学習領域よりも学習の優先順位が低い。次いで、ステップS607〜ステップS609が、上述したように実行される。
<第四実施形態>
第四実施形態に係る機械学習装置は、以下に説明する点を除いて、基本的に第一実施形態に係る機械学習装置の構成及び制御と同様である。このため、以下、本発明の第四実施形態について、第一実施形態と異なる部分を中心に説明する。
第四実施形態では、学習部83は複数のニューラルネットワークモデルの学習を行う。複数のニューラルネットワークモデルは、それぞれ、異なる種類の出力パラメータを出力する。
例えば、学習部83は6つのニューラルネットワークモデルの学習を行う。例えば、第1ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量及び点火時期を含み、出力パラメータが排気ガス中の炭化水素(HC)濃度を含む。また、第2ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量及びEGRガス量を含み、出力パラメータが排気ガス中のNOx濃度を含む。また、第3ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量、EGR量及び点火時期を含み、出力パラメータが排気ガス中の一酸化炭素(CO)濃度を含む。また、第4ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量及び燃料噴射量を含み、出力パラメータが車両の燃費を含む。また、第5ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量及び点火時期を含み、出力パラメータが内燃機関1の出力トルクを含む。また、第6ニューラルネットワークモデルにおいて、入力パラメータが、機関回転数、新気量及び燃料噴射量を含み、出力パラメータが排気ガス中の二酸化炭素(CO2)濃度を含む。
この場合、入力パラメータ及び出力パラメータの実測値は以下のように取得可能である。機関回転数は、クランク角センサ74の出力に基づいて算出される。新気量はエアフロメータ71によって検出される。点火時期はECU60から点火プラグへの指令値に基づいて算出される。EGRガス量はEGR制御弁15の開度等に基づいて算出される。燃料噴射量はECU60から燃料噴射弁への指令値に基づいて算出される。排気ガス中のNOx濃度はNOxセンサ73によって検出される。車両の燃費は例えば走行距離を燃料使用量で除算することによって算出される。排気ガス中のHC濃度、CO濃度及びCO2濃度は例えば空燃比センサ72の出力に基づいて算出される。なお、これら濃度は、所定成分の濃度を検出する排気センサによって直接検出されてもよい。
第四実施形態では、複数のニューラルネットワークモデルのそれぞれについて、複数の入力パラメータによって画定される空間が複数の学習領域に分割される。ニューラルネットワークモデルが異なる学習領域には、異なる学習領域番号が付与される。また、第一実施形態と同様に、複数の学習領域に学習の優先順位が付与される。
異なる出力パラメータを出力する複数のニューラルネットワークモデルが学習される場合、ニューラルネットワークモデルの学習の優先順位は、車両が走行している道路の情報等に応じて変化する。このため、学習計画部81は、車両が走行している道路の情報に基づいて、複数の学習領域に付与された学習の優先順位を変更する。このことによって、ニューラルネットワークモデルを車両の走行状態に適合させることができる。
例えば、車両が走行している道路が上り坂である場合、内燃機関1によって上り坂に必要な動力を発生させる必要がある。このため、内燃機関1の出力トルクの算出精度を向上させるべく、内燃機関1の出力トルクを出力するニューラルネットワークモデル(第5ニューラルネットワークモデル)の学習の優先順位が最も高くなる。
そこで、学習計画部81は、車両が走行している道路が上り坂である場合には、車両が走行している道路が上り坂でない場合に比べて、第5ニューラルネットワークモデルに対応する学習領域の優先順位を高くする。
<学習領域番号変更処理>
第四実施形態では、図7〜図10の制御ルーチンに加えて、図14の制御ルーチンが実行される。図14は、本発明の第四実施形態における学習領域番号変更処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS801において、学習計画部81は、車両が走行している道路が上り坂であるか否かを判定する。例えば、学習計画部81は、GPS受信機92によって検出される車両の現在位置と、地図データベース93に記憶された地図情報とに基づいて、車両が走行している道路が上り坂であるか否かを判定する。
ステップS801において車両が走行している道路が上り坂ではないと判定された場合、本制御ルーチンはステップS803に進む。ステップS803では、学習計画部81は学習領域番号iを初期化する。すなわち、全ての学習領域の学習領域番号iが、予め定められた初期値に設定される。ステップS803の後、本制御ルーチンは終了する。
一方、ステップS801において道路が上り坂であると判定された場合、本制御ルーチンはステップS802に進む。ステップS802では、学習計画部81は学習領域番号iを初期値から変更する。具体的には、学習計画部81は、内燃機関1の出力トルクを出力する第5ニューラルネットワークモデルに対応する学習領域の学習領域番号iを小さくする。例えば、第6ニューラルネットワークモデル、第4ニューラルネットワークモデル、第3ニューラルネットワークモデル、第1ニューラルネットワークモデル、第2ニューラルネットワークモデル及び第5ニューラルネットワークモデルの順で、対応する学習領域の学習領域番号iが小さくされる。ステップS802の後、本制御ルーチンは終了する。
なお、車両が高速道路を走行している場合、所定範囲(例えば80km/h〜120km/h)の車両の速度の出現頻度が高くなる。このため、学習計画部81は、車両が走行している道路が高速道路である場合には、車両が走行している道路が高速道路でない場合に比べて、所定範囲の車両の速度を含む学習領域の優先順位を高くしてもよい。この場合、学習部83は、入力パラメータとして車両の速度を含むニューラルネットワークモデルの学習を行う。また、この場合、学習部83は一つのみのニューラルネットワークモデルの学習を行ってもよい。
<第五実施形態>
第五実施形態に係る機械学習装置は、以下に説明する点を除いて、基本的に第四実施形態に係る機械学習装置の構成及び制御と同様である。このため、以下、本発明の第五実施形態について、第四実施形態と異なる部分を中心に説明する。
第四実施形態のように、ニューラルネットワークモデルの対象が内燃機関1であり、異なる出力パラメータを出力する複数のニューラルネットワークモデルが学習される場合、ニューラルネットワークモデルの学習の優先順位は、内燃機関1の暖機状態に応じて変化する。このため、学習計画部81は、内燃機関1の暖機状態に基づいて、複数の学習領域に付与された学習の優先順位を変更する。このことによって、ニューラルネットワークモデルを内燃機関1の状態に適合させることができる。
内燃機関1の暖機が完了していない場合、触媒29の浄化性能が低下する。このため、排気エミッションの悪化を抑制すべく、排気ガス中の有害物質濃度(NOx、HC及びCO)の算出精度を向上させる必要がある。一方、内燃機関1の暖機が完了している場合には、車両の燃費が優先される。このため、学習計画部81は、内燃機関1の暖機が完了していない場合には、内燃機関1の暖機が完了している場合に比べて、排気ガス中の有害物質濃度を出力するニューラルネットワークモデル(第1ニューラルネットワークモデル〜第3ニューラルネットワークモデル)に対応する学習領域の優先順位を高くし、車両の燃費を出力するニューラルネットワークモデル(第4ニューラルネットワークモデル)に対応する学習領域の優先順位を低くする。
<学習領域番号変更処理>
第五実施形態では、図7〜図10の制御ルーチンに加えて、図15の制御ルーチンが実行される。図15は、本発明の第五実施形態における学習領域番号変更処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、ECU60によって所定の時間間隔で繰り返し実行される。
最初に、ステップS901において、学習計画部81は、内燃機関1の暖機状態を取得する。具体的には、学習計画部81は、内燃機関1の暖機が完了しているか否かを判定する。この判定は、例えば、内燃機関1に設けられた水温センサの出力、内燃機関1の排気通路に設けられた排気温センサの出力、エアフロメータ71の出力に基づいて算出される積算新気量等に基づいて行われる。
次いで、ステップS902において、学習計画部81は学習領域番号iを変更する。具体的には、学習計画部81は、内燃機関1の暖機が完了していない場合には、内燃機関1の暖機が完了している場合に比べて、排気ガス中の有害物質濃度を出力する第1ニューラルネットワークモデル〜第3ニューラルネットワークモデルに対応する学習領域の学習領域番号iを小さくし、車両の燃費を出力する第4ニューラルネットワークモデルに対応する学習領域の学習領域番号iを大きくする。
例えば、内燃機関1の暖機が完了していない場合、第6ニューラルネットワークモデル、第5ニューラルネットワークモデル、第4ニューラルネットワークモデル、第3ニューラルネットワークモデル、第2ニューラルネットワークモデル及び第1ニューラルネットワークモデルの順で、対応する学習領域の学習領域番号iが小さくされる。一方、内燃機関1の暖機が完了している場合、第6ニューラルネットワークモデル、第5ニューラルネットワークモデル、第3ニューラルネットワークモデル、第1ニューラルネットワークモデル、第2ニューラルネットワークモデル及び第4ニューラルネットワークモデルの順で、対応する学習領域の学習領域番号iが小さくされる。ステップS902の後、本制御ルーチンは終了する。
<その他の実施形態>
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。
例えば、ニューラルネットワークモデルの対象は、車両に関するものである限り、上述した内燃機関1以外であってもよい。例えば、ニューラルネットワークモデルの対象は、車両自体、圧縮自着火式内燃機関(ディーゼルエンジン)、トランスミッション等であってもよい。
また、機械学習装置を搭載する車両は、駆動源として電動機を備えるハイブリッド車両(HV)、プラグインハイブリッド車両(PHV)又は電気自動車(EV)であってもよい。この場合、ニューラルネットワークモデルの対象は、電動機、電動機に電力を供給するバッテリ等であってもよい。
また、ニューラルネットワークモデルの入力パラメータ及び出力パラメータとして、ニューラルネットワークモデルの対象に応じて様々なパラメータを用いることができる。入力パラメータ又は出力パラメータの実測値を検出するためのセンサは、入力パラメータ及び出力パラメータの種類に応じて選択される。
また、上述した実施形態は、任意に組み合わせて実施可能である。例えば、第四実施形態は第五実施形態と組合せ可能である。この場合、例えば、図14の制御ルーチンにおいて、ステップS803の代わりに図15のステップS901及びステップS902が実行される。
1 内燃機関
60 電子制御ユニット(ECU)
81 学習計画部
82 データセット作成部
83 学習部
84 停車期間予測部

Claims (5)

  1. 車両に設けられた機械学習装置であって、
    複数の入力パラメータから少なくとも一つの出力パラメータを出力するニューラルネットワークモデルの学習計画を作成する学習計画部と、
    前記複数の入力パラメータの実測値と、該実測値に対応する前記少なくとも一つの出力パラメータの実測値とを取得して訓練データセットを作成するデータセット作成部と、
    前記学習計画に基づいて、前記車両が停車しているときに前記訓練データセットを用いて前記ニューラルネットワークモデルの学習を行う学習部と、
    前記車両の停車期間を予測する停車期間予測部と
    を備え、
    前記データセット作成部は、前記複数の入力パラメータのそれぞれの範囲に基づいて定められた複数の学習領域に前記訓練データセットを振り分け、
    前記学習部は学習領域毎に前記ニューラルネットワークモデルの学習を行い、
    前記学習計画部は、前記停車期間において前記ニューラルネットワークモデルの学習が中断しないように、前記複数の学習領域を前記停車期間に割り当てる、機械学習装置。
  2. 前記複数の学習領域は、小学習領域と、該小学習領域を包含する大学習領域とを含み、該小学習領域及び該大学習領域は該小学習領域が該大学習領域よりもデータ密度が高くなるように定められ、
    前記学習計画部は前記小学習領域と前記大学習領域とを選択的に前記停車期間に割り当てる、請求項1に記載の機械学習装置。
  3. 前記複数の学習領域に学習の優先順位が付与されている、請求項1に記載の機械学習装置。
  4. 前記学習計画部は、出現頻度が相対的に高い前記入力パラメータの値を含む学習領域の学習の優先順位を、出現頻度が相対的に低い前記入力パラメータの値を含む学習領域の学習の優先順位よりも高くする、請求項3に記載の機械学習装置。
  5. 前記学習計画部は、前記車両が走行している道路の情報又は該車両に設けられた内燃機関の暖機状態に応じて前記学習の優先順位を変更する、請求項3に記載の機械学習装置。
JP2019009666A 2019-01-23 2019-01-23 機械学習装置 Expired - Fee Related JP6690743B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019009666A JP6690743B1 (ja) 2019-01-23 2019-01-23 機械学習装置
US16/729,483 US11442458B2 (en) 2019-01-23 2019-12-30 Machine learning system
CN202010071013.3A CN111476345B (zh) 2019-01-23 2020-01-21 机器学习装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019009666A JP6690743B1 (ja) 2019-01-23 2019-01-23 機械学習装置

Publications (2)

Publication Number Publication Date
JP6690743B1 true JP6690743B1 (ja) 2020-04-28
JP2020119246A JP2020119246A (ja) 2020-08-06

Family

ID=70413793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019009666A Expired - Fee Related JP6690743B1 (ja) 2019-01-23 2019-01-23 機械学習装置

Country Status (3)

Country Link
US (1) US11442458B2 (ja)
JP (1) JP6690743B1 (ja)
CN (1) CN111476345B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7088391B1 (ja) 2021-07-09 2022-06-21 トヨタ自動車株式会社 情報処理装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6741087B1 (ja) * 2019-02-01 2020-08-19 トヨタ自動車株式会社 内燃機関の制御装置、車載電子制御ユニット、機械学習システム、内燃機関の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
DE102019205521A1 (de) * 2019-04-16 2020-10-22 Robert Bosch Gmbh Verfahren zur Reduzierung von Abgasemissionen eines Antriebssystems eines Fahrzeugs mit Verbrennungsmotor
DE102019205520A1 (de) * 2019-04-16 2020-10-22 Robert Bosch Gmbh Verfahren zum Ermitteln von Fahrverläufen
JP7074166B2 (ja) * 2020-08-07 2022-05-24 トヨタ自動車株式会社 サーバ、車両の制御装置、および車両の機械学習システム
JP7010343B1 (ja) * 2020-08-20 2022-01-26 トヨタ自動車株式会社 機械学習装置
US20220207348A1 (en) * 2020-12-29 2022-06-30 Ford Global Technologies, Llc Real-time neural network retraining
US20230304430A1 (en) * 2022-03-25 2023-09-28 Ford Global Technologies, Llc System and methods for estimating emissions

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141315A (ja) * 1993-11-16 1995-06-02 Hitachi Ltd ニューラルネット学習方法および装置
JPH07220193A (ja) * 1994-01-28 1995-08-18 Nagoya Denki Kogyo Kk 交通状況判別装置
JP2002133390A (ja) * 2000-10-18 2002-05-10 Matsushita Electric Ind Co Ltd 学習装置および記録媒体
JP4930389B2 (ja) * 2008-01-18 2012-05-16 三菱自動車工業株式会社 空燃比制御装置及び空燃比制御方法
JP5426520B2 (ja) 2010-11-24 2014-02-26 本田技研工業株式会社 内燃機関の制御装置
JP5890727B2 (ja) * 2012-03-30 2016-03-22 ダイムラー・アクチェンゲゼルシャフトDaimler AG ハイブリッド車両の制御装置
US10482389B2 (en) * 2014-12-04 2019-11-19 Sap Se Parallel development and deployment for machine learning models
US9576250B2 (en) * 2015-02-24 2017-02-21 Xerox Corporation Method and system for simulating users in the context of a parking lot based on the automatic learning of a user choice decision function from historical data considering multiple user behavior profiles
JP6380448B2 (ja) * 2016-04-05 2018-08-29 トヨタ自動車株式会社 ハイブリッド車両
US10055675B2 (en) * 2016-06-15 2018-08-21 Ford Global Technologies, Llc Training algorithm for collision avoidance using auditory data
JP2017228086A (ja) * 2016-06-22 2017-12-28 富士通株式会社 機械学習管理プログラム、機械学習管理方法、および機械学習管理装置
CN106297383B (zh) * 2016-08-25 2021-01-22 华南师范大学 基于大数据和深度学习的停车诱导方法和系统
CN107203809A (zh) * 2017-04-20 2017-09-26 华中科技大学 一种基于Keras的深度学习自动化调参方法及系统
CN108961816B (zh) * 2018-07-19 2020-03-24 泰华智慧产业集团股份有限公司 基于优化lstm模型的道路停车泊位预测方法
CN109102118A (zh) * 2018-08-07 2018-12-28 王炳达 一种基于平行小波神经网络的风力发电功率预测方法
JP6702390B2 (ja) * 2018-10-09 2020-06-03 トヨタ自動車株式会社 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
JP6702389B2 (ja) * 2018-10-09 2020-06-03 トヨタ自動車株式会社 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
JP7231144B2 (ja) * 2019-07-17 2023-03-01 株式会社トランストロン エンジン制御装置及びそれが有するニューラルネットワークプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7088391B1 (ja) 2021-07-09 2022-06-21 トヨタ自動車株式会社 情報処理装置
JP2023010321A (ja) * 2021-07-09 2023-01-20 トヨタ自動車株式会社 情報処理装置

Also Published As

Publication number Publication date
CN111476345A (zh) 2020-07-31
US20200233427A1 (en) 2020-07-23
JP2020119246A (ja) 2020-08-06
CN111476345B (zh) 2023-06-30
US11442458B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP6690743B1 (ja) 機械学習装置
US8972145B2 (en) Systems and methods for predicting traffic signal information
JP6741057B2 (ja) 内燃機関の制御システム、電子制御ユニット、サーバ及び内燃機関の制御方法
Othman et al. Ecological traffic management: A review of the modeling and control strategies for improving environmental sustainability of road transportation
JP6702390B2 (ja) 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置
US20210285779A1 (en) 219-0086 Drive through Low-Emission-Zones: A Connected System to Reduce Emissions
Wei Modeling and control of a hybrid electric drivetrain for optimum fuel economy, performance and driveability
US10947909B2 (en) Control device of internal combustion engine and control method of same and learning model for controlling internal combustion engine and learning method of same
CN106029465A (zh) 移动辅助装置、移动辅助方法以及驾驶辅助系统
US20220063658A1 (en) Learning apparatus and model learning system
CN117980597A (zh) 用于交通工具系统的预测控制系统和方法
US20220058522A1 (en) Model learning system, model learning method, and server
US20210293557A1 (en) Methods and apparatus for ascertaining a driving route for a motor vehicle
Zheng et al. Study of multi-objective path planning method for vehicles
JP2020062914A (ja) 情報提供装置
JP2018003765A (ja) 内燃機関の制御装置
US11034345B2 (en) Systems and methods for vehicle operation
JP2022067454A (ja) 車両制御支援システム
US20200347793A1 (en) Method and device for controlling a fill level of a catalytic converter for an internal combustion engine
Oswald et al. Development of an innovation corridor testbed for shared electric connected and automated transportation
Pulvirenti et al. Eco-driving Optimization Based on Dynamic Programming and Vehicle Connectivity in a Real-World Scenario
Jurgen Electronic engine control technologies
Pandey Online control of automotive systems for improved real-world performance
JP2020173716A (ja) 車載制御装置
JP2022038241A (ja) 配車システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R151 Written notification of patent or utility model registration

Ref document number: 6690743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees