JP2021196777A - 機械学習装置、機械学習システム、機械学習方法、及びプログラム - Google Patents
機械学習装置、機械学習システム、機械学習方法、及びプログラム Download PDFInfo
- Publication number
- JP2021196777A JP2021196777A JP2020101906A JP2020101906A JP2021196777A JP 2021196777 A JP2021196777 A JP 2021196777A JP 2020101906 A JP2020101906 A JP 2020101906A JP 2020101906 A JP2020101906 A JP 2020101906A JP 2021196777 A JP2021196777 A JP 2021196777A
- Authority
- JP
- Japan
- Prior art keywords
- data
- collection
- machine learning
- parameter
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 80
- 238000004891 communication Methods 0.000 claims description 36
- 230000007613 environmental effect Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 description 25
- 238000000034 method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 4
- 239000000446 fuel Substances 0.000 description 4
- 238000000746 purification Methods 0.000 description 4
- 239000003054 catalyst Substances 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000004215 Carbon black (E152) Substances 0.000 description 1
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229930195733 hydrocarbon Natural products 0.000 description 1
- 150000002430 hydrocarbons Chemical class 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
Abstract
【課題】複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習装置、機械学習システム、機械学習方法、及びプログラムを提供すること。【解決手段】機械学習装置は、複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得する取得部と、前記第3データから特定のデータを選定する選定部と、前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成する学習部と、を備え、前記選定部は、前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが所定基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する。【選択図】図1
Description
本発明は、機械学習装置、機械学習システム、機械学習方法、及びプログラムに関する。
機器の特性を予測する際に、学習済みモデルが用いられる場合がある。特許文献1に記載の技術では、機器は、収集した様々なパラメータのデータをサーバに送信する。サーバは、受信したデータから作成した教師データを用いて機械学習を行い、これにより生成した学習済みモデルを機器に送信する。機器は、受信した学習済みモデルを用いて特性の予測を行う。このような学習済みモデルを搭載した機器としては、車両等の輸送機器や、ロボット機器等がある。
一般に、機械学習においては、教師データの数が多い方が、学習精度が高くなる。教師データを増やす方法として、複数の機器から教師データ又は教師データを作成するためのデータを収集する方法が考えられる。しかしながら、様々な機器から収集したデータの全てを機械学習に用いると、かえって学習精度の低下を招くおそれがある。学習精度の低下は、例えば、データを収集した機器と学習済みモデルを用いる機器とで種類が異なる場合に、教師データに有意でないバラつきが生じることで起こり得る。また、同じ種類の機器であっても、データを収集した条件と学習済みモデルを用いる条件とが異なる場合等も、学習精度の低下を招くおそれがある。
本発明は、上記に鑑みてなされたものであって、複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習装置、機械学習システム、機械学習方法、及びプログラムを提供することを目的とする。
本発明の一態様は、複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得する取得部と、前記第3データから特定のデータを選定する選定部と、前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成する学習部と、を備え、前記選定部は、前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが所定基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する、機械学習装置である。
これにより、機械学習装置は、対象機器に対して使用される学習済みモデルを生成するときに、複数の収集機器について収集されたパラメータデータ及びパラメータデータから作成した教師データの少なくとも一方から、学習済みモデルの使用条件に近い収集条件に紐づけられたデータを選定し、選定したデータを用いて機械学習を行うので、複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習装置を実現できる。
前記機械学習装置において、前記収集条件は、前記収集機器が有する特性を表す条件、前記収集機器の使用条件、及び前記収集機器の環境条件の少なくとも一つを含み、前記使用条件は、前記対象機器が有する特性を表す条件、及び前記対象機器の環境条件の少なくとも一つを含んでもよい。
これにより、機械学習装置は、様々な収集条件又は使用条件に基づいてデータを選定することができる。
前記機械学習装置は、前記学習済みモデルを前記対象機器に送信する通信部を備えていてもよい。
これにより、対象機器は、機械学習装置から送信された学習済みモデルを自車両にて使用することができる。
本発明の一態様は、前記収集機器についての前記パラメータデータを収集する収集装置と、前記対象機器において前記学習済みモデルを使用する対象装置と、前記機械学習装置と、を備える機械学習システムである。
これにより、複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習システムを実現できる。
前記機械学習システムにおいて、前記収集機器及び前記対象機器は輸送機器でもよい。
これにより、車両等の輸送機器を含む機械学習システムを実現できる。
前記機械学習システムにおいて、前記機械学習装置はサーバ装置に設けられていてもよい。
これにより、サーバ装置は、機械学習のためのデータの取得と学習済みモデルの作成とを一元的に行うことができる。
前記機械学習システムにおいて、前記収集装置は、前記パラメータデータから前記教師データを作成する教師データ作成部を備えてもよい。
これにより、収集装置は、パラメータデータ収集の機能とともに、教師データ作成の機能を担うことができる。
本発明の一態様は、複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得し、前記第3データを記憶部に格納し、前記第3データから特定のデータを選定し、前記記憶部から読み出した前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成すること、を備え、前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する、機械学習方法である。
これにより、複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習方法を実現できる。
本発明の一態様は、ハードウェアを有するプロセッサに、複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得し、前記第3データを記憶部に格納し、前記第3データから特定のデータを選定し、前記記憶部から読み出した前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成する、ことを実行させ、前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する、プログラムである。
これにより、複数の機器からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習方法をプロセッサに実行させることができる。
本発明によれば、教師データの数を増やしながら、学習精度を高くできる。
以下、図面を参照して、本発明の実施形態について具体的に説明する。なお、図面において、同一又は対応する構成要素には適宜同一符号を付し、重複説明を省略する。
<システムの構成>
図1は、実施形態に係る機械学習システムの構成を示す模式図である。機械学習システム1000は、複数の収集車両100と、サーバ装置200と、対象車両300とを備えている。
図1は、実施形態に係る機械学習システムの構成を示す模式図である。機械学習システム1000は、複数の収集車両100と、サーバ装置200と、対象車両300とを備えている。
<収集車両>
複数の収集車両100は、それぞれ、収集装置110と、センサ群120と、制御対象群130と、を備えている。収集装置110と、センサ群120と、制御対象群130とは、CAN(Controller Area Network)等の車載ネットワークによって、相互に通信可能に接続されている。収集装置110は、制御部111と、記憶部112と、通信部113とを備えている。収集車両100は、収集機器の一例であって、輸送機器の一例である。
複数の収集車両100は、それぞれ、収集装置110と、センサ群120と、制御対象群130と、を備えている。収集装置110と、センサ群120と、制御対象群130とは、CAN(Controller Area Network)等の車載ネットワークによって、相互に通信可能に接続されている。収集装置110は、制御部111と、記憶部112と、通信部113とを備えている。収集車両100は、収集機器の一例であって、輸送機器の一例である。
制御部111は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)等のプロセッサ、及びRAM(Random Access Memory)やROM(Read Only Memory)等の主記憶部を備える。制御部111は、記憶部112に記憶されたプログラムを主記憶部の作業領域に読み出して実行し、プロセッサによるプログラムの実行を通じて各構成部等を制御することで、ハードウェアとソフトウェアとが協働し、所定の目的に合致した機能モジュールを実現する。
制御部111は、機能モジュールとして、取得部111aと、条件特定部111bと、教師データ作成部111cと、送信データ生成部111dと、制御部111eとを備えている。取得部111aは、センサ群120から、収集車両100の状態や特性を表す各種のパラメータデータを収集する。条件特定部111bは、パラメータデータの収集条件を特定する。条件特定部111bは、例えば、パラメータデータの収集条件を表す収集条件データを生成することによって、収集条件を特定する。教師データ作成部111cは、収集されたパラメータデータをもとに教師データを作成する。送信データ生成部111dは、教師データと収集条件データとを含む送信データを生成する。送信データ生成部111dは、送信データを生成する際に、教師データと収集条件データとを紐づける。制御部111eは、例えば、パラメータデータをもとに収集車両100の状態や特性を判定し、判定結果をもとに制御対象群130を制御する。
教師データは第1データの一例であり、収集条件データは第2データの一例であり、送信データは第3データの一例である。
記憶部112は、RAM、ハードディスクドライブ(HDD、Hard Disk Drive)、又はリムーバブルメディア等の記憶媒体で構成され、補助記憶部とも呼ばれる。なお、リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、又は、CD(Compact Disc)、DVD(Digital Versatile Disc)、及びBD(Blu-ray(登録商標) Disc)のようなディスク記録媒体である。また、記憶部112は、外部から装着可能なメモリカード等のコンピュータ読み取り可能な記録媒体を用いて構成され得る。記憶部112には、収集装置110の機能を実現するための、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル、各種データベース等は、予め記憶されていたり、通信ネットワーク経由でダウンロードされることによって記憶されたりする。
通信部113は、例えばDCM(Data Communication Module)を含んで構成され、通信ネットワークNを介した無線通信により、サーバ装置200と通信を行う。通信部113は、送信データをサーバ装置200に送信する。通信ネットワークNは、例えば公衆通信網であるインターネット回線網等である。
センサ群120は、収集車両100の状態や特性を測定する複数のセンサからなる。センサ群120は、測定結果をパラメータデータとして収集装置110に送信する。
パラメータデータは、収集車両100の状態や特性を表すデータであり、例えば、収集車両100の走行に関わる状態や特性を表すデータである。パラメータデータには、例えば、収集車両100が有する特性を表すパラメータデータ、収集車両100の使用条件を表すパラメータデータ、又は収集車両100の環境条件を表すパラメータデータがある。収集車両100が有する特性を表すパラメータデータは、例えば、車種や分類(SUV(Sport Utility Vehicle)等)を表すデータ、駆動方式(電動車、ハイブリッド車等)やパワートレインシステムの特性を表すデータ、自動運転車両であるかを表すデータ等がある。さらに、収集車両100が内燃機関を搭載する場合、収集車両100が有する特性を表すパラメータデータとして、例えば、機関回転数、機関の負荷率、機関の空燃比、機関の点火時期、排気浄化に流入する排気ガス中のHC(炭化水素)濃度、CO(一酸化炭素)濃度、排気浄化触媒の温度等がある。収集車両100の使用条件を表すパラメータデータとしては、収集車両100の乗車人数、運転者の属性(例えば、年齢、性別、家族構成)、走行場所、走行時間帯、走行時期(季節等)等を表すデータがある。収集車両100の環境条件を表すパラメータデータとしては、標高、気温、気圧、天候等を表すデータがある。
上記に例示したパラメータデータの例は、いずれも収集条件データになり得る。条件特定部111bは、例えば、特定のパラメータデータに対して影響を与えるパラメータデータを、収集条件データとして選択することによって、収集条件を特定する。例えば、特定のパラメータデータに対して影響の程度が高いパラメータデータが、収集条件データとして優先的に選択される。また、異なる収集条件データセットの間で、収集条件データとして選択されるパラメータデータの共通性が高い場合に、それらの収集条件データセットにより表される収集条件は近いということができるので、収集条件の近さの判定に使用することができる。
制御対象群130は、パラメータデータをもとに制御部111eによって制御される。制御対象群130は、収集車両100に搭載された各種装置を含み、例えば、収集車両100の走行に関わる各種装置を含む。制御対象群130は、収集車両100が内燃機関を搭載する場合、例えば、点火装置、燃料噴射弁、スロットル弁駆動用アクチュエータ、EGR(Exhaust Gas Recirculation)制御弁、燃料ポンプ等を含む。また、制御対象群130は、パラメータデータをもとに情報の表示を行う表示装置を含んでいてもよい。
<サーバ装置>
サーバ装置200は、機械学習装置が設けられたサーバ装置の一例であって、機械学習装置の構成要素として、制御部210と、記憶部220と、通信部230とを備えている。
サーバ装置200は、機械学習装置が設けられたサーバ装置の一例であって、機械学習装置の構成要素として、制御部210と、記憶部220と、通信部230とを備えている。
制御部210は、収集車両100の制御部111と同様に、プロセッサ及び主記憶部を備える。制御部210は、記憶部220に記憶されたプログラムを主記憶部の作業領域に読み出して実行し、プログラムの実行を通じて各構成部等を制御することで、所定の目的に合致した機能モジュールを実現する。
制御部210は、機能モジュールとして、取得部211と、選定部212と、学習部213とを備えている。取得部211は、複数の収集車両100から通信ネットワークNを介して送信された送信データを取得する。選定部212は、送信データから特定のデータを選定する。以降、当該選定されたデータを選定データと記載する場合がある。学習部213は、選定データを用いて機械学習を行い、対象車両300に対して使用される学習済みモデルを生成する。
記憶部220は、収集車両100の記憶部112と同様の記憶媒体で構成される。記憶部220には、サーバ装置200の機能を実現するためのOS、各種プログラム、各種テーブル、各種データベース等が記憶され得る。また、記憶部220は、学習部213が生成した学習済みモデルを記憶する。
通信部230は、例えばLAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路を含んで構成され、通信ネットワークNを介した無線通信により、複数の収集車両100及び対象車両300と通信を行う。例えば、通信部230は、複数の収集車両100から送信された送信データを受信する。
<対象車両>
対象車両300は、対象装置310と、センサ群320と、制御対象群330と、を備えている。対象装置310と、センサ群320と、制御対象群330とは、車載ネットワークによって、相互に通信可能に接続されている。対象装置310は、制御部311と、記憶部312と、通信部313とを備えている。対象車両300は、対象機器の一例であって、輸送機器の一例である。
対象車両300は、対象装置310と、センサ群320と、制御対象群330と、を備えている。対象装置310と、センサ群320と、制御対象群330とは、車載ネットワークによって、相互に通信可能に接続されている。対象装置310は、制御部311と、記憶部312と、通信部313とを備えている。対象車両300は、対象機器の一例であって、輸送機器の一例である。
制御部311は、収集車両100の制御部111と同様に、プロセッサ及び主記憶部を備える。制御部311は、記憶部312に記憶されたプログラムを主記憶部の作業領域に読み出して実行し、プログラムの実行を通じて各構成部等を制御することで、所定の目的に合致した機能モジュールを実現する。また、後述するように、記憶部312は学習済みモデル312aを記憶している。
制御部311は、機能モジュールとして、取得部311aと、条件特定部311bと、制御部311cとを備えている。取得部311aは、センサ群320から、対象車両300の状態や特性を表す各種のパラメータデータを収集する。条件特定部311bは、対象車両300に対する学習済みモデル321の使用条件を特定し、その使用条件を表す使用条件データを生成する。制御部311cは、例えば、学習済みモデル312aを用いて予測した特性をもとに、制御対象群330を制御する。制御対象群330の制御は、対象装置310における学習済みモデル312aの使用態様の一例である。
記憶部312は、収集車両100の記憶部112と同様の記憶媒体で構成される。記憶部312には、対象装置310の機能を実現するためのOS、各種プログラム、各種テーブル、各種データベース等が記憶され得る。また、記憶部312は学習済みモデル312aを記憶している。記憶部312が学習済みモデル312aを記憶しているとは、学習済みモデル312aにおけるネットワークパラメータや演算のアルゴリズム等の情報を記憶していることを意味する。また、以下、学習済みモデルを送信する、受信する、又は読み出す等についても同様に、ネットワークパラメータや演算のアルゴリズム等の情報を送信する、受信する、又は読み出す等を意味する。
通信部313は、例えばDCMを含んで構成され、通信ネットワークNを介した無線通信により、サーバ装置200と通信を行う。通信部313は、例えば、使用条件データをサーバ装置200に送信する。
センサ群320は、対象車両300の状態や特性を測定する複数のセンサからなる。センサ群320は、測定結果をパラメータデータとして対象装置310に送信する。
パラメータデータは、対象車両300の状態や特性を表すデータであり、例えば、対象車両300の走行に関わる状態や特性を表すデータである。パラメータデータとしては、収集車両100のパラメータデータとして上記に例示されたものがある。すなわち、パラメータデータには、例えば、対象車両300が有する特性を表すパラメータデータ、又は対象車両300の環境条件を表すパラメータデータがある。また、例示されたパラメータデータは、いずれも使用条件データになり得る。条件特定部311bは、例えば、特定のパラメータデータに対して影響を与えるパラメータデータを、使用条件データとして選択することによって、使用条件を特定する。例えば、特定のパラメータデータに対して影響の程度が高いパラメータデータが、使用条件データとして優先的に選択される。
制御対象群330は、パラメータデータをもとに制御部311cによって制御される。制御対象群330は、対象車両300に搭載された各種装置を含み、例えば、対象車両300の走行に関わる各種装置を含む。また、制御対象群330は、パラメータデータや学習済みモデル312aによる予測をもとに情報の表示を行う表示装置を含んでいてもよい。
<機械学習の例>
次に、サーバ装置200の学習部213が実行する機械学習の方法の一例として、ニューラルネットワークを用いた深層学習について説明する。図2は、学習部213が学習するニューラルネットワークの構成を示す模式図である。ニューラルネットワークNNは、順伝播型ニューラルネットワークであり、入力層NN1と、中間層NN2と、出力層NN3とを有する。入力層NN1は複数のノードからなり、各ノードには互いに異なる入力パラメータが入力される。中間層NN2は入力層NN1からの出力が入力される。中間層NN2は、入力層NN1からの入力を受ける複数のノードからなる層を含む多層の構造を有する。出力層NN3は、中間層NN2からの出力が入力され、出力パラメータを出力する。中間層NN2が多層構造を有するニューラルネットワークを用いた機械学習は、深層学習と呼ばれる。
次に、サーバ装置200の学習部213が実行する機械学習の方法の一例として、ニューラルネットワークを用いた深層学習について説明する。図2は、学習部213が学習するニューラルネットワークの構成を示す模式図である。ニューラルネットワークNNは、順伝播型ニューラルネットワークであり、入力層NN1と、中間層NN2と、出力層NN3とを有する。入力層NN1は複数のノードからなり、各ノードには互いに異なる入力パラメータが入力される。中間層NN2は入力層NN1からの出力が入力される。中間層NN2は、入力層NN1からの入力を受ける複数のノードからなる層を含む多層の構造を有する。出力層NN3は、中間層NN2からの出力が入力され、出力パラメータを出力する。中間層NN2が多層構造を有するニューラルネットワークを用いた機械学習は、深層学習と呼ばれる。
図3は、ニューラルネットワークNNが有するノードにおける入出力の概要を説明する図である。図3においては、ニューラルネットワークNNのうち、I個のノードを有する入力層NN1と、J個のノードを有する第1中間層NN21と、K個のノードを有する第2中間層NN22におけるデータの入出力の一部を模式的に示している(I、J、Kは正の整数)。入力層NN1の上からi番目のノードには、入力パラメータxi(i=1,2,…,I)が入力される。以下、全ての入力パラメータの集合を「入力パラメータ{xi}」と記載する。
入力層NN1の各ノードは、隣接する第1中間層NN21の各ノードに対し、入力パラメータに所定の重みを乗じた値を有する信号を出力する。例えば、入力層NN1の上からi番目のノードは、第1中間層NN21の上からj番目(j=1,2,…,J)のノードに対して、入力パラメータxiに重みαijを乗じた値αijxiを有する信号を出力する。第1中間層NN21の上からj番目のノードには、合計で入力層NN1の各ノードからの出力に所定のバイアスb(1) jを加えた値Σi=1〜Iαijxi+b(1) jが入力される。ここで第1項目のΣi=1〜Iは、i=1,2,…,Iの和を取ることを意味する。
第1中間層NN21の上からj番目のノードの出力値yjは、そのノードへの入力層NN1からの入力値Σi=1〜Iαijxi+b(1) jの関数として、yj=S(Σi=1〜Iαijxi+b(1) j)と表される。この関数Sは活性化関数と呼ばれる。具体的な活性化関数として、例えばシグモイド関数S(u)=1/{1+exp(−u)}や正規化線形関数(ReLU)S(u)=max(0,u)等を挙げることができる。活性化関数は、非線形関数が用いられることが多い。
第1中間層NN21の各ノードは、隣接する第2中間層NN22の各ノードに対し、入力パラメータに所定の重みを乗じた値を有する信号を出力する。例えば、第1中間層NN21の上からj番目のノードは、第2中間層NN22の上からk番目(k=1,2,…,K)のノードに対して、入力値yjに重みβjkを乗じた値βjkyjを有する信号を出力する。第2中間層NN22の上からk番目のノードには、合計で第1中間層NN21の各ノードからの出力に所定のバイアスb(2) kを加えた値Σj=1〜Jβjkyj+b(2) kが入力される。ここで第1項目のΣj=1〜Jは、j=1,2,…,Jの和を取ることを意味する。
第2中間層NN22の上からk番目のノードの出力値zkは、そのノードへの第1中間層NN21からの入力値Σj=1〜Jβjkyj+b(2) kを変数とする活性化関数を用いて、zk=S(Σj=1〜Jβjkyj+b(2) k)と表される。
上述したように、入力層NN1の側から出力層NN3の側へ向かう順方向に沿って順次繰り返すことにより、最終的に出力層NN3から一つの出力パラメータYが出力される。ニューラルネットワークNNが含む重み及びバイアスは、まとめてネットワークパラメータwとも呼ばれる。このネットワークパラメータwは、ニューラルネットワークNNの全ての重み及びバイアスを成分とするベクトルである。
学習部213は、入力パラメータ{xi}をニューラルネットワークNNへ入力することによって算出した出力パラメータYと、入力パラメータ{xi}とともに入出力データセットを構成する出力パラメータ(目標出力)Y0とに基づいて、ネットワークパラメータを更新する演算を行う。具体的には、2つの出力パラメータYとY0との誤差を最小化するための演算を行うことによってネットワークパラメータwを更新する。この際には、確率的勾配降下法がよく用いられる。以下、入力パラメータ{xi}及び出力パラメータYの組({xi},Y)を総称して「教師データ」という。
確率的勾配降下法では、ネットワークパラメータwを、自動又は手動で定まる所定の学習率ηを用いて、w’=w−η∇wE(w)、w’’=w’−η∇w’E(w’)、…と順次更新する。なお、学習率ηは、学習の途中で変更してもよい。学習部213は、上述した更新処理を繰り返す。これにより、誤差関数E(w)は徐々に極小点に近づいていく。なお、より一般的な確率的勾配降下法の場合、誤差関数E(w)は、全教師データを含むサンプルの中からランダムに抽出することによって更新処理のたびに定義され、本実施形態においても適用可能である。
<収集装置及びサーバ装置における処理シーケンス>
図4は、収集装置110及びサーバ装置200において実行される処理を示すシーケンス図である。当該シーケンスは例えば所定の周期で繰り返し実行される。なお、図4では1つの収集装置110の処理について説明しているが、各収集車両100の収集装置110において同様に処理が実行される。
図4は、収集装置110及びサーバ装置200において実行される処理を示すシーケンス図である。当該シーケンスは例えば所定の周期で繰り返し実行される。なお、図4では1つの収集装置110の処理について説明しているが、各収集車両100の収集装置110において同様に処理が実行される。
はじめに、ステップS101において、収集装置110の制御部111は、取得部111aが、教師データの作成に必要なパラメータデータを収集したかを判定する。収集していないと判定した場合(ステップS101:No)、制御部111は処理を終了する。収集したと判定した場合(ステップS101:Yes)、シーケンスはステップS102に進む。
ステップS102において、教師データ作成部111cは、収集されたパラメータデータをもとに教師データを作成する。例えば、機械学習によって排気浄化触媒の温度を予測する際には、機関回転数、機関の負荷率、機関の空燃比、機関の点火時期、排気浄化に流入する排気ガス中のHC濃度、CO濃度、及び排気浄化触媒の温度のパラメータデータセットが教師データと成り得る。教師データ作成部111cは、教師データを作成する際に、欠損データの削除や補完、データの規格化や標準化等の前処理を適宜行う。
続いて、ステップS103において、条件特定部111bは、パラメータデータの収集条件を表す収集条件データを生成することによって、収集条件を特定する。条件特定部111bは、例えば、教師データ作成部111cが作成する教師データを構成するパラメータデータ(入力パラメータ又は出力パラメータ)に対して影響を与えるパラメータデータを、収集条件データとして選択することによって、収集条件を特定する。例えば、教師データを構成するパラメータデータに対して影響の程度が高いパラメータデータが、収集条件データとして優先的に選択される。
続いて、ステップS104において、送信データ生成部111dは、教師データと収集条件データとを紐づけて、教師データと収集条件データとを含む送信データを生成する。送信データ生成部111dは生成した送信データを記憶部112に格納する。
続いて、ステップS105において、制御部111は、記憶部112に送信データが所定量以上蓄積されたかを判定する。所定量を表すデータは記憶部112に格納されている。蓄積されていないと判定した場合(ステップS105:No)、制御部111は処理を終了する。蓄積されたと判定した場合(ステップS105:Yes)、シーケンスはステップS106に進む。
ステップS106において、制御部111は、記憶部112から送信データを読み出し、通信部113に送信データを送信させる。したがって、ステップS105における所定量とは、送信データの送信のタイミングを設定するための量である。その後収集装置110のシーケンスは終了する。
サーバ装置200では、通信部113から送信された送信データを通信部230が受信すると、ステップS107において、制御部210が送信データを記憶部220に格納する。記憶部220は、複数の収集装置110から送信された複数の送信データを記憶する。すなわち、記憶部220は、複数の収集装置110において収集されたパラメータデータから作成された複数の教師データ、及び、各教師データに紐づけられた収集条件データを記憶する。
<対象装置及びサーバ装置における処理シーケンス>
図5は、対象装置310及びサーバ装置200において実行される処理を示すシーケンス図である。当該シーケンスは例えば所定の周期で繰り返し実行される。
図5は、対象装置310及びサーバ装置200において実行される処理を示すシーケンス図である。当該シーケンスは例えば所定の周期で繰り返し実行される。
はじめに、ステップS201において、対象装置310の制御部311は、対象装置310において学習済みモデルの受信が必要であるかを判定する。例えば、現に記憶部312に記憶されている学習済みモデル312aの作成日時や前回の更新日時から所定期間が経過したと判定した場合や、現に記憶部312に格納されている学習済みモデル312aとは異なる学習済みモデルが必要であると判定した場合には、制御部311は学習済みモデルの受信が必要であると判定する。学習済みモデルの受信が必要ではないと判定した場合(ステップS201:No)、制御部311は処理を終了する。学習済みモデルの受信が必要であると判定した場合(ステップS201:Yes)、シーケンスはステップS202に進む。
ステップS202において、条件特定部311bは、対象車両300に対する学習済みモデル321の使用条件を表す使用条件データを生成することによって、使用条件を特定する。条件特定部311bは、例えば、学習済みモデル312aの入力パラメータ又は出力パラメータに対して影響を与えるパラメータデータを選択して使用条件データを生成することによって、使用条件を特定する。例えば、学習済みモデル312aの入力パラメータ又は出力パラメータに対して影響の程度が高いパラメータデータが、使用条件データとして優先的に選択される。条件特定部311bは、生成した使用条件データを記憶部312に格納する。
続いて、ステップS203において、制御部311は、記憶部312から使用条件データを読み出し、通信部313に使用条件データを送信させる。
サーバ装置200では、通信部313から送信された使用条件データを通信部230が受信すると、制御部210は使用条件データを記憶部220に格納する。
続いて、ステップS204において、制御部210の選定部212は、記憶部220に記憶された複数の送信データに含まれる収集条件データのうち、使用条件データと近い収集条件データを選定し、さらにその選択した収集条件データに紐づけられた教師データを選定する。選択された教師データは、選定部212が送信データから選択する特定のデータの一例である。
選定される収集条件データは、使用条件データに対して所定基準よりも近い収集条件データである。使用条件データと収集条件データとの近さについては、例えばデータ間の距離、類似度、相関係数等の様々な指標を用いて判定される。また、所定基準については、例えば、要求させる学習精度に応じて設定され、例えば予め記憶部220に記憶されている。
続いて、ステップS205において、制御部210の学習部213は、選定された教師データを用いて、上述した方法等によって機械学習を行い、学習済みモデルを生成する。制御部210は、生成された学習済みモデルを記憶部220に格納する。
続いて、ステップS206において、制御部210は、記憶部220から学習済みモデルを読み出して、通信部230に送信させる。その後サーバ装置200は処理を終了する。
続いて、ステップS207において、対象装置310の通信部313は、サーバ装置200からの学習済みモデルを受信し、制御部311は学習済みモデルを記憶部312に格納し、対象装置310に反映させる。なお、本実施形態では、記憶部312には従前に学習済みモデル312aが記憶されている。この場合、対象装置310への学習済みモデルの反映は、例えば以下のように行われる。すなわち、例えば、制御部311は、従前の学習済みモデルを削除し、サーバ装置200から受信した最新の学習済みモデルを学習済みモデル312aとして置き換える更新処理を行ってもよい。また、制御部311は、従前の学習済みモデルの一部又は全部を残して最新の学習済みモデルを書き込む蓄積処理を行い、新たな学習済みモデル312aを構築してもよい。その後対象装置310は処理を終了する。
対象装置310は、サーバ装置200にて生成され学習済みモデルを利用して、例えばより適正な制御対象群330の制御を実施することができる。
以上説明した、機械学習装置を有する機械学習システム1000では、対象車両300に対して使用される学習済みモデルを生成するときに、複数の収集車両100について収集装置110にて収集されたパラメータデータから作成した教師データから、学習済みモデルの使用条件に近い収集条件に紐づけられた教師データを選定し、選定したデータを用いて機械学習を行う。その結果、複数の収集車両100からパラメータデータを取得して教師データの数を増やしながら、学習精度が高い機械学習装置を実現できる。
また、収集条件は、収集車両100が有する特性を表す条件、収集車両100の使用条件、及び収集車両100の環境条件の少なくとも一つを含み、使用条件は、対象車両300が有する特性を表す条件、及び対象車両300の環境条件の少なくとも一つを含んでいるので、様々な収集条件又は使用条件に基づいて教師データを選定することができる。
また、機械学習装置は、学習済みモデルを対象車両300に送信する通信部230を備えているので、対象車両300は、機械学習装置から送信された学習済みモデルを自車両にて使用することができる。
また、機械学習システム1000では、サーバ装置200が、機械学習のためのデータの取得と学習済みモデルの作成とを一元的に行うことができる。
また、収集装置110は、教師データ作成部111cを備えているので、パラメータデータ収集の機能とともに、教師データ作成の機能を担うことができる。
なお、上記実施形態では、収集装置110が教師データ作成部111cを備えているが、機械学習装置が、教師データ作成部を備えていてもよい。この場合、収集装置は、収集されたパラメータデータである第1データと、第1データと紐づけられた、パラメータデータの収集条件データである第2データと、を含む第3データを、送信データとして機械学習装置に送信する。機械学習装置では、選定部が、第3データから特定のデータを選定し、データ教師データ作成部が、当該特定のデータをもとに教師データを作成する。また、収集装置と機械学習装置とが、教師データ作成機能を分散して有していてもよい。この場合、第1データは、パラメータデータと教師データとの両方を含み得る。
また、機械学習装置は、通信ネットワークNに接続されたサーバ装置以外の他の装置の一つに設けられていてもよいし、機械学習装置の構成要素が、通信ネットワークNに接続された他の複数の装置に分散されて設けられていてもよい。他の装置とは、例えば、収集装置や対象装置や他のコンピュータ装置等である。
また、収集装置は、収集車両に搭載されず、収集車両から通信ネットワークを介してパラメータデータを収集してもよい。
また、上記実施形態において、収集車両や対象車両は、他の輸送機器やロボット機器に置き換えることができる。
また、上記実施形態により本発明が限定されるものではない。上述した各構成要素を適宜組み合わせて構成したものも本発明に含まれる。また、さらなる効果や変形例は、当業者によって容易に導き出すことができる。よって、本発明のより広範な態様は、上記の実施形態に限定されるものではなく、様々な変更が可能である。
200 :サーバ装置(機械学習装置)
211 :取得部
212 :選定部
213 :学習部
211 :取得部
212 :選定部
213 :学習部
Claims (9)
- 複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得する取得部と、
前記第3データから特定のデータを選定する選定部と、
前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成する学習部と、
を備え、
前記選定部は、前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが所定基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する
機械学習装置。 - 前記収集条件は、前記収集機器が有する特性を表す条件、前記収集機器の使用条件、及び前記収集機器の環境条件の少なくとも一つを含み、
前記使用条件は、前記対象機器が有する特性を表す条件、及び前記対象機器の環境条件の少なくとも一つを含む
請求項1に記載の機械学習装置。 - 前記学習済みモデルを前記対象機器に送信する通信部を備える
請求項1又は2に記載の機械学習装置。 - 前記収集機器についての前記パラメータデータを収集する収集装置と、
前記対象機器において前記学習済みモデルを使用する対象装置と、
請求項1〜3のいずれか一つに記載の機械学習装置と、
を備える機械学習システム。 - 前記収集機器又は前記対象機器は輸送機器である
請求項4に記載の機械学習システム。 - 前記機械学習装置はサーバ装置に設けられている
請求項4又は5に記載の機械学習システム。 - 前記収集装置は、前記パラメータデータから前記教師データを作成する教師データ作成部を備える
請求項4〜6のいずれか一つに記載の機械学習システム。 - 複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得し、
前記第3データを記憶部に格納し、
前記第3データから特定のデータを選定し、
前記記憶部から読み出した前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成すること、
を備え、
前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する
機械学習方法。 - ハードウェアを有するプロセッサに、
複数の収集機器について収集されたパラメータデータ及び前記パラメータデータから作成した教師データの少なくとも一方を含む第1データと、前記第1データと紐づけられた、前記パラメータデータの収集条件を表す第2データと、を含む第3データを取得し、
前記第3データを記憶部に格納し、
前記第3データから特定のデータを選定し、
前記記憶部から読み出した前記特定のデータを用いて機械学習を行い、対象機器に対して使用される学習済みモデルを生成する、
ことを実行させ、
前記対象機器に対する前記学習済みモデルの使用条件と前記収集機器における前記収集条件とが基準よりも近い前記収集条件に紐づけられた前記特定のデータを選定する
プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020101906A JP2021196777A (ja) | 2020-06-11 | 2020-06-11 | 機械学習装置、機械学習システム、機械学習方法、及びプログラム |
DE102021114119.2A DE102021114119A1 (de) | 2020-06-11 | 2021-06-01 | Vorrichtung für maschinelles lernen, system für maschinelles lernen, verfahren für maschinelles lernen und programm |
CN202110625161.XA CN113805480A (zh) | 2020-06-11 | 2021-06-04 | 机器学习装置、机器学习系统、机器学习方法及存储介质 |
US17/343,736 US20210390406A1 (en) | 2020-06-11 | 2021-06-10 | Machine learning apparatus, machine learning system, machine learning method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020101906A JP2021196777A (ja) | 2020-06-11 | 2020-06-11 | 機械学習装置、機械学習システム、機械学習方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021196777A true JP2021196777A (ja) | 2021-12-27 |
Family
ID=78718895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020101906A Pending JP2021196777A (ja) | 2020-06-11 | 2020-06-11 | 機械学習装置、機械学習システム、機械学習方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210390406A1 (ja) |
JP (1) | JP2021196777A (ja) |
CN (1) | CN113805480A (ja) |
DE (1) | DE102021114119A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124617A (ja) * | 2017-01-30 | 2018-08-09 | 三菱重工業株式会社 | 教師データ収集装置、教師データ収集方法、及びプログラム |
JP2020067911A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | 制御支援装置、車両、および制御支援システム |
JP2020070774A (ja) * | 2018-11-01 | 2020-05-07 | トヨタ自動車株式会社 | 内燃機関の制御システム、電子制御ユニット、サーバ及び内燃機関の制御方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650982B (zh) * | 2016-08-30 | 2020-07-07 | 华北电力大学 | 一种基于多点nwp的深度学习功率预测方法 |
CN107832684B (zh) * | 2017-10-26 | 2021-08-03 | 通华科技(大连)有限公司 | 一种具有自主学习能力的智能静脉认证方法和系统 |
EP3534235B1 (en) * | 2018-02-28 | 2021-04-14 | Honda Research Institute Europe GmbH | Unsupervised learning of metric representations from slow features |
JP6477951B1 (ja) | 2018-04-05 | 2019-03-06 | トヨタ自動車株式会社 | 車載電子制御ユニット |
JP2020071611A (ja) * | 2018-10-30 | 2020-05-07 | トヨタ自動車株式会社 | 機械学習装置 |
-
2020
- 2020-06-11 JP JP2020101906A patent/JP2021196777A/ja active Pending
-
2021
- 2021-06-01 DE DE102021114119.2A patent/DE102021114119A1/de active Pending
- 2021-06-04 CN CN202110625161.XA patent/CN113805480A/zh active Pending
- 2021-06-10 US US17/343,736 patent/US20210390406A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124617A (ja) * | 2017-01-30 | 2018-08-09 | 三菱重工業株式会社 | 教師データ収集装置、教師データ収集方法、及びプログラム |
JP2020067911A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | 制御支援装置、車両、および制御支援システム |
JP2020070774A (ja) * | 2018-11-01 | 2020-05-07 | トヨタ自動車株式会社 | 内燃機関の制御システム、電子制御ユニット、サーバ及び内燃機関の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102021114119A1 (de) | 2021-12-16 |
CN113805480A (zh) | 2021-12-17 |
US20210390406A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6848949B2 (ja) | 制御支援装置、車両、および制御支援システム | |
CN109947086B (zh) | 基于对抗学习的机械故障迁移诊断方法及系统 | |
Wassenaar et al. | Enhancing discrete choice demand modeling for decision-based design | |
Barth et al. | Recent validation efforts for a comprehensive modal emissions model | |
Pettersson et al. | Modelling and control of auxiliary loads in heavy vehicles | |
Xu et al. | A study of vehicle driving condition recognition using supervised learning methods | |
Giobergia et al. | Mining sensor data for predictive maintenance in the automotive industry | |
Montazeri-Gh et al. | Driving condition recognition for genetic-fuzzy HEV control | |
KR102118088B1 (ko) | 인공지능 기술을 이용한 배기가스 배출량 예측방법 | |
CN110688477B (zh) | 一种技术热点领域的预测方法、装置、设备及存储介质 | |
Zhang et al. | Research opportunities and challenges in engineering system evolution | |
JP2020071611A (ja) | 機械学習装置 | |
Panda et al. | ML-based vehicle downtime reduction: A case of air compressor failure detection | |
JP6795116B1 (ja) | 車両、及びサーバ | |
CN113505879A (zh) | 一种基于多注意力特征记忆模型的预测方法和装置 | |
Wang et al. | Predictability of Vehicle Fuel Consumption Using LSTM: Findings from Field Experiments | |
JP2021196777A (ja) | 機械学習装置、機械学習システム、機械学習方法、及びプログラム | |
CN113011559A (zh) | 基于kubernetes的自动机器学习方法及系统 | |
Ineza Havugimana et al. | Review of artificial intelligent algorithms for engine performance, control, and diagnosis | |
CN116741304A (zh) | 基于车联网大数据的柴油机原排氮氧化物预测方法 | |
CN116465426A (zh) | 自动驾驶出租车巡航路径和速度规划方法及装置 | |
Duc et al. | Developing neural networks-based prediction model of real-time fuel consumption rate for motorcycles: A case study in Vietnam | |
Do et al. | Development of artificial neural networks trained by heuristic algorithms for prediction of exhaust emissions and performance of a diesel engine fuelled with biodiesel blends | |
Kazan et al. | Assessment of On-Road High NOx Emitters by Using Machine Learning Algorithms for Heavy-Duty Vehicles | |
Sahay et al. | A Novel Approach to Vehicular CO2 Emission Predictive Modelling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230905 |