JP2021026438A - システム、方法、及びプログラム - Google Patents

システム、方法、及びプログラム Download PDF

Info

Publication number
JP2021026438A
JP2021026438A JP2019142936A JP2019142936A JP2021026438A JP 2021026438 A JP2021026438 A JP 2021026438A JP 2019142936 A JP2019142936 A JP 2019142936A JP 2019142936 A JP2019142936 A JP 2019142936A JP 2021026438 A JP2021026438 A JP 2021026438A
Authority
JP
Japan
Prior art keywords
learning
parameter
parameters
input data
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019142936A
Other languages
English (en)
Other versions
JP7353851B2 (ja
Inventor
哲 今井
Satoru Imai
哲 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019142936A priority Critical patent/JP7353851B2/ja
Priority to US16/933,432 priority patent/US20210034923A1/en
Priority to EP20187470.8A priority patent/EP3771997A1/en
Priority to CN202010747273.8A priority patent/CN112308239A/zh
Publication of JP2021026438A publication Critical patent/JP2021026438A/ja
Application granted granted Critical
Publication of JP7353851B2 publication Critical patent/JP7353851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Selective Calling Equipment (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】機械学習により予測を行うシステムにおける無駄な稼働コストを抑制することである。【解決手段】複数のパラメータを含む入力データによる学習処理で生成した予測モデルを管理するシステムであって、学習結果から、前記複数のパラメータごとの学習寄与率を算出する第1算出手段と、前記第1算出手段で算出した学習寄与率から、学習寄与率の低いパラメータを特定する第1特定手段と、前記第1特定手段で特定されたパラメータを除いた入力データによる再学習を指示する第1指示手段と、前記第1特定手段で特定されたパラメータに対応する構成を特定する第2特定手段と、前記第2特定手段で特定された構成の停止命令を発行する第1発行手段と、を有する。【選択図】図1

Description

本発明は、予測モデルを管理するシステム、方法、及びプログラムに関する。
機械学習では、学習用の入力データから特徴を捉えて予測モデルを学習し、学習が完了した予測モデルで本番運用を行う。従来、このような予測モデルを用いて、予測用の入力データにより、ある事柄の予測を行うシステムが知られている。
このような予測を行うシステムでは、多様な入力データにより予測することで予測精度を高めるため、一般的に入力データは多次元ベクトルとなる。ところが、入力データの次元数が多すぎると、学習に多大な計算コストがかかる他、特徴を適切に学習するために膨大な学習データが必要となるという問題がある。また、多次元ベクトルの次元数が膨大であると、かえって学習精度が低下することが知られている。これは、次元数の増加により、多次元ベクトルの取り得る特徴の幅が指数関数的に広がることで、限られた数の入力データから、その特徴を十分に捉えられなくなることが原因である。
そこで従来、学習用の入力データの次元数の削減についての検討がされている。例えば特許文献1には、学習に寄与する度合い(以下、学習寄与率という)が低いパラメータを、次元削減の対象とする次元削減処理を有する発明が開示されている。
特開2011−197934号公報
多次元の学習用の入力データから特徴を適切に捉え学習するには、上述のように次元削減処理を組み込む必要がある。しかし、特許文献1では、その次元削減処理は、削減した次元のパラメータを使用しないこととするに過ぎないものであった。このため、削減した次元のパラメータを、削減前に各構成(例えば装置、センサ、又はソフトウェア)で収集することで取得、送信等していた場合、次元削減処理を実行したとしても削減した次元のパラメータを収集し続けることになる。こうなると、削減した次元のパラメータを取得するための構成、及び発生する通信処理の稼働コストが無駄になるという問題があった。
本発明は、機械学習により予測を行うシステムにおける無駄な稼働コストを抑制することを目的とする。
本発明の一実施形態のシステムは、複数のパラメータを含む入力データによる学習処理で生成した予測モデルを管理するシステムであって、学習結果から、前記複数のパラメータごとの学習寄与率を算出する第1算出手段と、前記第1算出手段で算出した学習寄与率から、学習寄与率の低いパラメータを特定する第1特定手段と、前記第1特定手段で特定されたパラメータを除いた入力データによる再学習を指示する第1指示手段と、前記第1特定手段で特定されたパラメータに対応する構成を特定する第2特定手段と、前記第2特定手段で特定された構成の停止命令を発行する第1発行手段と、を有する。
本発明によれば、機械学習により予測を行うシステムにおける無駄な稼働コストを抑制することができる。
本発明の実施例1に係る情報処理システムの構成を示すブロック図である。 (A)は、パラメータ最適化システム101、及びゲートウェイ装置102のハードウェア構成を示すブロック図であり、(B)は、パラメータ取得装置103のハードウェア構成を示すブロック図である。 パラメータ最適化システム101の機能構成を示すブロック図である。 ゲートウェイ装置102の機能構成を示すブロック図である。 パラメータ取得装置103の機能構成を示すブロック図である。 本発明の実施例1におけるシーケンス図である。 本発明の実施例1における学習寄与判断部304による処理の流れを示すフロー図である。 本発明の実施例2におけるシーケンス図である。 本発明の実施例2における学習寄与判断部304による処理の流れを示すフロー図である。 本発明の実施例3におけるシーケンス図である。 本発明の実施例3における学習寄与判断部304による処理の流れを示すフロー図である。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
図1は、本発明の実施例1に係る情報処理システムの構成を示すブロック図である。
本実施例の情報処理システム100は、一つ以上のパラメータ取得装置103と、このパラメータ取得装置103で取得したパラメータを用いて学習、及び予測を実行する機械学習システムと、を含むシステムである。なお、本実施例では、機械学習システムは、パラメータ最適化システム101に内包されているものとする。本実施例では、パラメータ取得装置103は、取得するパラメータごとに設ける。情報処理システム100は、予測モデルを管理するシステムである。
また、本実施例で扱う学習、及び予測処理の具体例としては、自動車の自動運転が挙げられる。
本実施例の情報処理システム100は、手動運転時、自動車に取り付けられた各種構成で収集したパラメータに対し、ドライバがとった行動を正解ラベルとして付与し、教師データすなわち学習用の入力データを作成する。自動車に取り付けられた各種構成は、イメージセンサ、距離センサ、及び加速度センサ等のパラメータ取得装置103である。表1は、教師データの例を示す表である。情報処理システム100は、表1に示すような教師データを多数用意し学習することで、予測モデルを作成する。
Figure 2021026438
情報処理システム100は、本番運用時は、GPSで取得した現在値座標、ユーザの入力した目的地座標、及び道路情報から、ルートを決定する。GPSは、Global Positioning Systemの略称である。情報処理システム100は、パラメータ取得装置103で収集したリアルタイムのパラメータを予測モデルに入力し、次に取るべき行動を予測(決定)し、自動車を操作しながら、決定したルートを進行する。表2は、予測時のパラメータと予測結果の例を示す表である。
Figure 2021026438
なお、本実施例のように、本発明を自動車の自動運転へ適用したことは、あくまで本発明の一実施例に過ぎない。本発明は、例えば複数のパラメータ取得装置を持つスマートホーム、飛行機、船舶、ドローンを含むロボット、印刷装置及びスキャナの少なくともいずれかを含む画像処理装置、3Dプリンタ、並びに通信中継機器のいずれかにも、適用可能である。すなわち、本発明の予測モデルは、スマートホーム、飛行機、船舶、ドローンを含むロボット、印刷装置及びスキャナの少なくともいずれかを含む画像処理装置、3Dプリンタ、並びに通信中継機器のいずれかの制御の予測にも、適用可能である。
情報処理システム100は、パラメータ最適化システム101とゲートウェイ装置102とをネットワーク104で接続して構成される。ネットワーク104は、例えばHTTPベースのネットワークである。HTTPは、Hypertext Transfer Protocolの略称である。パラメータ取得装置103は、計測機器を使って、各種の物理量を数値化し取得する。ゲートウェイ装置102は、ファイアウォールの役割を果たす。この他、ゲートウェイ装置102は、パラメータ取得装置103に対する動作制御を行う。例えば、ゲートウェイ装置102は、パラメータ取得装置103が収集したパラメータの、ネットワーク104を介した送信を取捨選択する。
本実施例では、パラメータ取得装置103の例は、自動車に搭載されたイメージセンサ、距離センサ、加速度センサ、及びGPS等である。ゲートウェイ装置102は、自動車に搭載され、パラメータ取得装置103の動作制御、及びパラメータ取得装置103が収集したパラメータの送信制御等を行う。ゲートウェイ装置102の例は、例えば、ネットワーク104に接続されたIoT制御モジュールである。IoTは、Internet of Thingsの略称である。ゲートウェイ装置102は、ネットワーク104経由して、パラメータ最適化システム101に対し、パラメータ取得装置103で取得したパラメータ値を、定期又は不定期に送信する。パラメータ最適化システム101は、受信したパラメータ値をもとに学習処理、及び予測処理を実行する。パラメータ最適化システム101は、ネットワーク104を経由して、ゲートウェイ装置102に対し、パラメータ取得装置103の制御命令を送信することができる。
図2(A)は、パラメータ最適化システム101、及びゲートウェイ装置102のハードウェア構成を示すブロック図である。本実施例では、パラメータ最適化システム101のハードウェア構成と、ゲートウェイ装置102のハードウェア構成は、同じであるので、図2(A)により、両方について説明する。RAM201は、データの一時記録をするメモリである。ROM202は、組込済みプログラム、及びデータが記録されているメモリである。ネットワークインターフェース203は、ネットワーク104を介して、ネットワーク104に接続された他のコンピュータ及びネットワーク機器との通信を行うインターフェースである。ネットワークインターフェース203とネットワーク104との通信の方式は、有線及び無線のいずれであってもよい。二次記憶装置205は、HDD又はフラッシュメモリに代表されるような記憶装置である。CPU200は、RAM201、ROM202、及び二次記憶装置205などから読み込んだプログラムを実行する。CPU200、RAM201、ROM202、ネットワークインターフェース203、及び二次記憶装置205は、システムバス204を介して互いに接続されている。本実施例においては特に言及しない限り、システムバス204は、CPU200からの制御命令を、システムバス204に接続された各ハードウェアに伝播させるバスである。
図2(B)は、パラメータ取得装置103のハードウェア構成を示すブロック図である。ネットワークインターフェース206は、ネットワーク104を介して、ネットワーク104に接続された他のコンピュータ及びネットワーク機器との通信を行うインターフェースである。ネットワークインターフェース203とネットワーク104との通信の方式は、有線及び無線のいずれであってもよい。パラメータ取得装置コア207は、現実世界の各種の物理量を計測し、数値化する。パラメータ取得装置コア207で計測し数値化したパラメータは、ネットワークインターフェース206により、ネットワーク104を介して、ネットワーク104に接続された他のコンピュータやネットワーク機器に対して送信される。
図3は、パラメータ最適化システム101の機能構成を示すブロック図である。パラメータ最適化システム101の各機能構成は、RAM201、ROM202、二次記憶装置205などに記憶したプログラムを、CPU200で実行することによって実現される。
まず、学習時の処理の流れについて説明する。パラメータ最適化システム101の収集データ受信部300は、パラメータ取得装置103で収集し、ゲートウェイ装置102を経由して送信されたパラメータを、収集データとして受信する。収集データは、複数のパラメータを含む。入力データ生成部301は、収集データ受信部300で受信した収集データに対して前処理を行い、収集データを入力データへと加工する。前処理前の収集データと、前処理後の入力データの例を表3に示す。
Figure 2021026438
パラメータ最適化システム101は、前処理により加工された入力データを、入力データ記憶部302に記憶する。学習処理部303は、入力データ記憶部302から入力データを読み出し、学習処理を行う。学習処理部303は、この学習処理により予測モデルを生成する。なお、本実施例において、機械学習アルゴリズムには、多層ニューラルネットワークを用いるものとする。ただし、これは一例であり、その他の機械学習アルゴリズムを用いる場合においても、本発明を適用可能である。
学習寄与判断部304は、学習処理部303での学習処理により生成した予測モデルから、収集データに含まれるパラメータごとの学習寄与率を算出する。学習寄与率の計算は機械学習アルゴリズムによって様々な手法があるが、今回N次元の入力データを扱う三層ニューラルネットワークを例に説明すると、入力データ内の第n次元目のパラメータの学習寄与率は、以下の数1の計算式で求めることができる。なお、Wijは、第p層のノードiから第p+1層のノードjへの重みを表し、中間層(第一層)、中間層(第二層)、出力層(第三層)のノード数は、それぞれX、Y、Mとする。
Figure 2021026438
学習寄与判断部304は、算出した学習寄与率から、学習寄与率の低いパラメータ(以下、低寄与パラメータという)を判断する。すなわち、学習寄与判断部304は、算出した学習寄与率から、学習寄与率の低いパラメータを特定する。学習寄与判断部304により学習結果から算出された学習寄与率と、低寄与パラメータの例を表4に示す。表4において、第1のイメージセンサ、第2のイメージセンサ、第1の距離センサ、第2の距離センサ、第3の距離センサ及び加速度センサのそれぞれは、パラメータ取得装置103の一例である。第1のイメージセンサ及び第2のイメージセンサは、それぞれが複数のパラメータを取得する装置である。第1の距離センサ、第2の距離センサ、第3の距離センサ及び加速度センサは、それぞれが一つのパラメータを取得する装置である。本実施例では、例えば、閾値を学習寄与率0.0005とし、この閾値未満の学習寄与率のパラメータを低寄与パラメータとし、この閾値以上の学習寄与率のパラメータを低寄与パラメータとしない。この場合、表4では、第2の距離センサ(学習寄与率が0.0002)及び第3の距離センサ(学習寄与率が0.0004)で取得するパラメータは、低寄与パラメータである。
Figure 2021026438
パラメータ最適化システム101は、学習寄与判断部304による低寄与パラメータの情報を、学習処理部303に送信する。また、制御命令送信部305は、ゲートウェイ装置102に対し、学習寄与判断部304により低寄与パラメータとされたパラメータを取得するパラメータ取得装置103の動作停止命令を送信する。表4の場合、制御命令送信部305は、ゲートウェイ装置102に対し、第2の距離センサ及び第3の距離センサの動作停止命令を送信する。
ところで本実施例では、例えば第1のイメージセンサ及び第2のイメージセンサは、一つのセンサで複数のピクセルデータを取得し、取得した複数のピクセルデータを複数のパラメータとしている。このように、一つのパラメータ取得装置103から複数のパラメータを取得する場合、取得した複数のパラメータには、学習寄与率が閾値未満のパラメータもあれば、学習寄与率が閾値以上のパラメータもあることが考えられる。
そこで本実施例では、学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータの全てにおいて学習寄与率が閾値未満である場合に、その複数のパラメータを低寄与パラメータとする。学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータのいずれかの学習寄与率が閾値以上である場合には、その複数のパラメータを低寄与パラメータとしない。
また本実施例では、学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータの学習寄与率の合計値が、合計値用の閾値未満である場合に、その複数のパラメータを低寄与パラメータとする。学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータの学習寄与率の合計値が、合計値用の閾値以上である場合に、その複数のパラメータを低寄与パラメータとしない。
制御命令送信部305は、上述のように学習寄与判断部304により低寄与パラメータとされた複数のパラメータを取得するパラメータ取得装置103の動作停止命令を送信する。
なお、学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータのいずれかの学習寄与率が、閾値未満である場合に、その複数のパラメータを低寄与パラメータとしてもよい。この場合、学習寄与判断部304は、一つのパラメータ取得装置103から複数のパラメータを取得する場合、その複数のパラメータの全てにおいて学習寄与率が閾値以上である場合に、その複数のパラメータを低寄与パラメータとしてもよい。
学習処理部303は、低寄与パラメータの情報を学習寄与判断部304から受信した後、入力データ記憶部302から入力データを取得し、取得した入力データから低寄与パラメータを除いて、再度学習処理を行う。パラメータ最適化システム101は、この学習処理により生成した予測モデルを、予測モデル記憶部306に記憶する。
続いて、予測時の処理の流れについて示す。まずパラメータ取得装置103は、パラメータを収集する。続いてパラメータ取得装置103は、ゲートウェイ装置102を経由して、パラメータ最適化システム101にパラメータを送信する。パラメータ最適化システム101は、ゲートウェイ装置102からのパラメータを、収集データとして収集データ受信部300で受信する。入力データ生成部301は、収集データ受信部300で受信した収集データに前処理を施して入力データへと加工する。パラメータ最適化システム101は、入力データ生成部301で加工された入力データを入力データ記憶部302に記憶する。予測処理部307は、予測モデル記憶部306から予測モデルを取得し、入力データ記憶部302から取得した入力データを予測モデルに入力する。予測処理部307は、予測モデルが出力した予測結果を、出力部308に送信する。出力部308は、予測処理部307からの予測結果を出力する。この出力部308による出力処理は、画面に表示する、音声で出力する、電子メール又はチャットで送信する、記憶装置に記憶する、印刷装置から印刷する、及びデバイスに送信し制御を行う、などの処理のいずれか一つであってもよい。出力部308による出力処理は、上述の処理の組み合わせであってもよい。パラメータ取得装置103で収集したパラメータ、及び予測結果の例は、表2に示したものである。
図4は、ゲートウェイ装置102の機能構成を示すブロック図である。ゲートウェイ装置102の各機能構成は、RAM201、ROM202、二次記憶装置205などに記憶したプログラムを、CPU200で実行することによって実現される。
ゲートウェイ装置102は、定期的に又は所定のタイミングで、パラメータ受信部404にて、パラメータ取得装置103から送信されたパラメータを受信する。ゲートウェイ装置102は、受信したパラメータを、パラメータ送信制御部403を経由し、パラメータ送信部402からパラメータ最適化システム101へと送信する。また、ゲートウェイ装置102は、パラメータ最適化システム101から送信された制御命令を制御命令受信部400で受信し、受信した制御命令に従い、パラメータ取得装置制御部401からパラメータ取得装置103の制御を行う。例えば、制御命令受信部400が、複数のパラメータ取得装置103のうちの特定のパラメータ取得装置103の動作停止命令を受信した場合、パラメータ取得装置制御部401は、その特定のパラメータ取得装置103の動作を停止するよう制御する。
図5は、パラメータ取得装置103の機能構成を示すブロック図である。パラメータ取得装置103の各機能構成は、パラメータ取得装置103のCPUでプログラムを実行すること、及び/又はハードウェアによって実現される。パラメータ取得装置103の動作は、パラメータ取得装置コア207で収集したパラメータを、ネットワークインターフェース206から送信することで実現する。パラメータ取得装置103は、パラメータ取得部501で収集したパラメータを、パラメータ送信部500からゲートウェイ装置102へ送信する。
図6Aは、本発明の実施例1におけるシーケンス図である。図6Bは、本発明の実施例1における学習寄与判断部304による処理の流れを示すフロー図である。なお、図6Aにおいては、見易さのため、送受信以外の処理を行わない制御命令送信部305及び制御命令受信部400を割愛して示している。
学習処理部303は、入力データ記憶部302から、学習寄与率を計算するための入力データを取得する(図6AのステップS600)。学習処理部303は、ステップS600で取得した入力データを用いて学習処理を行い(図6AのステップS601)、学習結果を学習寄与判断部304に送信する(図6AのステップS602)。
学習寄与判断部304は、ステップS602で送信された学習結果を受信し、受信した学習結果から入力データの含むパラメータごとの学習寄与率を取得し、学習寄与率の低いパラメータを低寄与パラメータとする(図6A及び図6BのステップS603)。すなわち、学習寄与判断部304は、学習寄与率の低いパラメータを特定する。学習寄与判断部304は、ステップS603での低寄与パラメータの判断情報を元に、学習処理部303に対し、低寄与パラメータを除いての再学習命令を送信する(図6A及び図6BのステップS604)。すなわち、学習寄与判断部304は、低寄与パラメータであると特定されたパラメータを除いた入力データによる再学習を指示する。
学習処理部303は、ステップS604で送信された再学習命令を受信し、受信した再学習命令に応じて、入力データ記憶部302から、低寄与パラメータを除いた、学習用の入力データを取得する(図6AのステップS605)。学習処理部303は、ステップS605で取得した学習用の入力データを用いて学習処理を行う(図6AのステップS606)。また、学習処理部303は、ステップS606の学習処理で作成した予測モデルを予測モデル記憶部306に記憶し、自動で、あるいは手動での操作により、本番運用中の予測モデルと置き換える。
学習寄与判断部304は、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103を判断する(図6A及び図6BのステップS607)。すなわち、学習寄与判断部304は、ステップS607において、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103を特定する。低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103は、特定されたパラメータに対応する構成の一例である。学習寄与判断部304は、制御命令送信部305を介して、ゲートウェイ装置102の制御命令受信部400に、ステップS607で特定したパラメータ取得装置103の動作停止命令を送信する(図6A及び図6BのステップS608)。すなわち、学習寄与判断部304は、特定された構成としてのパラメータ取得装置103の停止命令を発行する発行手段の一例である。制御命令受信部400は、ステップS608で送信された動作停止命令を受信する。パラメータ取得装置制御部401は、制御命令受信部400が受信した動作停止命令に応じて、ステップS607で特定したパラメータ取得装置103の動作を停止するよう制御する(図6AのステップS609)。
実施例2において、システム構成、ハードウェア構成、及び各構成のブロック図等については、図1〜図5に示した実施例1と同様のため、図1〜図5を参照することとし、説明を割愛する。
図7Aは、本発明の実施例2におけるシーケンス図である。図7Bは、本発明の実施例2における学習寄与判断部304による処理の流れを示すフロー図である。なお、図7Aにおいては、見易さのため、送受信以外の処理を行わない制御命令送信部305及び制御命令受信部400を割愛して示している。
学習処理部303は、入力データ記憶部302から、学習寄与率を計算するための入力データを取得する(図7AのステップS700)。学習処理部303は、ステップS700で取得した入力データを用いて学習処理を行い(図6AのステップS701)、学習結果を学習寄与判断部304に送信する(図7AのステップS702)。
学習寄与判断部304は、ステップS702で送信された学習結果を受信し、受信した学習結果から入力データの含むパラメータごとの学習寄与率を取得し、学習寄与率の低いパラメータを低寄与パラメータとする(図7A及び図7BのステップS703)。学習寄与判断部304は、ステップS703での低寄与パラメータの判断情報を元に、学習処理部303に対し、低寄与パラメータを除いての再学習命令を送信する(図7A及び図7BのステップS704)。すなわち、学習寄与判断部304は、低寄与パラメータであると特定されたパラメータを除いた入力データによる再学習を指示する。
学習処理部303は、ステップS704で送信された再学習命令を受信し、受信した再学習命令に応じて、入力データ記憶部302から、低寄与パラメータを除いた、学習用の入力データを取得する(図7AのステップS705)。学習処理部303は、ステップS705で取得した学習用の入力データを用いて学習処理を行う(図7AのステップS706)。また、学習処理部303は、ステップS706の学習処理で作成した予測モデルを予測モデル記憶部306に記憶し、自動で、あるいは手動での操作により、本番運用中の予測モデルと置き換える。
学習寄与判断部304は、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103を判断する(図7A及び図7BのステップS707)。すなわち、学習寄与判断部304は、ステップS707において、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103を特定する。
本実施例では、学習寄与判断部304は、パラメータ取得装置103のうち、学習処理への学習寄与率に関係なく、常時稼働させておくパラメータ取得装置103のリスト(以下、常時稼働パラメータ取得装置リストという)を参照可能であるとする。常時稼働パラメータ取得装置リストは、パラメータ最適化システム101のRAM201、ROM202及び二次記憶装置205などの記憶装置に予め記憶しておく。
学習寄与判断部304は、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103が、常時稼働パラメータ取得装置リストに含まれているかを判断する(図7A及び図7BのステップS708)。低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103が、常時稼働パラメータ取得装置リストに含まれていない場合(図7BのステップS708:NO)、処理は図7A及び図7BのステップS709に進む。低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103が、常時稼働パラメータ取得装置リストに含まれている場合(図7BのステップS708:YES)、処理は図7A及び図7BのステップS711に進む。すなわち、学習寄与判断部304は、低寄与パラメータであるとしたパラメータを取得しているパラメータ取得装置103が、常時稼働パラメータ取得装置リストに含まれているか否かで実行する処理を異ならせる。
学習寄与判断部304は、図7A及び図7BのステップS709において、制御命令送信部305を介して、ゲートウェイ装置102の制御命令受信部400に、ステップS707で特定したパラメータ取得装置103の動作停止命令を送信する。制御命令受信部400は、ステップS709で送信された動作停止命令を受信する。パラメータ取得装置制御部401は、制御命令受信部400が受信した動作停止命令に応じて、ステップS707で特定したパラメータ取得装置103の動作を停止するよう制御する(図7AのステップS710)。
学習寄与判断部304は、図7A及び図7BのステップS711において、制御命令送信部305を介して、ゲートウェイ装置102の制御命令受信部400に、ステップS707で特定したパラメータ取得装置103の通信停止命令を送信する。制御命令受信部400は、ステップS709で送信された通信停止命令を受信する。パラメータ送信制御部403は、制御命令受信部400が受信した通信停止命令に応じて、ステップS707で特定したパラメータ取得装置103で取得したパラメータの送信を停止するよう制御する(図7AのステップS711)。
実施例3において、システム構成、ハードウェア構成、及び各構成のブロック図等については、図1〜図5に示した実施例1と同様のため、図1〜図5を参照することとし、説明を割愛する。
図8Aは、本発明の実施例3におけるシーケンス図である。図8Bは、本発明の実施例3における学習寄与判断部304による処理の流れを示すフロー図である。なお、図8Aにおいては、見易さのため、本実施例において送受信以外の処理を行わない構成、および収集データへの前処理のみを行う構成を割愛して示している。また、本実施例においては、実施例1や実施例2に示したような機能によって、事前に一部のパラメータ取得装置103の動作が停止されているものとする。
本実施例では、パラメータ取得装置制御部401は、既に動作停止済みのパラメータ取得装置103(以下、利用停止中パラメータ取得装置という)に対して、所定のタイミングで、一時起動命令を送信する(図8AのステップS800及びステップS801)。パラメータ取得装置制御部401が一時起動命令を送信する所定のタイミングは、一定の周期的なタイミングでもよいし、不定期なタイミングでもよいし、所定のイベントの発生に応じたタイミングであってもよい。また、パラメータ取得装置制御部401は、手動での操作に応じて、利用停止中パラメータ取得装置に対して一時起動命令を送信するものであってもよい。
一時起動命令を受信した利用停止中パラメータ取得装置は、起動し、パラメータを取得する(図8AのステップS802)。ゲートウェイ装置102は、ステップS802でパラメータ取得装置103が取得したパラメータを、パラメータ最適化システム101へ送信する(図8AのステップS803)。ゲートウェイ装置102におけるパラメータの送信は、パラメータ受信部404、パラメータ送信制御部403及びパラメータ送信部402を介して行われる。
パラメータ最適化システム101は、ステップS802でパラメータ取得装置103が取得したパラメータを受信し、受信したパラメータは、収集データ受信部300及び入力データ生成部301を介して、入力データ記憶部302に蓄積される。ステップS802でパラメータ取得装置103が取得したパラメータが入力データ記憶部302に十分に蓄積されると、学習処理部303は、入力データ記憶部302から、学習寄与率を計算するための入力データを取得する(図8AのステップS804)。パラメータが入力データ記憶部302に十分に蓄積されたことは、所定条件を満たしていることで示される。この所定条件は、例えば、利用停止中パラメータ取得装置の起動後に蓄積された入力データの数が閾値を超えたことである。
学習処理部303は、ステップS804で取得した入力データを用いて学習処理を行う(図8AのステップS805)。学習処理部303は、ステップS805で学習した学習結果を学習寄与判断部304に送信する(図8AのステップS806)。学習寄与判断部304は、ステップS806で送信された学習結果を受信し、受信した学習結果から、入力データに含まれるパラメータごとの学習寄与率を取得し、学習寄与率の低いパラメータを低寄与パラメータとする(図8A及び図8BのステップS807)。
学習寄与判断部304は、一時起動された利用停止中パラメータ取得装置が取得したパラメータ(以下、利用停止中パラメータという)の学習寄与率が、前回の学習時と変わらずに学習寄与率が低いかを判断する(図8A及び図8BのステップS808)。すなわち、学習寄与判断部304は、図8BのステップS808において、利用停止中パラメータがステップS805の学習においても低寄与パラメータであるかを判断する。学習寄与判断部304は、利用停止中パラメータが、前回の学習時と変わらず低寄与パラメータであると判断した場合(図8BのステップS808:YES)、そのまま処理を終了する。学習寄与判断部304は、利用停止中パラメータが、前回の学習時と変わり、低寄与パラメータではない(十分に寄与している)と判断した場合(図8BのステップS808:NO)、処理は図8A及び図8BのステップS809に進む。学習寄与判断部304は、図8A及び図8BのステップS808において、学習処理部303に対し、利用停止中パラメータを含めての再学習を指示する再学習命令を送信する。
学習処理部303は、ステップS809で送信された再学習命令を受信し、受信した再学習命令に応じて、入力データ記憶部302から、利用停止中パラメータを含めた、学習用の入力データを取得する(図8AのステップS810)。学習処理部303は、ステップS809で取得した学習用の入力データを用いて学習処理を行う(図8AのステップS811)。また、学習処理部303は、ステップS811の学習処理で作成した予測モデルを予測モデル記憶部306に記憶し、自動で、あるいは手動での操作により、本番運用中の予測モデルと置き換える。
学習寄与判断部304は、低寄与パラメータではなくなった利用停止中パラメータを取得しているパラメータ取得装置103を判断する(図8A及び図8BのステップS812)。すなわち、学習寄与判断部304は、ステップS812において、低寄与パラメータではなくなった利用停止中パラメータを取得しているパラメータ取得装置103を特定する。学習寄与判断部304は、制御命令送信部305を介して、ゲートウェイ装置102の制御命令受信部400に、ステップS812で特定したパラメータ取得装置103の動作再開命令を送信する(図8A及び図8BのステップS813)。制御命令受信部400は、ステップS813で送信された動作再開命令を受信する。パラメータ取得装置制御部401は、制御命令受信部400が受信した動作再開命令に応じて、ステップS812で特定したパラメータ取得装置103の動作を再開するよう制御する(図8AのステップS814)。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 パラメータ最適化システム
102 ゲートウェイ装置
103 パラメータ取得装置

Claims (8)

  1. 複数のパラメータを含む入力データによる学習処理で生成した予測モデルを管理するシステムであって、
    学習結果から、前記複数のパラメータごとの学習寄与率を算出する第1算出手段と、
    前記第1算出手段で算出した学習寄与率から、学習寄与率の低いパラメータを特定する第1特定手段と、
    前記第1特定手段で特定されたパラメータを除いた入力データによる再学習を指示する第1指示手段と、
    前記第1特定手段で特定されたパラメータに対応する構成を特定する第2特定手段と、
    前記第2特定手段で特定された構成の停止命令を発行する第1発行手段と、を有する
    ことを特徴とするシステム。
  2. 前記第1発行手段は、前記第2特定手段で特定された構成がリストに含まれているか否かで実行する処理を異ならせる
    ことを特徴とする請求項1に記載のシステム。
  3. 前記第1発行手段は、前記第2特定手段で特定された構成のうちリストに含まれていない構成の動作停止命令を発行し、前記第2特定手段で特定された構成のうち前記リストに含まれている構成の通信停止命令を発行する
    ことを特徴とする請求項2に記載のシステム。
  4. 前記第1特定手段で特定されたパラメータを、所定条件で、一時的に取得する取得手段と、
    前記一時的に取得したパラメータを含んだ入力データによる再学習を指示する第2指示手段と、
    前記一時的に取得したパラメータを含んだ入力データによる再学習の学習結果から、前記第1特定手段で特定されたパラメータの学習寄与率を算出する第2算出手段と、
    前記第2算出手段で算出した学習寄与率が低くないパラメータに対応する構成を特定する第3特定手段と、
    前記第3特定手段で特定された構成の再開命令を発行する第2発行手段と、を有する
    ことを特徴とする請求項1から3のいずれか1項に記載のシステム。
  5. 前記第2特定手段で特定される構成は、装置、センサ、及びソフトウェアの少なくともいずれかに対応する
    ことを特徴とする請求項1から4のいずれか1項に記載のシステム。
  6. 前記予測モデルは、スマートホーム、飛行機、船舶、ドローンを含むロボット、印刷装置及びスキャナの少なくともどちらかを含む画像処理装置、3Dプリンタ、並びに通信中継機器のいずれかの制御の予測を行う
    ことを特徴とする請求項1から5のいずれかに記載のシステム。
  7. 複数のパラメータを含む入力データによる学習処理で生成した予測モデルを管理するシステムで実行される方法であって、
    学習結果から、前記複数のパラメータごとの学習寄与率を算出する第1算出工程と、
    前記第1算出工程で算出した学習寄与率から、学習寄与率の低いパラメータを特定する第1特定工程と、
    前記第1特定工程で特定されたパラメータを除いた入力データによる再学習を指示する第1指示工程と、
    前記第1特定工程で特定されたパラメータに対応する構成を特定する第2特定工程と、
    前記第2特定工程で特定された構成の停止命令を発行する第1発行工程と、を有する
    ことを特徴とする方法。
  8. 請求項1乃至6のいずれか1項に記載のシステムの各手段としてコンピュータを機能させるためのプログラム。
JP2019142936A 2019-08-02 2019-08-02 システム、方法、及びプログラム Active JP7353851B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019142936A JP7353851B2 (ja) 2019-08-02 2019-08-02 システム、方法、及びプログラム
US16/933,432 US20210034923A1 (en) 2019-08-02 2020-07-20 System, method, and non-transitory storage medium
EP20187470.8A EP3771997A1 (en) 2019-08-02 2020-07-23 System, method, and program
CN202010747273.8A CN112308239A (zh) 2019-08-02 2020-07-29 系统、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142936A JP7353851B2 (ja) 2019-08-02 2019-08-02 システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021026438A true JP2021026438A (ja) 2021-02-22
JP7353851B2 JP7353851B2 (ja) 2023-10-02

Family

ID=71786763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142936A Active JP7353851B2 (ja) 2019-08-02 2019-08-02 システム、方法、及びプログラム

Country Status (4)

Country Link
US (1) US20210034923A1 (ja)
EP (1) EP3771997A1 (ja)
JP (1) JP7353851B2 (ja)
CN (1) CN112308239A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064593A (ja) * 2009-09-17 2011-03-31 Sony Corp ナビゲーション装置、動作制御方法及び携帯端末装置
JP2017012277A (ja) * 2015-06-29 2017-01-19 カシオ計算機株式会社 携帯型電子装置、センサ制御システム、センサ制御方法及びセンサ制御プログラム
JP2018195231A (ja) * 2017-05-22 2018-12-06 コニカミノルタ株式会社 学習モデル作成装置、該方法および該プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004353220A (ja) * 2003-05-28 2004-12-16 Toshiba Corp 雨水排水制御装置
JP2011197934A (ja) 2010-03-18 2011-10-06 Sony Corp 情報処理装置および方法、並びにプログラム
CN101963784A (zh) * 2010-09-07 2011-02-02 江苏科技大学 基于支持向量机和广义预测控制算法的船舶动力定位方法
JP2012108748A (ja) * 2010-11-18 2012-06-07 Sony Corp データ処理装置、データ処理方法、およびプログラム
JP5214762B2 (ja) * 2011-03-25 2013-06-19 株式会社東芝 認識装置、方法及びプログラム
US10423889B2 (en) * 2013-01-08 2019-09-24 Purepredictive, Inc. Native machine learning integration for a data management product
JP6042274B2 (ja) * 2013-06-28 2016-12-14 株式会社デンソーアイティーラボラトリ ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム
WO2016157467A1 (ja) * 2015-03-31 2016-10-06 株式会社Ubic データ分析システム、データ分析方法、データ分析プログラム、および、記録媒体
US10536357B2 (en) * 2015-06-05 2020-01-14 Cisco Technology, Inc. Late data detection in data center
CN108376295B (zh) * 2018-01-31 2021-06-01 北京博达瑞恒科技有限公司 一种油气甜点预测方法及存储介质
US11030484B2 (en) * 2019-03-22 2021-06-08 Capital One Services, Llc System and method for efficient generation of machine-learning models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064593A (ja) * 2009-09-17 2011-03-31 Sony Corp ナビゲーション装置、動作制御方法及び携帯端末装置
JP2017012277A (ja) * 2015-06-29 2017-01-19 カシオ計算機株式会社 携帯型電子装置、センサ制御システム、センサ制御方法及びセンサ制御プログラム
JP2018195231A (ja) * 2017-05-22 2018-12-06 コニカミノルタ株式会社 学習モデル作成装置、該方法および該プログラム

Also Published As

Publication number Publication date
EP3771997A1 (en) 2021-02-03
US20210034923A1 (en) 2021-02-04
JP7353851B2 (ja) 2023-10-02
CN112308239A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN107819799B (zh) 用于无人驾驶车辆的数据获取方法和装置
US11449771B2 (en) Systems and methods for processing vehicle data
CN109131345B (zh) 交通工具和控制交通工具的方法和系统
CN109990790B (zh) 一种无人机路径规划方法及装置
US20220171907A1 (en) Creation of digital twin of the interaction among parts of the physical system
CN109131340B (zh) 基于驾驶员行为的主动车辆性能调整
EP3480741A1 (en) Reinforcement and imitation learning for a task
US20210357731A1 (en) Controlling agents using amortized q learning
EP3939302A1 (en) Low latency wireless communication system for teleoperated vehicle environments
CN109782600A (zh) 一种通过虚拟环境建立自主移动机器人导航系统的方法
US11842277B2 (en) Controlling agents using scene memory data
US11594125B2 (en) System and method for supporting the prediction of a future signaling of a traffic infrastructure element
CN110460971A (zh) 一种基于边缘计算的移动物联接入方法
CN112565404A (zh) 数据处理方法、边缘服务器、中心服务器和介质
US12013690B2 (en) Method and system for controlling a process in a process plant
WO2022035441A1 (en) Dynamic dispatching with robustness for large-scale heterogeneous mining fleet via deep reinforcement learning
JP2006252394A (ja) 情報処理システム、情報処理装置および方法、並びにプログラム
Wang et al. Priority-oriented trajectory planning for UAV-aided time-sensitive IoT networks
JP7353851B2 (ja) システム、方法、及びプログラム
CN116954137B (zh) 跨介质航行器的运动控制方法、系统、装置、设备及介质
CN118034809A (zh) 一种基于边缘计算场景下的无人机任务卸载方法和系统
JP2019033369A (ja) データ処理装置及びその制御方法、並びにプログラム
JP6638313B2 (ja) 制御装置、制御方法およびプログラム
KR102472585B1 (ko) 빅데이터 기반의 모듈형 ai 엔진 서버 및 그 구동 방법
CN214480701U (zh) 基于Web网页的云机器人控制系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R151 Written notification of patent or utility model registration

Ref document number: 7353851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151