JP7409326B2 - サーバおよび学習システム - Google Patents

サーバおよび学習システム Download PDF

Info

Publication number
JP7409326B2
JP7409326B2 JP2020566109A JP2020566109A JP7409326B2 JP 7409326 B2 JP7409326 B2 JP 7409326B2 JP 2020566109 A JP2020566109 A JP 2020566109A JP 2020566109 A JP2020566109 A JP 2020566109A JP 7409326 B2 JP7409326 B2 JP 7409326B2
Authority
JP
Japan
Prior art keywords
devices
information
learning
machine learning
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020566109A
Other languages
English (en)
Other versions
JPWO2020148959A1 (ja
Inventor
久浩 菅沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020148959A1 publication Critical patent/JPWO2020148959A1/ja
Application granted granted Critical
Publication of JP7409326B2 publication Critical patent/JP7409326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)

Description

本開示は、学習処理を行うシステムに用いられるサーバ、およびそのようなサーバを備えた学習システムに関する。
電子機器には、学習処理を行うものがある。例えば、特許文献1には、機械学習処理を行う装置が開示されている。
特開2018-165983号公報
ところで、学習処理を行う装置が複数ある場合には、複数の装置を用いて効率的に学習処理を行うことが望まれている。
効率的な学習処理を実現することができるサーバおよび学習システムを提供することが望ましい。
本開示の一実施の形態における第1のサーバは、記憶部と、処理部と、通信部とを備えている。記憶部は、複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶するように構成される。処理部は、複数のデバイス情報に基づいて、複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定するように構成される。通信部は、1以上のデバイスに対して学習処理の実行を指示するように構成される。各デバイス情報は、対応するデバイスの位置を示す位置情報を含む。処理部は、複数のデバイスについての位置情報に基づいて複数のデバイスの間の距離を算出し、その算出結果に基づいて1以上のデバイスを決定する。
本開示の一実施の形態における第2のサーバは、記憶部と、処理部と、通信部とを備えている。記憶部は、複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶するように構成される。処理部は、複数のデバイス情報に基づいて、複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定するように構成される。通信部は、1以上のデバイスに対して学習処理の実行を指示するように構成される。各デバイス情報は、対応するデバイスの位置を示す位置情報を含む。処理部は、複数のデバイスについての位置情報に基づいて各デバイスの移動経路を取得し、その取得結果に基づいて1以上のデバイスを決定する。
本開示の一実施の形態における第1の学習システムは、サーバと、複数のデバイスとを備えている。サーバは、記憶部と、処理部と、通信部とを有している。記憶部は、複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶するように構成される。処理部は、複数のデバイス情報に基づいて、複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定するように構成される。通信部は、1以上のデバイスに対して学習処理の実行を指示するように構成される。各デバイス情報は、対応するデバイスの位置を示す位置情報を含む。処理部は、複数のデバイスについての位置情報に基づいて複数のデバイスの間の距離を算出し、その算出結果に基づいて1以上のデバイスを決定する。
本開示の一実施の形態における第2の学習システムは、サーバと、複数のデバイスとを備えている。サーバは、記憶部と、処理部と、通信部とを有している。記憶部は、複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶するように構成される。処理部は、複数のデバイス情報に基づいて、複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定するように構成される。通信部は、1以上のデバイスに対して学習処理の実行を指示するように構成される。各デバイス情報は、対応するデバイスの位置を示す位置情報を含む。処理部は、複数のデバイスについての位置情報に基づいて各デバイスの移動経路を取得し、その取得結果に基づいて1以上のデバイスを決定する。
本開示の一実施の形態における第1のサーバ、第2のサーバ、第1の学習システム、および第2の学習システムでは、記憶部に、複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給された複数のデバイス情報が記憶される。複数のデバイス情報のそれぞれは、対応するデバイスについての情報を含む。そして、複数のデバイス情報に基づいて、複数のデバイスのうちの学習処理を行うべき1以上のデバイスが決定され、決定された1以上のデバイスに対して学習処理の実行が指示される。
本開示の一実施の形態に係る学習システムの一構成例を表す構成図である。 図1に示したサーバの一構成例を表すブロック図である。 図2に示したセンサ情報データベースの一構成例を表す表である。 図2に示したデバイス情報データベースの一構成例を表す表である。 図1に示したデバイスの一構成例を表すブロック図である。 第1の実施の形態に係るサーバの一動作例を表すフローチャートである。 一実施の形態に係る指示情報の一例を表す表である。 第1の実施の形態に係る学習システムの一動作例を表すシーケンス図である。 第1の実施の形態に係る学習システムの他の動作例を表すシーケンス図である。 第1の実施の形態に係る学習システムの他の動作例を表すシーケンス図である。 第2の実施の形態に係るサーバの一動作例を表すフローチャートである。 第2の実施の形態に係る学習システムの一動作例を表すシーケンス図である。 第2の実施の形態に係る学習システムの一動作例を表す説明図である。 第3の実施の形態に係るサーバの一動作例を表すフローチャートである。 図14に示した経路ベクトルテーブルの一構成例を表す表である。 図14に示した経路重複テーブルの一構成例を表す表である。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
<1.第1の実施の形態>
[構成例]
図1は、一実施の形態に係る学習システム(学習システム1)の一構成例を表すものである。学習システム1は、サーバ10と、複数のデバイス20(デバイス20A,20B,20C,…)とを備えている。
複数のデバイス20のそれぞれは、通信機能を有するデバイスであり、例えば、IoT(Internet Of Thing)デバイスやセンサデバイスである。このようなデバイス20は、例えば、スマートフォン、スマートメータ、デジタルカメラ、ドローン、車両などに適用される。複数のデバイス20は、公衆通信網101を介してサーバ10に接続され、サーバ10との間で通信可能に構成される。公衆通信網101は、例えば、3G(3rd Generation)、LTE(Long Term Evolution)、LPWAN(Low Power Wide Area Network)、無線LAN(Local Area Network)などを用いることができる。また、複数のデバイス20は、例えば閉域通信網102を介して互いに接続され、互いに通信可能に構成される。なお、これに限定されるものではなく、複数のデバイス20は、公衆通信網101を介して互いに接続されてもよい。
デバイス20は、例えば複数のセンサ27(後述)を有しており、センサ27の検出結果に基づいて機械学習処理を行う。センサ27は、例えば、温度センサ、気圧センサ、湿度センサ、GPS(Global Positioning System)センサ、加速度センサ、イメージセンサ、マイクなどの様々なセンサを用いることができる。また、デバイス20は、例えば、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含むデバイス情報INFD、センサ27の検出結果を含むセンサ情報INFS、機械学習処理により得られた機械学習モデルMをサーバ10に送信することができる。また、デバイス20は、例えば、センサ情報INFSおよび機械学習モデルMを他のデバイス20に送信することができる。サーバ10は、複数のデバイス20から送信されたセンサ情報INFSをセンサ情報データベースDBSに蓄積するとともに、複数のデバイス20から送信されたデバイス情報INFDをデバイス情報データベースDBDに蓄積する。サーバ10は、例えば、デバイス情報データベースDBDを参照して、複数のデバイス20のうちの、機械学習処理を行うべき1以上のデバイス20を決定する。そして、サーバ10は、決定された1以上のデバイス20に対して、機械学習処理の実行を指示する。これにより、学習システム1では、効率的に分散機械学習を行うことができるようになっている。
(サーバ10)
図2は、サーバ10の一構成例を表すものである。サーバ10は、通信部11と、入力部12と、出力部13と、メモリ14と、ストレージ15と、処理部16とを有している。
通信部11は、公衆通信網101を介して複数のデバイス20と通信可能に構成される。通信部11は、有線通信を行うようにしてもよいし、無線通信を行うようにしてもよい。有線通信の場合には、例えば、電話回線、イーサネット(登録商標)、インフィニバンド、光回線などを用いることができる。また、無線通信の場合には、例えば、無線LAN、3G、LTE、ブルートゥース(登録商標)などを用いることができる。この例では、1つの通信部11を設けたが、これに限定されるものではなく、例えば複数(例えば2つ)の通信部11を設けてもよい。この場合、例えば、2つの通信部11のうちの一方が有線通信を行い、他方が無線通信を行うようにしてもよい。
入力部12は、ユーザの操作を受け付けるように構成される。入力部12は、例えば、マウス、キーボード、タッチパネル、マイク、カメラなどを用いることができる。この例では、1つの入力部12を設けたが、これに限定されるものではなく、例えば複数の入力部12を設けてもよい。複数の入力部12は、例えば、上記マウスなどのうちの2種類以上を含んでもよい。
出力部13は、処理部16からの指示に基づいてユーザに対して情報を出力することにより、ユーザに情報を提供するように構成される。出力部13は、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、プロジェクタなどを用いることができる。なお、これらに限定されるものではなく、例えば、プリンタを用いてもよい。この例では、1つの出力部13を設けたが、これに限定されるものではなく、例えば複数の出力部13を設けてもよい。この場合、複数の出力部13は、例えば、1種類の出力部(例えば液晶ディスプレイ)のみを含んでもよいし、複数種類の出力部を含んでもよい。
メモリ14は、処理部16がプログラムを実行する際に使用するデータを記憶するように構成される。メモリ14は、例えば、RAM(Random Access Memory)を用いて構成される。具体的には、RAM14は、例えば、DRAM(Dynamic RAM)、MRAM(Magnetoresistive RAM)、NVRAM(Non-Volatile RAM)などを用いることができる。
ストレージ15は、各種プログラムを記憶するように構成される。ストレージ15は、例えば、ハードディスク、SSD(Solid State Drive)、テープメディアなどを用いることができる。ストレージ15は、センサ情報データベースDBS、およびデバイス情報データベースDBDを記憶している。この例では、1つのストレージ15を設けたが、これに限定されるものではなく、例えば、複数のストレージ15を設けてもよい。この場合、複数のストレージ15は、例えば、1種類のストレージ(例えばハードディスク)のみを含んでもよいし、複数種類のストレージを含んでもよい。
センサ情報データベースDBSは、複数のデバイス20から送信されたセンサ情報INFSが蓄積されたデータベースである。
図3は、センサ情報データベースDBSの一構成例を表すものである。センサ情報データベースDBSでは、データ識別子DSと、デバイス識別子DVと、センサ情報INFSとが、互いに関連づけて管理されている。センサ情報INFSは、あるデバイス20から送信された、センサ27の検出結果についての情報を含んでいる。具体的には、センサ情報INFSは、センサ情報INFSが送信された時刻、そのデバイス20がセンサ情報INFSを送信した時のそのデバイス20の位置、デバイス20におけるセンサ27の検出結果などについての情報を含んでいる。デバイス20の位置は、そのデバイス20の複数のセンサ27に含まれるGPSセンサにより得られる。センサ27の検出結果は、例えば、センサ27が温度センサである場合には温度データであり、センサ27が気圧センサである場合には気圧データであり、センサ27が湿度センサである場合には湿度データであり、センサ27が加速度センサである場合には加速度データであり、センサ27がイメージセンサである場合には動画データや静止画データなどの画像データであり、センサ27がマイクである場合には音声データである。デバイス識別子DVは、複数のデバイス20を識別するためのコードであり、複数のデバイス20にそれぞれ割り当てられている。データ識別子DSは、センサ情報データベースDBSに記憶されたセンサ情報INFSを識別するためのコードである。センサ情報データベースDBSでは、センサ情報INFSと、そのセンサ情報INFSに割り当てられたデータ識別子DSと、そのセンサ情報INFSを送信したデバイス20に割り当てられたデバイス識別子DVとが、互いに関連づけて管理されるようになっている。
デバイス情報データベースDBDは、複数のデバイス20から送信されたデバイス情報INFDが蓄積されたデータベースである。
図4は、デバイス情報データベースDBDの一構成例を表すものである。デバイス情報データベースDBDは、複数のデバイス20から送信されたデバイス情報INFDを含むように構成される。デバイス情報データベースDBDでは、データ識別子DDと、デバイス識別子DVと、デバイス情報INFDとが、互いに関連づけて管理されている。デバイス情報INFDは、あるデバイス20から送信されたそのデバイス20についての情報であり、この例では、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含んでいる。具体的には、デバイス情報INFDは、デバイス情報INFDが送信された時刻、そのデバイス20がデバイス情報INFDを送信した時のそのデバイス20の位置、そのデバイス20の加速度、そのデバイス20のCPU(Central Processing Unit)の性能、そのデバイス20のGPU(Graphics Processing Unit)の性能、そのデバイス20におけるCPU使用率、そのデバイス20におけるメモリ使用量、そのデバイス20におけるストレージ使用量、そのデバイス20におけるバッテリ消費量などの情報を含んでいる。デバイス20の位置は、そのデバイス20の複数のセンサ27に含まれるGPSセンサにより得られる。デバイス20の加速度は、そのデバイス20の複数のセンサ27に含まれる加速度センサにより得られる。データ識別子DDは、デバイス情報データベースDBDに記憶されたデバイス情報INFDを識別するためのコードである。デバイス情報データベースDBDでは、デバイス情報INFDと、そのデバイス情報INFDに割り当てられたデータ識別子DDと、そのデバイス情報INFDを送信したデバイス20に割り当てられたデバイス識別子DVとが、互いに関連づけて管理されるようになっている。
処理部16は、サーバ10の動作を制御するとともに、様々な処理を行うように構成される。処理部16は、例えば、CPU、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)などを用いて構成される。処理部16は、例えばこれらのCPUなどのうちの2つ以上を含んでもよい。また、処理部16は、例えばGPUを有していてもよい。処理部16は、センサ情報受信部16Aと、デバイス情報受信部16Bと、情報入力部16Cと、情報出力部16Dと、学習指示部16Eとを有している。
センサ情報受信部16Aは、デバイス20から通信部11を介して供給されたセンサ情報INFSを受信するとともに、このセンサ情報INFSを、そのセンサ情報INFSを送信したデバイス20のデバイス識別子DVと関連づけて、センサ情報データベースDBSに登録するように構成される。
デバイス情報受信部16Bは、デバイス20から通信部11を介して供給されたデバイス情報INFDを受信するとともに、このデバイス情報INFDを、そのデバイス情報INFDを送信したデバイス20のデバイス識別子DVと関連づけて、デバイス情報データベースDBDに登録するように構成される。
情報入力部16Cは、ユーザが入力部12を操作することにより指示した情報を受け取るように構成される。
情報出力部16Dは、出力部13が出力すべき情報を、出力部13に対して供給するように構成される。
学習指示部16Eは、例えばユーザからの指示を受け取った情報入力部16Cからの指示に基づいて、デバイス20に対して機械学習処理の開始を指示するように構成される。学習指示部16Eは、例えば、デバイス情報データベースDBDを参照して、複数のデバイス20のうちの、機械学習処理を行うべき1以上のデバイス20を決定する。また、学習指示部16Eは、例えば、センサ情報データベースDBSに含まれるセンサ情報INFSに基づいてその1以上のデバイス20に機械学習処理を行わせる場合には、センサ情報データベースDBSから、その1以上のデバイス20に対して送信すべきセンサ情報INFSを選択するようになっている。
(デバイス20)
図5は、デバイス20の一構成例を表すものである。デバイス20は、通信部21と、入力部22と、出力部23と、メモリ24と、ストレージ25と、電源部26と、複数のセンサ27と、処理部28とを有している。
通信部21は、公衆通信網101を介してサーバ10と通信可能に構成されるともに、閉域通信網102を介して他のデバイス20と通信可能に構成される。通信部21は、有線通信を行うようにしてもよいし、無線通信を行うようにしてもよい。有線通信の場合には、例えば、電話回線、イーサネット、インフィニバンド、光回線などを用いることができる。また、無線通信の場合には、例えば、無線LAN、3G、LTE、LPWA、ブルートゥースなどを用いることができる。この例では、1つの通信部21を設けたが、これに限定されるものではなく、例えば複数(例えば2つ)の通信部21を設けてもよい。この場合、2つの通信部のうちの一方が有線通信を行い、他方が無線通信を行うようにしてもよい。
入力部22は、ユーザの操作を受け付けるように構成される。具体的には、入力部22は、例えば、ユーザによる電源のオンオフ操作や、コマンド実行操作などを受け付けるようになっている。入力部22は、例えば、スイッチ、キーボード、マウス、タッチパネル、マイク、カメラなどを用いることができる。この例では、入力部22を設けたが、これに限定されるものではなく、入力部22を設けなくてもよい。
出力部23は、処理部28からの指示に基づいてユーザに対して情報を出力することにより、ユーザに情報を提供するように構成される。具体的には、出力部23は、例えば、CPUリソースやバッテリ残量などのデバイス20の状態や、複数のセンサ27の検出結果(例えば温度データや湿度データなど)を表示することができるようになっている。出力部23は、例えば、液晶ディスプレイ、LED(Light Emitting Diode)などのインジケータ、メータ針、スピーカなどを用いることができる。この例では、出力部23を設けたが、これに限定されるものではなく、出力部23を設けなくてもよい。
メモリ24は、処理部28がプログラムを実行する際に使用するデータ、複数のセンサ27の検出結果、機械学習モデルMなどを記憶するように構成される。メモリ24は、例えば、RAMを用いて構成される。
ストレージ25は、各種プログラムを記憶するように構成される。ストレージ25は、例えば、フラッシュメモリ、SSD、ROM(Read Only Memory)、ハードディスクなどを用いることができる。この例では、1つのストレージ25を設けたが、これに限定されるものではなく、例えば、複数のストレージ25を設けてもよい。この場合、複数のストレージ25は、1種類のストレージ(例えばフラッシュメモリ)のみを含んでもよいし、複数種類のストレージを含んでもよい。
電源部26は、デバイス20に対して電源供給を行うように構成される。電源部26は、この例では、電源部26は、バッテリを含んでいる。なお、これに限定されるものではなく、例えば商用電源から供給された交流電源信号を直流電源信号に変換するAC/DCコンバータを含んでもよい。また、電源部26は、発電する機能を有していてもよい。具体的には、電源部26は、例えば、太陽光、電波、振動、熱(温度差)、圧力により発電を行うことができる。この例では、電源部26を1つ設けたが、これに限定されるものではなく、例えば複数の電源部26を設けてもよい。この場合、電源部26は、1種類の電源部(例えばバッテリ)のみを含んでもよいし、複数種類の電源部を含んでもよい。
複数のセンサ27は、例えば、温度センサ、気圧センサ、湿度センサ、GPSセンサ、加速度センサ、イメージセンサ、マイクなどを用いることができる。デバイス20は、センサ27の検出結果を、メモリ24に記憶する。そして、デバイス20は、このセンサ27の検出結果を含むセンサ情報INFSを、サーバ10や他のデバイス20に送信するようになっている。
処理部28は、デバイス20の動作を制御するとともに、様々な処理を行うように構成される。処理部28は、例えば、CPU、ASIC(Application Specific Integrated Circuit)、FPGAなどを用いて構成される。処理部28は、例えばこれらのCPUなどのうちの2つ以上を含んでもよい。また、処理部28は、例えばGPUを有していてもよい。
処理部28は、学習処理部28Aを有している。学習処理部28Aは、サーバ10からの学習指示に基づいて、機械学習処理を行うことにより機械学習モデルMを生成するように構成される。学習処理部28Aは、例えば、センサ27の検出結果や、サーバ10や他のデバイス20から供給されたセンサ情報INFSを用いて、機械学習処理を行うようになっている。
ここで、ストレージ15は、本開示における「記憶部」の一具体例に対応する。デバイス情報INFDは、本開示における「デバイス情報」の一具体例に対応する。処理部16は、本開示における「処理部」の一具体例に対応する。通信部11は、本開示における「通信部」の一具体例に対応する。複数のデバイス20は、本開示における「複数のデバイス」の一具体例に対応する。機械学習モデルMは、本開示における「学習モデル情報」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の学習システム1の動作および作用について説明する。
(全体動作概要)
まず、図1を参照して、学習システム1の全体動作概要を説明する。デバイス20は、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含むデバイス情報INFDをサーバ10に送信する。また、デバイス20は、センサ27の検出結果を含むセンサ情報INFSをサーバ10に送信する。
サーバ10は、複数のデバイス20から送信されたデバイス情報INFDを、そのデバイス情報INFDを送信したデバイス20のデバイス識別子DVと関連づけて、デバイス情報データベースDBDに登録する。また、サーバ10は、複数のデバイス20から送信されたセンサ情報INFSを、そのセンサ情報INFSを送信したデバイス20のデバイス識別子DVと関連づけて、センサ情報データベースDBSに登録する。
サーバ10は、例えば、入力部12を操作したユーザの指示に基づいて、デバイス情報データベースDBDを参照して、複数のデバイス20のうちの、機械学習処理を行うべき1以上のデバイス20を決定する。そして、サーバ10は、決定された1以上のデバイス20に対して、機械学習処理の実行を指示する。
(詳細動作)
以下に、学習システム1を、撮影画像を利用して通行する人々や迷子の子供などを監視するシステムに適用する場合を例に挙げて説明する。この例では、複数のセンサ27がイメージセンサ(イメージセンサ27A)を含み、デバイス20が、このイメージセンサ27Aの検出結果に基づいて機械学習処理を行う。このシステムでは、例えば、迷子の子供の画像に基づいて1以上のデバイス20に機械学習処理を行わせ、機械学習モデルMを生成させる。そして、複数のデバイス20が、この機械学習モデルMを用いて、この迷子の子供のトラッキングを行う。以下に、この例について詳細に説明する。
デバイス20のイメージセンサ27Aは、例えば撮影動作を行い続けることにより画像データを生成する。デバイス20は、この画像データをストレージ25に記憶させる。また、デバイス20の処理部28は、この画像データに基づいてセンサ情報INFSを生成し、通信部21はこのセンサ情報INFSをサーバ10に送信する。サーバ10の通信部11は、このセンサ情報INFSを受信し、処理部16のセンサ情報受信部16Aは、このセンサ情報INFSを、そのセンサ情報INFSを送信したデバイス20のデバイス識別子DVと関連づけて、センサ情報データベースDBSに登録する。このようにして、サーバ10のセンサ情報データベースDBSには、複数のデバイス20から送信された画像データ(センサ情報INFS)が登録される。
また、デバイス20の処理部28は、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含むデバイス情報INFDを生成し、通信部21はこのデバイス情報INFDをサーバ10に間欠的に送信する。サーバ10の通信部11は、このデバイス情報INFDを受信し、処理部16のデバイス情報受信部16Bは、このデバイス情報INFDを、そのデバイス情報INFDを送信したデバイス20のデバイス識別子DVと関連づけて、デバイス情報データベースDBDに登録する。このようにして、サーバ10のデバイス情報データベースDBDには、複数のデバイス20から送信された、コンテキストやコンピューティングリソースなどについての情報(デバイス情報INFD)が登録される。
サーバ10の出力部13は、例えば、サーバ10の入力部12が受け付けたユーザ操作に基づいて、センサ情報データベースDBSに含まれる画像データなどの情報や、デバイス情報データベースDBDに含まれるコンテキストやコンピューティングリソースなどについての情報を表示する。例えば、サーバ10の出力部13は、複数のデバイス20により撮影された複数の画像を同時に表示することができる。
例えば、監視員は、サーバ10の出力部13に表示された情報を見ながら人々を監視する。そして、監視員は、例えば迷子の子供を見つけた場合に、入力部12を操作することにより、その迷子の子供の画像に基づいて、複数のデバイス20のうちの1以上のデバイス20に機械学習処理を行わせるように指示を行う。例えば、監視者が、入力部12を操作することにより、機械学習処理を行うべき1以上のデバイス20を選択してもよいし、以下に示すように、学習指示部16Eが、機械学習処理を行うべき1以上のデバイス20を選択してもよい。そして、学習指示部16Eが、機械学習処理を行うように指示する指示情報MSGを生成し、通信部11が、その指示情報MSGを、機械学習処理を行うべき1以上のデバイス20に対して送信する。
図6は、サーバ10の学習指示部16Eの一動作例を表すものである。学習指示部16Eは、機械学習処理によりある程度精度の高い機械学習モデルMを得るために必要な画像の枚数(必要枚数)をあらかじめ決定しておく。また、学習指示部16Eは、例えば、機械学習処理により、どのくらいの時間(学習制限時間)以内で機械学習モデルMを生成すべきかをあらかじめ決定しておく。学習指示部16Eは、これらの必要枚数および学習制限時間に基づいて、以下に示すようにして、複数のデバイス20のうちの1以上のデバイス20に機械学習処理を行わせるように指示を行う。
まず、学習指示部16Eは、デバイス情報データベースDBDを参照して、各デバイス20における1枚の画像の学習処理時間をそれぞれ推定する(ステップS101)。具体的には、学習指示部16Eは、機械学習モデルMの演算量と、デバイス情報データベースDBDに含まれる、各デバイス20におけるCPU性能、CPU使用率、メモリ使用量などに基づいて、各デバイス20における1枚の画像の学習処理時間をそれぞれ推定する。機械学習モデルMの演算量の単位は、積和演算量や、FLOPS(Floating-point Operations Per Second)などを用いることができる。例えば、コンピューティングリソースに余裕があるデバイス20については、学習処理時間が短くなり、コンピューティングリソースに余裕が少ないデバイス20については、学習処理時間が長くなる。
次に、学習指示部16Eは、ステップS101において推定した、各デバイス20における1枚の画像に係る学習処理時間に基づいて、各デバイス20における、必要枚数の画像の学習処理時間をそれぞれ推定する(ステップS102)。
次に、学習指示部16Eは、複数のデバイス20に、学習制限時間内に機械学習処理を終了できるデバイス20があるかどうかを確認する(ステップS103)。
ステップS103において、学習制限時間内に機械学習処理を終了できるデバイス20がある場合(ステップS103において“Y”)には、サーバ10は、そのデバイス20に対して、機械学習処理を行うように指示する(ステップS104)。具体的には、学習指示部16Eが、機械学習処理を行うように指示する指示情報MSGを生成し、通信部11が、その指示情報MSGを、そのデバイス20に対して送信する。例えば、そのようなデバイス20が複数ある場合には、サーバ10は、そのような複数のデバイス20のうちの1つを選択し、選択した1つのデバイス20に対して機械学習処理を行うように指示する。
ステップS103において、学習制限時間内に機械学習処理を終了できるデバイス20がない場合(ステップS103において“N”)には、学習指示部16Eは、各デバイス20における、学習制限時間内に機械学習処理を行うことができる画像数を推定する(ステップS105)。
次に、学習指示部16Eは、ステップS105における推定結果に基づいて、複数のデバイス20のうちの2以上のデバイス20を用いて機械学習処理を終了させることができるかどうかを確認する(ステップS106)。具体的には、例えば、学習指示部16Eは、貪欲法などのアルゴリズムを用いて、複数のデバイス20のうちの2以上のデバイス20の組み合わせを調べることにより、2以上のデバイス20を用いて機械学習処理を終了させることができるかどうかを確認する。
ステップS106において、2以上のデバイス20を用いて機械学習処理を終了させることができる場合(ステップS106において“Y”)には、サーバ10は、その2以上のデバイス20に対して、機械学習処理を行うように指示する(ステップS107)。具体的には、学習指示部16Eが、機械学習処理を行うように指示する指示情報MSGを生成し、通信部11が、その指示情報MSGを、その2以上のデバイス20に対して送信する。
ステップS106において、2以上のデバイス20を用いて機械学習処理を終了させることができない場合(ステップS106において“N”)には、出力部13は、学習制限時間内に機械学習処理を終了させることができない旨を表示する(ステップS108)。これにより、管理者は、学習制限時間内に機械学習処理を終了することができない旨を把握する。
以上で、このフローは終了する。
この例では、学習制限時間および必要枚数に基づいて、機械学習処理を行うべき1以上のデバイス20を決定したが、これに限定されるものではない。例えば、バッテリ消費量をさらに考慮してもよい。具体的には、例えば、学習指示部16Eは、複数のデバイス20のうちの、バッテリ残量が所定量以上であるデバイス20について、図6に示した処理を実行してもよい。
また、例えば、トラッキング対象の数を考慮してもよい。すなわち、例えばトラッキング対象である子供の数が増加すると、機械学習処理に必要な画像数(必要枚数)が増加する。学習指示部16Eは、この必要枚数を考慮して、機械学習処理を行うべき1以上のデバイス20を決定することができる。
また、例えば、トラッキング対象の移動速度を考慮してもよい。サーバ10は、デバイス20から送信された画像データに基づいて、トラッキング対象の移動速度を推定することができる。サーバ10は、この移動速度に基づいて、トラッキング対象が、そのデバイス20のイメージセンサ27Aの撮影範囲から外れるまでの時間を推定することができる。学習指示部16Eは、このようにして推定した時間を、学習制限時間として用いることにより、機械学習処理を行うべき1以上のデバイス20を決定することができる。
次に、デバイス20に対して機械学習処理を行うように指示する指示情報MSGについて、詳細に説明する。
図7は、指示情報MSGの一例を表すものである。指示情報MSGは、例えば、“学習を実施する時間”、“学習用データの保存場所”、“機械学習処理に使用するデータ”、および“機械学習モデルMの保存場所”についての情報を含んでいる。
“学習を実施する時間”は、機械学習処理を行うべき時間を指示する情報である。“学習を実施する時間”を、例えば、デバイス20が指示情報MSGを受信してから所定の時間に設定することができる。この所定の時間は、例えば、10分、20分、…、1時間、1日などに設定することができる。また、“学習を実施する時間”を、例えば、具体的な時刻を用いて設定してもよい。例えば、1時から2時まで、のように設定することができる。
“学習用データの保存場所”は、機械学習処理に使用可能な学習用データ(この例では画像データ)の場所を指示する情報である。“学習用データの保存場所”は、例えば、デバイス20のストレージ25に設定することができる。この場合には、デバイス20の学習処理部28Aは、例えば、ストレージ25に記憶された画像データに基づいて機械学習処理を行うことができる。また、“学習用データの保存場所”は、例えば、URL(Uniform Resource Locator)/URI(Uniform Resource Identifier)に設定することができる。この場合には、学習処理部28Aは、例えば、このURL/URIに基づいてネットワークにおける図示しないサーバなどにアクセスすることにより画像データを取得し、この画像データに基づいて機械学習処理を行うことができる。また、“学習用データの保存場所”は、例えば、あるデバイス20のデバイス識別子DVに設定することができる。この場合には、学習処理部28Aは、例えば、そのデバイス識別子DVが割り当てられたデバイス20に記憶された画像データに基づいて機械学習処理を行うことができる。
“機械学習処理に使用するデータ”は、実際に機械学習処理に使用すべきデータである。例えば静止画データの場合には、その静止画データのファイル名を用いて、“機械学習処理に使用するデータ”を指定することができる。具体的には、“file001.jpgからfile100.jpgまで”のように複数のファイル名を用いることができる。この場合には、デバイス20の学習処理部28Aは、設定された複数のファイルに基づいて機械学習処理を行うことができる。また、例えば動画データの場合には、タイムスタンプを用いて、開始時間(例えば01:00)および終了時間(例えば02:00)により“機械学習処理に使用するデータ”を指定することができる。この場合には、学習処理部28Aは、“開始時間”から“終了時間”までの期間におけるデータに基づいて機械学習処理を行うことができる。また、例えば、“機械学習処理に使用するデータ”を、指示情報MSGを受信した後に撮影した複数(例えば10枚)の画像の画像データに設定することができる。この場合には、デバイス20のイメージセンサ27Aは、デバイス20が指示情報MSGを受信した後に10回撮影を行い、学習処理部28Aは、この撮影により得られた10個の画像データに基づいて機械学習処理を行うことができる。
“機械学習モデルMの保存場所”は、例えばすでに生成された機械学習モデルMを用いて機械学習処理を行うことによりその機械学習モデルMを更新する場合に設定するものであり、すでに生成された機械学習モデルMの場所を指示する情報である。“機械学習モデルMの保存場所”は、例えば、デバイス20のストレージ25に設定することができる。この場合には、デバイス20の学習処理部28Aは、例えば、ストレージ25に記憶された機械学習モデルMに基づいて機械学習処理を行うことができる。また、“機械学習モデルMの保存場所”は、例えば、URL/URIに設定することができる。この場合には、学習処理部28Aは、例えば、このURL/URIに基づいてネットワークにおける図示しないサーバなどにアクセスすることにより機械学習モデルMを取得し、この機械学習モデルMに基づいて機械学習処理を行うことができる。また、“機械学習モデルMの保存場所”は、例えば、あるデバイス20のデバイス識別子DVに設定することができる。この場合には、学習処理部28Aは、例えば、そのデバイス識別子DVが割り当てられたデバイス20に記憶された機械学習モデルMに基づいて機械学習処理を行うことができる。また、“機械学習モデルMの保存場所”は、例えば、“受信待機”に設定することができる。この場合には、デバイス20は、サーバ10から後に機械学習モデルMが送信されるまで待機する。これにより、学習処理部28Aは、サーバ10から送信された機械学習モデルMに基づいて機械学習処理を行うことができる。
図8は、機械学習処理を行うべき2つのデバイス20(デバイス20A,20B)を決定した場合における、学習システム1の一動作例を表すものである。
サーバ10の学習指示部16Eは、例えば、図6に示した処理を行うことにより、機械学習処理を行うべき1以上のデバイス20を決定する(ステップS111)。この例では、学習指示部16Eは、2つのデバイス20A,20Bを、機械学習処理を行うべきデバイス20として決定する。
次に、サーバ10の学習指示部16Eは指示情報MSG(指示情報MSGA)を生成し、通信部11はこの指示情報MSGAをデバイス20Aに対して送信する(ステップS112)。同様に、サーバ10の学習指示部16Eは指示情報MSG(指示情報MSGB)を生成し、通信部11はこの指示情報MSGBをデバイス20Bに対して送信する(ステップS113)。デバイス20Aの通信部21は、この指示情報MSGAを受信し、同様に、デバイス20Bの通信部21は、この指示情報MSGBを受信する。
次に、デバイス20Aの学習処理部28Aは、指示情報MSGAに基づいて、学習用データおよび機械学習モデルMを準備し、これらの学習用データおよび機械学習モデルMに基づいて機械学習処理を行う(ステップS114)。そして、学習処理部28Aは、機械学習処理の処理結果に基づいて、機械学習モデルMを更新することにより、機械学習モデルMAを生成する。同様に、デバイス20Bの学習処理部28Aは、指示情報MSGBに基づいて、学習用データおよび機械学習モデルMを準備し、これらの学習用データおよび機械学習モデルMに基づいて機械学習処理を行う(ステップS115)。そして、デバイス20Bの学習処理部28Aは、機械学習処理の処理結果に基づいて、機械学習モデルMを更新することにより、機械学習モデルMBを生成する。
次に、デバイス20Aの通信部21は、生成した機械学習モデルMAをサーバ10に対して送信する(ステップS116)。同様に、デバイス20Bの通信部21は、生成した機械学習モデルMBをサーバ10に対して送信する(ステップS117)。サーバ10の通信部11は、機械学習モデルMA,MBを受信する。
次に、サーバ10の学習指示部16Eは、機械学習モデルMA,MBに基づいて、機械学習処理が成功しているかどうかを検証し、機械学習処理が成功している場合には、機械学習モデルMA,MBを統合することにより機械学習モデルMを生成する(ステップS118)。
そして、サーバ10の通信部11は、ステップS118において統合した機械学習モデルMを、他のデバイス20(デバイス20C)に対して送信する(ステップS119)。このデバイス20Cの通信部21は、この機械学習モデルMを受信する。
以上で、このシーケンスは終了する。
この例では、デバイス20A,20Bは、ステップS114,S115において機械学習モデルMA,MBを生成し、生成した機械学習モデルMA,MBをサーバ10に送信するようにしたが、これに限定されるものではない。これに代えて、図9に示すように、デバイス20Aは、機械学習処理(ステップS124)における学習途中のデータをサーバ10に送信し(ステップS126)、デバイス20Bは、機械学習処理(ステップS125)における学習途中のデータをサーバ10に送信してもよい(ステップS127)。この場合には、サーバ10は、例えば、自らが有する機械学習モデルMに、デバイス20A,20Bから送信された学習途中のデータを適用することにより、この機械学習モデルMを更新してもよい。ここで、機械学習処理における学習途中のデータは、本開示における「学習モデル情報」の一具体例に対応する。
また、この例では、デバイス20A,20Bは、機械学習モデルMA,MBをサーバ10に送信し、サーバ10が、機械学習モデルMA,MBを統合し、統合された機械学習モデルMをデバイス20Cに送信したが、これに限定されるものではない。これに代えて、図10に示すように、デバイス20Aは、機械学習モデルMAをデバイス20Cに送信し(ステップS136)、デバイス20Bは、機械学習モデルMBをデバイス20Cに送信し(ステップS137)、デバイス20Cの学習処理部28Aが、機械学習モデルMA,MBに基づいて、機械学習処理が成功しているかどうかを検証し、機械学習処理が成功している場合には、機械学習モデルMA,MBを統合することにより機械学習モデルMを生成してもよい(ステップS138)。また、図9の例と同様に、デバイス20Aが、機械学習処理における学習途中のデータをデバイス20Cに送信し、デバイス20Bが、機械学習処理における学習途中のデータをデバイス20Cに送信し、デバイス20Cが、例えば、自らが有する機械学習モデルMに、デバイス20A,20Bから送信された学習途中のデータを適用することにより、この機械学習モデルMを更新してもよい。
このように、学習システム1では、デバイス情報データベースDBDに基づいて、機械学習処理を行うべき1以上のデバイス20を決定するようにした。これにより、学習システム1では、例えば、複数のデバイス20におけるコンテキストやコンピューティングリソースに基づいて、機械学習処理を行うべき1以上のデバイス20を決定することができる。その結果、学習システム1では、例えば、コンピューティングリソースに余裕があるデバイス20に機械学習処理を行わせることができるので、効率的に分散機械学習を行うことができる。
また、学習システム1では、学習制限時間や必要枚数を設定し、これらの学習制限時間や必要枚数の条件を満たすように、機械学習処理を行うべき1以上のデバイス20を決定した。これにより、学習システム1では、例えば、複数のデバイス20のうちの、必要最小限の数のデバイス20に機械学習処理を行わせることができるので、効率的に分散機械学習を行うことができる。
また、学習システム1では、サーバ10からの指示に基づいて、デバイス20が機械学習処理を行うようにしたので、タイムリーに機械学習処理を行うことができるので、効率的に機械学習モデルMの精度を高めることができる。
すなわち、分散機械学習を行う方法としては、例えば、複数のコンピュータやサーバをネットワークで互いに接続し、システム全体で蓄積したデータに基づいて並列的に機械学習処理を行うことにより機械学習モデルを得る方法が考えられる。この方法は、定常的または周期的な現象の学習には適しているが、例えば即時性が低いため、一時的な現象の学習には適していない。一方、本実施の形態に係る学習システム1では、サーバ10からの指示に基づいて、デバイス20が機械学習処理を行うようにしたので、サーバ1-からの指示に基づいて、一時的な現象をタイムリーに学習する行うことができる。これにより、学習システム1では、効率的に機械学習モデルMの精度を高めることができる。
また、学習システム1では、学習制限時間を設定し、この学習制限時間の条件を満たすように、機械学習処理を行うべき1以上のデバイス20を決定した。これにより、例えば、監視対象となる人物が移動していく場合でも、その人物が撮影画像に収まっているであろう短い時間を学習制限時間に設定することにより、短い時間で機械学習処理を行うことができる。そして、学習システム1では、例えばその直後に、他のデバイス20が撮影した画像を用いて、すぐにトラッキングを開始することができる。これにより、学習システム1では、センサの検出対象が移動する場合でも、効率的に機械学習処理を行うことができる。
[効果]
以上のように本実施の形態では、デバイス情報データベースに基づいて、機械学習処理を行うべき1以上のデバイスを決定するようにしたので、効率的に分散機械学習を行うことができる。
<2.第2の実施の形態>
次に、第2の実施の形態に係る学習システム2について説明する。本実施の形態は、デバイス20の位置に基づいて、複数のデバイス20をクラスタリングすることにより、機械学習処理を行うべきデバイス20を決定するものである。なお、上記第1の実施の形態に係る学習システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
学習システム2は、図1に示したように、サーバ30を備えている。サーバ30は、図2に示したように、処理部36を有している。処理部36は、学習指示部36Eを有している。学習指示部36Eは、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、複数のデバイス20をクラスタリングすることにより、機械学習処理を行うべき1以上のデバイス20を決定するようになっている。
以下に、学習システム2を、農場における温度や湿度などの気象情報を監視するシステムに適用する場合を例に挙げて説明する。このシステムでは、農場内の様々な位置にデバイス20を設置する。このデバイス20の複数のセンサ27は、温度センサや湿度センサなどを含む。デバイス20は、これらのセンサ27の検出結果に基づいて機械学習処理を行う。
デバイス20の処理部28は、温度センサや湿度センサなどの検出結果に基づいてセンサ情報INFSを生成し、通信部21はこのセンサ情報INFSをサーバ30に送信する。サーバ30の通信部11は、このセンサ情報INFSを受信し、処理部36のセンサ情報受信部16Aは、このセンサ情報INFSを、そのセンサ情報INFSを送信したデバイス20のデバイス識別子DVと関連づけて、センサ情報データベースDBSに登録する。このようにして、サーバ30のセンサ情報データベースDBSには、複数のデバイス20から送信された、センサ27の検出結果(センサ情報INFS)が登録される。
また、デバイス20の処理部28は、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含むデバイス情報INFDを生成し、通信部21はこのデバイス情報INFDをサーバ30に間欠的に送信する。サーバ30の通信部11は、このデバイス情報INFDを受信し、処理部36のデバイス情報受信部16Bは、このデバイス情報INFDを、そのデバイス情報INFDを送信したデバイス20のデバイス識別子DVと関連づけて、デバイス情報データベースDBDに登録する。このようにして、サーバ30のデバイス情報データベースDBDには、複数のデバイス20から送信された、コンテキストやコンピューティングリソースなどについての情報(デバイス情報INFD)が登録される。
サーバ30の出力部13は、例えば、サーバ30の入力部12が受け付けたユーザ操作に基づいて、センサ情報データベースDBSに含まれる温度や湿度などの情報や、デバイス情報データベースDBDに含まれるコンテキストやコンピューティングリソースなどについての情報を表示する。
サーバ30は、例えば、監視員からの指示に基づいて、または、サーバ30において定義された条件を満たした場合に、複数のデバイス20のうちの1以上のデバイス20に機械学習処理を行わせるように指示を行う。学習指示部36Eは、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、複数のデバイス20をクラスタリングすることにより、機械学習処理を行うべき1以上のデバイス20を決定する。学習指示部36Eは、機械学習処理を行うように指示する指示情報MSGを生成する。指示情報MSGは、図7に示したように、学習用データに関する情報や、使用すべき機械学習モデルMについての情報を含む。そして、通信部11は、その指示情報MSGを、機械学習処理を行うべき1以上のデバイス20に対して送信する。
図11は、サーバ30の学習指示部36Eの一動作例を表すものである。
まず、学習指示部36Eは、センサ情報データベースDBSを参照して、デバイス識別子DVのリストを生成する(ステップS201)。
次に、学習指示部36Eは、ステップS201において生成したデバイス識別子DVのリスト、およびデバイス情報データベースDBDに基づいて、デバイス識別子DVとそのデバイス識別子DVに関連づけられたデバイス20の位置との対応関係を示す位置テーブルTBLを生成する(ステップS202)。
そして、学習指示部36Eは、ステップS202において生成した位置テーブルTBLに基づいて、複数のデバイス20の間の物理距離をそれぞれ算出し、その物理距離が所定の距離εよりも短い複数のデバイス20が1つのクラスタを構成するようにクラスタリングを行う(ステップS203)。具体的には、学習指示部36Eは、例えば、あるデバイス20(デバイス20X)の位置と、他のデバイス20(デバイス20Y)の位置との間の物理距離が所定の距離εよりも短い場合には、これらのデバイス20X,20Yは同じ1つのクラスタを構成するようにクラスタリングする。
以上で、このフローは終了する。これにより、全てのデバイス20は、複数のクラスタのいずれかに属するようになる。
サーバ30は、同じクラスタに属する複数のデバイス20における、同じ時間帯でのセンサ27の検出結果に基づいて、そのクラスタに属する複数のデバイス20に機械学習処理を行わせる。サーバ30は、そのクラスタに属する複数のデバイス20に供給する学習用データをそれぞれ決定し、指示情報MSGを、そのクラスタに属する複数のデバイス20に対して送信する。
図12は、機械学習処理を行うべき複数のデバイス20(デバイス20A~20C)を決定した場合における、学習システム2の一動作例を表すものである。図13は、学習システム2の一動作例を表すものである。図13に示したように、学習システム2では、クラスタ91,92を含む複数のクラスタが生成される。クラスタ91は、この例では3つのデバイス20A~20Cを含んでいる。
サーバ30の学習指示部36Eは、例えば、図11に示した処理を行うことにより、機械学習処理を行うべき1以上のデバイス20を決定する(ステップS211)。この例では、学習指示部36Eは、図13に示したように、クラスタ91を構成する3つのデバイス20A~20Cを、機械学習処理を行うべきデバイス20として決定する。
次に、サーバ30の学習指示部36Eは指示情報MSG(指示情報MSGA)を生成し、通信部11はこの指示情報MSGAをデバイス20Aに対して送信する(ステップS212)。同様に、サーバ30の学習指示部36Eは指示情報MSG(指示情報MSGB)を生成し、通信部11はこの指示情報MSGBをデバイス20Bに対して送信する(ステップS213)。また、サーバ30の学習指示部36Eは指示情報MSG(指示情報MSGC)を生成し、通信部11はこの指示情報MSGCをデバイス20Cに対して送信する(ステップS214)。デバイス20Aの通信部21は、この指示情報MSGAを受信し、デバイス20Bの通信部21は、この指示情報MSGBを受信し、デバイス20Cの通信部21は、この指示情報MSGCを受信する。
次に、デバイス20Aの学習処理部28Aは、指示情報MSGAに基づいて、学習用データおよび機械学習モデルMを準備し、これらの学習用データおよび機械学習モデルMに基づいて機械学習処理を行う(ステップS215)。そして、学習処理部28Aは、機械学習処理の処理結果に基づいて、機械学習モデルMを更新することにより、機械学習モデルMAを生成する。同様に、デバイス20Bの学習処理部28Aは、指示情報MSGBに基づいて、学習用データおよび機械学習モデルMを準備し、これらの学習用データおよび機械学習モデルMに基づいて機械学習処理を行う(ステップS216)。そして、デバイス20Bの学習処理部28Aは、機械学習処理の処理結果に基づいて、機械学習モデルMを更新することにより、機械学習モデルMBを生成する。同様に、デバイス20Cの学習処理部28Aは、指示情報MSGCに基づいて、学習用データおよび機械学習モデルMを準備し、これらの学習用データおよび機械学習モデルMに基づいて機械学習処理を行う(ステップS217)。そして、デバイス20Cの学習処理部28Aは、機械学習処理の処理結果に基づいて、機械学習モデルMを更新することにより、機械学習モデルMCを生成する。
次に、デバイス20Aの通信部21は、生成した機械学習モデルMAをサーバ30に対して送信する(ステップS218)。同様に、デバイス20Bの通信部21は、生成した機械学習モデルMBをサーバ30に対して送信し(ステップS219)、デバイス20Cの通信部21は、生成した機械学習モデルMCをサーバ30に対して送信する(ステップS220)。サーバ30の通信部11は、機械学習モデルMA,MB,MCを受信する。
次に、サーバ30の学習指示部36Eは、機械学習モデルMA,MB,MCに基づいて、機械学習処理が成功しているかどうかを検証し、機械学習処理が成功している場合には、機械学習モデルMA,MB,MCを統合することにより機械学習モデルMを生成する(ステップS221)。
そして、サーバ30の通信部11は、ステップS221において統合した機械学習モデルMを、クラスタ91に属する全てのデバイス20(デバイス20A~20C)に対して送信する(ステップS222)。デバイス20A~20Cの通信部21は、この機械学習モデルMを受信する。
以上で、このシーケンスは終了する。
この例では、デバイス20A~20Cは、ステップS215~S217において機械学習モデルMA~MCを生成し、生成した機械学習モデルMA~MCをサーバ30に送信するようにしたが、これに限定されるものではない。これに代えて、上記第1の実施の形態の場合(図9)と同様に、デバイス20A~20Cは、機械学習処理における学習途中のデータをサーバ30に送信してもよい。この場合には、サーバ30は、例えば、自らが有する機械学習モデルMに、デバイス20A~20Cから送信された学習途中のデータを適用することにより、この機械学習モデルMを更新してもよい。
このように、学習システム2では、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、複数のデバイス20をクラスタリングすることにより、機械学習処理を行うべき1以上のデバイス20を決定するようにした。これにより、位置が互いに近い複数のデバイス20のセンサ27により、ほぼ同じ時間帯に得られた検出結果に基づいて、機械学習処理を行うことができるので、検出対象である事象の位置や時刻のずれに強い、ロバスト性が高い機械学習モデルMを得ることができる。すなわち、例えば、複数のデバイス20のセンサ27により得られた検出結果に基づいて、各デバイス20において機械学習処理をそれぞれ別々に行う場合には、各デバイス20において得られた機械学習モデルMが、そのデバイス20の位置に応じたものになるおそれがある。この場合には、機械学習モデルMを生成したデバイス20とは異なるデバイス20が、その機械学習モデルMを使用して様々な演算処理を行う場合には、演算精度が悪化するおそれがある。一方、学習システム2では、複数のデバイス20をクラスタリングするようにしたので、位置が互いに近い複数のデバイス20のセンサ27により得られた検出結果に基づいて、機械学習処理を行うことができる。よって、学習システム2では、ロバスト性が高い機械学習モデルMを得ることができる。その結果、学習システム2では、機械学習モデルMを使用して様々な演算処理を行う場合に、演算精度を高めることができる。
以上のように本実施の形態では、デバイス情報データベースに含まれる、デバイスの位置についての情報に基づいて、複数のデバイスをクラスタリングすることにより、機械学習処理を行うべき1以上のデバイスを決定するようにしたので、ロバスト性が高い機械学習モデルを得ることができる。
<3.第3の実施の形態>
次に、第3の実施の形態に係る学習システム3について説明する。本実施の形態は、デバイス20の移動経路に基づいて、機械学習処理を行うべき1以上のデバイスを決定するものである。なお、上記第1の実施の形態に係る学習システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
学習システム3は、図1に示したように、サーバ40を備えている。サーバ40は、図2に示したように、処理部46を有している。処理部46は、学習指示部46Eを有している。学習指示部46Eは、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、デバイス20の移動経路を求めることにより、機械学習処理を行うべき1以上のデバイス20を決定するようになっている。
以下に、学習システム3を、路面状況を監視するシステムに適用する場合を例に挙げて説明する。このシステムでは、道路を走行する複数の車両にデバイス20を搭載する。このデバイス20の複数のセンサ27は、例えば、路面から受ける圧力を検出するセンサや、タイヤと路面との摩擦を検出するセンサなどを含む。デバイス20が、これらのセンサ27の検出結果に基づいて機械学習処理を行う。なお、この他、例えば、ドローンにデバイス20を搭載し、大気の状態を検出するシステムにも適用可能である。
デバイス20の処理部28は、複数のセンサ27の検出結果に基づいてセンサ情報INFSを生成し、通信部21はこのセンサ情報INFSをサーバ40に送信する。サーバ40の通信部11は、このセンサ情報INFSを受信し、処理部36のセンサ情報受信部16Aは、このセンサ情報INFSを、そのセンサ情報INFSを送信したデバイス20のデバイス識別子DVと関連づけて、センサ情報データベースDBSに登録する。このようにして、サーバ40のセンサ情報データベースDBSには、複数のデバイス20から送信された、センサ27の検出結果(センサ情報INFS)が登録される。
また、デバイス20の処理部28は、デバイス20のコンテキストやコンピューティングリソースなどについての情報を含むデバイス情報INFDを生成し、通信部21はこのデバイス情報INFDをサーバ40に間欠的に送信する。デバイス情報INFDは、図4に示した情報に加えて、例えば、目的地や経由地についての情報を含んでいてもよい。サーバ40の通信部11は、このデバイス情報INFDを受信し、処理部46のデバイス情報受信部16Bは、このデバイス情報INFDを、そのデバイス情報INFDを送信したデバイス20のデバイス識別子DVと関連づけて、デバイス情報データベースDBDに登録する。このようにして、サーバ40のデバイス情報データベースDBDには、複数のデバイス20から送信された、コンテキストやコンピューティングリソースなどについての情報(デバイス情報INFD)が登録される。
サーバ40の出力部13は、例えば、サーバ40の入力部12が受け付けたユーザ操作に基づいて、センサ情報データベースDBSに含まれる、路面から受ける圧力についての情報、タイヤと路面との摩擦についての情報、デバイス情報データベースDBDに含まれるコンテキストやコンピューティングリソースなどについての情報を表示する。
サーバ40は、例えば、監視員からの指示に基づいて、または、サーバ40において定義された条件を満たした場合に、複数のデバイス20のうちの1以上のデバイス20に機械学習処理を行わせるように指示を行う。学習指示部46Eは、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、デバイス20の移動経路を求めることにより、機械学習処理を行うべき1以上のデバイス20を決定する。学習指示部46Eは、機械学習処理を行うように指示する指示情報MSGを生成する。指示情報MSGは、図7に示したように、学習用データに関する情報や、使用すべき機械学習モデルMについての情報を含む。そして、通信部11は、その指示情報MSGを、機械学習処理を行うべき1以上のデバイス20に対して送信する。
図14は、サーバ40の学習指示部46Eの一動作例を表すものである。
まず、学習指示部46Eは、センサ情報データベースDBSを参照して、デバイス識別子DVのリストを生成する(ステップS301)。
次に、学習指示部46Eは、ステップS301において生成したデバイス識別子DVのリスト、およびデバイス情報データベースDBDに基づいて、各デバイス20の位置の変化を示す経路ベクトルを算出することにより、経路ベクトルテーブルTBL2を生成する(ステップS302)。
図15は、経路ベクトルテーブルTBL2の一例を表すものである。経路ベクトルテーブルTBL2では、経路ベクトルは、デバイス識別子DVおよびベクトル識別子と関連づけられている。経路ベクトルは、始点座標および終点座標についての情報を有している。ベクトル識別子は、複数の経路ベクトルを識別するためのコードである。
次に、学習指示部46Eは、ステップS302において生成した経路ベクトルテーブルTBL2に含まれる複数の経路ベクトルに基づいて、同じような経路を通過した複数のデバイス20を特定することにより、経路重複テーブルTBL3を生成する(ステップS303)。具体的には、学習指示部46Eは、経路ベクトル間の距離Dを算出することにより、複数のデバイス20が同じような経路を通過したかどうかを確認する。経路ベクトル間の距離Dは、例えばユークリッド距離を用いることができる。
図16は、経路重複テーブルTBL3の一例を表すものである。経路重複テーブルTBL3では、同じような経路を通過した複数のデバイス20のデバイス識別子DVが、経路識別子と関連づけられている。経路識別子は、複数の経路を識別するためのコードである。
以上で、このフローは終了する。これにより、全てのデバイス20が、複数の経路識別子のいずれかに関連づけられる。
サーバ40は、同じ経路識別子に関連づけられた複数のデバイス20におけるセンサ27の検出結果に基づいて、その経路識別子に関連づけられた複数のデバイス20に、機械学習処理を行わせる。サーバ40は、その経路識別子に関連づけられた複数のデバイス20に供給する学習用データをそれぞれ決定し、指示情報MSGを、その経路識別子に関連づけられた複数のデバイス20に対して送信する。これ以降の動作は、第2の実施の形態に係る学習システム2の場合(図12)と同様である。
このように、学習システム3では、デバイス情報データベースDBDに含まれる、デバイス20の位置についての情報に基づいて、デバイス20の移動経路を求めることにより、機械学習処理を行うべき1以上のデバイス20を決定するようにした。これにより、移動経路がほぼ同じである複数のデバイス20のセンサ27により得られた検出結果に基づいて、その経路についての機械学習処理を行うことができるので、短い時間で、精度の高い機械学習モデルMを得ることができる。その結果、学習システム3では、機械学習モデルMを使用して、その移動経路に係る路面状況などを、より高い精度で把握することができる。
また、学習システム3では、移動する車両にデバイス20を搭載し、サーバ40からの指示に基づいてデバイス20が機械学習処理を行うようにしたので、効率的に分散機械学習を行うことができる。すなわち、例えば、システム全体で蓄積したデータに基づいて機械学習処理を行うことにより機械学習モデルを得る方法では、デバイス20がある経路を通過してから、システムが機械学習処理を開始するまで、そのデバイス20のセンサ27の検出結果はそのまま蓄積されてしまう。一方、学習システム3では、サーバ40からの指示に基づいてデバイス20が機械学習処理を行うことができるので、デバイス20は、タイムリーに機械学習処理を行うことができるので、効率的に分散機械学習を行うことができる。
以上のように本実施の形態では、デバイス情報データベースに含まれる、デバイスの位置についての情報に基づいて、デバイスの移動経路を求めることにより、機械学習処理を行うべき1以上のデバイスを決定するようにしたので、短い時間で、精度の高い機械学習モデルを得ることができる。
以上、いくつかの実施の形態を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
例えば、上記の各実施の形態では、デバイス情報INFDに含まれる、位置についての情報や、コンピューティングリソースについての情報に基づいて、機械学習処理を行うべき1以上のデバイス20を決定したが、これに限定されるものではなく、デバイス情報INFDに含まれる、デバイス20のコンテキストに係る様々な情報に基づいて、1以上のデバイス20を決定することができる。
例えば、各実施の形態の技術を組み合わせてもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、効率的な学習処理を実現することができる。
(1)複数のデバイスにそれぞれ対応し、前記複数のデバイスから供給された複数のデバイス情報を記憶する記憶部と、
前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
を備えたサーバ。
(2)各デバイス情報は、対応するデバイスのリソースを示すリソース情報を含み、
前記処理部は、前記学習処理の演算量、前記学習処理の処理対象であるデータの量、および前記複数のデバイスについての前記リソース情報に基づいて、前記1以上のデバイスを決定する
前記(1)に記載のサーバ。
(3)各デバイス情報は、対応するデバイスの位置を示す位置情報を含み、
前記処理部は、前記複数のデバイスについての前記位置情報に基づいて前記1以上のデバイスを決定する
前記(1)または(2)に記載のサーバ。
(4)前記処理部は、前記複数のデバイスについての前記位置情報に基づいて前記複数のデバイスの間の距離を算出し、その算出結果に基づいて前記1以上のデバイスを決定する
前記(3)に記載のサーバ。
(5)前記処理部は、前記複数のデバイスについての前記位置情報に基づいて各デバイスの移動経路を取得し、その取得結果に基づいて前記1以上のデバイスを決定する
前記(3)に記載のサーバ。
(6)前記通信部は、前記1以上のデバイスに対して前記学習処理の処理対象であるデータを送信する
前記(1)から(5)のいずれかに記載のサーバ。
(7)前記通信部は、前記1以上のデバイスに対して、前記学習処理の処理対象であるデータの取得をさらに指示する
前記(1)から(5)のいずれかに記載のサーバ。
(8)前記複数のデバイスのそれぞれは、センサを有し、
前記学習処理の処理対象であるデータは、前記複数のデバイスのうちの1以上の前記センサの検出結果である
前記(6)または(7)に記載のサーバ。
(9)前記1以上のデバイスは、2以上のデバイスを含み、
前記通信部は、前記2以上のデバイスのそれぞれから送信された、前記学習処理により得られた学習モデル情報を受信し、
前記処理部は、2以上の前記学習モデル情報を統合する
前記(1)から(8)のいずれかに記載のサーバ。
(10)前記通信部は、統合された前記学習モデル情報を、前記複数のデバイスのうちの前記2以上のデバイス以外の第1のデバイスに送信する
前記(9)に記載のサーバ。
(11)前記通信部は、統合された前記学習モデル情報を、前記2以上のデバイスに送信する
前記(9)に記載のサーバ。
(12)サーバと
複数のデバイスと
を備え、
前記サーバは、
前記複数のデバイスにそれぞれ対応し、前記複数のデバイスから供給された複数のデバイス情報を記憶する記憶部と、
前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
を有する
学習システム。
(13)前記1以上のデバイスは、2以上のデバイスを含み、
前記複数のデバイスのうちの前記2以上のデバイス以外の複数のデバイスは、第1のデバイスを含み、
前記2以上のデバイスのそれぞれは、前記学習処理を行うことにより学習モデル情報を生成し、前記学習モデル情報を前記第1のデバイスに送信し、
前記第1のデバイスは、2以上の前記学習モデル情報を統合する
前記(12)に記載の学習システム。
(14)前記1以上のデバイスは、単一の第2のデバイスであり
前記複数のデバイスは、第1のデバイスを含み、
前記第2のデバイスは、前記学習処理を行うことにより学習モデル情報を生成し、前記学習モデル情報を前記第1のデバイスに送信する
前記(12)に記載の学習システム。
本出願は、日本国特許庁において2019年1月15日に出願された日本特許出願番号2019-004030号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (13)

  1. 複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶する記憶部と、
    前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
    前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
    を備え
    各デバイス情報は、対応するデバイスの位置を示す位置情報を含み、
    前記処理部は、前記複数のデバイスについての前記位置情報に基づいて前記複数のデバイスの間の距離を算出し、その算出結果に基づいて前記1以上のデバイスを決定する
    サーバ。
  2. 各デバイス情報は、対応するデバイスのリソースを示すリソース情報を含み、
    前記処理部は、前記学習処理の演算量、前記学習処理の処理対象であるデータの量、および前記複数のデバイスについての前記リソース情報に基づいて、前記1以上のデバイスを決定する
    請求項1に記載のサーバ。
  3. 前記通信部は、前記1以上のデバイスに対して前記学習処理の処理対象であるデータを送信する
    請求項1に記載のサーバ。
  4. 前記通信部は、前記1以上のデバイスに対して、前記学習処理の処理対象であるデータの取得をさらに指示する
    請求項1に記載のサーバ。
  5. 前記複数のデバイスのそれぞれは、センサを有し、
    前記学習処理の処理対象であるデータは、前記複数のデバイスのうちの1以上の前記センサの検出結果である
    請求項3に記載のサーバ。
  6. 前記1以上のデバイスは、2以上のデバイスを含み、
    前記通信部は、前記2以上のデバイスのそれぞれから送信された、前記学習処理により得られた学習モデル情報を受信し、
    前記処理部は、2以上の前記学習モデル情報を統合する
    請求項1に記載のサーバ。
  7. 前記通信部は、統合された前記学習モデル情報を、前記複数のデバイスのうちの前記2以上のデバイス以外の第1のデバイスに送信する
    請求項6に記載のサーバ。
  8. 前記通信部は、統合された前記学習モデル情報を、前記2以上のデバイスに送信する
    請求項6に記載のサーバ。
  9. 複数のデバイスにそれぞれ対応し、複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶する記憶部と、
    前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
    前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
    を備え、
    各デバイス情報は、対応するデバイスの位置を示す位置情報を含み、
    前記処理部は、前記複数のデバイスについての前記位置情報に基づいて各デバイスの移動経路を取得し、その取得結果に基づいて前記1以上のデバイスを決定する
    サーバ。
  10. サーバと
    複数のデバイスと
    を備え、
    前記サーバは、
    前記複数のデバイスにそれぞれ対応し、前記複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶する記憶部と、
    前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
    前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
    を有し、
    各デバイス情報は、対応するデバイスの位置を示す位置情報を含み、
    前記処理部は、前記複数のデバイスについての前記位置情報に基づいて前記複数のデバイスの間の距離を算出し、その算出結果に基づいて前記1以上のデバイスを決定する
    学習システム。
  11. 前記1以上のデバイスは、2以上のデバイスを含み、
    前記複数のデバイスのうちの前記2以上のデバイス以外の複数のデバイスは、第1のデバイスを含み、
    前記2以上のデバイスのそれぞれは、前記学習処理を行うことにより学習モデル情報を生成し、前記学習モデル情報を前記第1のデバイスに送信し、
    前記第1のデバイスは、2以上の前記学習モデル情報を統合する
    請求項10に記載の学習システム。
  12. 前記1以上のデバイスは、単一の第2のデバイスであり
    前記複数のデバイスは、第1のデバイスを含み、
    前記第2のデバイスは、前記学習処理を行うことにより学習モデル情報を生成し、前記学習モデル情報を前記第1のデバイスに送信する
    請求項10に記載の学習システム。
  13. サーバと
    複数のデバイスと
    を備え、
    前記サーバは、
    前記複数のデバイスにそれぞれ対応し、前記複数のデバイスからそれぞれ供給され、それぞれが、対応するデバイスについての情報を含む複数のデバイス情報を記憶する記憶部と、
    前記複数のデバイス情報に基づいて、前記複数のデバイスのうちの学習処理を行うべき1以上のデバイスを決定する処理部と、
    前記1以上のデバイスに対して前記学習処理の実行を指示する通信部と
    を有し、
    各デバイス情報は、対応するデバイスの位置を示す位置情報を含み、
    前記処理部は、前記複数のデバイスについての前記位置情報に基づいて各デバイスの移動経路を取得し、その取得結果に基づいて前記1以上のデバイスを決定する
    学習システム。
JP2020566109A 2019-01-15 2019-10-18 サーバおよび学習システム Active JP7409326B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019004030 2019-01-15
JP2019004030 2019-01-15
PCT/JP2019/041042 WO2020148959A1 (ja) 2019-01-15 2019-10-18 サーバおよび学習システム

Publications (2)

Publication Number Publication Date
JPWO2020148959A1 JPWO2020148959A1 (ja) 2021-12-02
JP7409326B2 true JP7409326B2 (ja) 2024-01-09

Family

ID=71614474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020566109A Active JP7409326B2 (ja) 2019-01-15 2019-10-18 サーバおよび学習システム

Country Status (5)

Country Link
US (1) US20220019940A1 (ja)
EP (1) EP3913548A4 (ja)
JP (1) JP7409326B2 (ja)
CN (1) CN113168588B (ja)
WO (1) WO2020148959A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210075694A (ko) * 2019-12-13 2021-06-23 현대자동차주식회사 저전력 통신을 이용한 차량 제어 장치 및 그 방법
US11916754B2 (en) * 2021-09-03 2024-02-27 Qualcomm Incorporated Configuring a user equipment for machine learning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046729A (ja) 2006-08-11 2008-02-28 Kddi Corp 動画像話題分割装置
JP2011145833A (ja) 2010-01-13 2011-07-28 Hitachi High-Technologies Corp データ分散管理システム及びデータ分散管理方法
JP2017107385A (ja) 2015-12-09 2017-06-15 日本電信電話株式会社 タスク割当装置、方法、及びプログラム
JP2017146679A (ja) 2016-02-15 2017-08-24 エヌ・ティ・ティ・コミュニケーションズ株式会社 リスト作成装置、処理装置、リソース情報取得システム、分散処理システム、リスト作成方法及び分散処理方法
JP2018129718A (ja) 2017-02-09 2018-08-16 日本電気株式会社 管理サーバ、通信システム、管理サーバの制御方法、及びプログラム
WO2018173121A1 (ja) 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775337B2 (en) * 2011-12-19 2014-07-08 Microsoft Corporation Virtual sensor development
US10101786B2 (en) * 2014-12-22 2018-10-16 Intel Corporation Holistic global performance and power management
JP2016191973A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 情報転送装置、学習システム、情報転送方法及びプログラム
JP2017091431A (ja) * 2015-11-17 2017-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017182114A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法
JP6866095B2 (ja) * 2016-09-26 2021-04-28 キヤノン株式会社 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
US20180096261A1 (en) * 2016-10-01 2018-04-05 Intel Corporation Unsupervised machine learning ensemble for anomaly detection
KR102370063B1 (ko) * 2017-03-28 2022-03-04 삼성전자주식회사 얼굴 인증 방법 및 장치
US10607155B2 (en) * 2017-03-30 2020-03-31 Intel Corporation Diagnosing slow tasks in distributed computing
JP2019004030A (ja) 2017-06-14 2019-01-10 株式会社デンソー 半導体装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046729A (ja) 2006-08-11 2008-02-28 Kddi Corp 動画像話題分割装置
JP2011145833A (ja) 2010-01-13 2011-07-28 Hitachi High-Technologies Corp データ分散管理システム及びデータ分散管理方法
JP2017107385A (ja) 2015-12-09 2017-06-15 日本電信電話株式会社 タスク割当装置、方法、及びプログラム
JP2017146679A (ja) 2016-02-15 2017-08-24 エヌ・ティ・ティ・コミュニケーションズ株式会社 リスト作成装置、処理装置、リソース情報取得システム、分散処理システム、リスト作成方法及び分散処理方法
JP2018129718A (ja) 2017-02-09 2018-08-16 日本電気株式会社 管理サーバ、通信システム、管理サーバの制御方法、及びプログラム
WO2018173121A1 (ja) 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Also Published As

Publication number Publication date
JPWO2020148959A1 (ja) 2021-12-02
WO2020148959A1 (ja) 2020-07-23
US20220019940A1 (en) 2022-01-20
CN113168588B (zh) 2023-11-24
CN113168588A (zh) 2021-07-23
EP3913548A1 (en) 2021-11-24
EP3913548A4 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
WO2021059714A1 (ja) 占有グリッドマップ生成装置、占有グリッドマップ生成システム、占有グリッドマップ生成方法、およびプログラム
US11875551B2 (en) Collecting and processing data from vehicles
CN111602153A (zh) 自动化的本地化机器学习训练
JP7409326B2 (ja) サーバおよび学習システム
US10635108B2 (en) Centralized scheduling system using global store for operating autonomous driving vehicles
JP5150744B2 (ja) 情報配信装置、システム、及び情報表示装置
WO2018077236A1 (zh) 分布式机器学习方法和系统
AU2014235416B2 (en) Real world analytics visualization
JP7111175B2 (ja) 物体認識システム、認識装置、物体認識方法および物体認識プログラム
US9995816B2 (en) Methods for indoor positioning and apparatuses using the same
CA3051298C (en) Displaying content on an electronic display based on an environment of the electronic display
US10911747B1 (en) Systems and methods for utilizing modeling to automatically determine configuration parameters for cameras
WO2018146762A1 (ja) 情報処理装置、車載装置、情報処理方法、通信方法、情報処理プログラム及び通信プログラム
JP2023021913A (ja) システム・オン・チップの性能を向上させるために、処理タスクを分離式アクセラレータにオフロードすること
US11128981B2 (en) Cellular network delivery of travel safety alerts
WO2023273467A1 (zh) 真值数据确定、神经网络训练、行驶控制方法及装置
JP2014160420A (ja) 活動状況処理装置及び活動状況処理方法
KR20210071283A (ko) 드론을 이용하는 구조물 안전점검 유지관리 방법 및 시스템
US20210241171A1 (en) Machine learning feature engineering
KR102006080B1 (ko) 블랙박스 영상 제공 방법 및 이를 수행하는 장치들
JP7261892B2 (ja) 占有格子地図管理装置
US20220414498A1 (en) System and method for decentralized distributed model adaptation
US10713312B2 (en) System and method for context-launching of applications
US11222152B2 (en) Interest-based distributed simulation system
WO2019052389A1 (zh) 一种移动机器人中的任务优化方法及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R151 Written notification of patent or utility model registration

Ref document number: 7409326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151