JP2022029702A - 学習システム、電子機器、及びその制御方法、並びにプログラム - Google Patents
学習システム、電子機器、及びその制御方法、並びにプログラム Download PDFInfo
- Publication number
- JP2022029702A JP2022029702A JP2020133136A JP2020133136A JP2022029702A JP 2022029702 A JP2022029702 A JP 2022029702A JP 2020133136 A JP2020133136 A JP 2020133136A JP 2020133136 A JP2020133136 A JP 2020133136A JP 2022029702 A JP2022029702 A JP 2022029702A
- Authority
- JP
- Japan
- Prior art keywords
- server
- learning
- inference model
- detection data
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0805—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
- H04L43/0817—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Facsimiles In General (AREA)
Abstract
【課題】エッジ側からクラウドへ推論モデルの学習用に転送されるデータのデータ量を効率よく削減することができる学習システム、電子機器、及びその制御方法、並びにプログラムを提供する。【解決手段】学習システム30では、サーバ321を含むクラウド320と、MFP1及びエッジ側センサー群を含むユーザ環境300とをネット回線310を介して接続する。MFP1は、サーバ321で生成される推論モデルの学習用にエッジ側センサー群で収集される検知データをクラウドに転送し、サーバ321は、推論モデルの学習を完了した後、MFP1に推論モデルを転送する。MFP1は、推論モデルが転送された後にエッジ側センサー群の一つから新たに取得された検知データを、推論モデルと関係がない場合はサーバ321に転送せず、推論モデルと関係がある場合はサーバ321に推論モデルの追加学習用に転送する。【選択図】図7
Description
本発明は、学習システム、電子機器、及びその制御方法、並びにプログラムに関し、特に、クラウド側で推論モデルを作る際に要するデータをエッジ側で収集する学習システム、電子機器、及びその制御方法、並びにプログラムに関する。
昨今エッジ-クラウド型コンピューティングが普及してきたことがあり、計算量の少ない処理がエッジ側(ユーザ環境にある端末装置)で行われ、計算量の大きい処理がクラウド(ネットワーク上のサーバ)で行われるのが一般的になっている。
一事例として、マルチファンクションプリンタ(以下MFPという)をユーザ環境に納入した場合、MFPはコピー、プリントなどの処理を行い、ユーザのログ、設定などをサーバに転送し、サーバがそれを解析することがある。
また今後は、エッジ側でMFPの内部又は外部の複数のセンサーで印刷枚数、トナー残量、湿度、温度、利用人数、各種現象等の情報を検知し、クラウド側でその検知された情報間の相関関係を機械学習により解析し、推論モデルを作ることが予想される。
このような推論モデルを利用することにより、MFPで発生する、HDDの故障、トナー切れ、異常に起動時間が長いといった事象を予測し、かかる事象の発生を事前に防止することが可能となる。
一方、推論モデルの作成のためにエッジ側からクラウド側に転送されるデータによりネットワークの帯域が圧迫される可能性がある。かかるネットワークの帯域の圧迫を防止すべく、転送されるデータを削減する技術が知られている。
例えば、特許文献1では、MECノードが、各基地局により形成されるセル(対象セル)内における測定トラフィック量のデータを各基地局から取得し、測定トラフィック量に基づいて対象セル内における単位時間後のトラフィック量を予測する。データの送信可否についての問合せを対象セル内の車両から受信すると、MECノードは、トラフィック量の予測結果と当該問合せに含まれる情報が示す当該車両による送信予定のデータ量とに基づいて、データの送信を許可するか否かを決定する。MECノードは、その決定の結果に従って、データの送信を許可するか否かを示す応答を問合せの送信元の車両へ送信する。
しかし、特許文献1の技術には、いくつかの課題がある。
例えば、エッジ(車両)側ではデータ転送するかしないかを決定できないため、かかる決定をするためのエッジ・基地局間通信が発生する。また、決定に使われる条件は、「送信予定のデータ量」のみとなっているが、送信予定のデータの量とその有用性は必ずしも比例しない。
そこで本発明は、エッジ側からクラウドへ推論モデルの学習用に転送されるデータのデータ量を効率よく削減することができる学習システム、電子機器、及びその制御方法、並びにプログラムを提供する。ことを目的とする。
本発明の請求項1に係る学習システムは、サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、前記ユーザ環境において、前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記クラウドにおいて、前記サーバでの前記推論モデルの学習が完了した後、前記エッジデバイスに前記推論モデルを転送するモデル送信手段とを備え、前記データ転送手段は、前記モデル送信手段により前記推論モデルが送信された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記新たに取得された検知データが前記推論モデルと関係がない場合、前記新たに取得された検知データを前記サーバに転送せず、前記新たに取得された検知データが前記推論モデルと関係がある場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする。
本発明の請求項2に係る学習システムは、サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、前記ユーザ環境において、前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記クラウドにおいて、前記サーバでの前記推論モデルの学習中に、前記エッジデバイスに前記推論モデルを転送するモデル送信手段を備え、前記データ転送手段は、前記モデル送信手段により前記推論モデルが送信された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記推論モデルの確信度が所定値未満である場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする。
本発明の請求項6に係る学習システムは、サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、前記ユーザ環境において、前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が所定回数以下である場合、前記推論モデルの追加学習用に前記新たに取得した検知データを前記サーバに転送することを特徴とする。
本発明の請求項9に係る学習システムは、サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、前記ユーザ環境において、前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記ユーザ環境から前記クラウドに転送するデータ転送手段を備え、前記クラウドにおいて、前記データ転送手段により新たに検知データとして転送された事象を新規データとして取得する新規データ取得手段と、前記新規データ及び前記複数の推論モデルを用いて希少性評価値を算出する算出手段と、前記希少性評価値に基づき、前記新規データが前記複数の推論モデルの学習見込みのないデータであるか学習見込みのあるデータであるかを分類する分類手段とを備え、前記分類手段により前記新規データが前記学習見込みのあるデータであると分類された場合、前記新規データを前記複数の推論モデルの学習に用いることを特徴とする。
本発明の請求項13に係る電子機器は、内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記データ転送手段は、前記サーバでの前記推論モデルの学習が完了し、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記新たに取得された検知データが前記推論モデルと関係がない場合、前記新たに取得された検知データを前記サーバに転送せず、前記新たに取得された検知データが前記推論モデルと関係がある場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする。
本発明の請求項14に係る電子機器は、内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記データ転送手段は、前記サーバでの前記推論モデルの学習中に、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記推論モデルの確信度が所定値未満である場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする。
本発明の請求項15に係る電子機器は、内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が所定回数以下である場合、前記推論モデルの追加学習用に前記新たに取得した検知データを前記サーバに転送することを特徴とする。
本発明によれば、エッジ側からクラウド側へ転送されるデータ量を効率よく削減することができる。
次に本発明を実施するための最良の形態について図面を参照して説明する。
以下、添付図面を参照して本発明の好適な実施の形態を詳しく説明する。
なお、以下の実施の形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
(実施例1)
本実施例に係る電子機器としての画像形成装置(以下「MFP」という)1について説明する。
本実施例に係る電子機器としての画像形成装置(以下「MFP」という)1について説明する。
図1は、MFP1のハードウェア構成を示すブロック図である。
MFP1は、スキャナ装置2、プリンタ装置4、操作部5、ハードディスク装置(以下、HDD装置という)6、FAX装置7、及びこれらのモジュールと接続されるコントローラ3を備える。また、MFP1は、PC9とLAN8を介して接続し、クラウド320とネット回線310を介して接続する。
スキャナ装置2は、原稿から光学的に画像を読み取りデジタル画像に変換する。
プリンタ装置4は、デジタル画像を紙デバイスに出力する。
操作部5は、ユーザ操作を受け付けると共に、各種情報をユーザに表示する。
HDD装置6は、デジタル画像や制御プログラム等を記憶する。また、クラウド320から転送される推論モデル(より具体的は、その各種パラメータ)を保持する。
FAX装置7は、電話回線等にデジタル画像を送信する。
コントローラ3は、MFP1内の各モジュールに指示を出す事でMFP1上のジョブを実行する。
スキャナ装置2は、自動的に原稿束を自動的に逐次入れ替えることが可能な原稿給紙ユニット21、及び原稿を光学スキャンしデジタル画像に変換する事が可能なスキャナユニット22から成り、変換された画像データはコントローラ3に送信される。
プリンタ装置4は、紙束から一枚ずつ逐次給紙可能な給紙ユニット42、給紙した紙に画像データを印刷するためのマーキングユニット41、及び印刷後の紙を排紙するための排紙ユニット43から成る。
またコントローラ3は、PC9からの指示に応じて、ジョブの実行、デジタル画像の入出力制御、及びスキャナ装置2やプリンタ装置4への指示等を行なう。例えば、本実施例において、PC9はコントローラ3にOFF指示を出すと、コントローラ3はMFP1のOFFプロセスを制御する。
MFP1は、以下に例示するように、多彩なジョブを実行するための機能を有する。
・複写機能
スキャナ装置2から読み込んだ画像をHDD装置6に記録し、 同時にプリンタ装置4を使用して印刷を行なう。
・画像送信機能
スキャナ装置2から読み込んだ画像をLAN8を介してコンピュータ9に送信する。
・画像保存機能
スキャナ装置2から読み込んだ画像をHDD装置6に記録し、必要に応じて画像送信や画像印刷を行なう。
・画像印刷機能
コンピュータ9から送信された例えばページ記述言語を解析し、プリンタ装置4で印刷する。
・複写機能
スキャナ装置2から読み込んだ画像をHDD装置6に記録し、 同時にプリンタ装置4を使用して印刷を行なう。
・画像送信機能
スキャナ装置2から読み込んだ画像をLAN8を介してコンピュータ9に送信する。
・画像保存機能
スキャナ装置2から読み込んだ画像をHDD装置6に記録し、必要に応じて画像送信や画像印刷を行なう。
・画像印刷機能
コンピュータ9から送信された例えばページ記述言語を解析し、プリンタ装置4で印刷する。
MFP1は、このような複数機能を実現するため、その内部及び外部にある各種センサーから検知データを取得する。具体的には、MFP1は、検知データとして、消費電力、内蔵HDD稼働状況(故障しているか)、マーキングユニット温度、内部・外部湿度などの情報を収集する。
尚、ユーザ操作を受け付ける操作部5に搭載される多彩なセンサーも、上記センサーに含まれる。具体的には本実施例では、ユーザを検知するための「人感センサー」、モバイルデバイス位置などを検知する「Bluetooth」からの情報も検知データとして収集される。
また、本実施例における検知データには、MFP1において処理したジョブ内容から抽出し蓄積されたデータも含まれる。例えば、コンピュータ9から指示された印刷枚数やユーザ毎のコピー枚数等のデータも検知データに含まれる。
検知データは、MFP1の内部で蓄積され、図7で後述するデータ転送制御処理において既存推論モデルと関係があると判断された場合に図3で後述するサーバ321にネットワークを介して転送される。
図2は、図1におけるコントローラ3のハードウェア構成の詳細を示すブロック図である。
コントローラ3は、メインボード200と、サブボード220から構成される。
メインボード200は、汎用的なCPUシステムを構成するボードであり、メインCPU201、ブートロム202、メモリ203、バスコントローラ204、不揮発性メモリ205、及びRTC211を備える。
メインCPU201は、メインボード200全体を制御すると共に、コントローラ3の外部にある操作部5と接続しその制御を行う。
ブートロム202は、ブートプログラムが含まれるロムである。
メモリ203は、メインCPU201がワークメモリとして使用するメモリである。
バスコントローラ204は、サブボード220内部にある後述するバスコントローラ224とのブリッジ機能を有する外部バスである。
不揮発性メモリ205は、電源OFFされた場合でも記憶内容を保持するメモリである。
RTC211は、時計機能を有する。
さらに、メインボード200は、ディスクコントローラ206、フラッシュディスク207、USBコントローラ208、及びネットワークインターフェース210a,210bを備える。
ディスクコントローラ206は、フラッシュディスク207やコントローラ3の外部にあるHDD装置6等のストレージ装置と接続し、これらを制御する。
フラッシュディスク207は、半導体デバイスで構成された比較的小容量な不揮発性記憶装置であり、例えばSSD等により構成される。
USBコントローラ208は、コントローラ3の外部にあるUSBメモリ209と接続し、これを制御することが可能な制御部である。
ネットワークインターフェース210aは、LAN8を介して不図示のPC9(図1)と接続し、ネットワークインターフェース210bは、ネット回線310を介して不図示のクラウド320(図1)と接続する。
サブボード220は、汎用的なCPUシステムを構成するメインボード200と比較して小さいボードであり、サブCPU221、メモリ223、バスコントローラ224、及び不揮発性メモリ225を備える。
サブCPU221は、サブボード220全体を制御すると共に、コントローラ3の外部にあるFAX装置7と直接接続しその制御を行う。
メモリ223は、サブCPU221がワークメモリとして使用する。
バスコントローラ224は、メインボード200内部にあるバスコントローラ204とのブリッジ機能を有する外部バスである。
不揮発性メモリ225は、電源OFFされた場合でも記憶内容を保持するメモリである。
さらに、サブボード220は、リアルタイムでデジタル画像処理を行なう画像処理プロセッサ227、及びこれと接続するエンジンコントローラ226a,226bを有する。
エンジンコントローラ226aは、コントローラ3の外部にあるプリンタ装置4とさらに接続し、画像処理プロセッサ227とプリンタ装置4の間のデジタル画像データの受け渡しを行なう。
エンジンコントローラ226bは、コントローラ3の外部にあるスキャナ装置2とさらに接続し、画像処理プロセッサ227とスキャナ装置2の間のデジタル画像データの受け渡しを行なう。
尚、図2のブロック図は、各ハードウェアについて簡略化している。
例えばメインCPU201、サブCPU221には、チップセット、バスブリッジ、クロックジェネレータ等のCPU周辺ハードウェアが多数含まれているが、説明の粒度的に不必要であるため図2では簡略化して記載している。よって、図2に示すブロック構成は本発明を制限するものではない。
コントローラ3の動作について、紙デバイスによる画像複写を例に説明する。
利用者が操作部5から画像複写を指示すると、メインCPU201がサブCPU221を介してスキャナ装置2に画像読み取り命令を送る。
スキャナ装置2は紙原稿を光学スキャンしデジタル画像データに変換してエンジンコントローラ226bを介して画像処理プロセッサ227に入力する。
画像処理プロセッサ227はサブCPU221を介してメモリ223にDMA転送を行いデジタル画像データの一時保存を行なう。
メインCPU201はデジタル画像データがメモリ223に一定量もしくは全て入ったことを確認すると、サブCPU221を介してプリンタ装置4に画像出力指示を出す。
サブCPU221は画像処理プロセッサ227にメモリ223のデジタル画像データの位置を教える。これにより、プリンタ装置4からの同期信号に従ってメモリ223上のデジタル画像データは画像処理プロセッサ227とエンジンコントローラ226aを介してプリンタ装置4に送信され、プリンタ装置4にて紙デバイスにデジタル画像データが印刷される。
画像複写を複数部を行なう場合、メインCPU201がメモリ223のデジタル画像データをHDD装置6に保存する。これにより、2部目以降の画像複写は、スキャナ装置2が再度紙原稿の光学スキャンをせずとも、HDD装置6からプリンタ装置4にデジタル画像データを送ることで実行することが可能となる。
図3は、本実施例に係る学習システム30の構成を示す図である。
図3に示すように、学習システム30において、エッジデバイス(本実施例では、MFP1)を備えるユーザ環境300と、サーバを備えるクラウド320とが、ネット回線310を介して互いに接続する。
図3に示す学習システム30の構成の説明のため、まずエッジデバイスについて説明する。
IoT技術が進んだ環境では、製造・販売現場にあるセンサーから多量多種な検知データを採取する必要がある。このため、現場(ユーザ環境300)に設置されるエッジデバイス(MFP1)の内部にあるセンサーやMFP1の外部にある各種センサー302(以下、単に「エッジ側センサー群」という)から検知データを取得する必要がある。
一方、エッジデバイスは特定機能を実現するために設計されているため、大量の検知データを格納・処理するには向いていない。そのため、エッジデバイスで取得された全検知データを一旦クラウド320にある高性能の計算能力を有するサーバ321に転送し、そこで処理を行うのが一般的である。
図3に示すように、ユーザ環境300には、MFP1の他、複数のデバイスが設置され、社内インフラ(有線LAN、Wi-Fiなど)によって接続されている。
MFP1の内部にあるエッジ側センサー群は、内蔵デバイスの稼働状況、印刷枚数、トナー残量、ユーザ数等の検知データを収集し、MFP1のコントローラ3に転送する。
また、MFP1の外部にあるエッジ側センサー群(各種センサー302)は、MFP1の利用環境や倉庫などに設置され、湿度、温度、明るさ、トナー・印刷用紙在庫等の検知データを収集し、MFP1のコントローラ3に転送する。
さらに、図3に示すように、ユーザ環境300では、印刷サーバとして機能するオンプレサーバ303が存在していてもよい。
前述の通り、エッジデバイスであるMFP1は特定機能を実現する最低限のハードウェアをしか有しない場合が多く、その場合、MFP1では、エッジ側センサー群から取得した検知データを全て処理し切れないことがある。
そのため、MFP1は、ネット回線310を用いて収集された検知データをクラウド320にあるサーバ321に転送し、サーバ321で情報処理を行うことが一般的である。
尚、図3に示す構成は例示にすぎず、かかる構成に限定されない。
例えば、エッジ側センサー群で収集した検知データを一旦オンプレサーバ303に集約し、サーバ321へ転送する構成としてもよい。
また、ユーザ環境300にエッジデバイスとしてMFPではなく複数の監視カメラが設けられ、これらの監視カメラから取得した画像から不審者の特徴が認識できるように学習モデルをサーバ321において訓練するようにしてもよい。この場合、訓練済モデル(以下、推論モデルという)をサーバ321から各監視カメラに送信しておくことで、各監視カメラが推論モデルを用いて実際に現れた不審者を検出することができる。
昨今、IoT(もののインターネット)技術の発展により従来できなかったビッグデータの収集ができるようになった。またスマートフォンの性能向上によって写真、映像、文字などがユーザ環境においても大量に生成されている。
また無線通信技術(4G、5G、省電力・広域通信)が適用されたネットワーク技術の進化によって、ビッグデータがクラウドにあるサーバに蓄積され、それを解析する需要が生まれている。
従来の手法ではこのようなビッグデータを処理できないため、CNN、RNN、LSTMといったディープラーニング手法が提案され、GPGPUと呼ばれる高性能ハードウェアの進化によって機械学習技術の実用化が進んでいる。
具体的には、ビッグデータを用いてディープラーニング手法により学習モデルを訓練する。例えば、猫の画像を学習モデルに入力し、学習モデルを訓練していくと、学習モデルが少しずつ猫の画像を認識できるようになる。訓練により認識精度(確信度(Confidence Rating))が一定以上となった段階の学習モデルを推論モデルとして適用することにより、精度よく画像認識を行うことが可能となる。これにより例えば、新たにスマートフォンで撮影された写真に対して推論モデルを適用すると、その写真に猫が含まれているかどうかを判別することが可能となる。
次に、ディープラーニングの手法について説明する。
従来の学習方法としては、例えばフィーチャーエンジニアリングと呼ばれる学習方法があるが、この学習方法の場合、識別したい特徴を予め人為的に指定しなければならない。例えば、人間の顔を認識するため、目、鼻などの特徴を定義しなければならない。よって、識別したい特徴の指定が適当である場合、認識精度のいい推論モデルを生成することができるが、そうでない場合、認識精度のよい推論モデルの生成ができないという問題があった。
一方、ディープラーニングと呼ばれる新しい学習方法では、識別したい特徴の指定自体もアルゴリズムに任せることができる。ディープラーニングでは、初期値として特徴量を指定することがあるが、アルゴリズムによって特徴をさらに分解していくことが可能である。例えば、初期値として鼻を指定した場合、アルゴリズムによって、鼻の特徴を三角および丸(鼻の穴)に分解し、それぞれを学習することが可能である。よって従来の学習方法と比べて、ディープラーニングを用いると、学習結果の精度改善することができる。
図4は、図3の学習システム30において実行される機械学習処理のフローチャートである。
図4において、まず、ステップS401において、サーバ321に搭載されたGPU(以下「サーバ側GPU」という)が、エッジデバイスであるMFP1(以下、単にMFP1という)より大量の学習用の検知データ(学習データ)を取得する。
ステップS402において、サーバ側GPUは、ステップS401で取得した大量の学習用の検知データを機械学習のアルゴリズムに学習させ、推論モデルを生成する。
ステップS403において、サーバ側GPUは、ステップS402で生成された推論モデルをMFP1に送信する(モデル送信手段)。
ステップS404において、MFP1に搭載されたメインCPU201(以下「エッジ側CPU」という)は、エッジ側センサー群より新たに検知データを取得し、これを推論対象データとする。
ステップS405において、エッジ側CPUは、ステップS404で取得した推論対象データと、ステップS403で生成された推論モデルを使って推論処理を実行することで、HDD6の故障等の予測事象を推論した後、本処理を終了する。
図5は、図4のステップS402で生成される推論モデルを説明するための図である。
図3で説明した通り、学習システム30のユーザ環境300には、MFP1の内部及び外部にエッジ側センサー群が設置されている。そのため、MFP1はエッジ側センサー群で収集された複数種類の検知データを取得して、サーバ321に転送することができる。
図5(a)では、エッジ側センサー群から収集された検知データが例示されている。ここでは、環境の温度501、湿度502、明るさ503、HDD6の故障(以下「HDD故障」という)504、欠品によるユーザ発注(以下「欠品で発注」という)505、印刷枚数506、及びトナー残量507がエッジデバイスから収集されている。
図5(b)では、収集した検知データの学習結果が例示されている。ここでは、温度501、湿度502、印刷枚数506が、HDD故障504と相関関係があるという学習結果(推論モデル)が得られている。一方、トナー残量507が、欠品で発注505と相関関係があるという学習結果(推論モデル)が得られている。
こういった学習プロセスは、前述の通りサーバ321側で行われて、検知データの増加に伴って、推論モデルの精度(確信度)が改善していく。MFP1は、サーバ321から送信された一定以上の精度となった推論モデルを用いて、MFP1の内部に生じる故障等の予測事象を推論することができる。
例えば、MFP1は、エッジ側センサー群で収集された温度、湿度、印刷枚数を取得した場合、サーバ321から送信された推論モデルと照合する。図5(c)に例示されるように、この照合の結果、HDD6が壊れたり、朝結露によりHDD6が故障した結果、MFP1の起動時間が1分より長くなるといった故障を、MFP1において予測することが可能となる。
図6は、MFP1及びサーバ321において用いられる計算装置に関する説明に用いられる表である。
図6に示すように、一般的に言うと、コンピュータシステムで計算という役割を担うのは、CPU、GPU、ASICという3種類の計算装置がある。それぞれの特徴を以下に示す。
汎用性においてはCPUが一番高く、ASICが一番低い。一方、性能(処理能力)においてはASICが一番高く、CPUが一番低い。
そのため、一般的にCPUが全体的に制御を司るデバイスとして使われ、汎用性を要する入出力装置やストレージなどの制御を行う。
一方、ASICは、事前に決めた処理のみが可能であり、所定な入力を受け、所定な出力しか出せない代わりに、処理速度が非常に高い。
またGPUは、CPUほどの汎用性はないが、ある程度プログラミング(つまり、出荷後の動作変更)ができ、CPUより高い性能で単純処理ができる。
その理由は、CPUは、1つのコアの計算処理能力がGPUより大きいため、プログラムの分岐(途中から処理を変更すること)に強く、複雑な計算に向いている一方、GPUは、コア数はCPUより多いため、大量な単純処理に対する性能が高いからである。よって、GPUが、画像の描画や、マトリックス演算の多い機械学習に用いられることが多い。
尚、学習用ASIC(例えばGoogle社が開発したTPU等)が機械学習に使われることがある。
しかし機械学習で前述したディープラーニングを用いる場合、主に並列処理、つまり大量な単純処理を同時に行い、動作がまったく変えられないASICは使えない。
CPUで推論を行うケースもある。例えばインテル社が開発したベクトル・ニューラル・ネットワーク命令の一つであるSIMDコマンドで並列処理を行うことにより、CPUで推論を行うことが可能となる。ここで、SIMDコマンドとは、Single Instruction Multiple Dataの略であり、一コマンドで複数データを処理するコマンドである。
一方、近年GPUの進化によって、本来描画に使われる計算資源を画像処理以外の目的に応用することが多くなってきた。すなわち、CPUが全体制御をし、負荷の大きい単純計算処理をGPUに処理させるといったヘテロジニアスコンピューティングが一般的になっており、昨今スーパーコンピュータや機械学習演算で多く使われている。このように、描画以外の場面で利用するGPUを、GPGPU(General Purpose Graphic Processing Unit)ともいう。
よって、図6に示すように、特定機能を実現するために用いられるエッジデバイスには、一般的にASICと低性能なCPUが搭載される。例えば、エッジデバイスとしての監視カメラでは、ASICにより撮影した映像の画像処理が実行される一方、低性能なCPU(エッジ側CPU)によりそれ以外の処理が実行される。その一方、多種多様な機能を実現するために用いられるサーバには、一般的にGPU(サーバ側GPU)と高性能なCPUが搭載される。
ここで、図3の学習システム30では、サーバ側GPUが、ユーザ環境300で収集され、サーバ321に転送された検知データを使って学習が行う。この際、ユーザ環境300で収集された検知データが大量にある場合、そのすべてをサーバ321に転送すると、ネット回線310の帯域が圧迫されるという課題が生じる。
そこで本実施例では、エッジ側CPUは、新たに検知データを取得すると、予測事象の推論だけでなく(図4のステップS404,S405)、その推論された予測事象に基づきその新たに取得した検知データをサーバ321へ転送するかしないか判断する。
すなわち、エッジ側CPUは、上記推論された予測事象が図5(c)に示す予測事象のいずれでもない場合(以下、この場合を、「既存推論モデルと関係ない」という)、新たに取得した検知データをサーバ321へ転送しないよう制御する。
図7は、エッジ側CPUにより実行される、本実施例に係るデータ転送制御処理のフローチャートである。
本処理は、サーバ側CPUで全ての推論モデルの学習が完了した段階で、MFP1に全ての推論モデルが送信され、既存推論モデルとしてHDD装置6に保存されていることを前提とする。すなわち、サーバ側CPUで全ての推論モデルの学習が完了するまでは、ユーザ環境300で収集された検知データは全てサーバ321に転送される。また、学習が完了した後の推論モデルは、サーバ321からMFP1に定期的に送信される。
尚、以下の説明においては、本処理を実行するエッジ側CPUをMFP1が備える場合について説明するが、ユーザ環境300にある、汎用CPUを有するデバイスであればこれに限定されない。よって、例えば、本処理を実行するエッジ側CPUをオンプレサーバ303が備えてもよい。
まずステップS701にて、エッジ側CPU(メインCPU201)は、エッジ側センサー群で収集された検知データを取得する。
ステップS702にて、エッジ側CPUは、ステップS701で取得した検知データが既存推論モデルと関係があるか判断する。例えば、既存推論モデルが湿度及び印刷枚数の検知データに基づきHDD故障率を予測する推論モデルである場合、明るさの検知データはかかる推論モデルと関係がないと判断される。
ステップS702において、関係があると判断された場合、ステップS703に進み、エッジ側CPUは、サーバ321へステップS701で取得した検知データをこれと関係がある既存推論モデルの追加学習用に転送した後、本処理を終了する。尚、サーバ321は、ここで転送された検知データと関係がある推論モデルの追加学習を行う。
一方、ステップS702において関係がないと判断された場合、ステップS704に進み、エッジ側CPUは、サーバ321へステップS701で取得した検知データを転送することなく削除等の処理を行った後、本処理を終了する。
本処理によれば、サーバ321による学習が完了した後における、MFP1からサーバ321へ転送される検知データの量を削減することができる。また、学習が完了した後も、追加学習に必要な検知データは送信されるので、既存推論モデルの確信度を更に向上させることができる。
以下、図7のデータ転送制御処理の変形例について説明する。
図7のデータ転送制御処理は、サーバ321において全ての推論モデルの学習が完了し、エッジ側センサー群からの複数の検知データの新たな相関関係は発見されない状態となった場合に有効である。
これに対し、以下の変形例は、主に、サーバ321における学習中に用いられる。
図8Aは、図7のデータ転送制御処理の変形例が実行される際、サーバ321において生成される推論モデルを説明するための図である。
推論モデルで推論される全ての予測事象が同程度に有用であるとは限らない。例えば、ユーザエクスペリエンスに直結する、もしくは金銭的・ブランド価値に影響する、ビジネスの観点で問題となる予測事象は、他の予測事象より有用である。具体的には、欠品で注文が発生するという予測事象よりも、HDDが壊れるという予測事象の方が有用である。このため、図8Aに例示されるように、より有用な予測事象を優先的に解決すべく、MFP1において、各予測事象に対してリスク等級のランク付けが行われる。
これにより、学習が完了していない推論モデルにより推論される予測事象のうち、リスク等級の高い予測事象と関係がある検知データを優先的に転送することが可能となる。これにより、ネット回線310の帯域の圧迫や、サーバ321側の計算コストを抑えることができる。
尚、各予測事象に対してリスク等級のランク付けは、組織目標やシステム構成に応じて設定されることが一般的である。
また、設定されるリスク等級は相対的であり、より有用である予測事象が発見された場合(すなわち、より有用である予測事象を推論する推論モデルがサーバ321にて新たに生成された場合)、他の予測事象のリスク等級を下げるようにしてもよい。
例えば、「通電がしっぱなし」、「コントローラ制御不能」という検知データに対して「発火の危険性が生じる」という予測事象を推論する推論モデルがサーバ321に新たに生成されたとする。この場合、この予測事象は他の予測事象よりビジネスの観点でより問題となる予測事象であるため、図8Aに示す他の予測事象よりリスク等級が高く設定される。すなわち、相対的に他の予測事象のリスク等級は下げられる。
しかし、他の推論モデルは学習が完了したタイミングで、この「発火の危険性が生じる」という予測事象を推論する推論モデルが新たに生成された場合、かかる推論モデルの学習を優先的に行う必要がある。
上述の通り、ビジネスの観点からかかる推論モデルの確信度を早く上げる必要があるからである。また、技術的な観点からも、以下の2つの理由によりかかる推論モデルの確信度を早く上げる必要がある。一つ目の理由は、リスク等級の低い予測事象との関係が低い検知データがMFP1からサーバ321に転送されても、優先的に行うべき学習がサーバ321でできず、ネット回線310の帯域が無駄に使用されてしまうからである。二つ目の理由は、リスク等級の低い予測事象を推論する推論モデルの学習処理も、サーバ321の性能を消費してしまうからである。
そのため、この変形例では、リスク等級の高い予測事象との関係が低い検知データについては、MFP1からサーバ321への転送を抑制する。
図8Bは、エッジ側CPUにより実行される、本実施例に係るデータ転送制御処理の変形例のフローチャートである。
本処理では、サーバ321は、新たに推論モデルを生成すると、学習が進んでいない状態で、MFP1に送信し、その後定期的にその推論モデルをMFPに送信することを前提とする。
まずステップS801にて、エッジ側CPU(メインCPU201)は、エッジ側センサー群で収集された検知データを取得する。
ステップS802にて、エッジ側CPUは、サーバ321から新たに送信された推論モデルの確信度(精度)が一定以上(所定値以上)であるか否かを判断する。この判断の結果、確信度が一定未満(所定値未満)である(すなわち、大量の検知データを用いた学習が完了していない)場合、ステップS803に進み、その一方、確信度が一定以上である場合、ステップS804に進む。
ステップS803にて、エッジ側CPUは、ステップS801で取得した検知データをサーバ321から新たに送信された推論モデルの学習用にサーバ321へ転送し、本処理を終了する。これにより、この推論モデルの学習を、他の推論モデルより優先してサーバ321に行わせることができる。
ステップS804にて、エッジ側CPUは、ステップS801で取得した検知データが、サーバ321からMFP1に送信された各推論モデルにより推論される予測事象のうち、リスク等級の高い予測事象(高リスク事象)と関係があるか判断する。例えば、高リスク事象であるHDD故障率を、温度、湿度、印刷枚数の検知データに基づき予測する推論モデルがサーバ321からMFP1に送信されている場合、オフィス人数の検知データはかかる高リスク事象とは関係がないと判断される。
ステップS804において、高リスク事象と関係があると判断された場合、ステップS803に進み、そうでない場合、ステップS805に進む。
ステップS803では、ステップS801で取得した検知データを、これと関係があると判断された高リスク事象を予測する推論モデルの学習用にサーバ321へ転送し、本処理を終了する。これにより、高リスク事象を予測する推論モデルの学習を、他の推論モデルより優先してサーバ321に行わせることができ、この結果、MFP1は、高リスク事象の発生を未然防止する精度を速やかに上げることができる。
ステップS805では、一定の送信確率(<100%)でステップS801で取得した検知データを、これと関係がないと判断された高リスク事象を予測する推論モデルの学習用にサーバ321に転送し、本処理を終了する。これにより、MFP1からサーバ321に転送される検知データの量を削減することができる。
尚、図8BのステップS805では、ステップS801で取得した検知データが、高リスク事象と関係がない場合も、サーバ321に全く転送しないのではなく、その一部をサーバ321に転送する。これは、サーバ321における更なる学習により、ステップS801で取得した検知データと高リスク事象との間の相関関係が特定される可能性があるからである。
また、本変形例では、図8Bに示すデータ転送制御処理が実行されるエッジデバイスがMFP1である場合について説明したが、ユーザ環境300にある汎用CPUを有するデバイスであればこれに限定されない。よって、例えば、本処理が実行されるエッジデバイスはオンプレサーバ303であってもよい。
(実施例2)
実施例1では、ユーザ環境300に設置されるエッジデバイスとしてMFP1に、予め設計者が設定した頻度でエッジ側センサー群から検知データが送信される。
実施例1では、ユーザ環境300に設置されるエッジデバイスとしてMFP1に、予め設計者が設定した頻度でエッジ側センサー群から検知データが送信される。
このような設計者により左右される要素があると、サーバ321における学習結果にも一定の「偏見」(偏り)が発生する。
例えば、設計者が、エッジ側センサー群からMFP1に、湿度情報を1s間隔で送信し、温度情報を60s間隔で送信するよう設定した場合、MFP1は、湿度に関する検知データを温度に関する検知データより60倍も多く取得することになる。MFP1がこの取得した検知データを全てサーバ321に転送した場合、湿度に関する推論モデルがサーバ321において形成されやすくなる。
すなわち、温度に関する推論モデルで推論される予測事象の方が、湿度に関する推論モデルで推論される予測事象よりリスク等級の高い場合であっても、このような場合、温度に関する推論モデルの形成に時間がかかるか、もしくは形成が不可能となる。
そこで本実施例は、かかる一定の「偏見」(偏り)の発生を抑制すべく、レアな検知データを優先的にMFP1からサーバ321へ転送する。
以下、本実施例のハードウェア構成は、実施例1と同様であるため、同一の構成には同一の符号を付し、重複した説明は省略する。
図9は、本実施例において機械学習により作成される各種推論モデルを説明するための図である。
ここでは便宜上、サーバ側CPUが、機械学習手法の一種である遺伝的アルゴリズムを用いて各種推論モデルを作成する場合を例に説明する。
図9に示すように、遺伝的アルゴリズムの推論モデルは、「データ部」と「予測事象部」の間の相関関係を学習する。
本実施例では、サーバ側CPUが、ユーザ環境300で収集された検知データ(センサー値、ログ、各種現象等)を遺伝的アルゴリズムに学習させると、推論モデル1~Lが形成される。
例えば、推論モデル1の場合、「HDD寿命<30%」と「1ヶ月内印刷枚数>50,000」という検知データから、予測事象1:「HDDが壊れる」が推論される。
また、推論モデル5の場合、「温度<6℃」と「湿度>60%」という検知データから、予測事象3:「朝結露による起動時間>1min」が推論される。
尚、図9に例示する推論モデル1~Lは、本実施例を説明するための一つの事例に過ぎず、実際の環境においては異なる推論モデルが形成されてもよい。
例えば、遺伝的アルゴリズムの代わりにディープラーニングを用いて各種推論モデルを作成した場合、「データ部」と「予測事象部」の夫々に保持される内容は、図9に例示されるような人間による理解が可能な検知データや予測事象ではない可能性がある。例えば、「データ部」と「予測事象部」には、各種中間状態、もしくは複数データから合成したデータ等が保持される場合もある。
図10は、本実施例に係る推論モデル作成処理のフローチャートである。
本処理は、サーバ321に搭載されるGPU(以下、「サーバ側GPU」という)により実行される。
この処理により、図9で前述した、ユーザ環境300で収集した複数の検知データの間の相関関係が抽出(学習)された推論モデルが作成される。
まず、ステップS1001において、サーバ側GPUは、学習を開始する前に、初期の推論モデル(Initial Population)を形成する。この初期の推論モデルは、人的に設計してもよいし、乱数で生成してもよいが、「条件A,Bが満たせば、予測事象Cが予測できる」という形の推論モデルである。
ステップS1002において、サーバ側GPUは、学習フェーズを開始し、ステップS1001で形成した初期推論モデルを、MFP1から転送された各種の検知データと照合し、それぞれのフィトネス(適合性)を算出する。ここで算出された適合性は、推論モデルの確信度(予測精度)として定義することができる。
ステップS1003において、サーバ側GPUは、一定の方法(例えば、上位5割残すという方法)で、ステップS1001で形成された推論モデルから、適合性の低い推論モデルを消去する淘汰を行う。
ステップS1004において、サーバ側GPUは、ステップS1003の淘汰後に残った比較的に適合性の高い推論モデルから、次世代の推論モデルを生成する繁殖(Multiplyとも言う)を行う。さらに、サーバ側GPUは、淘汰されなかった推論モデル同士の構成要素(条件A,B、予測事象C)を交換したり、一部の構成要素を乱数に変更したりする変異(Mutation)を行う。
ステップS1005において、サーバ側GPUは、終了条件を満たすか、具体的にはステップS1002で学習フェーズを開始してから学習時間が一定時間を経過したかを判断する。終了条件を満たす場合は、本処理を終了する。一方、そうでない場合は、ステップS1006に進む。尚、ステップS1005において、ステップS1002で学習フェーズを開始してからの学習回数が一定回数以上となった場合に、サーバ側GPUは、終了条件を満たすと判断するようにしてもよい。
ステップS1006では、MFP1より新たに検知データを取得し、その後、ステップS1002に戻る。すなわち、ステップS1002~S1004の適合性計算・淘汰・繁殖プロセスを繰り返すことで、推論モデルの学習を行う。
尚、本実施例では、ステップS1005で終了条件を満たすと判断された場合に、本処理を終了することで、ステップS1006のデータ収集プロセスやステップS1002~S1004の適合性計算・淘汰・繁殖プロセスにかかるコストを抑えている。しかしながら、かかるコストを考慮しなくてもよい場合は、ステップS1004から直接ステップS1006に進む無限ループとしてもよい。
以上のように、本処理によれば、実世界における生物の進化と似た方法を採る遺伝的アルゴリズムによって推論モデルを訓練する。
すなわち、推論モデルの構成要素に該当する「データ部」「予測事象」は生物の遺伝子(DNAの配列)に対応する。すなわち、推論モデルは、生物集団と同様に、環境に適応し(ステップS1002)、適応できない個体(モデル)は淘汰され(ステップS1003)、淘汰されず残った個体は、遺伝子の変異や次世代の個体の生成(繁殖)を行う(ステップ1004)。これにより、徐々にその環境に適応性の高い推論モデルが形成される。
しかし、遺伝的アルゴリズムで推論モデルを形成する場合、収集できる検知データが限られていると、「局所最適化」(オーバーフィッティング)と呼ばれる問題が発生する恐れがある。
前述の通り、学習でできる推論モデルは取得した検知データに適合したものであるため、どのような検知データがMFP1からサーバ321に転送されたかによって形成される推論モデルは変わる。
そのため学習システム30の特性を反映した推論モデルを取得するには、学習システム30の特性を反映した検知データがMFP1からサーバ321に転送されることが必要である。
一方、学習システム30では、ユーザ環境300にあるエッジ側センサー群が、どういった検知データをどのような頻度で収集するかを、設計者が設定するため、偏った検知データ1100をMFP1は取得することになる。
サーバ321において、MFP1から転送された偏った検知データ1100に基づき学習が行われた場合の例を図11に示す。検知データのほとんどが図11向かって左側に存在する偏った検知データ1100である場合、図10の処理で生成された推論モデルと検知データとの間で算出される適合性のピークは、図11向かって左側に位置する局所最適値1101の近傍となる。しかし、局所最適値1101より局所最適値1101よりより適合性の高い全体最適値が存在する場合がある。図11の例では、その向かって右側に全体最適値1102が存在している。この場合、図10の処理で生成された推論モデルは、学習システム30の特性が反映されていないモデルとなる。
ここで、MFP1からサーバ321に転送された偏った検知データ1100自体は変更することなく、上記問題を解決できる、アルゴリズム的な方法がいくつか存在する。例えば、初期推論モデルを、乱数に生成する方法や、親世代の推論モデルから次世代推論モデルを生成する際に、一定の乱数要素を入れる(生物の突然変異に相当する)方法などである。
しかしながら、偏った検知データ1100における偏りが大きい場合(すなわち、一部検知データが大量に取得できる一方、他の検知データがほとんど取得できない場合)、収斂時間(最終的な結果を取得する)が長くなることが有る。また、初期推論モデルを乱数で生成するため、学習結果が不安定になることもある。
また、本実施例のように遺伝的アルゴリズムを使用して学習を行う場合、その特性上、オーバーフィッティングが生じやすい。例えば、身長が高いほど適合性が高いという特徴を有する環境であっても、100人のうち1人だけ身長が高いという偏った検知データに基づいて学習を行う場合、次の世代の推論モデルでその特徴が残る可能性は低くなる。
そのため、MFP1からサーバ321に転送する検知データは、偏りが少ない均一なデータであることが望ましい。かかるデータを取得する従来の方法としては、取得数の少ないデータを増大させるデータオーギュメンテーション(Data Augmentation)という方法が知られている。例えば、画像から所定オブジェクトを検出する推論モデルの場合、この方法により同じ画像を複製して学習させることで、その検出精度を向上させることができる。
しかし、かかる従来の方法を採用すると、サーバ321に学習させるデータが現実から離れているデータとなる場合がある。なぜなら、サーバ321で生成される推論モデルは予測を行うための推論モデルであるため、学習させるデータは、ただの数値ではなく、時系列情報も重要であるからである。
つまり本実施例の場合、検知データの値だけではなく、その発生時刻(測定時刻、事象の前後関係)も重要である。
そのため、本実施例では、少数派データを複製してふくらませる従来の方法は採用せず、多数派データを減らす方法を採用する。
図12は、本実施例のデータ取得制御処理の概要を説明するための図である。
本処理では、図12に示す、サーバ321における推論モデルごとの学習回数がクラウド320においてカウントされ、その情報(以下「学習回数情報」という)がクラウド320からMFP1に転送される。
サーバ321における推論モデルの学習は、実施例1と同様、ユーザ環境300からクラウド320へ転送された検知データを用いて実行される。
エッジ側CPU(メインCPU201)は、エッジ側センサー群の1つから新たに検知データを取得した際に、その検知データと関係がある推論モデルの学習回数をクラウド320から転送された学習回数情報に基づき確認する。エッジ側CPUは、この確認の結果、学習回数が所定回数以下の場合、その検知データをこれと関係がある推論モデルの追加学習用にサーバ321へ転送する一方、学習回数が所定回数より多い場合、その検知データをサーバ321へ転送しないようにする。さらに、エッジ側CPUは、そのエッジ側センサー群の1つから以降取得される検知データのサーバ321への転送頻度を減らすようにしてもよい。
これにより、学習回数の少ない検知データが実施例1の場合と比較してサーバ321に到達しやすくなるため、オーバーフィッティングされた推論モデルを形成しにくくなる。
(実施例3)
実施例2のデータ転送制御処理をMFP1が実行しても、サーバ321で形成される推論モデルの確信度(精度)が上がらない予測事象が存在する。例えば、一過性の事象や、再現性はあるが収集可能性が極めて低い事象である。ここで、一過性の事象としては、例えば、いたずらによって、MFP1の本体が倒れたといった事象が挙げられる。また、上記収集可能性が極めて低い事象としては、例えば、宇宙線により電気信号が反転し、MFP1のコントローラ3が誤動作するいった事象や、パンデミックによってオフィス在室人数が大幅減少するといった事象が挙げられる。
実施例2のデータ転送制御処理をMFP1が実行しても、サーバ321で形成される推論モデルの確信度(精度)が上がらない予測事象が存在する。例えば、一過性の事象や、再現性はあるが収集可能性が極めて低い事象である。ここで、一過性の事象としては、例えば、いたずらによって、MFP1の本体が倒れたといった事象が挙げられる。また、上記収集可能性が極めて低い事象としては、例えば、宇宙線により電気信号が反転し、MFP1のコントローラ3が誤動作するいった事象や、パンデミックによってオフィス在室人数が大幅減少するといった事象が挙げられる。
これらの事象の発生の際、以下の2つの理由により、学習システム30に大きなダメージが伴うことが多くなる。一つの理由は、発生頻度が低いため設計者に認知されないという人的要因である。すなわち、設計者は発生し得る事象のうち頻度の高い案件が「重大である」と判断する傾向があるため、こういった「ごくレアな事象」を見落としたり、優先的に対応しない事があるためである。もう一つの理由は、学習システム30において、かかる事象を精度よく推論モデルにより予測ができないため、その事象の防止・対応ができないというシステム的要因である。
特に、推論モデルによる予測に基づき自動制御が行われる環境で、システム的要因による問題が発生しやすい。例えば自動運転環境において、明るい背景に真っ白なトラックが現れるという「ごくレアな事象」が発生した場合、実際より遠くにあると推論モデルが判定し事故を起こすという事態が想定される。
そこで本実施例では、MFP1からサーバ321に転送された検知データが、サーバ321による学習見込みがない事象である場合、サーバ321は、これをストレステストデータに設定する。その後、サーバ321は、シミュレーションでこのストレステストデータが学習システム30の欠陥をもたらすか否かを判定する。この判定の結果、学習システム30の欠陥をもたらす場合、学習システム30の設計変更を行うことでリスク低減を図る。尚、疑似的に「ごくレアな事象」を作る技術も存在するが、本実施例との関連性がすくないためこの技術の説明については割愛する。
以下、本実施例のハードウェア構成は、実施例1と同様であるため、同一の構成には同一の符号を付し、重複した説明は省略する。
本実施例では、MFP1からサーバ321に検知データとして転送された事象の夫々を、「ごくレアな事象」である場合に「学習見込みのない事象」であると分類し、そうでない場合に「学習見込みのある事象」であると分類する。
尚、本実施例においては、前提として、MFP1からサーバ321に検知データとして転送された事象には、全く同じようなデータ(もしくはデータの組み合わせ)は存在しない。
本実施例ではまず、MFP1からクラウド320へ検知データが新たに転送される毎に、推論モデル1~Lのうち、その検知データに基づき予測を行う推論モデルがサーバ321において学習される。このデータ転送・学習処理が多数回(ここでは、5000回)実行された後、新たに検知データとして転送された事象(以下「新規データ」という)を用いた推論モデル1~Lの学習見込みがあるか否かの分類を行う。
図13は、新規データを用いた推論モデル1~Lの学習見込みがあるか否か分類する方法を説明するための図である。尚、図13に示す例は、あくまで本実施例を説明するための一事例にすぎず、実際の製品はこれと完全一致する場合に限定されない。
まず、クラウド320は、上記データ転送・学習処理が行われた後、推論モデル1~Lの夫々が、新規データと関係がある推論モデルであるか否かを判定する。この判定結果が、図13に示す「推論モデルとの関係性」であり、ここでは、関係がある場合をYES、関係がない場合をNOで示す。この表に基づき、推論モデル1~Lのうち、新規データと関係がある推論モデルの割合を示す「関係性」の数値として、(YESの個数)/Lの値が算出される。この「関係性」を示す数値が小さいほど、新規データを用いた推論モデル1~Lの学習見込みは少なくなる。
またクラウド320は、推論モデル1~Lの夫々の学習回数を夫々のモデルが学習される毎に順次更新する。新規データのサーバ321への転送時におけるその最新の更新結果が、図13に示す「当該推論モデル学習回数」である。この表に基づき、新規データの「学習回数」を示す数値として、「推論モデルとの関係性」がYESである推論モデルの「当該推論モデル学習回数」の合計値が算出される。この「学習回数」を示す数値が小さいほど、新規データを用いた推論モデル1~Lの学習見込みは少なくなる。
さらに、クラウド320は、推論モデル1~Lの確信度(精度)を夫々のモデルが学習される毎に順次更新する。新規データのサーバ321への転送時におけるその最新の更新結果が、図13に示す「予測・推論精度」である。この表に基づき、新規データの「予測精度」を示す数値として、「推論モデルとの関係性」がYESである推論モデルの「予測・推論精度」の合計値が算出される。この「予測精度」を示す数値が小さいほど、新規データを用いた推論モデル1~Lの学習見込みは少なくなる。
本実施例では、新規データの「関係性」、「学習回数」、及び「予測精度」を掛け算した値を希少性評価値として算出し、これを用いて、新規データの推論モデル1~Lによる学習見込み(希少性)を計測する。
希少性評価値が小さい、すなわち、「関係性」、「学習回数」、及び「予測精度」のいずれかの値が小さい新規データは、学習しても良い成果が期待できないため、学習見込みのないデータと分類される。一方、希少性評価値が大きい新規データは学習見込みのあるータと分類される。
新規データが学習見込みのないデータに分類された場合、新規データを「ごくレアな事象」と判断して学習から外す。これにより、「ごくレアな事象」の推論モデルへの影響をなくし、且つサーバ321での計算コストも節約できる。
以上により、学習見込みがある検知データのみを用いた学習により推論モデルを形成する一方、学習見込みがない検知データは学習から外し、例外的なストレステストデータとして使う。
図14は、本実施例に係るシステム改善処理のフローチャートである。
前述の通り、「ごくレアな事象」と判断された検知データは、学習に使っても精度の高い推論モデルを形成できないと判断し、学習から外されるが、かかる「ごくレアな事象」が発生した場合、学習システム30に大きなダメージを起こす恐れがある。
そのため、MFP1からサーバ321に転送された検知データが「ごくレアな事象」と判断された場合、その検知データを用いてストレステスト(すなわち、もしその「ごくレアな事象」が発生すると、学習システム30にどれくらい影響があるか)を行う。これにより、その「ごくレアな事象」が発生した際の学習システム30のダメージを低減させることが可能となる。
尚、本実施例においては、クラウド320には、学習システム30の動作をシミュレーションできる「シミュレーション環境」がある。これにより、クラウド320において、学習システム30の実物に近い動作確認ができる。
本処理は、クラウド320側で、MFP1からサーバ321に転送された新たにある事象の検知データ(以下、新規データという)を取得したときに(新規データ取得手段)、サーバ側GPUにより実行が開始される。
まず、ステップS1401において、サーバ側GPUは、新規データの希少性評価値を算出する。尚、新規データが、サーバ321において学習したことのない事象である場合、新規データの希少性評価値を0に設定する。
ステップS1402において、ステップS1401で取得した希少性評価値に基づき、新規データが、サーバ321による学習見込みがある事象であるか否かを判断する。
ステップS1402の判断の結果、学習見込みがある事象である場合、ステップS1403に進み、サーバ側GPUは新規データを用いた学習を行う。一方、学習見込みがない事象である場合、ステップS1404に進み、新規データを学習から外して、シミュレーション環境に投入し、ステップS1405に進む。
ステップS1405では、サーバ側GPUは、シミュレーション環境に投入された新規データのシミュレーションを行い、シミュレーション結果に基づき、新規データが学習システム30にダメージを与える事象であるか否かを判断する。例えば、ユーザが予め設定した、ユーザ環境300の温度が一定以下であるという基準や、距離推測誤差は一定以下であるという基準等、「譲れない基準」に抵触する事象である場合、ダメージを与える事象であると判断する。
ステップS1405の判断の結果、ダメージを与えない事象である場合、ステップS1407に進む。一方、ダメージを与える事象である場合、ステップS1406に進み、サーバ側GPUは、学習システム30の設計変更、もしくはフォールバックを行った後、ステップS1407に進む。
ステップS1407では、サーバ側GPUは、新規データをクラウド320内の不図示のメモリに格納する。これは、新規データが、今後ストレステストに使われる可能性があるためである。その後、本処理を終了する。
尚、ステップS1406において学習システム30の設計変更等を行う目的は、新規データの事象による学習システム30のダメージを軽減・回避することである。例えば、ステップS1405で、MFP1のコントローラ3が故障するというシミュレーション結果が得られた場合、ステップS1406で、MFP1の不図示の第二のコントローラを稼働させるよう学習システム30の設計変更を行う。これにより、MFP1における事故発生を防止することができる。
ここでフォールバックとは、推論モデルによる予測結果に基づいて自動制御を行う学習システム30において、学習システム30の自動制御を停止し、手動制御(もしくはリモートでテイクオーバー)に切り替えることをいう。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶(格納)した記録媒体は本発明を構成することになる。
本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶(格納)した記録媒体は本発明を構成することになる。
1 MFP
3 コントローラ
201 メインCPU
30 学習システム
300 ユーザ環境
302 各種センサー
303 オンプレサーバ
310 ネット回線
321 サーバ
320 クラウド
3 コントローラ
201 メインCPU
30 学習システム
300 ユーザ環境
302 各種センサー
303 オンプレサーバ
310 ネット回線
321 サーバ
320 クラウド
Claims (19)
- サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、
前記ユーザ環境において、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記クラウドにおいて、
前記サーバでの前記推論モデルの学習が完了した後、前記エッジデバイスに前記推論モデルを送信するモデル送信手段とを備え、
前記データ転送手段は、
前記モデル送信手段により前記推論モデルが送信された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記新たに取得された検知データが前記推論モデルと関係がない場合、前記新たに取得された検知データを前記サーバに転送せず、前記新たに取得された検知データが前記推論モデルと関係がある場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする学習システム。 - サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、
前記ユーザ環境において、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記クラウドにおいて、
前記サーバでの前記推論モデルの学習中に、前記エッジデバイスに前記推論モデルを送信するモデル送信手段を備え、
前記データ転送手段は、前記モデル送信手段により前記推論モデルが送信された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記推論モデルの確信度が所定値未満である場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする学習システム。 - 前記推論モデルで推論される予測事象が高リスク事象であるか否かを設定する設定手段を更に備え、
前記データ転送手段は、前記推論モデルの確信度が前記所定値以上であって、且つ前記新たに取得した検知データが前記高リスク事象と関係がある場合、前記推論モデルの学習用に前記新たに取得した検知データを転送することを特徴とする請求項2記載の学習システム。 - 前記データ転送手段は、前記推論モデルの確信度が前記所定値以上であって、且つ前記新たに取得した検知データが前記高リスク事象と関係がない場合、一定の送信確率で前記新たに取得した検知データを前記サーバに転送することを特徴とする請求項3記載の学習システム。
- 前記モデル送信手段は、前記クラウドから前記エッジデバイスに前記推論モデルを定期的に送信することを特徴とする請求項1乃至4のいずれか1項に記載の学習システム。
- サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、
前記ユーザ環境において、
前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が所定回数以下である場合、前記推論モデルの追加学習用に前記新たに取得した検知データを前記サーバに転送することを特徴とする学習システム。 - 前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が前記所定回数より多い場合、前記新たに取得した検知データを前記サーバに転送しないことを特徴とする請求項6記載の学習システム。
- 前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が前記所定回数より多い場合、前記エッジ側センサー群の一つから以降取得される検知データの前記サーバへの転送頻度を減らすことを特徴とする請求項6記載の学習システム。
- サーバを含むクラウドと、エッジデバイス及びその内部及び外部の少なくとも一方に設置されるエッジ側センサー群を含むユーザ環境とがネット回線を介して接続される学習システムであって、
前記ユーザ環境において、
前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記ユーザ環境から前記クラウドに転送するデータ転送手段を備え、
前記クラウドにおいて、
前記データ転送手段により新たに検知データとして転送された事象を新規データとして取得する新規データ取得手段と、
前記新規データ及び前記複数の推論モデルを用いて希少性評価値を算出する算出手段と、
前記希少性評価値に基づき、前記新規データが前記複数の推論モデルの学習見込みのないデータであるか学習見込みのあるデータであるかを分類する分類手段とを備え、
前記分類手段により前記新規データが前記学習見込みのあるデータであると分類された場合、前記新規データを前記複数の推論モデルの学習に用いることを特徴とする学習システム。 - 前記算出手段は、
前記複数の推論モデルのうち前記新規データと関係がある推論モデルの割合を示す第1の数値を算出する第1の算出手段と、
前記複数の推論モデルのうち前記新規データと関係がある推論モデルの学習回数の合計値を示す第2の数値を算出する第2の算出手段と、
前記複数の推論モデルのうち前記新規データと関係がある推論モデルの確信度の合計値を示す第3の数値を算出する第3の算出手段とを備え、
前記第1~第3の数値から前記希少性評価値を算出することを特徴とする請求項9記載の学習システム。 - 前記分類手段により、前記新規データが前記学習見込みのないデータであると分類された場合、前記新規データを、前記複数の推論モデルの学習に用いず、ストレステストに用いることを特徴とする請求項9又は10に記載の学習システム。
- 前記ストレステストにより測定されたリスクを設計変更に反映することを特徴とする請求項11記載の学習システム。
- 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記データ転送手段は、前記サーバでの前記推論モデルの学習が完了し、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記新たに取得された検知データが前記推論モデルと関係がない場合、前記新たに取得された検知データを前記サーバに転送せず、前記新たに取得された検知データが前記推論モデルと関係がある場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする電子機器。 - 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記データ転送手段は、前記サーバでの前記推論モデルの学習中に、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記推論モデルの確信度が所定値未満である場合、前記新たに取得した検知データを前記推論モデルの追加学習用に前記サーバに転送することを特徴とする電子機器。 - 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器であって、
前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送手段を備え、
前記データ転送手段は、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が所定回数以下である場合、前記推論モデルの追加学習用に前記新たに取得した検知データを前記サーバに転送することを特徴とする電子機器。 - 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器の制御方法であって、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送ステップを有し、
前記データ転送ステップにおいて、前記サーバでの前記推論モデルの学習が完了し、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記新たに取得された検知データが前記推論モデルと関係がない場合、前記新たに取得された検知データは前記サーバに転送されず、前記新たに取得された検知データが前記推論モデルと関係がある場合、前記新たに取得した検知データは前記推論モデルの追加学習用に前記サーバに転送されることを特徴とする制御方法。 - 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器の制御方法であって、
前記サーバで生成される推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送ステップを有し、
前記データ転送ステップにおいて、前記サーバでの前記推論モデルの学習中に、前記推論モデルが前記クラウドより転送された後、前記エッジ側センサー群の一つから新たに検知データが取得された際、前記推論モデルの確信度が所定値未満である場合、前記新たに取得した検知データは前記推論モデルの追加学習用に前記サーバに転送されることを特徴とする制御方法。 - 内部及び外部の少なくとも一方にエッジ側センサー群が設置され、ネット回線を介してサーバを含むクラウドと接続する電子機器の制御方法であって、
前記サーバで生成される複数の推論モデルの学習用に前記エッジ側センサー群で収集される複数種類の検知データを前記クラウドに転送するデータ転送ステップを有し、
前記データ転送ステップにおいて、前記複数の推論モデルのうち、前記エッジ側センサー群の一つから新たに取得された検知データと関係がある推論モデルの前記サーバにおける学習回数が所定回数以下である場合、前記推論モデルの追加学習用に前記新たに取得した検知データは前記サーバに転送されることを特徴とする制御方法。 - 請求項16乃至18のいずれか一項に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020133136A JP2022029702A (ja) | 2020-08-05 | 2020-08-05 | 学習システム、電子機器、及びその制御方法、並びにプログラム |
US17/389,066 US11784891B2 (en) | 2020-08-05 | 2021-07-29 | Learning system that collects learning data on edge side, electronic apparatus, control method for electronic apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020133136A JP2022029702A (ja) | 2020-08-05 | 2020-08-05 | 学習システム、電子機器、及びその制御方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022029702A true JP2022029702A (ja) | 2022-02-18 |
Family
ID=80114316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020133136A Pending JP2022029702A (ja) | 2020-08-05 | 2020-08-05 | 学習システム、電子機器、及びその制御方法、並びにプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11784891B2 (ja) |
JP (1) | JP2022029702A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022132214A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
JP2022132213A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
JP2022132206A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11108575B2 (en) * | 2017-07-26 | 2021-08-31 | Amazon Technologies, Inc. | Training models for IOT devices |
US10423865B1 (en) * | 2018-03-06 | 2019-09-24 | Kabushiki Kaisha Toshiba | System and method of prediction of paper jams on multifunction peripherals |
JP6858154B2 (ja) | 2018-03-30 | 2021-04-14 | Kddi株式会社 | ノード装置及びその制御方法、並びにプログラム |
JP7036082B2 (ja) * | 2019-04-04 | 2022-03-15 | セイコーエプソン株式会社 | 画像処理装置、機械学習装置、画像処理方法 |
US20200393998A1 (en) * | 2019-06-17 | 2020-12-17 | Kyocera Document Solutions Inc. | Multifunction Printer and Printer Engine Defect Detection and Handling Using Machine Learning |
JP7391601B2 (ja) * | 2019-10-11 | 2023-12-05 | キヤノン株式会社 | 情報処理装置、情報処理システム、学習モデルの生成方法、異常予測方法、およびプログラム |
-
2020
- 2020-08-05 JP JP2020133136A patent/JP2022029702A/ja active Pending
-
2021
- 2021-07-29 US US17/389,066 patent/US11784891B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022132214A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
JP2022132213A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
JP2022132206A (ja) * | 2021-02-26 | 2022-09-07 | ダイキン工業株式会社 | 含フッ素共重合体 |
Also Published As
Publication number | Publication date |
---|---|
US11784891B2 (en) | 2023-10-10 |
US20220045913A1 (en) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022029702A (ja) | 学習システム、電子機器、及びその制御方法、並びにプログラム | |
US11070682B2 (en) | Maintenance system, maintenance server, and maintenance method | |
JP7025452B2 (ja) | ディスプレイスクリーン周辺回路の検出方法、ディスプレイスクリーン周辺回路の検出装置、電子機器及び記憶媒体 | |
CN111340178A (zh) | 学习装置、印刷控制装置以及存储装置 | |
US20200393998A1 (en) | Multifunction Printer and Printer Engine Defect Detection and Handling Using Machine Learning | |
JP4646287B2 (ja) | 画像形成システム、画像形成方法、画像形成プログラム、及び記録媒体 | |
US10831417B1 (en) | Convolutional neural network based copy or print wizard | |
CN110928553A (zh) | 深度学习模型的部署方法、装置和系统 | |
KR20200004823A (ko) | 디스플레이 스크린 주변 회로 검출 방법, 장치, 전자기기 및 저장매체 | |
CN117406844B (zh) | 一种基于神经网络的显卡风扇控制方法及相关装置 | |
CN107705000B (zh) | 扫描设备的选取方法、装置、存储介质和计算机设备 | |
JP2016004419A (ja) | 印刷検品装置、印刷検品方法及びプログラム | |
JP2020123139A (ja) | 情報処理システム、端末装置、クライアント装置、それらの制御方法、プログラム、記憶媒体 | |
JP7438365B2 (ja) | 学習活用システム、活用装置、学習装置、プログラム及び学習活用方法 | |
CN116740630A (zh) | 基于深度模型融合框架的施工现场火灾识别方法及装置 | |
JP7059889B2 (ja) | 学習装置、画像生成装置、学習方法、及び学習プログラム | |
JP5676465B2 (ja) | 複写システム | |
KR20230134724A (ko) | 웹 페이지의 시변화 데이터 예측 방법, 장치, 이를 이용한 웹 관리 시스템, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 | |
CN115345305A (zh) | 一种推理系统、方法、装置及相关设备 | |
US11507034B2 (en) | Information processing apparatus, system, method for controlling information processing apparatus, and computer program | |
Chow et al. | FLARE: Detection and Mitigation of Concept Drift for Federated Learning based IoT Deployments | |
JP5664247B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2021063706A (ja) | プログラム、情報処理装置、情報処理方法及び学習済みモデルの生成方法 | |
JP2021082000A (ja) | 学習済モデルの生成方法、コンピュータプログラム、情報処理方法及び情報処理装置 | |
JP7366204B1 (ja) | 情報処理方法、コンピュータプログラム及び情報処理装置 |