JP6720402B2 - サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム - Google Patents

サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム Download PDF

Info

Publication number
JP6720402B2
JP6720402B2 JP2019506582A JP2019506582A JP6720402B2 JP 6720402 B2 JP6720402 B2 JP 6720402B2 JP 2019506582 A JP2019506582 A JP 2019506582A JP 2019506582 A JP2019506582 A JP 2019506582A JP 6720402 B2 JP6720402 B2 JP 6720402B2
Authority
JP
Japan
Prior art keywords
model
data
information
learned
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019506582A
Other languages
English (en)
Other versions
JPWO2018173121A1 (ja
Inventor
圭悟 河合
圭悟 河合
将平 比戸
将平 比戸
展行 久保田
展行 久保田
田中 大輔
大輔 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Publication of JPWO2018173121A1 publication Critical patent/JPWO2018173121A1/ja
Priority to JP2020103320A priority Critical patent/JP6986597B2/ja
Application granted granted Critical
Publication of JP6720402B2 publication Critical patent/JP6720402B2/ja
Priority to JP2021192435A priority patent/JP7280935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/08Protocols specially adapted for terminal emulation, e.g. Telnet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/303Terminal profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • H04W88/06Terminal devices adapted for operation in multiple networks or having at least two operational modes, e.g. multi-mode terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Description

本発明は、深層学習等による学習済みモデルを用いて判定・分類等の処理を行う産業上の装置に対して、低コストで学習済みモデルの導入及び最適化を行うための技術に関するものである。
従来、工作機械等のデバイスや完成品の異常検出装置等において、深層学習等によって生成された学習済みモデルを用いて作業対象の特定や異常検出処理等が行われてきた。これらのデバイスにおいては、それぞれのデバイスの作業環境・作業条件等に特化した学習を行うことで作業精度、異常検出精度の向上を図っている。
このような学習済モデルを用いたデバイスとしては、例えば、特許文献1及び特許文献2が挙げられる。特許文献1に記載の進化型画像自動分類装置は、様々な特徴量から学習器によって画像を分類する装置であり、特許文献2に記載の金属の表面品質評価装置は、金属の表面を撮影した画像に基づいて学習器で金属の表面品質評価を行うための装置である。
特開2007−213480号公報 特開2011−191252号公報
特許文献1及び特許文献2を含め、機械学習等によって学習させた学習器を利用して判定・分類等を行う場合には、デバイスの作業環境・作業条件等に特化した学習器の構成を設定した上で学習を行う必要がある。そのような設定を行ってゼロから学習させて精度の高い判定・分類を行えるようになるまでには相当のコストを要する。そして、そのようにしてコストをかけて学習済モデルを得たとしても、作業環境・作業条件等が異なるデバイスにおいては同じ学習済モデルを使用することはできないので、また一から学習を行わせる必要があるという問題があった。
これを解決するために、様々な作業環境・作業条件等に対応可能な汎用的な学習モデルを用意するという方法が考えられる。しかし、汎用的な学習モデルは様々な作業環境・作業条件等に対応できるため様々な状況に適用できるメリットがあるが、汎用であるがため、どのような各環境・条件においてはそれに特化したモデルと比べると精度が低くなるという問題があった。また、モデルの複雑性が増し、それを実現するために必要な情報量が大きくなってしまい、演算コストの増加、メモリコストの増加が生じてしまうという問題があった。さらには、各デバイス個体特有の特性をもつ場合、その個体差をも吸収するような汎用性を担保しなければいけないという問題もあった。
本発明は、上記問題点に鑑みなされたものであり、環境・条件等の異なる様々なデバイスに対して最適な学習済モデルを選択して供給可能なサーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システムを提供することを目的とする。
本発明に係るサーバ装置は、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置であって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを複数記憶させた記憶部と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択部と、選択した共有モデルを当該デバイスに対して送信する送信部とを具備してなることを特徴とする。
また、本発明に係るサーバ装置は、共有モデルの追加学習を行うためのサンプルデータを利用して共有モデルに対して追加学習を行う追加学習処理部と、追加学習済モデルを記憶して管理する追加学習済モデル管理部とを具備し、前記送信部は、共有モデルに対して追加学習を行った際には当該デバイスに対して追加学習済モデルを送信するようにしたことを特徴とする。
また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、デバイスデータ取得部において取得したデバイスデータの内容が、前記追加学習済モデル管理部によって記憶された他のデバイスに基づく追加学習済モデルを適用可能なものである場合には、共有モデルよりも当該追加学習済モデルを優先して選択するようにし、前記送信部は、選択された追加学習済モデルを当該デバイスに送信するようにしたことを特徴とする。
また、本発明に係るサーバ装置は、共有モデルに対して追加学習処理を行う機能を有したデバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えたことを特徴とする。
また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、前記デバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにしたことを特徴とする。
また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、デバイスデータに基づいて機械学習を使って最適な共有モデルを選択すること予め学習した学習済モデルによって共有モデルを選択するようにしたことを特徴とする。
本発明に係る学習済モデル提供プログラムは、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置に学習済モデルの選択処理を実行させるための各機能を実現させるための学習済モデル提供プログラムであって、前記サーバ装置に、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶機能と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得機能と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択機能と、選択した共有モデルを当該デバイスに対して送信する送信機能とを実現させることを特徴とする。
本発明に係る学習済モデル提供方法は、学習済モデルを用いて処理を行う学習器を具備したデバイスに対して最適な学習済モデルを選択して提供する処理を実行するための学習済モデル提供方法であって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶処理と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得処理と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択処理と、選択した共有モデルを当該デバイスに対して送信する送信処理とを含むことを特徴とする。
本発明に係る学習済モデル提供システムは、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと、前記デバイスと通信ネットワークを介して通信可能な少なくとも1以上のサーバ装置とを具備してなる学習済モデル提供システムであって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを少なくとも1以上記憶させた記憶部を前記サーバ装置及び/又はデバイスに備え、学習済モデルを必要とするデバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを検索して選択する対象共有モデル選択部とを前記サーバ装置に備え、選択された共有モデルを学習済モデルを必要とする前記デバイスに対して送信する送信部をサーバ装置及び/又はデバイスに備えていることを特徴とする。
また、本発明に係る学習済モデル提供システムは、前記対象共有モデル選択部は、学習済モデルを必要とするデバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにしたことを特徴とする。
また、本発明に係る学習済モデル提供システムは、前記デバイスは、共有モデルに対して追加学習処理を行う機能を有しており、前記サーバ装置は、前記デバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えており、前記サーバ装置の対象共有モデル選択部は、共有モデルに加えて追加学習済モデルも選択肢に含めて選択を行うようにしたことを特徴とする。
また、本発明に係る学習済モデル提供システムは、前記デバイスは、共有モデルに対して追加学習処理を行う機能を有し、また、追加学習済モデルを記憶させる記憶部と、追加学習済モデルの選択に必要な情報を前記サーバ装置に送信する追加学習済モデル情報送信部とを備えており、前記サーバ装置の対象共有モデル選択部は、前記共有モデルに加えて前記デバイスの記憶部に記憶された追加学習済モデルも選択肢に含めて選択を行うようにしたことを特徴とする。
本発明によれば、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルをその環境や条件に応じて分類されて複数記憶させたサーバ装置において最適な共有モデルを選択してデバイスに送信することで、上述したようなこれまでの汎用的な学習モデルを使った場合に対して、状況に合わせた高精度な判別/分類を実現しつつ、かつ学習モデルで表現する複雑性が減少するために演算およびメモリのコストは下げられるメリットがある。またデバイスで独自に学習済モデルを生成する場合に比較して導入コストを大幅に低減できるというメリットがある。また、追加学習処理機能を持たせることで、デバイスの環境・条件により特化した追加学習済モデルを得られるため、デバイスにおいて精度の高い推論処理を追加的に実施することが可能となる。この追加学習処理において、デバイスの環境・条件に応じて適切な共有モデルをベースに追加学習を行うことによって、転移学習と呼ばれる作用の効果を多く得ることができる。転移学習は、デバイスの環境・条件が全く同一ではない環境間において、他環境で作成した共有モデルの重みをうまく使うことによって、追加学習させたい環境で、効率よく学習を行うことを期待するものである。
また、追加学習済モデルをサーバ装置においても記憶させて管理するようにすることで、同一環境・条件の他のデバイスから要求があった時に、追加学習済モデルを即座に提供することが可能となる。これは、汎用的な学習モデルを利用する場合に比較して、追加学習のための演算コスト及びメモリコストを縮小することが可能となる。さらに、少なくとも1以上のデバイスと少なくとも1以上のサーバ装置とを具備してなる学習済モデル提供システムを構成することで、複数のサーバ装置及び/又はデバイスの記憶部に記憶された共有モデルから最適な共有モデルを選択してデバイスに提供することが可能となるため、より膨大なデータの選択肢の中から最適な共有モデルを選択可能となる。
本発明に係るサーバ装置10の構成を表したブロック図である。 追加学習の学習処理の流れを示したフローチャート図である。 デバイス20において推論処理を行うまでの流れを示したフローチャート図である。
[第1の実施の形態]
以下、図面を参照しながら、第1の実施の形態に係るサーバ装置の例について説明する。図1は、本発明に係るサーバ装置10の構成を表したブロック図である。サーバ装置10は、複数のデバイス201、202、・・・、20nと通信ネットワーク30を介して通信可能に接続されている。なお、サーバ装置10及びデバイス201〜20nは、専用マシンとして設計した装置であってもよいが、一般的なコンピュータによって実現可能なものであるものとする。この場合に、サーバ装置10及びデバイス201〜20nは、一般的なコンピュータが通常備えているであろうCPU(Central Processing Unit:中央演算処理装置)、GPU(Graphics Processing Unit:画像処理装置)、メモリ、ハードディスクドライブ等のストレージなどを適宜備えているものとする(図示省略)。また、これらの一般的なコンピュータを本例のサーバ装置10として機能させるためにプログラムよって各種処理が実行されることは言うまでもない。
サーバ装置10は、デバイスデータ取得部11と、対象共有モデル選択部12と、追加学習処理部13と、追加学習済モデル管理部14と、記憶部15とを少なくとも備えている。
デバイスデータ取得部11は、デバイス201〜20nの何れかにおいて生成されたデバイスの環境、条件の情報を含むデバイスデータを取得する機能を有する。ここで、デバイスデータとは、デバイスの環境、条件、データの単位等の属性を定義するために必要なデータ、追加で学習を行うために必要なラベル情報付のサンプルデータ、実際のデバイスにおけるセンサデータ、ネットワークのログデータなどデバイスで取得可能な様々なデータを含むものである。少なくとも、共有モデルを選択するために必要なデータを含んだデバイスデータである必要がある。具体的には、工場のロボットの位置データやアクチュエータトルク量、加速度センサデータ、車載カメラやレーザーレーダーなどで取得されるデプスを含むもしくは含まない画像データ、変位センサデータ、プロセスオートメーションの各種プロセスデータ、インフラや農業、バイオヘルスケアなどにおける各種データなどのセンサデータ、ネットワークのログデータや、正常品や異常品を含む製品の写真データや、音声データ、機械の種類、ワークの種類、センサの種類、地理的情報など、様々なデータがデバイスデータとして使用され得る。
また、デバイスの環境、条件は、例えば、デバイスがピッキングを行う作業機械である場合であってピッキングの対象となるワーク形状の種類がいくつかに分かれているといった場合などのように、デバイスに要求される環境、条件等は個別に異なる。また、製品を異常品と正常品を判定する装置なのか、製品を複数項目に分類するための装置なのかなど、学習器に求められる機能もデバイスごとに異なる。そのため、デバイスごとに異なる個別の環境、条件等の情報をデバイスデータとして取得する必要がある。この環境、条件等の情報は、フォーマットに従ってデバイス側で入力されるものであってもよいし、様々なデータからサーバ装置10において判別して環境、条件等の情報を定義するようにしてもよい。その際には、取得したデータを用いて機械学習によって環境、条件等の情報の定義を特定する手法であってもよい。
対象共有モデル選択部12は、デバイスデータ取得部11において取得したデバイスデータに基づいて、当該デバイスに最適な共有モデルを選択する機能を有する。ここで、共有モデルとは、様々なデバイスの環境、条件に合わせて予め学習を行ったモデルのことをいい、後述する記憶部15に複数の共有モデルを予め記憶させておく。予め行う学習の程度としてはどのような水準に設定してもよいが、少なくとも、デバイスでゼロから学習を行うよりも効率が良くコストダウンに寄与する程度に学習が行われているものであることが好ましい。この対象共有モデル選択部12における選択は、取得したデバイスデータに基づいて行うが、取得したデバイスデータのうち何れを共有モデルの選択のために利用するかは適宜決定可能なものである。また共有モデルの選択の方法は、デバイスデータの各項目の一致度から自動的に選択してもよいし、一致度の高い共有モデルを複数個複数個ユーザに提示してユーザに選択させるようにしてもよい。項目の一致度は、例えば、デバイスデータの各項目が一致するか否かを項目ごとに判定して、項目の一致数によって判定する。なお、デバイスの環境、条件等の定義にマッチした共有モデルが見つからない場合には、その定義に適したニューラルネットワークの構造からなる新規のモデルを生成するようにしてもよい。なお、対象となる共有モデルの選択方法は、予め設定した規則に基づいて共有モデルが選択される方法であってもよいし、最適な共有モデルを選択するための学習モデルを学習させた共有モデル選択についての学習済モデル(共有モデル及び追加学習済モデルとは異なる学習済モデルであり、共有モデルの選択行為を学習したもの)によって共有モデルを選択する方法であってもよい。
また、対象共有モデル選択部12において最適な共有モデルを選択する手法として、前記デバイスから得た環境、条件をもとに各共有モデルに対して評価したスコアをそれぞれ算出し、そのスコアに従って選択を行うようにしてもよい。共有モデルの適合度の評価であるスコアは、機械の種類、ワークの種類、センサの種類、地理的情報などのベースとなる環境・条件についてのデバイスデータに加えて、工場のロボットの位置データやアクチュエータトルク量、加速度センサデータ、車載カメラやレーザーレーダーなどで取得されるデプスを含むもしくは含まない画像データ、変位センサデータ、プロセスオートメーションの各種プロセスデータ、インフラや農業、バイオヘルスケアなどにおける各種データなどのセンサデータ、ネットワークのログデータや、正常品や異常品を含む製品の写真データや、音声データなどのより詳細なデバイスデータを加味して評価を行う。これらの各項目をどのように評価してスコア化するかを予め設定しておき、共有モデルごとに項目毎の点数を合計した合計スコアを算出する。実際の共有モデルの選択は、最もスコアの高い共有モデルを自動的に選択するようにしてもよいし、スコアの高い共有モデルを複数個ユーザに提示してユーザに選択させるようにしてもよい。なお、適合度の評価であるスコアを算出して最適な共有モデルを選択するための学習モデルを学習させて学習済モデルによって共有モデルを選択する方法であってもよい。この場合、各デバイスデータをどのようにスコア化するかについても学習モデルが学習していくため、最適な共有モデルの選択が可能となる。
追加学習処理部13は、対象共有モデル選択部12において選択された共有モデルに対して追加学習を行う機能を有する。共有モデルは、予め学習が行われているとはいえ、そのデバイスに特化した環境、条件での学習は行っていない状況であるため、高精度の判定、分類等を行うためには、追加の学習を行って微調整することが好ましい。そこで、デバイスデータ取得部11において、追加学習において入力データとして用いるためのサンプルデータを併せて取得し、取得したサンプルデータを用いて共有モデルの追加学習を行う。ここで追加学習においては、ニューラルネットワークの全層を対象にして重みを再学習することに限らず、一部をフリーズさせておいてそれ以外の層だけを学習しなおすことや、層をさらに追加することも含まれる。これにより、そのデバイスに特化した環境、条件での学習内容が追加されて、より最適なモデルとして微調整された追加学習済モデルを生成することができる。追加学習処理部13として機能するためには、学習器として機能するための構成がサーバ装置10に求められる。
追加学習済モデル管理部14は、追加学習処理部13において生成された追加学習済モデルを後述する記憶部15に対して記憶させるとともに、対象となるデバイスに対して追加学習済モデルを送信する機能を有する。また、追加学習済モデルを条件の一致する他のデバイスで利用可能なように、その環境、条件等の定義情報を設定した上で管理する機能を有する。このように、追加学習済モデルに対しても環境、条件等の定義情報を定めておくことにより、対象共有モデル選択部12において、デバイスに適した共有モデルを選択する際に、他のデバイスに基づいて生成された追加学習済モデルについても選択肢の候補とすることが可能となる。
記憶部15は、様々なデバイスの環境、条件に合わせて予め学習を行った複数の共有モデルを記憶させる機能を有する。また、共有モデルに対してデバイスに特化した環境、条件を学習させるためのサンプルデータを適用して学習させた追加学習済モデルについても、この記憶部15に記憶させる。なお、記憶部15は、必ずしもサーバ装置10にある必要はなく、デバイス側に具備されているようなシステムでもよい。その場合には、サーバ装置10において対象となる共有モデルが何れに格納されているかの情報を保持し、必要に応じて格納場所からデバイスに転送する。
次に、サーバ装置10において共有モデルを選択し、追加学習を行うまでの処理の流れについて説明を行う。図2に示すのは、追加学習の学習処理の流れを示したフローチャート図である。この図2において、先ず、デバイスに適した共有モデルを選択するために、デバイスデータを収集する(S11)。具体的には、デバイス20から送信されるデバイスデータをデバイスデータ取得部11において受信してデバイスデータを収集する。収集したデバイスデータに基づいて、デバイスデータの属性を定義する(S12)。デバイスデータの属性とは、共有モデルを選択するために必要なデバイスの環境、条件等の情報であり、これを定義する。そして、定義したデバイスデータの属性に基づいて、共有モデルを検索する(S13)。このときの検索対象として、他のデバイスで追加学習を行って生成された追加学習済モデルも含めるようにしてもよい。検索の結果、該当する共有モデルが存在するか否かを判定する(S14)。該当する共有モデルが存在した場合には、当該共有モデルを選択して次のステップ(S16)に進み、該当する共有モデルが存在しなかった場合には、デバイス20の条件に一致したニューラルネットワークの構成からなる学習モデルを新規に生成して(S15)、次のステップ(S16)に進む。
共有モデルを選択、若しくは、新規に学習モデルを生成した後に、その共有モデル若しくは新規学習モデルに対して、学習器によって追加の学習を実施する(S16)。追加の学習は、デバイス20から収集した追加学習を行うためのサンプルデータを利用して行う。追加学習の完了後、生成した追加学習済モデルを記憶部15に記憶させる(S17)。サーバ装置10は、この生成した追加学習済モデルをデバイス20に送信する。
なお、デバイス20側において追加学習処理を行う機能を備えている場合や、選択された共有モデルが追加学習の必要のない状態でデバイス20の条件にマッチしている場合には、この図2のステップ(S16)とステップ(S17)は省略して、選択された共有モデルをそのままデバイス20に送信することもあり得る。
次に、デバイス20において共有モデルをダウンロードして、推論処理を行うまでの流れについて説明を行う。図3に示すのは、デバイス20において推論処理を行うまでの流れを示したフローチャート図である。この図3において、推論処理を行いたいデバイス20は、先ず、デバイスデータの収集を行う(S21)。収集したデバイスデータに基づいて、デバイスデータの属性を定義する(S22)。なお、このデバイスデータの属性の定義は、サーバ装置10側において行ってもよい。そして、デバイスデータを用いて最適な共有モデルを検索するために、サーバ装置10に対してデバイスデータを送信する(S23)。デバイスデータを受信したサーバ装置10では、最適な共有モデルの選択が行われ、必要に応じて追加学習が行われる。そして、デバイス20において、サーバ装置10で選択された共有モデル若しくは追加学習済モデルを学習器にダウンロードして記憶させる(S24)。最後に、デバイス20では、共有モデル若しくは追加学習済モデルを学習器に記憶させた状態において、デバイスデータを利用して学習器において推論処理を行って、出力データとしての推論結果を得る(S25)。
出力データは、行う推論処理によって全く異なるものであるが、例えば、予定している行動の正しさの判定、部品の異常度の判定、システム異常度の判定、良品か不良品かの検査結果、映像に映ったオブジェクトの名前(分類処理)、映像に映った人物の人種、性別などの特徴、特定のルールに基づいて加工された写真、音声、文章などが出力データとして出力される。
なお、デバイス20に側において追加学習処理を行う機能を備えている場合には、図3のステップ(S24)の後で、共有モデルに対して追加学習を行うようにしてもよい。デバイス20側で追加学習を行った場合には、その追加学習済モデルをサーバ装置10にアップロードする構成とすれば、デバイス20側で追加学習を行った追加学習済モデルについても、他のデバイスで利用することが可能となる。
図1の状態を例に本発明の具体的な運用例を説明すると、例えば、デバイス201がサーバ装置10に対してデバイスデータを送信して選択された共有モデルが「モデルA」であり、デバイス201のデバイスデータに含まれるサンプルデータに基づいて追加学習を行って得られた追加学習済モデルが「モデルA’」であったとする。また、デバイス202がサーバ装置10に対してデバイスデータを送信して選択された共有モデルが「モデルB」であり、デバイス202のデバイスデータに含まれるサンプルデータに基づいて追加学習を行って得られた追加学習済モデルが「モデルB’」であったとする。このように、デバイス201、202はそれぞれ、自身のデバイスの環境、条件等の情報を含むデバイスデータをサーバ装置10に送信するだけで最適かつ追加学習済みの学習済モデルを取得できるので、デバイス201、202において独自に学習済モデルを生成する場合に比較して導入コストを大幅に低減できるというメリットがある。
また、図1において、デバイス20nがサーバ装置10に対してデバイスデータを送信して共有モデルを要求したときに、デバイス20nのデバイスデータから定義される環境、条件等がデバイス201と同一であり、同じ学習済モデルを適用できるとサーバ装置10が判断した場合には、「モデルA」に基づいて追加学習を行うのではなく、追加学習済モデルである「モデルA’」をデバイス20nに送信すれば、デバイス20nでそのまま推論処理が可能となる。このように、同一環境、条件の他のデバイスに基づいて生成された追加学習済モデルが存在する場合には直接それを利用することが可能となるため、より一層導入コストを抑え、かつ、導入までの時間短縮が可能となる。また、汎用的な学習モデルを利用する場合に比較して、最適なニューラルネットワークのサイズを適用できるため、追加学習のための演算コスト及びメモリコストを縮小することが可能となる。
また、同一工場内において扱う製品が変更されるような状況において、従来は製品が変わる度にゼロから学習を行う必要があったが、本発明のサーバ装置10によれば、扱う製品の変更のタイミングで最適な共有モデルを再度検索してダウンロードすればよいことになる。すなわち、同一のデバイス20における処理内容が変更されるような場合に最適な共有モデルの導入が容易であるというメリットがある。そして、同じ処理内容の他のデバイスによって追加学習済モデルが生成されていれば、追加学習処理の手間をかけることなる精度の高い推論処理を行える追加学習済モデルを即座に導入できるというメリットがある。このように、多数のデバイス201〜20nがサーバ装置10にアクセスして追加学習済モデルのデータが蓄積されていくという点も、本発明のサーバ装置10のメリットである。
前記第1の実施の形態においては、共有モデルと追加学習済モデルとを分けて説明を行っていたが、学習の程度が異なるというだけで、どちらも学習済モデルであることには変わりがない。すなわち、他のデバイスから見たときに、学習の程度に応じて共有モデルと追加学習済モデルを適宜選択可能であれば、必ずしも、図1の記憶部15のように、区別して記憶させておく必要はない。共有モデルや追加学習済モデルに対して検索時に最適なモデルを検索するための情報が付されていれば、同じ学習済モデルとして扱ってしまって差し支えないといえる。この場合には、追加学習済モデル管理部14がなくとも本発明のサーバ装置10が機能するといえる。
前記第1の実施の形態においては、サーバ装置10に追加学習処理部13を設けていたが、これに限定されるものではなく、追加学習処理部13に相当する追加学習処理機能を各デバイス20側に設けるものであってもよい。この場合に、デバイス20側で生成した追加学習済モデルをサーバ装置10に送信する構成であってもよいが、追加学習済モデル全体はサーバ装置10には送信せずに、追加学習済モデルの選択に必要な情報のみをサーバ装置10に送信する構成であってもよい。他のデバイス20が同じ追加学習済モデルを必要としたときにだけ、サーバ装置10若しくは必要とするデバイス20に直接送信する構成とすることができる。これにより、サーバ装置10に必要なデータ領域を縮小することが可能となる。
前記第1の実施の形態においては、図1に示すように、1つのサーバ装置10と複数のデバイス201〜20nが通信ネットワーク30を介して接続される構成を例に説明を行ったが、これに限定されるものではなく、例えば、複数のサーバ装置10が格納された共有モデル(追加学習済モデルも含む)を相互に認識した状態で通信ネットワーク30を介して通信可能に構成することで、他のサーバ装置10から共有モデルを検索してデバイスに対して提供可能としてもよい。このように複数のサーバ装置と複数のデバイスからなる学習済モデル提供システムを構成することで、複数のサーバ装置10の何れかに記憶された共有モデルをデバイス20に対して提供可能となるため、より膨大なデータの選択肢の中から最適な共有モデルを選択可能となる。
前記第1の実施の形態においては、追加学習処理部13における追加学習の対象データは、そのデバイスでのみ取得したデバイスデータを使って学習していたが、これにとどまる必要はなく、同一環境・条件の他のデバイスで取得したデータを使用したり、同一環境・条件の他のデバイスで生成した学習済モデルを使用して更新したりしてもよい。また、同一環境・条件の複数のデバイスにおいてそれぞれ生成された追加学習済モデルを混合して混合学習済モデルを生成するようにしてもよい。学習モデルの混合については、既知の様々な手法が適用可能である。
本発明は、学習済モデルを用いた推論処理を必要とする分野であればどのような分野であっても適用可能な技術であり、学習済モデルのデータベースとして運用することが可能である。
10 サーバ装置
11 デバイスデータ取得部
12 対象共有モデル選択部
13 追加学習処理部
14 追加学習済モデル管理部
15 記憶部
20、201〜20n デバイス
30 通信ネットワーク

Claims (28)

  1. 予め学習された異なる特性の複数のモデルを記憶する少なくとも1つの記憶装置と、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    第1デバイスに関する情報を、前記第1デバイスから取得することと、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルから前記第1デバイスに送信するモデルを選択することと、
    選択した前記モデルを、前記第1デバイスに送信することと、
    を実行するように構成され、
    前記複数のモデルのそれぞれは、デバイスデータを入力として、前記デバイスデータに関する推論結果を出力可能なニューラルネットワークからなるモデルであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    前記第1デバイスは、ピッキングを行うデバイスであって、
    前記第1デバイスに関する情報は、ピッキングの環境又は条件に関する情報を含む、
    サーバ装置。
  2. 予め学習された異なる特性の複数のモデルを記憶する少なくとも1つの記憶装置と、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    第1デバイスに関する情報を、前記第1デバイスから取得することと、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルから前記第1デバイスに送信するモデルを選択することと、
    選択した前記モデルを、前記第1デバイスに送信することと、
    を実行するように構成され、
    前記複数のモデルのそれぞれは、デバイスデータを入力として、前記デバイスデータに関する推論結果を出力可能なニューラルネットワークからなるモデルであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含み、
    前記第1デバイスは、物体を把持する装置であって、
    前記第1デバイスに関する情報は、前記物体に関する情報を含む、
    サーバ装置。
  3. 前記第1デバイスに関する情報は、前記第1デバイスの環境に関する情報であり、
    前記少なくとも1つのプロセッサは、前記複数のモデルから前記第1デバイスの環境に適合するモデルを選択する、
    請求項1又は請求項2に記載のサーバ装置。
  4. 前記少なくとも1つのプロセッサは、
    サンプルデータを用いて、前記少なくとも1つの記憶装置に記憶されたモデルの追加学習を行うことと、
    追加学習済モデルを前記少なくとも1つの記憶装置に記憶させることと、
    を更に実行するように構成される
    請求項1乃至請求項3の何れかに記載のサーバ装置。
  5. 前記少なくとも1つのプロセッサは、
    モデルに対して追加学習を行う機能を有する第3デバイスから送信された追加学習済モデルを受信することと、
    受信した前記追加学習済モデルを前記少なくとも1つの記憶装置に記憶させることと、
    を更に実行するように構成される
    請求項1乃至請求項4の何れかに記載のサーバ装置。
  6. 前記モデルを選択することは、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルに対する適合度を評価したスコアをそれぞれ算出することと、
    前記スコアに基づいて、前記モデルを選択することと、
    を含む請求項1乃至請求項5の何れかに記載のサーバ装置。
  7. 前記モデルを選択することは、
    モデルの選択のために、予め学習した学習済モデルを用いること、
    を含む請求項1乃至6の何れかに記載のサーバ装置。
  8. 第4デバイスに適合するモデルが前記少なくとも1つの記憶装置に記憶されていない場合、
    前記少なくとも1つのプロセッサは、
    前記第4デバイスで取得されたサンプルデータを用いて、モデルを新規に生成すること、
    を更に実行するように構成される
    請求項1乃至請求項7の何れかに記載のサーバ装置。
  9. 少なくとも1つの記憶装置と、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    デバイスに関する情報を、サーバ装置に送信することと、
    前記デバイスに関する情報に基づいて選択されたニューラルネットワークからなるモデルを、前記サーバ装置から受信することと、
    デバイスデータを取得することと、
    受信した前記モデルを用いて、前記デバイスデータに関する推論結果を取得することと、
    を実行するように構成され、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    物体をピッキングするピッキング部、を更に備え、
    前記デバイスに関する情報は、ピッキングの環境又は条件に関する情報を含む、
    デバイス。
  10. 少なくとも1つの記憶装置と、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    デバイスに関する情報を、サーバ装置に送信することと、
    前記デバイスに関する情報に基づいて選択されたニューラルネットワークからなるモデルを、前記サーバ装置から受信することと、
    デバイスデータを取得することと、
    受信した前記モデルを用いて、前記デバイスデータに関する推論結果を取得することと、
    を実行するように構成され、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含み、
    物体を把持する把持部、を更に備え、
    前記デバイスに関する情報は、前記物体に関する情報を含む、
    デバイス。
  11. 前記デバイスに関する情報は、前記デバイスの環境に関する情報であり、
    受信した前記モデルは、予め学習された異なる特性の複数のモデルの中から選択された前記デバイスの環境に適合するモデルである、
    請求項9又は請求項10に記載のデバイス。
  12. 前記少なくとも1つのプロセッサは、
    サンプルデータを用いて、受信した前記モデルの追加学習を行うこと、
    を更に実行するように構成される
    請求項9乃至請求項11の何れかに記載のデバイス。
  13. 前記少なくとも1つのプロセッサは、
    追加学習済モデルを、前記サーバ装置に送信すること、
    を更に実行するように構成される
    請求項12に記載のデバイス。
  14. 予め学習された異なる特性の複数のモデルを記憶する少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたサーバ装置によって実施される学習済モデル提供方法であって、
    第1デバイスに関する情報を、前記第1デバイスから取得することと、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルから前記第1デバイスに送信するモデルを選択することと、
    選択した前記モデルを、前記第1デバイスに送信することと、
    を実行するようにし、
    前記複数のモデルのそれぞれは、デバイスデータを入力として、前記デバイスデータに関する推論結果を出力可能なニューラルネットワークからなるモデルであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    前記第1デバイスは、物体をピッキングする装置であって、
    前記第1デバイスに関する情報は、ピッキングの環境又は条件に関する情報を含む、
    学習済モデル提供方法。
  15. 予め学習された異なる特性の複数のモデルを記憶する少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたサーバ装置によって実施される学習済モデル提供方法であって、
    第1デバイスに関する情報を、前記第1デバイスから取得することと、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルから前記第1デバイスに送信するモデルを選択することと、
    選択した前記モデルを、前記第1デバイスに送信することと、
    を実行するようにし、
    前記複数のモデルのそれぞれは、デバイスデータを入力として、前記デバイスデータに関する推論結果を出力可能なニューラルネットワークからなるモデルであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含み、
    前記第1デバイスは、物体を把持する装置であって、
    前記第1デバイスに関する情報は、前記物体に関する情報を含む、
    学習済モデル提供方法。
  16. 前記第1デバイスに関する情報は、前記第1デバイスの環境に関する情報であり、
    前記少なくとも1つのプロセッサは、前記複数のモデルから前記第1デバイスの環境に適合するモデルを選択する、
    請求項14又は請求項15に記載の学習済モデル提供方法。
  17. サンプルデータを用いて、前記少なくとも1つの記憶装置に記憶されたモデルの追加学習を行うことと、
    追加学習済モデルを前記少なくとも1つの記憶装置に記憶させることと、
    を更に実行する
    請求項14乃至請求項16の何れかに記載の学習済モデル提供方法。
  18. モデルに対して追加学習を行う機能を有する第3デバイスから送信された追加学習済モデルを受信することと、
    受信した前記追加学習済モデルを前記少なくとも1つの記憶装置に記憶させることと、
    を更に実行する
    請求項14乃至請求項17の何れかに記載の学習済モデル提供方法。
  19. 前記モデルを選択することは、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルに対する適合度を評価したスコアをそれぞれ算出することと、
    前記スコアに基づいて、前記モデルを選択することと、
    を含む
    請求項14乃至請求項18の何れかに記載の学習済モデル提供方法。
  20. 前記モデルを選択することは、
    モデルの選択のために学習した学習済モデルを用いること、
    を含む
    請求項14乃至請求項19の何れかに記載の学習済モデル提供方法。
  21. 第4デバイスに適合するモデルが前記少なくとも1つの記憶装置に記憶されていない場合、
    前記第4デバイスで取得されたサンプルデータを用いて、モデルを新規に生成すること、
    を更に実行する
    請求項14乃至請求項20の何れかに記載の学習済モデル提供方法。
  22. 少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたデバイスによって実施される学習済モデル取得方法であって、
    前記デバイスに関する情報を、サーバ装置に送信することと、
    前記デバイスに関する情報に基づいて選択されたニューラルネットワークからなるモデルを、前記サーバ装置から受信することと、
    デバイスデータを取得することと、
    受信した前記モデルを用いて、前記デバイスデータに関する推論結果を取得することと、
    を実行するようにし、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    前記デバイスは、物体をピッキングする装置であって、
    前記デバイスに関する情報は、ピッキングの環境又は条件に関する情報を含む、
    学習済モデル取得方法。
  23. 少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたデバイスによって実施される学習済モデル取得方法であって、
    前記デバイスに関する情報を、サーバ装置に送信することと、
    前記デバイスに関する情報に基づいて選択されたニューラルネットワークからなるモデルを、前記サーバ装置から受信することと、
    デバイスデータを取得することと、
    受信した前記モデルを用いて、前記デバイスデータに関する推論結果を取得することと、
    を実行するようにし、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含み、
    前記デバイスは、物体を把持する装置であって、
    前記デバイスに関する情報は、前記物体に関する情報を含む、
    学習済モデル取得方法。
  24. 前記デバイスに関する情報は、前記デバイスの環境に関する情報であり、
    受信した前記モデルは、予め学習された異なる特性の複数のモデルの中から選択された前記デバイスの環境に適合するモデルである、
    請求項22又は請求項23に記載の学習済モデル取得方法。
  25. サンプルデータを用いて、受信した前記モデルの追加学習を行うこと、
    を更に実行する
    請求項22乃至請求項24の何れかに記載の学習済モデル取得方法。
  26. 追加学習済モデルを、前記サーバ装置に送信すること、
    を更に実行する
    請求項25に記載の学習済モデル取得方法。
  27. 予め学習された異なる特性の複数のモデルを記憶する少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたサーバ装置によって実行可能な命令を含む学習済モデル提供プログラムであって、前記命令が実行されると、前記サーバ装置に、
    第1デバイスに関する情報を、前記第1デバイスから取得することと、
    前記第1デバイスに関する情報に基づいて、前記複数のモデルから前記第1デバイスに送信するモデルを選択することと、
    選択した前記モデルを、前記第1デバイスに送信することと、
    を含む動作を行わせるものであり、
    前記複数のモデルのそれぞれは、デバイスデータを入力として、前記デバイスデータに関する推論結果を出力可能なニューラルネットワークからなるモデルであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    前記第1デバイスは、物体を把持する装置であって、
    前記第1デバイスに関する情報は、前記物体に関する情報を含む、
    学習済モデル提供プログラム。
  28. 少なくとも1つの記憶装置と、少なくとも1つのプロセッサとを備えたデバイスによって実行可能な命令を含む学習済モデル取得プログラムであって、前記命令が実行されると、前記デバイスに、
    前記デバイスに関する情報を、サーバ装置に送信することと、
    前記デバイスに関する情報に基づいて選択されたニューラルネットワークからなるモデルを、前記サーバ装置から受信することと、
    デバイスデータを取得することと、
    受信した前記モデルを用いて、前記デバイスデータに関する推論結果を取得することと、
    を含む動作を行わせるものであり、
    前記デバイスデータは、少なくとも、センサデータ、音声データ又は画像データのいずれか1つを含
    前記デバイスは、物体を把持する把持部、を更に備え、
    前記デバイスに関する情報は、前記物体に関する情報を含む、
    学習済モデル取得プログラム。
JP2019506582A 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム Active JP6720402B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020103320A JP6986597B2 (ja) 2017-03-21 2020-06-15 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
JP2021192435A JP7280935B2 (ja) 2017-03-21 2021-11-26 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011216 WO2018173121A1 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020103320A Division JP6986597B2 (ja) 2017-03-21 2020-06-15 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Publications (2)

Publication Number Publication Date
JPWO2018173121A1 JPWO2018173121A1 (ja) 2019-12-12
JP6720402B2 true JP6720402B2 (ja) 2020-07-08

Family

ID=63585078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019506582A Active JP6720402B2 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Country Status (5)

Country Link
US (3) US11375019B2 (ja)
EP (1) EP3605405A4 (ja)
JP (1) JP6720402B2 (ja)
CN (1) CN110431569A (ja)
WO (1) WO2018173121A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6720402B2 (ja) * 2017-03-21 2020-07-08 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
JP6886869B2 (ja) * 2017-06-09 2021-06-16 川崎重工業株式会社 動作予測システム及び動作予測方法
JP6698604B2 (ja) * 2017-09-29 2020-05-27 ファナック株式会社 数値制御システム、及び工具状態検知方法
JP6698603B2 (ja) * 2017-09-29 2020-05-27 ファナック株式会社 数値制御システム、及び運転状態異常検知方法
TWI675331B (zh) * 2018-08-31 2019-10-21 財團法人工業技術研究院 儲物裝置及儲物方法
JP2020067762A (ja) * 2018-10-23 2020-04-30 トヨタ自動車株式会社 制御支援装置、機器制御装置、制御支援方法、制御支援プログラム、コンピュータを機能させるための学習済みモデル、および学習済みモデルの生成方法
JP7279721B2 (ja) * 2018-10-30 2023-05-23 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
WO2020105161A1 (ja) * 2018-11-22 2020-05-28 株式会社ウフル エッジデバイス機械学習モデル切替システム、エッジデバイス機械学習モデル切替方法、プログラム、及びエッジデバイス
JP2020101899A (ja) * 2018-12-20 2020-07-02 積水化学工業株式会社 コンピュータプログラム、学習モデル、推定装置、収容器及びサーバ装置
JP7117237B2 (ja) * 2018-12-27 2022-08-12 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
WO2020148959A1 (ja) * 2019-01-15 2020-07-23 ソニー株式会社 サーバおよび学習システム
JP7337504B2 (ja) * 2019-01-18 2023-09-04 キヤノン株式会社 システム、方法、及びプログラム
WO2020153038A1 (ja) * 2019-01-22 2020-07-30 ソニー株式会社 情報処理装置、および情報処理方法
JPWO2020158954A1 (ja) * 2019-02-01 2021-02-18 株式会社コンピュータマインド サービス構築装置、サービス構築方法及びサービス構築プログラム
JP7279445B2 (ja) * 2019-03-20 2023-05-23 富士通株式会社 予測方法、予測プログラムおよび情報処理装置
WO2020217762A1 (ja) * 2019-04-25 2020-10-29 ソニー株式会社 通信装置、通信方法、及び通信プログラム
JP7213760B2 (ja) * 2019-06-10 2023-01-27 大阪瓦斯株式会社 ガス検知装置
US11605379B2 (en) 2019-07-11 2023-03-14 Lg Electronics Inc. Artificial intelligence server
JP7231511B2 (ja) * 2019-07-29 2023-03-01 株式会社日立製作所 管理装置、管理方法、および管理プログラム
WO2021038759A1 (ja) * 2019-08-28 2021-03-04 富士通株式会社 モデル選択方法、モデル選択プログラムおよび情報処理装置
JP7051772B2 (ja) * 2019-09-12 2022-04-11 株式会社東芝 提供装置、提供方法及びプログラム
JP7181849B2 (ja) * 2019-10-31 2022-12-01 横河電機株式会社 装置、方法およびプログラム
JP7392394B2 (ja) 2019-10-31 2023-12-06 株式会社富士通ゼネラル 空気調和システム及び空気調和機
JP2021081793A (ja) * 2019-11-14 2021-05-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
EP4004825A4 (en) 2019-12-09 2022-09-14 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND ELECTRONIC DEVICE CONTROL METHOD
JP7323177B2 (ja) * 2019-12-17 2023-08-08 株式会社 システムスクエア 検査システム、検査装置、学習装置及びプログラム
KR20210086008A (ko) * 2019-12-31 2021-07-08 삼성전자주식회사 컨텐츠 추천 모델을 개인화하는 방법 및 장치
US20230037499A1 (en) * 2020-02-17 2023-02-09 Mitsubishi Electric Corporation Model generation device, in-vehicle device, and model generation method
JP7354421B2 (ja) 2020-03-31 2023-10-02 株式会社日立ハイテク エラー要因の推定装置及び推定方法
JP7135025B2 (ja) 2020-04-20 2022-09-12 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP6795116B1 (ja) * 2020-06-08 2020-12-02 トヨタ自動車株式会社 車両、及びサーバ
JP7414995B2 (ja) 2020-06-26 2024-01-16 三菱電機株式会社 Ai統合システム、ai統合装置及びai統合プログラム
JPWO2022009543A1 (ja) 2020-07-10 2022-01-13
JP7226411B2 (ja) * 2020-08-07 2023-02-21 株式会社安川電機 拡張モジュール、産業用機器、及び産業用機器のパラメータ又は前記産業用機器により制御される機器の内部状態の推定方法
JP7074166B2 (ja) * 2020-08-07 2022-05-24 トヨタ自動車株式会社 サーバ、車両の制御装置、および車両の機械学習システム
WO2022038674A1 (ja) * 2020-08-18 2022-02-24 日本電信電話株式会社 デバイス制御装置、デバイス制御プログラム、環境分類装置、および、アクチュエータ制御装置
JP7093031B2 (ja) * 2020-09-23 2022-06-29 ダイキン工業株式会社 情報処理装置、情報処理方法、及びプログラム
US20230351191A1 (en) * 2020-10-13 2023-11-02 Sony Group Corporation Information processing apparatus, information processing method, computer program, and learning system
TW202226078A (zh) 2020-11-10 2022-07-01 日商東京威力科創股份有限公司 模型管理系統、模型管理方法及模型管理程式
KR102470637B1 (ko) * 2020-11-26 2022-11-25 (주)심플랫폼 클라우드 기반 디바이스 인공지능 설정 시스템 및 방법
JP6947460B1 (ja) * 2021-03-24 2021-10-13 株式会社Novera プログラム、情報処理装置、及び方法
WO2023276097A1 (ja) * 2021-07-01 2023-01-05 三菱電機株式会社 転移学習装置および転移学習方法
JP7305850B1 (ja) 2022-06-30 2023-07-10 菱洋エレクトロ株式会社 機械学習を利用したシステム、端末、サーバ、方法、及び、プログラム

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
US6961938B1 (en) * 2001-03-03 2005-11-01 Brocade Communications Systems, Inc. Management of multiple network devices using unsigned Java applets
JP2002268684A (ja) 2001-03-14 2002-09-20 Ricoh Co Ltd 音声認識用音響モデル配信方法
US7020642B2 (en) * 2002-01-18 2006-03-28 Pavilion Technologies, Inc. System and method for pre-processing input data to a support vector machine
US7383161B2 (en) * 2005-04-13 2008-06-03 Microsoft Corporation Systems and methods for device simulation
US20070180070A1 (en) * 2006-01-31 2007-08-02 Staples The Office Superstore, Llc Managing component configurations in a computer system
US20070180069A1 (en) * 2006-01-31 2007-08-02 Staples The Office Superstore, Llc Management of component configurations in a computer system
JP4660765B2 (ja) 2006-02-13 2011-03-30 国立大学法人横浜国立大学 進化型画像自動分類装置、フィルタ構造生成方法、及びプログラム
JP4985653B2 (ja) * 2006-11-13 2012-07-25 富士通株式会社 2クラス分類予測モデルの作成方法、分類予測モデル作成のためのプログラムおよび2クラス分類予測モデルの作成装置
US8868400B2 (en) * 2008-04-30 2014-10-21 Netapp, Inc. Modeling storage environments
US7930163B2 (en) * 2008-04-30 2011-04-19 Netapp, Inc. Modeling a storage environment at various times
US11562323B2 (en) * 2009-10-01 2023-01-24 DecisionQ Corporation Application of bayesian networks to patient screening and treatment
JP2011191252A (ja) 2010-03-16 2011-09-29 Nippon Steel Engineering Co Ltd 金属の表面品質評価方法および金属の表面品質評価装置
JP5185358B2 (ja) * 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
JP2012199338A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 故障診断支援方法、プログラム及び装置
US8533224B2 (en) * 2011-05-04 2013-09-10 Google Inc. Assessing accuracy of trained predictive models
US8620837B2 (en) * 2011-07-11 2013-12-31 Accenture Global Services Limited Determination of a basis for a new domain model based on a plurality of learned models
US10417575B2 (en) * 2012-12-14 2019-09-17 Microsoft Technology Licensing, Llc Resource allocation for machine learning
US20140074761A1 (en) * 2012-05-30 2014-03-13 Qualcomm Incorporated Dynamical event neuron and synapse models for learning spiking neural networks
CN102932412B (zh) * 2012-09-26 2016-02-03 华为终端有限公司 文件传输方法及系统、主控设备
US9466026B2 (en) * 2012-12-21 2016-10-11 Model N, Inc. Rule assignments and templating
US8924193B2 (en) * 2013-03-14 2014-12-30 The Mathworks, Inc. Generating variants from file differences
DK2997353T3 (da) * 2013-05-15 2023-01-16 The Administrators Of The Tulane Educational Fund Mikroskopi af en vævsprøve under anvendelse af struktureret belysning
JP6214922B2 (ja) 2013-05-20 2017-10-18 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、および学習プログラム
JP5408380B1 (ja) 2013-06-17 2014-02-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
US9414219B2 (en) * 2013-06-19 2016-08-09 Facebook, Inc. Detecting carriers for mobile devices
JP2015038709A (ja) * 2013-08-19 2015-02-26 日本電信電話株式会社 モデルパラメータ推定方法、装置、及びプログラム
US20150062158A1 (en) * 2013-08-28 2015-03-05 Qualcomm Incorporated Integration of head mounted displays with public display devices
JP2015136762A (ja) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 処理装置、ロボット、ロボットシステム及び処理方法
US9886669B2 (en) * 2014-02-26 2018-02-06 Microsoft Technology Licensing, Llc Interactive visualization of machine-learning performance
US10176428B2 (en) * 2014-03-13 2019-01-08 Qualcomm Incorporated Behavioral analysis for securing peripheral devices
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
US9465715B2 (en) * 2014-06-12 2016-10-11 Oracle International Corporation Optimizing the number of shared processes executing in a computer system
US9426034B2 (en) * 2014-06-16 2016-08-23 International Business Machines Corporation Usage policy for resource management
US10380527B2 (en) * 2014-06-25 2019-08-13 Valuemomentum, Inc. Method and system for efficient and comprehensive product configuration and searching
US10317892B2 (en) * 2014-10-15 2019-06-11 Brigham Young University System and method for concurrent multi-user computer-aided manufacturing
US9665831B2 (en) * 2014-10-24 2017-05-30 International Business Machines Corporation Interactive learning
KR102264050B1 (ko) * 2014-11-28 2021-06-11 삼성전자주식회사 전자 장치들 간에 기능을 공유하는 방법 및 장치
JP6452419B2 (ja) * 2014-12-05 2019-01-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US10311372B1 (en) * 2014-12-19 2019-06-04 Amazon Technologies, Inc. Machine learning based content delivery
US9990587B2 (en) 2015-01-22 2018-06-05 Preferred Networks, Inc. Machine learning heterogeneous edge device, method, and system
US10387794B2 (en) 2015-01-22 2019-08-20 Preferred Networks, Inc. Machine learning with model filtering and model mixing for edge devices in a heterogeneous environment
JP6580334B2 (ja) * 2015-02-06 2019-09-25 株式会社Jsol 情報処理装置、プログラム及び情報処理方法
JP2016173623A (ja) * 2015-03-16 2016-09-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 コンテンツ提供装置、コンテンツ提供方法及びコンテンツ提供プログラム
JP2016173782A (ja) * 2015-03-18 2016-09-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 故障予測システム、故障予測方法、故障予測装置、学習装置、故障予測プログラム及び学習プログラム
US9898337B2 (en) * 2015-03-27 2018-02-20 International Business Machines Corporation Dynamic workload deployment for data integration services
EP3079116A1 (en) * 2015-04-10 2016-10-12 Tata Consultancy Services Limited System and method for generating recommendations
JP5816771B1 (ja) 2015-06-08 2015-11-18 株式会社Preferred Networks 学習装置ユニット
US10420515B2 (en) * 2015-06-15 2019-09-24 Vital Labs, Inc. Method and system for acquiring data for assessment of cardiovascular disease
US10460251B2 (en) 2015-06-19 2019-10-29 Preferred Networks Inc. Cross-domain time series data conversion apparatus, methods, and systems
JP6148316B2 (ja) * 2015-07-31 2017-06-14 ファナック株式会社 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
US10129314B2 (en) * 2015-08-18 2018-11-13 Pandora Media, Inc. Media feature determination for internet-based media streaming
US10229357B2 (en) * 2015-09-11 2019-03-12 Facebook, Inc. High-capacity machine learning system
KR102292990B1 (ko) * 2015-11-20 2021-08-26 삼성전자 주식회사 상태 관련 정보 공유 방법 및 장치
CN108431834A (zh) * 2015-12-01 2018-08-21 首选网络株式会社 异常检测系统、异常检测方法、异常检测程序及学得模型的生成方法
US10354200B2 (en) * 2015-12-14 2019-07-16 Here Global B.V. Method, apparatus and computer program product for collaborative mobility mapping
JP6074524B1 (ja) * 2016-02-05 2017-02-01 ヤフー株式会社 学習装置、学習方法及び学習プログラム
CN105912500B (zh) * 2016-03-30 2017-11-14 百度在线网络技术(北京)有限公司 机器学习模型生成方法和装置
US20200383582A1 (en) * 2016-05-11 2020-12-10 Tyto Care Ltd. Remote medical examination system and method
US11636348B1 (en) * 2016-05-30 2023-04-25 Apple Inc. Adaptive training of neural network models at model deployment destinations
US11210583B2 (en) * 2016-07-20 2021-12-28 Apple Inc. Using proxies to enable on-device machine learning
JP6840953B2 (ja) * 2016-08-09 2021-03-10 株式会社リコー 診断装置、学習装置および診断システム
EP4300381A3 (en) * 2016-08-19 2024-03-20 Movidius Limited Systems and methods for distributed training of deep learning models
US11494845B1 (en) * 2016-08-31 2022-11-08 Nationwide Mutual Insurance Company System and method for employing a predictive model
JP6761128B2 (ja) * 2016-09-06 2020-09-23 エレクタ、インク.Elekta, Inc. 合成医療画像を生成するためのニューラルネットワーク
US10489719B2 (en) * 2016-09-09 2019-11-26 Facebook, Inc. Shared per content provider prediction models
US11196800B2 (en) * 2016-09-26 2021-12-07 Google Llc Systems and methods for communication efficient distributed mean estimation
US10769549B2 (en) * 2016-11-21 2020-09-08 Google Llc Management and evaluation of machine-learned models based on locally logged data
JP6224811B1 (ja) * 2016-12-07 2017-11-01 たけおかラボ株式会社 ルールセットを選択可能な推論エンジンを有するプログラム、装置及び方法
US11315045B2 (en) * 2016-12-29 2022-04-26 Intel Corporation Entropy-based weighting in random forest models
US11295738B2 (en) * 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
WO2018142765A1 (ja) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
US20190147361A1 (en) * 2017-02-03 2019-05-16 Panasonic Intellectual Property Management Co., Ltd. Learned model provision method and learned model provision device
JP2018156573A (ja) * 2017-03-21 2018-10-04 東芝メモリ株式会社 メモリ装置および情報処理システム
JP6720402B2 (ja) * 2017-03-21 2020-07-08 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
KR102651253B1 (ko) * 2017-03-31 2024-03-27 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
US10547846B2 (en) * 2017-04-17 2020-01-28 Intel Corporation Encoding 3D rendered images by tagging objects
EP3616422B1 (en) * 2017-05-26 2021-02-17 Google LLC Machine-learned model system
US10725735B2 (en) * 2017-07-31 2020-07-28 Allegro Artificial Intelligence Ltd System and method for merging annotations of datasets
JP6541737B2 (ja) * 2017-09-20 2019-07-10 ヤフー株式会社 選択装置、選択方法、選択プログラム、モデルおよび学習データ
GB2567147A (en) * 2017-09-28 2019-04-10 Int Consolidated Airlines Group Machine learning query handling system
US10935982B2 (en) * 2017-10-04 2021-03-02 Huawei Technologies Co., Ltd. Method of selection of an action for an object using a neural network
JP6431231B1 (ja) * 2017-12-24 2018-11-28 オリンパス株式会社 撮像システム、学習装置、および撮像装置
US10728091B2 (en) * 2018-04-04 2020-07-28 EMC IP Holding Company LLC Topology-aware provisioning of hardware accelerator resources in a distributed environment
US11373115B2 (en) * 2018-04-09 2022-06-28 Here Global B.V. Asynchronous parameter aggregation for machine learning
US10698766B2 (en) * 2018-04-18 2020-06-30 EMC IP Holding Company LLC Optimization of checkpoint operations for deep learning computing
JP6802213B2 (ja) * 2018-04-26 2020-12-16 ファナック株式会社 工具選定装置及び機械学習装置
KR20190126662A (ko) * 2018-05-02 2019-11-12 삼성전자주식회사 특정 공간에 위치한 전자 장치를 구분하기 위한 서버 및 그의 제어 방법
US11363087B2 (en) * 2018-05-24 2022-06-14 Disney Enterprises, Inc. Leveraging microservices to orchestrate media workflows in the cloud
US10564881B2 (en) * 2018-05-31 2020-02-18 International Business Machines Corporation Data management in a multitier storage system
US11645551B2 (en) * 2018-06-16 2023-05-09 Moshe Guttmann Presenting inference models based on interrelationships
US11593634B2 (en) * 2018-06-19 2023-02-28 Adobe Inc. Asynchronously training machine learning models across client devices for adaptive intelligence
US10810069B2 (en) * 2018-07-17 2020-10-20 Accenture Global Solutions Limited Data processing for component failure determination
US11011257B2 (en) * 2018-11-21 2021-05-18 Enlitic, Inc. Multi-label heat map display system
US20200167658A1 (en) * 2018-11-24 2020-05-28 Jessica Du System of Portable Real Time Neurofeedback Training
US10776164B2 (en) * 2018-11-30 2020-09-15 EMC IP Holding Company LLC Dynamic composition of data pipeline in accelerator-as-a-service computing environment
US20200175416A1 (en) * 2018-11-30 2020-06-04 Jpmorgan Chase Bank, N.A. Methods for sharing machine learning based web service models
US11665184B2 (en) * 2019-01-17 2023-05-30 International Business Machines Corporation Detecting and mitigating risk in a transport network
US11109083B2 (en) * 2019-01-25 2021-08-31 Adobe Inc. Utilizing a deep generative model with task embedding for personalized targeting of digital content through multiple channels across client devices
KR102305850B1 (ko) * 2019-08-30 2021-09-28 엘지전자 주식회사 차량 내에서 인공 지능 기반의 음성 분리 방법 및 장치
US20210271709A1 (en) * 2020-02-27 2021-09-02 International Business Machines Corporation Recommending template of business analytics applications based on user's dataset
JP2021144660A (ja) * 2020-03-13 2021-09-24 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム

Also Published As

Publication number Publication date
CN110431569A (zh) 2019-11-08
US20220286512A1 (en) 2022-09-08
US20200014761A1 (en) 2020-01-09
EP3605405A4 (en) 2020-12-02
EP3605405A1 (en) 2020-02-05
US20240129368A1 (en) 2024-04-18
WO2018173121A1 (ja) 2018-09-27
JPWO2018173121A1 (ja) 2019-12-12
US11375019B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP6720402B2 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
KR101945772B1 (ko) 로봇 시스템이 작업을 수행하기 위한 명령어를 생성하기 위한 방법 및 시스템
JP6522488B2 (ja) ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US11475289B2 (en) Learning device unit
WO2020190272A1 (en) Creation of digital twin of the interaction among parts of the physical system
JP6986597B2 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
EP4111386A1 (en) Adaptive co-distillation model
US11931895B2 (en) Robot control system and robot control method
CN115129003A (zh) 一种基于自学习时变数字孪生的自动化产线智能监测系统
JP7280935B2 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
CN116783590A (zh) 使用图形查询从机器学习模型中获取结果
Vidal-Soroa et al. An approach to 3D object detection in real-time for cognitive robotics experiments
JP2019067330A (ja) サーバー装置
US11543804B2 (en) System and method for remotely managing configuration of industrial machines
JP7037815B2 (ja) サーバー装置
US20230075551A1 (en) Data transmission using data prioritization
WO2021059460A1 (ja) エンジニアリングツール、学習装置、およびデータ収集システム
WO2022187395A2 (en) Robotic system
JP2021071856A (ja) 知識モデル構築システム及び知識モデル構築方法
Kersten et al. Robot-Human-Learning for Robotic Picking Processes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190731

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190731

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200617

R150 Certificate of patent or registration of utility model

Ref document number: 6720402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250