JP2017004142A - 学習装置ユニット - Google Patents

学習装置ユニット Download PDF

Info

Publication number
JP2017004142A
JP2017004142A JP2015115532A JP2015115532A JP2017004142A JP 2017004142 A JP2017004142 A JP 2017004142A JP 2015115532 A JP2015115532 A JP 2015115532A JP 2015115532 A JP2015115532 A JP 2015115532A JP 2017004142 A JP2017004142 A JP 2017004142A
Authority
JP
Japan
Prior art keywords
learning device
learning
device unit
internal state
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015115532A
Other languages
English (en)
Other versions
JP5816771B1 (ja
Inventor
大輔 岡野原
Daisuke Okanohara
大輔 岡野原
遼介 奥田
Ryosuke Okuda
遼介 奥田
叡一 松元
Eiichi Matsumoto
叡一 松元
圭悟 河合
Keigo Kawai
圭悟 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015115532A priority Critical patent/JP5816771B1/ja
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to CN201580001454.3A priority patent/CN106462806B/zh
Priority to EP15828324.2A priority patent/EP3136305A4/en
Priority to CN202010098573.8A priority patent/CN111325329A/zh
Priority to PCT/JP2015/068459 priority patent/WO2016199313A1/ja
Priority to US14/907,503 priority patent/US11475289B2/en
Application granted granted Critical
Publication of JP5816771B1 publication Critical patent/JP5816771B1/ja
Publication of JP2017004142A publication Critical patent/JP2017004142A/ja
Priority to US17/901,216 priority patent/US20220414473A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】より効率的な機械学習を行う。【解決手段】各学習装置ユニット10、10−1・・・10−Nが備える中間学習装置が、すべての学習装置ユニット間において同一の内部状態(重み)を有するように、各学習装置ユニットが相互に内部状態を構成する情報(重み)を一定の頻度で通信する。すべての中間学習装置が同一の内部状態を有するようにするために、ある特定の、例えば最新の内部状態を有する学習装置ユニットが、その内部状態を構成する情報(重み)を、そのまま他のすべての学習装置ユニットに対して送信するか、該学習装置ユニットが、その内部状態と各学習装置ユニットの内部状態との差分のみを各学習装置ユニットに送信する。【選択図】図1

Description

本明細書に記載された技術は、機械学習を用いた学習装置に関する。
機械学習を用いた学習装置に関連した技術が、特開2013−106202号公報(特許文献1)に開示されている。特許文献1には、機械学習を行う各エージェントが有するモデルと機械学習を行う他のエージェントが有するモデルとが類似する場合にこれらのモデル全体を合成することによって学習効率を向上させる技術が開示されている。なお、特許文献1の開示内容は、引用により本明細書に組み入れられる。
特開2013−106202号公報
昨今、より効率的な機械学習を行う学習装置が必要とされている。
1つの実施形態に係る学習装置ユニットは、少なくとも1つの学習装置と、他の学習装置ユニットにより共有される内部状態を有する中間学習装置を前記少なくとも1つの学習装置と接続する接続手段と、を具備するものである。
1つの実施形態に係るコンピュータプログラムは、コンピュータを、学習装置ユニットに配置された少なくとも1つの学習装置、及び、他の学習装置ユニットにより共有される内部状態を有する中間学習装置を前記少なくとも1つの学習装置と接続する接続手段、として機能させるものである。
図1は、本発明の様々な実施形態に係る学習装置ユニットが用いられるシステムの構成例を示す模式図である。 図2は、ニューロンのモデルを示す模式図である。 図3は、3層の重みを有するニューラルネットワークを示す模式図である。 図4は、本発明の第1の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。 図5は、本発明の第2の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。 図6は、本発明の第3の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。 図7は、本発明の様々な実施形態に係る学習装置ユニットが適用される具体的なアプリケーションの概要を示す模式図である。 図8は、本発明の第1の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図9は、本発明の第1の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図10は、本発明の第1の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図11は、本発明の第1の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図12は、本発明の第2の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図13は、本発明の第3の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。 図14は、本発明の実施形態に係る学習装置ユニットに設けられる中間学習装置の変形例を示す模式図である。
以下、本発明の様々な実施形態について適宜図面を参照して説明する。なお、図面において共通する構成要素には同一の参照符号が付されている。
1.システム構成
図1は、本発明の様々な実施形態に係る学習装置ユニットが用いられるシステムの構成例を示す模式図である。図1に示すように、このシステム1は、学習装置ユニット10−1〜10−Nと、通信回線20に接続されるサーバ装置30と、測定装置40と、出力装置50と、を含む。学習装置ユニット10−1〜10−N(以下総称して「学習装置ユニット10」と称することがある。)の各々は、学習装置ユニット10−1〜10−Nのうちの他の学習装置ユニット及びサーバ装置30と通信回線20を介して情報を通信することが可能である。
2.学習装置ユニット10のハードウェア構成
学習装置ユニット10−1〜10−Nは、それぞれ、対応する個体(機器)に搭載されるものである。また、学習装置ユニット10−1〜10−Nには、(図示はされていないが)それぞれ、測定装置40−1〜40−N、及び、出力装置50−1〜50−Nが接続される。これらの測定装置40−1〜40−N、及び、出力装置50−1〜50−Nは、対応する個体(機器)に搭載される場合もあるし、別の機器として通信手段を使って接続される場合もある。学習装置ユニット10は、一実施形態において、機械学習を実行可能な任意の情報処理装置であり、例えば、自動車や航空機、ロボット等の産業機器、化学プラントや施設園芸等の環境制御端末、情報処理サーバ、パーソナルコンピュータ、タブレット、携帯電話機、スマートフォン、携帯情報端末、タッチパッド等を含むが、これらには限られない。
学習装置ユニット10のハードウェア構成例が図1において参照符号「10」が付されたブロック内に示されている。学習装置ユニット10は、図示のとおり、CPU11と、メインメモリ12と、入力I/F13と、通信I/F14と、外部メモリ15と、出力I/F18と、を含み、これらの各構成要素が内部バス17を介して互いに電気的に接続されている。
CPU11は、外部メモリ15からオペレーティングシステム等の様々なプログラムをメインメモリ12にロードし、ロードしたプログラムに含まれる命令を実行する。メインメモリ12は、CPU11が実行するプログラムを格納するために用いられ、例えば、DRAMによって構成される。
入力I/F13は、測定機器40の出力データを取り込む機能を有し、内部バス17によって、各構成要素と接続される。ここで、測定機器40の出力である各種測定データは、センサ等で取得した情報、例えば、温度、湿度、位置情報、画像データなどを含み、動画データや温度のある一定間隔で取得された温度データ列など時系列データでもよい。出力I/F18は、内部バス17を通して各構成要素からデータを受信し、学習装置ユニットの外部にある出力装置50に出力するものである。ここで、出力装置50に出力されるデータは、例えばモータを駆動する際の制御情報や、ブザー、制御スイッチ、自動車のアクセルやブレーキ、液晶ディスプレイなどの情報出力装置に対する制御情報などが想定される。
通信I/F14は、ハードウェア、ファームウェア、又は、TCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装され、通信網20を介して、他の学習装置ユニット10及びサーバ装置10と様々な情報を通信することが可能となるように構成される。
外部メモリ15は、例えば磁気ディスクドライブやフラッシュメモリ等により構成され、オペレーティングシステム等の様々なプログラムを記憶する。
以上の構成を有する一実施形態に係る学習装置ユニット10は、CPU11が、外部メモリ15からメインメモリ12にロードした所定のプログラムを実行することによって、機械学習を行う学習装置ユニットとして機能することができる。例えば、この機械学習を行う学習装置ユニットは、CPU11が様々なプログラムを実行することにより、ニューラルネットワークによりモデル化された複数の学習装置等を含むものとして実現される。
3.ニューラルネットワークによりモデル化された学習装置の概念
まず、モデル化された学習装置に用いられるニューロンのモデルについて図2を参照して説明する。図2は、ニューロンのモデルを示す模式図である。
図2に示すように、ニューロンは、複数の入力x(ここでは一例として入力x〜入力x)に対する出力yを出力するものである。各入力xには、この入力xに対応する重みwが掛けられる。これにより、ニューロンは、次の式により表現される出力yを出力する。なお、入力x、出力y及び重みwは、すべてベクトルである。
Figure 2017004142

ここで、θはバイアスであり、fは活性化関数である。
次に、上述したニューロンを組み合わせた3層の重みを有するニューラルネットワークについて、図3を参照して説明する。図3は、3層の重みを有するニューラルネットワークを示す模式図である。
図3に示すように、ニューラルネットワークの左側から複数の入力x(ここでは一例として入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として結果y1〜入力y3)が出力される。
具体的には、入力x1〜入力x3は、3つのニューロンN11〜N13の各々に対して対応する重みが掛けられて入力される。これらの入力に掛けられる重みはまとめてw1と標記されている。
ニューロンN11〜N13は、それぞれ、特徴ベクトルz11〜特徴ベクトルz13を出力する。これらの特徴ベクトルz11〜特徴ベクトルz13はまとめてz1と標記されている。この特徴ベクトルz1は、重みw1と重みw2との間の特徴ベクトルである。
特徴ベクトルz11〜特徴ベクトルz13は、2つのニューロンN21、N22の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みはまとめてw2と標記されている。
ニューロンN21、22は、それぞれ、特徴ベクトルz21、z22を出力する。これらの特徴ベクトルz21、z22は、まとめてz2と標記されている。この特徴ベクトルzは、重みwと重みwとの間の特徴ベクトルである。
特徴ベクトルz21、z22は、3つのニューロンN31〜N33の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みはまとめてw3と標記されている。
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜入力y3を出力する。
重みw1〜w3は、誤差逆伝搬法(バックプロパゲーション)により学習可能なものである。誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。
この3層の重みを有するニューラルネットワークは、順次接続された3つの学習装置、すなわち、学習装置D1〜D3を含むものとして考えることができるものである。学習装置を結ぶ変数(特徴ベクトルz1、z2)は、各学習装置の学習が進むにつれて自動的に最適な表現になる。これらの特徴ベクトルの表現は人間が明示的に与える必要のないものである。また、これらの特徴ベクトルは、学習により自動的に決定されるものであるため、具体的に何を表現しているかを知ることは多くの場合難しいものである。
4.第1の実施形態に係る学習装置ユニット10の基本的な構成
次に、上記「3」で説明した概念を踏まえて、第1の実施形態に係る学習装置ユニット10の基本的な構成例について、図4を参照して説明する。
図4は、本発明の第1の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。
個体1に搭載される学習装置ユニット(便宜上「学習装置ユニット10−1」という。)は、一例として、入力側に配置された入力側学習装置D11と、出力側に配置された出力側学習装置D31と、を含む。これに代えて、学習装置ユニット10−1は、入力側学習装置D11及び出力側学習装置D31のいずれか一方のみを含むものであってもよい。さらに、個体1に搭載される学習装置ユニット10−1は、例えばサーバ装置30(図1参照)に配置された中間学習装置D2を、入力側学習装置D11と出力側学習装置D31との間に接続する接続機能(図示せず)を含む。なお、学習装置ユニット10−1が入力側学習装置D11及び出力側学習装置D31のいずれか一方のみを含む場合には、この接続機能は、中間学習装置D2をそのように含まれた学習装置に接続する。
同様に、個体2(個体3)に搭載される学習装置ユニット(便宜上「学習装置ユニット10−2」(「学習装置ユニット10−3」という。)は、入力側に配置された入力側学習装置D12(D13)と、出力側に配置された出力側学習装置D32(D33)と、を含む。これに代えて、学習装置ユニット10−2(10−3)は、入力側学習装置D12(D13)及び出力側学習装置D32(D33)のいずれか一方のみを含むものであってもよい。さらに、個体2(個体3)に搭載される学習装置ユニット10−2(10−3)は、例えばサーバ装置30に配置された中間学習装置D2を、入力側学習装置D12(D13)と出力側学習装置D32(D33)との間に接続する接続機能(図示せず)を含む。なお、学習装置ユニット10−2(10−3)が入力側学習装置D12(D13)及び出力側学習装置D32(D33)のいずれか一方のみを含む場合には、この接続機能は、中間学習装置D2をそのように含まれた学習装置に接続する。
個体1に搭載される学習装置ユニット10−1に着目すると、入力側学習装置D11は、1つの入力に対してそれぞれ対応する重みW11を掛け合わせて対応するニューロンに渡す。これらのニューロンにより出力された特徴ベクトル(の集合)を特徴ベクトルZ11として出力する。
この後、接続機能(図示しない)が、入力側学習装置D11と出力側学習装置D31との間に(入力側学習装置D11及び出力側学習装置D31のうちいずれか一方しか存在しない場合には、そのように存在する学習装置に)中間学習装置D2を「接続」する。具体的には、接続機能は、入力側学習装置D11により出力された特徴ベクトルZ11を、通信回線を介してサーバ装置30(図1)に送信する。特徴ベクトルZ11を受信したサーバ装置30は、このサーバ装置30によりニューラルネットワークによりモデル化された中間学習装置D2に出力する。この中間学習装置D2は、特徴ベクトルZ11にそれぞれ対応する重みW2を掛け合わせたものを入力し、出力として特徴ベクトルZ2を得る。さらに、サーバ装置30は、このようにして得られた特徴ベクトルZ2を、通信回線を介して学習装置ユニット10−1に送信する。特徴ベクトルZ2を受信した学習装置ユニット10−1は、この特徴ベクトルZ2を出力側学習装置D31に出力する。このように、サーバ装置30の中間学習装置D2に特徴ベクトルZ11を送信し、中間学習装置D2から特徴ベクトルZ2を受信し、受信した特徴ベクトルZ2を出力側学習装置D31に出力する、という一連の動作が、「接続機能」により行われる「接続」に相当する。この接続機能は、学習装置ユニット10−1に搭載されたCPU11が所定のプログラムを実行することにより実現される機能である。
なお、接続機能がサーバ装置30と情報(特徴ベクトルZ11、Z2)を通信する際には、通信I/F14(図1参照)が用いられる。
出力側学習装置D31は、受け取った特徴ベクトルZ2に対して対応する重みW31を掛け合わせたものを入力して、出力を得る。
以上のような構成は、個体2(個体3)に搭載される学習装置ユニット10−2(10−3)も同様に有するものである。
各学習装置ユニットは、それぞれ固有の測定装置および出力装置と接続される。例えば、学習装置ユニット10−1は、それぞれ固有の測定装置40−1及び出力装置50−1と接続される。入力側学習装置に用いられる重み及び出力側学習装置により用いられる重みは、学習装置ユニットに固有のものが用いられる。すなわち、入力側学習装置D11〜D13は、それぞれ、固有の重みW11〜W13を用い、出力側学習装置D31〜D33は、それぞれ、固有の重みW31〜W33を用いる。一方、中間学習装置D2により用いられる重みW2(内部状態を構成する情報)は、すべての学習装置ユニットにより共有される。
図4に示されたモデル化されたネットワークは、全体としては、図3に示されたモデル化されたネットワークと同一の構成を有するものと考えることができるものであるため、図4に示されたネットワークにおいても、通常の誤差逆伝搬法を用いて学習が可能なものである。すなわち、図4に示された矢印とは逆方向に(すなわち、紙面上右側から左側に向かって)誤差が伝搬し、各学習装置に含まれた各ニューロン(に与えられた重み)が学習される。
本実施形態では、各学習装置ユニットがサーバ装置30により実現される中間学習装置D2(より具体的には中間学習装置の内部状態)を共有する構成について説明したが、別の実施形態では、各学習装置ユニットが固有の中間学習装置を備える構成を採用することも可能である。この場合には、各学習装置ユニットが備える中間学習装置が、すべての学習装置ユニット間において同一の内部状態(重み)を有するように(すなわち、すべての中間学習装置の内部状態が同一となるように)、各学習装置ユニットが相互に内部状態を構成する情報(重み)を一定の頻度で通信してもよい。すべての中間学習装置が同一の内部状態を有するようにするために、ある特定の学習装置ユニット(例えば最新の内部状態を有する学習装置ユニット)が、その内部状態を構成する情報(重み)を、そのまま他のすべての学習装置ユニットに対して送信してもよいし、ある特定の学習装置ユニット(例えば最新の内部状態を有する学習装置ユニット)が、その内部状態と各学習装置ユニットの内部状態との差分のみをその学習装置ユニットに送信してもよい。さらにまた、各中間学習装置が、その内部状態を構成する情報(重み)を混ぜること(例えば、線形和などの演算処理があるがそれに限らない)によって得られた情報(重み)を用いるようにしてもよい。
5.第2の実施形態に係る学習装置ユニット10の基本的な構成
次に、第2の実施形態に係る学習装置ユニット10の基本的な構成例について、図5を参照して説明する。
図5は、本発明の第2の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。以下、上述した第1の実施形態と異なる点のみに着目して説明する。
各個体に搭載される学習装置ユニット、ここでは例えば個体1に搭載される学習装置ユニット10−1は、入力側に配置された入力側学習装置D11と、出力側に配置された出力側学習装置D31と、入力側学習装置11と出力側学習装置D31との間に接続された中間学習装置D21と、を含む。これに代えて、学習装置ユニット10−1は、入力側学習装置D11及び出力側学習装置D31のうちのいずれか一方のみを含むものであってもよい。この中間学習装置D21もまた、学習装置ユニット10−1に搭載されたCPU11が所定のプログラムを実行することにより実現される「接続機能」によって、入力側学習装置11と出力側学習装置D31との間(入力側学習装置D11及び出力側学習装置D31のうちのいずれか一方しか存在しない場合には、そのように存在する学習装置)に接続されたものであるといえる。
本実施形態では、各学習装置ユニットの中間学習装置が同一の内部状態(重み)を有しない場合を扱う。
図5を参照すると、学習装置ユニット10−1の中間学習装置D21と、学習装置ユニット10−2の中間学習装置D22とは、重みを直接的には共有しない。代わりに、一方の学習装置ユニット(例えば学習装置ユニット10−1)が、中間学習装置D21に入力された情報(特徴ベクトルZ11)とこれに対応して中間学習装置D21から出力された情報(特徴ベクトルZ21)とのセットを、他方の学習装置ユニット(例えば学習装置ユニット10−2)に通信回線を介して送信する。このセットは、学習装置ユニット10−1の中間学習装置D21が重みW21という内部状態を有するという結果を生じさせた情報(この情報も特許請求の範囲に記載された「内部状態を構成する情報」に相当する)に相当する。
上記セットを受信した学習装置ユニット10−2は、上記セットのうちの特徴ベクトルZ11を特徴ベクトルZ12とし、上記セットのうちの特徴ベクトルZ21を特徴ベクトルZ22として、中間学習装置D22の重みW22を学習させる。この学習は、通常の誤差逆伝搬法を用いて実行可能である。
このように、学習装置ユニット10−1と学習装置ユニット10−2とは、直接的には中間学習装置の重みを共有しないが、間接的には実質的に中間学習装置の重みを共有するといえる。
6.第3の実施形態に係る学習装置ユニット10の基本的な構成
次に、第3の実施形態に係る学習装置ユニット10の基本的な構成例について、図6を参照して説明する。
図6は、本発明の第3の実施形態に係る学習装置ユニット10であってニューラルネットワークを用いてモデル化された学習装置ユニット10の構成例を概念的に示す模式図である。以下、上述した第1の実施形態及び第2の実施形態と異なる点のみに着目して説明する。
サーバ装置30(又は少なくとも1つのある特定の学習装置ユニットであってもよい)に備えられたデータベースは、中間学習装置に用いられる重みとして、複数の重み(図6では一例として重み(1)〜(4)が示されている)を格納する。これらの重みは、特定の学習装置ユニット(例えば最も効果的な又は信頼性の高い学習を実行したと思われる学習装置ユニット)の中間学習装置において用いられていた重みの複製であってもよい。
ある個体の学習装置ユニット(ここでは一例として個体1に搭載される学習装置ユニット10−1)は、通信回線を介して、入力側学習装置D11の入力もしくはその内部状態に応じて、サーバ装置30から重み(1)〜(4)のいずれかの重みに関する情報を受信する。
この学習装置ユニットに配置された中間学習装置が受信した重みを用いて、この学習装置ユニット全体が通常の誤差逆伝搬法に従って学習を行うことにより、入力側学習装置D11、中間学習装置D21及び出力側学習装置D31の各々に含まれた重み(W11、W21、W31)が更新される。
7.上記実施形態に係る学習装置ユニット10を利用した具体的なアプリケーション例
次に、上記第1の実施形態1〜第3の実施形態に係る学習装置ユニット10を適用した具体的なアプリケーション例について説明する。
ここでは、説明を分かり易くすることを目的として、各実施形態に係る学習装置ユニットを食品工場等で用いられる製造プロセスに用いた場合について具体的に説明する。具体的には、図7を参照して、ベルトコンベアに載置されて流れてくる丸型のケーキ及び四角型のケーキに対してそれぞれクリーム及びイチゴを乗せる作業を考える。図7は、本発明の様々な実施形態に係る学習装置ユニットが適用される具体的なアプリケーションの概要を示す模式図である。
個体1に搭載された学習装置ユニットは、図7(a)に示すように、丸型のケーキにクリームを乗せる作業を扱うものである。個体2に搭載された学習装置ユニットは、図7(b)に示すように、四角型のケーキにイチゴを乗せる作業を扱うものである。
このような作業を実現するに際して、各学習装置ユニットは、ビジョンセンサにより得られた情報を入力として「物品検出」及び「良品/不良品判定」を行う。個体1に搭載された学習装置ユニットは、ケーキが不良品であると判定した場合にはそのケーキをベルトコンベアからはじき、ケーキが良品であると判定した場合にはそのケーキの上にクリームを乗せるものであり、個体2に搭載された学習装置ユニットは、ケーキが不良品であると判定した場合にはラインを止め、ケーキが良品であると判定した場合にはそのケーキの上にイチゴを乗せるものである。
7−1.第1の実施形態に係る学習装置ユニットを用いた場合
図8〜図11は、本発明の第1の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。
図8に示した例では、個体として2つの個体(個体1及び個体2)が用いられている。入力は、個体1及び個体2の両方において、それぞれに対応して設けられたビジョンセンサの画像データである。出力は、各個体によって異なっており、具体的には、個体1においては、「不良品をはじく」及び「クリームを乗せる」であり、個体2においては、@ラインを止める」及び「イチゴを乗せる」である。
まず学習装置1に着目すると、個体1の学習装置ユニットに含まれる入力側学習装置D11は、例えば図8にある構成の場合、ビジョンセンサの画像データを入力とし、2次元の特徴ベクトルを出力する。この入力側学習装置D11は、学習が収束した後、何らかの物体がベルトコンベアを介して流れてきたことを検出する機能、及び、その物体が正常な丸型の形状を有するものであるか否かを判定する機能を分担できたと仮定する。
個体2の学習装置ユニットに含まれる入力側学習装置D12もまた、ビジョンセンサの画像データを入力とし、2次元の特徴ベクトルを出力とする。この入力側学習装置D12は、学習が収束した後、何らかの物体がベルトコンベアを介して流れてきたことを検出する機能、及び、その物体が正常な四角型の形状を有するものであるか否かを判定する機能、すなわち、それぞれの学習装置ユニットが接続される測定装置の差異によって異なる処理を分担できるものと仮定する。
次に学習装置2に着目すると、中間学習装置D2は、入力側学習装置D11、D12の各出力を入力とし、例えば図8にある構成の場合、2次元の特徴ベクトルを出力とする。この中間学習装置D2は、学習が収束した後、例外処理(不良品に対する処理)を行うかどうかを判定する結果、及び、正常品に対する次の作業(製造プロセス)を実行するかどうかを判定する結果、すなわち、それぞれの学習装置ユニットが接続される測定装置や出力装置の特性に依存しない一般的な処理、を表現できるものと仮定する。
次に学習装置3に着目すると、個体1の学習装置ユニットに含まれる出力側学習装置D31は、中間学習装置D2の出力を入力とし、「不良品をはじく」及び「クリームを乗せる」を出力とする。個体2の学習装置ユニットに含まれる出力側学習装置D32は、中間学習装置D2の出力を入力とし、「ラインを止める」及び「イチゴを乗せる」を出力とし、すなわち、それぞれの学習装置ユニットが接続される出力装置の差異によって異なる処理を分担できるものと仮定する。
具体的には、不良品については、出力側学習装置D31は「不良品をはじく」という指示を示す信号を出力し、出力側学習装置D32は「ラインを止める」という指示を示す信号を出力する。正常品については、出力側学習装置D31は「クリームを乗せる」という指示を示す信号を出力する。このように各出力側装置に出力された信号は、出力I/F18を介して出力装置50に送信される。
次に、個体1に搭載された学習装置ユニット10−1において学習が行われた結果、各ニューロンの重みWが図9に標記されたようなものとなっていると仮定した場合に、個体1に搭載された学習装置ユニット10−1が「正しい物体」を検出したときの各学習装置の出力を考える。
図9には、入力側学習装置D11の重みW11が省略されているが、物体検出を示す出力については、バイアス(θ)及び活性化関数(f)を通した値として「1」が出力されるものとする。一方、「不良品判定」の出力については「0」が出力されるものとする。
中間学習装置D2では、「作業実行判定」を示す出力として「1」が出力され、「例外処理判定」を示す出力として「0」が出力される。
出力側学習装置D31では、「クリームを乗せる」を示す出力として「1」が出力され、「不良品をはじく」を示す出力として「0」が出力される。
このように、正しい物体を検出した場合に「クリームを乗せる」という指示を示す信号が出力されることになる。
次に、図10を参照して、誤差逆伝搬法を用いて学習装置の重みが更新される動作について説明する。
個体1に搭載された学習装置ユニット10−1の入力側学習装置D11が「正しい物体」を検出したときに出力側学習装置D31が「誤った出力を出してしまった」場合を考える。
ここでは、中間学習装置D2の重みW2が図10に例示したようなものになっていしまっていることに起因して、中間学習装置D2の出力が期待するものと異なり、その結果、出力側学習装置D31の出力も誤ったものになってしまったと仮定する。
この場合、CPU11は、D31の出力結果と期待値(教師)との間の誤差を、バックプロパゲーションにより、各学習装置の重みに反映させる。これにより、各学習装置の重みが正しい分布を有するように、学習が行われていく。図10には、一例として、W2において、入力側学習装置D11の「物体検出」を示す出力に掛け合わせられる2つの重み「0.9」及び「0.1」がそれぞれ「0.3」及び「0.7」に更新される様子が示されている。このように更新された後は、入力側学習装置D11が「正しい物体」を検出したときには出力側学習装置D31が「クリームを乗せる」という指示を示す信号を出力することは、図9を参照して上述したとおりである。
次に、図11を参照して、個体2に搭載された学習装置ユニット10−2による検出動作及び学習について考える。
中間学習装置D2は、個体1に搭載された学習装置ユニット10−1により学習された重みW2を有している。この重みW2(すなわち、中間学習装置D2の内部状態)は、個体2に搭載された学習装置ユニット10−2にも共有される。すなわち、極端にいえば、学習装置ユニット10−2それ自体は、実際に学習を行わなくとも、他の学習装置ユニットにより行われた学習により得られた中間学習装置D2の内部状態(重み)を利用して、「作業実行判定」及び「例外処理実行判定」を簡単かつ精度良く行うことができる。
なお、図11は、不良品を検出したときにラインを止めるという動作を行う場合の各学習装置の様子の例を示している。
7−2.第2の実施形態に係る学習装置ユニットを用いた場合
図12は、本発明の第2の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。
図5を参照して上述したように、個体1に搭載された学習装置ユニット10−1の中間学習装置D21は、個体2に搭載された学習装置ユニット10−2の中間学習装置D22に入力された情報(特徴ベクトルZ12)とこれに対応して中間学習装置D22により出力された情報(特徴ベクトルZ22)とのセットを共有する。このセットは、中間学習装置D22が内部状態(重みW22)を有するという結果を生じさせた情報であるため、学習装置ユニット10−1がこのセットを用いた学習を実行することによって、中間学習装置D21の内部状態は、中間学習装置D22の内部状態により近づく可能性がある。したがって、中間学習装置D21は、中間学習装置D22と間接的に内部状態を共有することができる。
同様に、個体2に搭載された学習装置ユニット10−2の中間学習装置D22は、個体1に搭載された学習装置ユニット10−1の中間学習装置D12に入力された情報(特徴ベクトルZ11)とこれに対応して中間学習装置D12により出力された情報(特徴ベクトルZ21)とのセットを共有する。したがって、中間学習装置D22もまた、上述した理由により、中間学習装置D21と間接的に内部状態を共有することができる。
7−3.第3の実施形態に係る学習装置ユニットを用いた場合
図13は、本発明の第3の実施形態に係る学習装置ユニットを適用したアプリケーションの具体例を詳細に説明する模式図である。
図6を参照して上述したように、各学習装置ユニット(例えば個体1に搭載された学習装置ユニット10−1)の中間学習装置D21は、サーバ装置30等に備えられたデータベース(記憶装置)に格納された複数の重みの中から選択された重み(内部状態)を、通信回線を介して取得する。これにより、中間学習装置D21は、入力データ又は入力側学習装置の内部状態に応じて選択された重み(内部状態)を利用することができる。これを実現するために、中間学習装置D21又は学習装置ユニット10−1は、学習装置ユニット10−1(学習装置ユニット10−1に含まれた学習装置)が受信する入力、又は、学習装置ユニット10−1の内部状態(学習装置ユニット10−1に含まれた学習装置の内部状態)を決定する学習機能(決定手段)を備え、中間学習装置D21は、この学習機能により決定された上記入力又は上記内部状態に基づいて、上記記憶装置に格納された複数の重みの中から適切な重み(内部状態)を取得するようにしてもよい。具体的には、学習機能は、予め初期設定された識別方法(決定方法)を用いるだけでなく、例えば、出力側学習装置の出力(学習装置ユニット全体の出力)が期待する出力と異なっていた場合、識別方法への入力を利用してデータベースから何を選択するか、すなわち、識別方法(決定方法)を、それに応じて変えるように学習することができる。学習装置ユニットの内部において学習機能を実行するために用意された学習装置は、学習装置ユニットの出力ベクトルの一部をこの識別のために用いること等により、入力、内部状態、出力及び期待する出力との誤差が与えられ、学習を実行することができる。
以上説明した具体的なアプリケーションは、説明を分かり易くするために用いた単なる一例に過ぎず、各ブロックの入出力データの形
式や意味、及び、各ブロックの処理内容等は、これまで説明してきたものに限定されるものではない。むしろ、個体に依存しない共有すべき情報(中間学習装置に関連した情報)と、個体に依存する情報(入力側学習装置及び出力側学習装置に関連した情報)とは、ユーザが明示的に与えなくとも、学習を進めるにつれて、自動的に分離されるものである。
8.変形例
これまで、説明を簡潔にするために、複数の個体(に搭載される学習装置ユニット)により共有される中間学習装置が1つである場合について説明してきた。しかし、各個体(に搭載される学習装置ユニット)は、同時に複数の中間学習装置を利用してもよい。
例えば、図14に例示されるように、各個体(に搭載される学習装置ユニット)は、中間学習装置D21には、相互に並列に設けられた2つの中間学習装置D22、D23が、直列に接続されている。一般化すれば、様々な実施形態に係る中間学習装置は、1又は複数の中間学習装置と、これに直列及び/又は並列に接続された1又は複数の中間学習装置と、を少なくとも含むものとすることができる。
各個体に搭載される学習装置ユニットが複数の中間学習装置を共有する一具体例について、先に用いた図8を参照して説明する。これら複数の中間学習装置は、各々、相互に異なる対象範囲を扱う学習装置として設けられ得る。図8に示した中間学習装置D2に代えて、第1の中間学習装置として、“社会全体”を対象として共有される中間学習装置D21が用意され、さらに、この中間学習装置D21と後段の出力側学習装置D31、D32との間に、第2の中間学習装置として、“工場内の個体間”を対象として共有される中間学習装置D22が用意される。中間学習装置D21では、例えば、他の10000台の学習装置ユニットにより共有され、より一般的なスキルに基づく演算処理を行い、「例外処理実行判定」及び「作業実行判定処理」を出力として行うとする。一方、中間学習装置D22は、ある工場内に配置された他の50台の学習装置ユニット(個体1が搭載された学習装置ユニット及び個体2が搭載された学習装置ユニットを含む)により共有され、「不良品対応処理」及び「製造継続実行」という出力を行うとする。これにより、この工場における局所的に共有されたスキルを用いて、中間学習装置D22は、中間学習装置D21から、例外処理実行を要求され作業実行を実行しない、という入力を受けた場合に、不良品対応処理を行うという出力をする。これらの出力が出力側学習装置D31に入力される。これにより、「不良品をはじく」等の出力側の特性に沿った学習が出力側学習装置D31により行われる。以上例示したように、様々な実施形態に係る中間学習装置は、複数の中間学習装置を適宜含むことが可能である。
以上、様々な実施形態が、ニューラルネットワークを用いた教師あり学習に基づいた学習装置を利用する場合について説明した。この場合には、1つの個体における「一般的な(既知の)」学習の動作及び特徴は、「各個体に対応した教師データ(入出力データの組)を取得及び使用し、入力に対して正しい出力を行うように、学習装置を実現する関数を最適化するように学習を行う」といえる。
しかし、様々な実施形態は、これに限定されるものではない。例えば、自動運転やロボットの制御といったような環境に対して行動を問う問題では、教師あり学習だけでなく強化学習の枠組みも利用可能である。
また、対象とする課題によっては、ニューラルネットワークを用いない機械学習を利用することも可能である。例えば、多くの個体で同一の条件でデータ収集を行い、その入力データの特性が分かっている場合等には、必ずしもニューラルネットワークを用いる必要はない。この場合には、入力側学習装置には、経験的に優れていると知られている特徴抽出器を使うことができる。中学学習装置では、クラスタリング、次元削減、Dictionary learningなどの教師なし学習アルゴリズムを行い、それは多くの個体の入力を用いて実施する。出力学習装置は、例えば強化学習であれば、一般的なテーブル型のQ学習や、古典的な制御理論的な制御などを実行する。
なお、ニューラルネットワークを用いた機械学習では、カメラ画像データと速度データなど、次元の異なる複数の形式のデータを使用して1つの学習装置で学習を行うことが可能である。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能なものである。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明されるデータ、テーブル又はデータベースが単一のメモリに格納される旨説明されたとしても、そのようなデータ、テーブル又はデータベースは、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
9.様々な実施形態に係る学習装置ユニットが適用されるアプリケーションについて
以上、説明を分かり易くするために、様々な実施形態が食品工場で用いられる製造プロセスに適用される場合について説明した。しかし、本明細書において開示された様々な実施形態は、これに限定されるものではなく、様々なアプリケーションに適用可能なものである。例えば、これらの実施形態は、以下に例示的に挙げられる様々なアプリケーションにも適用可能なものである。
(1)自動車
様々な実施形態に係る学習装置ユニットは、自動車に搭載されるカメラ、距離センサ、GPSなどのセンサ情報を入力とし、運転支援情報の提示や自動運転を行うことを出力とすることができる。この場合、各個体、すなわち、各自動車(各個体に様々な実施形態に係る学習装置ユニットが搭載される)から出力されるセンサ情報等を効率的に活用することができる。
(2)製造業
様々な実施形態に係る学習装置ユニットは、製造に用いられる複数の製造装置・ロボットからの情報を入力とし、これら製造装置・ロボットに与える指示を出力とすることができる。様々な実施形態に係る学習装置ユニットは、例えば、高度なロボット制御の実現や、プロセス最適化、異常の予知等において活用され得る。
(3)農業
様々な実施形態に係る学習装置ユニットは、温室栽培における環境制御に適用可能であり、例えば、温室の外的環境変化に応じた環境制御の実現や、消費エネルギーの最小化、生産品種に応じた栽培方法の共有化等において活用され得る。
(4)センサ・制御装置を有する機器全般
様々な実施形態に係る学習装置ユニットは、複数の機器に適用され、センサ情報の分析結果の提示や機器の制御等において活用され得る。
いずれのアプリケーションにおいても、様々な実施形態に係る学習装置ユニットを用いることによって、従来の手法に比べて、センサ情報の活用にかかる時間的コスト及び精度を改善することができる。
以上説明したように、様々な実施形態では、多くの個体(機器)に搭載された学習装置ユニット(の中間学習装置)の間において共通するスキルを共有する。具体的には、各個体(機器)に搭載された学習装置ユニットは、その個体に固有の情報を学習する学習装置と、他の個体との間で共有できる情報についての学習を行う学習装置と、を含むように構成される。かかる構成を備えた各個体に搭載された学習装置ユニットは、学習を実行する際には、他の個体に搭載された学習装置ユニットで得られた入出力データ及び/又は学習結果(内部状態、何らかのデータを学習装置に入力した場合に得られた出力等を含む)を利用する。
これにより、各個体ごとに独立に大量にデータを貯めて学習を実行する場合に比べて、より短い時間で学習を実行することができる。さらに、各個体について得られたデータを単純に合成する場合(例えば特許文献1に開示された手法)に比べて、精度の低下を抑えつつ学習を実行することができる。
10 学習装置ユニット
11 CPU
13 入力I/F
14 通信I/F
18 出力I/F
20 通信回線
30 サーバ装置
40 測定装置
50 出力装置
D11〜D13 入力側学習装置
D2、D21、D22 中間学習装置
D31〜D33 出力側学習装置
また、対象とする課題によっては、ニューラルネットワークを用いない機械学習を利用することも可能である。例えば、多くの個体で同一の条件でデータ収集を行い、その入力データの特性が分かっている場合等には、必ずしもニューラルネットワークを用いる必要はない。この場合には、入力側学習装置には、経験的に優れていると知られている特徴抽出器を使うことができる。中学習装置では、クラスタリング、次元削減、Dictionary learningなどの教師なし学習アルゴリズムを行い、それは多くの個体の入力を用いて実施する。出力学習装置は、例えば強化学習であれば、一般的なテーブル型のQ学習や、古典的な制御理論的な制御などを実行する。
なお、ニューラルネットワークを用いた機械学習では、カメラ画像データと速度データなど、次元の異なる複数の形式のデータを使用して1つの学習装置で学習を行うことが可能である。

Claims (10)

  1. 学習装置ユニットであって、
    少なくとも1つの学習装置と、
    他の学習装置ユニットにより共有される内部状態を有する中間学習装置を前記少なくとも1つの学習装置に接続する接続手段と、を具備することを特徴とする学習装置ユニット。
  2. 前記接続手段は、当該学習装置ユニットの外部に配置された前記中間学習装置を前記少なくとも1つの学習装置と接続する、請求項1に記載の学習装置ユニット。
  3. 前記接続手段は、当該学習装置ユニットの内部に配置された前記中間学習装置を前記前記少なくとも1つの学習装置と接続し、
    前記中間学習装置は、前記他の学習装置ユニットの内部に配置された中間学習装置と内部状態を共有する、請求項1に記載の学習装置ユニット。
  4. 前記中間学習装置は、前記他の学習装置ユニットから該他の学習装置ユニットの内部に配置された中間学習装置の内部状態を構成する情報を取得することにより、前記他の学習装置ユニットの内部に配置された中間学習装置と内部状態を共有する、請求項3に記載の学習装置ユニット。
  5. 前記中間学習装置は、前記中間学習装置の内部状態を構成する情報として、該中間学習装置に入力された入力情報と該入力情報に対応して該中間学習装置により出力された出力情報とのセットを取得する、請求項4に記載の学習装置ユニット。
  6. 前記中間学習装置は、当該学習装置ユニット及び前記他の学習装置ユニットにアクセス可能に設けられた記憶装置から、内部状態を構成する情報を取得することにより、前記他の学習装置ユニットの内部に配置された中間学習装置と内部状態を共有するように設けられる、請求項3に記載の学習装置ユニット。
  7. 当該学習装置ユニットが受信する入力又は前記少なくとも1つの学習装置の内部状態を決定する決定手段をさらに具備し、
    前記中間学習装置は、前記決定手段により決定された前記入力又は前記内部状態に基づいて、前記記憶装置から内部状態を構成する情報を取得する、請求項6に記載の学習装置ユニット。
  8. 前記少なくとも1つの学習装置は、入力側に配置された入力側学習装置、及び、出力側に配置された出力側学習装置のうちの少なくとも一方を含む、請求項1〜請求項7のいずれかに記載の学習装置ユニット。
  9. 前記内部状態を構成する情報が重みを含む、請求項1〜請求項8のいずれかに記載の学習装置ユニット。
  10. コンピュータを、
    学習装置ユニットに配置された少なくとも1つの学習装置、及び、
    他の学習装置ユニットにより共有される内部状態を有する中間学習装置を前記少なくとも1つの学習装置と接続する接続手段、
    として機能させることを特徴とするコンピュータプログラム。
JP2015115532A 2015-06-08 2015-06-08 学習装置ユニット Active JP5816771B1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015115532A JP5816771B1 (ja) 2015-06-08 2015-06-08 学習装置ユニット
EP15828324.2A EP3136305A4 (en) 2015-06-08 2015-06-26 Learning device unit
CN202010098573.8A CN111325329A (zh) 2015-06-08 2015-06-26 学习装置单元
PCT/JP2015/068459 WO2016199313A1 (ja) 2015-06-08 2015-06-26 学習装置ユニット
CN201580001454.3A CN106462806B (zh) 2015-06-08 2015-06-26 学习装置单元
US14/907,503 US11475289B2 (en) 2015-06-08 2015-06-26 Learning device unit
US17/901,216 US20220414473A1 (en) 2015-06-08 2022-09-01 Learning device unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015115532A JP5816771B1 (ja) 2015-06-08 2015-06-08 学習装置ユニット

Publications (2)

Publication Number Publication Date
JP5816771B1 JP5816771B1 (ja) 2015-11-18
JP2017004142A true JP2017004142A (ja) 2017-01-05

Family

ID=54602118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115532A Active JP5816771B1 (ja) 2015-06-08 2015-06-08 学習装置ユニット

Country Status (5)

Country Link
US (2) US11475289B2 (ja)
EP (1) EP3136305A4 (ja)
JP (1) JP5816771B1 (ja)
CN (2) CN111325329A (ja)
WO (1) WO2016199313A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219813A (ja) * 2018-06-18 2019-12-26 国立研究開発法人産業技術総合研究所 情報処理方法、システム及びプログラム
JP2020140546A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 データ処理装置及びその方法
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法
JP2021503661A (ja) * 2017-11-20 2021-02-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練
JP7475509B2 (ja) 2018-10-19 2024-04-26 ジェネンテック, インコーポレイテッド 畳み込みニューラルネットワークによる凍結乾燥製剤における欠陥検出

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6382790B2 (ja) * 2015-12-28 2018-08-29 ファナック株式会社 複数の製造装置を含む製造データ処理システム
US10410113B2 (en) * 2016-01-14 2019-09-10 Preferred Networks, Inc. Time series data adaptation and sensor fusion systems, methods, and apparatus
EP3432228A4 (en) 2016-03-14 2019-04-10 Omron Corporation DEVICE FOR MAINTAINING EXTENSIBILITY
JP6714690B2 (ja) * 2016-04-26 2020-06-24 株式会社日立製作所 情報処理システム、情報処理システムの運用方法、および機械学習演算器
JP6957659B2 (ja) * 2016-04-26 2021-11-02 株式会社日立製作所 情報処理システムおよびその運用方法
JP6750854B2 (ja) * 2016-05-25 2020-09-02 キヤノン株式会社 情報処理装置および情報処理方法
JP6781950B2 (ja) 2016-10-12 2020-11-11 オムロン株式会社 識別情報付与システム、識別情報付与方法、及びそのプログラム
WO2018173121A1 (ja) 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
US11757994B2 (en) * 2017-09-25 2023-09-12 Intel Corporation Collective perception messaging for source-sink communication
KR20190055610A (ko) 2017-11-15 2019-05-23 삼성전자주식회사 뉴럴 네트워크 모델들의 공용 연산 그룹을 단일 처리하는 뉴럴 네트워크 시스템, 이를 포함하는 애플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법
KR20200044173A (ko) 2018-10-05 2020-04-29 삼성전자주식회사 전자 장치 및 그의 제어 방법
JP7225876B2 (ja) * 2019-02-08 2023-02-21 富士通株式会社 情報処理装置、演算処理装置および情報処理装置の制御方法
AU2020240239A1 (en) 2019-03-15 2021-02-11 Geek Guild Co., Ltd. Conversion system, method and program
US11685605B2 (en) * 2020-05-14 2023-06-27 Intelligrated Headquarters, Llc Reinforcement learning based conveyoring control

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5455891A (en) * 1993-10-04 1995-10-03 Georgia Tech Research Corporation System and method for a learning neural network for generating random directions for weight changes
US5835902A (en) * 1994-11-02 1998-11-10 Jannarone; Robert J. Concurrent learning and performance information processing system
DE19732046A1 (de) 1997-07-25 1999-01-28 Abb Patent Gmbh Prozeßdiagnosesystem und Verfahren zur Diagnose von Vorgängen und Zuständen eines technischen Prozesses
WO2000058942A2 (en) 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition
US6782375B2 (en) * 2001-01-16 2004-08-24 Providian Bancorp Services Neural network based decision processor and method
US7849032B1 (en) * 2002-05-24 2010-12-07 Oracle International Corporation Intelligent sampling for neural network data mining models
EP1552908A4 (en) * 2002-10-11 2008-10-15 Fujitsu Ltd DEVICE FOR CREATING A ROBOT CONTROL ALGORITHM, PROGRAM FOR CREATING A ROBOT CONTROL ALGORITHM, ROBOT CONTROL PROGRAM AND ROBOT
EP1515270A1 (en) * 2003-09-09 2005-03-16 Semeion An artificial neural network
US20080208372A1 (en) * 2003-11-10 2008-08-28 Pannese Patrick D Scheduling with neural networks and state machines
US20050108022A1 (en) * 2003-11-13 2005-05-19 Kamal Bhattacharya System and mechanism to create autonomic business process solutions
US7848262B2 (en) * 2006-06-26 2010-12-07 The Boeing Company Neural network-based mobility management for healing mobile ad hoc radio networks
JP4710933B2 (ja) * 2008-07-09 2011-06-29 ソニー株式会社 学習装置、学習方法、およびプログラム
JP5733166B2 (ja) 2011-11-14 2015-06-10 富士通株式会社 パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
US9208432B2 (en) * 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
JP5706384B2 (ja) 2012-09-24 2015-04-22 株式会社東芝 音声認識装置、音声認識システム、音声認識方法および音声認識プログラム
US9842585B2 (en) 2013-03-11 2017-12-12 Microsoft Technology Licensing, Llc Multilingual deep neural network
US20140278951A1 (en) * 2013-03-15 2014-09-18 Avaya Inc. System and method for identifying and engaging collaboration opportunities
JP6214922B2 (ja) 2013-05-20 2017-10-18 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、および学習プログラム
CN104143327B (zh) * 2013-07-10 2015-12-09 腾讯科技(深圳)有限公司 一种声学模型训练方法和装置
US9508347B2 (en) 2013-07-10 2016-11-29 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training
US9996768B2 (en) * 2014-11-19 2018-06-12 Adobe Systems Incorporated Neural network patch aggregation and statistics
US10387794B2 (en) 2015-01-22 2019-08-20 Preferred Networks, Inc. Machine learning with model filtering and model mixing for edge devices in a heterogeneous environment
US9990587B2 (en) 2015-01-22 2018-06-05 Preferred Networks, Inc. Machine learning heterogeneous edge device, method, and system
US10089204B2 (en) * 2015-04-15 2018-10-02 Hamilton Sundstrand Corporation System level fault diagnosis for the air management system of an aircraft
US9443192B1 (en) * 2015-08-30 2016-09-13 Jasmin Cosic Universal artificial intelligence engine for autonomous computing devices and software applications

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
岡野原大輔: "大規模Deep Learning(深層学習)の実現技術", 人工知能学会誌, vol. 第28巻,第5号, JPN6015029868, 1 September 2013 (2013-09-01), JP, pages 785 - 792, ISSN: 0003122886 *
岩城秀和,他2名: "単一断線故障を修復可能な最適汎化ニューラルネットワーク", 電子情報通信学会論文誌 情報・システムII−パターン処理, vol. 第2号, JPN6015029869, 25 February 2000 (2000-02-25), JP, pages 805 - 813, ISSN: 0003122887 *
柏木陽佑,他3名: "話者コードに基づく話者正規化学習を利用したニューラルネット音響モデルの適応", 電子情報通信学会技術研究報告 SP2014−106−SP2014−126 音声, vol. 第114巻,第365号, JPN6015029866, 8 December 2014 (2014-12-08), JP, pages 105 - 110, ISSN: 0003122884 *
神嶌敏弘: "転移学習", 人工知能学会誌, vol. 第25巻,第4号, JPN6015029867, 1 July 2010 (2010-07-01), pages 572 - 580, ISSN: 0003122885 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021503661A (ja) * 2017-11-20 2021-02-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練
US11657265B2 (en) 2017-11-20 2023-05-23 Koninklijke Philips N.V. Training first and second neural network models
JP7325414B2 (ja) 2017-11-20 2023-08-14 コーニンクレッカ フィリップス エヌ ヴェ 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練
JP2019219813A (ja) * 2018-06-18 2019-12-26 国立研究開発法人産業技術総合研究所 情報処理方法、システム及びプログラム
JP7079483B2 (ja) 2018-06-18 2022-06-02 国立研究開発法人産業技術総合研究所 情報処理方法、システム及びプログラム
JP7475509B2 (ja) 2018-10-19 2024-04-26 ジェネンテック, インコーポレイテッド 畳み込みニューラルネットワークによる凍結乾燥製剤における欠陥検出
JP2020140546A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 データ処理装置及びその方法
JP7297468B2 (ja) 2019-02-28 2023-06-26 キヤノン株式会社 データ処理装置及びその方法
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法

Also Published As

Publication number Publication date
CN106462806A (zh) 2017-02-22
US20220414473A1 (en) 2022-12-29
EP3136305A4 (en) 2017-07-05
US20170161603A1 (en) 2017-06-08
JP5816771B1 (ja) 2015-11-18
WO2016199313A1 (ja) 2016-12-15
EP3136305A1 (en) 2017-03-01
CN111325329A (zh) 2020-06-23
CN106462806B (zh) 2020-03-17
US11475289B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
JP5816771B1 (ja) 学習装置ユニット
Schmitt et al. Predictive model-based quality inspection using Machine Learning and Edge Cloud Computing
CN102648442B (zh) 改进的拾取和放置
US20170344909A1 (en) Machine learning device, failure prediction device, machine system and machine learning method for learning end-of-life failure condition
US11420327B2 (en) Automated control of multi-process using robotic equipment for complex workflows
US11232388B2 (en) Automated guided vehicle systems for retrieving hems
Abd et al. Simulation modelling and analysis of scheduling in robotic flexible assembly cells using Taguchi method
Geismar et al. Scheduling robotic cells served by a dual-arm robot
WO2018154360A1 (ja) 学習データを生成するための処理方法、システム、プログラムおよび記憶媒体、並びに学習データを生成する方法およびシステム
Kaestle et al. Cyber-physical electronics production
Singgih Production flow analysis in a semiconductor fab using machine learning techniques
Chen et al. A multiple-criteria real-time scheduling approach for multiple-load carriers subject to LIFO loading constraints
Görür et al. Integrating predictive maintenance in adaptive process scheduling for a safe and efficient industrial process
Elahi et al. Energy-based prognostics for gradual loss of conveyor belt tension in discrete manufacturing systems
Islam et al. A connective framework to minimize the anxiety of collaborative Cyber-Physical System
Vachálek et al. Intelligent dynamic identification technique of industrial products in a robotic workplace
Bányai et al. Logistics and mechatronics related research in mobile robot-based material handling
Martín H et al. Analysis and solution of a predator-protector-prey multi-robot system by a high-level reinforcement learning architecture and the adaptive systems theory
Vainio et al. Estimating the production time of a PCB assembly job without solving the optimised machine control
US20220266445A1 (en) Use of Mobile Robotics in Self-Assembling Workcells of Complex Workflows
Zeng et al. Lz-transform method and Markov reward approach for flexible manufacturing system performance evaluation
Nabovati َA Developed Cuckoo Search Algorithm for Solving a new Model of the Machine and Vehicle Scheduling
Poosapati et al. Cognitive Automation Opportunities, Challenges and Applications
Rai et al. Using machine learning techniques and edge cloud computing to do a predictive model-based analysis of Standard
Lopes et al. Volumetric Techniques for Product Routing and Loading Optimisation in Industry 4.0: A Review

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5816771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250