JP2017033979A - 実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 - Google Patents
実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 Download PDFInfo
- Publication number
- JP2017033979A JP2017033979A JP2015149247A JP2015149247A JP2017033979A JP 2017033979 A JP2017033979 A JP 2017033979A JP 2015149247 A JP2015149247 A JP 2015149247A JP 2015149247 A JP2015149247 A JP 2015149247A JP 2017033979 A JP2017033979 A JP 2017033979A
- Authority
- JP
- Japan
- Prior art keywords
- component
- machine learning
- mounting
- learning
- mounting order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】実際の部品実装動作において短い所要時間かつ少ない消費電力で部品実装を行う部品マウンタを提供すること。
【解決手段】本発明の部品マウンタは、実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習する機械学習器を備え、機械学習器は、少なくとも部品実装順序を状態データとして取得する状態観測部と、状態データに基づいて報酬を計算する報酬計算部と、機械学習結果および状態データに基づいて部品の実装順序の変更を行う実装順序変更学習部と、実装順序変更学習部が変更した部品の実装順序を出力する実装順序出力部と、を有し、実装順序変更学習部は、変更された部品の前記実装順序と、状態観測部により取得された状態データと、報酬計算部が計算した前記報酬と、に基づいて部品の実装順序の変更を機械学習する。
【選択図】図4
【解決手段】本発明の部品マウンタは、実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習する機械学習器を備え、機械学習器は、少なくとも部品実装順序を状態データとして取得する状態観測部と、状態データに基づいて報酬を計算する報酬計算部と、機械学習結果および状態データに基づいて部品の実装順序の変更を行う実装順序変更学習部と、実装順序変更学習部が変更した部品の実装順序を出力する実装順序出力部と、を有し、実装順序変更学習部は、変更された部品の前記実装順序と、状態観測部により取得された状態データと、報酬計算部が計算した前記報酬と、に基づいて部品の実装順序の変更を機械学習する。
【選択図】図4
Description
本発明は、部品マウンタに関し、特に機械学習により実装タクトの短縮および消費電力の低減を可能とする部品マウンタに関する。
SMT(表面実装技術)が可能な部品マウンタ(電子部品実装装置)を用いて基板上に電子部品を配置して実装することが行われている。部品マウンタは、電子部品を供給するフィーダと、フィーダが供給する電子部品を基板へ搬送して装着する部品吸着ハンドを備えており、部品吸着ハンドが電子部品を吸着などにより把持して該電子部品を装着する基板上の位置へと搬送し、基板上に印刷されているはんだにより固定することで基板上に電子部品を実装している。
部品マウンタを用いた電子部品の実装では、事前に設計されているそれぞれの電子部品の基板上の装着位置へ、どの順序で電子部品を搬送するのか、すなわち電子部品の実装順序により部品吸着ハンドの移動量が異なり、そのため電子部品の実装順序により実装タクト(1枚の基板に対して部品の実装が終了するまでに掛かる時間)や消費電力に少なからず差が生じる。
従来は、実装タクトの短縮や消費電力の削減を目的として、作業者が知識と経験に基づき試行錯誤することで実装順序を定めていたが、作業者の熟練度に個人差があるため、安定して実装タクトの短縮や消費電力の削減が行えなかったという問題があった。このような問題に対応するために、特許文献1に開示される技術では、与えられた部品データに基づいて被装着品(電子部品)の装着時間を短縮化するために装着順序を最適化する装置が開示されている。
特許文献1における最適化処理では、部品の装着の自由度が高い順からグループ分けし、装着ヘッドの移動距離や回転角度が小さい順序で基板に部品を装着するようにしている。しかしながら、特許文献1の最適化処理では、各々の部品を装着した際に、次の部品の距離や角度のみを考慮して部品の選択をしているため、部品装着全体から見た最適化ができていないという課題があった。また、特許文献1では装着機データ、部品データなどのデータにのみ基づいた最適化を行っているため、実際に部品マウンタを制御して部品の実装動作を行った際に、部品マウンタ固有の特性などが原因で必ずしも最適とは言えない順序となってしまう可能性があるという課題があった。
そこで本発明の目的は、実際の部品実装動作において短い所要時間かつ少ない消費電力で部品実装を行う部品マウンタを提供することである。
本願の請求項1に係る発明は、複数の部品把持ハンドもしくは部品吸着ハンドを備える部品マウンタにおいて、実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習する機械学習器を備え、該機械学習器は機械学習の結果に基づいて、前記実装タクトを短くするように、また、前記消費電力を小さくするように前記部品実装順序を変更する、ことを特徴とする部品マウンタである。
本願の請求項2に係る発明は、前記機械学習器は、前記部品マウンタは所定の基準時間よりも短い実装タクトで実装が完了したことをプラスの報酬とし、所定の基準時間よりも長い実装タクトで実装が完了したことをマイナスの報酬として学習をする、ことを特徴とする請求項1に記載の部品マウンタである。
本願の請求項3に係る発明は、前記機械学習器は、前記部品マウンタは所定の基準電力よりも少ない消費電力で実装が完了したことをプラスの報酬とし、所定の基準電力よりも大きい消費電力で実装が完了したことをマイナスの報酬として学習をする、ことを特徴とする請求項1に記載の部品マウンタである。
本願の請求項4に係る発明は、少なくとも1つの他の機械学習器と接続可能であり、前記他の機械学習器との間で機械学習の結果を相互に交換または共有する、ことを特徴とする請求項1〜3のいずれか1つに記載の部品マウンタである。
本願の請求項5に係る発明は、前記機械学習器は、実装タクトに基づく報酬と消費電力に基づく報酬に対して重み付けの設定をすることができる、ことを特徴とする請求項1〜3のいずれか1つに記載の部品マウンタである。
本願の請求項6に係る発明は、前記学習終了後、前記機械学習器は、製造スケジュールに余裕があれば消費電力優先に重み付けを自動設定し、余裕がなければ実装タクト優先に重み付けを自動設定する、ことを特徴とする請求項5に記載の部品マウンタである。
本願の請求項7に係る発明は、複数の部品把持ハンドもしくは部品吸着ハンドを備える部品マウンタに接続可能であり、前記部品マウンタにおける部品実装順序の変更を機械学習する機械学習器であって、実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習し、該機械学習の結果に基づいて、前記実装タクトを短くするように、また、前記消費電力を小さくするように前記部品実装順序を変更する、ことを特徴とする機械学習器である。
本願の請求項8に係る発明は、部品マウンタにおける部品実装順序の変更を機械学習した機械学習器であって、前記部品実装順序の変更の機械学習結果を記憶する学習結果記憶部と、前記部品マウンタの少なくとも前記部品実装順序を含む状態データを取得する状態観測部と、前記部品実装順序を変更の機械学習結果と、前記状態観測部が取得した前記状態データと、に基づいて前記部品実装順序の変更を行う実装順序変更学習部と、前記実装順序変更学習部が変更した前記部品実装順序を出力する実装順序出力部と、を備えたことを特徴とする機械学習器である。
本発明において、機械学習を部品マウンタにおける最適な部品実装順序の決定に用いることで、より短い実装タクト、より少ない消費電力での基板上への部品実装を実現することが可能となる。
以下、本発明の実施形態を図面と共に説明する。
本発明では、複数の部品吸着ハンドを備え、PCB(プリント基板)に複数種類かつ複数個数の部品を自動実装する部品マウンタに対して人工知能となる機械学習器を接続し、PCBへの部品の実装順序に関する機械学習を行うことで、PCBへの部品の実装順序が最適なものになるように変更を行うようにする。部品の実装順序の変更においては、より短い実装タクトと、より少ない消費電力を目的とし、これにより、より短時間でコストが低い部品実装を実現する。
本発明では、複数の部品吸着ハンドを備え、PCB(プリント基板)に複数種類かつ複数個数の部品を自動実装する部品マウンタに対して人工知能となる機械学習器を接続し、PCBへの部品の実装順序に関する機械学習を行うことで、PCBへの部品の実装順序が最適なものになるように変更を行うようにする。部品の実装順序の変更においては、より短い実装タクトと、より少ない消費電力を目的とし、これにより、より短時間でコストが低い部品実装を実現する。
<1.機械学習>
一般に、機械学習には教師あり学習や教師なし学習など、その目的や条件によって様々なアルゴリズムに分類されている。本発明ではPCBに複数種類かつ複数個数の部品を自動実装する部品マウンタにおけるPCBへの部品の実装順序に関する学習を目的としており、部品マウンタから出力された実際に行った部品実装順序と実装タクトおよび消費電力に対してどのような行動(部品の実装順序の変更)をすることが正しいのかを明示的に示すことが困難であることを考慮して、報酬を与えるだけで機械学習器が目標到達のための行動を自動的に学習する強化学習のアルゴリズムを採用する。
一般に、機械学習には教師あり学習や教師なし学習など、その目的や条件によって様々なアルゴリズムに分類されている。本発明ではPCBに複数種類かつ複数個数の部品を自動実装する部品マウンタにおけるPCBへの部品の実装順序に関する学習を目的としており、部品マウンタから出力された実際に行った部品実装順序と実装タクトおよび消費電力に対してどのような行動(部品の実装順序の変更)をすることが正しいのかを明示的に示すことが困難であることを考慮して、報酬を与えるだけで機械学習器が目標到達のための行動を自動的に学習する強化学習のアルゴリズムを採用する。
図1は、強化学習アルゴリズムの基本的な概念を説明する図である。強化学習においては、学習する主体となるエージェント(機械学習器)と、制御対象となる環境(制御対象システム)とのやりとりにより、エージェント学習と行動が進められる。より具体的には、(1)エージェントはある時点における環境の状態stを観測し、(2)観測結果と過去の学習に基づいて自分が取れる行動atを選択して行動aを実行し、(3)行動atが実行されることで環境の状態stが次の状態st+1へと変化し、(4)行動atの結果としての状態の変化に基づいてエージェントが報酬rt+1を受け取り、(5)エージェントが状態st、行動at、報酬rt+1および過去の学習の結果に基づいて学習を進める、といったやりとりがエージェントと環境の間で行われる。
上記した(5)における学習では、エ−ジェントは将来取得できる報酬の量を判断するための基準となる情報として、観測された状態st,行動at,報酬rt+1のマッピングを獲得する。例えば、各時刻において取り得る状態の個数がm、取り得る行動の個数がnとすると、行動を繰り返すことによって状態stと行動atの組に対する報酬rt+1を記憶するm×nの2次元配列が得られる。
そして、上記得られたマッピングに基づいて現在の状態や行動がどのくらい良いのかを示す関数である価値関数(評価関数)を用い、行動を繰り返す中で価値関数(評価関数)を更新していくことにより状態に対する最適な行動を学習していく。価値関数(評価関数)には、現在の状態がどのくらい良いのかを示す関数である状態価値関数、現在の状態において次にとる行動がどのくらい良いのかを示す関数である行動価値関数などがある。
そして、上記得られたマッピングに基づいて現在の状態や行動がどのくらい良いのかを示す関数である価値関数(評価関数)を用い、行動を繰り返す中で価値関数(評価関数)を更新していくことにより状態に対する最適な行動を学習していく。価値関数(評価関数)には、現在の状態がどのくらい良いのかを示す関数である状態価値関数、現在の状態において次にとる行動がどのくらい良いのかを示す関数である行動価値関数などがある。
状態価値関数は、ある状態stがどのくらい良い状態であるのかを示す価値関数である。状態価値関数は、状態を引数とする関数として表現され、行動を繰り返す中での学習において、ある状態における行動に対して得られた報酬や、該行動により移行する未来の状態の価値などに基づいて更新される。状態価値関数の更新式は強化学習のアルゴリズムに応じて定義されており、例えば、強化学習アルゴリズムの1つであるTD学習においては、状態価値関数は以下の数1式で定義される。なお、数1式においてαは学習係数、γは割引率と呼ばれ、0<α≦1、0<γ≦1の範囲で定義される。
また、行動価値関数は、ある状態stにおいて行動atがどのくらい良い行動であるのかを示す価値関数である。行動価値関数は、状態と行動を引数とする関数として表現され、行動を繰り返す中での学習において、ある状態における行動に対して得られた報酬や、該行動により移行する未来の状態における行動の価値などに基づいて更新される。行動価値関数の更新式は強化学習のアルゴリズムに応じて定義されており、例えば、代表的な強化学習アルゴリズムの1つであるQ学習においては、状態価値関数は以下の数2式で定義される。なお、数2式においてαは学習係数、γは割引率と呼ばれ、0<α≦1、0<γ≦1の範囲で定義される。
なお、学習結果としての価値関数(評価関数)を記憶する方法としては、近似関数を用いる方法や、配列を用いる方法以外にも、例えば状態sが多くの状態を取るような場合には状態st、行動atを入力として価値(評価)を出力する多値出力のSVMやニューラルネットワーク等の教師あり学習器を用いる方法などがある。
そして、上記した(2)における行動の選択においては、過去の学習によって作成された価値関数(評価関数)を用いて現在の状態stにおいて将来にわたっての報酬(rt+1+rt+2+…)が最大となる行動at(状態価値関数を用いている場合には、もっとも価値の高い状態へ移るための行動、行動価値関数を用いている場合には該状態において最も価値の高い行動)を選択する。なお、エージェントの学習中には学習の進展を目的として(2)における行動の選択において一定の確率でランダムな行動を選択することも有効である(εグリーディ法)。
このように、(1)〜(5)を繰り返すことで学習が進められる。ある環境において学習が終了した後に、新たな環境におかれた場合でも追加の学習を行うことでその環境に適応するように学習を進めることができる。したがって、本発明のようにPCBへの部品実装における部品マウンタによる部品実装順序の変更に適用することで、PCBの設計変更(部品位置の変更、部品の追加、削除など)がされた場合においても、過去のPCBへの部品マウンタによる部品の実装順序に関する学習に、新たに部品の実装順序の変更に関する追加学習を行うことにより、最適な部品の実装順序を短時間で求めることが可能となる。
また、強化学習においては、複数のエージェントをネットワークなどを介して接続したシステムとし、エージェント間で状態s、行動a、報酬rなどの情報を共有してそれぞれの学習に利用することで、それぞれのエージェントが他のエージェントの環境も考慮して学習をする分散強化学習を行うことで効率的な学習を行うことができる。本発明においても、複数の環境(制御対象となる部品マウンタ)を制御する複数のエージェント(機械学習器)がネットワークなどを介して接続された状態で分散機械学習を行うことで、部品マウンタによる部品の実装順序の学習を効率的に行わせることができるようになる。
なお、強化学習のアルゴリズムとしては、Q学習、SARSA法、TD学習、AC法など様々な手法が周知となっているが、本発明に適用する方法としていずれの強化学習アルゴリズムを採用してもよい。なお、それぞれの強化学習アルゴリズムは周知なので、本明細書における各アルゴリズムの詳細な説明は省略する。
以下では、機械学習器を接続した本発明の部品マウンタについて、具体的な実施形態に基づいて説明する。なお、以下の実施形態では、部品マウンタと制御装置、機械学習器を別体として説明しているが、部品マウンタの中に制御装置、機械学習器を組み込んだ構成としてもよい。
以下では、機械学習器を接続した本発明の部品マウンタについて、具体的な実施形態に基づいて説明する。なお、以下の実施形態では、部品マウンタと制御装置、機械学習器を別体として説明しているが、部品マウンタの中に制御装置、機械学習器を組み込んだ構成としてもよい。
<2.実施形態>
図2は、本発明の一実施形態における人工知能となる機械学習器を接続した部品マウンタにおける部品の実装順序の機械学習に関するイメージを示す図である。本実施形態においては、複数の部品マウンタから出力されるデータに基づいて機械学習器20が学習を行い、学習結果に基づいて各部品マウンタごとに部品実装順序の変更を行い、各変更結果をそれぞれの部品マウンタに対して出力する。なお、図2には本実施形態における部品マウンタにおける機械学習の説明に必要な構成のみを示している。
図2は、本発明の一実施形態における人工知能となる機械学習器を接続した部品マウンタにおける部品の実装順序の機械学習に関するイメージを示す図である。本実施形態においては、複数の部品マウンタから出力されるデータに基づいて機械学習器20が学習を行い、学習結果に基づいて各部品マウンタごとに部品実装順序の変更を行い、各変更結果をそれぞれの部品マウンタに対して出力する。なお、図2には本実施形態における部品マウンタにおける機械学習の説明に必要な構成のみを示している。
本実施形態において、機械学習器20が環境(<1.機械学習>で説明した状態st)を特定するための情報として、部品位置データ、部品仕様データ、部品マウンタ1がPCB1枚を実装した際の部品実装順序、PCB1枚を実装するのに要した時間(実装タクト)、PCB1枚を実装するのに消費した消費電力を入力する。これら各値は、各部品マウンタ1から取得されたデータである。
図3は、本実施形態における部品マウンタ1において用いられる各状態データの例を示している。図3では、4つの部品吸着ハンドa〜dを供える部品マウンタ1において、m個の部品Pt1〜PtmをそれぞれPCB上に実装する場合のデータ例である。初期データとして、各部品Pt1〜PtmのPCB上の領域ID(PCB上を所定の範囲毎に区切った領域に割り当てられるID。同一領域に配置される部品には同一の領域IDが割り当てられる)と位置を示す部品位置データ、各部品Pt1〜Ptmのそれぞれの仕様ID(部品型式、幅、奥行き、高さ等を示す仕様毎に割り当てられるID。同一仕様の部品には同一の仕様IDが割り当てられる)を示す部品仕様データが定義されている。ここで、部品型式とは部品の種類を特定するための型式であり、部品メーカの製品型式あるいは部品マウンタ1を使用するユーザが独自に割り当てる型式をいう。また、説明を簡単にするため、部品吸着ハンドa〜dはそれぞれがn個の部品をPCB上へと実装することとし(ただし、m=4n)、それぞれの部品吸着ハンドが装着する部品の順番を部品実装順序データとして定義する。部品実装順序データは、例えば、図に示すように部品吸着ハンドaが最初に実装する部品の順序を示す状態データ名をOda1、Oda2、…とした場合において、それぞれに対してその順番に実装される部品Pt1〜Ptnを割りあてる。
本実施形態では、機械学習器20が環境に対して出力するもの(<1.機械学習>で説明した行動at)として、各部品マウンタ1における次のPCB上への実装における部品実装順序の変更を出力する。各部品マウンタ1から出力された状態データに基づいて変更された実装順序のデータは、元となる状態データを出力した部品マウンタ1に対して出力される。
また本実施形態では、機械学習器20に対して与えられる報酬(<1.機械学習>で説明した報酬rt)として、実装タクトの短縮・延長(プラス報酬、マイナス報酬)、消費電力の減少・増加(プラス報酬、マイナス報酬)などを採用する。報酬の算出においては、実装タクトが所定の基準値から見て短ければ短いほどプラス値が大きくなる報酬となるようにし、長ければ長いほどマイナス値が大きくなる報酬となるようにする。また、消費電力は、所定の基準値から見て小さければ小さいほどプラス値が大きくなる報酬となるようにし、所定の基準値よりも大きければ大きくなるほどマイナス値が大きくなる報酬となるようにする。実装タクト、消費電力の所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された実装タクト、および消費電力を基準とすればよい。
更に、本実施形態では、機械学習器20は上記した状況、行動、報酬に基づいて機械学習を行う。機械学習においては、ある時刻tにおいて、入力データの組み合わせにより状態stが定義され、定義された状態stに対して行われる移動量の出力が行動atとなり、そして、行動atにより移動量の出力が行われた結果として新たに得られた入力データに基づいて評価計算された値が報酬rt+1となり、これを<1.機械学習>で説明したように、機械学習のアルゴリズムに応じた価値関数(評価関数)の更新式に当てはめることにより学習を進める。
以下では、部品マウンタ1と機械学習器20の機能ブロック図に基づいて説明する。
図4は、本実施形態の部品マウンタと機械学習器の機能ブロック図である。本実施形態の部品マウンタ1は、部品を供給する部品フィーダ(図示せず)、複数の部品吸着ハンド(図示せず)、PCBを固定するテーブル(図示せず)などの部品マウンタが標準的に備える構成を備えており、制御部2から供給される部品位置データ、部品仕様データ、部品実装順序データなどに基づいて部品吸着ハンドやテーブルを制御してPCB上に部品フィーダから供給される部品を実装する。図4に示した構成を、図2に示した強化学習における要素と対比すると、機械学習器20がエージェントに対応し、部品マウンタ1が備える各部や制御部2などを含む全体が環境に対応する。
図4は、本実施形態の部品マウンタと機械学習器の機能ブロック図である。本実施形態の部品マウンタ1は、部品を供給する部品フィーダ(図示せず)、複数の部品吸着ハンド(図示せず)、PCBを固定するテーブル(図示せず)などの部品マウンタが標準的に備える構成を備えており、制御部2から供給される部品位置データ、部品仕様データ、部品実装順序データなどに基づいて部品吸着ハンドやテーブルを制御してPCB上に部品フィーダから供給される部品を実装する。図4に示した構成を、図2に示した強化学習における要素と対比すると、機械学習器20がエージェントに対応し、部品マウンタ1が備える各部や制御部2などを含む全体が環境に対応する。
制御部2は、作業者により設定された部品位置データ、部品仕様データ、初期の部品実装順序データなどに基づいて部品マウンタ1を制御する。制御部2は、通常は作業者により設定された各データに基づいて部品マウンタ1の制御を行なうが、本実施形態においては、部品マウンタ1における1枚のPCBの実装が終了するたびに、機械学習器20の指令に従って部品実装順序データを変更する。
機械学習を行う機械学習器20は、状態観測部21、状態データ記憶部22、報酬条件設定部23、報酬計算部24、実装順序変更学習部25、学習結果記憶部26、実装順序出力部27を備える。前記機械学習器20は、制御部2内に備えてもよいし、外部のパソコン等に備えるようにしてもよい。
状態観測部21は、制御部2を介して部品マウンタ1に関する状態データを観測して機械学習器20内に取得する機能手段である。状態データとしては上記した部品位置データ、部品仕様データ、部品マウンタ1がPCB1枚を実装した際の部品実装順序、PCB1枚を実装するのに要した時間(実装タクト)、PCB1枚を実装するのに消費した消費電力などがある。
状態データ記憶部22は状態データを記憶し、記憶した該状態データを報酬計算部24や実装順序変更学習部25に対して出力する機能手段である。状態データ記憶部22に記憶される状態データは、最新の部品実装で取得したデータでも、過去の部品実装で取得したデータでも構わない。また、他の機械学習器20や集中管理システム30に記憶された状態データを入力して記憶したり、出力したりすることも可能である。
報酬条件設定部23は、機械学習において報酬を与える条件を設定するための機能手段である。報酬にはプラスの報酬とマイナスの報酬があり、適宜設定が可能である。さらに、報酬条件設定部23への入力は集中管理システムで使用しているパソコンやタブレット端末等からでも構わないが、部品マウンタ1や制御部2が備える図示しないMDI機器を介して入力できるようにすることで、より簡便に設定することが可能となる。
報酬計算部24は、報酬条件設定部23で設定された条件に基づいて状態観測部21または状態データ記憶部22から入力された状態データを分析し、計算された報酬を実装順序変更学習部25に出力する。
報酬計算部24は、報酬条件設定部23で設定された条件に基づいて状態観測部21または状態データ記憶部22から入力された状態データを分析し、計算された報酬を実装順序変更学習部25に出力する。
以下に、本実施形態における報酬条件設定部23で設定する報酬条件の例を示す。
●[報酬1:実装タクトの短縮(プラス報酬,マイナス報酬)]
1枚のPCBへの部品実装に掛かった実装タクトが短縮された場合に、PCB実装のサイクルタイムの向上につながるため、その度合いに応じてプラスの報酬を与える。報酬の算出においては、実装タクトが所定の基準値から見て短ければ短いほどプラス値が大きくなる報酬となるようにし、長ければ長いほどマイナス値が大きくなる報酬となるようにする。実装タクトの所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された実装タクトを基準とすればよい。
また、実装タクトの代わりに、吸着ハンドの移動距離の累積値(総移動距離)を用いてもよい。この場合は、1枚のPCBへの部品実装に掛かった総移動距離が短縮された場合に、その度合いに応じてプラスの報酬を与える。報酬の算出においては、総移動距離が所定の基準値から見て短ければ短いほどプラス値が大きくなる報酬となるようにし、長ければ長いほどマイナス値が大きくなる報酬となるようにする。総移動距離の所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された総移動距離を基準とすればよい。
●[報酬1:実装タクトの短縮(プラス報酬,マイナス報酬)]
1枚のPCBへの部品実装に掛かった実装タクトが短縮された場合に、PCB実装のサイクルタイムの向上につながるため、その度合いに応じてプラスの報酬を与える。報酬の算出においては、実装タクトが所定の基準値から見て短ければ短いほどプラス値が大きくなる報酬となるようにし、長ければ長いほどマイナス値が大きくなる報酬となるようにする。実装タクトの所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された実装タクトを基準とすればよい。
また、実装タクトの代わりに、吸着ハンドの移動距離の累積値(総移動距離)を用いてもよい。この場合は、1枚のPCBへの部品実装に掛かった総移動距離が短縮された場合に、その度合いに応じてプラスの報酬を与える。報酬の算出においては、総移動距離が所定の基準値から見て短ければ短いほどプラス値が大きくなる報酬となるようにし、長ければ長いほどマイナス値が大きくなる報酬となるようにする。総移動距離の所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された総移動距離を基準とすればよい。
●[報酬2:消費電力の削減(プラス報酬,マイナス報酬)]
1枚のPCBへの部品実装に消費された消費電力が削減された場合に、PCB実装のコスト削減につながるため、その度合いに応じてプラスの報酬を与える。報酬の算出においては、消費電力が所定の基準値から見て小さければ小さいほどプラス値が大きくなる報酬となるようにし、大きければ大きいほどマイナス値が大きくなる報酬となるようにする。消費電力の所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された消費電力を基準とすればよい。
1枚のPCBへの部品実装に消費された消費電力が削減された場合に、PCB実装のコスト削減につながるため、その度合いに応じてプラスの報酬を与える。報酬の算出においては、消費電力が所定の基準値から見て小さければ小さいほどプラス値が大きくなる報酬となるようにし、大きければ大きいほどマイナス値が大きくなる報酬となるようにする。消費電力の所定の基準値については、部品マウンタ1を初期データに基づいてPCB上への部品の実装を行った際に測定された消費電力を基準とすればよい。
なお、実装タクトにより得られる報酬と、消費電力により得られる報酬に、その重要度に応じた重み付けをするようにしても良い。このようにすることで、実装タクトを重視する部品実装順序の変更を行うように学習をさせたり、消費電力を重視した部品実装順序の変更を行うように学習させたりすることができる。
図4に戻って、実装順序変更学習部25は、部品マウンタ1による1枚のPCB上への部品の実装が完了する度に、該部品マウンタ1の状態データと、自身が行った該部品マウンタ1の部品実装順序の変更結果、および報酬計算部24で計算された報酬とに基づいて機械学習(強化学習)を行うと共に、過去の学習結果に基づいて現在の状態データに基づいて部品マウンタ1がPCBへの部品を実装する実装順序を変更する。ここでいう実装順序の変更が、機械学習に用いられる行動aに相当する。
部品実装順序の変更の一例としては、仕様IDにより識別される同一仕様IDの部品だけを一気に実装する順序とする戦略、領域IDにより識別される各領域内に存在する複数仕様の部品を選んで実装する順序とする戦略などの部品実装順序の戦略アルゴリズムを決定することで部品の実装順序を変更するようにする。例えば、同一仕様の部品をまとめて実装する戦略とした上で高さが低い仕様の部品から順に実装するよう各部品吸着ハンドに割り振る、部品吸着ハンド毎に異なる領域に対してPCBのX座標が大きいほうの部品から順に実装する、などのように、複数の戦略アルゴリズムをあらかじめ機械学習器20に登録しておき、登録された戦略の中から特定の戦略を選択し、部品実装順序を決定(変更)する。この場合、戦略アルゴリズムの選択が行動atに相当する。
実装順序変更学習部25が行う機械学習においては、ある時刻tにおける状態データの組み合わせにより状態stが定義され、定義された状態stに応じて部品実装順序を変更して後述する実装順序出力部27により該変更結果を出力することが行動atとなり、そして、変更結果に基づいて部品マウンタ1による1枚のPCBへの部品実装が行われた結果として得られた状態データに基づいて前記報酬計算部24で計算された値が報酬rt+1となる。学習に用いられる価値関数については、適用する学習アルゴリズムに応じて決定する。例えば、Q学習を用いる場合には、上記した数2式に従って行動価値関数Q(st,at)を更新することにより学習を進めるようにすれば良い。
学習結果記憶部26は、前記実装順序変更学習部25が学習した結果を記憶する。また、実装順序変更学習部25が学習結果を再使用する際には、記憶している学習結果を実装順序変更学習部25に出力する。学習結果の記憶には、上述したように、利用する機械学習アルゴリズムに応じた価値関数を、近似関数や、配列、又は多値出力のSVMやニューラルネットワーク等の教師あり学習器などにより記憶するようにすれば良い。
なお、学習結果記憶部26に、他の機械学習器20や集中管理システム30が記憶している学習結果を入力して記憶させたり、学習結果記憶部26が記憶している学習結果を他の機械学習器20や集中管理システム30に対して出力したりすることも可能である。
なお、学習結果記憶部26に、他の機械学習器20や集中管理システム30が記憶している学習結果を入力して記憶させたり、学習結果記憶部26が記憶している学習結果を他の機械学習器20や集中管理システム30に対して出力したりすることも可能である。
実装順序出力部27は、前記実装順序変更学習部25により変更された実装順序の変更結果を制御部2に対して出力する。制御部2は実装順序出力部27から出力された部品実装順序を部品マウンタ1へと出力し、該部品マウンタ1において該部品実装順序に基づいたPCB上への部品実装が行われる。
そして、1枚のPCBへの部品実装が完了したら再び状態データの取得が機械学習器20により行われ、入力された状態データを使用して学習を繰り返すことにより、より優れた学習結果を得ることができる。
上記学習が完了した学習データを用いて部品マウンタ1で部品を実装する際には、機械学習器20は新たな学習を行なわないようにして学習完了時の学習データをそのまま使用して繰り返し運転をするようにしてもよい。
また、学習が完了した機械学習器20(または、他の機械学習器20の完了した学習データを学習結果記憶部26に複写した機械学習器20)を他の部品マウンタ1に取付けて、学習完了時の学習データをそのまま使用して繰り返し運転をするようにしてもよい。
更に、学習が完了した機械学習器20の学習機能を有効にしたままで他の部品マウンタ1に取付けて、PCBの実装を続けることで、部品マウンタ1毎に異なる個体差や経年変化などを更に学習させ、当該部品マウンタ1にとってより良い部品実装順序を探索しながら運転することも可能である。
また、上記学習が完了した後も、ある特定種類のPCBを部品実装している部品マウンタ1の台数、および前記マウンタ1毎の実装タクトと、所定枚数の実装が完了すると推定される日と、生産計画によって定められた前記特定種類のPCBの製造が完了しなければならない日である製造完了納期とを比較し、製造完了納期よりも所定日数前に製造が完了すると推定されるならば、実装タクトにより得られる報酬よりも、消費電力により得られる報酬に対して大きなプラスの報酬を与える設定として学習を続けることも可能である。これにより、前記納期よりも前に製造を完了させつつ、かつ消費電力の削減が可能となる。
また、学習が完了した機械学習器20(または、他の機械学習器20の完了した学習データを学習結果記憶部26に複写した機械学習器20)を他の部品マウンタ1に取付けて、学習完了時の学習データをそのまま使用して繰り返し運転をするようにしてもよい。
更に、学習が完了した機械学習器20の学習機能を有効にしたままで他の部品マウンタ1に取付けて、PCBの実装を続けることで、部品マウンタ1毎に異なる個体差や経年変化などを更に学習させ、当該部品マウンタ1にとってより良い部品実装順序を探索しながら運転することも可能である。
また、上記学習が完了した後も、ある特定種類のPCBを部品実装している部品マウンタ1の台数、および前記マウンタ1毎の実装タクトと、所定枚数の実装が完了すると推定される日と、生産計画によって定められた前記特定種類のPCBの製造が完了しなければならない日である製造完了納期とを比較し、製造完了納期よりも所定日数前に製造が完了すると推定されるならば、実装タクトにより得られる報酬よりも、消費電力により得られる報酬に対して大きなプラスの報酬を与える設定として学習を続けることも可能である。これにより、前記納期よりも前に製造を完了させつつ、かつ消費電力の削減が可能となる。
複数の部品マウンタ1に接続された機械学習器20は、学習の過程においてそれぞれの部品マウンタ1に対して異なる戦略による部品実装順序を出力するようにすることで、効率よく学習を進めることができる。
また、部品マウンタ1に接続された機械学習器20は単独で機械学習をするようにしてもよいが、複数の機械学習器20がそれぞれ外部との通信手段を更に備えると、それぞれの前記状態データ記憶部22が記憶した状態データや学習結果記憶部26が記憶した学習結果を送受信して共有することが可能となり、効率良く機械学習を行うことができる。
このように複数の機械学習器20間でやり取りする際には、通信は集中管理システム30等のホストコンピュータを経由しても、直接機械学習器20同士が通信しても構わないし、クラウドを使用しても構わないが、大量のデータを取り扱う場合があるため、なるべく通信速度が速い通信手段が好ましい。
また、部品マウンタ1に接続された機械学習器20は単独で機械学習をするようにしてもよいが、複数の機械学習器20がそれぞれ外部との通信手段を更に備えると、それぞれの前記状態データ記憶部22が記憶した状態データや学習結果記憶部26が記憶した学習結果を送受信して共有することが可能となり、効率良く機械学習を行うことができる。
このように複数の機械学習器20間でやり取りする際には、通信は集中管理システム30等のホストコンピュータを経由しても、直接機械学習器20同士が通信しても構わないし、クラウドを使用しても構わないが、大量のデータを取り扱う場合があるため、なるべく通信速度が速い通信手段が好ましい。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
1 部品マウンタ
2 制御部
20 機械学習器
21 状態観測部
22 状態データ記憶部
23 報酬条件設定部
24 報酬計算部
25 実装順序変更学習部
26 学習結果記憶部
27 実装順序出力部
30 集中管理システム
2 制御部
20 機械学習器
21 状態観測部
22 状態データ記憶部
23 報酬条件設定部
24 報酬計算部
25 実装順序変更学習部
26 学習結果記憶部
27 実装順序出力部
30 集中管理システム
Claims (8)
- 複数の部品把持ハンドもしくは部品吸着ハンドを備える部品マウンタにおいて、
実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習する機械学習器を備え、
該機械学習器は機械学習の結果に基づいて、前記実装タクトを短くするように、また、前記消費電力を小さくするように前記部品実装順序を変更する、
ことを特徴とする部品マウンタ。 - 前記機械学習器は、前記部品マウンタは所定の基準時間よりも短い実装タクトで実装が完了したことをプラスの報酬とし、所定の基準時間よりも長い実装タクトで実装が完了したことをマイナスの報酬として学習をする、
ことを特徴とする請求項1に記載の部品マウンタ。 - 前記機械学習器は、前記部品マウンタは所定の基準電力よりも少ない消費電力で実装が完了したことをプラスの報酬とし、所定の基準電力よりも大きい消費電力で実装が完了したことをマイナスの報酬として学習をする、
ことを特徴とする請求項1に記載の部品マウンタ。 - 少なくとも1つの他の機械学習器と接続可能であり、
前記他の機械学習器との間で機械学習の結果を相互に交換または共有する、
ことを特徴とする請求項1〜3のいずれか1つに記載の部品マウンタ。 - 前記機械学習器は、実装タクトに基づく報酬と消費電力に基づく報酬に対して重み付けの設定をすることができる、
ことを特徴とする請求項1〜3のいずれか1つに記載の部品マウンタ。 - 前記学習終了後、前記機械学習器は、製造スケジュールに余裕があれば消費電力優先に重み付けを自動設定し、余裕がなければ実装タクト優先に重み付けを自動設定する、
ことを特徴とする請求項5に記載の部品マウンタ。 - 複数の部品把持ハンドもしくは部品吸着ハンドを備える部品マウンタに接続可能であり、前記部品マウンタにおける部品実装順序の変更を機械学習する機械学習器であって、
実装する部品の部品位置、部品仕様、部品実装順序、実装タクト、および消費電力を入力として機械学習し、該機械学習の結果に基づいて、前記実装タクトを短くするように、また、前記消費電力を小さくするように前記部品実装順序を変更する、
ことを特徴とする機械学習器。 - 部品マウンタにおける部品実装順序の変更を機械学習した機械学習器であって、
前記部品実装順序の変更の機械学習結果を記憶する学習結果記憶部と、
前記部品マウンタの少なくとも前記部品実装順序を含む状態データを取得する状態観測部と、
前記部品実装順序を変更の機械学習結果と、前記状態観測部が取得した前記状態データと、に基づいて前記部品実装順序の変更を行う実装順序変更学習部と、
前記実装順序変更学習部が変更した前記部品実装順序を出力する実装順序出力部と、
を備えたことを特徴とする機械学習器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015149247A JP2017033979A (ja) | 2015-07-29 | 2015-07-29 | 実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015149247A JP2017033979A (ja) | 2015-07-29 | 2015-07-29 | 実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017033979A true JP2017033979A (ja) | 2017-02-09 |
Family
ID=57988655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015149247A Pending JP2017033979A (ja) | 2015-07-29 | 2015-07-29 | 実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017033979A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021001995A1 (ja) * | 2019-07-04 | 2021-01-07 | 株式会社Fuji | 部品実装システム |
JPWO2021001996A1 (ja) * | 2019-07-04 | 2021-01-07 | ||
WO2021100630A1 (ja) * | 2019-11-18 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 配置支援方法、学習済みモデルの生成方法、プログラム、配置支援システム及び作業システム |
JP7466152B2 (ja) | 2021-05-20 | 2024-04-12 | 国立研究開発法人産業技術総合研究所 | 物流倉庫 |
WO2024079883A1 (ja) * | 2022-10-14 | 2024-04-18 | 株式会社Fuji | 生産支援装置 |
WO2024079882A1 (ja) * | 2022-10-14 | 2024-04-18 | 株式会社Fuji | 生産支援装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1041700A (ja) * | 1996-07-25 | 1998-02-13 | Sanyo Electric Co Ltd | 電子部品装着装置の装着経路設定方法およびその装置 |
JP2005245682A (ja) * | 2004-03-03 | 2005-09-15 | Akio Kimura | 脳波フィードバック装置 |
JP2006261647A (ja) * | 2005-02-17 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 実装条件決定方法、実装条件決定装置、部品実装機 |
JP2007018505A (ja) * | 2005-06-10 | 2007-01-25 | Matsushita Electric Ind Co Ltd | 生産管理方法 |
JP2011145958A (ja) * | 2010-01-15 | 2011-07-28 | Canon Inc | パターン識別装置及びその制御方法 |
-
2015
- 2015-07-29 JP JP2015149247A patent/JP2017033979A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1041700A (ja) * | 1996-07-25 | 1998-02-13 | Sanyo Electric Co Ltd | 電子部品装着装置の装着経路設定方法およびその装置 |
JP2005245682A (ja) * | 2004-03-03 | 2005-09-15 | Akio Kimura | 脳波フィードバック装置 |
JP2006261647A (ja) * | 2005-02-17 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 実装条件決定方法、実装条件決定装置、部品実装機 |
JP2007018505A (ja) * | 2005-06-10 | 2007-01-25 | Matsushita Electric Ind Co Ltd | 生産管理方法 |
JP2011145958A (ja) * | 2010-01-15 | 2011-07-28 | Canon Inc | パターン識別装置及びその制御方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021001995A1 (ja) * | 2019-07-04 | 2021-01-07 | 株式会社Fuji | 部品実装システム |
JPWO2021001995A1 (ja) * | 2019-07-04 | 2021-01-07 | ||
JPWO2021001996A1 (ja) * | 2019-07-04 | 2021-01-07 | ||
WO2021001996A1 (ja) * | 2019-07-04 | 2021-01-07 | 株式会社Fuji | 部品実装システム |
JP7257514B2 (ja) | 2019-07-04 | 2023-04-13 | 株式会社Fuji | 部品実装システムおよび学習装置 |
JP7394852B2 (ja) | 2019-07-04 | 2023-12-08 | 株式会社Fuji | 部品実装システム |
WO2021100630A1 (ja) * | 2019-11-18 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 配置支援方法、学習済みモデルの生成方法、プログラム、配置支援システム及び作業システム |
JP7466152B2 (ja) | 2021-05-20 | 2024-04-12 | 国立研究開発法人産業技術総合研究所 | 物流倉庫 |
WO2024079883A1 (ja) * | 2022-10-14 | 2024-04-18 | 株式会社Fuji | 生産支援装置 |
WO2024079882A1 (ja) * | 2022-10-14 | 2024-04-18 | 株式会社Fuji | 生産支援装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017033979A (ja) | 実装タクトおよび消費電力を低減する部品マウンタ及び機械学習器 | |
JP6603257B2 (ja) | 行動情報学習装置、管理装置、ロボット制御システム及び行動情報学習方法 | |
US10331104B2 (en) | Machine tool, simulation apparatus, and machine learning device | |
US10180667B2 (en) | Controller-equipped machining apparatus having machining time measurement function and on-machine measurement function | |
JP6059375B1 (ja) | 生産制御システムおよび統合生産制御システム | |
JP6063013B1 (ja) | びびり或いは工具摩耗/破損の発生を抑制する加工条件調整機能を有する数値制御装置 | |
CN106557075B (zh) | 生成最佳的加速/减速的机床 | |
CN102164473B (zh) | 元件安装装置以及元件安装方法 | |
JP2017042882A (ja) | 加工条件を調整しながら加工を行うワイヤ放電加工機 | |
CN106104195B (zh) | 图像处理装置及基板生产系统 | |
JP6748135B2 (ja) | 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法 | |
US10807234B2 (en) | Component supply device and machine learning device | |
US20170090452A1 (en) | Machine tool for generating speed distribution | |
KR101963686B1 (ko) | 타겟 시스템 제어 | |
CN101390024A (zh) | 运转控制方法、运转控制装置和运转控制系统 | |
CN108880399A (zh) | 机器学习装置、伺服控制系统以及机器学习方法 | |
WO2020246059A1 (ja) | パラメータ算出装置、ロボット制御システム、およびロボットシステム | |
CN110376969A (zh) | 调整装置以及调整方法 | |
JP2021070136A (ja) | 制御装置、制御方法およびプログラム | |
CN112203809A (zh) | 机器人控制装置、系统、信息处理方法和程序 | |
US11550293B2 (en) | Board production management device and board production management method to determine a countermeasure to a board production device error | |
JP7381585B2 (ja) | 情報処理システム | |
CN114114902A (zh) | 机器控制装置 | |
JP6659260B2 (ja) | Plcプログラムの最適化機能を備えた制御装置及び機械学習器 | |
CN115446867A (zh) | 一种基于数字孪生技术的工业机械臂控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190507 |