JP2019141869A - 制御装置及び機械学習装置 - Google Patents

制御装置及び機械学習装置 Download PDF

Info

Publication number
JP2019141869A
JP2019141869A JP2018027009A JP2018027009A JP2019141869A JP 2019141869 A JP2019141869 A JP 2019141869A JP 2018027009 A JP2018027009 A JP 2018027009A JP 2018027009 A JP2018027009 A JP 2018027009A JP 2019141869 A JP2019141869 A JP 2019141869A
Authority
JP
Japan
Prior art keywords
control
servo press
press machine
command
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018027009A
Other languages
English (en)
Inventor
佳之 鈴木
Yoshiyuki Suzuki
佳之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018027009A priority Critical patent/JP2019141869A/ja
Priority to DE102019001044.2A priority patent/DE102019001044A1/de
Priority to US16/274,647 priority patent/US20190258982A1/en
Priority to CN201910122158.9A priority patent/CN110171159A/zh
Publication of JP2019141869A publication Critical patent/JP2019141869A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B30PRESSES
    • B30BPRESSES IN GENERAL
    • B30B15/00Details of, or accessories for, presses; Auxiliary measures in connection with pressing
    • B30B15/14Control arrangements for mechanically-driven presses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B30PRESSES
    • B30BPRESSES IN GENERAL
    • B30B15/00Details of, or accessories for, presses; Auxiliary measures in connection with pressing
    • B30B15/26Programme control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B30PRESSES
    • B30BPRESSES IN GENERAL
    • B30B9/00Presses specially adapted for particular purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

【課題】サーボプレス機によるワークの加工において、必要以上にサイクルタイムを延ばすことなく加工の品質を向上させることが可能な制御装置及び機械学習装置を提供すること。【解決手段】本発明の制御装置1が備える機械学習装置100は、サーボプレス機の制御用の指令を示す制御指令データ、及び制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部106と、サーボプレス機の制御用の指令に基づいて加工されたワークの品質を判定するワーク品質判定データ、及びワークの加工に掛かった時間を判定するサイクルタイム判定データを、ワークの加工に関する判定結果を示す判定データとして取得する判定データ取得部108と、サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習する学習部110と、を備える。【選択図】図2

Description

本発明は、制御装置及び機械学習装置に関する。
軸制御にサーボモータを採用したプレス機(サーボプレス機)では、制御装置から毎サイクル同じ指令値(位置指令値、速度指令値、圧力指令値、トルク指令値等)をサーボモータに与え、これによりスライドの位置及び速度を精度良く制御して上下に駆動して、ワークの加工を行う(例えば、特許文献1等)。
特開2004−017098号公報
サーボプレス機では、サーボモータへの指令値を毎サイクル同じ値にしても、サーボプレス機の機械的な状態(金型のダメージの蓄積等)や、パンチプレスであれば打ち抜き時の機械への衝撃による振動(ブレークスルー)などの外因があり、毎サイクル同じ結果が得られない場合があり、例えば加工精度の低下や、加工の失敗、最悪の場合、上下の金型が直接衝突するなど、機械に対して深刻なダメージを与えてしまう場合も考えられる。
従来は、これらの問題の発生を抑えるために、作業者の経験等で指令値や金型の調整を行ってきたが、経験の少ない作業者が、これらの指令値や金型の調整を行うことは困難であるという課題があった。
そこで本発明の目的は、サーボプレス機によるワークの加工において、必要以上にサイクルタイムを延ばすことなく加工の品質を向上させることが可能な制御装置及び機械学習装置を提供することである。
本発明の一態様は、金型によりワークを加工するサーボプレス機を制御する制御装置であって、前記サーボプレス機の制御用の指令を学習する機械学習装置を備え、前記機械学習装置は、前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、前記サーボプレス機の制御用の指令に基づいて加工されたワークの品質を判定するワーク品質判定データを、前記ワークの加工に関する判定結果を示す判定データとして取得する判定データ取得部と、前記状態変数と前記判定データとを用いて、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習する学習部と、を備える制御装置である。
ある。
本発明の他の態様は、金型によりワークを加工するサーボプレス機を制御する制御装置であって、前記サーボプレス機の制御用の指令を学習した機械学習装置を備え、前記機械学習装置は、前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習した学習部と、前記状態観測部が観測した状態変数と、前記学習部による学習結果に基づいて、サーボプレス機の制御用の指令を決定する意思決定部と、を備える制御装置である。
本発明の他の態様は、金型によりワークを加工するサーボプレス機の制御用の指令を学習する機械学習装置であって、前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、前記サーボプレス機の制御用の指令に基づいて加工されたワークの品質を判定するワーク品質判定データを、前記ワークの加工に関する判定結果を示す判定データとして取得する判定データ取得部と、前記状態変数と前記判定データとを用いて、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習する学習部と、を備える機械学習装置である。
本発明の他の態様は、金型によりワークを加工するサーボプレス機の制御用の指令を学習した機械学習装置であって、前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習した学習部と、前記状態観測部が観測した状態変数と、前記学習部による学習結果に基づいて、サーボプレス機の制御用の指令を決定する意思決定部と、を備える機械学習装置である。
本発明では、サーボプレス機の制御用の指令を決定するために機械学習を導入することで、制御装置から与える指令値が改善され、不良率の低減、加工精度の向上、不良時の金型へのダメージの低減、及び、これらの加工品質の向上とサイクルタイムとのバランスが取れるようになる。
第1の実施形態による制御装置の概略的なハードウェア構成図である。 第1の実施形態による制御装置の概略的な機能ブロック図である。 制御指令データS1、及び制御フィードバックデータS2の例を示す図である。 制御装置の一形態を示す概略的な機能ブロック図である。 機械学習方法の一形態を示す概略的なフローチャートである。 ニューロンを説明する図である。 ニューラルネットワークを説明する図である。 第2の実施形態による制御装置の概略的な機能ブロック図である。 制御装置を組み込んだシステムの一形態を示す概略的な機能ブロック図である。
以下、本発明の実施形態を図面と共に説明する。
図1は第1の実施形態による制御装置の要部を示す概略的なハードウェア構成図である。制御装置1は、例えばサーボプレス機を制御する制御装置として実装することができる。また、制御装置1は、例えばサーボプレス機を制御する制御装置に併設されたパソコンや、制御装置に有線/無線のネットワークを介して接続されたセルコンピュータ、ホストコンピュータ、エッジサーバ、クラウドサーバ等のコンピュータとして実装することができる。本実施形態では、制御装置1を、サーボプレス機を制御する制御装置として実装した場合の例を示す。
本実施形態による制御装置1が備えるCPU11は、制御装置1を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って制御装置1の全体を制御する。RAM13には一時的な計算データや表示データ、図示しない入力部を介してオペレータが入力した各種データ等が一時的に格納される。
不揮発性メモリ14は、例えば図示しないバッテリでバックアップされるなどして、制御装置1の電源がオフされても記憶状態が保持されるメモリとして構成される。不揮発性メモリ14には、インタフェース15を介して外部機器72から読み込まれたプログラムや表示器/MDIユニット70を介して入力されたプログラム、制御装置1の各部やサーボプレス機から取得された各種データ(例えば、位置指令値、速度指令値、圧力指令値、トルク指令値、位置フィードバック、速度フィードバック、圧力フィードバック、トルクフィードバック、モータ電流値、モータ温度、機械温度、周囲温度、金型の使用回数、ワークの形状、ワークの素材、金型の形状、金型の素材、加工のサイクルタイム等)が記憶されている。不揮発性メモリ14に記憶されたプログラムや各種データは、実行時/利用時にはRAM13に展開されても良い。また、ROM12には、公知の解析プログラムなどの各種のシステム・プログラム(後述する機械学習装置100とのやりとりを制御するためのシステム・プログラムを含む)があらかじめ書き込まれている。
インタフェース15は、制御装置1とアダプタ等の外部機器72と接続するためのインタフェースである。外部機器72側からはプログラムや各種パラメータ等が読み込まれる。また、制御装置1内で編集したプログラムや各種パラメータ等は、外部機器72を介して外部記憶手段に記憶させることができる。PMC(プログラマブル・マシン・コントローラ)16は、制御装置1に内蔵されたシーケンス・プログラムでサーボプレス機及び該サーボプレス機の周辺装置(ワークを入れ替えるロボット等)にI/Oユニット17を介して信号を出力し制御する。また、サーボプレス機の本体に配備された操作盤の各種スイッチや各種センサ等の信号を受け、必要な信号処理をした後、CPU11に渡す。
表示器/MDIユニット70はディスプレイやキーボード等を備えた手動データ入力装置であり、インタフェース18は表示器/MDIユニット70のキーボードからの指令,データを受けてCPU11に渡す。インタフェース19は各軸を手動で駆動させる際に用いる手動パルス発生器等を備えた操作盤71に接続されている。
サーボプレス機の各軸を制御するための軸制御回路30はCPU11からの軸の移動指令量を受けて、軸の指令をサーボアンプ40に出力する。サーボアンプ40はこの指令を受けて、サーボプレス機が備える軸を移動させるサーボモータ50を駆動する。軸のサーボモータ50は位置・速度検出器を内蔵し、この位置・速度検出器からの位置・速度フィードバック信号を軸制御回路30にフィードバックし、位置・速度のフィードバック制御を行う。なお、図1のハードウェア構成図では軸制御回路30、サーボアンプ40、サーボモータ50は1つずつしか示されていないが、実際には制御対象となるサーボプレス機に備えられた軸の数(1つの場合も、複数の場合もある)だけ用意される。
インタフェース21は、制御装置1と機械学習装置100とを接続するためのインタフェースである。機械学習装置100は、機械学習装置100全体を統御するプロセッサ101と、システム・プログラム等を記憶したROM102、機械学習に係る各処理における一時的な記憶を行うためのRAM103、及び学習モデル等の記憶に用いられる不揮発性メモリ104を備える。機械学習装置100は、インタフェース21を介して制御装置1で取得可能な各情報(例えば、位置指令値、速度指令値、圧力指令値、トルク指令値、位置フィードバック、速度フィードバック、圧力フィードバック、トルクフィードバック、モータ電流値、モータ温度、機械温度、周囲温度、金型の使用回数、ワークの形状、ワークの素材、金型の形状、金型の素材、加工のサイクルタイム等)を観測することができる。また、制御装置1は、機械学習装置100から出力される、制御用の指令を受けて、サーボプレス機の動作を制御する。
図2は、第1の実施形態による制御装置1と機械学習装置100の概略的な機能ブロック図である。図2に示した各機能ブロックは、図1に示した制御装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、制御装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の制御装置1は、機械学習装置100から出力されたサーボプレス機2の制御用の指令に基づいてサーボプレス機2を制御する制御部34を備える。制御部34は、一般にプログラム等による指令に従ってサーボプレス機2の動作を制御するが、その際に、機械学習装置100からサーボプレス機2の制御用の指令が出力されると、前記プログラム等による指令に代えて、機械学習装置100から出力され指令に基づいてサーボプレス機2を制御する。
一方、制御装置1が備える機械学習装置100は、サーボプレス機2の制御に対するフィードバック及び切削抵抗の切削分力方向情報に対するサーボプレス機2の制御用の指令を、いわゆる機械学習により自ら学習するためのソフトウェア(学習アルゴリズム等)及びハードウェア(プロセッサ101等)を含む。制御装置1が備える機械学習装置100が学習するものは、サーボプレス機2の制御に対するフィードバック及び切削抵抗の切削分力方向情報と、サーボプレス機2の制御用の指令との、相関性を表すモデル構造に相当する。
図2に機能ブロックで示すように、制御装置1が備える機械学習装置100は、サーボプレス機2の制御用の指令を示す制御指令データS1、及びサーボプレス機2の制御に対するフィードバックを示す制御フィードバックデータS2を含む環境の現在状態を表す状態変数Sとして観測する状態観測部106と、決定されたサーボプレス機2の制御用の指令に基づいて加工されたワークの品質を判定するためのワーク品質判定データD1及びワークの加工に掛けた時間を判定するためのサイクルタイム判定データD2を含む判定データDを取得する判定データ取得部108と、状態変数Sと判定データDとを用いて、サーボプレス機2のサーボプレス機2の制御に対するフィードバックと、サーボプレス機2の制御用の指令を関連付けて学習する学習部110とを備える。
状態観測部106が観測する状態変数Sのうち、制御指令データS1は、サーボプレス機2の制御用の指令として取得することができる。サーボプレス機2の制御用の指令は、例えばサーボプレス機2による加工における位置指令値、速度指令値、圧力指令値、トルク指令値等が例示され、サーボプレス機2の動作を制御するプログラムや1つ前の学習周期において出力したサーボプレス機2の制御用の指令から取得することができる。
制御指令データS1は、機械学習装置100が学習部110の学習結果に基づいて1つ前の学習周期におけるサーボプレス機2の制御に対するフィードバックに対して、当該学習周期において決定したサーボプレス機2の制御用の指令をそのまま用いることができる。このような手法を取る場合には、機械学習装置100はサーボプレス機2の制御用の指令を学習周期毎にRAM103に一時的に記憶しておき、状態観測部106は、RAM103から1つ前の学習周期におけるサーボプレス機2の制御用の指令を今回の学習周期の制御指令データS1として取得するようにしても良い。
状態観測部106が観測する状態変数Sのうち、制御フィードバックデータS2は、サーボプレス機2を駆動するサーボモータ50からのフィードバック値として取得することができる。サーボモータ50からのフィードバック値は、位置フィードバック値、速度フィードバック値、圧力フィードバック値、トルクフィードバック値等が例示される。
図3は、制御指令データS1、及び制御フィードバックデータS2の例を示す図である。図3に例示されるように、制御指令データS1、及び制御フィードバックデータS2は、観測された各値を所定のサンプリング周期Δtでサンプリングした時間的に連続した離散値としたデータとして観測することができる。状態観測部106は、制御指令データS1、及び制御フィードバックデータS2として、1加工サイクルに取得されたデータを用いても良いし、サーボプレス機2の上金型がワークに接触する直前から、プレス動作が完全に終了するまでの間に取得されたデータを用いるようにしても良い。状態観測部106は、学習部110による1回の学習周期において、同じ時間範囲で取得された制御指令データS1、及び制御フィードバックデータS2の各データを学習部110に対して出力する。
状態観測部106は、ワークの加工中に取得された各情報を制御装置1が不揮発性メモリ14にログデータとして記憶するようにしておき、状態観測部106は、記録したログデータを解析して各状態変数を取得するようにすれば良い。
判定データ取得部108は、ワーク品質判定データD1として、決定されたサーボプレス機2の制御用の指令に基づいて加工が行われた場合のワークの品質の判定結果を用いることができる。判定データ取得部108が用いるワーク品質判定データD1としては、例えば、ワークが良品であるか(適)、キズや割れ等が生じた不良品であるか(否)、ワークの寸法誤差が予め定めた閾値以内か(適)、閾値を超えているか(否)といったような、適宜設定された判定基準により判定された結果を用いればよい。
また、判定データ取得部108は、サイクルタイム判定データD2として、決定されたサーボプレス機2の制御用の指令に基づいて行われるワークの加工に掛かった時間の判定結果を用いることができる。判定データ取得部108が用いるサイクルタイム判定データD2としては、例えば決定されたサーボプレス機2の制御用の指令に基づいて行われたワークの加工に掛かった時間が、予め定めた所定の閾値よりも短いか(適)、長いか(否)といったような、適宜設定された判定基準により判定された結果を用いればよい。
なお、判定データ取得部108は、学習部110による学習の段階では必須の構成となるが、学習部110によるサーボプレス機2の制御に対するフィードバックとサーボプレス機2の制御用の指令とを関連付けた学習が完了した後には必ずしも必須の構成ではない。例えば、学習が完了した機械学習装置100を顧客に出荷する場合等には、判定データ取得部108を取り外して出荷するようにしても良い。
学習部110に対して同時に入力される状態変数Sは、学習部110による学習周期で考えた場合、判定データDが取得された1学習周期前のデータに基づくものとなる。このように、制御装置1が備える機械学習装置100が学習を進める間、環境においては、制御フィードバックデータS2の取得、取得した各データに基づいて決定された制御指令データS1に基づいたサーボプレス機2によるワークの加工、判定データDの取得が繰り返し実施される。
学習部110は、機械学習と総称される任意の学習アルゴリズムに従い、サーボプレス機2の制御に対するフィードバックに対する、サーボプレス機2の制御用の指令を学習する。学習部110は、前述した状態変数Sと判定データDとを含むデータ集合に基づく学習を反復実行することができる。サーボプレス機2の制御に対するフィードバックに対する、サーボプレス機2の制御用の指令の学習サイクルの反復中、状態変数Sは、上記したように1学習周期前におけるサーボプレス機2の制御に対するフィードバック、及び1学習周期前において決定されたサーボプレス機2の制御用の指令から取得し、また判定データDは、決定されたサーボプレス機2の制御用の指令に基づいて行われたワークの加工に関する様々な観点(加工品質、加工に掛かる時間等)での判定結果とする。
このような学習サイクルを繰り返すことにより、学習部110は、サーボプレス機2の制御に対するフィードバックと、サーボプレス機2の制御用の指令との相関性を暗示する特徴を識別することができるようになる。学習アルゴリズムの開始時にはサーボプレス機2の制御に対するフィードバックと、サーボプレス機2の制御用の指令の相関性は実質的に未知であるが、学習部110は、学習を進めるに従い徐々に特徴を識別して相関性を解釈する。サーボプレス機2の制御に対するフィードバックと、サーボプレス機2の制御用の指令との相関性が、ある程度信頼できる水準まで解釈されると、学習部110が反復出力する学習結果は、現在状態(つまりサーボプレス機2の制御に対するフィードバック)に対して、サーボプレス機2の制御用の指令をどう決定するべきかという行動の選択(つまり意思決定)を行うために使用できるものとなる。つまり学習部110は、学習アルゴリズムの進行に伴い、サーボプレス機2の制御に対するフィードバックに対してサーボプレス機2の制御用の指令をどのように設定するべきかという行動との、相関性を最適解に徐々に近づけることができる。
意思決定部122は、学習部110が学習した結果に基づいて、サーボプレス機2の制御用の指令を決定し、決定したサーボプレス機2の制御用の指令を制御部34へと出力する。意思決定部122は、学習部110による学習が利用可能な状態になった段階において、機械学習装置100にサーボプレス機2の制御に対するフィードバックが入力されると、サーボプレス機2の制御用の指令(位置指令値、速度指令値、圧力指令値、トルク指令値等)を出力する。意思決定部122が出力するサーボプレス機2の制御用の指令は、現在の状態において、加工のサイクルタイムをある程度維持できる範囲で、ワークの品質を良くすることができる制御用の指令である。意思決定部122は、状態変数Sと学習部110が学習した結果に基づいて、適切なサーボプレス機2の制御用の指令を決定する。
上記したように、制御装置1が備える機械学習装置100は、状態観測部106が観測した状態変数Sと判定データ取得部108が取得した判定データDとを用いて、学習部110が機械学習アルゴリズムに従い、サーボプレス機2の制御に対するフィードバックに対するサーボプレス機2の制御用の指令を学習するものである。状態変数Sは、制御指令データS1、及び制御フィードバックデータS2といったデータで構成され、また判定データDは、ワークの加工の工程や加工されたワークを計測した結果から取得した情報を解析することで一義的に求められる。したがって、制御装置1が備える機械学習装置100によれば、学習部110の学習結果を用いることで、サーボプレス機2の制御に対するフィードバックに応じた、サーボプレス機2の制御用の指令を、自動的かつ正確に行うことが可能となる。
そして、サーボプレス機2の制御用の指令の決定を、自動的に行うことができれば、サーボプレス機2の制御に対するフィードバック(制御フィードバックデータS2)を把握するだけで、サーボプレス機2の制御用の指令の適切な値を迅速に決定することができる。したがって、サーボプレス機2の制御用の指令の決定を効率よく行うことができる。
制御装置1が備える機械学習装置100の一変形例として、状態観測部106は、制御指令データS1、及び制御フィードバックデータS2に加えて、金型の状態を示す金型状態データS3を状態変数Sとして観測するようにしても良い。金型の状態としては、例えば、金型の素材、金型の形状(金型の深さや最大曲率等)、金型の使用回数などが例示される。金型の素材が柔らかい場合、金型の使用回数が多い場合には金型が摩耗・変形し易く、また、金型が深い場合や急な角を持つものである場合には加工時にワークを損傷させ易くなるので、これを状態変数Sとして観測することで、学習部110の学習の精度を向上させることができる。
制御装置1が備える機械学習装置100の他の変形例として、状態観測部106は、制御指令データS1、及び制御フィードバックデータS2に加えて、ワークの状態を示すワーク状態データS4を状態変数Sとして観測するようにしても良い。ワークの素材や、ワークの加工前の形状、ワークの温度によって、加工の結果に違いが生じることもあるので、これを状態変数Sとして観測することで、学習部110の学習の精度を向上させることができる。
制御装置1が備える機械学習装置100の他の変形例として、状態観測部106は、制御指令データS1、及び制御フィードバックデータS2に加えて、モータの状態を示すモータ状態データS5を状態変数Sとして観測するようにしても良い。モータの状態としては、モータに流れる電流値やモータの温度等が例示される。ワークの加工時における1加工サイクル内でのサーボモータ50に流れる電流値や温度の変化はワークの加工の状態を間接的に示すデータとして有効であると考えられるので、加工のサイクル中のサーボモータ50の電流値や温度を所定のサンプリング周期Δtでサンプリングした時間的に連続した離散値を状態変数Sとして観測することで、学習部110の学習の精度を向上させることができる。
制御装置1が備える機械学習装置100の他の変形例として、状態観測部106は、制御指令データS1、及び制御フィードバックデータS2に加えて、サーボプレス機2の状態を示す機械状態データS6を状態変数Sとして観測するようにしても良い。サーボプレス機2の状態としては、サーボプレス機2の温度等が例示され、これらの状態は加工の結果に違いが生じさせる原因となることもあるので、これを状態変数Sとして観測することで、学習部110の学習の精度を向上させることができる。
制御装置1が備える機械学習装置100の他の変形例として、状態観測部106は、制御指令データS1、及び制御フィードバックデータS2に加えて、サーボプレス機2の周辺の状態を示す周辺状態データS7を状態変数Sとして観測するようにしても良い。サーボプレス機2の周辺の状態としては、周辺温度や周辺湿度等が例示され、これらの状態は加工の結果に違いが生じさせる原因となることもあるので、これを状態変数Sとして観測することで、学習部110の学習の精度を向上させることができる。
制御装置1が備える機械学習装置100の他の変形例として、判定データ取得部108は、ワーク品質判定データD1、及びサイクルタイム判定データD2に加えて、サーボプレス機2によるワークの加工時に発生するブレークスルーの程度を判定するブレークスルー判定データD3を取得するようにしても良い。ブレークスルーは、サーボプレス機による加工において、プレス軸からワークに圧力を与えた際に、ワークと金型が分離(破断)すると、プレス軸が逆変形力を一気に受けてしまう現象であり、所謂せん断加工における衝撃、騒音の最大の原因であって、ワークの加工品質やサーボプレス機の状態(故障等)に影響を与える。判定データ取得部108は、ワークの加工時におけるサーボモータ50のトルク値等を解析し、ブレークスルーが発生している場合、その大きさが予め定めた閾値以下である場合に適、そうで無い場合に否としたブレークスルー判定データD3を取得するようにすれば良い。
上記構成を有する機械学習装置100では、学習部110が実行する学習アルゴリズムは特に限定されず、機械学習として公知の学習アルゴリズムを採用できる。図4は、図2に示す制御装置1の一形態であって、学習アルゴリズムの一例として強化学習を実行する学習部110を備えた構成を示す。強化学習は、学習対象が存在する環境の現在状態(つまり入力)を観測するとともに現在状態で所定の行動(つまり出力)を実行し、その行動に対し何らかの報酬を与えるというサイクルを試行錯誤的に反復して、報酬の総計が最大化されるような方策(本願の機械学習装置ではサーボプレス機2の制御用の指令)を最適解として学習する手法である。
図3に示す制御装置1が備える機械学習装置100において、学習部110は、状態変数Sに基づいてサーボプレス機2の制御用の指令の決定がされ、決定されたサーボプレス機2の制御用の指令に基づくサーボプレス機2によるワークの加工に関する判定結果(状態変数Sが取得された次の学習周期で用いられる判定データDに相当)に関連する報酬Rを求める報酬計算部112と、報酬Rを用いて、サーボプレス機2の制御用の指令の価値を表す関数Qを更新する価値関数更新部114とを備える。学習部110は、価値関数更新部114が関数Qの更新を繰り返すことによってサーボプレス機2の制御に対するフィードバックに対するサーボプレス機2の制御用の指令を学習する。
学習部110が実行する強化学習のアルゴリズムの一例を説明する。この例によるアルゴリズムは、Q学習(Q−learning)として知られるものであって、行動主体の状態sと、その状態sで行動主体が選択し得る行動aとを独立変数として、状態sで行動aを選択した場合の行動の価値を表す関数Q(s,a)を学習する手法である。状態sで価値関数Qが最も高くなる行動aを選択することが最適解となる。状態sと行動aとの相関性が未知の状態でQ学習を開始し、任意の状態sで種々の行動aを選択する試行錯誤を繰り返すことで、価値関数Qを反復して更新し、最適解に近付ける。ここで、状態sで行動aを選択した結果として環境(つまり状態s)が変化したときに、その変化に応じた報酬(つまり行動aの重み付け)rが得られるように構成し、より高い報酬rが得られる行動aを選択するように学習を誘導することで、価値関数Qを比較的短時間で最適解に近付けることができる。
価値関数Qの更新式は、一般に下記の数1式のように表すことができる。数1式において、st及びatはそれぞれ時刻tにおける状態及び行動であり、行動atにより状態はst+1に変化する。rt+1は、状態がstからst+1に変化したことで得られる報酬である。maxQの項は、時刻t+1で最大の価値Qになる(と時刻tで考えられている)行動aを行ったときのQを意味する。α及びγはそれぞれ学習係数及び割引率であり、0<α≦1、0<γ≦1で任意設定される。
Figure 2019141869
学習部110がQ学習を実行する場合、状態観測部106が観測した状態変数S及び判定データ取得部108が取得した判定データDは、更新式の状態sに該当し、現在状態(つまり、サーボプレス機2の制御に対するフィードバック)に対するサーボプレス機2の制御用の指令をどのように決定するべきかという行動は、更新式の行動aに該当し、報酬計算部112が求める報酬Rは、更新式の報酬rに該当する。よって価値関数更新部114は、現在状態に対するサーボプレス機2の制御用の指令の価値を表す関数Qを、報酬Rを用いたQ学習により繰り返し更新する。
報酬計算部112が求める報酬Rは、例えば、サーボプレス機2の制御用の指令を決定した後に行われる、決定されたサーボプレス機2の制御用の指令に基づくワークの加工に関する判定結果が「適」と判定される場合(例えば、加工後のワークに破損が無い場合、ワークの寸法誤差が予め定めた閾値以下である場合、加工のサイクルタイムが予め定めた閾値や、1つ前の学習周期におけるサイクルタイムよりも短かった場合等)に正(プラス)の報酬Rとし、サーボプレス機2の制御用の指令を決定した後に行われる、決定されたサーボプレス機2の制御用の指令に基づくワークの加工に関する判定結果が「否」と判定される場合(例えば、加工後のワークに破損がある場合、ワークの寸法誤差が予め定めた閾値を越えている場合、加工のサイクルタイムが予め定めた閾値や、1つ前の学習周期におけるサイクルタイムよりも長かった場合等)に負(マイナス)の報酬Rとすることができる。正負の報酬Rの絶対値は、互いに同一であってもよいし異なっていてもよい。また、判定の条件として、判定データDに含まれる複数の値を組み合わせて判定するようにしても良い。
また、設定されたサーボプレス機2の制御用の指令に基づくワークの加工に関する判定結果を、「適」及び「否」の二通りだけでなく複数段階に設定することができる。例として、ワークの加工のサイクルタイムの閾値がTmaxである場合、作業者の組立作業のサイクルタイムTが、0≦T<Tmax/5のときは報酬R=5を与え、Tmax/5≦T<Tmax/2のときは報酬R=3を与え、Tmax/2≦T<Tmaxのときは報酬R=1を、Tmax≦Tのときは報酬R=−3(マイナスの報酬)を与えるような構成とすることができる。
更に、学習の初期段階は判定に用いる閾値を比較的大きく設定し、学習が進行するにつれて判定に用いる閾値を縮小する構成とすることもできる。
価値関数更新部114は、状態変数Sと判定データDと報酬Rとを、関数Qで表される行動価値(例えば数値)と関連付けて整理した行動価値テーブルを持つことができる。この場合、価値関数更新部114が関数Qを更新するという行為は、価値関数更新部114が行動価値テーブルを更新するという行為と同義である。Q学習の開始時には環境の現在状態とサーボプレス機2の制御用の指令との相関性は未知であるから、行動価値テーブルにおいては、種々の状態変数Sと判定データDと報酬Rとが、無作為に定めた行動価値の値(関数Q)と関連付けた形態で用意されている。なお報酬計算部112は、判定データDが分かれば、これに対応する報酬Rを直ちに算出でき、算出した値Rが行動価値テーブルに書き込まれる。
サーボプレス機2の動作に関する判定結果に応じた報酬Rを用いてQ学習を進めると、より高い報酬Rが得られる行動を選択する方向へ学習が誘導され、選択した行動を現在状態で実行した結果として変化する環境の状態(つまり状態変数S及び判定データD)に応じて、現在状態で行う行動についての行動価値の値(関数Q)が書き換えられて行動価値テーブルが更新される。この更新を繰り返すことにより、行動価値テーブルに表示される行動価値の値(関数Q)は、適正な行動(本発明の場合、ワークの加工に係るサイクルタイムを極端に長くしない範囲で、サーボモータ50に対する指令値を調整する行動)であるほど大きな値となるように書き換えられる。このようにして、未知であった環境の現在状態(サーボプレス機2の制御に対するフィードバック)とそれに対する行動(サーボプレス機2の制御用の指令)との相関性が徐々に明らかになる。つまり行動価値テーブルの更新により、サーボプレス機2の制御に対するフィードバックと、サーボプレス機2の制御用の指令との関係が最適解に徐々に近づけられる。
図5を参照して、学習部110が実行する上記したQ学習のフロー(つまり機械学習方法の一形態)をさらに説明する。まずステップSA01で、価値関数更新部114は、その時点での行動価値テーブルを参照しながら、状態観測部106が観測した状態変数Sが示す現在状態で行う行動としてサーボプレス機2の制御用の指令を無作為に選択する。次に価値関数更新部114は、ステップSA02で、状態観測部106が観測している現在状態の状態変数Sを取り込み、ステップSA03で、判定データ取得部108が取得している現在状態の判定データDを取り込む。次に価値関数更新部114は、ステップSA04で、判定データDに基づき、サーボプレス機2の制御用の指令が適当であったか否かを判断し、適当であった場合、ステップSA05で、報酬計算部112が求めた正の報酬Rを関数Qの更新式に適用し、次いでステップSA06で、現在状態における状態変数S及び判定データDと報酬Rと行動価値の値(更新後の関数Q)とを用いて行動価値テーブルを更新する。ステップSA04で、サーボプレス機2の制御用の指令が適当でなかったと判断した場合、ステップSA07で、報酬計算部112が求めた負の報酬Rを関数Qの更新式に適用し、次いでステップSA06で、現在状態における状態変数S及び判定データDと報酬Rと行動価値の値(更新後の関数Q)とを用いて行動価値テーブルを更新する。学習部110は、ステップSA01〜SA07を繰り返すことで行動価値テーブルを反復して更新し、サーボプレス機2の制御用の指令の学習を進行させる。なお、ステップSA04からステップSA07までの報酬Rを求める処理及び価値関数の更新処理は、判定データDに含まれるそれぞれのデータについて実行される。
前述した強化学習を進める際に、例えばニューラルネットワークを応用することができる。図6Aは、ニューロンのモデルを模式的に示す。図6Bは、図6Aに示すニューロンを組み合わせて構成した三層のニューラルネットワークのモデルを模式的に示す。ニューラルネットワークは、例えば、ニューロンのモデルを模した演算装置や記憶装置等によって構成できる。
図6Aに示すニューロンは、複数の入力x(ここでは一例として、入力x1〜入力x3)に対する結果yを出力するものである。各入力x1〜x3には、この入力xに対応する重みw(w1〜w3)が掛けられる。これにより、ニューロンは、次の数2式により表現される出力yを出力する。なお、数2式において、入力x、出力y及び重みwは、すべてベクトルである。また、θはバイアスであり、fkは活性化関数である。
Figure 2019141869
図6Bに示す三層のニューラルネットワークは、左側から複数の入力x(ここでは一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として、結果y1〜結果y3)が出力される。図示の例では、入力x1、x2、x3のそれぞれに対応の重み(総称してw1で表す)が乗算されて、個々の入力x1、x2、x3がいずれも3つのニューロンN11、N12、N13に入力されている。
図6Bでは、ニューロンN11〜N13の各々の出力を、総称してz1で表す。z1は、入カベクトルの特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz1のそれぞれに対応の重み(総称してw2で表す)が乗算されて、個々の特徴ベクトルz1がいずれも2つのニューロンN21、N22に入力されている。特徴ベクトルz1は、重みW1と重みW2との間の特徴を表す。
図6Bでは、ニューロンN21〜N22の各々の出力を、総称してz2で表す。z2は、特徴ベクトルz1の特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz2のそれぞれに対応の重み(総称してw3で表す)が乗算されて、個々の特徴ベクトルz2がいずれも3つのニューロンN31、N32、N33に入力されている。特徴ベクトルz2は、重みW2と重みW3との間の特徴を表す。最後にニューロンN31〜N33は、それぞれ結果y1〜y3を出力する。
なお、三層以上の層を為すニューラルネットワークを用いた、いわゆるディープラーニングの手法を用いることも可能である。
制御装置1が備える機械学習装置100においては、ニューラルネットワークをQ学習における価値関数として用い、状態変数Sと行動aとを入力xとして、学習部110が上記したニューラルネットワークに従う多層構造の演算を行うことで、当該状態における当該行動の価値(結果y)を出力することもできる。なお、ニューラルネットワークの動作モードには、学習モードと価値予測モードとがあり、例えば学習モードで学習データセットを用いて重みwを学習し、学習した重みwを用いて価値予測モードで行動の価値判断を行うことができる。なお価値予測モードでは、検出、分類、推論等を行うこともできる。
上記した制御装置1の構成は、プロセッサ101が実行する機械学習方法(或いはソフトウェア)として記述できる。この機械学習方法は、サーボプレス機2の制御用の指令を学習する機械学習方法であって、コンピュータのCPUが、制御指令データS1、及び制御フィードバックデータS2を、サーボプレス機2が動作する環境の現在状態を表す状態変数Sとして観測するステップと、決定されたサーボプレス機2の制御用の指令に基づくワークの加工に関する判定結果を示す判定データDを取得するステップと、状態変数Sと判定データDとを用いて、制御フィードバックデータS2と、サーボプレス機2の制御用の指令とを関連付けて学習するステップとを有する。
図7は、第2の実施形態による制御装置1と機械学習装置100の概略的な機能ブロック図であって、学習アルゴリズムの他の例として教師あり学習を実行する学習部110を備えた構成を示したものである。教師あり学習は、入力とそれに対応する出力との既知のデータセット(教師データと称する)が与えられ、それら教師データから入力と出力との相関性を暗示する特徴を識別することで、新たな入力に対する所要の出力を推定するための相関性モデルを学習する手法である。
本実施形態の制御装置1が備える機械学習装置100は、判定データ取得部108に代えて、環境の状態に対して適切に加工を行ったサーボプレス機2の制御用の指令を示す制御指令データL1を含むラベルデータLを取得するラベルデータ取得部109を備える。ラベルデータ取得部109は、ある状態において適切であるとされるサーボプレス機2の制御用の指令を利用することができる。このデータは、過去に行われたサーボプレス機2の動作時に、サーボプレス機2の制御に対するフィードバック(制御フィードバックデータS2)をログデータとして記録しておき、該ログデータを解析し、加工のサイクルタイムを必要以上に長くすること無くワークの加工で良い評価が得られたサーボプレス機2の制御用の指令のデータを、適切な制御用の指令データ(制御指令データL1)として取得するようにすれば良い。何を以って適切な制御用の指令データであるとするかは、第1の実施形態における判定データDに対する判定と同様に考えればよい。
本実施形態の状態観測部106は、制御指令データS1を観測する必要は無い。また、ラベルデータ取得部109は、判定データ取得部108と同様に、学習部110による学習の段階では必須の構成となるが、学習部110によるサーボプレス機2の制御に対するフィードバックとサーボプレス機2の制御用の指令とを関連付けた学習が完了した後には必ずしも必須の構成ではない。
図6に示す制御装置1が備える機械学習装置100において、学習部110は、サーボプレス機2の制御に対するフィードバックからサーボプレス機2の制御用の指令を推定する相関性モデルMと過去に取得されたサーボプレス機2の制御に対するフィードバック及び適切なサーボプレス機2の制御用の指令の結果から得られた教師データTから識別される相関性特徴との誤差Eを計算する誤差計算部116と、誤差Eを縮小するように相関性モデルMを更新するモデル更新部118とを備える。学習部110は、モデル更新部118が相関性モデルMの更新を繰り返すことによってサーボプレス機2の制御に対するフィードバックからのサーボプレス機2の制御用の指令の推定を学習する。
相関性モデルMの初期値は、例えば、状態変数SとラベルデータLとの相関性を単純化して(例えばN次関数で)表現したものであり、教師あり学習の開始前に学習部110に与えられる。教師データTは、本発明では上述したように過去に取得されたサーボプレス機2の制御に対するフィードバックとそれに対して適切なサーボプレス機2の制御用の指令のデータとを利用することができ、制御装置1の運用時に随時学習部110に与えられる。誤差計算部116は、学習部110に随時与えられた教師データTにより、サーボプレス機2の制御に対するフィードバックとサーボプレス機2の制御用の指令との相関性を暗示する相関性特徴を識別し、この相関性特徴と、現在状態における状態変数S及びラベルデータLに対応する相関性モデルMとの誤差Eを求める。モデル更新部118は、例えば予め定めた更新ルールに従い、誤差Eが小さくなる方向へ相関性モデルMを更新する。
次の学習サイクルでは、誤差計算部116は、更新後の相関性モデルMに従って状態変数Sを用いてサーボプレス機2の制御用の指令の推定が行われ、該推定の結果と実際に取得されたラベルデータLの誤差Eを求め、モデル更新部118が再び相関性モデルMを更新する。このようにして、未知であった環境の現在状態とそれに対する推定との相関性が徐々に明らかになる。なお、第2の実施形態においても、第1の実施形態と同様に、状態変数Sとして、様々なものを観測するようにできる。
図7は、制御装置1を備えた第3の実施形態によるシステム170を示す。システム170は、セルコンピュータやホストコンピュータ、クラウドサーバ等のコンピュータの一部として実装された少なくとも1台の制御装置1と、制御の対象となる複数のサーボプレス機2と、制御装置1、サーボプレス機2を互いに接続する有線/無線のネットワーク172とを備える。
上記構成を有するシステム170は、機械学習装置100を備える制御装置1が、学習部110の学習結果を用いて、サーボプレス機2の制御に対するフィードバックに対するサーボプレス機2の制御用の指令を、それぞれのサーボプレス機2毎に自動的かつ正確に求めることができる。また、制御装置1の機械学習装置100が、複数のサーボプレス機2のそれぞれについて得られた状態変数S及び判定データDに基づき、全てのサーボプレス機2に共通するサーボプレス機2の制御用の指令を学習し、その学習結果を全てのサーボプレス機2の動作において共有するように構成できる。したがってシステム170によれば、より多様なデータ集合(状態変数S及び判定データDを含む)を入力として、サーボプレス機2の制御用の指令の学習の速度や信頼性を向上させることができる。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば、機械学習装置100が実行する学習アルゴリズムや演算アルゴリズム、制御装置1が実行する制御アルゴリズム等は、上述したものに限定されず、様々なアルゴリズムを採用できる。
また、上記した実施形態では制御装置1と機械学習装置100が異なるCPUを有する装置として説明しているが、機械学習装置100は制御装置1が備えるCPU11と、ROM12に記憶されるシステム・プログラムにより実現するようにしても良い。
1 制御装置
2 サーボプレス機
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
15,18,19 インタフェース
16 PMC
17 I/Oユニット
20 バス
21 インタフェース
30 軸制御回路
34 制御部
40 サーボアンプ
50 サーボモータ
70 表示器/MDIユニット
71 操作盤
100 機械学習装置
101 プロセッサ
102 ROM
103 RAM
104 不揮発性メモリ
106 状態観測部
108 判定データ取得部
109 ラベルデータ取得部
110 学習部
112 報酬計算部
114 価値関数更新部
116 誤差計算部
118 モデル更新部
122 意思決定部
124 推定結果出力部
170 システム
172 ネットワーク

Claims (8)

  1. 金型によりワークを加工するサーボプレス機を制御する制御装置であって、
    前記サーボプレス機の制御用の指令を学習する機械学習装置を備え、
    前記機械学習装置は、
    前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記サーボプレス機の制御用の指令に基づいて加工されたワークの品質を判定するワーク品質判定データを、前記ワークの加工に関する判定結果を示す判定データとして取得する判定データ取得部と、
    前記状態変数と前記判定データとを用いて、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習する学習部と、
    を備える制御装置。
  2. 前記判定データ取得部は、更に前記ワークの加工に掛かった時間を判定するサイクルタイム判定データを、判定データとして取得する、
    請求項1に記載の制御装置。
  3. 前記学習部は、
    前記判定結果に関連する報酬を求める報酬計算部と、
    前記報酬を用いて、前記サーボプレス機の制御に対するフィードバックに対する前記サーボプレス機の制御用の指令の価値を表す関数を更新する価値関数更新部と、
    を備え、
    前記報酬計算部は、前記ワークの品質が高いほど、及び前記ワークの加工に係る時間が短い程高い報酬を与える、
    請求項1または2に記載の制御装置。
  4. 前記学習部は、前記状態変数と前記判定データとを多層構造で演算する、
    請求項1〜3のいずれか1つに記載の制御装置。
  5. 金型によりワークを加工するサーボプレス機を制御する制御装置であって、
    前記サーボプレス機の制御用の指令を学習した機械学習装置を備え、
    前記機械学習装置は、
    前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習した学習部と、
    前記状態観測部が観測した状態変数と、前記学習部による学習結果に基づいて、サーボプレス機の制御用の指令を決定する意思決定部と、
    を備える制御装置。
  6. 前記機械学習装置は、クラウドサーバに存在する、
    請求項1〜5のいずれか1つに記載の制御装置。
  7. 金型によりワークを加工するサーボプレス機の制御用の指令を学習する機械学習装置であって、
    前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記サーボプレス機の制御用の指令に基づいて加工されたワークの品質を判定するワーク品質判定データを、前記ワークの加工に関する判定結果を示す判定データとして取得する判定データ取得部と、
    前記状態変数と前記判定データとを用いて、前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習する学習部と、
    を備える機械学習装置。
  8. 金型によりワークを加工するサーボプレス機の制御用の指令を学習した機械学習装置であって、
    前記サーボプレス機の制御用の指令を示す制御指令データ、及び前記サーボプレス機の制御に対するフィードバックを示す制御フィードバックデータを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記サーボプレス機の制御に対するフィードバックと、サーボプレス機の制御用の指令を関連付けて学習した学習部と、
    前記状態観測部が観測した状態変数と、前記学習部による学習結果に基づいて、サーボプレス機の制御用の指令を決定する意思決定部と、
    を備える機械学習装置。
JP2018027009A 2018-02-19 2018-02-19 制御装置及び機械学習装置 Pending JP2019141869A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018027009A JP2019141869A (ja) 2018-02-19 2018-02-19 制御装置及び機械学習装置
DE102019001044.2A DE102019001044A1 (de) 2018-02-19 2019-02-12 Steuervorrichtung und maschinelle lernvorrichtung
US16/274,647 US20190258982A1 (en) 2018-02-19 2019-02-13 Control device and machine learning device
CN201910122158.9A CN110171159A (zh) 2018-02-19 2019-02-19 控制装置以及机器学习装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027009A JP2019141869A (ja) 2018-02-19 2018-02-19 制御装置及び機械学習装置

Publications (1)

Publication Number Publication Date
JP2019141869A true JP2019141869A (ja) 2019-08-29

Family

ID=67482230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027009A Pending JP2019141869A (ja) 2018-02-19 2018-02-19 制御装置及び機械学習装置

Country Status (4)

Country Link
US (1) US20190258982A1 (ja)
JP (1) JP2019141869A (ja)
CN (1) CN110171159A (ja)
DE (1) DE102019001044A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021115599A (ja) * 2020-01-24 2021-08-10 株式会社アマダ プレス装置及びプレス方法
JP2021122840A (ja) * 2020-02-04 2021-08-30 株式会社日本製鋼所 プレス成形システムおよびプレス成形システムの成形条件値の設定方法
KR20220040597A (ko) * 2020-09-24 2022-03-31 하은테크(주) 버 제어를 위한 지능형 프레스 시스템
JP7459856B2 (ja) 2021-11-26 2024-04-02 横河電機株式会社 装置、方法およびプログラム
JP7484868B2 (ja) 2021-10-27 2024-05-16 横河電機株式会社 操業システム、操業方法、および、操業プログラム、ならびに、評価モデル生成装置、評価モデル生成方法、および、評価モデル生成プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635944B2 (en) * 2018-06-15 2020-04-28 Google Llc Self-supervised robotic object interaction
CN112775242B (zh) * 2020-12-25 2022-10-28 佛山市康思达液压机械有限公司 冲压控制方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079500A (ja) * 1998-03-16 2000-03-21 Yamada Dobby Co Ltd プレス機のスライド制御装置
JP2017062695A (ja) * 2015-09-25 2017-03-30 ファナック株式会社 最適な速度分布を生成する工作機械
JP2017068325A (ja) * 2015-09-28 2017-04-06 ファナック株式会社 最適な加減速を生成する工作機械
JP2017120587A (ja) * 2015-12-28 2017-07-06 ファナック株式会社 キャッシュロックを学習する機械学習器,産業機械システム,製造システム,機械学習方法および機械学習プログラム
JP2017120649A (ja) * 2015-07-31 2017-07-06 ファナック株式会社 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
JP2017164801A (ja) * 2016-03-17 2017-09-21 ファナック株式会社 機械学習装置、レーザ加工システムおよび機械学習方法
JP2017188030A (ja) * 2016-04-08 2017-10-12 ファナック株式会社 主軸または主軸を駆動するモータの故障予知を学習する機械学習装置および機械学習方法、並びに、機械学習装置を備えた故障予知装置および故障予知システム
JP2018014838A (ja) * 2016-07-21 2018-01-25 ファナック株式会社 モータの電流指令を学習する機械学習器,モータ制御装置および機械学習方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079500A (ja) * 1998-03-16 2000-03-21 Yamada Dobby Co Ltd プレス機のスライド制御装置
JP2017120649A (ja) * 2015-07-31 2017-07-06 ファナック株式会社 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
JP2017062695A (ja) * 2015-09-25 2017-03-30 ファナック株式会社 最適な速度分布を生成する工作機械
JP2017068325A (ja) * 2015-09-28 2017-04-06 ファナック株式会社 最適な加減速を生成する工作機械
JP2017120587A (ja) * 2015-12-28 2017-07-06 ファナック株式会社 キャッシュロックを学習する機械学習器,産業機械システム,製造システム,機械学習方法および機械学習プログラム
JP2017164801A (ja) * 2016-03-17 2017-09-21 ファナック株式会社 機械学習装置、レーザ加工システムおよび機械学習方法
JP2017188030A (ja) * 2016-04-08 2017-10-12 ファナック株式会社 主軸または主軸を駆動するモータの故障予知を学習する機械学習装置および機械学習方法、並びに、機械学習装置を備えた故障予知装置および故障予知システム
JP2018014838A (ja) * 2016-07-21 2018-01-25 ファナック株式会社 モータの電流指令を学習する機械学習器,モータ制御装置および機械学習方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021115599A (ja) * 2020-01-24 2021-08-10 株式会社アマダ プレス装置及びプレス方法
JP7389663B2 (ja) 2020-01-24 2023-11-30 株式会社アマダ プレス装置及びプレス方法
JP2021122840A (ja) * 2020-02-04 2021-08-30 株式会社日本製鋼所 プレス成形システムおよびプレス成形システムの成形条件値の設定方法
JP7139368B2 (ja) 2020-02-04 2022-09-20 株式会社日本製鋼所 プレス成形システムおよびプレス成形システムの成形条件値の設定方法
KR20220040597A (ko) * 2020-09-24 2022-03-31 하은테크(주) 버 제어를 위한 지능형 프레스 시스템
KR102501902B1 (ko) 2020-09-24 2023-02-21 하은테크(주) 버 제어를 위한 지능형 프레스 시스템
JP7484868B2 (ja) 2021-10-27 2024-05-16 横河電機株式会社 操業システム、操業方法、および、操業プログラム、ならびに、評価モデル生成装置、評価モデル生成方法、および、評価モデル生成プログラム
JP7459856B2 (ja) 2021-11-26 2024-04-02 横河電機株式会社 装置、方法およびプログラム

Also Published As

Publication number Publication date
CN110171159A (zh) 2019-08-27
US20190258982A1 (en) 2019-08-22
DE102019001044A1 (de) 2019-08-22

Similar Documents

Publication Publication Date Title
JP6680756B2 (ja) 制御装置及び機械学習装置
JP2019141869A (ja) 制御装置及び機械学習装置
JP6652549B2 (ja) 切粉除去装置及び情報処理装置
JP6557285B2 (ja) 制御装置及び機械学習装置
JP6767416B2 (ja) 加工条件調整装置及び機械学習装置
JP6923484B2 (ja) 加工条件調整装置及び機械学習装置
JP6499710B2 (ja) 加減速制御装置
JP6863930B2 (ja) 寿命予測装置及び機械学習装置
KR102224970B1 (ko) 제어 장치 및 기계 학습 장치
JP2018202564A (ja) 制御装置及び機械学習装置
JP2019185125A (ja) 制御装置及び機械学習装置
JP6781242B2 (ja) 制御装置、機械学習装置及びシステム
JP2018153872A (ja) 洗浄工程最適化装置及び機械学習装置
JP6659652B2 (ja) 加工条件調整装置及び機械学習装置
JP2019168973A (ja) 駆動装置及び機械学習装置
JP2019162712A (ja) 制御装置、機械学習装置及びシステム
JP6813532B2 (ja) シミュレーション装置
JP2019139755A (ja) 研磨工具摩耗量予測装置、機械学習装置及びシステム
JP6841852B2 (ja) 制御装置及び制御方法
JP2019204369A (ja) プログラマブルコントローラ及び機械学習装置
CN110174871B (zh) 控制装置、机器学习装置以及系统
JP6940425B2 (ja) 制御装置及び機械学習装置
JP2019184575A (ja) 測定動作パラメータ調整装置、機械学習装置及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190913

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121