JP6966501B2 - 工作機械および管理システム - Google Patents

工作機械および管理システム Download PDF

Info

Publication number
JP6966501B2
JP6966501B2 JP2019056920A JP2019056920A JP6966501B2 JP 6966501 B2 JP6966501 B2 JP 6966501B2 JP 2019056920 A JP2019056920 A JP 2019056920A JP 2019056920 A JP2019056920 A JP 2019056920A JP 6966501 B2 JP6966501 B2 JP 6966501B2
Authority
JP
Japan
Prior art keywords
unit
screen
voice
machine tool
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019056920A
Other languages
English (en)
Other versions
JP2020160586A (ja
Inventor
賀彦 樽井
嘉則 星野
泰明 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019056920A priority Critical patent/JP6966501B2/ja
Priority to US16/779,878 priority patent/US11314221B2/en
Priority to CN202010189655.3A priority patent/CN111736535B/zh
Priority to DE102020203541.5A priority patent/DE102020203541A1/de
Publication of JP2020160586A publication Critical patent/JP2020160586A/ja
Application granted granted Critical
Publication of JP6966501B2 publication Critical patent/JP6966501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40937Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of machining or material parameters, pocket machining
    • G05B19/40938Tool management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32026Order code follows article through all operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35453Voice announcement, oral, speech input

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Geometry (AREA)
  • Numerical Control (AREA)

Description

本発明は、工作機械および管理システムに関するものである。
従来、オペレータの音声を認識し、音声に基づいて選択した画面を表示する産業用ロボット用の操作盤が知られている(例えば、特許文献1参照。)。
また、音声認識の精度を学習によって向上する技術が提案されている(例えば、特許文献2および3参照。)。
特開2006−068865号公報 特開平07−219591号公報 特開2011−002656号公報
近年、工作機械において、工作機械の設定や操作等のための画面の数が増加している。そのため、所望の画面を表示させるために多数回の画面遷移の操作を必要とすることがあり、経験が浅いオペレータにとって所望の画面を表示させることが困難であることがある。画面の表示に音声認識を用いた場合、オペレータが所望する画面を多数の画面の中から音声のみに基づいて正確に判断することは難しい。
本開示の一態様は、工作機械であって、オペレータの音声が入力される音声入力部と、該音声入力部に入力された音声を認識する音声認識部と、前記音声入力部に前記音声が入力されたときの前記工作機械の動作状況を判断する状況判断部と、表示部と、複数の画面を記憶する記憶部と、該記憶部に記憶された前記複数の画面の中から、前記音声認識部によって認識された前記音声および前記状況判断部によって判断された前記工作機械の動作状況の組み合わせに応じた画面を選択し、選択された画面を前記表示部に表示させる画面選択部と、を備える、工作機械である。
一実施形態に係る工作機械のブロック図である。 工作機械の動作状況、オペレータの音声、および画面選択部によって選択される画面の例を示す図表である。 他の実施形態に係る管理システムのブロック図である。 他の実施形態に係る管理システムのブロック図である。
以下に、一実施形態に係る工作機械1について図面を参照して説明する。
工作機械1は、図1に示されるように、ワークを加工する機械本体2と、機械本体2を制御する数値制御装置(CNC)3と、を備える。
例えば、機械本体2は、治具によってワークが固定されるテーブルと、複数の工具を保持するタレットと、複数の工具を択一的に保持する主軸と、を備える。機械本体2は、テーブルおよび主軸を相対移動させることによって、回転する工具によってワークを加工する。また、機械本体2は、主軸とタレットとの間で工具を自動交換する機能を有する。
CNC3は、プロセッサを有する制御部4と、不揮発性ストレージ、ROMおよびRAM等を有する記憶部5と、を備える。記憶部5には、機械本体2の動作を制御するための加工プログラム5aが記憶されている。制御部4は、加工プログラム5aに従って機械本体2に制御指令を送信することによって、機械本体2に、工具によるワークの加工および工具交換等の加工プログラム5aに基づく動作を実行させる。
また、記憶部5には、オペレータが工作機械1の設定をしたり工作機械1を操作したりするための多数の画面5bが記憶されている。
工作機械1は、オペレータの音声が入力される音声入力部6と、音声入力部6に入力された音声を認識する音声認識部7と、工作機械1の動作状況を判断する状況判断部8と、表示部9と、音声および動作状況の組み合わせに基づき表示部9に表示させる画面を選択する画面選択部10と、選択された画面が正解であるか否かを表すラベルを決定するラベル決定部11と、ラベルに基づき、音声および動作状況の組み合わせと選択された画面との対応関係を学習する学習部12と、をさらに備える。
音声入力部6および表示部9は、例えば、機械本体2を覆う箱型のカバーの正面に設けられている。
音声認識部7、状況判断部8、画面選択部10、ラベル決定部11および学習部12は、CNC3に設けられている。音声認識部7、状況判断部8、画面選択部10、ラベル決定部11および学習部12は、CNC3と接続されCNC3と通信可能である情報処理装置に設けられていてもよい。音声認識部7、状況判断部8、画面選択部10、ラベル決定部11および学習部12はそれぞれ、プロセッサを備え、後述する処理をプロセッサによって実行する。学習部12は、記憶部5に記憶された学習プログラムであり、制御部4が学習プログラムに従って学習を行うことで学習部12の機能が実現されてもよい。
音声入力部6は、例えば、マイクロホンを備える。音声入力部6に入力された音声のデータは、音声認識部7に送信される。
表示部9は、オペレータが工作機械1の設定や操作を行うためのユーザインタフェースとして機能する。例えば、表示部9は、画面を表示するタッチパネルを備える。オペレータは、タッチパネルへのタッチ操作によって、表示された画面に対して入力操作を行ったり、画面を遷移させたりすることができる。
音声認識部7は、音声入力部6からの音声のデータを解析し、オペレータが発した言葉を認識する。例えば、音声認識部7は、音声のデータを文字列に変換し、音声を文字列として認識する。
状況判断部8は、音声入力部6に音声が入力されたときの工作機械1の動作状況を判断する。例えば、状況判断部8は、機械動作状態データ、周辺機器データおよび履歴データの少なくとも1つを取得し、取得されたデータに基づいて動作状況を判断する。
機械動作状態データは、機械本体2の現在の状態に関連するデータであり、記憶部5に記憶された加工プログラム5aおよびパラメータ5cの少なくとも1つを含む。機械動作状態データは、周辺機器20用のラダープログラムを含んでいてもよい。パラメータ5cは、機械本体2および周辺機器20に関してオペレータによって設定される設定パラメータ、ステージおよび主軸の位置等の機械本体2の現在の状態を表す状態パラメータ、その他様々なパラメータを含む。
周辺機器データは、工作機械1と周辺機器20との接続状況を表すデータを含む。周辺機器20は、機械本体2に取り付けられるか、または機械本体2の周辺に配置される。周辺機器20は、工作機械1と協働する機器であってもよく、工作機械1とは独立して動作する機器であってもよい。例えば、周辺機器20は、チップコンベア、ミストイータ、テーブルへのワークの取り付けおよびテーブルからのワークの取り出しを行うロボット、テーブルに設置される付加軸テーブルである。周辺機器20は、CNC3と接続される。
履歴データは、記憶部5に記憶された操作履歴5dおよびアラーム履歴5eを含む。操作履歴5dは、表示部9に対するオペレータによる操作の履歴である。アラーム履歴5eは、CNC3が発したアラームの履歴である。
画面選択部10は、記憶部5に記憶された学習モデル5gに基づき、記憶部5の多数の画面5bの中から、音声認識部7によって認識されたオペレータの音声と状況判断部8によって判断された工作機械1の動作状況との組み合わせに応じた画面を選択する。画面選択部10は、選択した画面を表示部9に送信し、表示部9に表示させる。
ラベル決定部11は、画面選択部10によって選択され表示部9に表示された画面が、オペレータが所望する正解の画面であるか否かを示すラベルを決定する。
ラベル決定部11によって決定されたラベルに基づき、記憶部5には、学習データ5fとして正解データが記憶される。正解データは、工作機械1の動作状況、音声、および正解の画面の組から構成される。オペレータの音声に応答して正解の画面が表示部9に表示される度に新たな正解データが追加されることによって、正解データが蓄積される。正解データに加えて、不正解データも記憶部5に記憶されてもよい。不正解データは、工作機械1の動作状況、音声および不正解の画面の組から構成される。
例えば、ラベル決定部11は、選択された画面が表示部9に表示された後のオペレータの操作に基づき、選択された画面が正解か不正解かを判断する。
選択された画面が正解である場合、通常、オペレータは、選択された画面に対して、ボタンの押下、メニューの選択または数値の入力等の入力操作を行う。したがって、選択された画面が表示部9に表示された後、他の画面に遷移することなく選択された画面に対して入力操作が行われた場合、ラベル決定部11は、選択された画面が正解であると判断する。
一方、選択された画面が不正解である場合、通常、オペレータは、選択された画面に対して入力操作を行うことなく、他の画面に遷移する。したがって、選択された画面が表示部9に表示された後、選択された画面に対して入力操作が行われることなく他の画面に遷移した場合、ラベル決定部11は、選択された画面が不正解であると判断する。
学習部12は、記憶部5に記憶された正解データに基づき、音声および工作機械1の動作状況の組み合わせと正解の画面との対応関係を学習することによって、音声および動作状況の組み合わせと画面との対応関係を示す学習モデル5gを作成する。
記憶部5に、初期学習データとして用意された正解データが予め記憶されていてもよい。この場合、学習部12は、初期学習データを用いて学習することによって学習モデル5gを作成する。その後、オペレータの音声に応答して正解の画面が表示部9に表示される度に、新たな正解データが初期学習データに追加される。学習部12は、初期学習データと追加された正解データとを用いて追学習することによって、学習モデル5gを随時更新する。
次に、工作機械1の作用について説明する。
オペレータは、表示部9に所望の画面を表示させたいとき、所望の画面と関連する言葉を発する。オペレータが発した言葉は、音声入力部6を経由して音声認識部7に送られ、音声認識部7によって認識される。また、オペレータが言葉を発したときの工作機械1の動作状況が、状況判断部8によって判断される。
次に、オペレータの音声と工作機械1の動作状況との組み合わせに対応する画面が、記憶部5内の多数の画面5bの中から画面選択部10によって学習モデル5gに基づいて選択され、選択された画面が表示部9に表示される。
一例において、状況判断部8は、機械動作状態データおよび履歴データの組み合わせに基づき、動作状況を判断する。履歴データは、それまでのオペレータの操作、工作機械1の動作、およびワーク等の特徴または傾向を表すことがある。したがって、機械動作状態データおよび履歴データの組み合わせに基づき、動作状況をより正確に判断することができる。
他の例において、状況判断部8は、機械動作状態データおよび周辺機器データの組み合わせに基づき、動作状況を判断する。工作機械1と協働する周辺機器20がCNC3に接続されている場合、周辺機器20の設定および操作用の画面が追加される。特に、ロボットの場合には、設定が複雑であるため、追加される画面の数が多い。このような場合、周辺機器データも判断材料にすることによって、適切な画面を選択することができる。
表示部9の操作によって所望の画面を表示部9に表示させるためには、多数回の画面遷移を必要とすることがある。したがって、不慣れなオペレータにとって、所望の画面に到達することが困難であることがある。本実施形態によれば、不慣れなオペレータであっても、所望の画面と関連する言葉を発するだけで、所望の画面を表示部9に表示させることができる。この場合に、オペレータの音声に加えて工作機械1の動作状況を考慮することによって、オペレータが所望する画面を正確に選択することができる。例えば、記憶部5に記憶される多数の画面5bの中に、複数の類似の画面や、同一の音声に対応する複数の画面が含まれている場合においても、オペレータが所望する画面を正確に判断し、適切な画面を表示部9に表示させることができる。
また、多数の画面5bの各々の名称を覚えることは、オペレータにとって困難である。本実施形態によれば、音声と動作状況との組み合わせに対応する画面が学習部12によって学習される。すなわち、学習によって、オペレータが発した任意の言葉が所望の画面と対応付けられる。したがって、オペレータは、画面の名称のような決められた言葉ではなく、曖昧な言葉によって所望の画面を表示させることができ、使いやすさを向上することができる。例えば、オペレータは、タレットの工具を交換後に工具の重量を設定したいとき、「工具重量を設定する画面」、「工具重さの画面」、「ツールが変わったときに出すやつ」または「いつもの」等のような音声によって、工具の重量を設定するための画面を表示部9に表示させることができる。
選択された画面が表示部9に表示された後、選択された画面が所望の画面である場合、オペレータは通常、選択された画面に対して入力操作を行う。
一方、選択された画面が所望の画面ではない場合、オペレータは通常、選択された画面から所望の画面に遷移した後、所望の画面に対して入力操作を行う。したがって、ラベル決定部11は、選択された画面が不正解であると判断した後、入力操作された遷移後の画面を正解の画面であると特定し、音声、動作状況および特定された正解の画面の組を正解データに追加してもよい。
図2は、工作機械1の動作状況、音声入力部6に入力されたオペレータの音声、および画面選択部10によって選択された画面の例を示している。
第1の例において、工作機械1の動作状況は、主軸に保持されたタップによるワークのリジッドタップ中に、例えばオペレータによる非常停止によって加工プログラム5aが停止したという状況である。この状況において、タップがワーク内にねじ込まれた状態でテーブルおよび主軸が停止している。オペレータは、タップを逆転させながらワークから抜き主軸を原点位置に復帰させるために、「復旧画面」と発語する。
状況判断部8は、上記動作状況を、例えば、制御部4による加工プログラム5aの進行状況、主軸およびテーブルの現在位置を表すパラメータ、非常停止ボタンの押下等に基づいて判断する。画面選択部10は、この動作状況と「復旧画面」の音声との組み合わせに基づいて「リジッドタップ戻し」画面を選択する。オペレータは、表示部9に表示された「リジッドタップ戻し」画面を操作することによって、タップを逆回転させながらワークから抜くことができる。
第2の例において、工作機械1の動作状況は、主軸とタレットとの間での工具の自動交換中に、例えばオペレータによる非常停止によって加工プログラム5aが停止したという状況である。工具交換時、タレットおよび主軸は工具交換位置にそれぞれ配置される。オペレータは、タレットを原点位置に復帰させるために、「復旧画面」と発語する。
状況判断部8は、上記動作状況を、例えば、制御部4による加工プログラム5aの進行状況、タレットおよび主軸の現在位置を示すパラメータ、非常停止ボタンの押下等に基づいて判断する。画面選択部10は、この動作状況と「復旧画面」の音声との組み合わせに基づいて「タレット復旧」画面を選択する。オペレータは、表示部9に表示された「タレット復旧」画面を操作することによって、タレットを原点位置に復帰させることができる。
第1の例および第2の例において、オペレータの音声は相互に同一であるが動作状況は相互に異なるため、表示部9に表示される画面は異なる。このように、音声に加えて動作状況を考慮することによって、オペレータが所望する画面を正確に判断し、適切な画面を表示部9に表示させることができる。
第3の例において、工作機械1の動作状況は、テーブルがX軸の原点位置に復帰していないという状況である。オペレータは、テーブルをX軸の原点位置に復帰させるために、「復旧画面」と発語する。
状況判断部8は、上記動作状況を、例えば、制御部4による加工プログラム5aの進行状況、テーブルの現在位置を示すパラメータ等に基づいて判断する。画面選択部10は、この動作状況と「復旧画面」の音声との組み合わせに基づいてX軸用の「原点復旧」画面を選択する。オペレータは、表示部9に表示されたX軸用の「原点復旧」画面を操作することによって、テーブルをX軸の原点位置に復帰させることができる。
第4の例において、工作機械1の動作状況は、テーブルがY軸の原点位置に復帰していないという状況である。オペレータは、テーブルをY軸の原点位置に復帰させるために、「復旧画面」と発語する。
状況判断部8は、上記動作状況を、例えば、制御部4による加工プログラム5aの進行状況、テーブルの現在位置を示すパラメータ等に基づいて判断する。画面選択部10は、この動作状況と「復旧画面」の音声との組み合わせに基づいてY軸用の「原点復旧」画面を選択する。オペレータは、表示部9に表示されたY軸用の「原点復旧」画面を操作することによって、テーブルをY軸の原点位置に復帰させることができる。
第3の例および第4の例において、オペレータの音声は相互に同一であるが動作状況は相互に異なるため、表示部9に表示される画面は異なる。このように、音声に加えて動作状況を考慮することによって、オペレータが所望する画面を正確に判断し、適切な画面を表示部9に表示させることができる。
第5の例において、工作機械1の動作状況は、オペレータによって作成されたラダープログラムのXアドレスおよびYアドレスが設定されていないという状況である。ラダープログラムは、周辺機器20を監視および制御するためのものであり、Xアドレスは周辺機器20からの入力信号に対応し、Yアドレスは出力信号に対応する。オペレータは、XアドレスおよびYアドレスを設定するために、「設定画面」と発語する。
状況判断部8は、上記動作状況を、例えば、記憶部5に記憶されたラダープログラムおよびアドレス(パラメータ)に基づいて判断する。画面選択部10は、この動作状況と「設定画面」の音声との組み合わせに基づいて「外部インタフェース」画面を選択する。オペレータは、表示部9に表示された「外部インタフェース」画面を操作することによって、ラダープログラムのXアドレスおよびYアドレスを設定することができる。
第6の例において、工作機械1の動作状況は、テーブルに設置された付加軸テーブルに関するパラメータが設定されていないという状況である。オペレータは、付加軸テーブルのパラメータを設定するために、「付加軸画面」と発語する。
状況判断部8は、上記動作状況を、例えば、CNC3への付加軸テーブルの接続状況および付加軸テーブルに関するパラメータに基づいて判断する。画面選択部10は、この動作状況と「付加軸画面」の音声との組み合わせに基づいて、付加軸パラメータを設定するための「パラメータ編集」画面を選択する。オペレータは、表示部9に表示された「パラメータ編集」画面を操作することによって、付加軸テーブルのパラメータを設定することができる。
第7の例において、工作機械1の動作状況は、ネットワーク設定画面を操作しIPアドレス等の設定した後に電源を再投入したところ、ネットワーク関係のアラームが発生したという状況である。オペレータは、「アラームを解除したい」と発語する。
状況判断部8は、上記動作状況を、例えば、アラームが発生している状態と、記憶部5に記憶された操作履歴5dと、基づいて判断する。画面選択部10は、この動作状況と「アラームを解除したい」の音声との組み合わせに基づいて、「ネットワーク設定」画面を選択する。オペレータは、表示部9に表示された「ネットワーク設定」画面を操作することによって、IPアドレス等の設定を修正しアラームを解除することができる。
第8の例において、工作機械1の動作状況は、工作機械1と連動して作業するロボットの制御装置からのデジタル出力(DO)信号によって、機械本体2の治具のクランプおよびアンクランプを制御しているという状況である。オペレータは、DO信号による治具の制御をロボットの操作教示盤による手動操作に切り替えるために、「治具の操作がしたい」と発語する。
状況判断部8は、上記動作状況を、例えば、制御部4によって実行されている加工プログラム5aと、CNC3へのロボットの接続状況等に基づいて判断する。画面選択部10は、この動作状況と「治具の操作がしたい」の音声との組み合わせに基づいて「デジタル出力」画面を選択し、「デジタル出力」画面を表示させるための指令を、通信ネットワーク等を経由してロボットの制御装置に送信する。ロボットの制御装置は、指令に応答して操作教示盤に「デジタル出力」画面を表示させる。オペレータは、教示操作盤に表示された「デジタル出力」画面を操作することによって、DO信号による制御から教示操作盤による手動操作に切り替えることができる。
このように、画面選択部10は、周辺機器20の表示部に表示される画面を選択してもよい。
前記実施形態において、画面選択部10は、音声および動作状況の組み合わせに応じて複数の画面を候補として選択し、優先順位の高い画面から順に表示部9に表示させてもよい。この場合、画面選択部10は、オペレータの「違う」または「次」等の音声に応答し、次点の画面を表示させてもよい。
優先順位は、例えば、音声に応答して画面が表示された後の操作者の操作に基づいて設定される。
例えば、第5の例の場合、「外部インタフェース」画面の表示後のオペレータの操作に基づいて、優先度が設定される。オペレータが、「外部インタフェース」画面に対して入力操作を行った場合、「外部インタフェース」画面の優先順位が1番に設定される。一方、オペレータが、「外部インタフェース」画面から「ラダープログラム編集」画面に遷移させ、「ラダープログラム編集」画面に対して入力操作を行った場合、「ラダープログラム編集」画面の優先順位が1番に設定され、「外部インタフェース」画面の優先順位が2番に設定される。
前記実施形態において、工作機械1は、ラベル決定部11および学習部12を備えていなくてもよい。この場合、多数の学習データを用いた学習によって得られた学習モデル5gが、記憶部5に記憶されていてもよい。
前記実施形態おいて、工作機械1は、学習部12による学習の結果である学習モデル5gを出力する送受信部(出力部)13を備え、送受信部13から学習部を有しない他の工作機械に学習モデル5gを送信してもよい。これにより、学習部を有しない他の工作機械においても、音声および動作状況の組み合わせに応じた最適な画面を学習モデル5gに基づいて選択し表示させることができる。
前記実施形態において、学習部12が、単一の工作機械1によって収集された学習データを用いて学習することとしたが、これに代えて、学習部12が、複数の工作機械1によって収集された学習データを用いて学習してもよい。図3および図4は、他の実施形態に係る管理システム100,200を示している。
図3に示される管理システム100は、複数の工作機械1A,1B,1Cを備える。一の工作機械1AのCNC3(制御装置)は、他の工作機械1B,1Cと接続され、他の工作機械1B,1Cから学習データを受信する。工作機械1Aの学習部12は、工作機械1A,1B,1Cの学習データを用いて学習し、学習モデルを送受信部13から出力する。工作機械1B,1Cは、送受信部(入力部)13によって工作機械1Aからの学習モデルを受信する。他の工作機械1B,1Cが学習部12を有する場合、他の工作機械1B,1Cは、受信した学習モデルを追学習によって更新し、更新された学習モデルに基づいて画面を選択してもよい。
図4に示される管理システム200は、複数の工作機械1A,1B,Cと、上位制御システム(制御装置)30と、を備える。管理システム200において、工作機械1A,1B,1Cは、エッジ装置であり、上位制御システム30は、複数の工作機械1A,1B,1Cと接続される。上位制御システムの例は、生産管理システム、出荷管理システム、ロボット用管理システム、部門管理システム等であり得る。上位制御システムは、プロセッサ等を有する制御部と、表示装置と、不揮発性ストレージ、ROM、RAM等を有する記憶部と、キーボード、タッチパネル、操作盤等である入力装置等を備える。上位制御システムは、クラウドサーバであってもよい。
上位制御システム30は、学習部12と、送受信部13と、を有する。上位制御システム30は、複数の工作機械1A,1B,1Cから学習データを受信し、学習データを記憶部に蓄積し、蓄積された学習データを集約する。管理システム200に含まれる各工作機械1A,1B,Cは、学習部12を有していてもよく、学習部12を有していなくてもよい。上位制御システム30は、集約された学習データを用いた学習によって学習モデルを作成し、学習モデルを各工作機械1A,1B,1Cに送信してもよい。
1つの工作機械1に蓄積される学習データには偏りが生じ得る。例えば、オペレータ毎に画面を呼び出すための言葉が異なるため、学習データは、オペレータの傾向の影響を受けやすい。偏りのある学習データから得られた学習モデルは、他のオペレータにも適しているとは限らない。複数の工作機械1A,1B,1Cから集約した学習データを用いることによって、より汎用性の高い学習モデルを作成することができる。
1,1A,1B,1C 工作機械
2 機械本体
3 数値制御装置(制御装置)
4 制御部
5 記憶部
6 音声入力部
7 音声認識部
8 状況判断部
9 表示部
10 画面選択部
11 ラベル決定部
12 学習部
13 送受信部(出力部、入力部)
20 周辺機器
30 上位制御システム(制御装置)
100,200 管理システム

Claims (12)

  1. 工作機械であって、
    オペレータの音声が入力される音声入力部と、
    該音声入力部に入力された音声を認識する音声認識部と、
    前記音声入力部に前記音声が入力されたときの前記工作機械の動作状況を判断する状況判断部と、
    表示部と、
    複数の画面を記憶する記憶部と、
    該記憶部に記憶された前記複数の画面の中から、前記音声認識部によって認識された前記音声および前記状況判断部によって判断された前記工作機械の動作状況の組み合わせに応じた画面を選択し、選択された画面を前記表示部に表示させる画面選択部と、を備える、工作機械。
  2. 前記状況判断部が、機械動作状態データ、周辺機器データおよび履歴データの少なくとも1つに基づいて前記動作状況を判断し、
    前記機械動作状態データが、前記記憶部に記憶された加工プログラムおよびパラメータの少なくとも1つを含み、
    前記周辺機器データが、周辺機器の前記工作機械との接続状況を含み、
    前記履歴データが、前記記憶部に記憶されたオペレータによる操作履歴およびアラーム履歴の少なくとも1つを含む、請求項1に記載の工作機械。
  3. 前記状況判断部が、前記機械動作状態データおよび前記履歴データに基づいて前記動作状況を判断する、請求項2に記載の工作機械。
  4. 前記状況判断部が、前記機械動作状態データおよび前記周辺機器データに基づいて前記動作状況を判断する、請求項2に記載の工作機械。
  5. 前記周辺機器が、前記工作機械と連動して作業するロボットを含む、請求項4に記載の工作機械。
  6. 前記画面選択部によって選択された画面が、前記オペレータが所望する正解の画面であるか否かを示すラベルを決定するラベル決定部と、
    前記音声認識部によって認識された前記音声、前記状況判断部によって判断された前記動作状況および前記ラベル決定部によって決定された前記ラベルに基づき、前記音声および前記動作状況の組み合わせと前記画面との対応関係を学習する学習部と、を備える、請求項1から請求項5のいずれかに記載の工作機械。
  7. 前記学習部による学習の結果を出力する出力部をさらに備える、請求項6に記載の工作機械。
  8. 前記出力部が、前記学習の結果を他の工作機械に出力する、請求項7に記載の工作機械。
  9. 前記出力部が、前記学習の結果を上位制御システムに出力する、請求項7に記載の工作機械。
  10. 工作機械と、
    制御装置と、を備え、
    前記工作機械は、
    オペレータの音声が入力される音声入力部と、
    該音声入力部に入力された音声を認識する音声認識部と、
    前記音声入力部に前記音声が入力されたときの前記工作機械の動作状況を判断する状況判断部と、
    表示部と、
    複数の画面を記憶する記憶部と、
    該記憶部に記憶された前記複数の画面の中から、前記音声認識部によって認識された前記音声および前記状況判断部によって判断された前記工作機械の動作状況の組み合わせに応じた画面を選択し、選択された画面を前記表示部に表示させる画面選択部と、
    該画面選択部によって選択された画面が、前記オペレータが所望する正解の画面であるか否かを示すラベルを決定するラベル決定部と、
    前記音声認識部によって認識された前記音声、前記状況判断部によって判断された前記動作状況および前記ラベル決定部によって決定された前記ラベルを学習データとして出力する出力部と、を備え、
    前記制御装置が、
    前記工作機械の前記出力部から前記学習データを受け取る入力部と、
    前記学習データに基づき、前記音声および前記動作状況の組み合わせと前記画面との対応関係を学習する学習部と、を備える管理システム。
  11. 複数の工作機械を備え、
    前記制御装置が、前記複数の工作機械のいずれかの数値制御装置であり、前記学習部による学習の結果を他の工作機械に送信する、請求項10に記載の管理システム。
  12. 複数の工作機械と、該複数の工作機械と接続された上位制御システムとを備え、
    前記制御装置が、前記上位制御システムであり、前記学習部による学習の結果を前記複数の工作機械の各々に送信する、請求項10に記載の管理システム。
JP2019056920A 2019-03-25 2019-03-25 工作機械および管理システム Active JP6966501B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019056920A JP6966501B2 (ja) 2019-03-25 2019-03-25 工作機械および管理システム
US16/779,878 US11314221B2 (en) 2019-03-25 2020-02-03 Machine tool and management system
CN202010189655.3A CN111736535B (zh) 2019-03-25 2020-03-18 机床和管理系统
DE102020203541.5A DE102020203541A1 (de) 2019-03-25 2020-03-19 Werkzeugmaschine und Verwaltungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019056920A JP6966501B2 (ja) 2019-03-25 2019-03-25 工作機械および管理システム

Publications (2)

Publication Number Publication Date
JP2020160586A JP2020160586A (ja) 2020-10-01
JP6966501B2 true JP6966501B2 (ja) 2021-11-17

Family

ID=72605827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056920A Active JP6966501B2 (ja) 2019-03-25 2019-03-25 工作機械および管理システム

Country Status (4)

Country Link
US (1) US11314221B2 (ja)
JP (1) JP6966501B2 (ja)
CN (1) CN111736535B (ja)
DE (1) DE102020203541A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639638A (zh) * 2018-09-07 2021-04-09 株式会社牧野铣床制作所 机床的控制装置
JPWO2022269760A1 (ja) 2021-06-22 2022-12-29

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695831A (ja) * 1992-09-11 1994-04-08 Komatsu Ltd インテリジェント型表示操作パネル
JPH07219591A (ja) 1994-01-28 1995-08-18 Canon Inc 音声処理装置および方法
US5577164A (en) 1994-01-28 1996-11-19 Canon Kabushiki Kaisha Incorrect voice command recognition prevention and recovery processing method and apparatus
US5991726A (en) * 1997-05-09 1999-11-23 Immarco; Peter Speech recognition devices
JP2001175320A (ja) * 1999-12-21 2001-06-29 Mitsubishi Electric Corp プラント監視装置
DE10051450A1 (de) * 2000-01-27 2001-08-16 Siemens Ag System und Verfahren zur Sprachverarbeitung
JP2006068865A (ja) * 2004-09-03 2006-03-16 Yaskawa Electric Corp 産業用ロボットのプログラミングペンダント
ZA200801178B (en) * 2005-08-05 2009-06-24 Microsoft Corp Selective confirmation for execution of a voice activated user interface
JP2011002656A (ja) 2009-06-18 2011-01-06 Nec Corp 音声認識結果修正候補検出装置、音声書き起こし支援装置、方法及びプログラム
JP5187419B2 (ja) 2011-07-28 2013-04-24 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および操作項目判別テーブル共有方法
CN103246648B (zh) * 2012-02-01 2016-04-20 腾讯科技(深圳)有限公司 语音输入控制方法及装置
US10019991B2 (en) * 2012-05-02 2018-07-10 Electronics And Telecommunications Research Institute Apparatus and method for speech recognition
CN103869931B (zh) * 2012-12-10 2017-02-08 三星电子(中国)研发中心 语音控制用户界面的方法及装置
US20170010778A1 (en) * 2014-03-20 2017-01-12 Mitsubishi Electric Corporation Action design apparatus and computer readable medium
CN105023575B (zh) * 2014-04-30 2019-09-17 中兴通讯股份有限公司 语音识别方法、装置和系统
JP6290835B2 (ja) 2015-08-27 2018-03-07 ファナック株式会社 数値制御装置及び機械学習器
CN106293600A (zh) * 2016-08-05 2017-01-04 三星电子(中国)研发中心 一种语音控制方法及系统
JP6557282B2 (ja) * 2017-05-17 2019-08-07 ファナック株式会社 工作機械制御装置及び生産システム
JP7218192B2 (ja) 2019-01-31 2023-02-06 シャープ株式会社 画像形成装置

Also Published As

Publication number Publication date
US11314221B2 (en) 2022-04-26
US20200310381A1 (en) 2020-10-01
JP2020160586A (ja) 2020-10-01
DE102020203541A1 (de) 2020-10-01
CN111736535A (zh) 2020-10-02
CN111736535B (zh) 2024-06-07

Similar Documents

Publication Publication Date Title
EP2081096B1 (en) Controller of work piece-conveying robot
JP6966501B2 (ja) 工作機械および管理システム
JP4302100B2 (ja) ソフトウェアplc接点処理の可能な工作機械用制御装置および処理方法
US10870203B2 (en) Machine tool control device and production system
EP2614420B1 (en) Multimodal user notification system to assist in data capture
EP1426147B1 (en) Industrial robot with means for detecting an operation command
WO2014155723A1 (ja) 数値制御装置
TWI790648B (zh) 用於智慧型工業輔助的方法、系統、及電腦程式產品
KR20060077385A (ko) 수치제어장치의 음성처리 시스템 및 방법
US20200338737A1 (en) Robot teaching device
JP6674076B1 (ja) 工作機械、工作機械のための入力支援方法、及び工作機械のためのプログラム
WO2023042277A1 (ja) 操作訓練装置、操作訓練方法、およびコンピュータ読み取り可能な記憶媒体
CN105808177A (zh) 基于语音识别的条码生成打印方法及系统
WO2023042249A1 (ja) 工作機械、制御方法、および制御プログラム
JP6824454B1 (ja) 工作システム、工作機械、および、制御プログラム
JPS6199529A (ja) パンチプレスの工具寿命管理装置
EP3485491A1 (en) Factory automation system and programmable logic controller
JP2005037597A (ja) 設備の制御システム
US20240152117A1 (en) Cell controller
WO2022269760A1 (ja) 音声認識装置
JP2002120125A (ja) 工具交換装置の自動復帰システムおよび方法
JPS60179803A (ja) 数値制御装置におけるプログラム編集修正方法
WO2023007581A1 (ja) 数値制御装置
WO2021161831A1 (ja) 表示制御システム
JP2019211843A (ja) ラダー表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211021

R150 Certificate of patent or registration of utility model

Ref document number: 6966501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150