JP2020187708A - Machine tool, behavior type determination method and behavior type determination program - Google Patents
Machine tool, behavior type determination method and behavior type determination program Download PDFInfo
- Publication number
- JP2020187708A JP2020187708A JP2019093834A JP2019093834A JP2020187708A JP 2020187708 A JP2020187708 A JP 2020187708A JP 2019093834 A JP2019093834 A JP 2019093834A JP 2019093834 A JP2019093834 A JP 2019093834A JP 2020187708 A JP2020187708 A JP 2020187708A
- Authority
- JP
- Japan
- Prior art keywords
- work
- machine tool
- state
- person
- action type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000009471 action Effects 0.000 claims description 154
- 238000012545 processing Methods 0.000 claims description 69
- 238000004140 cleaning Methods 0.000 claims description 23
- 238000012850 discrimination method Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 13
- 238000009434 installation Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 26
- 238000004458 analytical method Methods 0.000 description 48
- 238000003860 storage Methods 0.000 description 43
- 230000006399 behavior Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 28
- 238000012546 transfer Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000032258 transport Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000003754 machining Methods 0.000 description 4
- 230000003936 working memory Effects 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Abstract
Description
本開示は、工作機械で作業を行っている作業者の行動種別を判別するための技術に関する。 The present disclosure relates to a technique for determining a behavior type of a worker working on a machine tool.
工作機械の稼働状況を収集することが求められている。収集された稼働状況は、たとえば、工作機械の設計思想やワークの生産工程を見直すために用いられる。 It is required to collect the operating status of machine tools. The collected operating conditions are used, for example, to review the design concept of machine tools and the production process of workpieces.
工作機械の稼働状況を詳細に分析するためには、ワークを加工するのに要した加工時間だけでなく、作業者が各作業工程で要した作業時間など、種々の稼働状況を収集する必要がある。作業者が各作業工程で要した作業時間を把握するためには、作業者の行動種別をより細かく判別する必要がある。 In order to analyze the operating status of machine tools in detail, it is necessary to collect various operating conditions such as the working time required for each work process by the worker as well as the machining time required to process the workpiece. is there. In order for the worker to grasp the work time required for each work process, it is necessary to discriminate the action type of the worker in more detail.
このような技術に関し、特開2013−73279号公報(特許文献1)は、製造装置の稼働状況を分類するためのデータ処理装置を開示している。より具体的には、当該データ処理装置は、ワークの保持手段についてワークの保持状態を検出し、当該保持手段がワークを保持しているのにも関わらず、製造装置が加工を行っていない場合に、製造装置が待機中である準備状態と判別する。 Regarding such a technique, Japanese Patent Application Laid-Open No. 2013-73279 (Patent Document 1) discloses a data processing device for classifying the operating status of a manufacturing device. More specifically, when the data processing device detects the holding state of the work with respect to the holding means of the work, and the manufacturing device does not perform processing even though the holding means holds the work. In addition, it is determined that the manufacturing apparatus is in the standby state.
特許文献1に開示されるデータ処理装置のように、ワークの把持状態だけでは、判別可能な作業者の行動が限られる。このような問題点を解決するために、工作機械の作業者の行動種別をより詳細に判別することが望まれている。
As in the data processing device disclosed in
本開示の一例では、ワークを加工するための工作機械は、上記ワークに対して人物が作業を行うための作業エリアと、上記作業エリアにいる人物の動きを検出するための人感センサと、上記工作機械を制御するための制御装置とを備える。上記制御装置は、上記工作機械の状態を示す状態値を取得するための取得部と、上記人感センサの出力値と、上記取得部によって取得された状態値と基づいて、上記作業エリアにいる人物の行動種別を判別するための判別部とを含む。 In one example of the present disclosure, a machine tool for processing a work includes a work area for a person to work on the work, a motion sensor for detecting the movement of a person in the work area, and the like. It is provided with a control device for controlling the machine tool. The control device is in the work area based on an acquisition unit for acquiring a state value indicating the state of the machine tool, an output value of the motion sensor, and a state value acquired by the acquisition unit. Includes a discriminating unit for discriminating the behavior type of a person.
本開示の一例では、上記判別部が判別可能な行動種別は、上記作業エリアにいる人物が上記ワークに対して作業を行っていることを示す段取り作業中を含む。 In one example of the present disclosure, the action type that can be discriminated by the discriminating unit includes during setup work indicating that a person in the work area is working on the work.
本開示の一例では、上記工作機械は、さらに、上記工作機械に対する操作を受け付けるための操作部を備える。上記状態値は、上記操作部の操作状態を含む。上記判別部は、上記人感センサによって上記作業エリアにいる人物の動きが検出され、かつ、上記操作状態が操作中であることを示す場合に、上記行動種別が上記段取り作業中であると判別する。 In one example of the present disclosure, the machine tool further comprises an operating unit for receiving an operation on the machine tool. The state value includes the operation state of the operation unit. When the movement of the person in the work area is detected by the motion sensor and the operation state indicates that the operation is in progress, the discrimination unit determines that the action type is in the setup work. To do.
本開示の一例では、上記判別部が判別可能な行動種別は、上記作業エリアにいる人物が清掃を行っていることを示す清掃作業中を含む。上記取得部は、上記人感センサによって上記作業エリアにいる人物の動きが検出され、かつ、上記操作状態が非操作中であることを示す場合に、上記行動種別が上記清掃作業中であると判別する。 In one example of the present disclosure, the action type that can be discriminated by the discriminating unit includes during cleaning work indicating that a person in the work area is cleaning. When the movement of the person in the work area is detected by the motion sensor and the operation state indicates that the operation state is not being operated, the acquisition unit determines that the action type is the cleaning operation. Determine.
本開示の一例では、上記工作機械は、上記ワークの設置場所と上記作業エリアとの間を区切る開閉可能なドアと、上記ドアの開閉状態を検出するための開閉センサとを含む。上記状態値は、上記開閉センサによって検出される上記開閉状態を含む。上記判別部は、上記人感センサによって上記作業エリアにいる人物の動きが検出され、かつ、上記開閉状態が上記ドアの開状態を示す場合に、上記行動種別が上記段取り作業中であると判別する。 In one example of the present disclosure, the machine tool includes an openable / closable door that separates the work installation location and the work area, and an open / close sensor for detecting the open / closed state of the door. The state value includes the open / close state detected by the open / close sensor. When the movement of the person in the work area is detected by the motion sensor and the open / closed state indicates the open state of the door, the discriminating unit determines that the action type is in the setup work. To do.
本開示の一例では、上記判別部が判別可能な行動種別は、上記作業エリアにいる人物が清掃を行っていることを示す清掃作業中を含む。上記判別部は、上記人感センサによって上記作業エリアにいる人物の動きが検出され、かつ、上記開閉状態が上記ドアの閉状態を示す場合に、上記行動種別が上記清掃作業中であると判別する。 In one example of the present disclosure, the action type that can be discriminated by the discriminating unit includes during cleaning work indicating that a person in the work area is cleaning. When the movement of a person in the work area is detected by the motion sensor and the open / closed state indicates the closed state of the door, the discriminating unit determines that the action type is in the cleaning operation. To do.
本開示の一例では、上記判別部が判別可能な行動種別は、上記作業エリアにおいて人物が行動不能であることを示す行動不能状態を含む。上記判別部は、上記人感センサによる出力値が所定時間内に変化せず、かつ、上記取得部によって取得される上記状態値が所定時間内に変化しない場合に、上記行動種別が上記行動不能状態であると判別する。 In one example of the present disclosure, the action type that can be discriminated by the discriminating unit includes an incapacitating state indicating that the person is incapacitated in the work area. In the discriminating unit, when the output value by the motion sensor does not change within a predetermined time and the state value acquired by the acquisition unit does not change within a predetermined time, the action type is disabled. Determine that it is in a state.
本開示の他の例では、工作機械内にいる人物の行動種別の判別方法が提供される。上記工作機械は、加工対象のワークに対して上記人物が作業を行うための作業エリアと、上記作業エリアにいる上記人物の動きを検出するための人感センサとを備える。上記判別方法は、上記人感センサの出力値を取得するステップと、上記工作機械の状態を示す状態値を取得するステップと、上記人感センサの出力値と、上記状態値と基づいて、上記作業エリアにいる人物の行動種別を判別するステップとを備える。 Another example of the present disclosure provides a method of determining the behavior type of a person in a machine tool. The machine tool includes a work area for the person to work on the work to be machined, and a motion sensor for detecting the movement of the person in the work area. The discrimination method is based on the step of acquiring the output value of the motion sensor, the step of acquiring the state value indicating the state of the machine tool, the output value of the motion sensor, and the state value. It includes a step of determining the action type of a person in the work area.
本開示の他の例では、工作機械内にいる人物の行動種別の判別プログラムが提供される。上記工作機械は、加工対象のワークに対して上記人物が作業を行うための作業エリアと、上記作業エリアにいる上記人物の動きを検出するための人感センサとを備える。上記判別プログラムは、上記工作機械に、上記人感センサの出力値を取得するステップと、上記工作機械の状態を示す状態値を取得するステップと、上記人感センサの出力値と、上記状態値と基づいて、上記作業エリアにいる人物の行動種別を判別するステップとを実行させる。 In another example of the present disclosure, a program for determining the behavior type of a person in a machine tool is provided. The machine tool includes a work area for the person to work on the work to be machined, and a motion sensor for detecting the movement of the person in the work area. The discrimination program has a step of acquiring the output value of the motion sensor, a step of acquiring a state value indicating the state of the machine tool, an output value of the motion sensor, and the state value of the machine tool. Based on the above, the step of determining the action type of the person in the work area is executed.
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objectives, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention as understood in connection with the accompanying drawings.
以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the following description, the same parts and components are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of these will not be repeated. In addition, each embodiment and each modification described below may be selectively combined as appropriate.
<A.工作機械10の外観>
図1を参照して、実施の形態に従う工作機械10について説明する。図1は、工作機械10の外観を示す図である。
<A. Appearance of
A
以下では、工作機械10の一例として、予め定められたスケジュールに従って加工対象のワークを自動で搬送する機能を有するパレット搬送システムについて説明を行うが、工作機械10は、パレット搬送システムに限定されない。工作機械10は、たとえば、ワークの自動搬送機能を有さない加工機であってもよいし、パレット搬送機能の代わりにアームロボットを備える加工機であってもよい。
Hereinafter, as an example of the
パレット搬送システムとしての工作機械10は、1つ以上の制御装置50と、1つ以上の収納部200と、1つ以上の搬送装置300と、1つ以上の加工機400と、1つ以上の作業ステーション500とを含む。
The
収納部200は、搬送装置300によるパレットPLの搬送先の1つであり、パレットPLを収納するための場所である。収納部200には、複数のパレットPLが収納され得る。収納部200には、ワークが取り付けられる前の空のパレットや、加工前のワークが取り付けられているパレットや、加工途中のワークが取り付けられているパレットや、加工済みのワークが取り付けられたパレットなどが収納される。
The
搬送装置300は、指定されたパレットPLを指定された場所に搬送する。より具体的には、搬送装置300は、レール330と、台車331とを含む。台車331は、レール330と直交方向(すなわち、台車331の走行方向に直交する方向)に駆動可能に構成されるフォーク部333を有する。台車331は、たとえば、後述のサーボモータ335(図2参照)によってレール330に沿って移動可能に構成される。台車331は、レール330に沿って搬送対象のパレットPLの位置まで移動し、フォーク部333を用いて搬送対象のパレットPLを台車331上に載せる。その後、台車331は、レール330に沿って指定された搬送先まで移動し、フォーク部333を用いて搬送対象のパレットPLを搬送先に搬入する。
The
加工機400は、搬送装置300によるパレットPLの搬送先の1つである。加工機400は、予め設計された加工プログラムに従って、搬入されたパレットPLに取り付けられているワークを加工する。ワークの加工が完了すると、加工機400内のパレットPLは、搬送装置300によって収納部200または作業ステーション500に搬送される。また、加工機400には、加工機400に対する種々の操作を受け付ける操作盤430が設けられている。
The
作業ステーション500は、搬送装置300によるパレットPLの搬送先の1つである。作業ステーション500は、搬入されてきたパレットPLに対して作業者が種々の作業を行うための作業エリアである。作業ステーション500において、作業者は、搬入されたパレットPLに対して加工対象のワークを取り付ける作業や、加工が完了したワークをパレットPLから取り外す作業や、作業エリアの清掃などを行う。作業者は、パレットPLに対する作業が完了すると、作業完了を指示するための操作を行う。これに基づいて、作業ステーション500内のパレットPLは、搬送装置300によって収納部200または加工機400に搬送される。
The
<B.工作機械10の装置構成>
図2は、工作機械10の装置構成の一例を示す図である。図2を参照して、工作機械10の装置構成の一例について説明する。
<B. Equipment configuration of
FIG. 2 is a diagram showing an example of the device configuration of the
図2に示されるように、工作機械10は、制御装置50と、リモートI/O(Input/Output)ユニット61〜64と、搬送装置300と、加工機400と、作業ステーション500とを含む。
As shown in FIG. 2, the
本明細書でいう「制御装置50」とは、工作機械10を制御する装置を意味する。制御装置50の装置構成は、任意である。制御装置50は、単体の制御ユニットで構成されてもよいし、複数の制御ユニットで構成されてもよい。図2の例では、制御装置50は、コントロールシステム100と、制御盤150とで構成されている。
The “
制御盤150は、加工工程を自動化するための種々の産業用機器を制御する。制御盤150は、PLC151を含む。
The
コントロールシステム100およびPLC151は、ネットワークNW1に接続される。コントロールシステム100およびPLC151は、有線で通信接続されてもよいし、無線で通信接続されてもよい。ネットワークNW1には、EtherNET(登録商標)などが採用される。コントロールシステム100は、ネットワークNW1を介して、PLC151に制御指令を送る。コントロールシステム100は、当該制御指令によって、搬送対象のパレットPLの指定や、搬送対象のパレットPLの搬送先の指定や、搬送対象のパレットPLの搬送開始/停止の指定、加工機400による加工の加工開始/停止の指定などを行う。
The
リモートI/Oユニット61〜64およびPLC151は、ネットワークNW2に接続されている。ネットワークNW2には、定周期通信を行うフィールドネットワークを採用することが好ましい。フィールドネットワークは、データの到達時間が保証されているネットワークの通称である。フィールドネットワークとして、EtherCAT(登録商標)、EtherNet/IP(登録商標)、CC−Link(登録商標)、またはCompoNet(登録商標)などが採用される。 The remote I / O units 61-64 and PLC151 are connected to the network NW2. It is preferable to adopt a field network that performs constant periodic communication for the network NW2. A field network is a common name for a network in which the arrival time of data is guaranteed. As the field network, EtherCAT (registered trademark), EtherNet / IP (registered trademark), CC-Link (registered trademark), CompoNet (registered trademark) and the like are adopted.
搬送装置300は、1つ以上のサーボドライバ334と、1つ以上のサーボモータ335とを含む。搬送装置300内または搬送装置300周辺には、リモートI/Oユニット61が設置される。リモートI/Oユニット61は、搬送装置300内の各種駆動ユニット(たとえば、サーボドライバ334)と、PLC151との間のデータのやり取りを仲介する。サーボドライバ334は、リモートI/Oユニット61を介してPLC151からの制御指令を一定周期ごとに受け、当該制御指令に従って、サーボモータ335を駆動制御する。一例として、一つのサーボモータ335は、上述の台車331(図1参照)を駆動制御し、もう一つのサーボモータ335は、上述のフォーク部333(図1参照)を駆動制御する。
The
加工機400は、CNC(Computer Numerical Control)401と、サーボドライバ411と、サーボモータ412と、操作盤430とを含む。加工機400内または加工機400周辺には、リモートI/Oユニット62が設置される。リモートI/Oユニット62は、加工機400内の各種駆動ユニット(たとえば、CNC401や操作盤430)と、PLC151との間のデータのやり取りを仲介する。サーボドライバ411は、リモートI/Oユニット62を介してPLC151からの制御指令を一定周期ごとに受け、当該制御指令に従って、サーボモータ412を駆動制御する。操作盤430は、作業者から受けた操作入力をリモートI/Oユニット62を介してPLC151に送信する。
The
作業ステーション500は、人感センサ530と、その他の各種センサ550とを含む。作業ステーション500内または作業ステーション500周辺には、リモートI/Oユニット63,64が設置される。
The
リモートI/Oユニット63は、人感センサ530とPLC151との間のデータのやり取りを仲介する。人感センサ530は、作業ステーション500にいる作業者の動作状態を検出する。図2の例では、人感センサ530は、画像処理装置532と、カメラ534とで構成される。人感センサ530による作業者の動作状態を検出する方法の詳細については後述する。画像処理装置532は、検出した動作状態をリモートI/Oユニット63を介してPLC151に一定周期ごとに送る。
The remote I /
なお、図2には、人感センサ530が画像処理装置532とカメラ534とで構成される例が示されているが、人感センサ530は、図2の例に限定されず、作業者の動作状態を検出することが可能な任意の人感センサで代用され得る。一例として、人感センサ530は、作業ステーション500の床下の各箇所に配置されるロードセルであってもよい。ロードセルは、作業ステーション500の床に与えられる力を検出する。ロードセルの検出値が所定値を超えた場合、当該ロードセルの上に作業者がいることを意味する。各箇所のロードセルの検出結果が総合的に分析されることで、作業者の動作状態が検出され得る。
Note that FIG. 2 shows an example in which the
リモートI/Oユニット64は、各種センサ550とPLC151との間のデータのやり取りを仲介する。各種センサ550は、工作機械10の状態を検出するための任意のセンサである。各種センサ550は、たとえば、後述の開閉センサ541(図5および図6参照)や、後述のクランプセンサ543(図5および図6参照)や、後述のエリアセンサ545(図5参照)などを含む。各種センサ550の検出値は、リモートI/Oユニット64介してPLC151に一定周期ごとに送られる。
The remote I /
<C.行動判別機能>
工作機械の稼働状況を正確に分析するためには、作業者が各作業工程で要した作業時間を収集する必要がある。そのためには、作業者が作業ステーション500で行った行動種別をより細かく判別する必要がある。本実施の形態に従う工作機械10は、工作機械10の状態を示す状態値(以下、「工作機械状態値」ともいう。)を取得し、当該工作機械状態値と、上述の人感センサ530の出力値とに基づいて、作業ステーション500に存在する作業者の行動種別を判別する。
<C. Behavior discrimination function>
In order to accurately analyze the operating status of machine tools, it is necessary for workers to collect the work time required for each work process. For that purpose, it is necessary to discriminate the action type performed by the worker at the
ここでいう「工作機械状態値」とは、稼働中の工作機械10がどのような状態にあるかを特定するための任意の指標である。典型的には、工作機械状態値は、工作機械10に対する作業者の作業状況や操作指示に応じて変化する物理量、またはプログラム内に規定される各種の変数値(たとえば、加工中/非加工中を示す変数値)である。工作機械状態値の詳細については後述する。
The "machine tool state value" referred to here is an arbitrary index for specifying the state of the
工作機械10は、人感センサ530による作業者の検出結果と工作機械状態値との2つの情報を用いた場合には、1つの情報を用いた場合よりも、当該作業者の行動種別をより細かく分類することができる。このような行動種別の分類結果は、たとえば、作業者が各作業工程に要した作業時間を分析するために用いられる。設計者や管理者は、より細かく分類された作業工程別の作業時間を把握することで工作機械の稼働状況を正確に分析することができ、工作機械の設計思想やワークの生産工程を見直すことができる。
When the
図3は、行動判別機能を実現するための機能構成の一例を示す図である。制御装置50は、機能構成として、取得部152と、行動判別部154とを含む。これらの機能構成は、たとえば、制御装置50を構成するコントロールシステム100またはPLC151に実装される。ある局面において、取得部152および行動判別部154の一方の機能がコントロールシステム100に実装され、他方の機能がPLC151に実装される。他の局面において、取得部152および行動判別部154の両方がコントロールシステム100に実装される。他の局面において、取得部152および行動判別部154の両方がPLC151に実装される。
FIG. 3 is a diagram showing an example of a functional configuration for realizing the behavior discrimination function. The
画像処理装置532は、機能構成として、人物検出部552と、動作解析部554とを含む。なお、人物検出部552および動作解析部554は、画像処理装置532ではなく、制御装置50に実装されてもよい。
The
以下では、取得部152の機能、人物検出部552の機能、動作解析部554の機能、および、行動判別部154の機能について順に説明する。
Hereinafter, the function of the
(C1.取得部152)
まず、取得部152の機能について説明する。取得部152は、上述の各種センサ550(図2参照)から、工作機械10の状態を示す状態値(すなわち、工作機械状態値)を取得する。取得部152は、1種類の工作機械状態値を取得するように構成されてもよいし、複数種類の工作機械状態値を取得するように構成されてもよい。取得された工作機械状態値は、行動判別部154に出力される。
(C1. Acquisition unit 152)
First, the function of the
以下では、取得部152によって取得される工作機械状態値の具体例1〜4について順に説明する。
Hereinafter, specific examples 1 to 4 of the machine tool state values acquired by the
(a)工作機械状態値の具体例1
まず、図4を参照して、工作機械状態値の具体例1について説明する。図4は、工作機械10を構成する加工機400と、作業者U1とを示す図である。
(A) Specific example of machine
First, a specific example 1 of the machine tool state value will be described with reference to FIG. FIG. 4 is a diagram showing a
図4に示されるように、加工機400には、操作盤430(操作部)が設けられている。操作盤430は、加工機400に対する種々の操作を受け付ける。図4の例では、操作盤430は、作業者U1によって操作されている。
As shown in FIG. 4, the
取得部152は、作業者U1による操作盤430の操作状態を工作機械状態値として取得する。典型的には、取得部152は、操作盤430に入力された操作内容を操作盤430から取得し、操作盤430が操作中であるか非操作中であるかを判断する。一例として、取得部152は、操作盤430に対する操作入力が一定時間以上ない場合に非操作中であると判断し、そうでない場合には操作中であると判断する。これにより、取得部152は、操作中または非操作中を示す操作状態を工作機械状態値として取得する。
The
(b)工作機械状態値の具体例2
次に、図5および図6を参照して、工作機械状態値の具体例2について説明する。図5は、作業ステーション500内の様子を上から表わした図である。図6は、作業ステーション500内の様子を正面から表わした図である。
(B) Specific example of machine
Next, a specific example 2 of the machine tool state value will be described with reference to FIGS. 5 and 6. FIG. 5 is a view showing the inside of the
図5および図6に示されるように、搬送装置300によって作業ステーション500に搬送されたワークの設置場所と、作業者U2が段取り作業を行う作業エリアとの間を区切るように、ドアDRが設けられる。段取り作業とは、加工対象のワークをパレットに取り付ける作業や、加工済みのワークをパレットから取り外す作業などを意味する。
As shown in FIGS. 5 and 6, a door DR is provided so as to separate the installation location of the work transported to the
取得部152は、ドアDRの開閉状態を工作機械状態値として取得する。より具体的には、作業者U2は、空のパレットPLが作業ステーション500に搬入されたことに基づいてドアDRを開け、ワークWの取り付け作業を開始する。ワークWの取り付け作業が完了すると、作業者U2は、ドアDRを閉め、作業完了ボタンBTを押下する。作業完了ボタンBTが押下されたことに基づいて、パレットPLは、作業ステーション500から搬出される。このように、作業者U2は、ワークWの取り付け作業中にはドアDRを開け、ワークWの取り付け作業が完了したことに基づいてドアDRを閉める。
The
また、作業者U2は、加工済みのワークを搭載するパレットPLが作業ステーション500に搬入されたことに基づいてドアDRを開け、ワークWの取り外し作業を開始する。ワークWの取り外し作業が完了すると、作業者U2は、ドアDRを閉め、作業完了ボタンBTを押下する。作業完了ボタンBTが押下されたことに基づいて、空のパレットPLは、作業ステーション500から搬出される。このように、作業者U2は、ワークWの取り外し作業中にはドアDRを開け、ワークWの取り外し作業が完了したことに基づいてドアDRを閉める。
Further, the worker U2 opens the door DR based on the fact that the pallet PL on which the processed work is carried is carried into the
このように、ドアDRの開閉状態は、工作機械10がどのような状態にあるかを特定するための指標(すなわち、工作機械状態値)になり得る。
As described above, the open / closed state of the door DR can be an index (that is, a machine tool state value) for specifying the state of the
ドアDRの開閉状態を検出するために、開閉センサ541がドアDRに設けられる。開閉センサ541は、上述の各種センサ550(図2参照)の一例である。開閉センサ541は、無線通信機能を有する。ドアDRが開かれている場合には、開閉センサ541は、開状態を示す信号を上述のリモートI/Oユニット64(図2参照)に出力する。一方で、ドアDRが閉じられている場合には、開閉センサ541は、開状態を示す信号を上述のリモートI/Oユニット64に出力する。リモートI/Oユニット64は、開閉センサ541から受けた開閉状態を上述のネットワークNW2(図2参照)を介して制御装置50に一定周期ごとに送信する。これにより、制御装置50の取得部152は、ドアDRの開閉状態を取得する。
An open /
(c)工作機械状態値の具体例3
引き続き図5および図6を参照して、工作機械状態値の具体例3について説明する。取得部152は、パレットPTに取り付けられている治具APに対してワークWが固定されている強度を示す物理量を工作機械状態値として取得する。当該物理量は、たとえば、クランプセンサ543によって検出される。クランプセンサ543は、上述の各種センサ550(図2参照)の一例である。
(C) Specific example of machine tool state value 3
Subsequently, a specific example 3 of the machine tool state value will be described with reference to FIGS. 5 and 6. The
作業者U2は、固定具FA〜FDを用いて治具APにワークWを固定する。クランプセンサ543は、たとえば、固定具FAのクランプ強度を検出する。このとき、ワークWが治具APに取り付けられる前においては、クランプセンサ543によって検出されるクランプ強度が略ゼロとなる。そして、治具APに対するワークWの取り付け作業が進むにつれて、クランプセンサ543によって検出されるクランプ強度が大きくなる。一方で、ワークWの取り外し作業においては、当該取り外し作業が進むにつれて、クランプセンサ543によって検出されるクランプ強度が小さくなる。
The worker U2 fixes the work W to the jig AP using the fixtures FA to FD. The
このように、クランプ強度は、段取り作業の進行度合いに応じて変化するため、工作機械10がどのような状態にあるかを特定するための指標(すなわち、工作機械状態値)になり得る。
As described above, since the clamp strength changes according to the progress of the setup work, it can be an index (that is, a machine tool state value) for specifying the state of the
クランプセンサ543は、無線通信機能を有し、検出したクランプ強度を上述のリモートI/Oユニット64(図2参照)に一定周期ごとに送信する。リモートI/Oユニット64は、クランプセンサ543から受けたクランプ強度を上述のネットワークNW2(図2参照)を介して制御装置50に一定周期ごとに送信する。これにより、制御装置50の取得部152は、クランプセンサ543からクランプ強度を取得する。
The
なお、図5および図6の例では、1つのクランプセンサ543が示されているが、複数のクランプセンサ543が設けられてもよい。この場合、複数のクランプセンサ543のそれぞれは、固定具FA〜FDのそれぞれに対して設けられる。
Although one
(d)工作機械状態値の具体例4
引き続き図5および図6を参照して、工作機械状態値の具体例4について説明する。取得部152は、エリアセンサ545の出力値を工作機械状態値として取得する。エリアセンサ545は、上述の各種センサ550(図2参照)の一例である。
(D) Specific example of machine
Subsequently, a specific example 4 of the machine tool state value will be described with reference to FIGS. 5 and 6. The
エリアセンサ545は、投光ユニット545Aと、受光ユニット545Bとを含む。投光ユニット545Aは、受光ユニット545Bに向けて光を発する。受光ユニット545Bは、投光ユニット545Aから発せられる光を受け、当該光の強度を出力する。投光ユニット545Aおよび受光ユニット545Bは、投光ユニット545Aから発される光が作業中の作業者U2によって遮られるように配置される。異なる言い方をすれば、投光ユニット545Aおよび受光ユニット545Bは、投光ユニット545Aから発せられる光が作業ステーション500内におけるワークの搬送場所と作業者U2の作業エリアとの間を通過するように配置される。
The
段取り作業中においては、作業者U2は、パレットPLの近くにいるため、投光ユニット545Aから発せられる光が作業者U2によって遮られる。段取り作業が完了すると、作業者U2は、作業エリアから離れる。そのため、段取り作業完了後においては、投光ユニット545Aから発せられる光は、作業者U2によって遮られない。受光ユニット545Bが投光ユニット545Aから受ける光の強度は、ワークWの取り付け作業の進行度合いに応じて変化するため、工作機械10がどのような状態にあるかを特定するための指標(すなわち、工作機械状態値)になり得る。
Since the worker U2 is near the pallet PL during the setup work, the light emitted from the
受光ユニット545Bは、投光ユニット545Aからの光が遮断状態であるか否かを上述のリモートI/Oユニット64(図2参照)に出力する。リモートI/Oユニット64は、投光ユニット545Aからの光が遮断状態であるか否かを上述のネットワークNW2(図2参照)を介して制御装置50に一定周期ごとに送信する。
The
(C2.人物検出部552)
次に、図7を参照して、図3に示される人物検出部552の機能について説明する。図7は、作業ステーション500内の様子を斜めから表わした図である。
(C2. Person detection unit 552)
Next, with reference to FIG. 7, the function of the person detection unit 552 shown in FIG. 3 will be described. FIG. 7 is an oblique view of the inside of the
図7の例では、パレットPLに治具APが取り付けられている。治具APは、たとえば、イケールである。加工対象のワークWは、作業者U2によって治具APに取り付けられる。 In the example of FIG. 7, the jig AP is attached to the pallet PL. The jig AP is, for example, ikeru. The work W to be processed is attached to the jig AP by the worker U2.
図7に示されるように、作業ステーション500内には、カメラ534が設けられる。カメラ534は、作業ステーション500内の作業エリアを撮影するように設置され、作業ステーション500内で段取り作業を行っている作業者U2を撮影する。カメラ534は、作業ステーション500内において、1台だけ配置されてもよいし、複数台配置されてもよい。カメラ534は、作業エリアを撮影して得られた画像を定期的に画像処理装置532の人物検出部552に送る。
As shown in FIG. 7, a
人物検出部552は、カメラ534から得られた画像から作業者を検出する。作業者を検出するための画像処理アルゴリズムには、任意の画像処理プログラムが採用される。
The person detection unit 552 detects the worker from the image obtained from the
ある局面において、画像処理装置532は、作業者が写っていない背景画像を予め取得しておく。画像処理装置532は、背景画像と同じ視点から作業エリアを撮影して得られた入力画像を取得すると、入力画像から背景画像を差分する。これにより、画像処理装置532は、入力画像から背景を除いた背景差分画像を得ることができる。画像処理装置532は、背景差分画像から所定値以上の画素値を有する領域を抽出し、当該領域を人物領域として検出する。
In a certain aspect, the
他の局面において、人物検出部552は、学習済みモデルを用いて画像から作業者を検出する。学習済みモデルは、学習用データセットを用いた学習処理により予め生成されている。学習用データセットは、人物が写っている複数の学習用画像を含む。各学習用画像には、人物が写っているか否かを示すラベルが関連付けられる。学習済みモデルの内部パラメータは、このような学習用データセットを用いた学習処理により予め最適化されている。 In another aspect, the person detection unit 552 detects the worker from the image using the trained model. The trained model is pre-generated by a training process using a training data set. The training data set contains a plurality of training images showing a person. Each learning image is associated with a label indicating whether or not a person is shown. The internal parameters of the trained model are pre-optimized by the training process using such a training data set.
学習済みモデルを生成するための学習手法には、種々の機械学習アルゴリズムが採用され得る。一例として、当該機械学習アルゴリズムとして、ディープラーニング、コンボリューションニューラルネットワーク(CNN)、全層畳み込みニューラルネットワーク(FCN)、サポートベクターマシンなどが採用される。 Various machine learning algorithms can be adopted as the learning method for generating the trained model. As an example, as the machine learning algorithm, deep learning, convolutional neural network (CNN), full-layer convolutional neural network (FCN), support vector machine and the like are adopted.
好ましくは、人物検出部552は、カメラ534から得られた画像から、作業者の手や腕などの各部位の座標を検出する。作業者の各部位の検出には、上述の機械学習アルゴリズムが採用される。
Preferably, the person detection unit 552 detects the coordinates of each part such as the worker's hand or arm from the image obtained from the
以上のような人物検出処理がカメラ534から得られる画像に対して順次実行される。人物検出部552は、人物の検出結果を動作解析部554に順次出力する。
The above-mentioned person detection process is sequentially executed on the images obtained from the
(C3.動作解析部554)
次に、図3に示される動作解析部554の機能について説明する。動作解析部554は、人物検出部552から出力される人物検出結果を順次受けて、作業者の動作状態を解析する。
(C3. Motion analysis unit 554)
Next, the function of the
人物検出部552による人物検出結果は、たとえば、画像内における作業者の座標値で表わされる。好ましくは、当該座標値は、作業者の顔、腕、または手の位置を表わす。動作解析部554は、人物検出部552から順次得られる座標値に基づいて、作業者の動作量と相関のある指標を算出する。当該指標の一例として、動作解析部554は、所定時間内に得られる座標値の分散値(すなわち、移動分散)を順次算出する。
The person detection result by the person detection unit 552 is represented by, for example, the coordinate values of the worker in the image. Preferably, the coordinate value represents the position of the worker's face, arm, or hand. The
動作解析部554は、算出した移動分散が所定の第1閾値よりも大きい場合に、作業者が動作中であると判別する。動作中とは、作業ステーション500において作業者が何らかの作業を行っている状態を意味する。
The
また、動作解析部554は、算出した移動分散が所定の第2閾値(≦第1閾値)よりも小さい場合、作業者が行動停止中であると判別する。行動停止中とは、作業者が動作していない状態を意味する。
Further, when the calculated movement variance is smaller than a predetermined second threshold value (≦ first threshold value), the
また、人物検出部552によって人物が検出されなかった場合には、動作解析部554は、作業者の動作解析結果として、人物未検出を出力する。
When the person is not detected by the person detection unit 552, the
以上のように、動作解析部554は、作業ステーション500にいる作業者の動作解析結果として、動作中、行動停止中、または人物未検出を出力する。動作解析部554による動作解析結果は、行動判別部154に出力される。
As described above, the
なお、動作解析部554が解析可能な動作状態は、動作中、行動停止中、および人物未検出の3種類に限定されない。一例として、動作解析部554は、作業者の動作量に応じて「動作中」をさらに詳細に区分してもよい。たとえば、「動作中」は、作業者の動作量に応じて「動作中(動作量多)」と「動作中(動作量少)」とに分類されてもよい。
The motion states that can be analyzed by the
(C4.行動判別部154)
次に、図7〜図12を参照して、図3に示される行動判別部154の機能について説明する。図7は、作業ステーション500内の様子を斜めから表わした図である。
(C4. Behavior discrimination unit 154)
Next, the function of the
行動判別部154は、取得部152によって取得された工作機械状態値と、人感センサ530による作業者の動作状態とに基づいて、作業ステーション500にいる作業者の行動種別を判別する。その際、作業者の行動種別は、工作機械状態値および動作状態の組み合わせごとに行動種別を関連付けている行動種別定義124に基づいて判別される。
The
行動判別部154が判別可能な行動種別は、たとえば、「段取り作業中」と、「清掃作業中」と、「行動不能状態」と、「非作業状態」を含む。「段取り作業中」とは、加工対象のワークをパレットに取り付ける作業、または、加工済みのワークをパレットから取り外す作業などを作業者が行っていることを意味する。「清掃作業中」とは、作業者が作業エリアの清掃作業を行っていることを意味する。「行動不能状態」とは、作業者が何らかの理由で身動きが取れない状態にあることを意味する。「非作業状態」とは、作業者が作業ステーション500にいない状態であることを意味する。
The action types that can be discriminated by the
作業者の行動種別が「行動不能状態」と判別された場合には、工作機械10は、音声や警告音などで警報を出力し、作業者が「行動不能状態」であることを周囲に報知する。
When the action type of the worker is determined to be "incapacitated state", the
以下では、行動種別定義124に基づく行動種別の判別手法1〜5ついて順に説明する。
In the following, the behavior
(a)行動種別の判別手法1
まず、図8を参照して、行動判別部154による行動種別の判別手法1について説明する。図8は、行動種別の判別手法1で用いられる行動種別定義124を示す図である。
(A) Behavior
First, the behavior
図8に示されるように、本例では、操作盤430の操作状態と、人感センサ530による動作解析結果との組み合わせで、作業者の行動種別が判別される。上述の「(a)工作機械状態値の具体例1」で説明したように、操作盤430の操作状態は、工作機械状態値の一例であり、「操作中」または「非操作中」で表わされる。
As shown in FIG. 8, in this example, the action type of the operator is determined by the combination of the operation state of the
行動判別部154は、操作盤430の操作状態が「操作中」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「段取り作業中」であると判別する。
When the operation state of the
図7に示される作業者U2が作業ステーション500内で何らかの動作を行っており、かつ、図4に示される作業者U1が作業ステーション500外で加工機400の操作盤430を操作している場合には、作業者U2は、段取り作業を行っている可能性が高い。このように、人感センサ530の動作解析結果と操作盤430の操作状態との両方が考慮されることで、段取り作業を確実に検出することが可能になる。
When the worker U2 shown in FIG. 7 is performing some operation inside the
また、行動判別部154は、操作盤430の操作状態が「非操作中」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別を「清掃作業中」または「段取り作業中」と判別する。「清掃作業中」または「段取り作業中」は、たとえば、作業者の動作量に応じて区別される。一例として、行動判別部154は、操作状態が「操作中」を示し、かつ、動作解析結果が「動作中(動作量多)」を示す場合、作業者の行動種別を「清掃作業中」と判別する。また、行動判別部154は、操作状態が「操作中」を示し、かつ、動作解析結果が「動作中(動作量少)」を示す場合、作業者の行動種別が「段取り作業中」であると判別する。
Further, when the operation state of the
また、行動判別部154は、操作盤430の操作状態が「非操作中」を示し、かつ、動作解析結果が「非動作中」を示す場合、作業者の行動種別を「行動不能状態」と判別する。より具体的には、行動判別部154は、操作状態としての工作機械状態値が所定時間内に所定値以上変化せず、かつ、人感センサ530による出力値が所定時間内に所定値以上変化しない場合に、行動種別が「行動不能状態」であると判別する。
Further, when the operation state of the
また、行動判別部154は、動作解析結果が「人物未検出」を示す場合、作業者の行動種別が「非作業状態」であると判別する。
Further, when the action analysis result indicates "person not detected", the
(b)行動種別の判別手法2
次に、図9を参照して、行動判別部154による行動種別の判別手法2について説明する。図9は、行動種別の判別手法2で用いられる行動種別定義124を示す図である。
(B) Behavior
Next, with reference to FIG. 9, the action
図9に示されるように、本例では、上述の開閉センサ541によって検出され得るドアDRの開閉状態と、人感センサ530による動作解析結果との組み合わせで、作業者の行動種別が判別される。上述の「(b)工作機械状態値の具体例2」で説明したように、ドアDRの開閉状態は、工作機械状態値の一例であり、「開状態」または「閉状態」で表わされる。
As shown in FIG. 9, in this example, the action type of the worker is determined by the combination of the open / closed state of the door DR that can be detected by the above-mentioned open /
行動判別部154は、開閉状態が「開状態」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「段取り作業中」であると判別する。
When the open / closed state indicates "open state" and the operation analysis result indicates "in operation", the
また、行動判別部154は、開閉状態が「閉状態」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別を「清掃作業中」と判別する。
Further, when the open / closed state indicates "closed state" and the operation analysis result indicates "in operation", the
また、行動判別部154は、開閉状態が「閉状態」を示し、かつ、動作解析結果が「非動作中」を示す場合、作業者の行動種別を「行動不能状態」と判別する。より具体的には、行動判別部154は、開閉状態が所定時間内に変化せず、かつ、人感センサ530による出力値が所定時間内に所定値以上変化しない場合に、行動種別が「行動不能状態」であると判別する。
Further, when the open / closed state indicates "closed state" and the motion analysis result indicates "non-operating", the
また、行動判別部154は、動作解析結果が「人物未検出」を示す場合、作業者の行動種別が「非作業状態」であると判別する。
Further, when the action analysis result indicates "person not detected", the
(c)行動種別の判別手法3
次に、図10を参照して、行動判別部154による行動種別の判別手法3について説明する。図10は、行動種別の判別手法3で用いられる行動種別定義124を示す図である。
(C) Behavior type discrimination method 3
Next, with reference to FIG. 10, the action type discrimination method 3 by the
図10に示されるように、本例では、上述のクランプセンサ543によって検出されるクランプ強度の状態と、人感センサ530による動作解析結果との組み合わせで、作業者の行動種別が判別される。クランプ強度は、工作機械状態値の一例である。上述の「(c)工作機械状態値の具体例3」で説明したように、治具に対するワークの取り付け作業が進むにつれて、クランプセンサ543によって検出されるクランプ強度が大きくなる。一方で、ワークの取り外し作業においては、当該取り外し作業が進むにつれて、クランプセンサ543によって検出されるクランプ強度が小さくなる。
As shown in FIG. 10, in this example, the action type of the operator is determined by the combination of the state of the clamp strength detected by the
この点に着目して、行動判別部154は、クランプ強度が増加しており、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「段取り作業中(取り付け作業中)」であると判別する。一方で、クランプ強度が減少しており、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「段取り作業中(取り外し作業中)」であると判別する。 Focusing on this point, when the clamp strength is increased and the motion analysis result indicates "in motion", the action type of the worker is "in setup work (installation work)". It is determined that it is. On the other hand, when the clamp strength is reduced and the operation analysis result indicates "in operation", it is determined that the action type of the operator is "in setup work (during removal work)".
クランプ強度が増加しているか否かは、たとえば、クランプ強度の変化量に基づいて判断される。より具体的には、行動判別部154は、クランプ強度の移動平均値が前回の値よりも大きい場合、クランプ強度が増加していると判断する。一方で、行動判別部154は、クランプ強度の移動平均値が前回の値よりも小さい場合、クランプ強度が減少していると判断する。
Whether or not the clamp strength is increased is determined based on, for example, the amount of change in the clamp strength. More specifically, when the moving average value of the clamp strength is larger than the previous value, the
また、行動判別部154は、クランプ強度が未検出であり、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「清掃作業中」であると判別する。あるいは、行動判別部154は、クランプ強度が所定値未満で、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「清掃作業中」であると判別する。
Further, when the clamp strength is not detected and the motion analysis result indicates "in operation", the
また、行動判別部154は、クランプ強度が変化せず、かつ、動作解析結果が「非動作中」を示す場合、作業者の行動種別を「行動不能状態」と判別する。より具体的には、行動判別部154は、クランプ強度が所定時間内に所定値以上変化せず、かつ、人感センサ530による出力値が所定時間内に所定値以上変化しない場合に、行動種別が「行動不能状態」であると判別する。
Further, when the clamp strength does not change and the motion analysis result indicates "non-operating", the
また、行動判別部154は、動作解析結果が「人物未検出」を示す場合、作業者の行動種別が「非作業状態」であると判別する。
Further, when the action analysis result indicates "person not detected", the
(d)行動種別の判別手法4
次に、図11を参照して、行動判別部154による行動種別の判別手法4について説明する。図11は、行動種別の判別手法4で用いられる行動種別定義124を示す図である。
(D) Behavior
Next, with reference to FIG. 11, the action
図11に示されるように、本例では、上述のエリアセンサ545の出力値と、人感センサ530による動作解析結果との組み合わせで、作業者の行動種別が判別される。上述の「(d)工作機械状態値の具体例4」で説明したように、エリアセンサ545の出力値は、工作機械状態値の一例であり、「遮断状態」または「非遮断状態」で表わされる。
As shown in FIG. 11, in this example, the action type of the worker is determined by the combination of the output value of the
行動判別部154は、エリアセンサ545の出力値が「遮断状態」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別が「段取り作業中」であると判別する。
When the output value of the
また、行動判別部154は、エリアセンサ545の出力値が「非遮断状態」を示し、かつ、動作解析結果が「動作中」を示す場合、作業者の行動種別を「清掃作業中」と判別する。
Further, when the output value of the
また、行動判別部154は、エリアセンサ545の出力値が「非遮断状態」を示し、かつ、動作解析結果が「非動作中」を示す場合、作業者の行動種別を「行動不能状態」と判別する。より具体的には、行動判別部154は、操作状態としての工作機械状態値が所定時間内に変化せず、かつ、人感センサ530による出力値が所定時間内に所定値以上変化しない場合に、行動種別が「行動不能状態」であると判別する。
Further, when the output value of the
また、行動判別部154は、動作解析結果が「人物未検出」を示す場合、作業者の行動種別が「非作業状態」であると判別する。
Further, when the action analysis result indicates "person not detected", the
(e)行動種別の判別手法5
上述では、行動判別部154は、1種類の工作機械状態値と、人感センサ530の出力値との組み合わせに基づいて、作業ステーション500にいる作業者の行動種別を判別していたが、行動種別の判別方法は、これに限定されない。たとえば、行動判別部154は、2種類以上の工作機械状態値と、人感センサ530の出力値との組み合わせに基づいて、作業ステーション500にいる作業者の行動種別を判別してもよい。
(E) Behavior type discrimination method 5
In the above, the
(C5.作業履歴126)
以下では、図12を参照して、図3に示される作業履歴126について説明する。図12は、作業履歴126のデータ構造の一例を示す図である。
(C5. Work history 126)
In the following, the
行動判別部154による行動種別の判別結果は、作業履歴126に書き込まれる。作業履歴126は、工作機械10内の記憶装置に格納されてもよいし、外部機器(たとえば、サーバーや外部ハードディスクなど)に格納されてもよい。
The action type determination result by the
図12に示されるように、作業履歴126には、作業者の識別情報(たとえば、作業者ID(Identification))と、行動種別の検出時間と、検出された行動種別とが関連付けられる。
As shown in FIG. 12, the
設計者や管理者は、作業履歴126を分析することで工作機械の稼働状況を正確に把握することができ、工作機械の設計思想やワークの生産工程を見直すことができる。
By analyzing the
<D.データの共有方法>
図13を参照して、工作機械10を構成する各種機器間でのデータの共有方法について説明する。図13は、工作機械10を構成する各種機器の協働関係を概略的に示す図である。
<D. Data sharing method>
A method of sharing data between various devices constituting the
上述のように、コントロールシステム100およびPLC151は、EtherNETなどのネットワークNW1に接続される。リモートI/Oユニット61〜64およびPLC151は、フィールドネットワークであるネットワークNW2に接続される。
As described above, the
ネットワークNW2には、フレーム72が伝送される。フレーム72は、ネットワークNW2上を予め定められた制御周期ごとに周回する。リモートI/Oユニット61〜64およびPLC151は、フレーム72を介して各種データを共有する。
The
フレーム72は、たとえば、PLC151用のデータ領域71Aと、リモートI/Oユニット61に接続される搬送装置300用のデータ領域71Bと、リモートI/Oユニット62に接続される加工機400用のデータ領域71Cと、リモートI/Oユニット63に接続される人感センサ530用のデータ領域71Dと、リモートI/Oユニット64に接続される各種センサ550用のデータ領域71Eとを有する。
The
フレーム72のデータ領域71Aは、PLC151が各種データを書き込む領域である。データ領域71Aには、パレットPLの搬送指示などが書き込まれる。当該搬送指示には、パレットPLの搬送先が含まれる。当該搬送先は、たとえば、収納部200内の格納場所を示す識別番号(たとえば、格納場所を示すID(Identification))や、加工機400を識別するための識別番号(たとえば、工作機械のID)などで表わされる。PLC151によってデータ領域71Aに書き込まれた各種データは、ネットワークNW2に接続される各種機器に参照され得る。
The data area 71A of the
フレーム72のデータ領域71Bは、リモートI/Oユニット61が搬送装置300に関する各種データを書き込む領域である。データ領域71Bに書き込まれた各種データは、ネットワークNW2に接続される各種機器に参照される。
The
フレーム72のデータ領域71Cは、リモートI/Oユニット62が加工機400に関する各種データを書き込む領域である。データ領域71Cに書き込まれた各種データは、ネットワークNW2に接続される各種機器に参照される。
The data area 71C of the
フレーム72のデータ領域71Dは、リモートI/Oユニット63が人感センサ530の出力値を書き込む領域である。一例として、フレーム72のデータ領域71Dには、人感センサ530によって検出された上述の動作解析結果が書き込まれる。データ領域71Dに書き込まれた各種データは、ネットワークNW2に接続される各種機器に参照される。上述の行動判別部154(図3参照)は、フレーム72のデータ領域71Dを参照することで人感センサ530による動作解析結果を取得する。
The
フレーム72のデータ領域71Eは、リモートI/Oユニット64が各種センサ550の出力値を書き込む領域である。一例として、フレーム72のデータ領域71Eには、上述の工作機械状態値が書き込まれる。データ領域71Eに書き込まれた各種データは、ネットワークNW2に接続される各種機器に参照される。上述の取得部152(図3参照)は、フレーム72のデータ領域71Eを参照することで各種の工作機械状態値を取得する。
The data area 71E of the
<E.コントロールシステム100のハードウェア構成>
図14を参照して、コントロールシステム100のハードウェア構成について説明する。図14は、コントロールシステム100のハードウェア構成の一例を示す模式図である。
<E. Hardware configuration of
The hardware configuration of the
コントロールシステム100は、プロセッサ101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、通信インターフェイス104と、表示インターフェイス105と、入力インターフェイス107と、記憶装置120とを含む。これらのコンポーネントは、バス110に接続される。
The
プロセッサ101は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのGPU(Graphics Processing Unit)、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはそれらの組み合わせなどによって構成され得る。
The
プロセッサ101は、行動判別プログラム122やオペレーティングシステムなどの各種プログラムを実行することでコントロールシステム100の動作を制御する。プロセッサ101は、行動判別プログラム122の実行命令を受け付けたことに基づいて、記憶装置120またはROM102からRAM103に行動判別プログラム122を読み出す。RAM103は、ワーキングメモリとして機能し、行動判別プログラム122の実行に必要な各種データを一時的に格納する。
The
通信インターフェイス104には、LAN(Local Area Network)やアンテナなどが接続される。コントロールシステム100は、通信インターフェイス104を介してネットワークNW1に接続される。これにより、コントロールシステム100は、ネットワークNW1に接続される外部機器とデータをやり取りする。当該外部機器は、たとえば、制御盤150やサーバー(図示しない)などを含む。コントロールシステム100は、当該外部機器から行動判別プログラム122をダウンロードできるように構成されてもよい。
A LAN (Local Area Network), an antenna, or the like is connected to the
表示インターフェイス105には、ディスプレイ106が接続される。表示インターフェイス105は、プロセッサ101などからの指令に従って、ディスプレイ106に対して、画像を表示するための画像信号を送出する。ディスプレイ106は、たとえば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、またはその他の表示機器である。なお、ディスプレイ106は、コントロールシステム100と一体的に構成されてもよいし、コントロールシステム100とは別に構成されてもよい。
A
入力インターフェイス107には、入力デバイス108が接続される。入力デバイス108は、たとえば、マウス、キーボード、タッチパネル、またはユーザの操作を受け付けることが可能なその他の装置である。なお、入力デバイス108は、コントロールシステム100と一体的に構成されてもよいし、コントロールシステム100とは別に構成されてもよい。
An
記憶装置120は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置120は、行動判別プログラム122や、上述の行動種別定義124や、上述の作業履歴126などを格納する。これらの格納場所は、記憶装置120に限定されず、プロセッサ101の記憶領域(たとえば、キャッシュメモリなど)、ROM102、RAM103、外部機器(たとえば、サーバー)などに格納されていてもよい。
The
行動判別プログラム122は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、行動判別プログラム122による行動判別処理は、任意のプログラムと協働して実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う行動判別プログラム122の趣旨を逸脱するものではない。さらに、行動判別プログラム122によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、少なくとも1つのサーバーが行動判別プログラム122の処理の一部を実行する所謂クラウドサービスのような形態でコントロールシステム100が構成されてもよい。
The
<F.PLC151のハードウェア構成>
図15を参照して、PLC151のハードウェア構成の一例について説明する。図15は、PLC151の主要なハードウェア構成を示すブロック図である。
<F. Hardware configuration of PLC151>
An example of the hardware configuration of the
PLC151は、プロセッサ161と、ROM(Read Only Memory)162と、RAM(Random Access Memory)163と、通信インターフェイス164,165と、記憶装置170とを含む。
The
プロセッサ161は、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU、少なくとも1つのMPU(Micro Processing Unit)、少なくとも1つのASIC、少なくとも1つのFPGAまたはそれらの組み合わせなどによって構成される。
The
プロセッサ161は、制御プログラム172など各種プログラムを実行することで搬送装置300や加工機400の動作を制御する。プロセッサ161は、制御プログラム172の実行命令を受け付けたことに基づいて、記憶装置170からROM162に制御プログラム172を読み出す。RAM163は、ワーキングメモリとして機能し、制御プログラム172の実行に必要な各種データを一時的に格納する。
The
通信インターフェイス164には、LANやアンテナなどが接続される。PLC151は、通信インターフェイス164を介してネットワークNW1に接続される。これにより、PLC151は、ネットワークNW1に接続される外部機器とデータをやり取りする。当該外部機器は、たとえば、コントロールシステム100やサーバー(図示しない)などを含む。
A LAN, an antenna, or the like is connected to the
通信インターフェイス165は、フィールドネットワークであるネットワークNW2に接続するためのインターフェイスである。PLC151は、通信インターフェイス165を介してネットワークNW2に接続される各種機器とデータをやり取りする。
The
記憶装置170は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置170は、制御プログラム172などを格納する。制御プログラム172の格納場所は、記憶装置170に限定されず、プロセッサ161の記憶領域(たとえば、キャッシュ領域など)、ROM162、RAM163、外部機器(たとえば、サーバー)などに格納されていてもよい。
The
<G.加工機400のハードウェア構成>
図16を参照して、加工機400のハードウェア構成の一例について説明する。図16は、加工機400の主要なハードウェア構成を示すブロック図である。
<G. Hardware configuration of processing
An example of the hardware configuration of the
加工機400は、CNC401と、ROM402と、RAM403と、フィールドバスコントローラ404と、サーボドライバ411A〜411Dと、サーボモータ412A〜412Dと、エンコーダ413A〜413Dと、ボールねじ414A,414Bと、工具を取り付けるための主軸415と、操作盤430とを含む。これらの機器は、バス(図示しない)を介して接続されている。
The
CNC401は、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU、少なくとも1つのMPU、少なくとも1つのASIC、少なくとも1つのFPGA、またはそれらの組み合わせなどによって構成される。
The
CNC401は、加工プログラム422など各種プログラムを実行することでCNC400の動作を制御する。CNC401は、加工プログラム422の実行命令を受け付けたことに基づいて、記憶装置420からROM402に加工プログラム422を読み出す。RAM403は、ワーキングメモリとして機能し、加工プログラム422の実行に必要な各種データを一時的に格納する。
The
フィールドバスコントローラ404は、リモートI/Oユニット62を介してPLC151との通信を実現するためのインターフェイスである。CNC400は、フィールドバスコントローラ404を介してPLC151との間でデータをやり取りする。
The
操作盤430は、加工機400に対する各種の操作を受け付ける。また、操作盤430は、ディスプレイ(図示しない)を備え、各種の情報を表示する。当該ディスプレイは、は、たとえば、液晶ディスプレイ、有機ELディスプレイ、またはその他の表示機器である。
The
CNC400は、加工プログラム422に従ってサーボドライバ411Aを制御する。サーボドライバ411Aは、CNC401から目標回転数(または目標位置)の入力を逐次的に受け、サーボモータ412Aが目標回転数で回転するようにサーボモータ412Aを制御し、ワーク設置台(図示しない)をX軸方向に駆動する。より具体的には、サーボドライバ411Aは、エンコーダ413Aのフィードバック信号からサーボモータ412Aの実回転数(または実位置)を算出し、当該実回転数が目標回転数よりも小さい場合にはサーボモータ412Aの回転数を上げ、当該実回転数が目標回転数よりも大きい場合にはサーボモータ412Aの回転数を下げる。このように、サーボドライバ411Aは、サーボモータ412Aの回転数のフィードバックを逐次的に受けながらサーボモータ412Aの回転数を目標回転数に近付ける。サーボドライバ411Aは、ボールねじ414Aに接続されるワーク設置台をX軸方向に移動し、ワーク設置台をX軸方向の任意の位置に移動する。
The
同様のモータ制御により、サーボドライバ411Bは、ボールねじ414Bに接続されるワーク設置台をCNC400からの制御指令に従ってY軸方向に移動し、ワーク設置台をY軸方向の任意の位置に移動する。同様のモータ制御を行うことにより、サーボドライバ411Cは、CNC400からの制御指令に従って主軸415をZ軸方向に移動し、主軸415をZ軸方向の任意の位置に移動する。同様のモータ制御を行うことにより、サーボドライバ411Dは、CNC400からの制御指令に従って、主軸415の回転速度を制御する。
By the same motor control, the servo driver 411B moves the work setting table connected to the
記憶装置420は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置420は、加工プログラム422などを格納する。加工プログラム422の格納場所は、記憶装置420に限定されず、CNC401の記憶領域(たとえば、キャッシュ領域など)、ROM402、RAM403、外部機器(たとえば、サーバー)などに格納されていてもよい。
The
<H.画像処理装置532のハードウェア構成>
図17を参照して、画像処理装置532のハードウェア構成について順に説明する。図17は、画像処理装置532のハードウェア構成の一例を示す図である。
<H. Hardware configuration of
The hardware configuration of the
画像処理装置532は、プロセッサ501と、ROM502と、RAM503と、通信インターフェイス504,505と、カメラインターフェイス506と、記憶装置520とを含む。これらのコンポーネントは、バス510に接続される。
The
プロセッサ501は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU、少なくとも1つのGPU、少なくとも1つのASIC、少なくとも1つのFPGA、またはそれらの組み合わせなどによって構成され得る。
プロセッサ501は、人物検出機能を有する画像処理プログラム522などの各種プログラムを実行することで画像処理装置532の動作を制御する。プロセッサ501は、各種プログラムの実行命令を受け付けたことに基づいて、記憶装置520またはROM502からRAM503に実行対象のプログラムを読み出す。RAM503は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
The
通信インターフェイス504には、LANやアンテナなどが接続される。画像処理装置532は、通信インターフェイス504を介して、サーバーなどの外部機器との間でデータをやり取りする。
A LAN, an antenna, or the like is connected to the
通信インターフェイス505は、フィールドネットワークであるネットワークNW2に接続するためのインターフェイスである。画像処理装置532は、通信インターフェイス505を介してネットワークNW2に接続される各種機器とデータをやり取りする。
The
カメラインターフェイス506は、カメラ534と画像処理装置532とを有線または無線で接続するためのインターフェイスである。カメラ534は、CCD(Charge Coupled Device)カメラであってもよいし、赤外線カメラ(サーモグラフィ)であってもよいし、その他の種類のカメラであってもよい。カメラ534は、作業ステーション500内の作業エリアを撮影するように設置され、作業ステーション500内で段取り作業を行っている作業者を撮影する。
The
記憶装置520は、たとえば、ハードディスクやフラッシュメモリなどの記憶媒体である。記憶装置520は、たとえば、画像処理プログラム522などを格納する。画像処理プログラム522の格納場所は、記憶装置520に限定されず、プロセッサ501の記憶領域(たとえば、キャッシュメモリなど)、ROM502、RAM503、外部機器(たとえば、サーバー)などに格納されていてもよい。
The
<I.制御フロー>
図18を参照して、制御装置50の制御フローについて説明する。図18は、制御装置50が実行する処理の一部を表わすフローチャートである。
<I. Control flow>
The control flow of the
ステップS110において、制御装置50は、行動判別プログラム122の実行命令を受け付けたか否かを判断する。制御装置50は、行動判別プログラム122の実行命令を受け付けたと判断した場合(ステップS110においてYES)、制御をステップS112に切り替える。そうでない場合には(ステップS110においてNO)、制御装置50は、ステップS110の処理を再び実行する。
In step S110, the
ステップS112において、制御装置50は、上述の取得部152(図3参照)として機能し、各種センサ550から工作機械状態値を取得する。工作機械状態値については上述の通りであるので、その説明については繰り返さない。
In step S112, the
ステップS114において、制御装置50は、上述の行動判別部154(図3参照)として機能し、作業ステーション500にいる作業者の動作状態を人感センサ530から取得する。動作状態については上述の通りであるので、その説明については繰り返さない。
In step S114, the
ステップS116において、制御装置50は、上述の行動判別部154(図3参照)として機能し、ステップS112で取得した工作機械状態値と、ステップS114で取得した作業者の動作状態との組み合わせに基づいて、当該作業者の行動種別を判別する。より具体的には、制御装置50は、工作機械状態値および動作状態の組み合わせごとに作業者の行動種別を関連付けている行動種別定義124を参照して、ステップS112で取得した工作機械状態値と、ステップS114で取得した作業者の動作状態との組み合わせに対応する行動種別を特定する。
In step S116, the
ステップS118において、制御装置50は、ステップS116での行動種別の判別結果を、作業者の識別情報(たとえば、作業者ID)と現時刻とを対応付けた上で、上述の作業履歴126(図12参照)に書き込む。作業者の識別情報は、たとえば、作業ステーション500の端末における作業者のログイン情報から特定される。現時刻は、たとえば、外部機器などから受信される。
In step S118, the
ステップS120において、制御装置50は、行動判別プログラム122を終了するか否かを判断する。行動判別プログラム122の終了指示は、たとえば、ユーザによる終了操作に基づいて発せられる。制御装置50は、行動判別プログラム122を終了すると判断した場合(ステップS120においてYES)、図18に示される処理を終了する。そうでない場合には(ステップS120においてNO)、制御装置50は、制御をステップS112に戻す。
In step S120, the
<J.まとめ>
以上のようにして、工作機械10は、人感センサ530によって検出される作業者の動作状態と、工作機械状態との組み合わせで、当該作業者の行動種別を判別する。人感センサ530による作業者の動作状態と工作機械状態値との2つの情報を用いることで、1つの情報を用いた場合よりも、作業者の行動種別を詳細に分類することができる。
<J. Summary>
As described above, the
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown not by the above description but by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
10 工作機械、50 制御装置、61〜64 リモートI/Oユニット、71A〜71E データ領域、72 フレーム、100 コントロールシステム、101,161,501 プロセッサ、102,162,402,502 ROM、103,163,403,503 RAM、104,164,165,504,505 通信インターフェイス、105 表示インターフェイス、106 ディスプレイ、107 入力インターフェイス、108 入力デバイス、110,510 バス、120,170,420,520 記憶装置、122 行動判別プログラム、124 行動種別定義、126 作業履歴、150 制御盤、151 PLC、152 取得部、154 行動判別部、172 制御プログラム、200 収納部、300 搬送装置、330 レール、331 台車、333 フォーク部、334,411,411A〜411D サーボドライバ、335,412,412A〜412D サーボモータ、400 加工機、404 フィールドバスコントローラ、413A〜413D エンコーダ、414A,414B ボールねじ、415 主軸、422 加工プログラム、430 操作盤、500 作業ステーション、506 カメラインターフェイス、522 画像処理プログラム、530 人感センサ、532 画像処理装置、534 カメラ、541 開閉センサ、543 クランプセンサ、545 エリアセンサ、545A 投光ユニット、545B 受光ユニット、550 各種センサ、552 人物検出部、554 動作解析部。 10 machine tools, 50 controllers, 61-64 remote I / O units, 71A-71E data areas, 72 frames, 100 control systems, 101,161,501 processors, 102,162,402,502 ROM, 103,163 403,503 RAM, 104,164,165,504,505 communication interface, 105 display interface, 106 display, 107 input interface, 108 input device, 110,510 bus, 120,170,420,520 storage device, 122 behavior discrimination Program, 124 action type definition, 126 work history, 150 control panel, 151 PLC, 152 acquisition unit, 154 action discrimination unit, 172 control program, 200 storage unit, 300 transport device, 330 rails, 331 trolley, 333 fork unit, 334 , 411, 411A to 411D servo driver, 335, 421, 412A to 412D servo motor, 400 processing machine, 404 field bus controller, 413A to 413D encoder, 414A, 414B ball screw, 415 spindle, 422 processing program, 430 operation panel, 500 work station, 506 camera interface, 522 image processing program, 530 human sensor, 532 image processing device, 534 camera, 541 open / close sensor, 543 clamp sensor, 545 area sensor, 545A floodlight unit, 545B light receiving unit, 550 various sensors , 552 Person detection unit, 554 Motion analysis unit.
Claims (9)
前記ワークに対して人物が作業を行うための作業エリアと、
前記作業エリアにいる人物の動きを検出するための人感センサと、
前記工作機械を制御するための制御装置とを備え、
前記制御装置は、
前記工作機械の状態を示す状態値を取得するための取得部と、
前記人感センサの出力値と、前記取得部によって取得された状態値と基づいて、前記作業エリアにいる人物の行動種別を判別するための判別部とを含む、工作機械。 A machine tool for processing workpieces
A work area for a person to work on the work, and
A motion sensor for detecting the movement of a person in the work area,
A control device for controlling the machine tool is provided.
The control device is
An acquisition unit for acquiring a state value indicating the state of the machine tool, and
A machine tool including a discriminating unit for discriminating an action type of a person in the work area based on an output value of the motion sensor and a state value acquired by the acquisition unit.
前記状態値は、前記操作部の操作状態を含み、
前記判別部は、前記人感センサによって前記作業エリアにいる人物の動きが検出され、かつ、前記操作状態が操作中であることを示す場合に、前記行動種別が前記段取り作業中であると判別する、請求項2に記載の工作機械。 The machine tool further includes an operation unit for receiving an operation on the machine tool.
The state value includes the operation state of the operation unit.
When the motion sensor detects the movement of a person in the work area and indicates that the operation state is in operation, the determination unit determines that the action type is in the setup work. The machine tool according to claim 2.
前記取得部は、前記人感センサによって前記作業エリアにいる人物の動きが検出され、かつ、前記操作状態が非操作中であることを示す場合に、前記行動種別が前記清掃作業中であると判別する、請求項3に記載の工作機械。 The action type that can be discriminated by the discriminating unit includes during cleaning work indicating that a person in the work area is cleaning.
When the motion of the person in the work area is detected by the motion sensor and the operation state indicates that the operation state is not being operated, the acquisition unit determines that the action type is the cleaning operation. The machine tool according to claim 3, which is determined.
前記ワークの設置場所と前記作業エリアとの間を区切る開閉可能なドアと、
前記ドアの開閉状態を検出するための開閉センサとを含み、
前記状態値は、前記開閉センサによって検出される前記開閉状態を含み、
前記判別部は、前記人感センサによって前記作業エリアにいる人物の動きが検出され、かつ、前記開閉状態が前記ドアの開状態を示す場合に、前記行動種別が前記段取り作業中であると判別する、請求項2に記載の工作機械。 The machine tool
An openable door that separates the work installation location from the work area,
Including an open / close sensor for detecting the open / closed state of the door.
The state value includes the open / close state detected by the open / close sensor.
When the movement of a person in the work area is detected by the motion sensor and the open / closed state indicates the open state of the door, the discriminating unit determines that the action type is in the setup work. The machine tool according to claim 2.
前記判別部は、前記人感センサによって前記作業エリアにいる人物の動きが検出され、かつ、前記開閉状態が前記ドアの閉状態を示す場合に、前記行動種別が前記清掃作業中であると判別する、請求項5に記載の工作機械。 The action type that can be discriminated by the discriminating unit includes during cleaning work indicating that a person in the work area is cleaning.
When the movement of a person in the work area is detected by the motion sensor and the open / closed state indicates the closed state of the door, the discriminating unit determines that the action type is the cleaning operation. The machine tool according to claim 5.
前記判別部は、前記人感センサによる出力値が所定時間内に所定値以上変化せず、かつ、前記取得部によって取得される前記状態値が所定時間内に所定値以上変化しない場合に、前記行動種別が前記行動不能状態であると判別する、請求項1〜6のいずれか1項に記載の工作機械。 The action type that can be discriminated by the discriminating unit includes an incapacitating state indicating that the person cannot act in the work area.
When the output value by the motion sensor does not change by a predetermined value or more within a predetermined time and the state value acquired by the acquisition unit does not change by a predetermined value or more within a predetermined time, the discriminating unit is described. The machine tool according to any one of claims 1 to 6, which determines that the action type is the incapacitated state.
前記工作機械は、
加工対象のワークに対して前記人物が作業を行うための作業エリアと、
前記作業エリアにいる前記人物の動きを検出するための人感センサとを備え、
前記判別方法は、
前記人感センサの出力値を取得するステップと、
前記工作機械の状態を示す状態値を取得するステップと、
前記人感センサの出力値と、前記状態値と基づいて、前記作業エリアにいる人物の行動種別を判別するステップとを備える、行動種別の判別方法。 It is a method of determining the behavior type of a person in a machine tool.
The machine tool
A work area for the person to work on the work to be processed, and
It is equipped with a motion sensor for detecting the movement of the person in the work area.
The discrimination method is
The step of acquiring the output value of the motion sensor and
A step of acquiring a state value indicating the state of the machine tool, and
A method for determining an action type, which comprises a step of determining an action type of a person in the work area based on an output value of the motion sensor and the state value.
前記工作機械は、
加工対象のワークに対して前記人物が作業を行うための作業エリアと、
前記作業エリアにいる前記人物の動きを検出するための人感センサとを備え、
前記判別プログラムは、前記工作機械に、
前記人感センサの出力値を取得するステップと、
前記工作機械の状態を示す状態値を取得するステップと、
前記人感センサの出力値と、前記状態値と基づいて、前記作業エリアにいる人物の行動種別を判別するステップとを実行させる、行動種別の判別プログラム。 It is a program to determine the behavior type of a person in a machine tool.
The machine tool
A work area for the person to work on the work to be processed, and
It is equipped with a motion sensor for detecting the movement of the person in the work area.
The discrimination program is applied to the machine tool.
The step of acquiring the output value of the motion sensor and
A step of acquiring a state value indicating the state of the machine tool, and
An action type determination program that executes a step of determining an action type of a person in the work area based on the output value of the motion sensor and the state value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093834A JP7239393B2 (en) | 2019-05-17 | 2019-05-17 | Machine tool, behavior type discrimination method, and behavior type discrimination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093834A JP7239393B2 (en) | 2019-05-17 | 2019-05-17 | Machine tool, behavior type discrimination method, and behavior type discrimination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187708A true JP2020187708A (en) | 2020-11-19 |
JP7239393B2 JP7239393B2 (en) | 2023-03-14 |
Family
ID=73222842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019093834A Active JP7239393B2 (en) | 2019-05-17 | 2019-05-17 | Machine tool, behavior type discrimination method, and behavior type discrimination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7239393B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021075573A1 (en) * | 2019-10-18 | 2021-04-22 | 株式会社牧野フライス製作所 | Machine tool and production system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011191836A (en) * | 2010-03-12 | 2011-09-29 | Hitachi Ltd | Device operation information analysis device and worker work content analysis method |
JP2013073279A (en) * | 2011-09-26 | 2013-04-22 | Omron Corp | Data processor, data processing system, and data processing method |
JP2015184892A (en) * | 2014-03-24 | 2015-10-22 | 川崎重工業株式会社 | Monitoring device, monitoring method and monitoring program for industrial robot system |
JP2019023803A (en) * | 2017-07-24 | 2019-02-14 | 株式会社日立製作所 | Work Improvement Support System and Method |
-
2019
- 2019-05-17 JP JP2019093834A patent/JP7239393B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011191836A (en) * | 2010-03-12 | 2011-09-29 | Hitachi Ltd | Device operation information analysis device and worker work content analysis method |
JP2013073279A (en) * | 2011-09-26 | 2013-04-22 | Omron Corp | Data processor, data processing system, and data processing method |
JP2015184892A (en) * | 2014-03-24 | 2015-10-22 | 川崎重工業株式会社 | Monitoring device, monitoring method and monitoring program for industrial robot system |
JP2019023803A (en) * | 2017-07-24 | 2019-02-14 | 株式会社日立製作所 | Work Improvement Support System and Method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021075573A1 (en) * | 2019-10-18 | 2021-04-22 | 株式会社牧野フライス製作所 | Machine tool and production system |
Also Published As
Publication number | Publication date |
---|---|
JP7239393B2 (en) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2010134603A1 (en) | Work-assisting robot system | |
US20070179671A1 (en) | Tracking and handling device | |
JP6785931B1 (en) | Production system | |
JP2016147330A (en) | Control apparatus based on object recognition | |
JP6977686B2 (en) | Control system and control unit | |
JP2009291895A (en) | Handling apparatus, control device, and control method | |
JP6703018B2 (en) | Work robot system | |
WO2021059938A1 (en) | Lathe | |
JP2014142814A (en) | Production system, robot, controller, production method and control program | |
JP5924190B2 (en) | Production system, robot, control device, production method, and control program | |
JP2020187708A (en) | Machine tool, behavior type determination method and behavior type determination program | |
JP6916157B2 (en) | Robot systems that collaborate with people and robot control methods | |
JP5198161B2 (en) | Handling apparatus and work handling method | |
JP2020529932A (en) | Handling assemblies, methods and computer programs with handling devices for performing at least one work step | |
JP6688912B1 (en) | Pallet transfer system, pallet transfer method, and pallet transfer program | |
KR102202629B1 (en) | Intelligent robot safety management system and operating method therefor | |
JP2020127996A (en) | Machine tool, foreign substance detecting method, and foreign substance detection program | |
CN212623733U (en) | Intelligent production system | |
JP2005186212A (en) | Part attach and detach conveying apparatus | |
JP6832408B1 (en) | Production system | |
JP2017068553A (en) | Analysis system | |
US11370124B2 (en) | Method and system for object tracking in robotic vision guidance | |
US20230050932A1 (en) | Autonomous measuring robot system | |
GB2595289A (en) | Collaborative robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7239393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |