JP2018142258A - 生産管理装置、方法およびプログラム - Google Patents

生産管理装置、方法およびプログラム Download PDF

Info

Publication number
JP2018142258A
JP2018142258A JP2017037287A JP2017037287A JP2018142258A JP 2018142258 A JP2018142258 A JP 2018142258A JP 2017037287 A JP2017037287 A JP 2017037287A JP 2017037287 A JP2017037287 A JP 2017037287A JP 2018142258 A JP2018142258 A JP 2018142258A
Authority
JP
Japan
Prior art keywords
worker
intervention
emotion
production
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017037287A
Other languages
English (en)
Inventor
中嶋 宏
Hiroshi Nakajima
宏 中嶋
康代 小竹
Yasuyo KOTAKE
康代 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017037287A priority Critical patent/JP2018142258A/ja
Priority to PCT/IB2017/055271 priority patent/WO2018158621A1/en
Priority to EP18708492.6A priority patent/EP3589206A1/en
Priority to CN201880004444.9A priority patent/CN110072454B/zh
Priority to PCT/IB2018/051277 priority patent/WO2018158702A1/en
Priority to US16/462,254 priority patent/US20210287155A1/en
Publication of JP2018142258A publication Critical patent/JP2018142258A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Abstract

【課題】管理者の経験や勘に頼ることなく作業者に対し常に適切な介入を行えるようにし、これにより生産性の安定した改善・向上を可能にする。
【解決手段】作業中の作業者WK1,WK2,WK3の生体計測データおよび動きの計測データを一次指標として、この一次指標と別途生成した学習データとをもとに作業者の感情と認知能力をそれぞれ推定し、さらにこの推定した感情と認知能力を二次指標として、この二次指標と別途生成した関係式とに基づいて作業者の生産能力を推定する。そして、この生産能力の推定値の変化量を介入条件を規定するしきい値と比較し、生産能力の推定値の変化量がしきい値を超えていると判定された場合に、その時点で作業者に対し介入を行うようにしたものである。
【選択図】図4

Description

この発明は、作業者が作業を行う工程を有する生産ラインで使用される生産管理装置、方法およびプログラムに関する。
生産ライン等の各種設備において、設備の動作異常を早期に検出することは、稼働効率の低下を未然に防ぐ上できわめて重要である。そこで、例えば複数のセンサから設備の動作状態を表す測定データを取得し、取得した測定データを事前に生成しておいた学習データに照会することで、設備の動作異常の予兆を検出するシステムが提案されている(例えば特許文献1を参照)。
一方、作業者が作業を行う工程を有する生産ラインにおいては、生産性、つまり品質と生産量に影響を与える要因として、「4M(Machine、Method、Material、Man)」があることが知られている。このうち、Machine、MethodおよびMaterialの3Mについては、これまでも改善、改良を重ねることで生産性の向上が図られてきた。しかし、“Man”は、作業者の習熟度や適性、心身状態等に依存する。このため、一般には管理者が作業者の心身状態を例えば目視観察し、作業者に対し適切な介入を行うことで、生産性を維持・向上させる対策が採られている。
特許第5530019号公報
ところが、管理者が作業者の心身状態を目視観察する手法では、生産性に影響する作業者の心身状態を的確に把握できるかどうかが管理者の経験や勘に依存するため、作業者の心身状態を常に的確に把握できるとは限らない。また、作業者の心身状態の変化を把握できても、いつどのような内容の介入を行うかが管理者の判断に委ねられる。このため、常に適切な介入を行えるとは限らず、生産性の安定した改善・向上が見込めなかった。
この発明は上記事情に着目してなされたもので、管理者の経験や勘に頼ることなく作業者に対し常に適切な介入を行えるようにし、これにより生産性の安定した改善・向上を可能にした生産管理装置、方法およびプログラムを提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、作業者が作業を行う工程を有する生産ラインを管理する生産管理装置または生産管理方法にあって、作業中の作業者の活動状態を表す情報を取得する活動状態取得部または過程と、前記取得された活動状態を表す情報を一次指標とし、当該一次指標と、前記作業者の活動状態と前記作業者の感情および認知能力との関係性を表す第1の学習データとに基づいて、前記作業者の作業中における感情および認知能力を推定する第1の推定部または過程と、前記推定された感情および認知能力の少なくとも一方を二次指標とし、当該二次指標と、前記作業者の感情および認知能力と前記作業者の生産能力との関係性を表す第2の学習データとに基づいて、前記作業者の生産能力を推定する第2の推定部または過程と、前記第2の推定部による生産能力の推定結果と予め設定した介入条件とに基づいて、前記作業者に対する介入のタイミングと内容を決定する介入決定部または過程とを具備するものである。
この発明の第2の態様は、前記介入決定部が、前記第2の推定部による生産能力の推定結果が第1の条件に満たないと判定されたタイミングで、前記作業者に対し第1の内容の介入を行うことを決定する第1の決定部と、前記第1の内容の介入を行った後に、前記第2の推定部による生産能力の推定結果が第2の条件に満たないと判定されたタイミングで、前記作業者に対し前記第1の内容とは異なる第2の内容の介入を行うことを決定する第2の決定部とを備えるようにしたものである。
この発明の第3の態様は、前記第1の決定部が前記第1の介入の内容として前記作業者に対し視覚的または聴覚的な刺激を与えることを決定し、前記第2の決定部が前記第2の介入の内容として前記作業者に対し触覚的な刺激を与えることを決定するようにしたものである。
この発明の第4の態様は、前記介入決定部が、前記第1または第2の内容の介入を行った後に、前記第2の推定部による生産能力の推定結果が第3の条件に満たないと判定されたタイミングで、前記作業者に対し作業の中断を指示する第3の決定部を、さらに備えるようにしたものである。
この発明の第1の態様によれば、作業中の作業者の活動状態を示す情報を一次指標として、この一次指標と別途生成された第1および第2の学習データとをもとに作業者の感情と認知能力がそれぞれ推定され、さらにこの推定された感情と認知能力を二次指標として、この二次指標と別途生成された第2の学習データとに基づいて作業者の生産能力が推定される。そして、生産能力の推定値と予め設定した介入条件とに基づいて作業者に対する介入のタイミングと内容が決定される。このため、管理者の経験や勘に頼ることなく、作業者に対し常に適切なタイミングで適切な内容の介入が行えるようになり、これにより生産性の安定した改善・向上が可能となる。
この発明の第2の態様によれば、作業者の生産能力の推定結果が第1の条件に満たないと判定されたタイミングで上記作業者に対し第1の内容の介入が行われ、当該第1の内容の介入が行われた後、作業者の生産能力の推定結果が第2の条件に満たないと判定されたタイミングで、上記作業者に対し上記第1の内容とは異なる第2の内容の介入が行われる。このため、作業者の生産能力の推定結果に応じて段階的に複数回の介入が行われることになり、作業者の生産能力を効果的に回復させることが可能となる。
この発明の第3の態様によれば、1回目の介入では作業者に対し視覚的または聴覚的な刺激が与えられ、2回目の介入では作業者に対し触覚的な刺激が与えられる。このため、作業者に対し段階的に徐々に強い内容の介入が行われることになり、これにより介入による作業者の心理的な悪影響を抑制しつつ生産能力を回復させることが可能となる。
この発明の第4の態様によれば、第1または第2の内容の介入が行われた後、作業者の生産能力の推定結果が第3の条件に満たないと判定されたタイミングで、作業者に対し作業の中断が指示される。このため、例えば体調が悪化した作業者を適切なタイミングで休息させることができ、これにより作業員の健康と製品の品質の両方を効果的に維持させることが可能となる。
すなわちこの発明によれば、管理者の経験や勘に頼ることなく作業者に対し常に適切な介入を行うことが可能となり、これにより生産性を安定的に改善・向上させることが可能な生産管理装置、方法およびプログラムを提供することができる。
この発明の一実施形態に係る生産管理システムの概略構成図。 図1に示したシステムで使用される感情入力デバイスおよび計測デバイスの一例を示す図。 図1に示したシステムで使用される他の計測デバイスを示す図。 図1に示したシステムに設けられる生産管理装置の機能構成を示すブロック図。 図4に示した生産管理装置により実行される感情学習処理の処理手順と処理内容を示すフローチャート。 図4に示した生産管理装置により実行される認知能力学習処理の処理手順と処理内容を示すフローチャート。 図5に示した感情学習モードにおける感情学習データ生成・記憶処理の手順と処理手順の前半部分を示すフローチャート。 図5に示した感情学習モードにおける感情学習データ生成・記憶処理の手順と処理手順の後半部分を示すフローチャート。 図6に示した認知能力の学習処理における学習データ生成・記憶処理の手順と処理手順の前半部分を示すフローチャート。 認知能力推定処理の説明に使用する作業工程の一例を示す図。 図4に示した生産管理装置において実行される生産管理処理の手順と処理内容を示すフローチャート。 図11に示した処理手順のうち感情推定処理の手順と処理内容を示すフローチャート。 図11に示した処理手順のうち認知能力推定処理の手順と処理内容を示すフローチャート。 図11に示した処理手順のうち介入制御の処理手順と処理内容を示すフローチャート。 図14に示した介入制御の第1の実施例を説明するための図。 図14に示した介入制御の第2の実施例を説明するための図。 図2に示した感情入力デバイスにおいて入力される感情情報の定義を説明するための図。 図1に示したシステムの感情入力デバイスを用いた感情情報の入力結果の一例を示す図。 図1に示したシステムの感情入力デバイスにおいて入力された感情情報をクラス分けした図。 図1に示したシステムの感情入力デバイスにおいて入力された感情情報の変化量を示す図。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(原理)
生産ラインの生産性に影響を与える要因には、「4M(Machine、Method、Material、Man)」がある。このうち“Man”が生産性に及ぼす要因として、本実施形態では脳神経活動に基づく感情と認知能力を定義する。感情は、例えば人の作業に対するやる気および気分(快/不快)であり、時間又は日単位の比較的短期間において変動する。認知能力は、例えば人の作業に対する注意力や判断力に影響し、年又は月単位の比較的長期間で変動する人のベースラインの能力である。
本実施形態では、脳神経活動と相関を有する人の活動状態を表す情報、例えば生体情報および動きの情報を一次指標とし、この活動状態を表す情報と、作業者自身が入力する感情の正解値とから感情を推定する。活動状態を表す情報としては、例えば心電、皮膚電位、モーションおよび活動量等の生体情報や行動情報が用いられる。
認知能力は、人の活動状態を表す情報のうち、注意力や判断力が反映される例えば目の動きと手の動きの各特徴量を一次指標とし、この目の動きと手の動きの特徴量と、認知能力の正解値とから認知能力を推定する。目の動きを表す特徴量としては、例えば視線の移動速度、注視位置座標とその注視時間、瞬きの回数、瞳孔サイズの変化がある。手の動きを表す特徴量としては例えば3軸加速度がある。
本実施形態では、先ず作業者ごとに上記感情と認知能力についてそれぞれ事前に学習データを生成する。これらの学習データは、上記した正解値と一次指標とをもとに生成する。そして、作業中に作業者の活動状態の変化を計測し、その計測データを一次指標とし、当該一次指標と上記学習データとをもとに作業者の感情および認知能力の変化をそれぞれ推定する。
さらに、作業者ごとに、感情および認知能力の変化と作業者の生産能力の変化との相関を表す関係式を、生産能力を推定するための学習データとして予め生成しておく。そして、上記推定された作業者の感情および認知能力の変化を二次指標とし、この二次指標と上記関係式とに基づいて、作業者の現在または今後の生産能力の変化を推定する。
生産能力を表す情報は、一般に品質と生産個数により定義されるが、本実施形態ではより具体的に習熟度を表す情報と、作業ミスの発生度合いを表す情報とにより表す。習熟度を表す情報は、例えば標準的な作業時間と実際の作業時間との差で表される。作業ミスの発生度合いを表す情報は、例えば平均的な作業時間に対する実際の作業時間のばらつきとして表される。
本実施形態では、作業者ごとに、作業中に上記作業時間と実際の作業時間との差の情報、および平均的な作業時間に対する実際の作業時間のばらつきを表す情報を、それぞれ生産能力を表す情報として推定し、この推定された生産能力を表す情報と、予め設定した介入条件とに基づいて、作業者に対する介入タイミングと介入の内容を決定する。
(構成)
この発明の一実施形態に係る生産管理システムは、セル生産システムからなる。セル生産システムとは、製品を生産する工程を複数に分ける。そして、生産ライン上にこれらの工程に対応するセルと呼ばれる作業エリアを設け、これらのセルにおいてそれぞれ作業者が割り当てられた工程の作業を行うシステムである。
図1はセル生産システムの一例を示すもので、U字型をなす生産ラインCSを備えている。生産ラインCSは、例えば製品の流れの方向に工程の異なる3つのセルC1,C2,C3を有し、これらのセルC1,C2,C3にはそれぞれ作業者WK1,WK2,WK3が配置される。また生産ラインCS全体の作業を監視するために、熟練者であるリーダWRが配置される。リーダWRはスマートフォンやタブレット型端末等の携帯型情報端末TMを所持する。携帯型情報端末TMは、リーダWRに対し生産作業の管理のための情報を表示するために使用される。
生産ラインCSの最上流の位置には、部品供給装置DSおよび部品供給コントローラDCが配置されている。部品供給装置DSは、部品供給コントローラDCから送られる供給指示に従い、製造に必要な複数種類の部品を、指示された速度でラインCSに供給する。また生産ラインCSの任意のセルC1には協調ロボットRBが配置されている。協調ロボットRBは、部品供給コントローラDCからの指示に従い、部品の供給速度に協調して製品B1への部品の組み付け作業等を行う。
生産ラインCSの各セルC1,C2,C3には、それぞれモニタMO1,MO2,MO3が配置されている。これらのモニタMO1,MO2,MO3は、それぞれ作業者WK1,WK2,WK3に対し、個々の作業に関する指示情報や介入の一形態に相当する介入メッセージ等を提示するために用いられる。
また生産ラインCSの上方空間には作業監視カメラCMが配置されている。作業監視カメラCMは、各セルC1,C2,C3において作業者WK1,WK2,WK3による製品B1,B2,B3の生産作業の結果を監視するための映像を撮像する。この生産作業の結果は、認知推定用の学習データを生成する際に、正解値として用いられる。
ところで、作業者WK1,WK2,WK3の感情および認知能力を推定するために、作業者WK1,WK2,WK3にはそれぞれ入力・計測装置SS1,SS2,SS3が設けられる。入力・計測装置SS1,SS2,SS3は、感情の正解値を入力する手段として用いる感情入力デバイス2と、感情および認知能力を推定する際の一次指標となる作業者の活動状態を計測する計測デバイス3および視線監視カメラ4を備えている。
感情入力デバイス2は、例えば図2に示すようにスマートフォンまたはタブレット型端末からなり、アプリケーションプログラムの制御の下で感情入力画面を表示する。感情入力画面は、感情の活性度(Arousal)を縦軸にとり、活性度の強度(Valence)を横軸にとることで、感情を二次元座標平面で表したものである。上記感情入力画面上において、作業者が自身のその時の感情に対応する位置をプロットすると、感情入力デバイス2はこのプロットされた位置座標を作業者の感情を表す情報として認識する。
なお、上記感情をArousalとValenceとからなる二次元座標平面で表す手法は、ラッセルの円環モデルとして知られている。図17にその概要を示す。図18は感情入力デバイス2による時間帯別の感情の入力結果の一例を示したもので、活性度(Arousal)により「やる気」のあるなしとその程度が表され、活性度の強度(Valence)により「気分」の快(ワクワク)/不快(イライラ)とその程度が表される。
感情入力デバイス2は、上記感情を表す情報として検出した位置座標を、ArousalとValenceとで表される二次元座標平面の象限とArousalおよびValenceの各値に変換する。そして、この変換後のデータに入力日時を表すタイムスタンプデータを付与し、これを感情入力データ(以後スケールデータと呼ぶ)として、無線インタフェースを使用することによりネットワークNWを介して生産管理装置1へ送信する。
計測デバイス3は、例えばウェアラブル端末に内蔵され、図3に示すように作業者の手首に装着される。なお、計測デバイス3はウェアラブル端末に内蔵する以外に、衣服やベルト、ヘルメット等に装着するものであってもよい。計測デバイス3は、人の感情および認知能力と相関を持つ人の活動状態を表す情報を計測する。人の活動状態を表す情報には生体情報と動きを表す情報が含まれる。生体情報および動きを表す情報を計測するために、計測デバイス3は複数種類の生体センサおよび動きセンサを内蔵する。これらの生体センサおよび動きセンサは、例えば、心電H、皮膚電位G、モーションBMおよび活動量Exを計測するセンサを含む。
心電センサは、予め設定した周期或いは任意のタイミングで作業者の心電Hの波形データを計測し、その計測データを出力する。皮膚電位センサは、例えばポリグラフ計からなり、上記予め設定した周期或いは任意のタイミングで作業者の皮膚電位Gを計測し、その計測データを出力する。モーションBMを計測するセンサとしては、例えば3軸加速度センサが用いられ、作業者の手の動きを表す3軸加速度の計測データを出力する。活動量Exを計測するセンサとしては活動量計が用いられ、身体活動の強度(メッツ)と、身体活動の量(エクササイズ)を表す計測データを出力する。なお、生体センサとしては、他に筋電を計測する筋電センサ等も利用可能である。
視線監視カメラ4は小型イメージセンサからなり、例えば図3に示すように作業者WK1,WK2,WK3の帽子に取り付けられるか、またはメガネやゴーグルのフレームに装着される。視線監視カメラ4は、作業者の目の動き(眼球運動EM)を撮像し、その撮像画像データを計測データの1つとして生産管理装置1へ送信する。
なお、計測デバイス3および視線監視カメラ4は、上記各計測データを送信する際に、計測日時を表すタイムスタンプデータを付与し、この計測データを無線インタフェースを用いてネットワークNW経由で生産管理装置1へ送信する。
無線インタフェースとしては、例えば、無線LAN(Local Area Network)やBluetooth(登録商標)等の小電力型無線データ通信規格を採用した無線インタフェースが使用される。なお、感情入力デバイス2とネットワークNWとの間を接続するインタフェースとしては、公衆移動通信ネットワークやUSB(Universal Serial Bus)等の有線信号ケーブルを使用してもよい。
また、作業者WK1,WK2,WK3に対し触覚を用いた介入を行うために、作業者WK1,WK2,WK3にはそれぞれ刺激付与装置AC1,AC2,AC3が設けられている。刺激付与装置AC1,AC2,AC3は、例えばバイブレータを備えたもので、後述する生産管理装置1から送信される駆動信号に応じて振動を発生する。
次に、生産管理装置1の構成について説明する。図4はその機能構成を示すブロック図である。生産管理装置1は、例えばパーソナルコンピュータまたはサーバコンピュータからなり、制御ユニット11と、記憶ユニット12と、インタフェースユニット13とを備えている。
インタフェースユニット13は、ネットワークNWにより規定された通信プロトコルに従ってデータ通信を行うもので、上記入力・計測装置SS1,SS2,SS3から送信された各計測データをネットワークNWを介して受信する。またインタフェースユニット13は、制御ユニット11から出力された表示データを携帯型情報端末TMおよび各モニタMO1,MO2,MO3へ送信すると共に、制御ユニット11から出力された生産ラインCSの制御指示コマンドを部品供給コントローラDCへ送信する。なお、インタフェースユニット13はマンマシンインタフェース機能も備える。このマンマシンインタフェース機能は、キーボードやマウス等の入力デバイスから出力された入力データを受信すると共に、制御ユニット11から出力された表示データを図示しないディスプレイへ出力し表示させる。
記憶ユニット12は、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書き込み読み出しが可能な不揮発性メモリを使用したもので、本実施形態を実施する上で必要な記憶領域として、センシングデータ記憶部121と、学習データ記憶部122と、介入履歴記憶部123とを備えている。
センシングデータ記憶部121は、上記入力・計測装置SS1,SS2,SS3から送信される各データ、つまり感情入力デバイス2において入力された作業者の感情を表すスケールデータと、計測デバイス3の各センサにより計測された各計測データと、視線監視カメラ4から出力される画像データを、送信元の作業者WK1,WK2,WK3の識別情報と紐付けて記憶するために使用される。またセンシングデータ記憶部121は、上記作業監視カメラCMから送信される、製品に対する作業の結果を撮像した画像データを記憶するためにも使用される。
学習データ記憶部122は、制御ユニット11により作業者WK1,WK2,WK3ごとに生成される、感情の推定に使用する学習データ、認知能力の推定に使用する学習データ、および生産能力の推定に使用する学習データをそれぞれ記憶するために使用される。
介入履歴記憶部123は、制御ユニット11により作業者WK1,WK2,WK3に対する介入が行われた場合に、その介入の結果を表す情報、つまり介入タイミングと介入内容を表す情報を介入履歴として記憶するために使用される。
制御ユニット11は、CPU(Central Processing Unit)および作業用メモリを有し、本実施形態を実施する上で必要な制御機能として、センシングデータ取得制御部111と、特徴量抽出部112と、生産能力推定部113と、介入制御部114と、学習データ生成部115とを備えている。これらの制御機能はいずれも、図示しないプログラムメモリに格納されたアプリケーションプログラムを上記CPUに実行させることにより実現される。
センシングデータ取得制御部111は、上記入力・計測装置SS1,SS2,SS3から送信される各データ、つまり感情入力デバイス2から出力されるスケールデータ、計測デバイス3から出力される計測データ、および視線監視カメラ4から出力される画像データをインタフェースユニット13を介して取得し、取得した各データをセンシングデータ記憶部121に記憶させる処理を行う。またセンシングデータ取得制御部111は、作業監視カメラCMから送信される、各作業者WK1,WK2,WK3による作業結果を撮像した作業監視画像データについても、インタフェースユニット13を介して取得してセンシングデータ記憶部121に記憶させる。
特徴量抽出部112は、学習モードにおいて、時系列上の異なる複数の時間位置に設定されるウィンドウごとに、上記センシングデータ記憶部121から上記ウィンドウに含まれるスケールデータ、各計測データおよび画像データを作業者WK1,WK2,WK3別に読み込む。そして、読み込んだスケールデータ、各計測データおよび画像データのそれぞれについて、それぞれ特徴量を抽出してその変化量を算出し、その算出結果を学習データ生成部115に渡す。
なお、ウィンドウは所定の単位時間幅を有し、時系列上で隣り合うウィンドウ同士が互いに重ならないように上記単位時間幅ずつシフトすることにより設定されるか、または時系列上で隣り合うウィンドウ同士が部分的に重なるように上記単位時間幅より短い時間ずつ順次シフトすることにより設定される。また、ウィンドウの単位時間幅は所定の範囲で一定量ずつ可変可能である。
学習データ生成部115は、作業者WK1,WK2,WK3ごとに、上記特徴量抽出部112により抽出されたスケールデータのArousalおよびValence別の特徴量の変化量を正解値(教師データ)とし、各計測データの特徴量の変化量を変数として、重回帰分析を行うことで、感情と各計測データの特徴量との関係性を表す第1の回帰式をArousalおよびValence別に生成する。そして、生成した各回帰式を、どの時間位置のウィンドウであるかを示すウィンドウ識別情報と対応付けて、感情の推定に使用する学習データとして学習データ記憶部122に記憶させる。
また学習データ生成部115は、作業者WK1,WK2,WK3ごとに、作業監視カメラCMの撮像画像データから抽出された作業結果を表すデータを正解値とし、目の動きを示すデータおよび手の動きを示すデータをそれぞれ変数として、重回帰分析を行う。目の動きを表すデータは、特徴量抽出部112により、視線監視カメラ4の撮像画像データから抽出される。また、手の動きを表すデータは、特徴量抽出部112により、計測デバイス3に含まれる3軸加速度センサの計測データから抽出される。かくして学習データ生成部115は、作業者WK1,WK2,WK3ごとに、認知能力と、目の動きおよび手の動きとの関係性を表す第2の回帰式を生成する。そして、生成した第2の回帰式を、認知能力を推定するための学習データとして学習データ記憶部122に記憶させる。
さらに学習データ生成部115は、作業者WK1,WK2,WK3ごとに、上記推定された感情および認知能力の変化を二次指標として、この二次指標と作業者の生産能力の変化との相関を表す関係式を生成する。そして、生成した関係式を、生産能力を推定するための学習データとして学習データ記憶部122に記憶させる。
具体的には、生産能力を表す情報として、習熟度を表す情報と、作業ミスの発生度合いを表す情報を定義する。習熟度を表す情報は、例えば標準的な作業時間と実際の作業時間との差の情報として表される。また作業ミスの発生度合いを表す情報は、例えば平均的な作業時間に対する実際の作業時間のばらつきを示す情報として表される。学習データ生成部115は、上記習熟度を表す情報、および作業ミスの発生度合いを表す情報の各々について、これらの情報を上記感情および認知能力の変化の推定値から推定するための関係式を生成し、学習データ記憶部122に記憶させる。
また特徴量抽出部112は、生産能力の推定モードにおいて、時系列上の異なる複数の時間位置に設定されるウィンドウごとに、上記センシングデータ記憶部121から上記ウィンドウに含まれる各計測データおよび画像データを作業者WK1,WK2,WK3別に読み込む。そして、読み込んだ各計測データおよび画像データからそれぞれ感情および認知能力を推定するための特徴量の変化を抽出し、この特徴量の変化を生産能力推定部113に渡す。
生産能力推定部113は、作業者WK1,WK2,WK3ごとに、上記特徴量抽出部112から上記抽出された感情および認知能力を推定するための特徴量の変化を受け取ると共に、上記学習データ記憶部122から上記感情を推定するための第1の回帰式と、認知能力を推定するための第2の回帰式を読み込む。そして、上記特徴量抽出部112から受け取った特徴量の変化と、上記第1および第2の回帰式とを用いて、感情および認知能力の変化をそれぞれ推定する処理を行う。
また生産能力推定部113は、作業者WK1,WK2,WK3ごとに、上記学習データ記憶部122から生産能力を推定するための関係式を読み込む。そして、上記感情および認知能力の変化の各推定値と、上記読み込んだ関係式とを用いて、作業者WK1,WK2,WK3の生産能力をそれぞれ推定する。具体的には、習熟度を表す、標準的な作業時間と実際の作業時間との差の情報と、作業ミスの発生度合いを表す、平均的な作業時間に対する実際の作業時間のばらつきを推定する処理を行う。
介入制御部114は、作業者WK1,WK2,WK3ごとに、上記生産能力推定部113による生産能力の推定結果を予め定めた介入条件と比較し、その比較結果に基づいて、作業者WK1,WK2,WK3に対する介入タイミングと介入の内容を決定する。
介入の内容としては、例えば、視覚的または聴覚的な手法を用いて作業者に刺激を与えるものと、触覚的な手法を用いて作業者に刺激を与えるものと、作業者に作業の中断(休息)を指示するものがある。介入制御部114は、介入の回数に応じて上記介入の内容を選択し、モニタMO1,MO2,MO3に介入内容を表すメッセージを表示させたり、刺激付与装置AC1,AC2,AC3を駆動して振動を発生させる処理を行う。
なお、モニタMO1,MO2,MO3に介入内容を表すメッセージを表示させる代わり、或いはそれに加えて、合成音声からなるメッセージやチャイムを発生させるようにしてもよい。
(動作)
次に、以上のように構成された生産管理装置1の動作を、システム全体の動作と共に説明する。
(1)学習データの生成
作業者WK1,WK2,WK3の生産能力の推定に先立ち、生産管理装置1は先ず作業者WK1,WK2,WK3ごとにその生産能力の推定に使用する学習データを以下のように生成する。
(1−1)感情推定に使用する学習データの生成
生産管理装置1は、先ず作業者WK1,WK2,WK3ごとに感情推定に使用する学習データを以下のように生成する。図5はその処理手順と処理内容を示すフローチャートである。
すなわち、作業者WK1,WK2,WK3にそれぞれ実際に作業をしてもらいながら、所定の時間間隔又は任意のタイミングでその時々の作業者自身の感情を、感情入力デバイス2により入力してもらう。
感情入力デバイス2は、先に述べたように感情を活性度(Arousal)とその強度(Valence)とからなる二次元座標平面で表したもので、作業者WK1,WK2,WK3がプロットした二次元座標平面における座標値を検出する。また、このとき感情入力デバイス2は、上記二次元座標平面を図19に示すように4つの象限“1”,“2”,“3”,“4”に分け、さらにArousalおよびValenceの各軸の値を図20に示すように交点を0として、−100〜+100により表している。感情入力デバイス2は、上記検出した座標値を、上記象限を表す情報と、上記ArousalおよびValenceの各軸の値に変換する。そして、この変換後の情報に、入力日時を表すタイムスタンプデータと作業者WK1,WK2,WK3の識別情報(作業者ID)を付加し、これをスケールデータとして生産管理装置1へ送信する。
また、それと並行して計測デバイス3では、上記作業中の作業者WK1,WK2,WK3の心電H、皮膚電位G、モーションBMおよび活動量Exが一定の時間間隔で計測される。そして、その各計測データが、計測時刻を表すタイムスタンプデータと作業者WK1,WK2,WK3の作業者IDと共に生産管理装置1へ送信される。さらに、作業者WK1,WK2,WK3の目の動きを表す眼球運動EMが視線監視カメラ4により撮像される。そして、その画像データが、タイムスタンプデータと作業者WK1,WK2,WK3の識別情報(作業者ID)と共に生産管理装置1へ送信される。
生産管理装置1は、作業者WK1,WK2,WK3ごとに、上記感情入力デバイス2から送信されるスケールデータを、ステップS11により、センシングデータ取得制御部111の制御の下でインタフェースユニット13を介して受信し、この受信したスケールデータをセンシングデータ記憶部121に記憶させる。
またそれと共に、作業者WK1,WK2,WK3ごとに、上記計測デバイス3から送信される各計測データおよび視線監視カメラ4から送信される画像データを、ステップS12により、センシングデータ取得制御部111の制御の下でインタフェースユニット13を介して受信し、この受信した各計測データおよび画像データをセンシングデータ記憶部121に記憶させる。
上記スケールデータと各計測データおよび画像データが一定期間分(例えば1日分又は1週間分)蓄積されると、生産管理装置1はステップS13により、特徴量抽出部112および学習データ生成部115の制御の下で、感情推定用の学習データの生成処理を以下のように実行する。図7および図8はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS131によりウィンドウWi(i=1,2,3,…)の単位時間幅を初期値に設定し、ステップS132によりi=1番目のウィンドウを選択する。次に特徴量抽出部112が、ステップS133により、上記1番目のウィンドウの期間に含まれる複数のスケールデータを上記センシングデータ記憶部121から読み込み、ステップS134によりArousalおよびValence別にその特徴量の変化量を算出する。
例えば、いま図18に示すように1つのウィンドウの期間内にスケールデータK1,K2が入力された場合には、象限が“3”→“4”、Arousal+20、Valence+50のように変化量が算出される。なお、象限が“3”→“2”のように対角状に変化した場合にも、ArousalおよびValence別にその特徴量の変化量を算出すればよい。
特徴量抽出部112は、続いてステップS135により、上記1番目のウィンドウの期間に計測された各計測データと画像データ、つまり心電H、皮膚電位G、モーションBMおよび活動量Exの各計測データと、眼球運動EMを表す画像データを、上記センシングデータ記憶部121から読み込む。そして、ステップS136においてこれらの計測データおよび画像データから特徴量を抽出する。
例えば、心電Hの特徴量としては、心拍の間隔(R-R Interval:RRI )、当該RRI のパワースペクトルの高周波成分(HF)および低周波成分(LF)を抽出する。皮膚電位Gの特徴量としては、皮膚電気抵抗(Galvanic Skin Response:GSR)を抽出する。モーションBMの特徴量としては、例えば手の動きの方向とその速度を抽出する。手の動きの方向とその速度は、例えば3軸加速度センサにより計測される3軸加速度から算出される。活動量Exの特徴量は、身体活動の強度(METs)とエクササイズ(EX)により表される。エクササイズ(EX)は、身体活動の強度(METs)×身体活動の実施時間により算出される。眼球運動EMの特徴量としては、例えば視線の移動速度、注視位置座標とその注視時間、瞬きの回数、瞳孔サイズの変化を抽出する。
そして特徴量抽出部112は、上記抽出された心電H、皮膚電位G、モーションBM、活動量Exおよび眼球運動EMの各特徴量の、上記ウィンドウの期間内における変化量をそれぞれ算出する。
次に学習データ生成部115は、ステップS137において、上記ステップS134で算出されたスケールデータの特徴量の変化量と、上記ステップS136により算出された各計測データおよび画像データの特徴量の変化量とに基づいて、ArousalおよびValence別に学習データを生成する。
例えば、スケールデータのArousalおよびValence別の特徴量の変化量を教師データとし、各計測データおよび画像データの特徴量の変化量を一次指標となる独立変数として、重回帰分析を行う。そして、作業者WK1,WK2,WK3ごとに、感情の変化と、各計測データおよび画像データの特徴量の変化との関係性を表す回帰式をArousalおよびValence別に生成する。
以下にi番目のウィンドウに対応する回帰式を示す。
XA^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi )
XV^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi ) …(1)
但し、XA^i ,XV^i はArousalおよびValenceの変化の推定値、α1,α2,α3 ,α4,α5 はそれぞれ計測データHi ,Gi ,EMi ,BMi ,Exの特徴量に対する重み付け係数、fは一次指標である計測データHi ,Gi ,EMi ,BMi ,Exの特徴量から得られる指標の総合計を示す。重み付け係数は、例えば学習段階で得られる母集団データの中の比率などを考慮して加重平均などにより設定してもよい。なお、XA^iおよびXV^i の“^”は、「ハット」と読み、本来はXA、XVの頭部に記述される記号である。
学習データ生成部115は、上記生成されたi番目のウィンドウに対応するArousalおよびValenceの回帰式を、ステップS138により学習データ記憶部122に保存する。そして、ステップS139により、すべてのウィンドウWiについて回帰式の生成処理が終了したか否かを判定し、未選択のウィンドウが残っていればステップS132に戻り、次の未選択のウィンドウを選択してステップS133〜S139による一連の感情推定用の学習データの生成処理を繰り返す。
また、特徴量抽出部112および学習データ生成部115は、ウィンドウの単位時間幅とシフト量の最適値を決定するために、ウィンドウの単位時間幅を一定量ずつ可変すると共に、ウィンドウの時系列方向へのシフト量を一定量ずつ可変する。そして、そのすべての組み合わせの中で、回帰式により得られる感情推定値と、感情入力デバイス2により入力された感情情報の正解値との差分が最も小さい組み合わせを選択し、この選択したウィンドウの単位時間幅とシフト量、およびこの組み合わせのときに生成された回帰式を感情推定用として設定する。
以上の最適なウィンドウを選択する処理の一例を以下に説明する。図8はその処理手順と処理内容を示すフローチャートである。
すなわち、学習データ生成部115は、ステップS141により、ウィンドウWiごとに生成された各回帰式をもとに感情の推定値XA^i ,XV^iをそれぞれ算出し、算出されたすべてのXA^i ,XV^iの合計XA^,XV^を算出する。そして、ステップS142により、感情入力デバイス2により入力された感情情報の真値の合計XA,XVと、上記感情の推定値の合計XA^,XV^との差分を
Σ(XA−XA^),Σ(XV−XV^)
により算出し、その算出結果を学習データ記憶部122に保存する。なお、図8では図示の簡単のためΣ(XA−XA^)のみを代表して示している。
学習データ生成部115は、次にステップS143において、ウィンドウの単位時間幅とシフト量の可変を終了したか否か、つまりウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理を終了したか否かを判定する。この判定の結果、まだ終了していなければ、ステップS144によりウィンドウWiの単位時間幅とシフト量を一定量可変し、図7に示すステップS132に戻る。そして、ステップS132〜S143による処理を実行する。以後、ウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理が終了するまで、上記ステップS132〜S144による処理を繰り返す。
そして、ウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理が終了すると、学習データ生成部115はステップS145に移行し、上記ウィンドウの単位時間幅とシフト量のすべての組み合わせについて計算された、感情情報の真値の合計XA,XVと、上記感情の推定値の合計XA^,XV^との差分をΣ(XA−XA^),Σ(XV−XV^)を比較する。そして、Σ(XA−XA^),Σ(XV−XV^)がいずれも最小となるウィンドウの単位時間幅とシフト量の組み合わせを選択する。
学習データ生成部115は、続いてステップS146において、上記選択されたウィンドウの単位時間幅とシフト量の組み合わせを特徴量抽出部112に設定すると共に、ステップS147において上記選択した組み合わせに対応する回帰式を学習データ記憶部122に記憶させる。かくして、感情推定に使用する学習データの生成を終了する。
(1−2)認知能力の推定に使用する学習データの生成
次に学習データ生成部115は、認知能力の推定に使用する学習データを以下のように生成する。図6はその処理手順と処理内容を示すフローチャートである。
すなわち、作業者WK1,WK2,WK3ごとに、計測デバイス3の3軸加速度センサにより手の動きを示すモーションBMが計測され、その計測データが生産管理装置1へ送信される。またそれと共に、視線監視カメラ4により作業中の目の動きを示す眼球運動EMが撮像され、その撮像画像データが生産管理装置1へ送信される。
生産管理装置1は、センシングデータ取得制御部111の制御の下で、ステップS14により、作業者WK1,WK2,WK3ごとに、上記計測デバイス3から送信される手の動きを示すモーションBMの計測データと、視線監視カメラ4から送信される眼球運動EMを示す画像データを、インタフェースユニット13を介して受信し、この受信した各計測データおよび画像データをセンシングデータ記憶部121に記憶させる。なお、上記モーションBMの計測データおよび眼球運動EMの画像データは、先に述べた感情推定用の学習データを生成する処理の過程で得られたデータをそのまま利用してもよい。
また生産ラインCSの各セルC1,C2,C3では、作業者WK1,WK2,WK3による作業結果が作業監視カメラCMにより撮像され、その画像データが生産管理装置1へ送信される。生産管理装置1は、センシングデータ取得制御部111の制御の下で、ステップS15により、上記作業監視カメラCMから送信される画像データをインタフェースユニット13を介して受信し、この受信した画像データをセンシングデータ記憶部121に記憶させる。
生産管理装置1は、続いてステップS16において、特徴量抽出部112および学習データ生成部115の制御の下で、以下のように認知能力推定用の学習データを生成する。図9はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS161により任意の作業時間帯(例えば日または週単位)を選択する。そしてステップS162において、特徴量抽出部112がセンシングデータ記憶部121から上記作業結果を表す画像データを読み込み、ステップS163において、上記読み込んだ作業結果を表す画像データから、例えばパターン認識技術を用いて作業の成否を表す特徴量を抽出する。この特徴量は、例えば上記一定期間に発生した作業ミスの回数または発生率により表される。特徴量抽出部112は、上記抽出した特徴量を認知能力の正解値とする。
続いて特徴量抽出部112は、ステップS164において、上記計測デバイス3の3軸加速度センサにより得られた計測データを読み込み、ステップS165において、当該読み込んだ計測データから作業者の手の動きを表す特徴量を抽出する。またそれと共に、ステップS164において、視線監視カメラ4により得られた画像データを読み込み、ステップS165において、当該読み込んだ画像データから作業者の目の動きを表す特徴量(眼球運動EM)を抽出する。このとき、抽出対象となる眼球運動EMは、先に記したように、例えば視線の移動速度、注視位置座標とその注視時間、瞬きの回数、瞳孔サイズの変化により表される。なお、上記モーションBMおよび眼球運動EMの各特徴量は、先に述べた感情推定用の学習データを生成する処理の過程で抽出されたものをそのまま利用することもできる。
次に学習データ生成部115は、ステップS166において、上記作業の成否を表す特徴量を正解値(教師データ)とし、上記手の動きを表す特徴量と眼球運動EMを表す特徴量を変数として、重回帰分析により回帰式を生成する。そして、生成した回帰式を、認知能力を推定するための学習データとして学習データ記憶部122に記憶させる。以下に認知能力推定に使用する回帰式の一例を示す。
Y^i =f(β1 EMi ,β2 BMi ) …(2)
但し、Y^iは認知能力の変化の推定値、β1 ,β2 はそれぞれ眼球運動EMi およびモーションBMiの各特徴量に対する重み付け係数、fは一次指標である眼球運動EMi およびモーションBMiの特徴量から得られる指標の総合計を示す。重み付け係数は、例えば学習段階で得られる母集団データの中の比率などを考慮して加重平均などにより設定してもよい。
学習データ生成部115は、すべての作業時間帯に対し上記回帰式の生成処理を終了したか否かをステップS167で判定し、未選択の作業時間帯が残っていればステップS161に戻って上記回帰式の生成処理を繰り返す。一方、すべての作業時間帯について回帰式の生成が終了すると、ステップS168において、各作業時間帯に対し生成された回帰式を、作業時間帯を表す情報と対応付けて学習データ記憶部122に記憶させる。
(1−3)生産能力の推定に使用する学習データの生成
作業者WK1,WK2,WK3ごとに、感情推定用の学習データと、認知能力推定用の学習データの生成が終了すると、学習データ生成部115は生産能力の推定に使用する学習データを以下のように生成する。
すなわち、学習データ生成部115は、生産能力を表す情報として、習熟度を表す情報と作業ミスの発生度合いを表す情報を定義する。習熟度を表す情報は、例えば標準的な作業時間と実際の作業時間との差として表される。作業ミスの発生度合いを表す情報は、平均的な作業時間に対する実際の作業時間のばらつきとして表される。
学習データ生成部115は、上記感情の推定値および認知能力の推定値を二次指標とし、過去と現在の二次指標の差の大きさから作業者の習熟度を推定する関係式を生成する。以下にこの関係性の一例を示す。
すなわち、現在における感情の推定値をx1 、認知能力の推定値をy1 とし、過去における感情の推定値の平均をX2 、認知能力の推定値をY2 とし、さらに感情および認知能力に対する重み係数をそれぞれγa1 ,γa2 とすると、習熟度QualityAは、
QualityA=√{(γa1 (X2 −x1 ))2
+√{(γa2 (Y2 −y1 ))2 } …(3)
と表される。
また学習データ生成部115は、上記感情の推定値および認知能力の推定値を二次指標とし、過去から現在までの二次指標のばらつきから作業者の作業ミスの発生度合いを推定する関係式を生成する。以下にこの関係性の一例を示す。
すなわち、現在における感情の推定値をx1 、認知能力の推定値をy1 とし、過去における感情の推定値をX1 、認知能力の推定値をY1 とし、さらに感情および認知能力に対する重み係数をそれぞれγb1 ,γb2 とすると、作業ミスの発生度合いQualityBは
QualityB=γb1 √{((X1 −x1 )/Σ(X−xi ))2
+γb2 √{((Y1 −y1 )/Σ(Y−yi ))2 } (4)
と表される。
なお、上記重み係数γa1 ,γa2 ,γb1 ,γb2 は、作業者WK1,WK2,WK3ごとに、例えば重回帰分析により求めるか、或いは作業者WK1,WK2,WK3に対するアンケート調査により決定することができる。
(2)生産能力の推定
上記生産能力推定用の学習データの生成が終了すると、生産管理装置1はこの学習データを用いて、以後作業中の作業者WK1,WK2,WK3の生産能力を以下のように推定する。図11はその推定処理の手順と処理内容を示すフローチャートである。
(2−1)作業者のセンシングデータの収集
作業開始指示コマンドの入力をステップS21で検出すると、生産管理装置1はステップS22において、事前に指定入力された生産量指示情報(例えば100個/日)に応じて部品供給コントローラDCに対し部品供給速度を初期指定する。そうすると、部品供給コントローラDCの指示に従い、部品供給装置DSが製造対象の製品に対応する部品群を指示された速度で生産ラインCSに供給する。この部品群の供給を受けて、作業者WK1,WK2,WK3はそれぞれ割り当てられたセルにおいて製品を生産するための作業を開始する。
上記作業中において、作業者WK1,WK2,WK3ごとに設けられた入力・計測装置SS1,SS2,SS3では、計測デバイス3により所定の時間間隔又はタイミングにおいて作業者の心電H、皮膚電位G、モーションBMおよび活動量Exが計測され、その計測データが生産管理装置1へ送信される。また、作業者WK1,WK2,WK3ごとにその目の動きを示す眼球運動EMが視線監視カメラ4により撮像され、その撮像画像データが生産管理装置1へ送信される。
これに対し生産管理装置1は、上記入力・計測装置SS1,SS2,SS3から送信される各計測データおよび画像データを、センシングデータ取得制御部111の制御の下で、ステップS23によりインタフェースユニット13を介して受信する。そして、受信した各データをセンシングデータ記憶部121に記憶させる。
(2−2)作業者の感情の推定
次に生産管理装置1は、予め設定した一定時間(例えば1時間)が経過したことをステップS24で判定すると、先ずステップS25により作業者WK1,WK2,WK3の一人を選択する。そして、特徴量抽出部112が、上記選択した作業者に紐付けられた各計測データおよび画像データをセンシングデータ記憶部121から読み込み、この各計測データおよび画像データからそれぞれ特徴量を抽出する。
例えば、心電H、皮膚電位G、モーションBMおよび活動量Exの各計測データと、眼球運動EMを撮像した画像データから、それぞれ感情の変化と相関のある心電Hi 、皮膚電位Gi 、モーションBMi 、活動量Exi および眼球運動EMi の各特徴量を抽出する。またそれと共に、モーションBMの計測データと眼球運動EMの画像データから、認知能力の変化と相関のある特徴量を抽出する。なお、ここで抽出される各特徴量は、先に述べた学習データの生成処理において抽出されるものと同じであるため、ここでの説明は省略する。
続いて生産管理装置1は、生産能力推定部113の制御の下で、先ずステップS26により作業者の感情の変化を推定する。図12はその処理手順と処理内容を示すフローチャートである。
すなわち、生産能力推定部113は、先ずステップS261により上記特徴量抽出部112から感情の推定に使用する各特徴量を受け取ると共に、ステップS262により上記一定時間の時間帯に対応する感情推定用のArousalおよびValence別の回帰式((1)式)を、学習データ記憶部122から読み込む。続いてステップS263において、上記感情の推定に使用する各特徴量と、上記ArousalおよびValence別の回帰式に基づいて、上記作業者の上記一定時間の時間帯における感情変化の推定値XA^i ,XV^iを算出する。
(2−3)作業者の認知能力の推定
次に生産管理装置1は、特徴量抽出部112により、上記一定時間に計測されたモーションBMi の計測データと、眼球運動EMi を撮像した画像データから、それぞれ認知能力と相関のある特徴量を抽出する。
次に生産管理装置1は、生産能力推定部113の制御の下で、先ずステップS26により作業者の認知能力を推定する。図13はその処理手順と処理内容を示すフローチャートである。
すなわち、生産能力推定部113は、先ずステップS271により上記特徴量抽出部112から、上記一定時間の時間帯に対応する認知能力の推定に使用する眼球運動EMi およびモーションBMiの各特徴量を受け取る。またそれと共にステップS272において、上記一定時間の時間帯に対応する認知能力推定用の回帰式((2)式)を学習データ記憶部122から読み込む。そしてステップS273において、上記認知能力の推定に使用する眼球運動EMi およびモーションBMiの各特徴量と、上記認知能力推定用の回帰式とに基づいて、上記作業者の認知能力の推定値Y^iを算出する。
(2−4)生産能力の推定
次に生産管理装置1は、生産能力推定部113の制御の下、ステップS28において、上記算出された感情変化の推定値および認知能力の推定値と、学習データ記憶部122に記憶された生産能力推定用の関係式((3)および(4)式)に基づいて、以下のように作業者の生産能力を推定する。
すなわち、先ず図14に示すステップS281において、前述の関係式((3)式)を用いて、標準的な作業時間と実際の作業時間との差を算出し、この作業時間差を作業者の習熟度QualityAを表す情報として出力する。次にステップS282において、前述の関係式((4)式)を用いて、平均的な作業時間に対する実際の作業時間のばらつきを算出し、その算出値を作業者の作業ミスの発生度合いを表すQualityBを表す情報として出力する。
そして、上記算出された習熟度QualityAと、作業ミスの発生度合いを表すQualityBとを加算し、その加算値を作業者の生産能力の推定値Pとする。なお、上記習熟度QualityAと作業ミスの発生度合いを表すQualityBとを加算する際には、単純加算でもよいが、生産能力に占める両者の重要度合いに応じて重みを付けるとよい。
(3)作業者の生産能力の推定結果に応じた作業者に対する介入制御
生産管理装置1は、上記生産能力の推定結果が得られると、続いてステップS29により、介入制御部114の制御の下で、上記作業者の生産能力の推定結果に応じた作業者WK1,WK2,WK3に対する介入制御を以下のように実行する。
すなわち、介入制御部114は、先ず図14のステップS291において、上記ステップS28により算出された生産能力の推定値の変化量ΔPi を求める。この変化量ΔPiは、例えば作業者ごとに個別に設定されるか或いは全作業者に対し一律に設定される生産能力の目標値に対する変化量として求められる。そして、この変化量ΔPi を介入条件として予め設定した生産能力の許容量を示すしきい値thi と比較する。上記許容量を示すしきい値thiは、例えば作業者ごとに個別に設定してもよく、また全作業者に対し共通に設定してもよい。なお、変化量ΔPi およびしきい値thi のi は介入の回数を示す整数値である。
上記比較の結果、生産能力の推定値が減少方向に変化し、かつその変化量ΔPiがしきい値thi を超えたとする。この場合介入制御部114は、1回目の介入が既に実施済か否かをステップS292で判定し、未実施であればステップS293において、上記変化量ΔPiがしきい値thi を超えたことが検出されたタイミングで介入制御の実施を決定し実行する。
例えば図15または図16に示すように、作業中に作業者WK1の生産能力の推定値Pが低下し、その低下量ΔP0 が第1のしきい値th0 を超えると、その時点t1で1回目の介入の実施が決定され実行される。この1回目の介入では、例えば作業者WK1のモチベーションを向上させることを目的とする内容の表示メッセージが生成され、当該表示メッセージが当該作業者WK1に対向配置されたモニタMO1に表示される。なお、このとき表示メッセージを表示させる代わりに、或いはそれに加えて、同様の内容の音声メッセージを図示しない作業者WK1向けのスピーカやヘッドフォンから拡声出力させるようにしてもよい。
上記1回目の介入の実行後において、介入制御部114は引き続き生産能力の推定値の変化量ΔP1 を第2のしきい値th1 と比較する処理を繰り返し実行する。なお、上記1回目の介入の実行後に使用される第2のしきい値th1 は、上記1回目の介入を実行する前の第1のしきい値th0より大きな値に設定される。
そして、上記比較の結果、例えば図15に示すように作業者WK1の生産能力の推定値Pがさらに低下し、その低下量ΔP1 が第2のしきい値th1 を超えたとする。この場合、介入制御部114は2回目の介入が実施済か否かをステップS294で判定し、未実施であればステップS295において、上記変化量ΔP1が第2のしきい値th1 を超えたことが検出されたタイミングt2で第2の介入制御の実行を決定する。
この2回目の介入制御では、例えば作業者WK1に生産効率の回復を強く要求するための表示メッセージが生成され、当該表示メッセージが当該作業者WK1に対向配置されたモニタMO1に表示される。またそれと共に、作業者WK1が所持する刺激付与装置AC1を駆動して作業者WK1に対し振動を与える。なお、この場合も、表示メッセージを表示させる代わりに、或いはそれに加えて、同様の内容の音声メッセージを図示しない作業者WK1向けのスピーカやヘッドフォンから拡声出力させるようにしてもよい。
一方、上記1回目の介入により作業者WK1が奮起し、例えば図16に示すように生産能力が回復したとする。この場合、作業者WK1の生産能力の推定値Pの変化量ΔP1 は第2のしきい値th1 を超えないため、2回目の介入は行われない。
上記第2回目の介入が行われた後も、介入制御部114は引き続き生産能力の推定値の変化量ΔP2 を第3のしきい値th2 と比較する処理を実行する。なお、上記2回目の介入の実行後に使用される第3のしきい値th2 は、上記2回目の介入を実行する前に使用した第2のしきい値th1より大きな値に設定される。
そして上記比較の結果、例えば図15に示すように作業者WK1の生産能力の推定値Pがさらに低下し、その低下量ΔP2 が第3のしきい値th2 を超えたとする。この場合、介入制御部114は即時ステップS296に移行し、上記変化量ΔP2が第3のしきい値th2 を超えたことが検出されたタイミングt3で第3の介入制御の実行を決定し実行する。
例えば、この場合は生産能力の回復が望めないと判断し、作業者WK1に作業を中断して休息を促す表示メッセージを生成してモニタMO1に表示させると共に、リーダWRの携帯型情報端末TMに対し作業者の配置転換か交替を指示するメッセージを送信し表示させる。
生産管理装置1は、以上述べた一人の作業者WK1に対する感情の推定から介入制御までの一連の処理を終了すると、ステップS30において全作業者に対する処理が終了したか否かを判定する。そして、未選択の作業者が残っていれば、ステップS25に戻って上記ステップS25〜S29による上記した一連の処理を繰り返し実行する。
これに対し、全作業者WK1,WK2,WK3に対する上記一連の処理が終了した場合には、生産管理装置1はステップS31において、例えば生産ラインCSの運転終了時刻になったか否かを判定する。そして、終了時刻になった場合には、ステップS32により生産ラインCSを停止させる。
なお、上記介入制御が実行された場合、介入制御部114では介入の内容および実行日時を表す情報が生成され、作業者IDと関連付けられて制御履歴記憶部123に記憶される。この制御履歴記憶部123に記憶された介入制御履歴を表す情報は、例えば作業者WK1,WK2,WK3の健康管理や生産結果の評価等に使用される。
(一実施形態の効果)
以上詳述したように一実施形態では、作業中の作業者WK1,WK2,WK3の生体計測データおよび動きの計測データを一次指標として、この一次指標と別途生成した学習データとをもとに作業者の感情と認知能力をそれぞれ推定し、さらにこの推定した感情と認知能力を二次指標として、この二次指標と別途生成した関係式とに基づいて作業者の生産能力を推定する。そして、この生産能力の推定値の変化量を介入条件を規定するしきい値と比較し、生産能力の推定値の変化量がしきい値を超えていると判定された場合に、その時点で作業者に対し介入を行うようにしている。
従って、管理者の経験や勘に頼ることなく、作業者に対し常に適切なタイミングで適切な内容の介入を行うことが可能となり、これにより生産性を安定的に改善・向上させることが可能となる。
また、上記介入制御を、作業者の生産能力の推定値の変化量を監視しながら段階的に複数回行い、しかも各段階の介入の内容が徐々に強い内容になるように設定している。このため、作業者の心身状態をポジティブな状態に維持させつつ生産能力を効果的に回復させることが可能となる。
さらに、第1または第2の内容の介入が行われた後、作業者の生産能力の推定値の変化量が第3のしきい値を超えていると判定されたタイミングで、作業者に対し作業の中断が指示される。このため、例えば体調が悪化した作業者を適切なタイミングで休息させることができ、これにより作業員の健康と製品の品質の両方を効果的に維持することが可能となる。
さらに、感情の変化を、ArousalとValenceとから構成される二次元座標平面の象限と、ArousalおよびValenceの各変化量により表すようにしているので、感情の変化を簡単かつ的確に推定することができる。
さらに、作業監視カメラCMにより撮像された画像データから抽出した作業の成否を表す特徴量を正解値(教師データ)とし、上記手の動きを表す特徴量と眼球運動EMを表す特徴量を変数として、認知能力推定用の学習データを生成するようにしたので、作業者の生産作業に対する認知能力をより正確に推定することが可能となる。
例えば、いま作業者が部品間の接続作業を行っており、その作業結果を表す画像データが図10に示すようなものだったとする。この例では、リード線73による端子53と端子63との間の接続が不完全で、かつ端子58と端子68との間が未接続のまま作業が終了している。本実施形態では、この作業の成否を表す特徴量を作業者の認知能力を表す教師データとし、同一時間帯に並行して得られる作業者と認知能力と関連性を持つ一次指標、つまり作業者の手の動きを表す特徴量と目の動きを表す特徴量(眼球運動EM)を変数として、認知能力を推定するための関係式を生成する。この関係式を用いて作業者の認知能力を推定することで、上記した手の動きを表す特徴量と目の動きを表す特徴量を含む測定データが得られた場合に、当該作業者は図10に示したような作業ミスを起こす可能性があると推定することが可能となる。
さらに、作業者の生産能力を表す情報として、標準的な作業時間と実際の作業時間との差として表される習熟度と、平均的な作業時間に対する実際の作業時間のばらつきとして表される作業ミスの発生度合いを定義し、この習熟度と作業ミスの発生度合いの各々について学習データを用意し、作業者の生産能力を推定するようにしている。このため、作業者の生産能力を、生産現場の評価指標に対応して正確に推定することが可能となる。
[その他の実施形態]
前記一実施形態では、介入を3段階に分けて実施する場合を例にとって説明したが、1段階または2段階でもよく、4段階以上でもよい。また一実施形態では、生産能力の推定値の変化量ΔPi を、作業者ごとに個別に設定されるか或いは全作業者に対し共通に設定される生産能力の目標値に対する変化量として求めるようにしたが、2回目以降の介入においては、前回の介入時における生産能力の推定値に対する変化量を求めるようにしてもよい。また介入を段階的に複数回に亘り実行する際に、介入の内容を固定するようにしてもよい。
さらに、上記介入条件は作業者の基礎的な生産能力に応じて個別に設定することが好ましく、作業者の習熟度の推定結果から基礎的な生産能力の変化を検出し、その検出結果に応じて介入条件を更新するようにしてもよい。また介入の回数や介入の内容についても、作業者ごとにその基礎的な生産能力に応じて個別に設定するとよい。
また、人の感情と生体情報および行動情報との関係性は、月日や曜日、季節、環境の変化等により変化する場合がある。そこで、感情推定に使用する学習データは、定期的又は必要時に更新することが望ましい。生産能力推定部113により得られた感情の推定値を感情の正解値と比較してその差を算出し、算出された差が予め設定された正解値の範囲を超える場合には、学習データ記憶部122に記憶されている学習データを更新する処理を行うとよい。この場合、上記正解値は感情の推定値の変化の傾向から推定することができる。または、被験者が定期的に感情入力デバイス2により感情の正解値を入力し、この入力された値を使用してもよい。
同様に、生産能力推定部113により得られた認知能力の推定値を認知能力の正解値と比較してその差を算出し、算出された差が予め設定された正解値の範囲を超える場合には、学習データ記憶部122に記憶されている学習データを更新する処理を行うとよい。この場合、上記正解値は認知能力の推定値の変化の傾向から推定することができる。
また、感情および認知能力と生産能力との関係性を表す関係式についても、生産能力の推定結果に基づいて修正するとよい。この場合も、上記正解値は認知能力の推定値の変化の傾向から推定することができる。
一実施形態では、作業者の感情を表す情報を、スマートフォンまたはタブレット型端末からなる感情入力デバイス2を用いて生産管理装置1に入力する場合を例にとって説明した。しかし、これに限定されるものではなく、例えば作業者がアンケート用紙等の紙媒体に記載した自身の感情情報をスキャナ等を用いて読み取り、その情報を生産管理装置1に入力するようにしてもよい。
さらに、作業者の顔の表情等をカメラ等により検出し、この顔表情の検出情報を感情を表す情報として生産管理装置1に入力するようにしてもよい。またさらに、作業者の音声をマイクロフォンにより検出し、その検出情報を感情を表す情報として生産管理装置1に入力するようにしてもよい。また、不特定多数の人の感情を表す情報をアンケート等により収集して、収集した情報の平均等を母集団データとして個人の感情情報を補正するようにしてもよい。その他、人の感情を表す情報を生産管理装置1に入力するための手法については、如何なる手法を用いてもよい。
また一実施形態では、作業者の感情を表す情報を、感情の活性度(Arousal)とその強度(Valence)とにより2次元平面で表した場合を例にとって説明した。しかし、これについても他の表現手法を採用してもよい。
さらに一実施形態では、作業者の活動状態を表す情報として、心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データを生産管理装置1に入力し、これらをすべて用いて感情を推定するようにした。しかし、それに限らず、上記各計測データのうちの少なくとも1つの計測データを用いて感情を推定するようにしてもよい。例えば、心電Hは生体情報の中でも感情に対する寄与率が高いので、心電Hの計測データのみを用いて感情を推定することは十分に可能である。なお、ここに例示した生体情報以外の他の生体情報を用いてもよいことは言うまでもない。
また、認知能力を推定する際に一次指標として用いる測定データについても、手の動きと目の動き以外の測定データを使用してもよい。
その他、生産ラインCSのセルの数や各セルで生産する製品の種類等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
上記実施形態の一部または全部は、以下の付記のようにも記載され得るが、以下には限られるものではない。
(付記1)
作業者が作業を行う工程を有する生産ラインを管理する生産管理装置であって、ハードウェアプロセッサを有し、
前記ハードウェアプロセッサは、
作業中の前記作業者の活動状態を表す情報を取得し、
前記取得された活動状態を表す情報を一次指標とし、当該一次指標と、前記作業者の活動状態と前記作業者の感情および認知能力との関係性を表す第1の学習データとに基づいて、前記作業者の作業中における感情および認知能力を推定し、
前記推定された感情および認知能力を二次指標とし、当該二次指標と、前記作業者の感情および認知能力と前記作業者の生産能力との関係性を表す第2の学習データとに基づいて、前記作業者の生産能力を推定し、
前記第2の推定部による生産能力の推定結果と予め設定した介入条件とに基づいて、前記作業者に対する介入のタイミングと内容を決定するように構成された生産管理装置。
(付記2)
ハードウェアプロセッサを備える装置が実行する生産管理方法であって、
前記ハードウェアプロセッサが、作業中の前記作業者の活動状態を表す情報を取得する過程と、
前記ハードウェアプロセッサが、前記取得された活動状態を表す情報を一次指標とし、当該一次指標と、前記作業者の活動状態と前記作業者の感情および認知能力との関係性を表す第1の学習データとに基づいて、前記作業者の作業中における感情および認知能力を推定する過程と、
前記ハードウェアプロセッサが、前記推定された感情および認知能力を二次指標とし、当該二次指標と、前記作業者の感情および認知能力と前記作業者の生産能力との関係性を表す第2の学習データとに基づいて、前記作業者の生産能力を推定する過程と、
前記ハードウェアプロセッサが、前記第2の推定部による生産能力の推定結果と予め設定した介入条件とに基づいて、前記作業者に対する介入のタイミングと内容を決定する過程と
を具備する生産管理方法。
CS…生産ライン、B1,B2,B3…製品、C1,C2,C3…セル、WR…リーダ、WK1,WK2,WK3…作業者、MO1,MO2,MO3…モニタ、TM…携帯型情報端末、DC…部品供給コントローラ、DS…部品供給装置、RB…協調ロボット、CM…作業監視カメラ、NW…ネットワーク、SS1,SS2,SS3…入力・計測装置、AC1,AC2,AC3…刺激付与装置、1…生産管理装置、2…感情入力デバイス、3…計測デバイス、4…視線監視カメラ、11…制御ユニット、111…センシングデータ取得制御部、112…特徴量抽出部、113…生産能力推定部、114…介入制御部、115…学習データ生成部、12…記憶ユニット、121…センシングデータ記憶部、122…学習データ記憶部、123…介入履歴記憶部、13…インタフェースユニット。

Claims (6)

  1. 作業者が作業を行う工程を有する生産ラインを管理する生産管理装置であって、
    作業中の前記作業者の活動状態を表す情報を取得する活動状態取得部と、
    前記取得された活動状態を表す情報を一次指標とし、当該一次指標と、前記作業者の活動状態と前記作業者の感情および認知能力との関係性を表す第1の学習データとに基づいて、前記作業者の作業中における感情および認知能力を推定する第1の推定部と、
    前記推定された感情および認知能力を二次指標とし、当該二次指標と、前記作業者の感情および認知能力と前記作業者の生産能力との関係性を表す第2の学習データとに基づいて、前記作業者の生産能力を推定する第2の推定部と、
    前記第2の推定部による生産能力の推定結果と予め設定した介入条件とに基づいて、前記作業者に対する介入のタイミングと内容を決定する介入決定部と
    を具備する生産管理装置。
  2. 前記介入決定部は、
    前記第2の推定部による生産能力の推定結果が第1の条件に満たないと判定されたタイミングで、前記作業者に対し第1の内容の介入を行うことを決定する第1の決定部と、
    前記第1の内容の介入を行った後に、前記第2の推定部による生産能力の推定結果が第2の条件に満たないと判定されたタイミングで、前記作業者に対し前記第1の内容とは異なる第2の内容の介入を行うことを決定する第2の決定部と
    を備える請求項1に記載の生産管理装置。
  3. 前記第1の決定部は、第1の内容の介入として、前記作業者に対し視覚的または聴覚的な刺激を与えることを決定し、
    前記第2の決定部は、第2の介入として、前記作業者に対し触覚的な刺激を与えることを決定する請求項2に記載の生産管理装置。
  4. 前記介入決定部は、
    前記第1または第2の内容の介入を行った後に、前記第2の推定部による生産能力の推定結果が第3の条件に満たないと判定されたタイミングで、前記作業者に対し作業の中断を指示することを決定する第3の決定部を、
    さらに備える請求項2または3に記載の生産管理装置。
  5. 作業者が作業を行う工程を有する生産ラインを管理する生産管理装置が実行する生産管理方法であって、
    前記生産管理装置が、作業中の前記作業者の活動状態を表す情報を取得する過程と、
    前記生産管理装置が、前記取得された活動状態を表す情報を一次指標とし、当該一次指標と、前記作業者の活動状態と前記作業者の感情および認知能力との関係性を表す第1の学習データとに基づいて、前記作業者の作業中における感情および認知能力を推定する過程と、
    前記生産管理装置が、前記推定された感情および認知能力を二次指標とし、当該二次指標と、前記作業者の感情および認知能力と前記作業者の生産能力との関係性を表す第2の学習データとに基づいて、前記作業者の生産能力を推定する過程と、
    前記生産管理装置が、前記第2の推定部による生産能力の推定結果と予め設定した介入条件とに基づいて、前記作業者に対する介入のタイミングと内容を決定する過程と
    を具備する生産管理方法。
  6. 請求項1乃至4のいずれかに記載の生産管理装置が備える各部としてプロセッサを機能させる生産管理プログラム。
JP2017037287A 2017-02-28 2017-02-28 生産管理装置、方法およびプログラム Pending JP2018142258A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017037287A JP2018142258A (ja) 2017-02-28 2017-02-28 生産管理装置、方法およびプログラム
PCT/IB2017/055271 WO2018158621A1 (en) 2017-02-28 2017-09-01 Production management apparatus, method, and program
EP18708492.6A EP3589206A1 (en) 2017-02-28 2018-02-28 Production management apparatus, method, and program
CN201880004444.9A CN110072454B (zh) 2017-02-28 2018-02-28 生产管理设备、方法以及程序
PCT/IB2018/051277 WO2018158702A1 (en) 2017-02-28 2018-02-28 Production management apparatus, method, and program
US16/462,254 US20210287155A1 (en) 2017-02-28 2018-02-28 Production management apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037287A JP2018142258A (ja) 2017-02-28 2017-02-28 生産管理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2018142258A true JP2018142258A (ja) 2018-09-13

Family

ID=59982425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037287A Pending JP2018142258A (ja) 2017-02-28 2017-02-28 生産管理装置、方法およびプログラム

Country Status (5)

Country Link
US (1) US20210287155A1 (ja)
EP (1) EP3589206A1 (ja)
JP (1) JP2018142258A (ja)
CN (1) CN110072454B (ja)
WO (1) WO2018158621A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077271A (ja) * 2018-11-09 2020-05-21 セイコーエプソン株式会社 表示装置、学習装置、及び、表示装置の制御方法
JP2021051620A (ja) * 2019-09-26 2021-04-01 株式会社日立製作所 作業支援装置、作業支援システムおよび作業支援方法
JP2021056918A (ja) * 2019-10-01 2021-04-08 株式会社日立製作所 データ分析装置およびデータ分析方法
CN112923972A (zh) * 2021-01-27 2021-06-08 苏州凌世智能科技有限公司 作业监测方法、手环以及用户端
WO2022172529A1 (ja) * 2021-02-10 2022-08-18 株式会社日立製作所 情報処理システム及び情報処理方法
WO2022201640A1 (ja) * 2021-03-26 2022-09-29 株式会社日立製作所 介入システム、介入方法、および、介入プログラム
JP7460376B2 (ja) 2020-01-28 2024-04-02 Juki株式会社 縫製管理システム及び縫製管理方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2579656A (en) * 2018-12-11 2020-07-01 Ge Aviat Systems Ltd Method of assessing a pilot emotional state
JP7204478B2 (ja) * 2018-12-26 2023-01-16 キヤノン株式会社 情報処理装置およびその制御方法
JP7022085B2 (ja) * 2019-01-29 2022-02-17 株式会社日立製作所 計画支援装置、計画支援方法、および、計画支援システム
US20210186397A1 (en) * 2019-12-19 2021-06-24 Senseye, Inc. Transillumination of iris muscles to infer stroma deformation
KR20210157874A (ko) * 2020-06-22 2021-12-29 도시바 데지타루 소류숀즈 가부시키가이샤 작업 내용 분석 장치, 작업 내용 분석 방법, 프로그램, 및 센서
CN113128896B (zh) * 2021-04-29 2023-07-18 重庆文理学院 基于物联网的智慧车间管理系统及方法
CN114357710B (zh) * 2021-12-03 2022-11-25 北京能科瑞元数字技术有限公司 基于产品全寿命周期的bom演化管理系统
TWI778901B (zh) * 2021-12-29 2022-09-21 南亞塑膠工業股份有限公司 經營輔助系統
JP2023106888A (ja) * 2022-01-21 2023-08-02 オムロン株式会社 情報処理装置および情報処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6974414B2 (en) * 2002-02-19 2005-12-13 Volvo Technology Corporation System and method for monitoring and managing driver attention loads
CZ2004770A3 (cs) * 2004-06-29 2006-02-15 Pavelka@Miloslav Zpusob detekce únavy operátora ze svalové cinnosti a zarízení k provádení tohoto zpusobu
US20090066521A1 (en) * 2007-09-12 2009-03-12 Dan Atlas Method and system for detecting the physiological onset of operator fatigue
US8781796B2 (en) * 2007-10-25 2014-07-15 Trustees Of The Univ. Of Pennsylvania Systems and methods for individualized alertness predictions
US20120245980A1 (en) * 2011-03-22 2012-09-27 Accenture Global Services Limited Productivity prediction technique and system
US9521976B2 (en) * 2013-01-24 2016-12-20 Devon Greco Method and apparatus for encouraging physiological change through physiological control of wearable auditory and visual interruption device
US20140240132A1 (en) * 2013-02-28 2014-08-28 Exmovere Wireless LLC Method and apparatus for determining vehicle operator performance
JP5530019B1 (ja) 2013-11-01 2014-06-25 株式会社日立パワーソリューションズ 異常予兆検知システム及び異常予兆検知方法
CN106573123B (zh) * 2014-06-30 2021-08-31 Syqe医药有限公司 用于活性剂的肺部递送的方法、装置及系统
DE102015200775A1 (de) * 2015-01-20 2016-07-21 Bayerische Motoren Werke Aktiengesellschaft Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung
US10137902B2 (en) * 2015-02-12 2018-11-27 Harman International Industries, Incorporated Adaptive interactive voice system
JP6191633B2 (ja) * 2015-02-20 2017-09-06 トヨタ自動車株式会社 運転支援装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077271A (ja) * 2018-11-09 2020-05-21 セイコーエプソン株式会社 表示装置、学習装置、及び、表示装置の制御方法
JP7271909B2 (ja) 2018-11-09 2023-05-12 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2021051620A (ja) * 2019-09-26 2021-04-01 株式会社日立製作所 作業支援装置、作業支援システムおよび作業支援方法
JP7245139B2 (ja) 2019-09-26 2023-03-23 株式会社日立製作所 作業支援装置、作業支援システムおよび作業支援方法
JP2021056918A (ja) * 2019-10-01 2021-04-08 株式会社日立製作所 データ分析装置およびデータ分析方法
JP7262359B2 (ja) 2019-10-01 2023-04-21 株式会社日立製作所 データ分析装置およびデータ分析方法
JP7460376B2 (ja) 2020-01-28 2024-04-02 Juki株式会社 縫製管理システム及び縫製管理方法
CN112923972A (zh) * 2021-01-27 2021-06-08 苏州凌世智能科技有限公司 作业监测方法、手环以及用户端
WO2022172529A1 (ja) * 2021-02-10 2022-08-18 株式会社日立製作所 情報処理システム及び情報処理方法
JP7450567B2 (ja) 2021-02-10 2024-03-15 株式会社日立製作所 情報処理システム及び情報処理方法
WO2022201640A1 (ja) * 2021-03-26 2022-09-29 株式会社日立製作所 介入システム、介入方法、および、介入プログラム
JP7407146B2 (ja) 2021-03-26 2023-12-28 株式会社日立製作所 介入システム、介入方法、および、介入プログラム

Also Published As

Publication number Publication date
CN110072454A (zh) 2019-07-30
CN110072454B (zh) 2021-11-09
EP3589206A1 (en) 2020-01-08
WO2018158621A1 (en) 2018-09-07
US20210287155A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
JP2018142258A (ja) 生産管理装置、方法およびプログラム
JP2018142259A (ja) 作業管理装置、方法およびプログラム
US20190239795A1 (en) Emotion estimation apparatus, method, and program
US7621871B2 (en) Systems and methods for monitoring and evaluating individual performance
Ghasemzadeh et al. A body sensor network with electromyogram and inertial sensors: Multimodal interpretation of muscular activities
Zhang et al. A context-aware mhealth system for online physiological monitoring in remote healthcare
JP2020034849A (ja) 作業支援装置、作業支援方法及び作業支援プログラム
US11179093B2 (en) Apparatus and method for evaluating cognitive function
US20210020295A1 (en) Physical function independence support device of physical function and method therefor
Sahyoun et al. ParkNosis: Diagnosing Parkinson's disease using mobile phones
JP2020513274A (ja) バランスを定量化するための多重パラメータ法
JP6791361B2 (ja) 情報処理装置と方法とプログラム
JP6910919B2 (ja) システム及び意思疎通を図るために行うアクションの評価方法
WO2018158704A1 (en) Work management apparatus, method, and program
CN113974589A (zh) 多模态行为范式评估优化系统及认知能力评价方法
WO2018158702A1 (en) Production management apparatus, method, and program
Newcombe et al. Experimental analysis of cost-effective mobile sensing technologies for activity analytics in elderly care
Xiahou et al. A Feature-Level Fusion-Based Multimodal Analysis of Recognition and Classification of Awkward Working Postures in Construction
WO2021255632A1 (ja) 情報処理システム
WO2023053176A1 (ja) 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体
JP6755059B1 (ja) 歯科診断プログラム及びシステム
CN109640819A (zh) 用于检测对象的哮喘发作或哮喘的设备、系统和方法
WO2022079758A1 (ja) 情報処理装置、制御方法及び記憶媒体
Vijayan et al. Pattern matching techniques to automatically detect standardised functional tests from wearable sensors:-
WO2023150575A2 (en) Cyber-physical system to enhance usability and quality of telehealth consultation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200220