JPWO2020026299A1 - 作業情報管理システム、および作業情報管理方法 - Google Patents

作業情報管理システム、および作業情報管理方法 Download PDF

Info

Publication number
JPWO2020026299A1
JPWO2020026299A1 JP2020533900A JP2020533900A JPWO2020026299A1 JP WO2020026299 A1 JPWO2020026299 A1 JP WO2020026299A1 JP 2020533900 A JP2020533900 A JP 2020533900A JP 2020533900 A JP2020533900 A JP 2020533900A JP WO2020026299 A1 JPWO2020026299 A1 JP WO2020026299A1
Authority
JP
Japan
Prior art keywords
sensor
work
information management
data
management system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533900A
Other languages
English (en)
Other versions
JP7118155B2 (ja
Inventor
広行 吉元
広行 吉元
芳賀 憲行
憲行 芳賀
雅義 石橋
雅義 石橋
杉井 信之
信之 杉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2020026299A1 publication Critical patent/JPWO2020026299A1/ja
Application granted granted Critical
Publication of JP7118155B2 publication Critical patent/JP7118155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31027Computer assisted manual assembly CAA, display operation, tool, result
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35464Glove, movement of fingers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/25Manufacturing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/50Safety; Security of things, users, data or systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

作業者が着用し、センシング対象からセンサデータを受信するセンサと、前記センサが受信したセンサデータを端末に送信する送信機とを有したウェアラブルセンサと、前記ウェアラブルセンサから受信した前記センサデータに基づいて、前記作業者の作業内容を判定し、当該判定の結果を表示部に出力するコンピュータと、を備える。

Description

本発明は、作業者の作業情報を管理する技術に関する。
製造業の組立作業現場では、不良の発生を減らすことならびに、不良発生時に原因を早期に究明するためのトレーサビリティの確立が重要である。誰がいつ何の作業を行なったかを見える化することは、作業者の習熟指導を容易にし、現場全体で作業効率向上の図る目的でも活用できる。また、保守現場などにおいても、工具と作業者を紐付けることは、物品管理や作業者や作業状態を把握する上で有効である。さらに、作業自体が正しくなされていたかどうかを、作業者自身に直ちにフィードバックすることが可能になると品質向上や、作業者の安全性、向上に役立てることができる。
このような背景のもと近年のIoT (Internet of Things)技術の進展により、多くの方法で作業者の作業情報の見える化を進める方法が提案され、あるいは技術が製品化されている。例えば、特許文献1では、倉庫内の作業を行なう作業者の腕にリストバンドを取り付けて、商品が納められている棚に設置されたセンサを用いて作業者の手の動きを検知している。
US20170278051号公報
作業現場、生産現場では、上記で説明したような状況以外に、身体と外部と接触情報を利用することで作業性の工場に活用できるケースがある。例えば、果物のような強く握ることで破損を招く物品を、壊さないように持つためのセンシングの仕組み、または機器のボタンの押下したときの確認あるいは、工具などを手で持ったとき、どの工具をどの程度の強さで握ったのかを把握する、あるいは特徴的な形状があれば握ったことそのものを確認するなどが可能になれば、作業の状態ならびに作業者自身の管理に役立てることができる。
このような身体が接触した際の接触の強さや表面凹凸の状態の情報は、特許文献1に記載の方法やカメラなどの映像から取得することは困難である。一方で、例えば、身体に圧力センサまたは圧力センサが取り付けられた衣類などの装着物を身につけることで収集することが可能になる。しかし、一般に工具等の物品は、それぞれ固有の形状あるいは表面状態を有しているが、接触対象が何なのかを判別することは、身体に見つけたセンサのみからは困難である。
本発明は、ウェアラブルセンサを介した作業者によるセンシング対象への接触により、作業者と作業内容とを紐付けて作業情報管理を行うことが可能な技術を提供することを目的とする。
本発明にかかる作業情報管理システムは、好ましくは、作業者が着用し、センシング対象からセンサデータを受信するセンサと、前記センサが受信したセンサデータを端末に送信する送信機とを有したウェアラブルセンサと、前記ウェアラブルセンサから受信した前記センサデータに基づいて、前記作業者の作業内容を判定し、当該判定の結果を表示部に出力するコンピュータと、を備えることを特徴とする作業情報管理システムとして構成される。
また、本発明は、上記作業情報管理システムで行われる作業情報管理方法としても把握される。
本発明の一態様によれば、ウェアラブルセンサを介した作業者によるセンシング対象への接触により、作業者と作業内容とを紐付けて作業情報管理を行うことができる。
作業情報管理システムの構成概要 信号解析部がセンサデータを解析する場合のセンサ器具およびセンシング対象の構成例 センサデータの例 作業情報管理システムのシステム構成例 パターンライブラリの例 カメラ連携での作業情報管理システムのシステム構成例 判定器と表示部を備えたウェアラブルセンサによる作業情報管理システムのシステム構成例 ウェアラブルセンサと単一PCで構成された作業情報管理システムのシステム構成例 ウェアラブルセンサならびに、データ蓄積、解析、表示を単一PC上で実行する、機能を備えた作業情報管理システムのシステム構成例 ウェアラブルセンサ内部でデータ整形ならびに結果判定をする作業情報管理システムのシステム構成例 ウェアラブルセンサによるセンシング対象に付着するセンシング補助物の一例 ウェアラブルセンサを装着した身体でなぞることにより、識別情報を得ることを特徴とするセンシング補助物の一例 一定上の強さで身体を押し付けると、ウェアラブルセンサが反応するように工夫した形状のセンシング補助物の一例 それぞれの構造に応じて異なる強さで身体を押し付けると、ウェアラブルセンサが反応するように工夫した形状のセンシング補助物の一例 作業者の個人認証カードに付着しているウェアラブルセンサで識別可能なように工夫したセンシング補助物の一例
以下、実施の形態について、図面を用いて詳細に説明する。ただし、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数または順序を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。
本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。
また、以下で説明する実施形態では、使用例を製造業、または保守現場での作業に例をとって説明するが、本発明の用途は必ずしも上記に限定されるものではない。また以下の実施形態では、主に手の作業を例にとって説明するが、本発明に含まれるウェアラブルセンサはこれに限定されるものではなく、足の裏やひざなど足の一部、肩やひじなど腕の一部に装着するものであってもよい。また以下の実施形態では、作業者が身体の一部を接触させることでデータを取得する仕組みとしては、例えば、圧力センサをウェアラブルセンサに実装する。圧力センサはプラスチック形状のものであってもよいし、また布状の形状であってもよい。
第1の実施形態
第1の実施形態を、図1を用いて説明する。第1の実施形態における作業情報管理システム1000は、端末装置1と、センサ器具2とを有して構成される。端末装置1は、ハードウェアとしては一般的なコンピュータから構成され、センサ器具2からセンサデータを受信し、当該センサデータを解析する。図1に示すように、端末装置1は、受信器104と、信号解析部105と、表示部106と、データ蓄積部107とを有して構成されている。また、センサ器具2は、ハードウェアとしては、ウェアラブルセンサ102と送信機103とを有した器具、機器、工具、装置等の物体(例えば、圧力センサを有した手袋や靴)から構成され、上記ウェアラブルセンサ102からセンサデータを取得し、送信機103が当該センサデータを端末装置1に送信する。図1に示すように、センサ器具2は、ウェアラブルセンサ102と、送信機103とを有して構成されている。
端末装置1の受信器104は、ハードウェアとしては、一般的な通信機器(例えば、NIC(Network Interface Card))から構成され、センサ器具2から上記センサデータを受信する。信号解析部105は、ハードウェアとしては一般的な演算装置(例えば、CPU(Central Processing Unit))から構成され、上記センサデータを解析し、上記センサデータおよびその解析結果を表示部106に表示するとともに、データ蓄積部107に記憶する。データ蓄積部107は、ハードウェアとしては一般的な記憶装置(例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive))から構成され、信号解析部105によるセンサデータの解析結果を記憶する。表示部106は、ハードウェアとしては一般的なディスプレイ(例えば、LCD(Liquid Crystal Display ))から構成され、信号解析部105によるセンサデータの解析結果を表示する。
ウァラブルセンサ102は、例えば、手袋状の形状をしており、内部にセンシング機器を内蔵したデバイスである。あるいは、ウェアラブルセンサ102は、指先につけるキャップ状や、手のひらや手の甲の各部位を覆う形状をしていてもよい。作業者100が、手の先でセンシング対象101を、掴む、あるいは表面を触る、または手の一部をセンシング対象101に押し付けることで、センサ器具2が有するウェアラブルセンサ102が上記センサデータを得る。センシング対象101は、例えば、作業者100が作業に使う工具や電動機械であってもよい。または、手押し車のような搬送物や果物のような食品などであっても良い。またさらに、ウェアラブルセンサ102は、対象物に触れることで感知するセンサ以外の、例えば音や振動、磁気などに対するセンサも同時に備えていてもよい。また、送信機103は、センサ102内で一体として構成されていても良い。さらに、送信機103は、電源または電気信号を受け渡しする配線を通してウェアラブルセンサ102に設けられてもよい。
受信機104は、送信機103から無線送信されたセンサデータを含む電気信号を受信する。また、信号解析部105は、受信した電気信号から、作業者100が手に取るあるいは手で触れたセンシング対象101のセンサデータを読み取り、作業者100がどのようにセンシング対象101に接触したのかといった作業者の作業内容を判定する。
図2は、信号解析部105がセンサデータを解析する場合のセンサ器具およびセンシング対象の構成例を示す図である。また、図3は、信号解析部105により解析されるセンサデータの例を示す図である。
図2に示すように、センサ器具2のウェアラブルセンサ102は、作業者100の手に着用可能な手袋型ウェアラブルセンサ1101であり、作業者100がセンシング対象101に接触する1または複数の部位に設けられたセンサから構成される。手袋型ウェアラブルセンサ1101は、人差し指付け根圧力センサ1102(ch1)と、人差し指中央圧力センサ1103(ch2)と、人差し指先端圧力センサ1104(ch3)と、中指付け根圧力センサ1105(ch4)と、中指中央圧力センサ1106(ch5)と、中指先端圧力センサ1107(ch6)と、薬指付け根圧力センサ1108(ch7)と、薬指中央圧力センサ1109(ch8)と、薬指先端圧力センサ1110(ch9)とを有して構成されている。センシング対象101は、例えば、作業者100が被削材を削る際に握る電動工具である。
このような構成において、センサ器具2は、上記ウェアラブルセンサ1101の各部位の圧力センサが検知した圧力信号を読み取り、送信機103を介して端末装置1にこれらの情報をセンサデータとして送信する。センサデータには、圧力値のほか、ウェアラブルセンサ1101および各圧力センサを識別するための識別情報、圧力値を検知したときの時刻が含まれる。
図3は、センサデータの例を示す図である。図3に示すように、センサデータには、ウェアラブルセンサが検知した検知信号に含まれる圧力値の時間的な推移を示す情報が、ウェアラブルセンサごとに送信される。図3では、例えば、人差し指付け根圧力センサ1102(ch1)、中指中央圧力センサ1106(ch5)、薬指先端圧力センサ1110(ch9)は、作業者100が工具を握った瞬間を示す時刻1200において、あらかじめ定められた圧力評価に用いる閾値1201を超えた圧力を検知したことを示している。他の圧力センサは、作業者100が工具を握った瞬間を示す時刻1200において、圧力値が上昇しているものの、上記閾値1201を超えていない。そのため、信号解析部105は、作業者100の作業内容として、人差し指付け根、中指中央、薬指先端でセンシング対象101を掴んだと判定し、その判定結果を解析結果として出力する。例えば、信号解析部105は、人差し指付け根、中指中央、薬指先端でセンシング対象101を掴んだ旨を示すメッセージと、そのときの圧力値および時刻とを表示部106に出力する。このとき、信号解析部105は、作業内容を判定したときに用いた上記センサデータと、その作業において満たすべき基準を定めた基準センサデータとを比較し、上記センサデータが当該基準データを満たしているか否かを判定し、その判定結果を上記解析結果とともに表示部106に出力してもよい。上記基準センサデータは、あらかじめ作業ごとにデータ蓄積部107に記憶しておけばよい。このような構成とすることで、管理者は、作業者がどのような作業状態にあってどのような作業内容を行い、その作業内容が基準を満たしているか否かを容易に判断することができる。
接触により得られるセンサデータは、圧力値ではなく、例えば、ウェアラブルセンサ120によるセンシング対象101への接触の強さを示すレベルであってもよい。また、一定の時間内にどのように強弱の程度が変化したかを示す接触の強さの変化率であっても良い。
また、表示部106は、センサ器具2に設けられ、作業者100が直接視認可能な構成としてもよい。また、表示部106は、作業者100とは離れた位置の管理者などの別の人間、あるいはこの両者がともに確認するモニタにより構成され、信号解析部105が当該モニタに解析結果を無線通信により送信して表示させてもよい。解析結果として表示される内容は、作業者100がリアルタイムで行った作業時のセンサデータに関するものでもよい。また、作業者100がリアルタイムで行った作業時のセンサデータを過去の作業と比較した結果や、過去の作業を解析した結果であってもよい。この場合、作業者100の過去と現在の作業時のセンサデータを比較することで、例えば、作業者の熟練度の変化を把握することができる。
さらに表示部106は、視覚情報のみの表示であってもよく、音や振動などの触覚情報が組み合わさったものであってもよく、さらには視覚情報ではなく、振動などの触覚情報のみで作業者、または作業者とは別の人間が情報を入手するものであってもよい。このことは、第2の実施形態以降の場合も同様に考えることができる。
データ蓄積部107は、複数の作業者のそれぞれについて、各作業者100が触れたセンシング対象101のセンサデータを、ウェアラブルセンサ102の部位ごとに記憶する。データ蓄積部107は、上記センサデータに対応付けて、センシング対象101となる作業対象物に対する作業データを蓄積する。作業データとしては、例えば、作業にかかった時間、作業を行った日時、作業者100を識別するための作業者IDを含む。センサ器具2のウェアラブルセンサ102に設けられたICチップが、作業にかかった時間、作業を行った日時、作業者IDを、上記作業データとして端末装置1に送信する。作業にかかった時間は、例えば、上記ICチップが、ウェアラブルセンサ102が圧力を検知したときの時刻から、ウェアラブルセンサ102が圧力を検知しなくなったときの時刻までの時間を計時し、当該時間を上記作業にかかった時間とすればよい。また、作業を行った日時は、上記ICチップが、図示しないタイマにより計時される現在時刻を読み出して、上記作業を行った日時とすればよい。また、上記作業者IDは、上記ICチップが、あらかじめ不図示のメモリチップに記憶されたセンサ器具2を使用する作業者100の作業者IDを読み出して、上記作業者IDとすればよい。
データ蓄積部107が蓄積するこれらのデータは、端末装置1の受信機104で受信したセンサデータをそのまま記憶してもよく、信号解析部105による解析結果、またはこの両者であってもよい。また、データ蓄積部107は、受信機104がセンサ器具2から随時受信したリアルタイムのセンサデータを一時的に保存するものであってもよく、過去のセンサデータを蓄積し続けるものであってもよい。さらには、データ蓄積部107は、電子的な媒体で保存されるものであっても良く、印刷媒体で印刷されて残るものであってもよい。
このように、本実施の形態では、作業者が着用し、センシング対象101からセンサデータを受信するセンサと、センサが受信したセンサデータを端末装置1に送信する送信機103とを有したウェアラブルセンサ102を備えたセンサ器具2と、ウェアラブルセンサ102から受信したセンサデータに基づいて、作業者の作業内容を判定し、当該判定の結果を表示部106に出力する端末装置1とを備える。これにより、センサ器具2を用いて作業者が行った作業内容を容易に把握することができる。
また、このような作業情報管理システムにおいて、センサデータと作業データを用いて作業者の作業情報と作業対象物を紐付けることが可能になり、作業者がいつどこで何の作業をどのように行っているかといった作業履歴や作業内容を管理することが可能になる。すなわち、作業者の作業対象物との接触を通じて、作業対象物に対する作業の検知や推定が可能となり、当該検知や推定を通じて作業者と作業内容を紐付けることで作業情報管理を行うことが可能になる。
また、例えば、作業者100の監督者が、センサ器具2を着用してセンシング対象101に接触して得られた、当該センシング対象101への正しい接触の仕方を示すセンサデータを雛形としてあらかじめデータ蓄積部107に記憶してもよい。そして、信号解析部105が、作業者100による作業時に得られたセンサデータと、上記雛形とを比較して両者の乖離度を判定し、解析結果として表示部106に表示することにより、当該センシング対象101の正しい使い方を作業者100に教示することができる。例えば、信号解析部105は、センサ器具2から受信したセンサデータに含まれる人差し指付け根圧力センサ1102(ch1)の値が、正しい接触の仕方を示すセンサデータに含まれる人差し指付け根圧力センサの正解値よりも一定以上差がある場合、「人差し指の握り方が弱いので、もう少し強く握ってください」といったアドバイスメッセージを表示部106に表示することができる。
第2の実施形態
第2の実施形態を、図4を用いて説明する。第2の実施形態における作業情報管理システム2000は、第1の実施形態における作業管理システム1000に対して、さらに具体的な機器構成が示される。作業管理システム2000は、第1の実施形態と同様に、センサ器具2を備えるほか、IoTゲートウェイ201と、サーバ3とを備える。また、センシング対象200は、第1の実施形態におけるセンシング対象100に比べ、センシング対象自身の識別情報(ID)、やセンシング対象の設置場所を示すID、センシング対象の使用者、センシング対象が操作された時間といった作業データを取得可能な物体(例えば、これらの情報が記憶、計時可能な工具)により構成される。なお、本実施形態における作業データに、第1の実施形態の作業データを含めてもよい。
IoTゲートウェイ201は、ハードウェアとしては一般的な通信コンピュータ(例えば、ゲートウェイサーバ))から構成され、送信機103から送られてきたセンサデータを含む無線信号を、ネットワーク202に送信するためにデータの整形を行う。
サーバ3は、ハードウェアとしては一般的なコンピュータから構成され、IoTゲートウェイ201からネットワーク202を経由して送信されたセンサデータおよび作業データを受信し、機械学習を行う。図4に示すように、サーバ3は、制御部203と、パターンライブラリ204と、データベース205と、機械学習部206と、判定部207と、表示部208とを有している。
制御部203、機械学習部206、判定部207は、ハードウェアとしては、例えば、CPUから構成され、センサ器具2からネットワーク202を介して受信したセンサデータおよび作業データをデータベース205に記憶する等、サーバ3の各部の動作を制御する。パターンライブラリ204は、ハードウェアとしては、例えば、HDDやSSD等の記憶装置に記憶されたデータベースから構成され、上記センサデータおよび作業データを用いて作業内容あるいは、センシング対象200を判定するための判定基準をライブラリとして格納する。
なお、制御部203、機械学習部206、判定部207が行う処理は、図示しないROM(Read Only Memory)に記憶されているプログラムが読み出され、図示しないRAM(Random access memory)にロードして実行することにより実現される。上記プログラムは、ネットワークからダウンロードされ、メモリ上にロードされて実行してもよい。また、CD(Compact Disk)やDVD(Digital Versatile Disk)等の可搬性を有するコンピュータで読み取り可能な記憶媒体に対して情報を読み書きする読書装置を介して、当該記憶媒体からメモリ上に直接ロードされ、実行されるようにしてもよい。さらには、上記プログラムを、コンピュータにインストール可能な形式又は実行可能な形式のファイルで上記記憶媒体に記録して提供したり、配布してもよい。さらには、上記プログラムを、通信ネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供したり、配布してもよい。このことは、他の実施形態の場合についても同様に考えることができる。
データベース205は、ハードウェアとしては、例えば、HDDやSSD等の記憶装置に記憶され、IoTゲートウェイ201から送信された上記センサデータおよび作業データを格納する。データベース205が記憶するデータの内容については、第1の実施形態におけるデータ蓄積部107が記憶する内容と同様であるため、ここではその説明を省略する。
機械学習部206は、データベース205に格納された過去のデータと、随時センサ器具2から受信した最新のセンサデータおよび作業データとを照合することで機械学習を行い、学習した結果を最新のセンサデータおよび作業データとしてパターンライブラリ204に格納する。
図5は、パターンライブラリ204の例を示す図である。図5では、センサ器具2に設けられたウェアラブルセンサ102の識別情報であるタイプと、当該タイプのウェアラブルセンサ102が接触した工具の識別情報である工具IDと、当該工具を用いた作業の識別情報である作業識別IDと、ウェアラブルセンサ102の部位ごとの値とが、作業順序ごとに対応付けて記憶されている。図5では、例えば、ウェアラブルセンサ102である手袋型ウェアラブルセンサ1101の識別情報「type1」と、そのセンサを用いた作業の作業識別ID「1」と、当該作業で用いられるセンシング対象200である工具の識別ID「1」、「2」、「3」と、各工具を用いたときのウェアラブルセンサ1011の各部位の値とが対応付けられていることがわかる。この例では、作業識別ID「1」の作業を行う場合には3つの工具(工具識別ID「1」、「2」、「3」)が必要であり、工具識別ID「1」の工具による作業は、人差し指先端圧力センサ1103(ch3)、中指先端圧力センサ1106(ch6)、薬指先端圧力センサ1110(ch9)の3つのセンサが、閾値1201以上の圧力でなければならないことを示している。また、その次の工具識別ID「2」の工具による作業は、人差し指付け根圧力センサ1102(ch1)、中指付け根圧力センサ1105(ch4)、薬指付け根圧力センサ1108(ch7)の3つのセンサが、閾値1201以上の圧力でなければならないことを示している。さらに、その次の工具識別ID「3」の工具による作業は、人差し指付け根圧力センサ1102(ch1)、人差し中央圧力センサ1103(ch2)、中指付け根圧力センサ1105(ch4)、中指中央圧力センサ1106(ch5)、薬指付け根圧力センサ1108(ch7)、薬指中央圧力センサ1109(ch8)の6つのセンサが、閾値1201以上の圧力でなければならないことを示している。
このように、パターンライブラリ204には、検知対象とするウェアラブルセンサおよび作業ごとに、当該ウェアラブルセンサを用いて当該作業が行われた場合に、各センサがどのような値になっているのかについてのパターンが記憶され、判定部207は、センサ器具2から受信したセンサデータおよび作業データとパターンライブラリ204とを比較し、センサデータおよび作業データに含まれる各センサの値と、パターンライブラリ204に記憶されている値とが一致するか否かを判定する。そして、判定部207は、両者が一致すると判定したウェアラブルセンサの識別情報(例えば、「type1」)と、そのセンサを用いた作業の作業名(例えば、識別ID「1」に対応する作業名「部品取り付け」)と、当該作業で用いられるセンシング対象である工具の工具名(例えば、識別ID「1」、「2」、「3」に対する工具「電動ジグソー」、「電動ドリル」、「電動ドライバ」)を読み取り、作業内容として、これらの工具を用いて部品取り付け作業が行われていると判定する。判定部207は、当該判定の結果を表示部208に表示する。上記では、判定部207が、センサデータおよび作業データに含まれる各センサの値と、パターンライブラリ204に記憶されている値とが一致する場合について説明したが、判定部207は、両者が一致する場合に限らず、最も近い値のデータを選択してもよい。
なお、センシング対象200から得られるセンサデータおよび作業データには、例えば、上記工具の識別情報(ID)、当該工具の設置場所を示すID、当該工具の使用者、当該工具が操作された時間が含まれる。これらの情報は、例えば、工具のID、当該工具の設置場所のID、当該工具の使用者は、あらかじめ工具のメモリに記憶され、当該工具が操作された時間は、工具内のタイマにより計時され、工具側から無線通信を介して送信してセンサ器具2が受信したり、あるいはセンサ器具2が直接これらの情報を読み取ればよい。
また、作業情報管理システム2000では、NTPサーバ2071が設けられ、ネットワーク202を介してサーバ3に接続されている。制御部203は、NTPサーバ2071から得られた時刻情報で、センサデータおよび作業データに含まれる作業時刻を、当該時刻情報に一致させ、データベース205に格納する。また、判定部207は、パターンライブラリ204で照合された作業データを送信したときの作業の正常や異常の判定を行う。当該正常や以上の判定は、例えば、判定部207が、実際の作業が行われたときのセンサデータおよび作業データに含まれる各センサの値と、パターンライブラリに記憶されているデータとの乖離度が一定以上の場合(例えば、ある作業を行う場合の最初の手順ではセンサの値が一致したものの、次の手順ではセンサの値が得られていない場合)、当該次の手順で行われた作業に誤りがあると判断し、判定結果として当該次の手順の作業が異常である旨を表示部208に出力する。なお、判定部207は、第1の実施形態と同様に、アドバイスメッセージを表示部208に表示してもよい。
なお、第2の実施形態ならびにこれ以降の実施形態において、IoTゲートウェイ201は、ネットワーク202経由せずに直接サーバ203と接続していてもよい。
このように、本実施の形態では、ウェアラブルセンサ102は、センシング対象101の識別情報と、センシング対象の場所と、センシング対象の使用者と、センシング対象が操作された時間とを含む作業データをセンシング対象101から取得し、取得した作業データとセンサデータとをサーバ3に送信し、サーバ3は、ウェアラブルセンサ102から受信したセンサデータおよび作業データと、ウェアラブルセンサ102および作業ごとに記憶されたセンサの値のパターンを示すパターンライブラリ204とに基づいて、作業者の作業内容を判定する。このような作業情報管理システムにより、センサデータおよび作業データから、例えば、センシング対象200から、工具、人、場所あるいは時間などの識別情報を割り出し、かつ、互いを紐付けることで作業者ならびに作業の管理を行うことが可能になる。
また、サーバ3は、ウェアラブルセンサ102から受信した過去のセンサデータおよび作業データと、最新のセンサデータおよび作業データとに基づいて機械学習を行い、機械学習の結果を最新のパターンライブラリ204とする。これにより、パターンライブラリ204が保持するデータの精度を向上させることができる。
第3の実施形態
第3の実施形態における作業情報管理システム3000は、図6に示すように、第2の実施形態における作業情報管理システム2000が、さらに、ネットワーク202を介して接続されたネットワークカメラであるカメラ300を有している点で異なっている。カメラ300は、作業場に設置された据え置き型のものでもよく、また作業者100の身体に装着するものでもよい。またウェアラブルセンサ102と一体に構成されるものでもよい。カメラ300は、作業場で作業する作業者100を撮像し、撮像した画像と、撮像場所であるカメラ300が設置された作業場および当該カメラの識別情報(ID)とを紐付けした撮像データをサーバ3に送信する。上記作業場のIDと工具の設置場所を示すIDとは、あらかじめ紐付けされており、どの作業場にどの工具が備えられるのかが定められている。
サーバ3の制御部203は、カメラ300から上記撮像データを受信すると、当該撮像データをデータベース205に格納する。例えば、制御部203は、上記撮像データに含まれる作業場のIDと同じ工具の設置場所を示すIDをデータベース205の中から検索し、検索したセンサデータおよび作業データと、カメラ300から受信した上記撮像データとを紐付けする。
このように、本実施の形態では、作業者を撮像するネットワークカメラ300を備え、当該カメラ300は、作業者を撮像した画像と、撮像した場所を示す識別情報と、カメラ300の識別情報とを紐付けした撮像データをサーバ3に送信し、サーバ3は、カメラ300から受信した撮像データに含まれる場所を示す識別情報と、作業データに含まれるセンシング対象101の場所とに基づいて、作業データと撮像データとを紐付けする。
このような構成とすることにより、カメラ300からは、ウェアラブルセンサ102によるセンサデータおよび作業データ以外の視覚情報を収集することができる。ウェアラブルセンサ102から得られるデータとカメラ300から得られるデータとを互いを補いあう情報として活用することで、より精度高く作業者ならびに作業の管理を行うことが可能になる。
第4の実施形態
第4の実施形態における作業情報管理システム4000は、図7に示すように、第2または第3の実施形態において、センサ器具2に、図5に示した判定部207、表示部208と同様の機能を有した判定部701、表示部702を備えたものである。表示部702は、第1の実施形態等と同じくウェアラブルセンサと一体となっていてもよく、別々に分かれて配線で接続されたものであってもよい。
センサ器具2の送信機103は、IoTゲートウェイ201を介してサーバ3にセンサデータおよび作業データを送信するとともに、判定部701にこれらのデータを出力する。判定部701は、送信機103からこれらのデータを受け取ると、判定部207と同様に、これらのデータと、センサ器具2内のメモリにあらかじめ記憶されたパターンライブラリ204と同様のライブラリとを比較し、両者が一致するか否かを判定する。判定部701は、両者が一致すると判定したウェアラブルセンサの識別情報(例えば、「type1」)と、そのセンサを用いた作業の作業名(例えば、識別ID「1」に対応する作業名「部品取り付け」)と、当該作業で用いられるセンシング対象である工具の工具名(例えば、識別ID「1」、「2」、「3」に対する工具「電動ジグソー」、「電動ドリル」、「電動ドライバ」)を読み取り、これらの工具を用いて部品取り付け作業が行われていると判定する。さらに、判定部701は、当該判定の結果を表示部702に表示する。判定部701は、第1の実施形態と同様に、アドバイスメッセージを表示部702に表示してもよい。
なお、作業者100とは別の場所に判定部701と表示部702とを設け、例えば、管理者などの作業者100とは別の人が作業内容を視認可能な構成としてもよい。判定部701は、管理者と作業者に異なる情報を伝達するために、判定部207と異なる機能を有してもよい。また、システム構成として、判定器207による判定結果を、直接表示部208に送信し、表示してもよい。これにより、作業者100は、自らの作業の状態に関する情報をリアルタイムで確認することができる。
第5の実施形態
第5の実施形態を、図8を用いて説明する。第5の実施形態における作業情報管理システム5000は、第2-第4の実施形態と異なり、サーバ3やIoTゲートウェイ201を備えず、代わりに送信機103から受信機500を介してPC(Personal Computer)501の制御部502にデータが送信される構成となっている。受信機500は、ハードウェアとしては一般的な通信機器であり、例えば、モデムやPC501と一体となったNICとして構成されていてもよい。また、制御部502は、図4に示したサーバ3の制御部203と同様の構成である。
PC501は、サーバ3と同様に、センサデータおよび作業データをデータベース205に記憶する一方、センサ器具2側に設けられた判定部701が、第4の実施形態の場合と同様に、センサ器具2の送信機103から受け取ったセンサデータおよび作業データと、あらかじめセンサ器具2内のメモリに記憶されたパターンライブラリ204と同様のライブラリとを比較し、両者が一致するか否かを判定し、当該判定の結果を出力する。このような構成により、規模の小さな電子機器または小額の投資で、作業者ならびに作業の管理を行うことが可能になる。
第6の実施形態
第6の実施形態を、図9を用いて説明する。第6の実施形態における作業情報管理システム6000は、第5の実施形態と同じくPC501上で処理を行う一方、判定部701、表示部702が、図4の場合と同様に、PC501側に設けられている。このような構成とすることにより、センサ器具2側の構成をコンパクト化することができ、センサ器具2の処理能力が低い場合や、スペースとしてディスプレイが設けられないような小型の器具であっても、上記各実施形態の場合と同様に、作業者ならびに作業の管理を行うことが可能になる。なお、図9では、判定部701および表示部702がPC501側に設けられている場合について例示したが、図7に示したように、PC501側およびセンサ器具2側の双方に設けられてもよい。
第7の実施形態
第7の実施形態を、図10を用いて説明する。第7の実施形態における作業情報管理システム7000では、ウェアラブルセンサ102に、PC501と同様の処理を行う制御部700、判定部701、表示部702が無線を介さずに直接接続されている。作業者100は、このような構成のセンサ器具2を身につけて作業を行なう。これにより、第5、第6の実施形態よりもさらに小型の電子機器で作業者は自身の作業管理を行うことができる。
第8の実施形態
第8の実施形態を、図11を用いて説明する。第8の実施形態では、第1の実施形態から第7の実施形態までの各作業情報管理システムにおいて用いられるセンサ器具2のウェアラブルセンサ102がセンシングするデータの取得補助に関わるものである。例えば、センシング対象101が工具である場合を例に考える。作業現場に同一形状の工具が複数ある場合には、作業者100がそのうちのどの工具を手に取ったのか判別することは、上記第7の実施形態までの方法では困難、または不可能である。この判別を可能にするために、第8の実施形態では、センシング対象101である工具800にセンシング補助物801を付着させる。センシング補助物801を付着させる位置は、例えば、電導ドライバを模した工具800上の取っ手の位置804が考えられる。
センシング補助物801は、例えば、ゴム状またはプラスチック状、さらには金属の素材により構成される。また、例えば、裏面がシール状になっており、工具800に貼り付けることができる材料により構成される。なお、センシング補助物801は、止め具やマジックテープ(登録商標)等の着脱部材によって、ウェアラブルセンサ102に着脱可能な部材により構成されていてもよい。
センシング補助物801には、所定の位置802の範囲内に凹凸形状の突起部803が設けられている。作業者100がセンシング補助物801を付着(図11の矢印A)させた工具800を手に取ると、所定の位置802にある突起部803に、当該突起部803に対応する位置に設けられたウェアラブルセンサ102の部位が押し当てられて、作業者が工具800を握ったときの位置を検知することで、作業者100がどの工具を手に取ったのか判別することが容易になる。
例えば、作業者の手によってセンサ器具2が握られると、ウェアラブルセンサ102の各部位のセンサが、センシング対象101に付されたセンシング補助物801に接触する。そして、センシング補助物801の所定の位置802にある突起部803に対応する位置にある部位のセンサ(例えば、人差し指先端圧力センサ1103(ch3)、中指先端圧力センサ1106(ch6)、薬指先端圧力センサ1110(ch9)の3つのセンサ)が圧力を検知し、ウェアラブルセンサ102のICチップが、これらの情報を端末装置1に送信する。このときのセンサデータには、図5に示した情報のほか、突起部803に対応するセンサの位置とその圧力値が含まれる。例えば、作業者100が工具を握った瞬間に、手袋型ウェアラブルセンサ内蔵の圧力センサはいずれのチャネルでも圧力が増大する一方、突起部803に対応する位置にあるセンサ(例えば上記3つのセンサ)では、特に大きく圧力が変化する。このため、端末装置1の信号解析部105は、第1の実施形態の場合と同様、これらの部位のセンサの圧力値と閾値とを比較する。そして信号解析部105は、両者に一定以上の差がある場合、例えば、センサ器具2から受信したセンサデータに含まれる人差し指付け根圧力センサ1102(ch1)の値とその部位とを表示部106に表示し、握り方についてのアドバイスメッセージを作業者100に提示することができる。
なお、センシング補助物801が取り付けられるセンシング対象101は、工具に留まることなく、例えば、作業現場の場所を特定するために、作業に使う机に貼ったり、作業現場の壁に貼り付けてもよい。さらには、センシング補助物801を作業現場の床にはりつけて、靴の裏のウェアラブルセンサで場所の特定を行ってもよい。また、センシング補助物801は、1枚を貼り付けるのみならず、一つの貼り付けたい対象に複数貼り付けて運用を行ってもよい。また、凹凸形状の所定の位置802は、この範囲自体が全体的に凹型あるいは凸形状をしており、その中でさらに突起部803があってもよい。また、所定の位置802は、センシング補助物801を作成する際の単なる設計指標であり、実際にはセンシング補助物801を設けずに、直接センシング対象101にセンシング補助物801と同様の構成を設けてもよい。さらに、突起部803は、図8のように丸の形状をしていてもよく、他に四角、三角、星型など様々な形状をしていてもよい。
このように、本実施形態では、ウェアラブルセンサ102は、センシング対象101に付けられたセンシング補助物801に接触して得られたセンサデータを、センシング対象101から受信する。これにより、センシング対象101に付けることが可能な様々なセンシング補助物801からセンサデータを得ることができる。
また、ウェアラブルセンサ102は、センシング補助物801ごとに設けられた凹凸形状に接触して得られたセンサデータを、センシング対象101から受信し、サーバ3タは、センサデータに含まれる凹凸形状により得られたセンサの値に基づいて、センシング対象101を識別する。例えば、センシング補助物801は、センシング対象101に付けられ、当該センシング対象が置かれている場所、当該センシング対象の種類、当該センシング対象の使用者に応じてセンシング補助物801の形状をあらかじめ定めておき、ウェアラブルセンサ102が、センシング補助物801の形状に接触することで、接触した部分のセンサデータを出力し、サーバ3やPC501といったコンピュータが、当該センサデータを読み取り、接触したセンシング対象が置かれている場所やセンシング対象の種類、センシング対象の使用者を特定することができる。
また、ウェアラブルセンサ102は、センシング補助物801の凹凸形状に押し当てられることにより、センサデータを、センシング対象101から受信するので、例えば、作業者が後具を握っただけでセンサデータを得ることができる。
第9の実施形態
第9の実施形態を、図12を用いて説明する。第9の実施形態は第8の実施形態と同じく、センシング補助物に関するものである。第9の実施形態のセンシング補助物801aは、ウェアラブルセンサ102が読み取る凹凸形状の所定の範囲802aが細長い形状をしており、その中に凹凸形状の突起部900、901が配置されている。所定の範囲802aが細長い形状をしているために、例えば、工具800の取っ手位置804aにウェアラブルセンサ102を貼り付けて、作業者100が手で握っても必ずしも突起部900、901の両方に接触することはできない。第9の実施形態では、作業者100が、工具800に付着(図12の矢印B)された細長いセンシング補助物801aを、例えば、ウェアラブルセンサ102を装着した指で順になぞり、ウェアラブルセンサ102のICチップが凹凸形状を読み取る。具体的には、ウェアラブルセンサ102のICチップは、第8の実施形態の場合と同様に、作業者の手によってセンサ器具2がなぞられると、ウェアラブルセンサ102の各部位のセンサが、センシング対象101に付されたセンシング補助物801がなぞられる。そして、センシング補助物801の所定の位置802にある突起部803に対応する位置にある部位のセンサ(例えば、人差し指先端圧力センサ1103(ch3)、中指先端圧力センサ1106(ch6)、薬指先端圧力センサ1110(ch9)の3つのセンサ)が、この順で圧力を検知する。
ウェアラブルセンサ102のICチップは、これらの情報を端末装置1に送信する。このときのセンサデータには、図5に示した情報のほか、突起部803に対応するセンサの位置とその圧力値、および各部位センサが圧力値を検知したときの時刻が含まれる。例えば、作業者100が工具をなぞると、なぞられた順に、手袋型ウェアラブルセンサ内蔵の圧力センサはいずれのチャネルでも圧力が増大する一方、突起部803に対応する位置にあるセンサ(例えば上記3つのセンサ)では、なぞられた順に、特に大きく圧力が変化する。このため、端末装置1の信号解析部105は、第1の実施形態の場合と同様、これらの部位のセンサの圧力値と閾値とを比較し、両者に一定以上の差がある場合、例えば、センサ器具2から受信したセンサデータに含まれる人差し指付け根圧力センサ1102(ch1)の値とその部位とを表示部106に表示し、握り方についてのアドバイスメッセージを作業者100に提示することができる。さらに、信号解析部105は、これらの部位がなぞられた時刻と、あらかじめ定められた各部位がなぞられる正しい順序とを読み出し、当該正しい順序で各部位がなぞられているか否かを判定する。そして、信号解析部105は、当該正しい順序で各部位がなぞられていないと判定した場合には、握り方についてのアドバイスメッセージを作業者100に提示することができる。
このように、本実施の形態では、ウェアラブルセンサ102は、センシング補助物801の凹凸形状をなぞられることにより、センサデータを、センシング対象101から受信するので、例えば、握ることができない形状の工具であっても、指でなぞるだけでセンサデータを得ることができる。
なお、突起部900、901の形状は、丸型と四角の二種類の形状であってもよく、形状の種類は問わない。ウェアラブルセンサ102では、突起部の形状もしくは、例えば、指でなぞった際の複数の凹凸形状の間隔(位置や時間の間隔)から、センシング補助物801を貼りつけたセンシング対象101を識別してもよい。例えば、センシング対象101と、センシング補助物801と、センシング補助物801に設けた突起部の配置とを対応付けたデータを、端末装置1のメモリに記憶しておき、信号解析部105が、ウェアラブルセンサ102から得られたセンサデータと上記データとを比較することで、どのセンシング対象101をなぞったのかを判定してもよい。
なお、なぞる際に接触する身体は、指以外に例えば、手のひらや手の甲、腕、靴底を介した足の裏などでもよい。センシング補助物801aの長さや突起部形状の配置数は任意に定めることができる。このような形状のセンシング補助物801aにより、第8の実施形態よりもより多くの情報をウェアラブルセンサで読み取ることが容易になる。
第10の実施形態
第10の実施形態を、図13を用いて説明する。第10の実施形態は、第8、第9の実施形態と同じく、センシング補助物に関するものである。図10は、第10の実施形態のセンシング補助物801bの側面断面図である。センシング補助物801bには、くぼみPが1箇所もしくは複数個所配置されてあり、くぼみPの底には突起部8000が備わっている。センシング補助物801bは、例えば、素材がゴムのような強く押し付けると収縮する弾力性のある素材で形成されている。センシング補助物801bを、例えば、工具800の取っ手位置804bに貼り付け(図13の矢印C)、作業者100が手で握ると、握る力が弱いときにはウェアラブルセンサを装着した手は、突起部8000に触れることがなく、一定以上の力を手先に加えることで、センシング補助物801bが圧縮されて突起形状804bに触れる。このようなセンシング補助物801bにより作業者が作業対象物を握る強さ、あるいは身体の一部を押し付けたさいの押し付ける力の強さを、ウェアラブルセンサで感度よく取得することが可能になる。
第11の実施形態
第11の実施形態を、図14を用いて説明する。第11の実施形態は、第10の実施形態と同じく、手の先など身体の一部を押し付ける強さをセンシングする物に関するものである。第11の実施形態では、センシング補助物801cにある突起部8000a、8000b、8000c、8000dのように、突起部の高さがそれぞれ異なる点で、第10の実施形態とは異なっている。センシング補助物801cの形状の違いは、突起部の高さの違いやくぼみPの深さの違いでもよく、突起の先の角の尖り具合の差でもよい。また、突起部の水平方向の幅の違いであってもよい。このようなセンシング補助物801cを、例えば、工具800の取っ手のような指定した位置804cに貼り付けることで(図14の矢印D)、作業者100が工具を握った際に、その握る位置を精度よくウェアラブルセンサにより判別することが可能になる。
第12の実施形態
第12の実施形態を、図15を用いて説明する。第12の実施形態は、第8-11でのセンシング補助物801を用いて作業者100を識別する、というような活用方法に関するものである。第12の実施形態では、作業者100が着用する、例えば、個人識別に使うIDカード1005などの識別媒体に、第8-11の実施形態のようなセンシング補助物801が付されている(図15の矢印E)。作業者100は、例えば、作業開始時あるいは、その日の仕事の始めの時間など、ウェアラブルセンサ102を有したセンサ器具2を身につけた時点で、カード1005に備わっているセンシング補助物801に、自身に装着したセンサ器具2のウェアラブルセンサ102を、身体の一部に接触させる(図15の矢印F)。これにより第1-第7の実施形態の作業情報管理システムに、直接、作業者情報を登録することが可能になる。
例えば、作業者に装着されたセンサ器具2のウェアラブルセンサ102が、IDカード1005に付されたセンシング補助物801に接触する。センシング補助物801には、所定の位置802の範囲内に凹凸形状の突起部803が設けられている。突起部803は、作業者ごとにことなる位置に配置されている。したがって、ウェアラブルセンサ102により突起部803がなぞられたときの位置を示すパターンと、各突起部がなぞられたときの時刻を、ウェアラブルセンサ102のICチップが読み取り、これらの情報をセンサデータとして端末装置1に送信する。端末装置1の信号解析部105は、あらかじめデータ蓄積部107に記憶されている作業者を識別するための識別テーブルに記憶されている突起部の配置パターンと、上記センサデータに含まれるパターンとを比較する。
上記識別テーブルには、上記突起部の配置パターンと作業者IDおよび作業者の氏名とが対応付けて記憶されている。信号解析部105は、両者が一致する場合、上記突起部の配置パターンに対応する作業者が作業を開始したと判定し、その旨およびを各突起部がなぞられたときの時刻を作業開始時刻として表示部106に出力する。また、信号解析部105は、データ蓄積部107に、作業者IDと上記作業開始時刻とを対応付けた作業履歴データを上記作業者情報として蓄積する。上記では作業開始時の場合を例示したが、作業終了時についても同様に考えることができる。
1: 端末装置
2: センサ器具
1000、2000、3000、4000、5000、6000、7000:作業情報管理システム
100: 作業者
101: センシング対象
102: ウェアラブルセンサ
103: 送信機
104: 受信機
105: 信号解析部
106、 106a、 106b、 106c: 表示部
107: データ蓄積部
200: 識別ID
201: IoTゲートウェイ
202: ルーター
203: サーバ
204: パターンライブラリ
205: データベース
206: 機械学習部
2071: NTPサーバ
208、 208a、 208b、 208c: 判定部
300: カメラ
500: 受信機
501: PC
502: 制御部
700: 制御部
800: 工具
801、 801a、 801b、 801c: センシング補助物
803: 突起部
900a、 900b、 900c: 丸形状の凹凸のあるセンシング補助物
8000、 8000a、 8000b、 8000c、 8000d: 突起部
1005: 個人認証用IDカード

Claims (12)

  1. 作業者が着用し、センシング対象からセンサデータを受信するセンサと、前記センサが受信したセンサデータを端末に送信する送信機とを有したウェアラブルセンサと、
    前記ウェアラブルセンサから受信した前記センサデータに基づいて、前記作業者の作業内容を判定し、当該判定の結果を表示部に出力するコンピュータと、
    を備えることを特徴とする作業情報管理システム。
  2. 前記ウェアラブルセンサは、前記センシング対象の識別情報と、前記センシング対象の場所と、前記センシング対象の使用者と、前記センシング対象が操作された時間とを含む作業データを前記センシング対象から取得し、取得した前記作業データと前記センサデータとを前記コンピュータに送信し、
    前記コンピュータは、前記ウェアラブルセンサから受信した前記センサデータおよび前記作業データと、前記ウェアラブルセンサおよび作業ごとに記憶された前記センサの値のパターンを示すパターンライブラリとに基づいて、前記作業者の作業内容を判定する、
    ことを特徴とする請求項1に記載の作業情報管理システム。
  3. 前記コンピュータは、前記ウェアラブルセンサから受信した過去の前記センサデータおよび前記作業データと、最新の前記センサデータおよび前記作業データとに基づいて機械学習を行い、前記機械学習の結果を最新の前記パターンライブラリとする、
    ことを特徴とする請求項2に記載の作業情報管理システム。
  4. 前記作業情報管理システムは、前記作業者を撮像するカメラを備え、
    前記カメラは、前記作業者を撮像した画像と、前記撮像した場所を示す識別情報と、前記カメラの識別情報とを紐付けした撮像データを前記コンピュータに送信し、
    前記コンピュータは、前記カメラから受信した前記撮像データに含まれる前記場所を示す識別情報と、前記作業データに含まれる前記センシング対象の場所とに基づいて、前記作業データと前記撮像データとを紐付けする、
    ことを特徴とする請求項2に記載の作業情報管理システム。
  5. 前記ウェアラブルセンサは、前記作業者が着用可能な手袋状の器具に設けられ、
    前記ウェアラブルセンサは、前記作業者の指、手のひら、または手の甲の各部位で前記センシング対象に接触することにより、前記センサデータを受信する、
    ことを特徴とする請求項1に記載の作業情報管理システム。
  6. 前記ウェアラブルセンサは、前記各部位に設けられた圧力センサが前記センシング対象に接触することにより、前記センサデータを受信する、
    ことを特徴とする請求項5に記載の作業情報管理システム。
  7. 前記ウェアラブルセンサは、前記センシング対象に付けられたセンシング補助物に接触して得られた前記センサデータを、前記センシング対象から受信する、
    ことを特徴とする請求項1に記載の作業情報管理システム。
  8. 前記ウェアラブルセンサは、前記センシング補助物ごとに設けられた凹凸形状に接触して得られた前記センサデータを、前記センシング対象から受信し、
    前記コンピュータは、前記センサデータに含まれる前記凹凸形状により得られたセンサの値に基づいて、前記センシング対象を識別する、
    ことを特徴とする請求項7に記載の作業情報管理システム。
  9. 前記ウェアラブルセンサは、前記センシング補助物の前記凹凸形状に押し当てられることにより、前記センサデータを、前記センシング対象から受信する、
    ことを特徴とする請求項8に記載の作業情報管理システム。
  10. 前記ウェアラブルセンサは、前記センシング補助物の前記凹凸形状をなぞられることにより、前記センサデータを、前記センシング対象から受信する、
    ことを特徴とする請求項8に記載の作業情報管理システム。
  11. 前記ウェアラブルセンサは、前記作業者が着用する靴下または靴状の身体への装着物に備えられ、前記作業者の足の裏側、または足の甲側の前記装着物への接触を通じて、前記センサデータを、前記センシング対象から受信する、
    ことを特徴とする請求項1に記載の作業情報管理システム。
  12. 作業者が着用するウェアラブルセンサが、センシング対象からセンサデータを受信し、
    前記ウェアラブルセンサが、受信したセンサデータを端末に送信し、
    コンピュータが、前記ウェアラブルセンサから受信した前記センサデータに基づいて、前記作業者の作業内容を判定し、
    前記コンピュータが、前記判定の結果を表示部に出力する、
    ことを特徴とする作業情報管理方法。
JP2020533900A 2018-07-30 2018-07-30 作業情報管理システム、および作業情報管理方法 Active JP7118155B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028441 WO2020026299A1 (ja) 2018-07-30 2018-07-30 作業情報管理システム、および作業情報管理方法

Publications (2)

Publication Number Publication Date
JPWO2020026299A1 true JPWO2020026299A1 (ja) 2020-12-17
JP7118155B2 JP7118155B2 (ja) 2022-08-15

Family

ID=69230614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533900A Active JP7118155B2 (ja) 2018-07-30 2018-07-30 作業情報管理システム、および作業情報管理方法

Country Status (4)

Country Link
US (1) US11508018B2 (ja)
EP (1) EP3832582A4 (ja)
JP (1) JP7118155B2 (ja)
WO (1) WO2020026299A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113042A (ja) * 2021-01-22 2022-08-03 オムロン株式会社 作業推定装置、作業推定装置の制御方法、情報処理プログラム、および記録媒体
US20220371144A1 (en) * 2021-05-21 2022-11-24 Gryp Technologies Inc. Method and system for cueing a user of a tool

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048581A (ja) * 2007-08-23 2009-03-05 Fuji Xerox Co Ltd 工程管理システム
JP2011159204A (ja) * 2010-02-03 2011-08-18 Kanto Auto Works Ltd 作業判定システム及び作業判定方法並びに該作業判定方法を記録した記録媒体
JP6321879B1 (ja) * 2017-12-20 2018-05-09 グレイステクノロジー株式会社 作業支援システム及び作業支援プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56125691A (en) 1980-03-07 1981-10-02 Hitachi Ltd Intermediate slab executing method of nuclear reactor base
US20020075232A1 (en) * 1997-08-15 2002-06-20 Wolfgang Daum Data glove
US7137069B2 (en) * 1998-12-18 2006-11-14 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US20050013416A1 (en) * 2003-07-16 2005-01-20 Lee David E. Telephone communication system with safety features
DE102005018527A1 (de) 2005-04-20 2006-10-26 David Bauer Golftrainingshandschuh
US20120211560A1 (en) * 2011-02-23 2012-08-23 Penn Hsiao Su Ordering System Using Radio Frequency Identification
US9554732B2 (en) * 2014-06-30 2017-01-31 Everyday Olympian, Inc. Modular physical activity monitoring system
US20180227735A1 (en) * 2014-08-25 2018-08-09 Phyziio, Inc. Proximity-Based Attribution of Rewards
DE102015111506A1 (de) * 2014-10-11 2016-04-14 Workaround UG (haftungsbeschränkt) Arbeitskleidungseinheit, Armband, Verbindungsstück, Handschuh, Sensormodul sowie Verfahren zur Erfassung, Dokumentation, Analyse, Kontrolle und/oder Teachen von Prozessen
US9861151B2 (en) * 2014-12-05 2018-01-09 SaPHIBeat Technologies, Inc. Activity monitoring systems and methods for accident detection and response
US9881276B2 (en) 2016-03-28 2018-01-30 Amazon Technologies, Inc. Ultrasonic bracelet and receiver for detecting position in 2D plane
US9870717B2 (en) * 2016-03-30 2018-01-16 Hcl Technologies Limited Assisting a visually impaired user to grip an object
US10296768B2 (en) * 2016-05-18 2019-05-21 International Business Machines Corporation Tracking objects in a two dimensional space
US10795521B2 (en) * 2016-09-07 2020-10-06 Tactual Labs Co. Pressure and shear sensor
CN108021104A (zh) * 2016-10-31 2018-05-11 博世汽车部件(苏州)有限公司 生产线监控系统和方法
JP2018157985A (ja) * 2017-03-23 2018-10-11 セイコーエプソン株式会社 運動解析装置、運動解析システム、および運動解析方法
US10180721B2 (en) * 2017-06-14 2019-01-15 Apple Inc. Fabric-based devices with force sensing
US10275083B2 (en) * 2017-09-20 2019-04-30 Alex Hamid Mani Assistive device with a refreshable haptic feedback interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048581A (ja) * 2007-08-23 2009-03-05 Fuji Xerox Co Ltd 工程管理システム
JP2011159204A (ja) * 2010-02-03 2011-08-18 Kanto Auto Works Ltd 作業判定システム及び作業判定方法並びに該作業判定方法を記録した記録媒体
JP6321879B1 (ja) * 2017-12-20 2018-05-09 グレイステクノロジー株式会社 作業支援システム及び作業支援プログラム

Also Published As

Publication number Publication date
US20210056646A1 (en) 2021-02-25
EP3832582A4 (en) 2022-03-09
US11508018B2 (en) 2022-11-22
WO2020026299A1 (ja) 2020-02-06
JP7118155B2 (ja) 2022-08-15
EP3832582A1 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
US20240023650A1 (en) Workwear unit having a glove that fastens a control system and functional module to a user's body
JP7346791B2 (ja) 手の人間工学的分析に関し、特に作業者の手の人間工学的分析用のセンサ搭載手袋及び対応する方法
ITMI20120494A1 (it) Apparato e metodo per l'acquisizione ed analisi di una attivita' muscolare
KR20130096310A (ko) 피로 지수 및 그 사용
JP7118155B2 (ja) 作業情報管理システム、および作業情報管理方法
US20160174897A1 (en) Sensor Embedded Wearable Technology Glove
KR101993065B1 (ko) 신체 훈련 시스템 및 그와 함께 사용시 유용한 방법들
JP2020177680A (ja) 作業分析装置、作業分析方法、及びプログラム
WO2006071043A1 (en) Apparatus for measuring force applied by the hand, analysing apparatus and system
JP2017516115A (ja) パームサイズのタイヤトレッドレーザー測定装置
ATE536132T1 (de) Elektronische vorrichtung und verfahren zum erfassen der fettverbrennungsschwelle mit hilfe von hrv und herzfrequenz
JP2017148220A (ja) 生体情報計測システムおよび方法
JP6576218B2 (ja) 作業療法支援装置
JP6676321B2 (ja) 適応性評価装置、適応性評価方法
JP7171359B2 (ja) 作業情報管理システム及びウェアラブルセンサ
Bassani et al. A dataset of human motion and muscular activities in manual material handling tasks for biomechanical and ergonomic analyses
JP2016035651A (ja) 在宅リハビリテーションシステム
US11756326B2 (en) Keepout zone detection and active safety system
US11353959B2 (en) Controller device
JP2016163145A5 (ja)
Yamazaki et al. Force Sensing Based on Nail Deformation for Measurement of Fingertip Force in Detailed Work
EP3801434A1 (en) Method and system for measuring ergonomic load
WO2023127017A1 (ja) 検査装置、検査方法、及び検査プログラム
TWI836406B (zh) 非接觸式按鍵觸發方法
CN113631901B (zh) 作业内容检测判定装置以及作业内容检测判定系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7118155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150