JP2009294732A - 作業要素時間出力装置 - Google Patents
作業要素時間出力装置 Download PDFInfo
- Publication number
- JP2009294732A JP2009294732A JP2008145268A JP2008145268A JP2009294732A JP 2009294732 A JP2009294732 A JP 2009294732A JP 2008145268 A JP2008145268 A JP 2008145268A JP 2008145268 A JP2008145268 A JP 2008145268A JP 2009294732 A JP2009294732 A JP 2009294732A
- Authority
- JP
- Japan
- Prior art keywords
- work
- time
- information
- element time
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】本発明は、一人の作業者を対象として要素作業時間の日ごとのばらつき、朝昼夕といった時間帯によるばらつき、などを容易に算出し、作業改善の指針を立てることを容易にする。
【解決手段】本発明の作業要素時間の出力装置に用いるプログラムは、各種センサで作業動態情報または作業位置情報を取得する機能と、取得した情報から作業の切れ目を推定する機能と、推定した作業の切れ目から作業要素時間を算出し記録/出力する機能と、を有する。本発明の作業要素時間の出力装置は、各種センサで作業者の作業動態情報または作業位置情報を取得するステップと、取得したセンサ情報から作業者の作業の切れ目を推定するステップと、推定した作業の切れ目から作業要素時間を算出し記録/出力するステップと、を有する
【選択図】図1
【解決手段】本発明の作業要素時間の出力装置に用いるプログラムは、各種センサで作業動態情報または作業位置情報を取得する機能と、取得した情報から作業の切れ目を推定する機能と、推定した作業の切れ目から作業要素時間を算出し記録/出力する機能と、を有する。本発明の作業要素時間の出力装置は、各種センサで作業者の作業動態情報または作業位置情報を取得するステップと、取得したセンサ情報から作業者の作業の切れ目を推定するステップと、推定した作業の切れ目から作業要素時間を算出し記録/出力するステップと、を有する
【選択図】図1
Description
本発明は、工場や屋外の作業現場において、作業者がセル組立作業、ライン組立作業、溶接作業、運搬作業、現地据付作業、といった作業を行うにあたり、作業者に設置したセンサを用いて作業者の作業の切れ目を推定し、作業に要したタクトタイムを算出、或いは作業要素毎の作業要素時間を算出して出力を行う出力装置に関するものである。
製造業の作業現場において、作業者の作業時間を測定し作業効率の改善を行うという取り組みが広く一般的に行われている。作業時間の測定方法は、一般的には観測者がビデオカメラで撮影を行う方法やストップウォッチを用いて時間を測定する方法が従来から行われている。
また、ビデオカメラを用いた作業時間の測定をより効率的に行う方法として、作業者の身体にマーカを設置してビデオカメラで撮影し、自動的に標準作業時間を算出するという取り組みもなされている(例えば特許文献1参照)。これは、モーションキャプチャによる作業解析の手法と同様、作業者の身体の数箇所に作業部位を識別するマーカを貼付して作業者の作業動作をビデオカメラで撮影し、その動画像をコンピュータで画像処理を行うことで、作業者の手足の動きを移動、静止動作、ネジ締め動作、といった作業内容に要素分解し、その要素毎に要した時間を算出して標準作業時間を求める方法である。
しかし、前述のビデオカメラやストップウォッチを用いた作業時間実績の把握方法では、観測者のデータ分析に多大な工数がかかる。そのため、観測者は対象の作業に対してサンプリングを行い、作業の一部を対象としてデータ収集と分析を行うことが一般的であった。
また、マーカを貼付した作業者をビデオカメラで撮影し、その動画像から作業標準時間を算出する方法に関しても、マーカの位置がビデオカメラの死角に入った場合は作業要素別の作業時間の実績収集ができないし、作業者がビデオカメラから遠く離れた場所で作業をおこなった場合は、ビデオカメラでマーカの位置を正確に把握することができず作業時間の実績収集が出来ない。作業者の動作情報をセンサで収集する際にビデオカメラを用いるという手法は、測定対象の動作をセンサで直接的に収集するのではなく、間接的に収集することになるため、前述のような測定の障害が発生しうるのである。測定対象が作業者である場合は作業者にセンサを装着して情報収集する方法が直接的で望ましい。
本発明は上記のような問題点を解消するためになされたもので、センサを利用して作業者の作業動態情報または位置情報を自動的に収集することで、データのサンプリングを行わず全ての作業を対象として作業の切れ目を抽出し、作業のタクトタイムや作業要素時間を算出/出力することを狙いとしている。また、測定対象である作業者の動作情報や位置情報を直接的に収集するために作業者にセンサを設置することで、どのような作業エリアで行われる作業においても作業の切れ目を抽出し、作業のタクトタイムや作業要素時間を算出/出力することを狙いとしたものである。
本発明の作業要素時間の出力装置に用いるプログラムは、各種センサで作業動態情報または作業位置情報を取得する機能と、取得した情報から作業の切れ目を推定する機能と、推定した作業の切れ目から作業要素時間を算出し記録/出力する機能と、を有することを特徴とする。
本発明の作業要素時間の出力装置は、各種センサで作業者の作業動態情報または作業位置情報を取得するステップと、取得したセンサ情報から作業者の作業の切れ目を推定するステップと、推定した作業の切れ目から作業要素時間を算出し記録/出力するステップと、を有することを特徴としている。
これにより、本発明を実施すれば、作業者の全ての作業を対象として、作業時間帯や場所を限定せずに、作業を行う際の特徴的動作から作業の切れ目を推定し、タクトタイムや要素作業時間を自動的に算出/出力することができる。よって、一人の作業者を対象として要素作業時間の日ごとのばらつき、朝昼夕といった時間帯によるばらつき、などが容易に算出できたり、ベテラン作業者と新人作業者の要素作業時間を比較したりして、作業改善の指針を立てることが容易になる。
以下に、本発明の実施の形態を、図面を参照して詳細に説明する。
図1は、本発明を実施する好ましいシステムの構成図である。この構成図では、作業者が身体にセンサ600を装着し、そのセンサデータを受信して作業要素時間を出力する作業要素時間出力装置500が存在する。
センサ600は手足や腰につけた加速度センサ、位置センサ、画像センサなどを指している。本実施例では作業者が3軸加速度センサ、および位置センサの1つであるGPSシステムを腰に装着していることを想定し、実施例の説明をおこなっていくが、どのようなセンサを身体のどの部位に装着するかはこの限りではない。
作業要素時間の出力装置500はディスプレイ1、キーボード2、受信装置3、インタフェース部4、入力処理部100、出力処理部200、計算部300、記憶装置400、で構成されている。
入力処理部100は、測定データ入力処理部101、で構成される。出力処理部200は、作業要素時間出力処理部201で構成される。計算部300は、作業の切れ目推定部301、作業要素時間算出部302、で構成される。記憶装置400は、測定データ記憶部401、作業の切れ目記憶部402、作業要素時間記憶部403、で構成される。作業要素時間の出力装置500はこれらの構成を備えることによって、センサ600で取得したセンサデータから作業要素時間を算出して出力を行う。図2に作業要素時間装置のディスプレイ1で作業要素時間を出力した例を示す。この例では、作業者AとBのそれぞれ2回の作業要素時間を算出した結果を出力している。
入力処理部100は、測定データ入力処理部101、で構成される。出力処理部200は、作業要素時間出力処理部201で構成される。計算部300は、作業の切れ目推定部301、作業要素時間算出部302、で構成される。記憶装置400は、測定データ記憶部401、作業の切れ目記憶部402、作業要素時間記憶部403、で構成される。作業要素時間の出力装置500はこれらの構成を備えることによって、センサ600で取得したセンサデータから作業要素時間を算出して出力を行う。図2に作業要素時間装置のディスプレイ1で作業要素時間を出力した例を示す。この例では、作業者AとBのそれぞれ2回の作業要素時間を算出した結果を出力している。
次に、作業要素時間の出力装置について、その処理フローを説明する。図3に全体の処理フロー図を示す。処理フローは3段階のステップを経て進行し、順に、各種センサで作業動態情報または作業位置情報を取得するステップ100、取得した情報から作業の切れ目を推定するステップ200、作業要素時間を算出し記録/出力するステップ300、となる。
始めに、各種センサで作業動態情報または作業位置情報を取得するステップ100を説明する。図4にステップ100のフロー図を示す。このステップでは作業者に装着したセンサ600で作業者の作業動態情報または作業位置情報を取得し、これらを記憶装置400に時系列に記録することになる。
(ステップ110)
まず、センサで取得した作業動態情報または作業位置情報を作業要素時間出力装置500がインプットとして取得する。これは、センサ600で取得したセンサデータを受信装置3が取得することで行う。本例では作業者の腰部分に3軸加速度センサとGPSを装着することを想定しており、受信装置3にて取得する情報とは、現在時刻、作業者の腰部分の3軸加速度、座標位置、である。センサデータ取得の方法は、作業者が装着する各種センサが着脱可能なメモリを有しており、作業者がセンサからメモリ部分を抜いてメモリに記憶されたデータを受信装置3に読み取らせる方法でも良いし、無線通信装置を各種センサが備えており、無線経由でセンサデータを受信装置3が自動的に読み取る方法でも良い。また、作業着の袖部分や腰部分の布にセンサが埋め込まれており、作業者が作業を終えて衣類収納棚などに作業着を設置したり、或いは洗濯カゴに作業着を置いたりしたタイミングで、近接する無線通信装置が作業着のセンサを感知してセンサデータを収集し、受信装置3がデータを読み取る、といった手段でも良い。
(ステップ120)
センサデータは受信装置3からインタフェース部5を経由して記憶装置400の測定データ記憶部401に記録される。この情報は時系列に記録される。ステップ120にて記録された例を図5に示す。この例では、単位時間T1〜T24ごとの作業者の位置、作業者の腰部分の3軸加速度(X、Y、Z)、を取得した例を示している。単位時間T1においては、作業者の位置はエリアAであり、x軸方向の加速度は500mG、y軸方向の加速度は400mG、z軸方向の加速度は1000mGである。これらの情報の記録は一定の間隔で記憶装置に記録され、各センサが作動している限り、記憶部のレコードに順次記憶していくことになる。
(ステップ110)
まず、センサで取得した作業動態情報または作業位置情報を作業要素時間出力装置500がインプットとして取得する。これは、センサ600で取得したセンサデータを受信装置3が取得することで行う。本例では作業者の腰部分に3軸加速度センサとGPSを装着することを想定しており、受信装置3にて取得する情報とは、現在時刻、作業者の腰部分の3軸加速度、座標位置、である。センサデータ取得の方法は、作業者が装着する各種センサが着脱可能なメモリを有しており、作業者がセンサからメモリ部分を抜いてメモリに記憶されたデータを受信装置3に読み取らせる方法でも良いし、無線通信装置を各種センサが備えており、無線経由でセンサデータを受信装置3が自動的に読み取る方法でも良い。また、作業着の袖部分や腰部分の布にセンサが埋め込まれており、作業者が作業を終えて衣類収納棚などに作業着を設置したり、或いは洗濯カゴに作業着を置いたりしたタイミングで、近接する無線通信装置が作業着のセンサを感知してセンサデータを収集し、受信装置3がデータを読み取る、といった手段でも良い。
(ステップ120)
センサデータは受信装置3からインタフェース部5を経由して記憶装置400の測定データ記憶部401に記録される。この情報は時系列に記録される。ステップ120にて記録された例を図5に示す。この例では、単位時間T1〜T24ごとの作業者の位置、作業者の腰部分の3軸加速度(X、Y、Z)、を取得した例を示している。単位時間T1においては、作業者の位置はエリアAであり、x軸方向の加速度は500mG、y軸方向の加速度は400mG、z軸方向の加速度は1000mGである。これらの情報の記録は一定の間隔で記憶装置に記録され、各センサが作動している限り、記憶部のレコードに順次記憶していくことになる。
次に、取得した情報から作業の切れ目を推定するステップ200を説明する。図4にステップ200のフロー図を示す。このステップは、ステップ100にてセンサで取得して記憶部400に記録していた時系列のセンサデータをもとに、計算部300において作業者の作業の切れ目を推定し、その結果を記憶する、というものである。
(ステップ210)
このステップでは、測定データ記憶部401に記録された作業動態情報、作業位置情報を元に、計算部300の作業の切れ目推定部301で作業の切れ目の推定を行う。本例では、加速度センサから作業者の歩行移動を特定し、その情報とGPSセンサで特定した作業者の位置情報を併せ、正しい作業の切れ目を推定する方法を例としてあげる。本ステップで行う処理の説明を図6で行う。図6の左から5列の部分は図5に示した測定データ記憶部と同一であり、左から6列目から10列目が本ステップの処理に相当する。
(ステップ210)
このステップでは、測定データ記憶部401に記録された作業動態情報、作業位置情報を元に、計算部300の作業の切れ目推定部301で作業の切れ目の推定を行う。本例では、加速度センサから作業者の歩行移動を特定し、その情報とGPSセンサで特定した作業者の位置情報を併せ、正しい作業の切れ目を推定する方法を例としてあげる。本ステップで行う処理の説明を図6で行う。図6の左から5列の部分は図5に示した測定データ記憶部と同一であり、左から6列目から10列目が本ステップの処理に相当する。
まず、作業者の歩行移動部分を特定するため、加速度のx成分、y成分、z成分の3軸合成成分を計算する。計算結果は左から6列目に記した通りである。次に計算した3軸合成成分のうち、値が1500以上のレコードを歩行移動の候補として特定する。特定した結果を図6の左から7列目に示す。本例では該当するレコードに1をフラグとして立てている。
例では、T2、T5、T7、T11、T12、T16、T17、T20、T21、のレコードが該当する。これらのレコードが歩行移動の候補として抽出されている状態である。本例では加速度のx成分、y成分、z成分の3軸合成成分を計算し、値が1500以上のレコードを歩行移動の候補として特定しているが、加速度のx成分、y成分、z成分を個々に判断して歩行移動の候補を特定しても良いし、また何れか複数の成分を選択してそれらを組み合わせることで歩行移動の候補を特定するといった方法でも良い。
例では、T2、T5、T7、T11、T12、T16、T17、T20、T21、のレコードが該当する。これらのレコードが歩行移動の候補として抽出されている状態である。本例では加速度のx成分、y成分、z成分の3軸合成成分を計算し、値が1500以上のレコードを歩行移動の候補として特定しているが、加速度のx成分、y成分、z成分を個々に判断して歩行移動の候補を特定しても良いし、また何れか複数の成分を選択してそれらを組み合わせることで歩行移動の候補を特定するといった方法でも良い。
次に、抽出したレコードからノイズを除外する。これは、作業者が瞬間的に飛び上がる、といった動作をした場合にそのセンサデータを歩行として誤認する場合を想定し、有る一定以上の時間帯に連続して1500以上のレコードが出現した場合のみ、その時間を歩行と認識するものである。本例では、前後2レコード以内に1500以上のレコードが存在した場合にそれらのレコードを含めて歩行と判断し、2レコード以内に他の抽出レコードが存在しない場合には歩行とは捉えないという場合を想定している。このような手法を用いると、図6の左から8列目に示すように、T5〜T7、T11〜T12、T16〜T17、T20〜T21のレコードを歩行グループとして認識することになる。このような方法で歩行を認識した結果を左から9列目に示す。T5〜T7、T11〜T12、T16〜T17、T20〜T21のレコードを歩行としてレコードに記憶している。
次に、左から2列目に作業者の作業位置を記しているが、この記録と左から9列目の記憶した歩行情報を併せて、作業の繰り返しの関係を作業の切れ目推定部301で推定する。これは、前述の段階で歩行移動を作業の切れ目として推定したものから、作業の繰り返しの最小単位を推定するものである。本例では、作業エリアが時系列に作業エリアA、作業エリアB、作業エリアC、作業エリアD、作業エリアA、と記録されており、この情報から作業エリアAから作業エリアDを繰り返しの作業単位として作業の切れ目推定部301が認識し、T1〜T4の時間帯を作業1、T8〜10の時間帯を作業2、T13からT15の時間帯を作業3、T18〜T19の時間帯を作業4、に要した時間としている。作業の切れ目は、作業1と歩行の切れ目がT4とT5のレコードの間、歩行と作業2の切れ目がT7とT8のレコードの間、作業2と歩行の切れ間がT10とT11のレコードの間、歩行と作業3の切れ目がT12とT13のレコードの間、作業3と歩行の切れ目がT15とT16のレコードの間、歩行と作業4の切れ目がT17とT18のレコードの間、作業4と歩行の切れ目がT19とT20 のレコードの間、歩行と作業1の切れ目がT21とT22のレコードの間、となる。このように作業の繰り返し単位と作業の切れ目を推定した結果を図6の左から10列目に記す。
(ステップ220)
ステップ210で計算をおこなった結果は記憶装置400の作業の切れ目記憶部402に記憶される。記憶の例を図7に示す。この例では、記憶部は時間を記憶した列と作業の切れ目を記憶した列で構成されている。
(ステップ220)
ステップ210で計算をおこなった結果は記憶装置400の作業の切れ目記憶部402に記憶される。記憶の例を図7に示す。この例では、記憶部は時間を記憶した列と作業の切れ目を記憶した列で構成されている。
ステップ300は作業要素時間を算出し、記録と出力を行うステップである。図4にステップ300のフロー図を示す。
(ステップ310)
記憶装置400の作業の切れ目記憶部402から時系列に記憶された作業の切れ目の情報を読み出し、計算部300の作業要素時間算出部302で作業要素時間を計算する。作業要素時間は作業1の作業要素時間から順に、歩行移動の時間、作業2の作業要素時間、歩行移動の時間、作業3の作業要素時間、歩行移動の時間、作業4の作業要素時間、を算出する。算出した結果を図8に示す。作業の繰り返し単位である作業1から作業4までの時間を記すための列と、歩行移動の時間を記すための列で構成されており、各々の時間が記されている。
(ステップ320)
前ステップで算出した結果を記憶装置400の作業要素時間記憶部403に記憶する。記憶した例は図8と同一のものとなる。
(ステップ330)
算出した結果は前ステップで記憶装置に記憶すると共に、インタフェース部4および作業要素時間出力処理部201を介してディスプレイ1に出力される。出力した例は図8と同一のものとなる。多種のセンサを利用して作業者の作業の切れ目を推定し、作業要素時間を記憶/出力することで、ユーザは複数の作業者の作業効率性を比較して改善指針を立案したり、同一の作業者の繰り返し作業を比較して、毎日の生産性、毎週の生産性、朝昼晩の生産性を分析したりすることが可能となる。図9に上述のような作業効率を比較するための出力例を挙げる。この例では、ある作業者Aのタクトタイムを速い順にソートして表示したもの、また、ある作業チームBの平均タクトタイムを午前中の作業、午後の作業、夜間作業の別に集計して表示したものを挙げている。
(ステップ310)
記憶装置400の作業の切れ目記憶部402から時系列に記憶された作業の切れ目の情報を読み出し、計算部300の作業要素時間算出部302で作業要素時間を計算する。作業要素時間は作業1の作業要素時間から順に、歩行移動の時間、作業2の作業要素時間、歩行移動の時間、作業3の作業要素時間、歩行移動の時間、作業4の作業要素時間、を算出する。算出した結果を図8に示す。作業の繰り返し単位である作業1から作業4までの時間を記すための列と、歩行移動の時間を記すための列で構成されており、各々の時間が記されている。
(ステップ320)
前ステップで算出した結果を記憶装置400の作業要素時間記憶部403に記憶する。記憶した例は図8と同一のものとなる。
(ステップ330)
算出した結果は前ステップで記憶装置に記憶すると共に、インタフェース部4および作業要素時間出力処理部201を介してディスプレイ1に出力される。出力した例は図8と同一のものとなる。多種のセンサを利用して作業者の作業の切れ目を推定し、作業要素時間を記憶/出力することで、ユーザは複数の作業者の作業効率性を比較して改善指針を立案したり、同一の作業者の繰り返し作業を比較して、毎日の生産性、毎週の生産性、朝昼晩の生産性を分析したりすることが可能となる。図9に上述のような作業効率を比較するための出力例を挙げる。この例では、ある作業者Aのタクトタイムを速い順にソートして表示したもの、また、ある作業チームBの平均タクトタイムを午前中の作業、午後の作業、夜間作業の別に集計して表示したものを挙げている。
第2の実施例は、第1の実施例が作業者の作業動態情報と作業位置情報から作業要素時間を算出する例であったのに対し、作業者の作業動態情報のみから作業要素時間を算出するものである。
本例では、作業者が3軸加速度センサを右手首と左手首の2箇所に装着してベルトコンベアを用いたライン作業を行っていることを想定し、作業の切れ目の推定を行う。作業者は繰り返し作業をおこなっており、繰り返し作業の1単位が完了する毎に両手で2回拍手を行う。また、1単位の繰り返し作業中に要素作業が終了する毎に両手で1回拍手を行う。
このようなルールに基づき作業をおこなった場合、作業者はベルトコンベアの上流から半製品が手元に到着した後、半製品に部品を組み付けたりネジ締めをしたりするといった要素作業が終了する毎に拍手を行い、その半製品に対する作業が終了すると拍手を2回おこなって半製品をベルトコンベアで下流に流すことになる。図10に示すように、作業者が行う拍手という動作は左右の手に同時刻に加速度が発生し、かつ掌を合わせた際にできる接平面に対して垂直な加速度成分が左右で互いに逆方向かつ絶対量が同程度であるという性質を持つ。このような加速度は他の動作と区別が付き易いため、作業の切れ目で拍手を行うという作業方法をルール化しておくと、作業の切れ目として認識することができる。
拍手を作業の切れ目として認識する方法を以下に述べる。図11は図1の計算部300の作業の切れ目推定部301において、収集した左手の加速度と右手の加速度データから作業の切れ目を推定する手順を説明するためのものであり、左から7列の部分は順に、単位時間を記録した列、左手の加速度(X、Y、Z)、右手の加速度(X、Y、Z)を記録した列であり、8列目と9列目は作業の切れ目を推定する処理に相当する。
まず作業者の拍手部分を特定するため、左手の加速度X成分と右手の加速度X成分の絶対値が共に1000以上のレコードを特定する。この抽出作業によって、左右の手がX軸方向に同時に動いている時間帯を特定する。本例ではT3、T5、T6、T11、T16、T20、T21が相当する。次に、特定したレコードから左手の加速度が正の値、右手の加速度が負の値であり、両者の絶対値の差が150以下であるレコードを特定する。この抽出作業によって、左右の手を体の中心に向かって同程度の加速度で動かす動作を特定し、この結果を拍手とみなすものとする。本例では、T5、T6、T11、T16、T20、T21が相当する。この特定結果を図11の左から8列目に示している。次に、拍手として特定されたレコードが2レコード連続している場合を拍手2回と推定し、1レコードが単独で存在するものを拍手1回と推定する。拍手2回と特定されたレコード群から次に拍手2回と特定されたレコード群が繰り返し作業の1単位であり、その間に拍手1回のレコードが存在した場合に作業を要素作業1、要素作業2と分解していく。このような計算をおこなった結果が図11の左から9列目に示すような結果となっている。本例では、繰り返し作業は作業1、作業2、作業3で構成されている。
このようにして作業の切れ目を特定した結果を図1の記憶装置400の作業の切れ目記憶部402に記憶する。記憶した例を図12に示す。このように記憶した結果を用いて図1の計算部300の作業要素時間算出部302で作業要素時間を計算する。算出した結果を図13に示す。この例では、拍手の時間帯を除いて、作業1、作業2、作業3に要した時間を表形式で算出している。この算出結果は図1の記憶装置400の作業要素時間記憶部403に記憶されると同時に、ディスプレイ1に表示される。
このようにして作業の切れ目を特定した結果を図1の記憶装置400の作業の切れ目記憶部402に記憶する。記憶した例を図12に示す。このように記憶した結果を用いて図1の計算部300の作業要素時間算出部302で作業要素時間を計算する。算出した結果を図13に示す。この例では、拍手の時間帯を除いて、作業1、作業2、作業3に要した時間を表形式で算出している。この算出結果は図1の記憶装置400の作業要素時間記憶部403に記憶されると同時に、ディスプレイ1に表示される。
このように、作業者に装着したセンサで作業動態情報を取得して作業の切れ目を特定し、作業要素時間を算出して表示することも可能である。
多数の作業者が業務をしている現場で、作業状況を把握するために利用できる。また、作業を改善するために利用できる。
1…ディスプレイ、2…キーボード、3…受信装置、4…インタフェース部、100…入力処理部、101…測定データ入力処理部、200…出力処理部、201…作業要素時間出力処理部、300…計算部、301…作業の切れ目推定、302…作業要素時間算出部、 400…記憶装置、401…測定データ記憶部、402…作業の切れ目記憶部、403…作業要素時間記憶部、500…作業要素時間出力装置、600…センサ。
Claims (4)
- 作業者が作業を実施する際に、作業者に動作または位置の計測装置を設置することで、計測装置から得られる情報から作業者の作業の切れ目を特定し、作業要素時間を算出してその結果を記録或いは出力する作業要素時間の出力装置において、
各種計測装置において作業者の動作情報または位置情報を取得する手段と、
取得した情報から作業の切れ目を特定する手段と、
特定した作業の切れ目から要素作業時間を算出し、記録或いは出力する手段とを有することを特徴とする作業要素時間の出力装置。 - 請求項1に記載の作業要素時間の出力装置において、複数の作業者に関する情報を処理することを特徴とする請求項1に記載の作業要素時間の出力装置。
- 請求項1に記載の作業要素時間の出力装置において、複数の計測装置から得られた情報を処理し、その組み合わせによって作業者の作業の切れ目を特定することを特徴とする請求項1に記載の作業要素時間の出力装置。
- 請求項1に記載の作業要素時間の出力装置において、計測装置から情報を収集する手段に関して、作業者が着用する作業着の特定の部位に予め計測装置を装着し、作業終了後に作業者が作業着を保管棚に収納したり作業着を洗濯籠に入れたりするタイミングで、計測装置に記憶された情報を無線通信を介して情報収集することを情報収集手段の特徴とした請求項1に記載の作業要素時間の出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008145268A JP2009294732A (ja) | 2008-06-03 | 2008-06-03 | 作業要素時間出力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008145268A JP2009294732A (ja) | 2008-06-03 | 2008-06-03 | 作業要素時間出力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009294732A true JP2009294732A (ja) | 2009-12-17 |
Family
ID=41542907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008145268A Pending JP2009294732A (ja) | 2008-06-03 | 2008-06-03 | 作業要素時間出力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009294732A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185695A (ja) * | 2011-03-07 | 2012-09-27 | Univ Of Tsukuba | 作業管理システム及び作業管理方法 |
WO2017013899A1 (ja) * | 2015-07-22 | 2017-01-26 | 三菱電機株式会社 | 活動記録装置、活動記録プログラム、および、活動記録方法 |
JP2018045395A (ja) * | 2016-09-13 | 2018-03-22 | 株式会社ジェイテクト | 教育支援装置 |
WO2020044797A1 (ja) * | 2018-08-27 | 2020-03-05 | 三菱電機株式会社 | 情報処理装置、情報処理システム、及び情報処理方法 |
JP2020095574A (ja) * | 2018-12-14 | 2020-06-18 | エヌ・ティ・ティ・スマートコネクト株式会社 | 情報処理端末、情報処理方法、および情報処理プログラム |
-
2008
- 2008-06-03 JP JP2008145268A patent/JP2009294732A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185695A (ja) * | 2011-03-07 | 2012-09-27 | Univ Of Tsukuba | 作業管理システム及び作業管理方法 |
WO2017013899A1 (ja) * | 2015-07-22 | 2017-01-26 | 三菱電機株式会社 | 活動記録装置、活動記録プログラム、および、活動記録方法 |
JPWO2017013899A1 (ja) * | 2015-07-22 | 2017-09-14 | 三菱電機株式会社 | 活動記録装置、活動記録プログラム、および、活動記録方法 |
CN107430397A (zh) * | 2015-07-22 | 2017-12-01 | 三菱电机株式会社 | 活动记录装置、活动记录程序以及活动记录方法 |
JP2018045395A (ja) * | 2016-09-13 | 2018-03-22 | 株式会社ジェイテクト | 教育支援装置 |
WO2020044797A1 (ja) * | 2018-08-27 | 2020-03-05 | 三菱電機株式会社 | 情報処理装置、情報処理システム、及び情報処理方法 |
CN112567305A (zh) * | 2018-08-27 | 2021-03-26 | 三菱电机株式会社 | 信息处理装置、信息处理系统以及信息处理方法 |
JPWO2020044797A1 (ja) * | 2018-08-27 | 2021-08-10 | 三菱電機株式会社 | 情報処理装置、情報処理システム、及び情報処理方法 |
CN112567305B (zh) * | 2018-08-27 | 2023-06-27 | 三菱电机株式会社 | 信息处理装置、信息处理系统以及信息处理方法 |
JP2020095574A (ja) * | 2018-12-14 | 2020-06-18 | エヌ・ティ・ティ・スマートコネクト株式会社 | 情報処理端末、情報処理方法、および情報処理プログラム |
JP7222688B2 (ja) | 2018-12-14 | 2023-02-15 | エヌ・ティ・ティ・スマートコネクト株式会社 | 情報処理端末、情報処理方法、および情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5001260B2 (ja) | オブジェクト追跡方法及びオブジェクト追跡装置 | |
US8983124B2 (en) | Moving body positioning device | |
EP2871446A2 (en) | Pedestrian observation system, recording medium, and estimation of direction of travel | |
JP2009294732A (ja) | 作業要素時間出力装置 | |
Chakravorti et al. | Design and implementation of an integrated performance monitoring tool for swimming to extract stroke information at real time | |
US8971577B2 (en) | Monitoring device, reliability calculation program, and reliability calculation method | |
JP2010190861A (ja) | 状況認識装置及び状況認識方法 | |
KR20040044621A (ko) | 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법 | |
JP6784044B2 (ja) | 行動解析装置、行動解析方法及びプログラム | |
Hartmann | Human worker activity recognition in industrial environments | |
US20180165622A1 (en) | Action analysis device, acton analysis method, and analysis program | |
WO2011111316A1 (ja) | 装置操作情報分析装置および作業者作業内容分析方法 | |
JP2009032033A (ja) | 動作境界検出方法および作業分析システム | |
CN111670456A (zh) | 信息处理装置、追踪方法和追踪程序 | |
Baranwal et al. | Abnormal motion detection in real time using video surveillance and body sensors | |
JP4956724B2 (ja) | トレーシングシステム | |
CN111026273A (zh) | 智能穿戴设备自动设置方法、装置、电子设备及存储介质 | |
US20230069018A1 (en) | Image processing apparatus, imaging apparatus, image processing system, image processing method, and non-transitory computer readable medium | |
JP2019103609A (ja) | 動作状態推定装置、動作状態推定方法及びプログラム | |
CN111753938B (zh) | 一种位置获取方法、装置及电子设备 | |
US11216969B2 (en) | System, method, and computer-readable medium for managing position of target | |
CN112888914B (zh) | 跟踪器校准装置,跟踪器校准方法和程序 | |
CN112755519A (zh) | 基于数据平台的传感器数据处理方法、装置、系统及存储介质 | |
CN114533010A (zh) | 心率检测方法和装置 | |
CN111006683A (zh) | 计步装置及其计步方法、控制器和可读存储介质 |