JP2024047930A - Program, method, work management device, and work management system - Google Patents
Program, method, work management device, and work management system Download PDFInfo
- Publication number
- JP2024047930A JP2024047930A JP2022153707A JP2022153707A JP2024047930A JP 2024047930 A JP2024047930 A JP 2024047930A JP 2022153707 A JP2022153707 A JP 2022153707A JP 2022153707 A JP2022153707 A JP 2022153707A JP 2024047930 A JP2024047930 A JP 2024047930A
- Authority
- JP
- Japan
- Prior art keywords
- work
- user
- time
- area
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000001514 detection method Methods 0.000 claims description 51
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000004140 cleaning Methods 0.000 abstract description 150
- 238000003860 storage Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】作業者が清掃等の作業を適切に行ったかどうかを簡易に判断すること。【解決手段】コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、作業中の作業部位である実行部位を検出することと、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定することと、を実行させるプログラム。【選択図】図2[Problem] To easily determine whether a worker has performed a cleaning or other task appropriately. [Solution] A program that causes a computer to execute the following: acquiring a plurality of images taken at each of a plurality of timings, including a user who is instructed to perform a task on a target work area of at least one work area, and a work tool held by the user; detecting the position of the work tool in the image based on each of the plurality of images; detecting an execution area, which is a work area currently being performed, of the at least one work area based on each of the plurality of images; calculating a task execution time, which is the time the user performed the task on the target work area, based on the target work area, the position, and the execution area; and referring to a standard task time associated with each of the work areas, determining that the task on the target work area has been completed if the task execution time satisfies a condition based on the standard task time. [Selected Figure] Figure 2
Description
特許法第30条第2項適用申請有り ウェブサイトへの掲載による公開、掲載日:令和4年3月7日、ウェブサイトのアドレス:https://corp.avilen.co.jp/news/641818/ 展示会における公開、展示会名FOODEX JAPAN 2022、展示日:令和4年3月8日(展示期間:令和4年3月8日~令和4年3月11日)Application for application of Article 30,
本発明は、プログラム、方法、作業管理装置、及び作業管理システムに関する。 The present invention relates to a program, a method, a work management device, and a work management system.
食品、医薬品、又は半導体等を製造する工場では、塵や埃等の異物が製品に混入することを防止するためにクリーンルームが用いられることがある。クリーンルーム内で作業を行う作業者は、クリーンルームに入室する際に防塵服等のクリーンルーム用衣服を着用することが多い。作業者はクリーンルームへの入室前に防塵服の清掃作業を行う。 In factories that manufacture food, medicine, or semiconductors, clean rooms are often used to prevent foreign objects such as dust and dirt from contaminating the products. Workers who work in clean rooms often wear clean room clothing such as dustproof suits when entering the clean room. Workers clean their dustproof suits before entering the clean room.
清掃作業は、例えば、粘着クリーナーやエアシャワー等を用いて行われる。作業者は、管理者によって定められた清掃手順に沿って十分に清掃を行った上でクリーンルームへ入室することが求められる。このように、入室のための条件が課されるユーザを管理するための方法として、特許文献1には、電子部品の製造を行う作業者が静電気を帯びたまま電子部品の製造ラインへ入ることを禁止するための入室許可管理装置が示される。
Cleaning work is performed using, for example, an adhesive cleaner or an air shower. Workers are required to thoroughly clean in accordance with the cleaning procedures established by the manager before entering the clean room. As a method for managing users who are subject to conditions for entry,
特許文献1に記載の発明では、作業者の除電状態を接触抵抗値測定器によって測定される接触抵抗値に基づいて除電状態を判断している。除電状態のように電気的に測定可能な値とは異なり、クリーンルームの入室時に着用する専用の衣服に付着する塵や埃等の異物は、直接その付着の程度を測定することが難しい。このような場合であっても、クリーンルームに入室する作業者が清掃作業を適切に行ったかどうかを判断し、清掃作業を監督可能にすることが求められている。
In the invention described in
そこで、本発明は、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することを目的とする。 The present invention aims to provide a program, method, work management device, and work management system that can easily determine whether a worker has performed a cleaning or other task appropriately.
本発明の一態様に係るプログラムは、コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出処理と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、を実行させる。 A program according to one aspect of the present invention causes a computer to execute an image acquisition process that acquires a plurality of images, each captured at a plurality of timings, that include a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, a position detection process that detects the position of the work tool in the image based on each of the plurality of images, and an execution part detection process that detects an execution part, which is a work area at which the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.
さらに、上記プログラムは、コンピュータに、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定する完了判定処理と、を実行させる。 The program also causes the computer to execute an execution time calculation process that calculates the work execution time, which is the time it takes for the user to perform work on the target work area, based on the target work area, position, and execution area, and a completion determination process that refers to the standard work time associated with each work area and determines that the work on the target work area has been completed if the work execution time satisfies a condition based on the standard work time.
この態様によれば、作業道具の位置を用いて、ユーザが対象作業部位の作業を行った作業実施時間を算出することができ、算出された作業実施時間に基づいて、対象作業部位の作業が完了したか否かを検出することができる。これにより、例えば、専用の衣服に付着する微小な異物を直接検出することなく、簡易な方法によって、作業者が清掃等の作業を適切に行ったかどうかを判断することができる。 According to this aspect, the position of the work tool can be used to calculate the work execution time during which the user performed work on the target work area, and based on the calculated work execution time, it can be detected whether the work on the target work area has been completed. This makes it possible to determine, for example, whether the worker has performed work such as cleaning appropriately in a simple manner without directly detecting minute foreign objects adhering to special clothing.
上記態様のプログラムにおいて、複数の画像は、第1タイミングにおいて撮影された第1画像及び第1タイミングより後の第2タイミングにおいて撮影された第2画像を含んでもよい。さらに、位置検出処理は、第1画像に基づいて、第1画像における作業道具の第1位置を検出し、第2画像に基づいて、第2画像における作業道具の第2位置を検出し、実施時間算出処理は、第2位置が第1位置と異なる場合に、第2タイミングと第1タイミングとの間の時間を作業実施時間に加算することで、作業実施時間を算出してもよい。 In the program of the above aspect, the multiple images may include a first image taken at a first timing and a second image taken at a second timing after the first timing. Furthermore, the position detection process may detect a first position of the work tool in the first image based on the first image, and detect a second position of the work tool in the second image based on the second image, and the performance time calculation process may calculate the work performance time by adding the time between the second timing and the first timing to the work performance time when the second position is different from the first position.
この態様によれば、異なるタイミングの作業道具の位置の変化に基づいて、作業実施時間を算出することができる。第1位置と第2位置とが同じであることは、作業道具が動かされておらず、作業動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、作業道具が動かされており、作業動作が実行されていることを意味する。このように、作業道具の位置に基づいて作業動作の実行を判断することができる清掃等の作業において、簡易な方法によって、作業者が作業を適切に行ったかどうかを判断することができる。 According to this aspect, the work execution time can be calculated based on the change in the position of the work tool at different times. The first position and the second position being the same means that the work tool is not being moved and a work operation is not being performed. The first position and the second position being different means that the work tool is being moved and a work operation is being performed. In this way, in work such as cleaning, where the execution of a work operation can be determined based on the position of the work tool, a simple method can be used to determine whether the worker has performed the work appropriately.
上記態様のプログラムは、コンピュータに、ユーザを識別する識別情報を取得する識別情報取得処理と、対象作業部位の作業が完了したと判定された場合に、識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させてもよい。 The program of the above aspect may further cause the computer to execute an identification information acquisition process for acquiring identification information for identifying a user, and a result recording process for, when it is determined that the work on the target work area has been completed, recording the identification information in association with information indicating that the work on the target work area has been completed.
この態様によれば、対象作業部位のそれぞれについて、作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、作業者による作業状況の把握や作業の監督が可能となる。 According to this aspect, the completion of work for each target work area is recorded. By having a manager at the factory or the like check the recorded information, it becomes possible to grasp the work status of the workers and supervise the work.
上記態様のプログラムにおいて、結果記録処理は、全ての対象作業部位の作業が完了した場合に、識別情報とユーザによる作業が完了したことを示す情報とを対応付けて記録してもよい。 In the program of the above aspect, the result recording process may record, when work on all target work areas is completed, the identification information and information indicating that the work by the user has been completed in association with each other.
この態様によれば、ある作業者(ユーザ)による一連の清掃等の作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、例えば、作業が適切に行われていることの作業者別の把握や、製造時に異物混入があった場合の作業者の特定が可能となり、管理者による作業の適切な監督が可能となる。 According to this aspect, the completion of a series of tasks such as cleaning performed by a certain worker (user) is recorded. By having a manager of a factory or the like check the recorded information, it becomes possible, for example, to determine whether each worker is performing the tasks appropriately, and to identify the worker in the event of contamination during production, enabling the manager to properly supervise the tasks.
上記態様のプログラムは、コンピュータに、対象作業部位を示す指示画面をユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させてもよい。 The program of the above aspect may further cause the computer to execute a screen information generation process that generates instruction screen information for displaying an instruction screen indicating the target work area to the user.
この態様によれば、ユーザには自身が作業すべき対象作業部位が表示される。ユーザは指示画面を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることが可能となる。 According to this aspect, the target work area on which the user is to work is displayed to the user. The user can perform work such as cleaning while checking the instruction screen, which allows the user to proceed with the work appropriately.
上記態様のプログラムにおいて、画面情報生成処理は、撮影されたユーザの画像を含む指示画面情報を生成してもよい。 In the program of the above aspect, the screen information generation process may generate instruction screen information that includes a captured image of the user.
この態様によれば、ユーザには作業中のユーザ自身の様子が表示される。ユーザは指示画面内の自身の様子を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることができる。 According to this aspect, the user's own condition while working is displayed to the user. The user can perform tasks such as cleaning while checking their own condition on the instruction screen, so the user can proceed with the work appropriately.
上記態様のプログラムにおいて、画面情報生成処理は、基準作業時間及び作業実施時間に基づいて、対象作業部位の作業の進捗を示す進捗情報を含む指示画面情報を生成してもよい。 In the program of the above aspect, the screen information generation process may generate instruction screen information including progress information indicating the progress of work on the target work area based on the reference work time and the work execution time.
この態様によれば、ユーザには作業の進捗が指示画面を通じて表示される。ユーザは進捗を確認しつつ清掃等の作業を行うことができるようになるので、例えば、進捗が好ましくない場合には、作業方法を修正するなどして、作業を適切に進めることができる。 According to this aspect, the progress of the work is displayed to the user through the instruction screen. The user can perform work such as cleaning while checking the progress. For example, if the progress is not satisfactory, the user can modify the work method and proceed with the work appropriately.
上記態様のプログラムにおいて、少なくとも1つの作業部位は、第1作業部位及び第1作業部位の次に作業が行われる第2作業部位を含み、画面情報生成処理は、第1作業部位を対象作業部位として示す指示画面を、ユーザに表示するための情報を生成し、完了判定処理において実行部位としての第1作業部位の作業が完了したと判定されると、第2作業部位を対象作業部位として示す指示画面情報を生成してもよい。 In the program of the above aspect, at least one work site includes a first work site and a second work site where work is performed next to the first work site, and the screen information generation process generates information for displaying to the user an instruction screen showing the first work site as the target work site, and when it is determined in the completion determination process that the work of the first work site as the execution site has been completed, instruction screen information may be generated that shows the second work site as the target work site.
この態様によれば、第1作業部位を作業し終えたユーザには、連続的に第2作業部位の作業が指示される。これにより、一連の作業部位の作業が連続して指示されるようにできるので、ユーザは作業部位の作業漏れを減らすことができ、作業を適切に進めることができる。 According to this aspect, when a user has finished working on a first work area, the user is continuously instructed to work on a second work area. This allows the user to be instructed to work on a series of work areas in succession, reducing the number of times the user misses a work area and allowing the user to proceed with the work appropriately.
本発明の他の一態様に係る方法は、コンピュータが、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出することとを含む。 A method according to another aspect of the present invention includes a computer acquiring a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, detecting the position of the work tool in the image based on each of the plurality of images, and detecting an execution area, which is a work area where the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.
さらに、上記方法は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定することと、を実行する。 The method further includes calculating a task execution time, which is the time it takes for the user to perform the task on the task part, based on the target task part, the position, and the task part, and referring to a standard task time associated with each task part, determining that the task on the task part has been completed if the task execution time satisfies a condition based on the standard task time.
本発明の他の一態様に係る作業管理装置は、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。 A work management device according to another aspect of the present invention includes an image acquisition unit that acquires a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, a position detection unit that detects the position of the work tool in the image based on each of the plurality of images, and an execution area detection unit that detects an execution area, which is a work area where the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.
さらに、上記作業管理装置は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、を備える。 The work management device further includes an execution time calculation unit that calculates the work execution time, which is the time it takes for the user to perform work on the execution part, based on the target work part, the position, and the execution part, and a completion determination unit that refers to the standard work time associated with each of the work parts and determines that the work on the execution part is completed if the work execution time satisfies a condition based on the standard work time.
本発明の他の一態様に係る作業管理システムは、少なくとも1つの作業部位のうちユーザが作業すべき対象作業部位をユーザに示す指示画面が表示される表示部と、ユーザ及びユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、作業管理装置とを備える。 A work management system according to another aspect of the present invention includes a display unit that displays an instruction screen that indicates to a user which of at least one work area the user is to work on, an imaging unit that captures a plurality of images taken at a plurality of timings including the user and a work tool held by the user, and a work management device.
上記態様の作業管理システムにおいて、作業管理装置は、複数の画像を撮像部から取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における前記作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。 In the above-described aspect of the work management system, the work management device includes an image acquisition unit that acquires a plurality of images from an imaging unit, a position detection unit that detects the position of the work tool in the image based on each of the plurality of images, and an execution part detection unit that detects, among at least one work part, an execution part that is a work part where a user is working using the work tool, based on each of the plurality of images.
さらに、作業管理装置は、実行部位、及び位置に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、ユーザが作業すべき対象作業部位を示す指示画面を、ユーザに表示するための情報を生成する、画面情報生成部とを備える。 The work management device further includes an execution time calculation unit that calculates a work execution time, which is the time it takes for the user to perform work on the work part, based on the work part and the position; a completion determination unit that refers to a standard work time associated with each work part and determines that the work on the work part is completed if the work execution time satisfies a condition based on the standard work time; and a screen information generation unit that generates information for displaying to the user an instruction screen indicating the target work part on which the user should perform work.
本発明によれば、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することができる。 The present invention provides a program, method, work management device, and work management system that can easily determine whether a worker has performed a cleaning or other task appropriately.
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 A preferred embodiment of the present invention will be described with reference to the attached drawings. In each drawing, the same reference numerals are used to denote the same or similar configurations.
図1は本実施形態に係る作業管理システム10の概略を示すブロック図である。作業管理システム10は、作業管理装置101及び撮像装置201を備える。作業管理装置101と撮像装置201とは、有線接続又は無線接続によって情報の送受信が可能に接続される。
FIG. 1 is a block diagram showing an outline of a
本実施形態では、作業の一例として、食品工場などで実施される清掃作業を例に説明する。作業管理システム10は、撮像装置201によって撮影された作業者(ユーザ)の動画(複数の画像)に基づいて、作業管理装置101が、ユーザが清掃すべき清掃部位(作業部位)の清掃作業が完了したか否かを判定するシステムである。この清掃作業は、クリーンルーム用の衣服を着用したユーザが粘着クリーナー(作業道具)を使用して自身が着用している衣服の清掃を行うものである。
In this embodiment, cleaning work performed in a food factory or the like will be described as an example of work. The
作業管理装置101は、所定のプログラムを実行することによって所定の処理を行うコンピュータを有する情報処理装置である。作業管理装置101は、例えば、タブレット端末、スマートフォン、パーソナルコンピュータ等である。タブレット端末等の情報処理装置に、作業管理装置101としての機能を発揮するプログラムがインストールされ、作業管理装置101のCPUによって実行されることで、情報処理装置が作業管理装置101として機能する。
The
撮像装置201は、ユーザの動画を撮影可能なカメラ等の装置である。なお、本実施形態において、撮像装置201が撮影する画像は、ユーザの動作が撮影された動画においてその動画を構成する各静止画像であるとして説明する。つまり、複数の画像は撮像装置201が撮影した動画の各フレームにおける画像である。なお、撮像装置201は作業管理装置101の内部に設けられるカメラであってもよく、必ずしも作業管理装置101と撮像装置201とは別個の装置である必要はない。
The
図2を参照して、作業管理システム10による情報処理の概要について説明する。図2の例ではユーザUが自身の手で清掃道具Cを把持して清掃作業を行う。ユーザは、例えば、ユーザが清掃すべき部位を示す対象作業部位を作業管理装置101の画面によって確認し、対象作業部位の清掃を行う。撮像装置201によって、ユーザU及び清掃道具Cが含まれる複数の画像が動画として撮影される。撮像装置201が撮影した動画は作業管理装置101に送信される。
With reference to FIG. 2, an overview of information processing by the
具体的には、図2のステップ(A1)に示されるように、ある姿勢をとるユーザU及び清掃道具Cを含む画像IG1が撮像装置201を介して作業管理装置101によって取得される。
Specifically, as shown in step (A1) of FIG. 2, an image IG1 including a user U in a certain posture and a cleaning tool C is acquired by the
ステップ(B1)において、作業管理装置101は、画像IG1に対して位置検出処理及び実行部位検出処理を行う。位置検出処理によって、画像IG1におけるユーザUの位置及び清掃道具Cの位置が検出される。実行部位検出処理によって、ユーザUが清掃作業を実行中の清掃部位が実行部位として検出される。画像IG1に基づくと、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、バウンディングボックスによって規定される、位置P11及び位置P12であると検出される。また、画像IG1に基づくと、画像IG1で示されるユーザUの実行部位は「肩」であると検出される。位置検出処理及び実行部位検出処理は、例えば、機械学習によって学習された学習モデルを用いて行われる。
In step (B1), the
同様に、ステップ(A2)に示されるように、画像IG1が取得されたタイミングより後のタイミングにおいて、画像IG2が取得される。また、ステップ(B1)より後のタイミングにおけるステップ(B2)において、同様に、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、位置P21及び位置P22であると検出され、実行部位は「肩」であると検出される。 Similarly, as shown in step (A2), image IG2 is acquired at a timing later than the timing at which image IG1 is acquired. Also, in step (B2) at a timing later than step (B1), the positions of user U and cleaning tool C in image IG1 are detected as positions P21 and P22, respectively, and the performing area is detected as the "shoulder."
ステップ(C)において、作業管理装置101は、画像IG1,画像IG2において検出された清掃道具Cの位置P12,P22を用いて、「肩」の作業実施時間を算出する。このとき、作業管理装置101は、位置P12と位置P22が異なる場合に作業実施時間を加算していくことで作業実施時間を算出する。
In step (C), the
ステップ(D)において、作業管理装置101は、予め定められた基準作業時間と、算出した作業実施時間とを比較する。例えば、作業実施時間が基準作業時間以上となった場合、ステップ(E)において、作業管理装置101は実行部位の清掃作業が完了したと判定する。
In step (D), the
図3を参照して、作業管理装置101のハードウェア構成の一例について説明する。作業管理装置101は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ301、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置302、有線又は無線通信を行う通信IF(Interface)303、入力操作を受け付ける入力デバイス304、及び情報の出力を行う出力デバイス305を有する。入力デバイス304は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス305は、例えば、ディスプレイ、タッチパネル及び/又はスピーカ等である。
An example of the hardware configuration of the
図4を参照して、作業管理装置101の機能ブロック構成について説明する。作業管理装置101は、通信部1011、表示部1012、記憶部1013、画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112を有する。
The functional block configuration of the
通信部1011は、作業管理装置101が備える通信IF303を用いて実現することができる。表示部1012は、作業管理装置101が備える出力デバイス305を用いて実現することができる。記憶部1013は、作業管理装置101が備える記憶装置302を用いて実現することができる。画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112は、作業管理装置101のプロセッサ301が、記憶装置302に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
The communication unit 1011 can be realized using the communication IF 303 provided in the
通信部1011は、撮像装置201を含む作業管理装置101と外部の情報処理装置との間における通信を制御する。
The communication unit 1011 controls communication between the
表示部1012は、例えば、タブレット端末、スマートフォン等のディスプレイであり、ユーザに対して画面を表示する。
The
記憶部1013は、作業管理装置101での処理に用いられる各種の情報を記憶する。記憶部1013には、ユーザDB10131、作業部位DB10132、作業管理DB10133、作業結果DB10134、実行部位検出モデル10135、及び位置検出モデル10136が記憶される。
The
図5を参照してユーザDB10131に記憶されるユーザ情報について説明する。ユーザ情報は、「ユーザ名」及び「ユーザID」の項目を有する。「ユーザ名」の項目には、作業管理システム10を利用するユーザの名前が、例えば、「ユーザA」のように記憶される。「ユーザID」の項目には個々のユーザを識別する情報が、例えば「USER01」のように記憶される。
The user information stored in
図6を参照して作業部位DB10132に記憶される作業部位情報について説明する。作業部位情報は、「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の項目を有する。 The work part information stored in the work part DB10132 will be described with reference to Figure 6. The work part information has the fields "cleaning part name", "cleaning order", "reference work time", and "reference operation video".
「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の各項目に記憶される情報は、作業管理システム10の管理者(例えば食品工場の運営管理者等)によって設定される。管理者は、作業部位情報を、自身の管理する工場等の性質に応じて任意に設定することができ、その一例が図6に示されている。 The information stored in each of the fields "Cleaning area name," "Cleaning order," "Reference work time," and "Reference operation video" is set by the manager of the work management system 10 (e.g., the operations manager of a food factory). The manager can set the work area information as desired depending on the characteristics of the factory under his/her management, and an example is shown in FIG. 6.
「清掃部位名」の項目には、ユーザが清掃すべき清掃部位がそれぞれ記憶される。清掃部位は、例えば、頭(前方)、頭(後方)、首(前方)、首(後方)のように、部位の前後が区別されていてもよい。また、右腕、左腕、右足、左足のように左右の部位が区別されていてもよい。 The "Name of Cleaning Part" field stores the cleaning parts that the user should clean. The cleaning parts may be distinguished between front and back, for example, head (front), head (rear), neck (front), and neck (rear). Also, the cleaning parts may be distinguished between left and right, for example, right arm, left arm, right leg, and left leg.
「清掃順」の項目には、ユーザが各清掃部位を清掃する順番が記憶される。順番は、例えば、ユーザの頭部から足先まで、清掃部位が上から下に移動するように設定される。「基準作業時間」の項目には、各清掃部位をユーザが清掃するための清掃動作を行うべき時間が記憶される。「基準動作動画」の項目には、各清掃部位の清掃方法を説明するための動画を示す情報が記憶される。「基準動作動画」は、例えば、記憶部1013に記憶される動画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「基準動作動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを取得する場合は、そのアクセス先を示す情報であってもよい。
The "cleaning order" field stores the order in which the user cleans each cleaning area. The order is set, for example, so that the cleaning areas move from top to bottom, from the user's head to the user's toes. The "reference work time" field stores the time that the user should perform the cleaning action to clean each cleaning area. The "reference operation video" field stores information indicating a video for explaining the cleaning method of each cleaning area. The "reference operation video" is, for example, information indicating the address in the
具体的には、例えば、「清掃部位名」が「肩」である場合、その「清掃順」は「5」番目であり、「基準作業時間」は「8秒」である。また、「肩」の清掃のための「基準動作動画」は「ファイルT5」として記憶される。 Specifically, for example, if the "name of cleaning area" is "shoulders," its "cleaning order" is "5th" and its "standard work time" is "8 seconds." In addition, the "standard operation video" for cleaning the "shoulders" is stored as "file T5."
図7を参照して、作業管理DB10133に記憶される作業管理情報について説明する。作業管理情報は、ユーザが作業管理システム10を利用して清掃作業を行った場合に、ユーザそれぞれの進捗に応じて更新される情報である。作業部位情報は、「実施ユーザ」、「清掃部位名」、「作業実施時間」、「基準作業時間」、及び「清掃状況」の項目を有する。
The work management information stored in the
「実施ユーザ」の項目には、作業管理システム10を利用したユーザ名が記憶される。「清掃部位名」の項目には、ユーザが清掃を行った又は清掃を行う清掃部位の清掃部位名が記憶される。「清掃部位名」の項目に記憶される情報は、作業部位DB10132の「清掃順」に応じて並べられて記憶される。「作業実施時間」の項目には、ユーザが部位ごとに清掃動作を行った時間が作業管理装置101によって算出されて記憶される。「基準作業時間」の項目には、ユーザが清掃動作を行うべき時間が記憶される。「清掃状況」の項目には、ユーザによる各清掃部位の清掃の状態が、「完了」、「清掃中」、又は「未完了」として記憶される。
The "Performing User" field stores the name of the user who used the
例えば、図7において、ユーザAは「頭(前方)」の清掃部位について、作業実施時間が「7秒」であり、清掃状況は「完了」として記憶されている。これは、ユーザAが頭(前方)の清掃部位の清掃を完了したことを示している。図7では、ユーザAは「頭(前方)」から「首(後方)」までの清掃部位の清掃を完了している。 For example, in FIG. 7, the task execution time for user A in regards to the cleaning area "head (front)" is stored as "7 seconds" and the cleaning status is stored as "completed." This indicates that user A has completed cleaning the cleaning area of the head (front). In FIG. 7, user A has completed cleaning the cleaning areas from "head (front)" to "neck (rear)."
図7では、ユーザAは「肩」の清掃部位を「清掃中」であることが記憶されている。なお、清掃状況が「清掃中」である部位が対象作業部位である。作業実施時間は、ユーザAの清掃動作に応じて作業管理装置101によって更新される。作業実施時間が、各部位に対応する基準作業時間以上となると、清掃状況が「清掃中」から「完了」に更新される。
In FIG. 7, it is stored that user A is "cleaning" the "shoulder" cleaning area. The area with a cleaning status of "cleaning" is the target work area. The work execution time is updated by the
図8は、ユーザAが「肩」の清掃を完了した後の作業管理情報の一例である。図8では、ユーザAが「肩」の清掃部位を9秒間清掃した結果、清掃状況が「完了」として更新されている。このとき、ユーザAは「胸部」の清掃部位を清掃中である。 Figure 8 is an example of work management information after user A has completed cleaning the "shoulders." In Figure 8, user A has cleaned the "shoulders" area for nine seconds, and the cleaning status has been updated to "completed." At this time, user A is currently cleaning the "chest" area.
図9を参照して、作業結果DB10134に記憶される作業結果情報について説明する。作業結果情報は、「ユーザ名」、「ユーザID」、「完了判定結果」、「実施日時」、及び「録画動画」の項目を有する。「完了判定結果」の項目には、清掃管理DB10133に記憶される作業管理情報に基づいて、各ユーザが全ての清掃部位の清掃を完了したか否かを示す情報が記憶される。「実施日時」の項目には、ユーザAが全ての清掃部位の清掃を完了した場合、その日時が記憶される。「実施日時」の項目に記憶される情報は、全ての清掃部位の清掃が完了した時刻でもよく、清掃を開始した時刻でもよい。「録画動画」の項目には、ユーザによる一連の清掃動画が録画された動画を示す情報が記憶される。「録画動画」は、例えば、記憶部1013に記憶される録画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「録画動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを記憶する場合、そのアクセス先を示す情報であってもよい。
9, the work result information stored in the
図9の例では、ユーザA(ユーザID:USER01)は、全ての清掃部位の清掃が「完了」し、「実施日時」が「2022/7/5 11:55:30」と記憶され、その「録画動画」は「ファイルA」として記憶される。また、ユーザCについて示されるように、「完了判定結果」の項目には、予め「未完了」という情報が記憶され、後述の完了判定部1018及び結果記録部10111による処理に応じて、「完了判定結果」の項目に記憶される情報が更新されてもよい。また、「完了判定結果」が「未完了」である場合、「実施日時」及び「録画動画」の項目には情報が記憶されない。
In the example of FIG. 9, user A (user ID: USER01) has "completed" cleaning of all cleaning areas, the "implementation date and time" is stored as "2022/7/5 11:55:30", and the "recorded video" is stored as "File A". Also, as shown for user C, the "completion determination result" field may store information of "incomplete" in advance, and the information stored in the "completion determination result" field may be updated according to processing by the
なお、作業管理情報や作業結果情報は、作業管理装置101そのものに記憶される必要はなく、例えば、作業管理装置101と通信可能な外部のコンピュータに記憶されるようにしてもよい。このとき、作業管理装置101は、通信部1011を通じて外部のコンピュータに作業管理情報や作業結果情報を更新するための情報を送信する。
The work management information and work result information do not need to be stored in the
実行部位検出モデル10135は、画像取得部1014が取得したユーザの画像に基づいて、ユーザが清掃を実行中の部位である実行部位を検出する数理モデルである。実行部位検出モデル10135としては、例えば、Efficient Net等のニューラルネットワークを用いた学習モデルを用いることができる。
The execution
位置検出モデル10136は、後述の画像取得部1014が取得したユーザの画像に基づいて、画像中の物体を検出し、その位置を検出する数理モデルである。位置検出モデル10136としては、例えば、YOLO等のリアルタイムな物体検出及び位置検出が可能な学習モデルを用いることができる。
The
画像取得部1014は、撮像装置201によって撮影された動画を撮像装置201から取得する。撮影された動画には、清掃中のユーザと清掃道具とが映っている。言い換えると、画像取得部1014は、複数のタイミングで撮影された複数の画像を動画として取得する。
The
実行部位検出部1015は、実行部位検出モデル10135に、画像取得部1014によって取得された画像を入力し、ユーザの清掃動作を取得することで、ユーザが清掃道具を用いて清掃中の清掃部位である実行部位を検出する。ここで実行部位検出部1015は、実行部位を検出するとき、位置検出部1016が検出した清掃道具の位置を用いてもよい。例えば、位置検出部1016は画像内における清掃道具の位置に基づいて、右腕又は左腕が実行部位であることを検出することができる。これにより、例えば、実行部位検出モデル10135が「腕」の清掃動作のみを検出できる場合に、さらに左右を区別することが可能となる。
The performing
位置検出部1016は、位置検出モデル10136に、画像取得部1014によって取得された画像を入力し、画像中の物体の位置を取得することで、画像における清掃道具の位置を検出する。また、位置検出部1016は、ユーザの位置を取得してもよい。
The
実施時間算出部1017は、ユーザが清掃すべき対象作業部位、清掃道具の位置、及び実行部位に基づいて、ユーザが対象作業部位の清掃を行った時間である作業実施時間を算出する。実施時間算出部1017は、ユーザが清掃している間、その動作に応じて作業実施時間を算出し、清掃管理DB10133の作業管理情報における「作業実施時間」の項目に記憶される情報を更新する。
The execution
完了判定部1018は、作業部位DB10132の作業部位情報における、対象作業部位の「基準作業時間」を参照する。完了判定部1018は、作業実施時間が、参照された基準作業時間に基づく条件を満たす場合に、対象作業部位の清掃が完了したと判定する。ここで、基準作業時間に基づく条件とは、例えば、「作業実施時間が基準作業時間以上となること」や「作業実施時間と基準作業時間との差が所定の値以下になること」等である。
The
画面情報生成部1019は、対象作業部位、清掃中のユーザの画像(動画)、清掃の進捗を示す進捗情報等をユーザに示す指示画面を、表示部1012に表示するための情報を生成する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃すべき対象作業部位を取得する。また、画面情報生成部1019は、画像取得部1014が取得したユーザ及び清掃道具が含まれる画像を参照する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃中の清掃部位の作業実施時間及び基準参照時間を取得する。画面情報生成部1019は、取得した作業実施時間及び基準参照時間に基づいて、進捗情報を生成する。画面の具体例については後述する。
The screen
識別情報取得部10110は、作業管理装置101に情報を入力するための入力デバイスを通じて、ユーザからユーザを識別する識別情報を取得する。識別情報は、例えば、ユーザDB10131に記憶されているユーザIDである。また、入力デバイスは、例えば、作業管理装置101がタブレット端末である場合、タッチパネルとして機能する表示部1012であってもよく、作業管理装置101に接続されるキーボード等の端末であってもよい。
The identification
結果記録部10111は、完了判定部1018の判定結果に基づいて、清掃管理DB10133における作業管理情報の「清掃状況」の項目に記憶される情報を更新する。また、結果記録部10111は、作業管理情報を参照し、作業結果DB10134における作業結果情報の「完了判定結果」の項目に記憶される情報を更新する。例えば、作業管理情報において、あるユーザが清掃すべき全ての清掃部位の清掃状況が「完了」となっている場合、当該ユーザに関連付けられる「完了判定結果」の項目に記憶される情報を「完了」に更新する。また、結果記録部10111は、「完了判定結果」の項目に記憶される情報を「完了」に更新した時の日時に基づいて、「実施日時」の項目に記憶される情報を更新する。
The
図10を参照して、作業管理装置101における処理について説明する。
The processing in the
ステップS1001において、識別情報取得部10110は、清掃作業を行うユーザから入力されるユーザIDを取得する。
In step S1001, the identification
ステップS1002において、作業部位決定部10112は、作業部位DB10132を参照し、作業部位情報を取得する。
In step S1002, the work
ステップS1003において、作業部位決定部10112は、作業部位情報の清掃順に従って、ユーザが清掃すべき対象作業部位を決定する。例えば、最初の対象作業部位は、図6の作業部位情報によると「頭(前方)」となる。
In step S1003, the work
ステップS1004において、画面情報生成部1019は画面情報生成処理を行う。画面情報生成処理について図11を参照して説明する。
In step S1004, the screen
ステップS1101において、画面情報生成部1019は、画像取得部1014が取得したユーザの画像を取得する。
In step S1101, the screen
ステップS1102において、画面情報生成部1019は、作業部位決定部10112が決定した対象作業部位を取得する。
In step S1102, the screen
ステップS1103において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準作業時間を取得する。例えば、対象作業部位が「頭(前方)」である場合基準作業時間は「5秒」であり、対象作業部位が「肩」である場合基準作業時間は「8秒」である。
In step S1103, the screen
ステップS1104において、画面情報生成部1019は、清掃管理DB10133を参照し、対象作業部位に対応付けられた作業実施時間を取得する。
In step S1104, the screen
ステップS1105において、画面情報生成部1019は、基準作業時間と作業実施時間とに基づいて、対象作業部位の清掃の進捗を示す進捗情報を生成する。進捗情報は、例えば、作業実施時間の基準作業時間に対する割合を表示するための情報や残りの作業実施時間と基準作業時間との差の秒数を表示するための情報である。
In step S1105, the screen
ステップS1106において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準動作動画を取得する。
In step S1106, the screen
ステップS1107において、画面情報生成部1019は、ユーザの画像、対象作業部位、進捗情報、及び基準動作動画に基づいて、指示画面情報を生成する。
In step S1107, the screen
図12を参照して指示画面の一例について説明する。図12に示される指示画面1200は、対象作業部位表示欄1201、進捗情報表示領域1202、作業実施時間表示欄1203、アイコン1204、基準動作表示領域1205、及びユーザ表示領域1206を有する。 An example of the instruction screen will be described with reference to FIG. 12. The instruction screen 1200 shown in FIG. 12 has a target work area display field 1201, a progress information display area 1202, a work execution time display field 1203, an icon 1204, a reference operation display area 1205, and a user display area 1206.
対象作業部位表示欄1201には、対象作業部位を示す情報が表示される。ここでは、「肩」が対象作業部位として示されている。 In the target work area display field 1201, information indicating the target work area is displayed. Here, "shoulders" are shown as the target work area.
進捗情報表示領域1202には、進捗情報が表示される。ここでは、図7の作業管理情報に基づいて生成された進捗情報が示されている。図7においては、肩の作業実施時間は「5秒」であり、基準作業時間「8秒」であるので、図12では、作業実施時間の基準作業時間に対する割合を示す進捗表示部12021が進捗情報表示領域1202に表示されている。また、作業実施時間を視覚的に表示する情報として、作業実施時間そのものが作業実施時間表示欄1203に表示されてもよい。 Progress information is displayed in the progress information display area 1202. Here, progress information generated based on the work management information in FIG. 7 is shown. In FIG. 7, the shoulder work time is "5 seconds" and the reference work time is "8 seconds", so in FIG. 12, a progress display section 12021 showing the ratio of the work time to the reference work time is displayed in the progress information display area 1202. In addition, the work time itself may be displayed in the work time display field 1203 as information that visually displays the work time.
アイコン1204は、対象作業部位を示すためのアイコンであり、画面情報生成部1019が記憶部1013を参照して生成する。アイコン1204は、ユーザに対して対象作業部位を視覚的に示すことを可能にする。アイコン1204では、対象作業部位に応じた部位表示領域12041が強調されている。これにより、ユーザが対象作業部位を視覚的に把握することができる。
Icon 1204 is an icon for indicating the target work area, and is generated by screen
基準動作表示領域1205には、基準動作動画が表示される。これにより、ユーザは手本となる清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。 The reference action video is displayed in the reference action display area 1205. This allows the user to perform cleaning actions while checking the model cleaning actions, resulting in more appropriate cleaning.
ユーザ表示領域1206には、ユーザの画像(動画)が表示される。これにより、ユーザは自身の清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。 The user display area 1206 displays an image (video) of the user. This allows the user to check their own cleaning actions while performing the cleaning operation, resulting in more appropriate cleaning.
図10に戻り、上述の画面情報生成処理以降の処理について説明する。ステップS1005において、表示部1012は指示画面情報に基づいて、指示画面を表示する。指示画面を表示されたユーザは清掃動作を実行する。
Returning to FIG. 10, the process following the screen information generation process described above will be described. In step S1005, the
ステップS1006において、画像取得部1014は、ユーザが清掃中の第1タイミングにおいて第1画像を取得する。第1画像は、例えば、図13における画像IG1である。
In step S1006, the
ステップS1007において、実行部位検出部1015は、第1画像に基づいて、ユーザが清掃中の清掃部位である実行部位を検出する。実行部位は、例えば、図13における画像IG1に基づくと「肩」となる。
In step S1007, the cleaning
ステップS1008において、位置検出部1016は、第1画像に基づいて、第1画像における清掃道具の第1位置を検出する。第1位置は、例えば、図13における画像IG1に基づくと、位置P1となる。位置P1は、より具体的には、清掃道具を囲むバウンディングボックスを規定する2つの座標、例えば長方形の左下と右上の頂点を示す座標である。画像IG1に基づくと、位置P1は{(X1a,Y1a),(X1b,Y1b)}と検出される。
In step S1008, the
ステップS1009において、画像取得部1014は、第1タイミングより後の第2タイミングにおいて第2画像を取得する。第2画像は、例えば、図13における画像IG2である。
In step S1009, the
ステップS1010において、実行部位検出部1015は、第2画像に基づいて実行部位を検出する。実行部位は、例えば、図13における画像IG2に基づくと「肩」となる。
In step S1010, the execution
ステップS1011において、位置検出部1016は、第2画像に基づいて、第2画像における清掃道具の第2位置を検出する。第2位置は、例えば、図13における画像IG2に基づくと、位置P2となる。画像IG2に基づくと、位置P2は{(X2a,Y2a),(X2b,Y2b)}と検出される。
In step S1011, the
ステップS1012において、実施時間算出部1017は、実施時間算出処理を行う。実施時間算出処理は、図13を参照して説明した位置P1,P2を比較することで行われる。図14を参照して、実施時間算出処理の詳細について説明する。ここでは、図13と同様に対象作業部位として肩を清掃しているユーザの作業実施時間を算出する場合を説明する。
In step S1012, the implementation
ステップS1401において、実施時間算出部1017は、第1画像に基づく第1実行部位を取得する。画像IG1に基づくと、第1実行部位は肩である。
In step S1401, the implementation
ステップS1402において、実施時間算出部1017は、第2画像に基づく第2実行部位を取得する。画像IG2に基づくと、第2実行部位も肩である。
In step S1402, the implementation
ステップS1403において、実施時間算出部1017は、作業部位決定部10112によって決定されている対象作業部位を参照し、第1実行部位及び第2実行部位は対象作業部位であるか否かを検出する。ステップS1403において否定判断された場合、つまり第1実行部位又は第2実行部位のいずれかが対象作業部位でない場合、清掃が実施されていないと判断し、作業実施時間の加算処理は終了する。
In step S1403, the execution
図13の例に沿うと、第1実行部位及び第2実行部位はいずれも対象作業部位である肩なので、ステップS1403では肯定判断がされる。 In the example of Figure 13, the first and second execution parts are both the shoulder, which is the target work part, so a positive determination is made in step S1403.
ステップS1404において、実施時間算出部1017は、位置検出部1016が検出した第1位置を取得する。
In step S1404, the implementation
ステップS1405において、実施時間算出部1017は、位置検出部1016が検出した第2位置を取得する。
In step S1405, the implementation
ステップS1406において、実施時間算出部1017は、第1位置と第2位置とが異なるか否かを検出する。第1位置と第2位置とが同じであることは、清掃道具が動かされていない、つまり粘着クリーナーがユーザの衣服に沿って動かされていないことを意味し、清掃動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、清掃道具が動かされている、つまり粘着クリーナーがユーザの衣服に沿って動かされていることを意味し、清掃動作が実行されていることを意味する。
In step S1406, the implementation
第1位置と第2位置とが同じである場合、ステップS1406では否定判断がされる、つまり清掃動作が実行されていないと判断され、作業実施時間の加算処理は終了する。 If the first position and the second position are the same, a negative determination is made in step S1406, meaning that it is determined that a cleaning operation is not being performed, and the process of adding up the work execution time ends.
図13の例では、位置P1と位置P2とは異なる位置にあるので、ステップS1406では肯定判断がされる。 In the example of FIG. 13, position P1 and position P2 are in different positions, so a positive determination is made in step S1406.
ステップS1407において、実施時間算出部1017は、作業実施時間を加算する。より具体的には、実施時間算出部1017は、第1タイミングと第2タイミングとの間の時間を対象作業部位の作業実施時間に加算する。実施時間算出部1017は、算出された作業実施時間に基づいて、作業管理情報における清掃中の清掃部位の作業実施時間を更新する。
In step S1407, the implementation
図10に戻り、上述の実施時間算出処理以降の処理について説明する。ステップS1013において、完了判定部1018は、対象作業部位の基準作業時間を参照する。
Returning to FIG. 10, the process following the above-mentioned execution time calculation process will be described. In step S1013, the
ステップS1014において、完了判定部1018は、作業実施時間が基準作業時間以上であるか否かを判定する。ステップS1014にて否定判断されると、ステップS1006に戻り、処理が繰り返される。
In step S1014, the
ステップS1014にて肯定判断されると、ステップS1015において、完了判定部1018は対象作業部位の清掃が完了したと判定する。
If a positive judgment is made in step S1014, in step S1015, the
ステップS1016において、完了判定部1018は、対象作業部位について、作業管理情報の「清掃状況」の情報を「清掃中」から「完了」に更新する。この更新の一例は図7,8において示されている。
In step S1016, the
ステップS1017において、完了判定部1018は、作業管理情報に基づいて、全ての部位の清掃が完了したか否かを検出する。
In step S1017, the
ステップS1017にて否定判断されると、ステップS1018において、作業部位決定部10112は、作業部位情報及び作業管理情報に基づいて、次の清掃順として指定されている清掃部位を対象作業部位とするように対象作業部位を更新する。その後ステップS1004の処理が繰り返され、次の清掃部位の清掃動作の検出が行われる。
If a negative judgment is made in step S1017, in step S1018, the work
ステップS1017にて肯定判断される場合、つまりユーザが清掃すべき全ての部位の清掃が完了した場合、完了判定部1018は、ステップS1019において、清掃が完了したことを記録する。具体的には、完了判定部1018は、作業結果情報において、清掃が完了したユーザの「完了判定結果」の項目を「完了」と更新し、「実施日時」及び「録画動画」の項目の情報を記憶する。
If the answer is YES in step S1017, that is, if the user has completed cleaning all areas that need to be cleaned, the
ステップS1018において、対象作業部位が更新された場合の画面例について、図15を参照して説明する。図15(a)では、ユーザが肩の清掃を指示されており、その作業実施時間が9秒となった時の指示画面1200が示される。このとき、作業実施時間は肩の基準作業時間である8秒以上となっているので、肩の清掃は完了したと判定される。 An example of a screen when the target work area is updated in step S1018 will be described with reference to FIG. 15. FIG. 15(a) shows an instruction screen 1200 in which the user has been instructed to clean the shoulders and the work execution time has reached 9 seconds. At this time, since the work execution time is equal to or longer than 8 seconds, which is the standard work time for the shoulders, it is determined that shoulder cleaning has been completed.
清掃が完了したと判定されると、図15(b)に示すように、画面情報生成部1019は、指示画面1200において、清掃が完了したことを示す表示1501を表示部1012に表示させる。このときの作業管理情報は、例えば図7に示す情報である。
When it is determined that cleaning is complete, as shown in FIG. 15(b), the screen
その後、作業部位決定部10112が対象作業部位を、作業管理情報において肩の次にある「胸部」に更新する。このときの作業管理情報は、例えば図8に示す情報である。更新された対象作業部位に基づいて、画面情報生成部1019は、図15(c)に示される指示画面1200を表示部1012に表示させる。図15(c)では、対象作業部位表示欄1201に表示される対象作業部位、進捗情報表示領域1202の進捗情報、作業実施時間表示欄1203の作業実施時間の情報が更新されている。また、アイコン1204は、胸部を示す部位表示領域12042を含むように更新される。また、基準動作表示領域1205に表示される動画は、胸部に対応した基準動作動画となる。その後、ユーザは、指示画面1200を参照しつつ胸部の清掃動作を行う。
Then, the work
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, conditions, shape, size, etc., are not limited to those exemplified, and may be modified as appropriate. Furthermore, configurations shown in different embodiments may be partially substituted or combined.
10…作業管理システム、101…作業管理装置、201…撮像装置、1011…通信部、1012…表示部、1013…記憶部、1014…画像取得部、1015…実行部位検出部、1016…位置検出部、1017…実施時間算出部、1018…完了判定部、1019…画面情報生成部、10110…識別情報取得部、10111…結果記録部、10112…作業部位決定部 10... Work management system, 101... Work management device, 201... Imaging device, 1011... Communication unit, 1012... Display unit, 1013... Storage unit, 1014... Image acquisition unit, 1015... Work area detection unit, 1016... Position detection unit, 1017... Work time calculation unit, 1018... Completion determination unit, 1019... Screen information generation unit, 10110... Identification information acquisition unit, 10111... Result recording unit, 10112... Work area determination unit
Claims (11)
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出処理と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記対象作業部位の作業が完了したと判定する完了判定処理と、を実行させる、プログラム。 On the computer,
an image acquisition process for acquiring a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site and a work tool held by the user;
a position detection process for detecting a position of the work tool in each of the plurality of images;
a work part detection process for detecting a work part, which is a work part that the user is working on using the work tool, among the at least one work part based on each of the plurality of images;
an execution time calculation process for calculating an execution time of the work performed by the user on the target work area based on the target work area, the position, and the execution area;
a completion determination process that refers to a standard work time associated with each of the work areas, and determines that the work of the target work area has been completed if the work execution time satisfies a condition based on the standard work time.
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置検出処理は、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間算出処理は、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、プログラム。 The program according to claim 1,
the plurality of images include a first image captured at a first timing and a second image captured at a second timing that is later than the first timing,
The position detection process includes:
detecting a first position of the work tool in the first image based on the first image, and detecting a second position of the work tool in the second image based on the second image;
The implementation time calculation process includes:
a program that calculates an operation execution time by adding a time between the second timing and the first timing to an operation execution time when the second position is different from the first position;
前記コンピュータに、
前記ユーザを識別する識別情報を取得する識別情報取得処理と、
前記対象作業部位の作業が完了したと判定された場合に、前記識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させる、プログラム。 3. The program according to claim 1 or 2,
The computer includes:
an identification information acquisition process for acquiring identification information for identifying the user;
and a result recording process for recording, when it is determined that the work on the target work area has been completed, the identification information in association with information indicating that the work on the target work area has been completed.
前記結果記録処理は、全ての前記対象作業部位の作業が完了した場合に、
前記識別情報と前記ユーザによる作業が完了したことを示す情報とを対応付けて記録する、プログラム。 The program according to claim 3,
The result recording process is performed when the work of all the target work parts is completed.
A program that records the identification information in association with information indicating that the work by the user has been completed.
前記コンピュータに、
前記対象作業部位を示す指示画面を前記ユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させる、プログラム。 3. The program according to claim 1 or 2,
The computer includes:
The program further executes a screen information generating process for generating instruction screen information for displaying an instruction screen indicating the target work area to the user.
前記画面情報生成処理は、撮影された前記ユーザの画像を含む前記指示画面情報を生成する、プログラム。 The program according to claim 5,
The screen information generating process generates the instruction screen information including a captured image of the user.
前記画面情報生成処理は、前記基準作業時間及び前記作業実施時間に基づいて、前記対象作業部位の作業の進捗を示す進捗情報を含む前記指示画面情報を生成する、プログラム。 The program according to claim 5,
The screen information generation process generates the instruction screen information including progress information indicating the progress of work at the target work portion based on the reference work time and the work execution time.
前記少なくとも1つの作業部位は、第1作業部位及び前記第1作業部位の次に作業が行われる第2作業部位を含み、
前記画面情報生成処理は、前記第1作業部位を前記対象作業部位として示す前記指示画面を、前記ユーザに表示するための情報を生成し、前記完了判定処理において前記実行部位としての前記第1作業部位の作業が完了したと判定されると、前記第2作業部位を前記対象作業部位として示す前記指示画面情報を生成する、プログラム。 The program according to claim 5,
the at least one working position includes a first working position and a second working position on which work is performed subsequent to the first working position;
The screen information generation process generates information for displaying the instruction screen to the user, the instruction screen indicating the first work area as the target work area, and when it is determined in the completion determination process that the work of the first work area as the execution area has been completed, generates the instruction screen information indicating the second work area as the target work area.
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得することと、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出することと、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出することと、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出することと、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定することと、を実行する、方法。 The computer
acquiring a plurality of images taken at a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site, and a work tool held by the user;
detecting a position of the work tool in each of the plurality of images based on the images;
Detecting an execution part, which is a work part where the user is working using the work tool, among the at least one work part based on each of the plurality of images;
Calculating a task execution time, which is a time during which the user performed a task on the task part, based on the target task part, the position, and the task part;
referencing a standard work time associated with each of the work portions, and determining that the work of the work portion has been completed if the work execution time satisfies a condition based on the standard work time.
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、を備える、作業管理装置。 an image acquisition unit that acquires a plurality of images captured at a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site and a work tool held by the user;
a position detection unit that detects a position of the work tool in each of the plurality of images based on the images;
a work part detection unit that detects, from among the at least one work part, a work part that is a work part being performed by the user using the work tool, based on each of the plurality of images;
an execution time calculation unit that calculates an execution time, which is a time during which the user performs an operation on the execution part, based on the target work part, the position, and the execution part;
A work management device comprising: a completion determination unit that refers to a standard work time associated with each of the work parts, and determines that the work of the execution part is completed if the work execution time satisfies a condition based on the standard work time.
前記ユーザ及び前記ユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、
作業管理装置であって、
前記複数の画像を前記撮像部から取得する画像取得部と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記実行部位、及び前記位置に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、
前記ユーザが作業すべき対象作業部位を示す指示画面を、前記ユーザに表示するための情報を生成する、画面情報生成部と、を備える、作業管理装置と、
を備える作業管理システム。 a display unit that displays an instruction screen that indicates to a user a target work area on which the user is to work among at least one work area;
An imaging unit that includes the user and a work tool held by the user, and captures a plurality of images captured at a plurality of timings;
A work management device,
an image acquisition unit that acquires the plurality of images from the imaging unit;
a position detection unit that detects a position of the work tool in each of the plurality of images based on the images;
a work part detection unit that detects, from among the at least one work part, a work part that is a work part being performed by the user using the work tool, based on each of the plurality of images;
an execution time calculation unit that calculates an execution time, which is a time during which the user performs an operation on the execution part, based on the target work part, the execution part, and the position;
a completion determination unit that refers to a standard work time associated with each of the work parts, and determines that the work of the work parts is completed when the work execution time satisfies a condition based on the standard work time;
a screen information generating unit that generates information for displaying to the user an instruction screen that indicates a target work area on which the user is to work; and
A work management system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022153707A JP7271777B1 (en) | 2022-09-27 | 2022-09-27 | Program, method, work management device, and work management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022153707A JP7271777B1 (en) | 2022-09-27 | 2022-09-27 | Program, method, work management device, and work management system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7271777B1 JP7271777B1 (en) | 2023-05-11 |
JP2024047930A true JP2024047930A (en) | 2024-04-08 |
Family
ID=86382675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022153707A Active JP7271777B1 (en) | 2022-09-27 | 2022-09-27 | Program, method, work management device, and work management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7271777B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005464A (en) * | 2016-06-30 | 2018-01-11 | アース環境サービス株式会社 | Cleanness management system of clean room visitor and management system |
JP2021125183A (en) * | 2020-02-10 | 2021-08-30 | オムロン株式会社 | Workload analysis apparatus, workload analysis method, and program |
JP2021152758A (en) * | 2020-03-24 | 2021-09-30 | 大日本印刷株式会社 | Information processing system, information processing device and information processing method |
-
2022
- 2022-09-27 JP JP2022153707A patent/JP7271777B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005464A (en) * | 2016-06-30 | 2018-01-11 | アース環境サービス株式会社 | Cleanness management system of clean room visitor and management system |
JP2021125183A (en) * | 2020-02-10 | 2021-08-30 | オムロン株式会社 | Workload analysis apparatus, workload analysis method, and program |
JP2021152758A (en) * | 2020-03-24 | 2021-09-30 | 大日本印刷株式会社 | Information processing system, information processing device and information processing method |
Non-Patent Citations (1)
Title |
---|
"Human Sensing AI 食品製造・外食向けパッケージ 衛生管理チェック−コロコロ−", [ONLINE], JPN6023001284, 2021, ISSN: 0004963955 * |
Also Published As
Publication number | Publication date |
---|---|
JP7271777B1 (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Malý et al. | Augmented reality experiments with industrial robot in industry 4.0 environment | |
CN102473068B (en) | Information processing device, information processing method, and program | |
JP6270488B2 (en) | Operator monitoring control device and operator monitoring control method | |
CN113752264A (en) | Mechanical arm intelligent equipment control method and system based on digital twins | |
JP2020149155A (en) | Work instruction system and method | |
Skripcak et al. | Toward nonconventional human–machine interfaces for supervisory plant process monitoring | |
JPWO2018189845A1 (en) | Work management system and work management method | |
CN107223245A (en) | A kind of data display processing method and device | |
Arjun et al. | Interactive sensor dashboard for smart manufacturing | |
US20220036649A1 (en) | Offline teaching device, measurement control device, and program | |
JP2020098409A (en) | Image processing apparatus, image processing method, and image processing program | |
Pavlov et al. | Case study of using virtual and augmented reality in industrial system monitoring | |
JP7432852B2 (en) | Layout design device, layout design method and program | |
JP7271777B1 (en) | Program, method, work management device, and work management system | |
JP6803431B2 (en) | Programs, information processing devices and information processing methods | |
KR20210072463A (en) | Method of human-machine interaction, and device for the same | |
CN103425825A (en) | 3D supermarket displaying method based on CAD graphic design drawing | |
JP4915522B2 (en) | Graphic processing device | |
JP6818795B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP7166106B2 (en) | Installation environment estimation device and program | |
JP7043996B2 (en) | Equipment configuration management equipment, systems, and programs | |
JP2018150170A (en) | Information processing system, information processing method and program | |
JP2020086697A (en) | Work skill support device, and work skill support system | |
JP6643806B2 (en) | Program, information processing apparatus and information processing method | |
JP6931511B1 (en) | Programs, information processing devices and information processing methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221006 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221006 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20221006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7271777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |