JP2024047930A - Program, method, work management device, and work management system - Google Patents

Program, method, work management device, and work management system Download PDF

Info

Publication number
JP2024047930A
JP2024047930A JP2022153707A JP2022153707A JP2024047930A JP 2024047930 A JP2024047930 A JP 2024047930A JP 2022153707 A JP2022153707 A JP 2022153707A JP 2022153707 A JP2022153707 A JP 2022153707A JP 2024047930 A JP2024047930 A JP 2024047930A
Authority
JP
Japan
Prior art keywords
work
user
time
area
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022153707A
Other languages
Japanese (ja)
Other versions
JP7271777B1 (en
Inventor
武文 吉川
翔 満野
大輝 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avilen
Original Assignee
Avilen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avilen filed Critical Avilen
Priority to JP2022153707A priority Critical patent/JP7271777B1/en
Application granted granted Critical
Publication of JP7271777B1 publication Critical patent/JP7271777B1/en
Publication of JP2024047930A publication Critical patent/JP2024047930A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】作業者が清掃等の作業を適切に行ったかどうかを簡易に判断すること。【解決手段】コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、作業中の作業部位である実行部位を検出することと、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定することと、を実行させるプログラム。【選択図】図2[Problem] To easily determine whether a worker has performed a cleaning or other task appropriately. [Solution] A program that causes a computer to execute the following: acquiring a plurality of images taken at each of a plurality of timings, including a user who is instructed to perform a task on a target work area of at least one work area, and a work tool held by the user; detecting the position of the work tool in the image based on each of the plurality of images; detecting an execution area, which is a work area currently being performed, of the at least one work area based on each of the plurality of images; calculating a task execution time, which is the time the user performed the task on the target work area, based on the target work area, the position, and the execution area; and referring to a standard task time associated with each of the work areas, determining that the task on the target work area has been completed if the task execution time satisfies a condition based on the standard task time. [Selected Figure] Figure 2

Description

特許法第30条第2項適用申請有り ウェブサイトへの掲載による公開、掲載日:令和4年3月7日、ウェブサイトのアドレス:https://corp.avilen.co.jp/news/641818/ 展示会における公開、展示会名FOODEX JAPAN 2022、展示日:令和4年3月8日(展示期間:令和4年3月8日~令和4年3月11日)Application for application of Article 30, Paragraph 2 of the Patent Act filed. Disclosure by posting on a website, posting date: March 7, 2022, website address: https://corp.avilen.co.jp/news/641818/ Disclosure at an exhibition, exhibition name: FOODEX JAPAN 2022, exhibition date: March 8, 2022 (exhibition period: March 8, 2022 - March 11, 2022)

本発明は、プログラム、方法、作業管理装置、及び作業管理システムに関する。 The present invention relates to a program, a method, a work management device, and a work management system.

食品、医薬品、又は半導体等を製造する工場では、塵や埃等の異物が製品に混入することを防止するためにクリーンルームが用いられることがある。クリーンルーム内で作業を行う作業者は、クリーンルームに入室する際に防塵服等のクリーンルーム用衣服を着用することが多い。作業者はクリーンルームへの入室前に防塵服の清掃作業を行う。 In factories that manufacture food, medicine, or semiconductors, clean rooms are often used to prevent foreign objects such as dust and dirt from contaminating the products. Workers who work in clean rooms often wear clean room clothing such as dustproof suits when entering the clean room. Workers clean their dustproof suits before entering the clean room.

清掃作業は、例えば、粘着クリーナーやエアシャワー等を用いて行われる。作業者は、管理者によって定められた清掃手順に沿って十分に清掃を行った上でクリーンルームへ入室することが求められる。このように、入室のための条件が課されるユーザを管理するための方法として、特許文献1には、電子部品の製造を行う作業者が静電気を帯びたまま電子部品の製造ラインへ入ることを禁止するための入室許可管理装置が示される。 Cleaning work is performed using, for example, an adhesive cleaner or an air shower. Workers are required to thoroughly clean in accordance with the cleaning procedures established by the manager before entering the clean room. As a method for managing users who are subject to conditions for entry, Patent Document 1 shows an entry permission management device that prohibits workers who manufacture electronic components from entering the electronic component manufacturing line while carrying static electricity.

特開2017-162741号公報JP 2017-162741 A

特許文献1に記載の発明では、作業者の除電状態を接触抵抗値測定器によって測定される接触抵抗値に基づいて除電状態を判断している。除電状態のように電気的に測定可能な値とは異なり、クリーンルームの入室時に着用する専用の衣服に付着する塵や埃等の異物は、直接その付着の程度を測定することが難しい。このような場合であっても、クリーンルームに入室する作業者が清掃作業を適切に行ったかどうかを判断し、清掃作業を監督可能にすることが求められている。 In the invention described in Patent Document 1, the static elimination state of a worker is judged based on the contact resistance value measured by a contact resistance meter. Unlike the static elimination state, which can be measured electrically, it is difficult to directly measure the degree of adhesion of foreign matter such as dust and dirt that adheres to the special clothing worn when entering a clean room. Even in such cases, it is required to be able to judge whether or not a worker entering a clean room has performed cleaning work appropriately and to be able to supervise the cleaning work.

そこで、本発明は、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することを目的とする。 The present invention aims to provide a program, method, work management device, and work management system that can easily determine whether a worker has performed a cleaning or other task appropriately.

本発明の一態様に係るプログラムは、コンピュータに、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出処理と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、を実行させる。 A program according to one aspect of the present invention causes a computer to execute an image acquisition process that acquires a plurality of images, each captured at a plurality of timings, that include a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, a position detection process that detects the position of the work tool in the image based on each of the plurality of images, and an execution part detection process that detects an execution part, which is a work area at which the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.

さらに、上記プログラムは、コンピュータに、対象作業部位、位置、及び実行部位に基づいて、ユーザが対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、対象作業部位の作業が完了したと判定する完了判定処理と、を実行させる。 The program also causes the computer to execute an execution time calculation process that calculates the work execution time, which is the time it takes for the user to perform work on the target work area, based on the target work area, position, and execution area, and a completion determination process that refers to the standard work time associated with each work area and determines that the work on the target work area has been completed if the work execution time satisfies a condition based on the standard work time.

この態様によれば、作業道具の位置を用いて、ユーザが対象作業部位の作業を行った作業実施時間を算出することができ、算出された作業実施時間に基づいて、対象作業部位の作業が完了したか否かを検出することができる。これにより、例えば、専用の衣服に付着する微小な異物を直接検出することなく、簡易な方法によって、作業者が清掃等の作業を適切に行ったかどうかを判断することができる。 According to this aspect, the position of the work tool can be used to calculate the work execution time during which the user performed work on the target work area, and based on the calculated work execution time, it can be detected whether the work on the target work area has been completed. This makes it possible to determine, for example, whether the worker has performed work such as cleaning appropriately in a simple manner without directly detecting minute foreign objects adhering to special clothing.

上記態様のプログラムにおいて、複数の画像は、第1タイミングにおいて撮影された第1画像及び第1タイミングより後の第2タイミングにおいて撮影された第2画像を含んでもよい。さらに、位置検出処理は、第1画像に基づいて、第1画像における作業道具の第1位置を検出し、第2画像に基づいて、第2画像における作業道具の第2位置を検出し、実施時間算出処理は、第2位置が第1位置と異なる場合に、第2タイミングと第1タイミングとの間の時間を作業実施時間に加算することで、作業実施時間を算出してもよい。 In the program of the above aspect, the multiple images may include a first image taken at a first timing and a second image taken at a second timing after the first timing. Furthermore, the position detection process may detect a first position of the work tool in the first image based on the first image, and detect a second position of the work tool in the second image based on the second image, and the performance time calculation process may calculate the work performance time by adding the time between the second timing and the first timing to the work performance time when the second position is different from the first position.

この態様によれば、異なるタイミングの作業道具の位置の変化に基づいて、作業実施時間を算出することができる。第1位置と第2位置とが同じであることは、作業道具が動かされておらず、作業動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、作業道具が動かされており、作業動作が実行されていることを意味する。このように、作業道具の位置に基づいて作業動作の実行を判断することができる清掃等の作業において、簡易な方法によって、作業者が作業を適切に行ったかどうかを判断することができる。 According to this aspect, the work execution time can be calculated based on the change in the position of the work tool at different times. The first position and the second position being the same means that the work tool is not being moved and a work operation is not being performed. The first position and the second position being different means that the work tool is being moved and a work operation is being performed. In this way, in work such as cleaning, where the execution of a work operation can be determined based on the position of the work tool, a simple method can be used to determine whether the worker has performed the work appropriately.

上記態様のプログラムは、コンピュータに、ユーザを識別する識別情報を取得する識別情報取得処理と、対象作業部位の作業が完了したと判定された場合に、識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させてもよい。 The program of the above aspect may further cause the computer to execute an identification information acquisition process for acquiring identification information for identifying a user, and a result recording process for, when it is determined that the work on the target work area has been completed, recording the identification information in association with information indicating that the work on the target work area has been completed.

この態様によれば、対象作業部位のそれぞれについて、作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、作業者による作業状況の把握や作業の監督が可能となる。 According to this aspect, the completion of work for each target work area is recorded. By having a manager at the factory or the like check the recorded information, it becomes possible to grasp the work status of the workers and supervise the work.

上記態様のプログラムにおいて、結果記録処理は、全ての対象作業部位の作業が完了した場合に、識別情報とユーザによる作業が完了したことを示す情報とを対応付けて記録してもよい。 In the program of the above aspect, the result recording process may record, when work on all target work areas is completed, the identification information and information indicating that the work by the user has been completed in association with each other.

この態様によれば、ある作業者(ユーザ)による一連の清掃等の作業が完了したことが記録される。記録された情報を、工場等の管理者が確認することで、例えば、作業が適切に行われていることの作業者別の把握や、製造時に異物混入があった場合の作業者の特定が可能となり、管理者による作業の適切な監督が可能となる。 According to this aspect, the completion of a series of tasks such as cleaning performed by a certain worker (user) is recorded. By having a manager of a factory or the like check the recorded information, it becomes possible, for example, to determine whether each worker is performing the tasks appropriately, and to identify the worker in the event of contamination during production, enabling the manager to properly supervise the tasks.

上記態様のプログラムは、コンピュータに、対象作業部位を示す指示画面をユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させてもよい。 The program of the above aspect may further cause the computer to execute a screen information generation process that generates instruction screen information for displaying an instruction screen indicating the target work area to the user.

この態様によれば、ユーザには自身が作業すべき対象作業部位が表示される。ユーザは指示画面を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることが可能となる。 According to this aspect, the target work area on which the user is to work is displayed to the user. The user can perform work such as cleaning while checking the instruction screen, which allows the user to proceed with the work appropriately.

上記態様のプログラムにおいて、画面情報生成処理は、撮影されたユーザの画像を含む指示画面情報を生成してもよい。 In the program of the above aspect, the screen information generation process may generate instruction screen information that includes a captured image of the user.

この態様によれば、ユーザには作業中のユーザ自身の様子が表示される。ユーザは指示画面内の自身の様子を確認しつつ清掃等の作業を行うことができるようになるので、作業を適切に進めることができる。 According to this aspect, the user's own condition while working is displayed to the user. The user can perform tasks such as cleaning while checking their own condition on the instruction screen, so the user can proceed with the work appropriately.

上記態様のプログラムにおいて、画面情報生成処理は、基準作業時間及び作業実施時間に基づいて、対象作業部位の作業の進捗を示す進捗情報を含む指示画面情報を生成してもよい。 In the program of the above aspect, the screen information generation process may generate instruction screen information including progress information indicating the progress of work on the target work area based on the reference work time and the work execution time.

この態様によれば、ユーザには作業の進捗が指示画面を通じて表示される。ユーザは進捗を確認しつつ清掃等の作業を行うことができるようになるので、例えば、進捗が好ましくない場合には、作業方法を修正するなどして、作業を適切に進めることができる。 According to this aspect, the progress of the work is displayed to the user through the instruction screen. The user can perform work such as cleaning while checking the progress. For example, if the progress is not satisfactory, the user can modify the work method and proceed with the work appropriately.

上記態様のプログラムにおいて、少なくとも1つの作業部位は、第1作業部位及び第1作業部位の次に作業が行われる第2作業部位を含み、画面情報生成処理は、第1作業部位を対象作業部位として示す指示画面を、ユーザに表示するための情報を生成し、完了判定処理において実行部位としての第1作業部位の作業が完了したと判定されると、第2作業部位を対象作業部位として示す指示画面情報を生成してもよい。 In the program of the above aspect, at least one work site includes a first work site and a second work site where work is performed next to the first work site, and the screen information generation process generates information for displaying to the user an instruction screen showing the first work site as the target work site, and when it is determined in the completion determination process that the work of the first work site as the execution site has been completed, instruction screen information may be generated that shows the second work site as the target work site.

この態様によれば、第1作業部位を作業し終えたユーザには、連続的に第2作業部位の作業が指示される。これにより、一連の作業部位の作業が連続して指示されるようにできるので、ユーザは作業部位の作業漏れを減らすことができ、作業を適切に進めることができる。 According to this aspect, when a user has finished working on a first work area, the user is continuously instructed to work on a second work area. This allows the user to be instructed to work on a series of work areas in succession, reducing the number of times the user misses a work area and allowing the user to proceed with the work appropriately.

本発明の他の一態様に係る方法は、コンピュータが、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得することと、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出することと、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出することとを含む。 A method according to another aspect of the present invention includes a computer acquiring a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, detecting the position of the work tool in the image based on each of the plurality of images, and detecting an execution area, which is a work area where the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.

さらに、上記方法は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出することと、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定することと、を実行する。 The method further includes calculating a task execution time, which is the time it takes for the user to perform the task on the task part, based on the target task part, the position, and the task part, and referring to a standard task time associated with each task part, determining that the task on the task part has been completed if the task execution time satisfies a condition based on the standard task time.

本発明の他の一態様に係る作業管理装置は、複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及びユーザが把持する作業道具が含まれる複数の画像を取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。 A work management device according to another aspect of the present invention includes an image acquisition unit that acquires a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work area of at least one work area and a work tool held by the user, a position detection unit that detects the position of the work tool in the image based on each of the plurality of images, and an execution area detection unit that detects an execution area, which is a work area where the user is performing a task using the work tool, of the at least one work area based on each of the plurality of images.

さらに、上記作業管理装置は、対象作業部位、位置、及び実行部位に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、を備える。 The work management device further includes an execution time calculation unit that calculates the work execution time, which is the time it takes for the user to perform work on the execution part, based on the target work part, the position, and the execution part, and a completion determination unit that refers to the standard work time associated with each of the work parts and determines that the work on the execution part is completed if the work execution time satisfies a condition based on the standard work time.

本発明の他の一態様に係る作業管理システムは、少なくとも1つの作業部位のうちユーザが作業すべき対象作業部位をユーザに示す指示画面が表示される表示部と、ユーザ及びユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、作業管理装置とを備える。 A work management system according to another aspect of the present invention includes a display unit that displays an instruction screen that indicates to a user which of at least one work area the user is to work on, an imaging unit that captures a plurality of images taken at a plurality of timings including the user and a work tool held by the user, and a work management device.

上記態様の作業管理システムにおいて、作業管理装置は、複数の画像を撮像部から取得する画像取得部と、複数の画像のそれぞれに基づいて、画像における前記作業道具の位置を検出する位置検出部と、複数の画像のそれぞれに基づいて、少なくとも1つの作業部位のうち、ユーザが作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、を備える。 In the above-described aspect of the work management system, the work management device includes an image acquisition unit that acquires a plurality of images from an imaging unit, a position detection unit that detects the position of the work tool in the image based on each of the plurality of images, and an execution part detection unit that detects, among at least one work part, an execution part that is a work part where a user is working using the work tool, based on each of the plurality of images.

さらに、作業管理装置は、実行部位、及び位置に基づいて、ユーザが実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、作業部位のそれぞれに関連付けられる基準作業時間を参照し、作業実施時間が、基準作業時間に基づく条件を満たす場合に、実行部位の作業が完了したと判定する、完了判定部と、ユーザが作業すべき対象作業部位を示す指示画面を、ユーザに表示するための情報を生成する、画面情報生成部とを備える。 The work management device further includes an execution time calculation unit that calculates a work execution time, which is the time it takes for the user to perform work on the work part, based on the work part and the position; a completion determination unit that refers to a standard work time associated with each work part and determines that the work on the work part is completed if the work execution time satisfies a condition based on the standard work time; and a screen information generation unit that generates information for displaying to the user an instruction screen indicating the target work part on which the user should perform work.

本発明によれば、作業者が清掃等の作業を適切に行ったかどうかを簡易に判断することができるプログラム、方法、作業管理装置、及び作業管理システムを提供することができる。 The present invention provides a program, method, work management device, and work management system that can easily determine whether a worker has performed a cleaning or other task appropriately.

本実施形態に係る作業管理システムの概略図である。1 is a schematic diagram of a work management system according to an embodiment of the present invention. 本実施形態に係る作業管理システムによる処理の概要を説明する図である。FIG. 2 is a diagram illustrating an overview of a process performed by the work management system according to the present embodiment. 作業管理装置101のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a work management apparatus 101. 本実施形態に係る作業管理装置のブロック図である。1 is a block diagram of a work management device according to an embodiment of the present invention. 本実施形態に係るユーザ情報の一例である。4 is an example of user information according to the embodiment. 本実施形態に係る作業部位情報の一例である。4 is an example of work area information according to the present embodiment. 本実施形態に係る作業管理情報の一例である。4 is an example of work management information according to the embodiment. 本実施形態に係る作業管理情報の他の一例である。11 is another example of work management information according to the embodiment. 本実施形態に係る作業結果情報の一例である。5 is an example of work result information according to the embodiment. 本実施形態に係る作業管理装置による処理を説明するフローチャートである。4 is a flowchart illustrating a process performed by the work management device according to the present embodiment. 本実施形態に係る画面情報生成処理を説明するフローチャートである。11 is a flowchart illustrating a screen information generating process according to the embodiment. 本実施形態に係る指示画面の一例を説明する図である。FIG. 11 is a diagram illustrating an example of an instruction screen according to the embodiment. 本実施形態に係る位置検出処理及び実行部位検出処理の概要を説明する図である。10A to 10C are diagrams illustrating an overview of a position detection process and an execution part detection process according to the present embodiment. 本実施形態に係る実施時間算出処理を説明するフローチャートである。11 is a flowchart illustrating an implementation time calculation process according to the present embodiment. 本実施形態に係る指示画面の更新の例を説明する図である。11A and 11B are diagrams illustrating an example of updating an instruction screen according to the embodiment.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 A preferred embodiment of the present invention will be described with reference to the attached drawings. In each drawing, the same reference numerals are used to denote the same or similar configurations.

図1は本実施形態に係る作業管理システム10の概略を示すブロック図である。作業管理システム10は、作業管理装置101及び撮像装置201を備える。作業管理装置101と撮像装置201とは、有線接続又は無線接続によって情報の送受信が可能に接続される。 FIG. 1 is a block diagram showing an outline of a work management system 10 according to this embodiment. The work management system 10 includes a work management device 101 and an imaging device 201. The work management device 101 and the imaging device 201 are connected via a wired or wireless connection so as to be able to send and receive information.

本実施形態では、作業の一例として、食品工場などで実施される清掃作業を例に説明する。作業管理システム10は、撮像装置201によって撮影された作業者(ユーザ)の動画(複数の画像)に基づいて、作業管理装置101が、ユーザが清掃すべき清掃部位(作業部位)の清掃作業が完了したか否かを判定するシステムである。この清掃作業は、クリーンルーム用の衣服を着用したユーザが粘着クリーナー(作業道具)を使用して自身が着用している衣服の清掃を行うものである。 In this embodiment, cleaning work performed in a food factory or the like will be described as an example of work. The work management system 10 is a system in which the work management device 101 determines whether or not the cleaning work of the cleaning area (work area) to be cleaned by the user has been completed based on a video (multiple images) of the worker (user) captured by the imaging device 201. In this cleaning work, a user wearing clean room clothing cleans the clothing he or she is wearing using an adhesive cleaner (work tool).

作業管理装置101は、所定のプログラムを実行することによって所定の処理を行うコンピュータを有する情報処理装置である。作業管理装置101は、例えば、タブレット端末、スマートフォン、パーソナルコンピュータ等である。タブレット端末等の情報処理装置に、作業管理装置101としての機能を発揮するプログラムがインストールされ、作業管理装置101のCPUによって実行されることで、情報処理装置が作業管理装置101として機能する。 The work management device 101 is an information processing device having a computer that performs a predetermined process by executing a predetermined program. The work management device 101 is, for example, a tablet terminal, a smartphone, a personal computer, etc. A program that performs the functions of the work management device 101 is installed in an information processing device such as a tablet terminal, and is executed by the CPU of the work management device 101, causing the information processing device to function as the work management device 101.

撮像装置201は、ユーザの動画を撮影可能なカメラ等の装置である。なお、本実施形態において、撮像装置201が撮影する画像は、ユーザの動作が撮影された動画においてその動画を構成する各静止画像であるとして説明する。つまり、複数の画像は撮像装置201が撮影した動画の各フレームにおける画像である。なお、撮像装置201は作業管理装置101の内部に設けられるカメラであってもよく、必ずしも作業管理装置101と撮像装置201とは別個の装置である必要はない。 The imaging device 201 is a device such as a camera capable of capturing video of a user. In this embodiment, the images captured by the imaging device 201 are described as still images constituting a video of a user's actions. In other words, the multiple images are images in each frame of the video captured by the imaging device 201. The imaging device 201 may be a camera provided inside the work management device 101, and the work management device 101 and the imaging device 201 do not necessarily have to be separate devices.

図2を参照して、作業管理システム10による情報処理の概要について説明する。図2の例ではユーザUが自身の手で清掃道具Cを把持して清掃作業を行う。ユーザは、例えば、ユーザが清掃すべき部位を示す対象作業部位を作業管理装置101の画面によって確認し、対象作業部位の清掃を行う。撮像装置201によって、ユーザU及び清掃道具Cが含まれる複数の画像が動画として撮影される。撮像装置201が撮影した動画は作業管理装置101に送信される。 With reference to FIG. 2, an overview of information processing by the work management system 10 will be described. In the example of FIG. 2, a user U holds a cleaning tool C in his or her hand and performs cleaning work. For example, the user checks a target work area indicating an area to be cleaned by the user on the screen of the work management device 101, and cleans the target work area. The imaging device 201 captures multiple images including the user U and the cleaning tool C as a video. The video captured by the imaging device 201 is transmitted to the work management device 101.

具体的には、図2のステップ(A1)に示されるように、ある姿勢をとるユーザU及び清掃道具Cを含む画像IG1が撮像装置201を介して作業管理装置101によって取得される。 Specifically, as shown in step (A1) of FIG. 2, an image IG1 including a user U in a certain posture and a cleaning tool C is acquired by the work management device 101 via the imaging device 201.

ステップ(B1)において、作業管理装置101は、画像IG1に対して位置検出処理及び実行部位検出処理を行う。位置検出処理によって、画像IG1におけるユーザUの位置及び清掃道具Cの位置が検出される。実行部位検出処理によって、ユーザUが清掃作業を実行中の清掃部位が実行部位として検出される。画像IG1に基づくと、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、バウンディングボックスによって規定される、位置P11及び位置P12であると検出される。また、画像IG1に基づくと、画像IG1で示されるユーザUの実行部位は「肩」であると検出される。位置検出処理及び実行部位検出処理は、例えば、機械学習によって学習された学習モデルを用いて行われる。 In step (B1), the work management device 101 performs a position detection process and a working part detection process on the image IG1. The position detection process detects the position of the user U and the position of the cleaning tool C in the image IG1. The working part detection process detects the cleaning part where the user U is performing the cleaning work as the working part. Based on the image IG1, the position of the user U and the position of the cleaning tool C in the image IG1 are detected to be positions P11 and P12, respectively, which are defined by bounding boxes. Also, based on the image IG1, the working part of the user U shown in the image IG1 is detected to be the "shoulder". The position detection process and the working part detection process are performed using, for example, a learning model learned by machine learning.

同様に、ステップ(A2)に示されるように、画像IG1が取得されたタイミングより後のタイミングにおいて、画像IG2が取得される。また、ステップ(B1)より後のタイミングにおけるステップ(B2)において、同様に、画像IG1におけるユーザUの位置及び清掃道具Cの位置のそれぞれは、位置P21及び位置P22であると検出され、実行部位は「肩」であると検出される。 Similarly, as shown in step (A2), image IG2 is acquired at a timing later than the timing at which image IG1 is acquired. Also, in step (B2) at a timing later than step (B1), the positions of user U and cleaning tool C in image IG1 are detected as positions P21 and P22, respectively, and the performing area is detected as the "shoulder."

ステップ(C)において、作業管理装置101は、画像IG1,画像IG2において検出された清掃道具Cの位置P12,P22を用いて、「肩」の作業実施時間を算出する。このとき、作業管理装置101は、位置P12と位置P22が異なる場合に作業実施時間を加算していくことで作業実施時間を算出する。 In step (C), the work management device 101 calculates the work execution time for the "shoulder" using positions P12 and P22 of the cleaning tool C detected in images IG1 and IG2. At this time, the work management device 101 calculates the work execution time by adding up the work execution time when positions P12 and P22 are different.

ステップ(D)において、作業管理装置101は、予め定められた基準作業時間と、算出した作業実施時間とを比較する。例えば、作業実施時間が基準作業時間以上となった場合、ステップ(E)において、作業管理装置101は実行部位の清掃作業が完了したと判定する。 In step (D), the work management device 101 compares the calculated work execution time with a predetermined standard work time. For example, if the work execution time is equal to or longer than the standard work time, in step (E), the work management device 101 determines that the cleaning work for the execution area has been completed.

図3を参照して、作業管理装置101のハードウェア構成の一例について説明する。作業管理装置101は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ301、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置302、有線又は無線通信を行う通信IF(Interface)303、入力操作を受け付ける入力デバイス304、及び情報の出力を行う出力デバイス305を有する。入力デバイス304は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス305は、例えば、ディスプレイ、タッチパネル及び/又はスピーカ等である。 An example of the hardware configuration of the work management device 101 will be described with reference to FIG. 3. The work management device 101 has a processor 301 such as a CPU (Central Processing Unit) or a GPU (Graphical Processing Unit), a storage device 302 such as a memory, a HDD (Hard Disk Drive) and/or an SSD (Solid State Drive), a communication IF (Interface) 303 for wired or wireless communication, an input device 304 for accepting input operations, and an output device 305 for outputting information. The input device 304 is, for example, a keyboard, a touch panel, a mouse, and/or a microphone. The output device 305 is, for example, a display, a touch panel, and/or a speaker.

図4を参照して、作業管理装置101の機能ブロック構成について説明する。作業管理装置101は、通信部1011、表示部1012、記憶部1013、画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112を有する。 The functional block configuration of the work management device 101 will be described with reference to FIG. 4. The work management device 101 has a communication unit 1011, a display unit 1012, a memory unit 1013, an image acquisition unit 1014, an operation part detection unit 1015, a position detection unit 1016, an implementation time calculation unit 1017, a completion determination unit 1018, a screen information generation unit 1019, an identification information acquisition unit 10110, a result recording unit 10111, and a work part determination unit 10112.

通信部1011は、作業管理装置101が備える通信IF303を用いて実現することができる。表示部1012は、作業管理装置101が備える出力デバイス305を用いて実現することができる。記憶部1013は、作業管理装置101が備える記憶装置302を用いて実現することができる。画像取得部1014、実行部位検出部1015、位置検出部1016、実施時間算出部1017、完了判定部1018、画面情報生成部1019、識別情報取得部10110、結果記録部10111、及び作業部位決定部10112は、作業管理装置101のプロセッサ301が、記憶装置302に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。 The communication unit 1011 can be realized using the communication IF 303 provided in the work management device 101. The display unit 1012 can be realized using the output device 305 provided in the work management device 101. The memory unit 1013 can be realized using the storage device 302 provided in the work management device 101. The image acquisition unit 1014, the execution part detection unit 1015, the position detection unit 1016, the implementation time calculation unit 1017, the completion determination unit 1018, the screen information generation unit 1019, the identification information acquisition unit 10110, the result recording unit 10111, and the work part determination unit 10112 can be realized by the processor 301 of the work management device 101 executing a program stored in the storage device 302. In addition, the program can be stored in a storage medium. The storage medium storing the program may be a non-transitory storage medium (Non-transitory computer readable medium). The non-transitory storage medium is not particularly limited, but may be, for example, a storage medium such as a USB memory or a CD-ROM.

通信部1011は、撮像装置201を含む作業管理装置101と外部の情報処理装置との間における通信を制御する。 The communication unit 1011 controls communication between the work management device 101, which includes the imaging device 201, and an external information processing device.

表示部1012は、例えば、タブレット端末、スマートフォン等のディスプレイであり、ユーザに対して画面を表示する。 The display unit 1012 is, for example, a display of a tablet terminal, a smartphone, etc., and displays a screen to the user.

記憶部1013は、作業管理装置101での処理に用いられる各種の情報を記憶する。記憶部1013には、ユーザDB10131、作業部位DB10132、作業管理DB10133、作業結果DB10134、実行部位検出モデル10135、及び位置検出モデル10136が記憶される。 The memory unit 1013 stores various information used for processing in the work management device 101. The memory unit 1013 stores a user DB 10131, a work part DB 10132, a work management DB 10133, a work result DB 10134, an execution part detection model 10135, and a position detection model 10136.

図5を参照してユーザDB10131に記憶されるユーザ情報について説明する。ユーザ情報は、「ユーザ名」及び「ユーザID」の項目を有する。「ユーザ名」の項目には、作業管理システム10を利用するユーザの名前が、例えば、「ユーザA」のように記憶される。「ユーザID」の項目には個々のユーザを識別する情報が、例えば「USER01」のように記憶される。 The user information stored in user DB 10131 will be described with reference to Figure 5. User information has the fields "user name" and "user ID". In the "user name" field, the name of the user who uses the work management system 10 is stored, for example, "user A". In the "user ID" field, information identifying an individual user is stored, for example, "USER01".

図6を参照して作業部位DB10132に記憶される作業部位情報について説明する。作業部位情報は、「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の項目を有する。 The work part information stored in the work part DB10132 will be described with reference to Figure 6. The work part information has the fields "cleaning part name", "cleaning order", "reference work time", and "reference operation video".

「清掃部位名」、「清掃順」、「基準作業時間」、及び「基準動作動画」の各項目に記憶される情報は、作業管理システム10の管理者(例えば食品工場の運営管理者等)によって設定される。管理者は、作業部位情報を、自身の管理する工場等の性質に応じて任意に設定することができ、その一例が図6に示されている。 The information stored in each of the fields "Cleaning area name," "Cleaning order," "Reference work time," and "Reference operation video" is set by the manager of the work management system 10 (e.g., the operations manager of a food factory). The manager can set the work area information as desired depending on the characteristics of the factory under his/her management, and an example is shown in FIG. 6.

「清掃部位名」の項目には、ユーザが清掃すべき清掃部位がそれぞれ記憶される。清掃部位は、例えば、頭(前方)、頭(後方)、首(前方)、首(後方)のように、部位の前後が区別されていてもよい。また、右腕、左腕、右足、左足のように左右の部位が区別されていてもよい。 The "Name of Cleaning Part" field stores the cleaning parts that the user should clean. The cleaning parts may be distinguished between front and back, for example, head (front), head (rear), neck (front), and neck (rear). Also, the cleaning parts may be distinguished between left and right, for example, right arm, left arm, right leg, and left leg.

「清掃順」の項目には、ユーザが各清掃部位を清掃する順番が記憶される。順番は、例えば、ユーザの頭部から足先まで、清掃部位が上から下に移動するように設定される。「基準作業時間」の項目には、各清掃部位をユーザが清掃するための清掃動作を行うべき時間が記憶される。「基準動作動画」の項目には、各清掃部位の清掃方法を説明するための動画を示す情報が記憶される。「基準動作動画」は、例えば、記憶部1013に記憶される動画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「基準動作動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを取得する場合は、そのアクセス先を示す情報であってもよい。 The "cleaning order" field stores the order in which the user cleans each cleaning area. The order is set, for example, so that the cleaning areas move from top to bottom, from the user's head to the user's toes. The "reference work time" field stores the time that the user should perform the cleaning action to clean each cleaning area. The "reference operation video" field stores information indicating a video for explaining the cleaning method of each cleaning area. The "reference operation video" is, for example, information indicating the address in the storage unit 1013 of a video file stored in the storage unit 1013. Note that, when the work management device 101 connects to an external information processing device via the communication unit 1011 to acquire a video file, the information stored in the "reference operation video" field may be information indicating the access destination.

具体的には、例えば、「清掃部位名」が「肩」である場合、その「清掃順」は「5」番目であり、「基準作業時間」は「8秒」である。また、「肩」の清掃のための「基準動作動画」は「ファイルT5」として記憶される。 Specifically, for example, if the "name of cleaning area" is "shoulders," its "cleaning order" is "5th" and its "standard work time" is "8 seconds." In addition, the "standard operation video" for cleaning the "shoulders" is stored as "file T5."

図7を参照して、作業管理DB10133に記憶される作業管理情報について説明する。作業管理情報は、ユーザが作業管理システム10を利用して清掃作業を行った場合に、ユーザそれぞれの進捗に応じて更新される情報である。作業部位情報は、「実施ユーザ」、「清掃部位名」、「作業実施時間」、「基準作業時間」、及び「清掃状況」の項目を有する。 The work management information stored in the work management DB 10133 will be described with reference to Figure 7. The work management information is information that is updated according to the progress of each user when the user performs cleaning work using the work management system 10. The work area information has the fields "performing user", "cleaning area name", "work performance time", "reference work time", and "cleaning status".

「実施ユーザ」の項目には、作業管理システム10を利用したユーザ名が記憶される。「清掃部位名」の項目には、ユーザが清掃を行った又は清掃を行う清掃部位の清掃部位名が記憶される。「清掃部位名」の項目に記憶される情報は、作業部位DB10132の「清掃順」に応じて並べられて記憶される。「作業実施時間」の項目には、ユーザが部位ごとに清掃動作を行った時間が作業管理装置101によって算出されて記憶される。「基準作業時間」の項目には、ユーザが清掃動作を行うべき時間が記憶される。「清掃状況」の項目には、ユーザによる各清掃部位の清掃の状態が、「完了」、「清掃中」、又は「未完了」として記憶される。 The "Performing User" field stores the name of the user who used the work management system 10. The "Cleaning Area Name" field stores the name of the cleaning area that the user has cleaned or will clean. The information stored in the "Cleaning Area Name" field is arranged and stored according to the "Cleaning Order" of the work area DB 10132. The "Work Performance Time" field stores the time that the user performed the cleaning operation for each area, calculated by the work management device 101. The "Reference Work Time" field stores the time that the user should perform the cleaning operation. The "Cleaning Status" field stores the status of the user's cleaning of each cleaning area, as "Completed," "Cleaning in Progress," or "Incomplete."

例えば、図7において、ユーザAは「頭(前方)」の清掃部位について、作業実施時間が「7秒」であり、清掃状況は「完了」として記憶されている。これは、ユーザAが頭(前方)の清掃部位の清掃を完了したことを示している。図7では、ユーザAは「頭(前方)」から「首(後方)」までの清掃部位の清掃を完了している。 For example, in FIG. 7, the task execution time for user A in regards to the cleaning area "head (front)" is stored as "7 seconds" and the cleaning status is stored as "completed." This indicates that user A has completed cleaning the cleaning area of the head (front). In FIG. 7, user A has completed cleaning the cleaning areas from "head (front)" to "neck (rear)."

図7では、ユーザAは「肩」の清掃部位を「清掃中」であることが記憶されている。なお、清掃状況が「清掃中」である部位が対象作業部位である。作業実施時間は、ユーザAの清掃動作に応じて作業管理装置101によって更新される。作業実施時間が、各部位に対応する基準作業時間以上となると、清掃状況が「清掃中」から「完了」に更新される。 In FIG. 7, it is stored that user A is "cleaning" the "shoulder" cleaning area. The area with a cleaning status of "cleaning" is the target work area. The work execution time is updated by the work management device 101 according to user A's cleaning action. When the work execution time reaches or exceeds the standard work time corresponding to each area, the cleaning status is updated from "cleaning" to "completed."

図8は、ユーザAが「肩」の清掃を完了した後の作業管理情報の一例である。図8では、ユーザAが「肩」の清掃部位を9秒間清掃した結果、清掃状況が「完了」として更新されている。このとき、ユーザAは「胸部」の清掃部位を清掃中である。 Figure 8 is an example of work management information after user A has completed cleaning the "shoulders." In Figure 8, user A has cleaned the "shoulders" area for nine seconds, and the cleaning status has been updated to "completed." At this time, user A is currently cleaning the "chest" area.

図9を参照して、作業結果DB10134に記憶される作業結果情報について説明する。作業結果情報は、「ユーザ名」、「ユーザID」、「完了判定結果」、「実施日時」、及び「録画動画」の項目を有する。「完了判定結果」の項目には、清掃管理DB10133に記憶される作業管理情報に基づいて、各ユーザが全ての清掃部位の清掃を完了したか否かを示す情報が記憶される。「実施日時」の項目には、ユーザAが全ての清掃部位の清掃を完了した場合、その日時が記憶される。「実施日時」の項目に記憶される情報は、全ての清掃部位の清掃が完了した時刻でもよく、清掃を開始した時刻でもよい。「録画動画」の項目には、ユーザによる一連の清掃動画が録画された動画を示す情報が記憶される。「録画動画」は、例えば、記憶部1013に記憶される録画ファイルの記憶部1013におけるアドレスを示す情報である。なお、「録画動画」の項目に記憶される情報は、作業管理装置101が通信部1011を通じて外部の情報処理装置と接続して動画ファイルを記憶する場合、そのアクセス先を示す情報であってもよい。 9, the work result information stored in the work result DB 10134 will be described. The work result information has the following items: "user name", "user ID", "completion determination result", "implementation date and time", and "recorded video". The "completion determination result" item stores information indicating whether each user has completed cleaning all cleaning areas based on the work management information stored in the cleaning management DB 10133. The "implementation date and time" item stores the date and time when user A has completed cleaning all cleaning areas. The information stored in the "implementation date and time" item may be the time when cleaning of all cleaning areas is completed, or the time when cleaning is started. The "recorded video" item stores information indicating a video in which a series of cleaning videos by a user is recorded. The "recorded video" is, for example, information indicating the address in the storage unit 1013 of a recording file stored in the storage unit 1013. Note that the information stored in the "recorded video" item may be information indicating the access destination when the work management device 101 connects to an external information processing device through the communication unit 1011 and stores a video file.

図9の例では、ユーザA(ユーザID:USER01)は、全ての清掃部位の清掃が「完了」し、「実施日時」が「2022/7/5 11:55:30」と記憶され、その「録画動画」は「ファイルA」として記憶される。また、ユーザCについて示されるように、「完了判定結果」の項目には、予め「未完了」という情報が記憶され、後述の完了判定部1018及び結果記録部10111による処理に応じて、「完了判定結果」の項目に記憶される情報が更新されてもよい。また、「完了判定結果」が「未完了」である場合、「実施日時」及び「録画動画」の項目には情報が記憶されない。 In the example of FIG. 9, user A (user ID: USER01) has "completed" cleaning of all cleaning areas, the "implementation date and time" is stored as "2022/7/5 11:55:30", and the "recorded video" is stored as "File A". Also, as shown for user C, the "completion determination result" field may store information of "incomplete" in advance, and the information stored in the "completion determination result" field may be updated according to processing by the completion determination unit 1018 and result recording unit 10111 described below. Also, when the "completion determination result" is "incomplete", no information is stored in the "implementation date and time" and "recorded video" fields.

なお、作業管理情報や作業結果情報は、作業管理装置101そのものに記憶される必要はなく、例えば、作業管理装置101と通信可能な外部のコンピュータに記憶されるようにしてもよい。このとき、作業管理装置101は、通信部1011を通じて外部のコンピュータに作業管理情報や作業結果情報を更新するための情報を送信する。 The work management information and work result information do not need to be stored in the work management device 101 itself, but may be stored, for example, in an external computer that can communicate with the work management device 101. In this case, the work management device 101 transmits information for updating the work management information and work result information to the external computer via the communication unit 1011.

実行部位検出モデル10135は、画像取得部1014が取得したユーザの画像に基づいて、ユーザが清掃を実行中の部位である実行部位を検出する数理モデルである。実行部位検出モデル10135としては、例えば、Efficient Net等のニューラルネットワークを用いた学習モデルを用いることができる。 The execution part detection model 10135 is a mathematical model that detects the execution part, which is the part where the user is currently cleaning, based on the image of the user acquired by the image acquisition unit 1014. As the execution part detection model 10135, for example, a learning model using a neural network such as Efficient Net can be used.

位置検出モデル10136は、後述の画像取得部1014が取得したユーザの画像に基づいて、画像中の物体を検出し、その位置を検出する数理モデルである。位置検出モデル10136としては、例えば、YOLO等のリアルタイムな物体検出及び位置検出が可能な学習モデルを用いることができる。 The position detection model 10136 is a mathematical model that detects an object in an image and detects its position based on an image of a user acquired by the image acquisition unit 1014 described below. As the position detection model 10136, for example, a learning model capable of real-time object detection and position detection such as YOLO can be used.

画像取得部1014は、撮像装置201によって撮影された動画を撮像装置201から取得する。撮影された動画には、清掃中のユーザと清掃道具とが映っている。言い換えると、画像取得部1014は、複数のタイミングで撮影された複数の画像を動画として取得する。 The image acquisition unit 1014 acquires a video captured by the imaging device 201 from the imaging device 201. The captured video shows the user and the cleaning tool while cleaning. In other words, the image acquisition unit 1014 acquires multiple images captured at multiple times as a video.

実行部位検出部1015は、実行部位検出モデル10135に、画像取得部1014によって取得された画像を入力し、ユーザの清掃動作を取得することで、ユーザが清掃道具を用いて清掃中の清掃部位である実行部位を検出する。ここで実行部位検出部1015は、実行部位を検出するとき、位置検出部1016が検出した清掃道具の位置を用いてもよい。例えば、位置検出部1016は画像内における清掃道具の位置に基づいて、右腕又は左腕が実行部位であることを検出することができる。これにより、例えば、実行部位検出モデル10135が「腕」の清掃動作のみを検出できる場合に、さらに左右を区別することが可能となる。 The performing part detection unit 1015 detects the performing part, which is the part being cleaned by the user using the cleaning tool, by inputting the image acquired by the image acquisition unit 1014 into the performing part detection model 10135 and acquiring the user's cleaning action. Here, when detecting the performing part, the performing part detection unit 1015 may use the position of the cleaning tool detected by the position detection unit 1016. For example, the position detection unit 1016 can detect that the right arm or left arm is the performing part based on the position of the cleaning tool in the image. This makes it possible to further distinguish between left and right, for example, when the performing part detection model 10135 can only detect the cleaning action of the "arms."

位置検出部1016は、位置検出モデル10136に、画像取得部1014によって取得された画像を入力し、画像中の物体の位置を取得することで、画像における清掃道具の位置を検出する。また、位置検出部1016は、ユーザの位置を取得してもよい。 The position detection unit 1016 inputs the image acquired by the image acquisition unit 1014 into the position detection model 10136 and acquires the position of the object in the image, thereby detecting the position of the cleaning tool in the image. The position detection unit 1016 may also acquire the position of the user.

実施時間算出部1017は、ユーザが清掃すべき対象作業部位、清掃道具の位置、及び実行部位に基づいて、ユーザが対象作業部位の清掃を行った時間である作業実施時間を算出する。実施時間算出部1017は、ユーザが清掃している間、その動作に応じて作業実施時間を算出し、清掃管理DB10133の作業管理情報における「作業実施時間」の項目に記憶される情報を更新する。 The execution time calculation unit 1017 calculates the task execution time, which is the time it takes for the user to clean the target task area, based on the target task area to be cleaned by the user, the position of the cleaning tool, and the execution area. While the user is cleaning, the execution time calculation unit 1017 calculates the task execution time according to the user's actions, and updates the information stored in the "task execution time" field in the task management information of the cleaning management DB 10133.

完了判定部1018は、作業部位DB10132の作業部位情報における、対象作業部位の「基準作業時間」を参照する。完了判定部1018は、作業実施時間が、参照された基準作業時間に基づく条件を満たす場合に、対象作業部位の清掃が完了したと判定する。ここで、基準作業時間に基づく条件とは、例えば、「作業実施時間が基準作業時間以上となること」や「作業実施時間と基準作業時間との差が所定の値以下になること」等である。 The completion determination unit 1018 references the "reference work time" of the target work area in the work area information of the work area DB 10132. The completion determination unit 1018 determines that cleaning of the target work area is completed when the work implementation time satisfies a condition based on the referenced reference work time. Here, the condition based on the reference work time is, for example, "the work implementation time is equal to or longer than the reference work time" or "the difference between the work implementation time and the reference work time is equal to or less than a specified value."

画面情報生成部1019は、対象作業部位、清掃中のユーザの画像(動画)、清掃の進捗を示す進捗情報等をユーザに示す指示画面を、表示部1012に表示するための情報を生成する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃すべき対象作業部位を取得する。また、画面情報生成部1019は、画像取得部1014が取得したユーザ及び清掃道具が含まれる画像を参照する。画面情報生成部1019は、清掃管理DB10133の作業管理情報を参照し、清掃中の清掃部位の作業実施時間及び基準参照時間を取得する。画面情報生成部1019は、取得した作業実施時間及び基準参照時間に基づいて、進捗情報を生成する。画面の具体例については後述する。 The screen information generating unit 1019 generates information for displaying on the display unit 1012 an instruction screen that shows the user the target work area, an image (video) of the user cleaning, progress information showing the progress of cleaning, and the like. The screen information generating unit 1019 references the work management information in the cleaning management DB 10133 to acquire the target work area to be cleaned. The screen information generating unit 1019 also references the image including the user and cleaning tools acquired by the image acquiring unit 1014. The screen information generating unit 1019 references the work management information in the cleaning management DB 10133 to acquire the work execution time and standard reference time for the cleaning area being cleaned. The screen information generating unit 1019 generates progress information based on the acquired work execution time and standard reference time. Specific examples of screens will be described later.

識別情報取得部10110は、作業管理装置101に情報を入力するための入力デバイスを通じて、ユーザからユーザを識別する識別情報を取得する。識別情報は、例えば、ユーザDB10131に記憶されているユーザIDである。また、入力デバイスは、例えば、作業管理装置101がタブレット端末である場合、タッチパネルとして機能する表示部1012であってもよく、作業管理装置101に接続されるキーボード等の端末であってもよい。 The identification information acquisition unit 10110 acquires identification information for identifying a user from a user through an input device for inputting information to the work management device 101. The identification information is, for example, a user ID stored in the user DB 10131. In addition, the input device may be, for example, the display unit 1012 that functions as a touch panel when the work management device 101 is a tablet terminal, or may be a terminal such as a keyboard connected to the work management device 101.

結果記録部10111は、完了判定部1018の判定結果に基づいて、清掃管理DB10133における作業管理情報の「清掃状況」の項目に記憶される情報を更新する。また、結果記録部10111は、作業管理情報を参照し、作業結果DB10134における作業結果情報の「完了判定結果」の項目に記憶される情報を更新する。例えば、作業管理情報において、あるユーザが清掃すべき全ての清掃部位の清掃状況が「完了」となっている場合、当該ユーザに関連付けられる「完了判定結果」の項目に記憶される情報を「完了」に更新する。また、結果記録部10111は、「完了判定結果」の項目に記憶される情報を「完了」に更新した時の日時に基づいて、「実施日時」の項目に記憶される情報を更新する。 The result recording unit 10111 updates the information stored in the "cleaning status" field of the work management information in the cleaning management DB 10133 based on the determination result of the completion determination unit 1018. The result recording unit 10111 also references the work management information and updates the information stored in the "completion determination result" field of the work result information in the work result DB 10134. For example, when the cleaning status of all cleaning areas that a user is to clean is "completed" in the work management information, the result recording unit 10111 updates the information stored in the "completion determination result" field associated with the user to "completed". The result recording unit 10111 also updates the information stored in the "implementation date and time" field based on the date and time when the information stored in the "completion determination result" field was updated to "completed".

図10を参照して、作業管理装置101における処理について説明する。 The processing in the work management device 101 will be described with reference to Figure 10.

ステップS1001において、識別情報取得部10110は、清掃作業を行うユーザから入力されるユーザIDを取得する。 In step S1001, the identification information acquisition unit 10110 acquires the user ID input by the user performing the cleaning work.

ステップS1002において、作業部位決定部10112は、作業部位DB10132を参照し、作業部位情報を取得する。 In step S1002, the work area determination unit 10112 refers to the work area DB 10132 and obtains work area information.

ステップS1003において、作業部位決定部10112は、作業部位情報の清掃順に従って、ユーザが清掃すべき対象作業部位を決定する。例えば、最初の対象作業部位は、図6の作業部位情報によると「頭(前方)」となる。 In step S1003, the work area determination unit 10112 determines the target work area that the user should clean according to the cleaning order of the work area information. For example, the first target work area is the "head (front)" according to the work area information in FIG. 6.

ステップS1004において、画面情報生成部1019は画面情報生成処理を行う。画面情報生成処理について図11を参照して説明する。 In step S1004, the screen information generation unit 1019 performs a screen information generation process. The screen information generation process is described with reference to FIG. 11.

ステップS1101において、画面情報生成部1019は、画像取得部1014が取得したユーザの画像を取得する。 In step S1101, the screen information generating unit 1019 acquires the image of the user acquired by the image acquiring unit 1014.

ステップS1102において、画面情報生成部1019は、作業部位決定部10112が決定した対象作業部位を取得する。 In step S1102, the screen information generating unit 1019 acquires the target work area determined by the work area determining unit 10112.

ステップS1103において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準作業時間を取得する。例えば、対象作業部位が「頭(前方)」である場合基準作業時間は「5秒」であり、対象作業部位が「肩」である場合基準作業時間は「8秒」である。 In step S1103, the screen information generating unit 1019 refers to the work part DB 10132 and obtains the standard work time associated with the target work part. For example, if the target work part is the "head (front)", the standard work time is "5 seconds", and if the target work part is the "shoulder", the standard work time is "8 seconds".

ステップS1104において、画面情報生成部1019は、清掃管理DB10133を参照し、対象作業部位に対応付けられた作業実施時間を取得する。 In step S1104, the screen information generating unit 1019 refers to the cleaning management DB 10133 and obtains the work execution time associated with the target work area.

ステップS1105において、画面情報生成部1019は、基準作業時間と作業実施時間とに基づいて、対象作業部位の清掃の進捗を示す進捗情報を生成する。進捗情報は、例えば、作業実施時間の基準作業時間に対する割合を表示するための情報や残りの作業実施時間と基準作業時間との差の秒数を表示するための情報である。 In step S1105, the screen information generating unit 1019 generates progress information indicating the progress of cleaning the target work area based on the reference work time and the work execution time. The progress information is, for example, information for displaying the ratio of the work execution time to the reference work time, or information for displaying the difference in seconds between the remaining work execution time and the reference work time.

ステップS1106において、画面情報生成部1019は、作業部位DB10132を参照し、対象作業部位に対応付けられた基準動作動画を取得する。 In step S1106, the screen information generating unit 1019 refers to the work area DB 10132 and obtains the reference movement video associated with the target work area.

ステップS1107において、画面情報生成部1019は、ユーザの画像、対象作業部位、進捗情報、及び基準動作動画に基づいて、指示画面情報を生成する。 In step S1107, the screen information generating unit 1019 generates instruction screen information based on the user's image, the target work area, the progress information, and the reference operation video.

図12を参照して指示画面の一例について説明する。図12に示される指示画面1200は、対象作業部位表示欄1201、進捗情報表示領域1202、作業実施時間表示欄1203、アイコン1204、基準動作表示領域1205、及びユーザ表示領域1206を有する。 An example of the instruction screen will be described with reference to FIG. 12. The instruction screen 1200 shown in FIG. 12 has a target work area display field 1201, a progress information display area 1202, a work execution time display field 1203, an icon 1204, a reference operation display area 1205, and a user display area 1206.

対象作業部位表示欄1201には、対象作業部位を示す情報が表示される。ここでは、「肩」が対象作業部位として示されている。 In the target work area display field 1201, information indicating the target work area is displayed. Here, "shoulders" are shown as the target work area.

進捗情報表示領域1202には、進捗情報が表示される。ここでは、図7の作業管理情報に基づいて生成された進捗情報が示されている。図7においては、肩の作業実施時間は「5秒」であり、基準作業時間「8秒」であるので、図12では、作業実施時間の基準作業時間に対する割合を示す進捗表示部12021が進捗情報表示領域1202に表示されている。また、作業実施時間を視覚的に表示する情報として、作業実施時間そのものが作業実施時間表示欄1203に表示されてもよい。 Progress information is displayed in the progress information display area 1202. Here, progress information generated based on the work management information in FIG. 7 is shown. In FIG. 7, the shoulder work time is "5 seconds" and the reference work time is "8 seconds", so in FIG. 12, a progress display section 12021 showing the ratio of the work time to the reference work time is displayed in the progress information display area 1202. In addition, the work time itself may be displayed in the work time display field 1203 as information that visually displays the work time.

アイコン1204は、対象作業部位を示すためのアイコンであり、画面情報生成部1019が記憶部1013を参照して生成する。アイコン1204は、ユーザに対して対象作業部位を視覚的に示すことを可能にする。アイコン1204では、対象作業部位に応じた部位表示領域12041が強調されている。これにより、ユーザが対象作業部位を視覚的に把握することができる。 Icon 1204 is an icon for indicating the target work area, and is generated by screen information generating unit 1019 with reference to memory unit 1013. Icon 1204 makes it possible to visually indicate the target work area to the user. In icon 1204, the area display area 12041 corresponding to the target work area is highlighted. This allows the user to visually grasp the target work area.

基準動作表示領域1205には、基準動作動画が表示される。これにより、ユーザは手本となる清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。 The reference action video is displayed in the reference action display area 1205. This allows the user to perform cleaning actions while checking the model cleaning actions, resulting in more appropriate cleaning.

ユーザ表示領域1206には、ユーザの画像(動画)が表示される。これにより、ユーザは自身の清掃動作を確認しつつ清掃動作を行うことができるので、清掃がより適切に実行される。 The user display area 1206 displays an image (video) of the user. This allows the user to check their own cleaning actions while performing the cleaning operation, resulting in more appropriate cleaning.

図10に戻り、上述の画面情報生成処理以降の処理について説明する。ステップS1005において、表示部1012は指示画面情報に基づいて、指示画面を表示する。指示画面を表示されたユーザは清掃動作を実行する。 Returning to FIG. 10, the process following the screen information generation process described above will be described. In step S1005, the display unit 1012 displays an instruction screen based on the instruction screen information. The user who has been shown the instruction screen performs a cleaning operation.

ステップS1006において、画像取得部1014は、ユーザが清掃中の第1タイミングにおいて第1画像を取得する。第1画像は、例えば、図13における画像IG1である。 In step S1006, the image acquisition unit 1014 acquires a first image at a first timing when the user is cleaning. The first image is, for example, image IG1 in FIG. 13.

ステップS1007において、実行部位検出部1015は、第1画像に基づいて、ユーザが清掃中の清掃部位である実行部位を検出する。実行部位は、例えば、図13における画像IG1に基づくと「肩」となる。 In step S1007, the cleaning part detection unit 1015 detects the cleaning part, which is the part being cleaned by the user, based on the first image. For example, the cleaning part is the "shoulder" based on the image IG1 in FIG. 13.

ステップS1008において、位置検出部1016は、第1画像に基づいて、第1画像における清掃道具の第1位置を検出する。第1位置は、例えば、図13における画像IG1に基づくと、位置P1となる。位置P1は、より具体的には、清掃道具を囲むバウンディングボックスを規定する2つの座標、例えば長方形の左下と右上の頂点を示す座標である。画像IG1に基づくと、位置P1は{(X1a,Y1a),(X1b,Y1b)}と検出される。 In step S1008, the position detection unit 1016 detects a first position of the cleaning tool in the first image based on the first image. For example, based on image IG1 in FIG. 13, the first position is position P1. More specifically, position P1 is two coordinates that define a bounding box that surrounds the cleaning tool, for example, coordinates indicating the lower left and upper right vertices of a rectangle. Based on image IG1, position P1 is detected as {(X1a, Y1a), (X1b, Y1b)}.

ステップS1009において、画像取得部1014は、第1タイミングより後の第2タイミングにおいて第2画像を取得する。第2画像は、例えば、図13における画像IG2である。 In step S1009, the image acquisition unit 1014 acquires a second image at a second timing that is after the first timing. The second image is, for example, image IG2 in FIG. 13.

ステップS1010において、実行部位検出部1015は、第2画像に基づいて実行部位を検出する。実行部位は、例えば、図13における画像IG2に基づくと「肩」となる。 In step S1010, the execution part detection unit 1015 detects the execution part based on the second image. For example, the execution part is the "shoulder" based on image IG2 in FIG. 13.

ステップS1011において、位置検出部1016は、第2画像に基づいて、第2画像における清掃道具の第2位置を検出する。第2位置は、例えば、図13における画像IG2に基づくと、位置P2となる。画像IG2に基づくと、位置P2は{(X2a,Y2a),(X2b,Y2b)}と検出される。 In step S1011, the position detection unit 1016 detects a second position of the cleaning tool in the second image based on the second image. For example, the second position is position P2 based on image IG2 in FIG. 13. Based on image IG2, position P2 is detected as {(X2a, Y2a), (X2b, Y2b)}.

ステップS1012において、実施時間算出部1017は、実施時間算出処理を行う。実施時間算出処理は、図13を参照して説明した位置P1,P2を比較することで行われる。図14を参照して、実施時間算出処理の詳細について説明する。ここでは、図13と同様に対象作業部位として肩を清掃しているユーザの作業実施時間を算出する場合を説明する。 In step S1012, the implementation time calculation unit 1017 performs implementation time calculation processing. The implementation time calculation processing is performed by comparing positions P1 and P2 described with reference to FIG. 13. The implementation time calculation processing will be described in detail with reference to FIG. 14. Here, a case will be described in which the task implementation time of a user who is cleaning the shoulder as the target task part is calculated, similarly to FIG. 13.

ステップS1401において、実施時間算出部1017は、第1画像に基づく第1実行部位を取得する。画像IG1に基づくと、第1実行部位は肩である。 In step S1401, the implementation time calculation unit 1017 acquires the first implementation part based on the first image. Based on image IG1, the first implementation part is the shoulder.

ステップS1402において、実施時間算出部1017は、第2画像に基づく第2実行部位を取得する。画像IG2に基づくと、第2実行部位も肩である。 In step S1402, the implementation time calculation unit 1017 acquires the second implementation part based on the second image. Based on image IG2, the second implementation part is also the shoulder.

ステップS1403において、実施時間算出部1017は、作業部位決定部10112によって決定されている対象作業部位を参照し、第1実行部位及び第2実行部位は対象作業部位であるか否かを検出する。ステップS1403において否定判断された場合、つまり第1実行部位又は第2実行部位のいずれかが対象作業部位でない場合、清掃が実施されていないと判断し、作業実施時間の加算処理は終了する。 In step S1403, the execution time calculation unit 1017 refers to the target work area determined by the work area determination unit 10112, and detects whether the first execution area and the second execution area are target work areas. If a negative judgment is made in step S1403, that is, if either the first execution area or the second execution area is not a target work area, it is determined that cleaning has not been performed, and the process of adding up the work execution time is terminated.

図13の例に沿うと、第1実行部位及び第2実行部位はいずれも対象作業部位である肩なので、ステップS1403では肯定判断がされる。 In the example of Figure 13, the first and second execution parts are both the shoulder, which is the target work part, so a positive determination is made in step S1403.

ステップS1404において、実施時間算出部1017は、位置検出部1016が検出した第1位置を取得する。 In step S1404, the implementation time calculation unit 1017 acquires the first position detected by the position detection unit 1016.

ステップS1405において、実施時間算出部1017は、位置検出部1016が検出した第2位置を取得する。 In step S1405, the implementation time calculation unit 1017 acquires the second position detected by the position detection unit 1016.

ステップS1406において、実施時間算出部1017は、第1位置と第2位置とが異なるか否かを検出する。第1位置と第2位置とが同じであることは、清掃道具が動かされていない、つまり粘着クリーナーがユーザの衣服に沿って動かされていないことを意味し、清掃動作が実行されていないことを意味する。第1位置と第2位置とが異なる位置であることは、清掃道具が動かされている、つまり粘着クリーナーがユーザの衣服に沿って動かされていることを意味し、清掃動作が実行されていることを意味する。 In step S1406, the implementation time calculation unit 1017 detects whether the first position and the second position are different. If the first position and the second position are the same, it means that the cleaning tool is not being moved, i.e., the sticky cleaner is not being moved along the user's clothes, and the cleaning operation is not being performed. If the first position and the second position are different, it means that the cleaning tool is being moved, i.e., the sticky cleaner is being moved along the user's clothes, and the cleaning operation is being performed.

第1位置と第2位置とが同じである場合、ステップS1406では否定判断がされる、つまり清掃動作が実行されていないと判断され、作業実施時間の加算処理は終了する。 If the first position and the second position are the same, a negative determination is made in step S1406, meaning that it is determined that a cleaning operation is not being performed, and the process of adding up the work execution time ends.

図13の例では、位置P1と位置P2とは異なる位置にあるので、ステップS1406では肯定判断がされる。 In the example of FIG. 13, position P1 and position P2 are in different positions, so a positive determination is made in step S1406.

ステップS1407において、実施時間算出部1017は、作業実施時間を加算する。より具体的には、実施時間算出部1017は、第1タイミングと第2タイミングとの間の時間を対象作業部位の作業実施時間に加算する。実施時間算出部1017は、算出された作業実施時間に基づいて、作業管理情報における清掃中の清掃部位の作業実施時間を更新する。 In step S1407, the implementation time calculation unit 1017 adds the work implementation time. More specifically, the implementation time calculation unit 1017 adds the time between the first timing and the second timing to the work implementation time of the target work area. The implementation time calculation unit 1017 updates the work implementation time of the cleaning area being cleaned in the work management information based on the calculated work implementation time.

図10に戻り、上述の実施時間算出処理以降の処理について説明する。ステップS1013において、完了判定部1018は、対象作業部位の基準作業時間を参照する。 Returning to FIG. 10, the process following the above-mentioned execution time calculation process will be described. In step S1013, the completion determination unit 1018 refers to the reference work time for the target work area.

ステップS1014において、完了判定部1018は、作業実施時間が基準作業時間以上であるか否かを判定する。ステップS1014にて否定判断されると、ステップS1006に戻り、処理が繰り返される。 In step S1014, the completion determination unit 1018 determines whether the task execution time is equal to or longer than the reference task time. If a negative determination is made in step S1014, the process returns to step S1006 and the process is repeated.

ステップS1014にて肯定判断されると、ステップS1015において、完了判定部1018は対象作業部位の清掃が完了したと判定する。 If a positive judgment is made in step S1014, in step S1015, the completion judgment unit 1018 judges that cleaning of the target work area has been completed.

ステップS1016において、完了判定部1018は、対象作業部位について、作業管理情報の「清掃状況」の情報を「清掃中」から「完了」に更新する。この更新の一例は図7,8において示されている。 In step S1016, the completion determination unit 1018 updates the "cleaning status" information in the work management information for the target work area from "cleaning in progress" to "completed." An example of this update is shown in Figures 7 and 8.

ステップS1017において、完了判定部1018は、作業管理情報に基づいて、全ての部位の清掃が完了したか否かを検出する。 In step S1017, the completion determination unit 1018 detects whether cleaning of all areas has been completed based on the work management information.

ステップS1017にて否定判断されると、ステップS1018において、作業部位決定部10112は、作業部位情報及び作業管理情報に基づいて、次の清掃順として指定されている清掃部位を対象作業部位とするように対象作業部位を更新する。その後ステップS1004の処理が繰り返され、次の清掃部位の清掃動作の検出が行われる。 If a negative judgment is made in step S1017, in step S1018, the work area determination unit 10112 updates the target work area based on the work area information and the work management information so that the cleaning area designated as the next cleaning order becomes the target work area. The process of step S1004 is then repeated to detect the cleaning operation of the next cleaning area.

ステップS1017にて肯定判断される場合、つまりユーザが清掃すべき全ての部位の清掃が完了した場合、完了判定部1018は、ステップS1019において、清掃が完了したことを記録する。具体的には、完了判定部1018は、作業結果情報において、清掃が完了したユーザの「完了判定結果」の項目を「完了」と更新し、「実施日時」及び「録画動画」の項目の情報を記憶する。 If the answer is YES in step S1017, that is, if the user has completed cleaning all areas that need to be cleaned, the completion determination unit 1018 records in step S1019 that the cleaning has been completed. Specifically, the completion determination unit 1018 updates the "Completion Determination Result" field of the user who has completed cleaning in the work result information to "Completed" and stores information in the "Date and Time of Implementation" and "Recorded Video" fields.

ステップS1018において、対象作業部位が更新された場合の画面例について、図15を参照して説明する。図15(a)では、ユーザが肩の清掃を指示されており、その作業実施時間が9秒となった時の指示画面1200が示される。このとき、作業実施時間は肩の基準作業時間である8秒以上となっているので、肩の清掃は完了したと判定される。 An example of a screen when the target work area is updated in step S1018 will be described with reference to FIG. 15. FIG. 15(a) shows an instruction screen 1200 in which the user has been instructed to clean the shoulders and the work execution time has reached 9 seconds. At this time, since the work execution time is equal to or longer than 8 seconds, which is the standard work time for the shoulders, it is determined that shoulder cleaning has been completed.

清掃が完了したと判定されると、図15(b)に示すように、画面情報生成部1019は、指示画面1200において、清掃が完了したことを示す表示1501を表示部1012に表示させる。このときの作業管理情報は、例えば図7に示す情報である。 When it is determined that cleaning is complete, as shown in FIG. 15(b), the screen information generating unit 1019 causes the display unit 1012 to display a display 1501 indicating that cleaning is complete on the instruction screen 1200. The work management information at this time is, for example, the information shown in FIG. 7.

その後、作業部位決定部10112が対象作業部位を、作業管理情報において肩の次にある「胸部」に更新する。このときの作業管理情報は、例えば図8に示す情報である。更新された対象作業部位に基づいて、画面情報生成部1019は、図15(c)に示される指示画面1200を表示部1012に表示させる。図15(c)では、対象作業部位表示欄1201に表示される対象作業部位、進捗情報表示領域1202の進捗情報、作業実施時間表示欄1203の作業実施時間の情報が更新されている。また、アイコン1204は、胸部を示す部位表示領域12042を含むように更新される。また、基準動作表示領域1205に表示される動画は、胸部に対応した基準動作動画となる。その後、ユーザは、指示画面1200を参照しつつ胸部の清掃動作を行う。 Then, the work part determination unit 10112 updates the target work part to "chest", which is next to the shoulders in the work management information. The work management information at this time is, for example, the information shown in FIG. 8. Based on the updated target work part, the screen information generation unit 1019 causes the display unit 1012 to display the instruction screen 1200 shown in FIG. 15(c). In FIG. 15(c), the target work part displayed in the target work part display field 1201, the progress information in the progress information display area 1202, and the work execution time information in the work execution time display field 1203 are updated. In addition, the icon 1204 is updated to include a part display area 12042 indicating the chest. In addition, the video displayed in the reference action display area 1205 becomes the reference action video corresponding to the chest. The user then performs the chest cleaning operation while referring to the instruction screen 1200.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, conditions, shape, size, etc., are not limited to those exemplified, and may be modified as appropriate. Furthermore, configurations shown in different embodiments may be partially substituted or combined.

10…作業管理システム、101…作業管理装置、201…撮像装置、1011…通信部、1012…表示部、1013…記憶部、1014…画像取得部、1015…実行部位検出部、1016…位置検出部、1017…実施時間算出部、1018…完了判定部、1019…画面情報生成部、10110…識別情報取得部、10111…結果記録部、10112…作業部位決定部 10... Work management system, 101... Work management device, 201... Imaging device, 1011... Communication unit, 1012... Display unit, 1013... Storage unit, 1014... Image acquisition unit, 1015... Work area detection unit, 1016... Position detection unit, 1017... Work time calculation unit, 1018... Completion determination unit, 1019... Screen information generation unit, 10110... Identification information acquisition unit, 10111... Result recording unit, 10112... Work area determination unit

Claims (11)

コンピュータに、
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得する画像取得処理と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出処理と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する実行部位検出処理と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記対象作業部位の作業を行った時間である作業実施時間を算出する実施時間算出処理と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記対象作業部位の作業が完了したと判定する完了判定処理と、を実行させる、プログラム。
On the computer,
an image acquisition process for acquiring a plurality of images taken at each of a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site and a work tool held by the user;
a position detection process for detecting a position of the work tool in each of the plurality of images;
a work part detection process for detecting a work part, which is a work part that the user is working on using the work tool, among the at least one work part based on each of the plurality of images;
an execution time calculation process for calculating an execution time of the work performed by the user on the target work area based on the target work area, the position, and the execution area;
a completion determination process that refers to a standard work time associated with each of the work areas, and determines that the work of the target work area has been completed if the work execution time satisfies a condition based on the standard work time.
請求項1に記載のプログラムであって、
前記複数の画像は、第1タイミングにおいて撮影された第1画像及び前記第1タイミングより後の第2タイミングにおいて撮影された第2画像を含み、
前記位置検出処理は、
前記第1画像に基づいて、前記第1画像における前記作業道具の第1位置を検出し、前記第2画像に基づいて、前記第2画像における前記作業道具の第2位置を検出し、
前記実施時間算出処理は、
前記第2位置が前記第1位置と異なる場合に、前記第2タイミングと前記第1タイミングとの間の時間を作業実施時間に加算することで、前記作業実施時間を算出する、プログラム。
The program according to claim 1,
the plurality of images include a first image captured at a first timing and a second image captured at a second timing that is later than the first timing,
The position detection process includes:
detecting a first position of the work tool in the first image based on the first image, and detecting a second position of the work tool in the second image based on the second image;
The implementation time calculation process includes:
a program that calculates an operation execution time by adding a time between the second timing and the first timing to an operation execution time when the second position is different from the first position;
請求項1又は2に記載のプログラムであって、
前記コンピュータに、
前記ユーザを識別する識別情報を取得する識別情報取得処理と、
前記対象作業部位の作業が完了したと判定された場合に、前記識別情報と前記対象作業部位の作業が完了したことを示す情報とを対応付けて記録する、結果記録処理と、をさらに実行させる、プログラム。
3. The program according to claim 1 or 2,
The computer includes:
an identification information acquisition process for acquiring identification information for identifying the user;
and a result recording process for recording, when it is determined that the work on the target work area has been completed, the identification information in association with information indicating that the work on the target work area has been completed.
請求項3に記載のプログラムであって、
前記結果記録処理は、全ての前記対象作業部位の作業が完了した場合に、
前記識別情報と前記ユーザによる作業が完了したことを示す情報とを対応付けて記録する、プログラム。
The program according to claim 3,
The result recording process is performed when the work of all the target work parts is completed.
A program that records the identification information in association with information indicating that the work by the user has been completed.
請求項1又は2に記載のプログラムであって、
前記コンピュータに、
前記対象作業部位を示す指示画面を前記ユーザに表示するための指示画面情報を生成する、画面情報生成処理、をさらに実行させる、プログラム。
3. The program according to claim 1 or 2,
The computer includes:
The program further executes a screen information generating process for generating instruction screen information for displaying an instruction screen indicating the target work area to the user.
請求項5に記載のプログラムであって、
前記画面情報生成処理は、撮影された前記ユーザの画像を含む前記指示画面情報を生成する、プログラム。
The program according to claim 5,
The screen information generating process generates the instruction screen information including a captured image of the user.
請求項5に記載のプログラムであって、
前記画面情報生成処理は、前記基準作業時間及び前記作業実施時間に基づいて、前記対象作業部位の作業の進捗を示す進捗情報を含む前記指示画面情報を生成する、プログラム。
The program according to claim 5,
The screen information generation process generates the instruction screen information including progress information indicating the progress of work at the target work portion based on the reference work time and the work execution time.
請求項5に記載のプログラムであって、
前記少なくとも1つの作業部位は、第1作業部位及び前記第1作業部位の次に作業が行われる第2作業部位を含み、
前記画面情報生成処理は、前記第1作業部位を前記対象作業部位として示す前記指示画面を、前記ユーザに表示するための情報を生成し、前記完了判定処理において前記実行部位としての前記第1作業部位の作業が完了したと判定されると、前記第2作業部位を前記対象作業部位として示す前記指示画面情報を生成する、プログラム。
The program according to claim 5,
the at least one working position includes a first working position and a second working position on which work is performed subsequent to the first working position;
The screen information generation process generates information for displaying the instruction screen to the user, the instruction screen indicating the first work area as the target work area, and when it is determined in the completion determination process that the work of the first work area as the execution area has been completed, generates the instruction screen information indicating the second work area as the target work area.
コンピュータが、
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得することと、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出することと、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出することと、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出することと、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定することと、を実行する、方法。
The computer
acquiring a plurality of images taken at a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site, and a work tool held by the user;
detecting a position of the work tool in each of the plurality of images based on the images;
Detecting an execution part, which is a work part where the user is working using the work tool, among the at least one work part based on each of the plurality of images;
Calculating a task execution time, which is a time during which the user performed a task on the task part, based on the target task part, the position, and the task part;
referencing a standard work time associated with each of the work portions, and determining that the work of the work portion has been completed if the work execution time satisfies a condition based on the standard work time.
複数のタイミングのそれぞれにおいて撮影され、少なくとも1つの作業部位のうちの対象作業部位の作業を指示されるユーザ及び前記ユーザが把持する作業道具が含まれる複数の画像を取得する画像取得部と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記位置、及び前記実行部位に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、を備える、作業管理装置。
an image acquisition unit that acquires a plurality of images captured at a plurality of timings, the images including a user who is instructed to perform a task at a target work site among at least one work site and a work tool held by the user;
a position detection unit that detects a position of the work tool in each of the plurality of images based on the images;
a work part detection unit that detects, from among the at least one work part, a work part that is a work part being performed by the user using the work tool, based on each of the plurality of images;
an execution time calculation unit that calculates an execution time, which is a time during which the user performs an operation on the execution part, based on the target work part, the position, and the execution part;
A work management device comprising: a completion determination unit that refers to a standard work time associated with each of the work parts, and determines that the work of the execution part is completed if the work execution time satisfies a condition based on the standard work time.
少なくとも1つの作業部位のうちユーザが作業すべき対象作業部位を前記ユーザに示す指示画面が表示される表示部と、
前記ユーザ及び前記ユーザが把持する作業道具が含まれ、複数のタイミングのそれぞれにおいて撮影された複数の画像を撮影する撮像部と、
作業管理装置であって、
前記複数の画像を前記撮像部から取得する画像取得部と、
前記複数の画像のそれぞれに基づいて、前記画像における前記作業道具の位置を検出する位置検出部と、
前記複数の画像のそれぞれに基づいて、前記少なくとも1つの作業部位のうち、前記ユーザが前記作業道具を用いて作業中の作業部位である実行部位を検出する、実行部位検出部と、
前記対象作業部位、前記実行部位、及び前記位置に基づいて、前記ユーザが前記実行部位の作業を行った時間である作業実施時間を算出する実施時間算出部と、
前記作業部位のそれぞれに関連付けられる基準作業時間を参照し、前記作業実施時間が、前記基準作業時間に基づく条件を満たす場合に、前記実行部位の作業が完了したと判定する、完了判定部と、
前記ユーザが作業すべき対象作業部位を示す指示画面を、前記ユーザに表示するための情報を生成する、画面情報生成部と、を備える、作業管理装置と、
を備える作業管理システム。
a display unit that displays an instruction screen that indicates to a user a target work area on which the user is to work among at least one work area;
An imaging unit that includes the user and a work tool held by the user, and captures a plurality of images captured at a plurality of timings;
A work management device,
an image acquisition unit that acquires the plurality of images from the imaging unit;
a position detection unit that detects a position of the work tool in each of the plurality of images based on the images;
a work part detection unit that detects, from among the at least one work part, a work part that is a work part being performed by the user using the work tool, based on each of the plurality of images;
an execution time calculation unit that calculates an execution time, which is a time during which the user performs an operation on the execution part, based on the target work part, the execution part, and the position;
a completion determination unit that refers to a standard work time associated with each of the work parts, and determines that the work of the work parts is completed when the work execution time satisfies a condition based on the standard work time;
a screen information generating unit that generates information for displaying to the user an instruction screen that indicates a target work area on which the user is to work; and
A work management system comprising:
JP2022153707A 2022-09-27 2022-09-27 Program, method, work management device, and work management system Active JP7271777B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022153707A JP7271777B1 (en) 2022-09-27 2022-09-27 Program, method, work management device, and work management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022153707A JP7271777B1 (en) 2022-09-27 2022-09-27 Program, method, work management device, and work management system

Publications (2)

Publication Number Publication Date
JP7271777B1 JP7271777B1 (en) 2023-05-11
JP2024047930A true JP2024047930A (en) 2024-04-08

Family

ID=86382675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022153707A Active JP7271777B1 (en) 2022-09-27 2022-09-27 Program, method, work management device, and work management system

Country Status (1)

Country Link
JP (1) JP7271777B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005464A (en) * 2016-06-30 2018-01-11 アース環境サービス株式会社 Cleanness management system of clean room visitor and management system
JP2021125183A (en) * 2020-02-10 2021-08-30 オムロン株式会社 Workload analysis apparatus, workload analysis method, and program
JP2021152758A (en) * 2020-03-24 2021-09-30 大日本印刷株式会社 Information processing system, information processing device and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005464A (en) * 2016-06-30 2018-01-11 アース環境サービス株式会社 Cleanness management system of clean room visitor and management system
JP2021125183A (en) * 2020-02-10 2021-08-30 オムロン株式会社 Workload analysis apparatus, workload analysis method, and program
JP2021152758A (en) * 2020-03-24 2021-09-30 大日本印刷株式会社 Information processing system, information processing device and information processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Human Sensing AI 食品製造・外食向けパッケージ 衛生管理チェック−コロコロ−", [ONLINE], JPN6023001284, 2021, ISSN: 0004963955 *

Also Published As

Publication number Publication date
JP7271777B1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
Malý et al. Augmented reality experiments with industrial robot in industry 4.0 environment
CN102473068B (en) Information processing device, information processing method, and program
JP6270488B2 (en) Operator monitoring control device and operator monitoring control method
CN113752264A (en) Mechanical arm intelligent equipment control method and system based on digital twins
JP2020149155A (en) Work instruction system and method
Skripcak et al. Toward nonconventional human–machine interfaces for supervisory plant process monitoring
JPWO2018189845A1 (en) Work management system and work management method
CN107223245A (en) A kind of data display processing method and device
Arjun et al. Interactive sensor dashboard for smart manufacturing
US20220036649A1 (en) Offline teaching device, measurement control device, and program
JP2020098409A (en) Image processing apparatus, image processing method, and image processing program
Pavlov et al. Case study of using virtual and augmented reality in industrial system monitoring
JP7432852B2 (en) Layout design device, layout design method and program
JP7271777B1 (en) Program, method, work management device, and work management system
JP6803431B2 (en) Programs, information processing devices and information processing methods
KR20210072463A (en) Method of human-machine interaction, and device for the same
CN103425825A (en) 3D supermarket displaying method based on CAD graphic design drawing
JP4915522B2 (en) Graphic processing device
JP6818795B2 (en) Information processing equipment, information processing methods and computer programs
JP7166106B2 (en) Installation environment estimation device and program
JP7043996B2 (en) Equipment configuration management equipment, systems, and programs
JP2018150170A (en) Information processing system, information processing method and program
JP2020086697A (en) Work skill support device, and work skill support system
JP6643806B2 (en) Program, information processing apparatus and information processing method
JP6931511B1 (en) Programs, information processing devices and information processing methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221006

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150