JP2024033364A - Worker support system - Google Patents

Worker support system Download PDF

Info

Publication number
JP2024033364A
JP2024033364A JP2022136901A JP2022136901A JP2024033364A JP 2024033364 A JP2024033364 A JP 2024033364A JP 2022136901 A JP2022136901 A JP 2022136901A JP 2022136901 A JP2022136901 A JP 2022136901A JP 2024033364 A JP2024033364 A JP 2024033364A
Authority
JP
Japan
Prior art keywords
worker
work
standard
motion data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022136901A
Other languages
Japanese (ja)
Inventor
大輔 土田
英明 武坂
憲治 尾嶋
聖春 落合
誠大 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022136901A priority Critical patent/JP2024033364A/en
Publication of JP2024033364A publication Critical patent/JP2024033364A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】技能が未熟な作業者の指導に活用できる作業者支援システムを提供する。【解決手段】作業者支援システムは、スーツを着用した作業者を動画により撮影するカメラと、ゴーグルと、制御装置と、を備え、制御装置は、標準動作データと、過去動作データと、を記憶する記憶部と、カメラにより撮影された撮影データを用いて、支援の対象とする作業者の動作を示す対象動作データを取得する取得部と、標準動作データと対象動作データとを比較して、標準動作データよりも作業時間に遅れが生じる原因となる動作を抽出する抽出部と、過去動作データを用いて、支援の対象とする作業の全工程が完了するまでに要する所要時間を予測する予測部と、予測した所要時間が、標準動作データにおいて作業の全工程が完了するまでに要する標準所要時間を超える場合に、抽出した原因となる動作をゴーグルに表示させる表示制御部と、を有する。【選択図】図2[Problem] To provide a worker support system that can be used to train workers with inexperienced skills. [Solution] The worker support system includes a camera that takes videos of a worker wearing a suit, goggles, and a control device, and the control device has a storage unit that stores standard motion data and past motion data, an acquisition unit that uses the captured data taken by the camera to acquire target motion data indicating the motions of the worker to be supported, an extraction unit that compares the standard motion data with the target motion data to extract motions that cause delays in task time compared to the standard motion data, a prediction unit that uses the past motion data to predict the time required to complete all steps of the task to be supported, and a display control unit that displays the extracted causative motion on the goggles when the predicted time exceeds the standard time required to complete all steps of the task in the standard motion data. [Selected Figure] Figure 2

Description

本開示は、作業者支援システムに関する。 The present disclosure relates to a worker support system.

従来、部品組立作業支援システムにおいて、複合現実感技術を用いて、第2部品の実物形状を示す仮想画像を第1部品の現実画像に重畳した合成画像を、作業者の頭部に装着されたヘッド・マウント・ディスプレイに表示させる技術が知られている(特許文献1)。 Conventionally, in parts assembly work support systems, mixed reality technology is used to create a composite image in which a virtual image showing the actual shape of the second part is superimposed on the real image of the first part, which is attached to the head of the worker. A technique for displaying information on a head mounted display is known (Patent Document 1).

特開2014-229057号公報Japanese Patent Application Publication No. 2014-229057

従来の技術では、作業者の動作の問題点がヘッド・マウント・ディスプレイに表示されない。そのため、作業者に対して、動作の問題点を作業中に通知することができず、技能が未熟な作業者への指導には活用できない場合があった。 With conventional techniques, problems in the worker's movements are not displayed on the head mounted display. Therefore, it is not possible to notify the operator of operational problems during the work, and there are cases where the system cannot be used to instruct workers with less skill.

本開示は、以下の形態として実現することが可能である。 The present disclosure can be realized as the following forms.

本開示の一形態によれば、作業者支援システムが提供される。作業者支援システムは、作業者の動作を取得可能とするスーツを着用した前記作業者を、支援の対象とする作業の全工程に亘って動画により撮影するカメラと、前記作業者が身に着けるゴーグルと、制御装置と、を備え、前記制御装置は、前記作業を標準的に実行する熟練者の動作を示す標準動作データと、前記作業者が過去に前記作業を実行したときの前記作業者の動作を示す過去動作データと、を記憶する記憶部と、前記カメラにより撮影された撮影データを用いて、前記支援の対象とする前記作業者の動作を示す対象動作データを取得する取得部と、前記標準動作データと前記対象動作データとを比較して、前記標準動作データよりも作業時間に遅れが生じる原因を抽出する抽出部と、前記過去動作データを用いて、前記支援の対象とする前記作業の前記全工程が完了するまでに要する所要時間を予測する予測部と、予測した前記所要時間が、前記標準動作データにおいて前記作業の前記全工程が完了するまでに要する標準所要時間を超える場合に、抽出した前記原因となる動作を前記ゴーグルに表示させる表示制御部と、を有する。この形態によれば、作業者の動作が熟練者の標準的な動作に対して遅れている場合に、作業者に対して、遅れが生じる原因を作業中に通知することができる。これにより、作業者は、作業中に自身の動作の問題点を把握して改善することができる。よって、技能が未熟な作業者への指導に活用することができる。
本開示は、上記の作業者支援システム以外の種々の形態で実現することが可能である。例えば、作業者支援システムの製造方法、作業者支援システムの制御方法、その制御方法を実現するコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。また、例えば、取得部は、予め記憶部に記憶させた機械学習モデルに撮影データを入力して、対象動作データを取得してもよい。
According to one form of the present disclosure, a worker support system is provided. The worker support system includes a camera that takes video of the worker wearing a suit that allows the worker's movements to be captured throughout the entire process of the work to be supported, and a camera worn by the worker. goggles and a control device, the control device includes standard movement data indicating the movement of an expert who performs the work in a standard manner, and information about the work performed by the worker when the worker performed the work in the past. past motion data indicating the motion of the worker who is the target of the support; , an extraction unit that compares the standard motion data with the target motion data and extracts the cause of a delay in work time compared to the standard motion data; and a target of the support using the past motion data. a prediction unit that predicts the time required to complete the all steps of the work; and the predicted time exceeds the standard time required to complete the all steps of the work according to the standard operation data. and a display control unit that causes the goggles to display the extracted causative action. According to this embodiment, when the worker's movements are behind the standard movements of an expert, the cause of the delay can be notified to the worker during the work. This allows the worker to understand and improve problems in his or her own movements during work. Therefore, it can be used to instruct workers with unskilled skills.
The present disclosure can be realized in various forms other than the worker support system described above. For example, it can be realized in the form of a method of manufacturing a worker support system, a method of controlling a worker support system, a computer program for realizing the control method, a non-temporary recording medium on which the computer program is recorded, or the like. Further, for example, the acquisition unit may acquire the target motion data by inputting the imaging data into a machine learning model stored in the storage unit in advance.

作業者支援システムの概略構成を示す図。FIG. 1 is a diagram showing a schematic configuration of a worker support system. 作業者支援方法を示すフローチャート。Flowchart showing a worker support method.

A.実施形態:
図1は、作業者支援システム1の概略構成を示す図である。作業者支援システム1は、作業を標準的に実行する熟練者に代わり、技能が未熟な作業者等の指導をするためのシステムである。具体的には、作業者支援システム1は、モーションキャプチャ技術により作業者Pの動作(全身の動き)を取得した後に、拡張現実(AR:Augmented Reality)技術により作業者Pの動作の問題点を作業者Pに対して作業中に通知する。作業者支援システム1は、作業者Pが着用するスーツ8と、スーツ8を着用した作業者Pを撮影するカメラ61~64と、作業者Pが頭部に装着するゴーグル7と、作業者支援システム1の各構成要素を制御する制御装置10とを備える。本実施形態では、光学式のモーションキャプチャシステムを備えた作業者支援システム1を例に挙げて説明する。
A. Embodiment:
FIG. 1 is a diagram showing a schematic configuration of a worker support system 1. As shown in FIG. The worker support system 1 is a system for instructing unskilled workers in place of skilled workers who carry out tasks in a standard manner. Specifically, the worker support system 1 acquires the movement (whole body movement) of the worker P using motion capture technology, and then uses augmented reality (AR) technology to identify problems in the worker P's movement. Notify worker P during work. The worker support system 1 includes a suit 8 worn by the worker P, cameras 61 to 64 that take pictures of the worker P wearing the suit 8, goggles 7 worn on the head of the worker P, and worker support systems. A control device 10 that controls each component of the system 1 is provided. In this embodiment, a worker support system 1 including an optical motion capture system will be described as an example.

スーツ8は、カメラ61~64により作業者Pを撮影した場合に、作業者Pの動作を取得可能にするモーションキャプチャスーツである。スーツ8は、例えば、スーツ8を着用した作業者Pの身体の各部位(肩、肘、膝、手首、足首等)の3次元的な位置を検出するための複数のマーカー部材80を有する。本実施形態では、マーカー部材80は、照射された赤外線Iを反射する再帰性反射材である。 The suit 8 is a motion capture suit that allows the movement of the worker P to be captured when the worker P is photographed by the cameras 61 to 64. The suit 8 includes, for example, a plurality of marker members 80 for detecting the three-dimensional position of each body part (shoulders, elbows, knees, wrists, ankles, etc.) of the worker P wearing the suit 8. In this embodiment, the marker member 80 is a retroreflector that reflects the irradiated infrared rays I.

カメラ61~64は、スーツ8を着用した作業者Pを、支援の対象とする全作業工程に亘って動画により撮影する。本実施形態では、カメラ61~64は、撮影中において、作業者Pに向けて赤外線Iを照射する。そして、カメラ61~64は、マーカー部材80によって反射した赤外光を捉えて、赤外光による映像(以下、撮影データ40)を取得する。なお、カメラ61~64の台数はこれに限られるものではなく、作業者Pの身体の各部位の検出精度を高めるために、作業者Pを囲むようにして複数台設けられることが好ましい。また、作業者Pの手元などが作業者P自身の死角に入らないようにするために、複数のカメラ61~64はそれぞれ異なる複数の方向および角度(アングル)から作業者Pを撮影できる位置に配置されることが好ましい。 The cameras 61 to 64 take videos of the worker P wearing the suit 8 throughout the entire work process to be supported. In this embodiment, the cameras 61 to 64 emit infrared rays I toward the worker P during photographing. Then, the cameras 61 to 64 capture the infrared light reflected by the marker member 80 and obtain an image using the infrared light (hereinafter, photographed data 40). Note that the number of cameras 61 to 64 is not limited to this, and it is preferable that a plurality of cameras be provided surrounding the worker P in order to improve the detection accuracy of each part of the worker P's body. In addition, in order to prevent the worker P's hands from entering the worker P's own blind spot, the plurality of cameras 61 to 64 are positioned so that they can photograph the worker P from a plurality of different directions and angles. It is preferable that the

ゴーグル7は、作業者Pに対して、作業者Pの動作の問題点を示す情報(以下、作業者支援情報)を視認させる頭部装着型表示装置(HMD:ヘッド・マウント・ディスプレイ)である。ゴーグル7は、作業者支援情報を現実世界に重畳した拡張現実を表示する表示部70を有する。 The goggles 7 are head-mounted display devices (HMDs) that allow the worker P to visually see information indicating problems in the worker P's movements (hereinafter referred to as worker support information). . The goggles 7 have a display section 70 that displays augmented reality in which worker support information is superimposed on the real world.

制御装置10は、作業者支援システム1の各構成要素を制御する。制御装置10は、通信部3と、記憶部4と、CPU2とを備える。制御装置10は、通信部3を介して、カメラ61~64およびゴーグル7と通信可能に接続されている。記憶部4は、作業者支援システム1の動作を制御する各種プログラムと、撮影データ40と、標準動作データ41と、対象動作データ45と、過去動作データ43と、を含む各種データを記憶する。標準動作データ41は、作業を標準的に実行する熟練者が標準的な作業時間通りに各作業工程を実行したときの動作を示すデータである。以下において、各作業工程における標準的な作業時間を「標準作業時間」と呼ぶ。また、標準作業時間により全作業工程を実行した場合において、全作業工程が完了するまでに要する所要時間を「標準所要時間」と呼ぶ。標準所要時間は、例えば、理想的なタクトタイムである。対象動作データ45は、支援の対象とする作業者Pが作業を開始した時点から現時点までの間における作業者Pの動作を示すデータである。以下において、対象動作データ45に含まれる作業工程ごとの作業時間を「現作業時間」と呼ぶ。過去動作データ43は、対象動作データ45における作業者Pと同一の作業者Pが過去に作業を実行したときの動作を示すデータである。以下において、過去動作データ43に含まれる作業工程ごとの作業時間を「過去作業時間」と呼ぶ。また、過去作業時間により全作業工程を実行した場合において、全作業工程が完了するまでに要する所要時間を「過去所要時間」と呼ぶ。 The control device 10 controls each component of the worker support system 1. The control device 10 includes a communication section 3, a storage section 4, and a CPU 2. The control device 10 is communicably connected to the cameras 61 to 64 and goggles 7 via the communication unit 3. The storage unit 4 stores various data including various programs that control the operation of the worker support system 1, photographic data 40, standard operation data 41, target operation data 45, and past operation data 43. The standard operation data 41 is data indicating the operation when a skilled person who performs the work in a standard manner executes each work process according to the standard work time. Hereinafter, the standard working time in each work process will be referred to as "standard working time." Furthermore, when all the work steps are executed using the standard work time, the time required to complete all the work steps is referred to as the "standard required time." The standard required time is, for example, an ideal takt time. The target motion data 45 is data indicating the motion of the worker P who is the target of support from the time when the worker P starts work to the present time. In the following, the work time for each work process included in the target action data 45 will be referred to as "current work time." The past motion data 43 is data indicating motions when the same worker P as the worker P in the target motion data 45 performed a task in the past. In the following, the working time for each working process included in the past working data 43 will be referred to as "past working time." Furthermore, when all the work steps are executed using the past work time, the time required to complete all the work steps is referred to as the "past required time."

CPU2は、記憶部4に記憶された各種プログラムを展開することで、取得部21と、抽出部23と、予測部25と、表示制御部27として機能する。各機能の詳細は後述する。 The CPU 2 functions as an acquisition section 21, an extraction section 23, a prediction section 25, and a display control section 27 by developing various programs stored in the storage section 4. Details of each function will be described later.

図2は、作業者支援方法を示すフローチャートである。作業者支援方法では、取得工程(ステップS1)と、抽出工程(ステップS3)と、予測工程(ステップS5)と、表示制御工程(ステップS7)とが、この順に実行される。 FIG. 2 is a flowchart showing the worker support method. In the worker support method, an acquisition step (step S1), an extraction step (step S3), a prediction step (step S5), and a display control step (step S7) are executed in this order.

取得工程(ステップS1)は、対象動作データ45を取得する工程である。まず、ステップS11において、作業者支援システム1は、カメラ61~64により、スーツ8を着用して作業をしている作業者Pを撮影して撮影データ40を取得する。撮影データ40は、適宜記憶部4に記憶される。次に、ステップS13において、取得部21は、撮影データ40を用いて、各マーカー部材80の3次元的な位置を示す3次元位置情報を取得する。具体的には、取得部21は、各カメラ61~64の撮影データ40に含まれるマーカー部材80を2値化処理等によって検出して、マーカー部材80の2次元的な位置を示す2次元位置情報を取得する。さらに、取得部21は、例えば、各カメラ61~64により取得した同一のマーカー部材80に対する2次元位置情報と、各カメラ61~64の位置関係を示すカメラ位置情報と、を組み合わせることで、各マーカー部材80の3次元位置情報をそれぞれ取得する。次に、ステップS15において、取得部21は、例えば、複数のマーカー部材80の3次元位置情報を、同一のマーカー部材80ごとに時系列順で並べることにより、対象動作データ45を取得する。なお、標準動作データ41および過去動作データ43についても、同様の方法により取得され、記憶部4に予め記憶されてもよい。 The acquisition step (step S1) is a step of acquiring target motion data 45. First, in step S11, the worker support system 1 uses the cameras 61 to 64 to photograph the worker P wearing the suit 8 while working, and obtains photographic data 40. The photographic data 40 is stored in the storage unit 4 as appropriate. Next, in step S13, the acquisition unit 21 uses the photographic data 40 to acquire three-dimensional position information indicating the three-dimensional position of each marker member 80. Specifically, the acquisition unit 21 detects the marker member 80 included in the photographed data 40 of each camera 61 to 64 through binarization processing or the like, and obtains a two-dimensional position indicating the two-dimensional position of the marker member 80. Get information. Further, the acquisition unit 21 can obtain each of the markers by combining, for example, two-dimensional position information for the same marker member 80 acquired by each camera 61 to 64 and camera position information indicating the positional relationship of each camera 61 to 64. Three-dimensional position information of each marker member 80 is acquired. Next, in step S15, the acquisition unit 21 acquires the target motion data 45, for example, by arranging the three-dimensional position information of the plurality of marker members 80 in chronological order for each of the same marker members 80. Note that the standard operation data 41 and past operation data 43 may also be acquired by a similar method and stored in the storage unit 4 in advance.

抽出工程(ステップS3)は、過去動作データ43に含まれる作業者Pの動作のうち、標準動作データ41よりも作業時間に遅れが生じる原因となる動作(以下、原因動作)を抽出する工程である。まず、ステップS31において、抽出部23は、標準動作データ41と過去動作データ43とを比較する。具体的には、抽出部23は、例えば、標準動作データ41から導き出される標準作業時間と、過去動作データ43から導き出される過去作業時間と、を作業工程ごとに比較する。次に、ステップS33において、抽出部23は、標準作業時間と過去作業時間との差分(遅れ時間)を作業工程ごとに算出する。次に、ステップS35において、抽出部23は、標準作業時間よりも過去作業時間の方が長くなっている作業工程を抽出し、抽出した作業工程に含まれる動作を原因動作として、表示制御部27に出力する。 The extraction step (step S3) is a step of extracting, from among the actions of the worker P included in the past action data 43, actions that cause a delay in work time compared to the standard action data 41 (hereinafter referred to as the "cause action"). be. First, in step S31, the extraction unit 23 compares the standard motion data 41 and past motion data 43. Specifically, the extraction unit 23 compares, for example, the standard work time derived from the standard operation data 41 and the past work time derived from the past operation data 43 for each work process. Next, in step S33, the extraction unit 23 calculates the difference (delay time) between the standard work time and the past work time for each work process. Next, in step S35, the extraction unit 23 extracts a work process whose past work time is longer than the standard work time, and sets the operation included in the extracted work process as the cause operation to the display control unit 27. Output to.

予測工程(ステップS5)は、作業者Pが現在の進度(現作業時間)により作業を続行した場合に、全作業工程が完了するまでに要する時間(以下、予測所要時間)を予測する工程である。まず、ステップS51において、予測部25は、対象動作データ45と過去動作データ43とを比較する。次に、ステップS53において、予測部25は、予測所要時間を算出するための予備データを取得する。予備データは、例えば、過去作業時間と現作業時間との作業工程ごとの時間差、全作業工程に対する現時点までの作業の進捗に関するデータである。次に、ステップS55において、予測部25は、予備データを基に予測所要時間を予測して、表示制御部27に出力する。 The prediction process (step S5) is a process of predicting the time required to complete all work processes (hereinafter referred to as the predicted required time) when the worker P continues the work at the current progress (current work time). be. First, in step S51, the prediction unit 25 compares the target motion data 45 and the past motion data 43. Next, in step S53, the prediction unit 25 acquires preliminary data for calculating the predicted required time. The preliminary data is, for example, data regarding the time difference for each work process between the past work time and the current work time, and the progress of work up to the present time for all work processes. Next, in step S55, the prediction unit 25 predicts the estimated required time based on the preliminary data and outputs it to the display control unit 27.

表示制御工程(ステップS7)は、予測した予測所要時間が標準所要時間を超える場合に、作業者支援情報をゴーグル7の表示部70に表示させる工程である。まず、ステップS71において、表示制御部27は、予測所要時間が標準所要時間を超えているか否かを判定する。予測所要時間が標準所要時間を超えている場合(ステップS71:Yes)に、表示制御部27は、ステップS73において、ゴーグル7の表示部70に作業者支援情報を表示させる。作業者支援情報は、例えば、抽出工程(ステップS3)において抽出した原因動作、予測所要時間と標準所要時間との差分、現時点における標準作業時間に対する遅れ時間である。表示制御部27は、例えば、原因動作を含む作業工程を熟練者が実行した場合における静止画像や動画像を現実世界に重畳した拡張現実をゴーグル7の表示部70に表示させる。これにより、表示制御部27は、作業者Pの動作と熟練者の動作との差異を強調した状態で作業中の作業者Pに通知する。これに対して、予測所要時間が標準所要時間以内である場合(ステップS71:No)に、表示制御部27は、ステップS75において、ゴーグル7の表示部70に作業者支援情報を表示させない。 The display control step (step S7) is a step in which worker support information is displayed on the display section 70 of the goggles 7 when the predicted required time exceeds the standard required time. First, in step S71, the display control unit 27 determines whether the predicted required time exceeds the standard required time. If the predicted required time exceeds the standard required time (step S71: Yes), the display control unit 27 causes the display unit 70 of the goggles 7 to display the worker support information in step S73. The worker support information is, for example, the causative action extracted in the extraction process (step S3), the difference between the predicted required time and the standard required time, and the delay time with respect to the current standard working time. The display control unit 27 causes the display unit 70 of the goggles 7 to display, for example, augmented reality in which a still image or a moving image is superimposed on the real world when a work process including the causative action is executed by an expert. Thereby, the display control unit 27 notifies the worker P who is working in a state that emphasizes the difference between the worker P's motion and the expert's motion. On the other hand, if the predicted required time is within the standard required time (step S71: No), the display control unit 27 does not display the worker support information on the display unit 70 of the goggles 7 in step S75.

ステップS73とステップS75とのいずれかを実行した後に、表示制御部27は、ステップS77において、支援の対象とする全作業工程が完了したか否かを判定する。全作業工程が完了していないと判定した場合(ステップS77:No)に、表示制御部27は、ステップS11に戻り、ステップS11~ステップS77までの各工程を繰り返し実行する。これに対して、全作業工程が完了していると判定した場合(ステップS77:Yes)に、表示制御部27は、本実施形態における作業者支援方法を終了する。 After executing either step S73 or step S75, the display control unit 27 determines in step S77 whether all the work steps targeted for support have been completed. If it is determined that all the work steps have not been completed (step S77: No), the display control unit 27 returns to step S11 and repeatedly executes each step from step S11 to step S77. On the other hand, if it is determined that all the work steps have been completed (step S77: Yes), the display control unit 27 ends the worker support method in this embodiment.

上記実施形態によれば、作業者支援システム1は、作業者Pの動作が熟練者の標準的な動作に対して遅れている場合に、作業者Pに対して、作業中に、原因動作等の作業者支援情報を通知することができる。換言すると、作業者支援システム1は、作業中の作業者Pの作業を中断させることなく、作業者Pに対して、適時に原因動作等の作業者支援情報を通知することができる。そのため、作業者Pは、作業中に自身の動作の問題点を把握することができる。これにより、作業者Pは、原因動作をタイムリーに改善することができる。 According to the embodiment described above, when the worker P's motion is delayed compared to the standard motion of an expert, the worker support system 1 provides the worker P with the cause motion, etc. during the work. can be notified of worker support information. In other words, the worker support system 1 can notify the worker P of worker support information such as the causative action in a timely manner without interrupting the work of the worker P who is working. Therefore, the worker P can grasp problems in his/her own movement while working. Thereby, the worker P can timely improve the causative action.

また、上記実施形態によれば、熟練者が、作業中の作業者Pを撮影した動画像を作業完了後に確認したり、作業中の作業者Pを直接に観察したりして、作業者Pの動作の問題点を抽出し、作業者Pにフィードバックする指導を行うことなく、作業者Pを指導できる。これにより、作業者Pを指導する熟練者の負荷を軽減することができる。 Further, according to the embodiment described above, the skilled worker can check the moving image taken of the worker P during the work after the work is completed, or directly observe the worker P during the work, and It is possible to instruct the worker P without extracting problems in the operation and providing feedback to the worker P. Thereby, the burden on the expert who instructs the worker P can be reduced.

B.他の実施形態:
B-1.他の実施形態1:
上記実施形態では、図1に示すように、作業者支援システム1は、光学式のモーションキャプチャシステムによって作業者Pの動作を取得していたが、これに限られるものではない。作業者支援システム1は、例えば、予め記憶部4に記憶させた機械学習モデルに、撮影データ40を入力して、機械学習により作業者Pの身体の各部位や姿勢を特定することで、作業者Pの動作を取得してもよい。
B. Other embodiments:
B-1. Other embodiment 1:
In the above embodiment, as shown in FIG. 1, the worker support system 1 acquires the motion of the worker P using an optical motion capture system, but the present invention is not limited to this. The worker support system 1, for example, inputs the photographic data 40 into a machine learning model stored in advance in the storage unit 4, and specifies each part and posture of the worker P's body by machine learning. The user P's actions may also be acquired.

B-2.他の実施形態2:
上記実施形態では、図2に示すように、作業者Pが全作業工程を完了した場合に、作業者支援方法を終了していたが、これに限られるものではない。例えば、作業者Pが全作業工程を完了した後に、同一の作業工程を繰り返し実行する場合、全作業工程を完了した後でも(ステップS77:Yes)、ステップS11に戻り、ステップS11~ステップS77までの各工程を繰り返し実行してもよい。このとき、例えば、作業中の生産ラインの停止により異常処置を行った場合等における撮影データ40は、記憶部4に記憶しないことが好ましい。これにより、作業者支援情報の精度が低下することを抑制できる。
B-2. Other embodiment 2:
In the above embodiment, as shown in FIG. 2, the worker support method ends when the worker P completes all the work steps, but the present invention is not limited to this. For example, when worker P repeats the same work process after completing all the work processes, even after completing all the work processes (step S77: Yes), the process returns to step S11 and steps S11 to S77 are executed. You may perform each process repeatedly. At this time, it is preferable not to store the photographic data 40 in the storage unit 4, for example, when an abnormality treatment is performed due to the stoppage of the production line during work. Thereby, it is possible to suppress a decrease in the accuracy of the worker support information.

本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the embodiments described above, and can be implemented in various configurations without departing from the spirit thereof. For example, the technical features of the embodiments corresponding to the technical features in each form described in the summary column of the invention may be used to solve some or all of the above problems, or to achieve some of the above effects. Alternatively, in order to achieve all of the above, it is possible to perform appropriate replacements or combinations. Further, unless the technical feature is described as essential in this specification, it can be deleted as appropriate.

1…作業者支援システム、2…CPU、3…通信部、4…記憶部、7…ゴーグル、8…スーツ、10…制御装置、21…取得部、23…抽出部、25…予測部、27…表示制御部、40…撮影データ、41…標準動作データ、43…過去動作データ、45…対象動作データ、61~64…カメラ、70…表示部、80…マーカー部材、I…赤外線、P…作業者 DESCRIPTION OF SYMBOLS 1... Worker support system, 2... CPU, 3... Communication unit, 4... Storage unit, 7... Goggles, 8... Suit, 10... Control device, 21... Acquisition unit, 23... Extraction unit, 25... Prediction unit, 27 ...Display control unit, 40...Photography data, 41...Standard operation data, 43...Past operation data, 45...Target operation data, 61-64...Camera, 70...Display section, 80...Marker member, I...Infrared rays, P... worker

Claims (1)

作業者支援システムであって、
作業者の動作を取得可能とするスーツを着用した前記作業者を、支援の対象とする作業の全工程に亘って動画により撮影するカメラと、
前記作業者が身に着けるゴーグルと、
制御装置と、を備え、
前記制御装置は、
前記作業を標準的に実行する熟練者の動作を示す標準動作データと、前記作業者が過去に前記作業を実行したときの前記作業者の動作を示す過去動作データと、を記憶する記憶部と、
前記カメラにより撮影された撮影データを用いて、前記支援の対象とする前記作業者の動作を示す対象動作データを取得する取得部と、
前記標準動作データと前記対象動作データとを比較して、前記標準動作データよりも作業時間に遅れが生じる原因となる動作を抽出する抽出部と、
前記過去動作データを用いて、前記支援の対象とする前記作業の前記全工程が完了するまでに要する所要時間を予測する予測部と、
予測した前記所要時間が、前記標準動作データにおいて前記作業の前記全工程が完了するまでに要する標準所要時間を超える場合に、抽出した前記原因となる動作を前記ゴーグルに表示させる表示制御部と、を有する、作業者支援システム。
A worker support system,
a camera that takes video of the worker wearing a suit capable of capturing the worker's movements throughout the entire process of the work to be supported;
Goggles worn by the worker;
comprising a control device;
The control device includes:
a storage unit that stores standard motion data indicating the motions of an expert who performs the work in a standard manner; and past motion data indicating the motions of the worker when the worker executed the work in the past; ,
an acquisition unit that uses photographic data taken by the camera to acquire target motion data indicating the motion of the worker who is the target of the support;
an extraction unit that compares the standard motion data and the target motion data and extracts a motion that causes a delay in work time compared to the standard motion data;
a prediction unit that uses the past operation data to predict the time required to complete all the steps of the work targeted for support;
a display control unit that displays the extracted causative action on the goggles when the predicted required time exceeds the standard required time required to complete all steps of the work according to the standard action data; A worker support system with
JP2022136901A 2022-08-30 2022-08-30 Worker support system Pending JP2024033364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022136901A JP2024033364A (en) 2022-08-30 2022-08-30 Worker support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022136901A JP2024033364A (en) 2022-08-30 2022-08-30 Worker support system

Publications (1)

Publication Number Publication Date
JP2024033364A true JP2024033364A (en) 2024-03-13

Family

ID=90193344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022136901A Pending JP2024033364A (en) 2022-08-30 2022-08-30 Worker support system

Country Status (1)

Country Link
JP (1) JP2024033364A (en)

Similar Documents

Publication Publication Date Title
US10674142B2 (en) Optimized object scanning using sensor fusion
CA3016539C (en) Image processing method, display device, and inspection system
CN108986189B (en) Method and system for capturing and live broadcasting of real-time multi-person actions based on three-dimensional animation
Kasahara et al. Jackin head: Immersive visual telepresence system with omnidirectional wearable camera
US20170345183A1 (en) Robust Head Pose Estimation with a Depth Camera
US10755438B2 (en) Robust head pose estimation with a depth camera
US20160269631A1 (en) Image generation method, system, and apparatus
JP2017199379A (en) Tracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device
TWI759670B (en) Object tracking system and object tracking method
US20210166460A1 (en) Information processing apparatus and information processing method
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
CN106325511A (en) Virtual reality realizing system
JP6598191B2 (en) Image display system and image display method
JP2024033364A (en) Worker support system
JP2018063567A (en) Image processing device, image processing method and program
US20220070365A1 (en) Mixed reality image capture and smart inspection
US20150022559A1 (en) Method and apparatus for displaying images in portable terminal
CN104156138B (en) Filming control method and imaging control device
WO2021033400A1 (en) Information processing device, information processing method, and recording medium
JP2018056845A (en) Work support apparatus, system, method and program
EP3432204B1 (en) Telepresence framework for region of interest marking using headmount devices
KR102612512B1 (en) Apparatus and method for implementing motion skills in a motion capture system
JP2016062336A (en) Operation instruction system, operation instruction method, attached terminal, and operation instruction management server
WO2022205167A1 (en) Image processing method and apparatus, mobile platform, terminal device, and storage medium
JP7047176B1 (en) Terminal devices, information processing methods, information processing systems, and programs