JP2024033364A - Worker assisting system - Google Patents
Worker assisting system Download PDFInfo
- Publication number
- JP2024033364A JP2024033364A JP2022136901A JP2022136901A JP2024033364A JP 2024033364 A JP2024033364 A JP 2024033364A JP 2022136901 A JP2022136901 A JP 2022136901A JP 2022136901 A JP2022136901 A JP 2022136901A JP 2024033364 A JP2024033364 A JP 2024033364A
- Authority
- JP
- Japan
- Prior art keywords
- worker
- work
- standard
- operation data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000033001 locomotion Effects 0.000 claims description 52
- 238000000034 method Methods 0.000 claims description 31
- 239000000284 extract Substances 0.000 claims description 3
- 230000001934 delay Effects 0.000 abstract 1
- 239000003550 marker Substances 0.000 description 11
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000010626 work up procedure Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本開示は、作業者支援システムに関する。 The present disclosure relates to a worker support system.
従来、部品組立作業支援システムにおいて、複合現実感技術を用いて、第2部品の実物形状を示す仮想画像を第1部品の現実画像に重畳した合成画像を、作業者の頭部に装着されたヘッド・マウント・ディスプレイに表示させる技術が知られている(特許文献1)。 Conventionally, in parts assembly work support systems, mixed reality technology is used to create a composite image in which a virtual image showing the actual shape of the second part is superimposed on the real image of the first part, which is attached to the head of the worker. A technique for displaying information on a head mounted display is known (Patent Document 1).
従来の技術では、作業者の動作の問題点がヘッド・マウント・ディスプレイに表示されない。そのため、作業者に対して、動作の問題点を作業中に通知することができず、技能が未熟な作業者への指導には活用できない場合があった。 With conventional techniques, problems in the worker's movements are not displayed on the head mounted display. Therefore, it is not possible to notify the operator of operational problems during the work, and there are cases where the system cannot be used to instruct workers with less skill.
本開示は、以下の形態として実現することが可能である。 The present disclosure can be realized as the following forms.
本開示の一形態によれば、作業者支援システムが提供される。作業者支援システムは、作業者の動作を取得可能とするスーツを着用した前記作業者を、支援の対象とする作業の全工程に亘って動画により撮影するカメラと、前記作業者が身に着けるゴーグルと、制御装置と、を備え、前記制御装置は、前記作業を標準的に実行する熟練者の動作を示す標準動作データと、前記作業者が過去に前記作業を実行したときの前記作業者の動作を示す過去動作データと、を記憶する記憶部と、前記カメラにより撮影された撮影データを用いて、前記支援の対象とする前記作業者の動作を示す対象動作データを取得する取得部と、前記標準動作データと前記対象動作データとを比較して、前記標準動作データよりも作業時間に遅れが生じる原因を抽出する抽出部と、前記過去動作データを用いて、前記支援の対象とする前記作業の前記全工程が完了するまでに要する所要時間を予測する予測部と、予測した前記所要時間が、前記標準動作データにおいて前記作業の前記全工程が完了するまでに要する標準所要時間を超える場合に、抽出した前記原因となる動作を前記ゴーグルに表示させる表示制御部と、を有する。この形態によれば、作業者の動作が熟練者の標準的な動作に対して遅れている場合に、作業者に対して、遅れが生じる原因を作業中に通知することができる。これにより、作業者は、作業中に自身の動作の問題点を把握して改善することができる。よって、技能が未熟な作業者への指導に活用することができる。
本開示は、上記の作業者支援システム以外の種々の形態で実現することが可能である。例えば、作業者支援システムの製造方法、作業者支援システムの制御方法、その制御方法を実現するコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。また、例えば、取得部は、予め記憶部に記憶させた機械学習モデルに撮影データを入力して、対象動作データを取得してもよい。
According to one form of the present disclosure, a worker support system is provided. The worker support system includes a camera that takes video of the worker wearing a suit that allows the worker's movements to be captured throughout the entire process of the work to be supported, and a camera worn by the worker. goggles and a control device, the control device includes standard movement data indicating the movement of an expert who performs the work in a standard manner, and information about the work performed by the worker when the worker performed the work in the past. past motion data indicating the motion of the worker who is the target of the support; , an extraction unit that compares the standard motion data with the target motion data and extracts the cause of a delay in work time compared to the standard motion data; and a target of the support using the past motion data. a prediction unit that predicts the time required to complete the all steps of the work; and the predicted time exceeds the standard time required to complete the all steps of the work according to the standard operation data. and a display control unit that causes the goggles to display the extracted causative action. According to this embodiment, when the worker's movements are behind the standard movements of an expert, the cause of the delay can be notified to the worker during the work. This allows the worker to understand and improve problems in his or her own movements during work. Therefore, it can be used to instruct workers with unskilled skills.
The present disclosure can be realized in various forms other than the worker support system described above. For example, it can be realized in the form of a method of manufacturing a worker support system, a method of controlling a worker support system, a computer program for realizing the control method, a non-temporary recording medium on which the computer program is recorded, or the like. Further, for example, the acquisition unit may acquire the target motion data by inputting the imaging data into a machine learning model stored in the storage unit in advance.
A.実施形態:
図1は、作業者支援システム1の概略構成を示す図である。作業者支援システム1は、作業を標準的に実行する熟練者に代わり、技能が未熟な作業者等の指導をするためのシステムである。具体的には、作業者支援システム1は、モーションキャプチャ技術により作業者Pの動作(全身の動き)を取得した後に、拡張現実(AR:Augmented Reality)技術により作業者Pの動作の問題点を作業者Pに対して作業中に通知する。作業者支援システム1は、作業者Pが着用するスーツ8と、スーツ8を着用した作業者Pを撮影するカメラ61~64と、作業者Pが頭部に装着するゴーグル7と、作業者支援システム1の各構成要素を制御する制御装置10とを備える。本実施形態では、光学式のモーションキャプチャシステムを備えた作業者支援システム1を例に挙げて説明する。
A. Embodiment:
FIG. 1 is a diagram showing a schematic configuration of a worker support system 1. As shown in FIG. The worker support system 1 is a system for instructing unskilled workers in place of skilled workers who carry out tasks in a standard manner. Specifically, the worker support system 1 acquires the movement (whole body movement) of the worker P using motion capture technology, and then uses augmented reality (AR) technology to identify problems in the worker P's movement. Notify worker P during work. The worker support system 1 includes a suit 8 worn by the worker P,
スーツ8は、カメラ61~64により作業者Pを撮影した場合に、作業者Pの動作を取得可能にするモーションキャプチャスーツである。スーツ8は、例えば、スーツ8を着用した作業者Pの身体の各部位(肩、肘、膝、手首、足首等)の3次元的な位置を検出するための複数のマーカー部材80を有する。本実施形態では、マーカー部材80は、照射された赤外線Iを反射する再帰性反射材である。
The suit 8 is a motion capture suit that allows the movement of the worker P to be captured when the worker P is photographed by the
カメラ61~64は、スーツ8を着用した作業者Pを、支援の対象とする全作業工程に亘って動画により撮影する。本実施形態では、カメラ61~64は、撮影中において、作業者Pに向けて赤外線Iを照射する。そして、カメラ61~64は、マーカー部材80によって反射した赤外光を捉えて、赤外光による映像(以下、撮影データ40)を取得する。なお、カメラ61~64の台数はこれに限られるものではなく、作業者Pの身体の各部位の検出精度を高めるために、作業者Pを囲むようにして複数台設けられることが好ましい。また、作業者Pの手元などが作業者P自身の死角に入らないようにするために、複数のカメラ61~64はそれぞれ異なる複数の方向および角度(アングル)から作業者Pを撮影できる位置に配置されることが好ましい。
The
ゴーグル7は、作業者Pに対して、作業者Pの動作の問題点を示す情報(以下、作業者支援情報)を視認させる頭部装着型表示装置(HMD:ヘッド・マウント・ディスプレイ)である。ゴーグル7は、作業者支援情報を現実世界に重畳した拡張現実を表示する表示部70を有する。 The goggles 7 are head-mounted display devices (HMDs) that allow the worker P to visually see information indicating problems in the worker P's movements (hereinafter referred to as worker support information). . The goggles 7 have a display section 70 that displays augmented reality in which worker support information is superimposed on the real world.
制御装置10は、作業者支援システム1の各構成要素を制御する。制御装置10は、通信部3と、記憶部4と、CPU2とを備える。制御装置10は、通信部3を介して、カメラ61~64およびゴーグル7と通信可能に接続されている。記憶部4は、作業者支援システム1の動作を制御する各種プログラムと、撮影データ40と、標準動作データ41と、対象動作データ45と、過去動作データ43と、を含む各種データを記憶する。標準動作データ41は、作業を標準的に実行する熟練者が標準的な作業時間通りに各作業工程を実行したときの動作を示すデータである。以下において、各作業工程における標準的な作業時間を「標準作業時間」と呼ぶ。また、標準作業時間により全作業工程を実行した場合において、全作業工程が完了するまでに要する所要時間を「標準所要時間」と呼ぶ。標準所要時間は、例えば、理想的なタクトタイムである。対象動作データ45は、支援の対象とする作業者Pが作業を開始した時点から現時点までの間における作業者Pの動作を示すデータである。以下において、対象動作データ45に含まれる作業工程ごとの作業時間を「現作業時間」と呼ぶ。過去動作データ43は、対象動作データ45における作業者Pと同一の作業者Pが過去に作業を実行したときの動作を示すデータである。以下において、過去動作データ43に含まれる作業工程ごとの作業時間を「過去作業時間」と呼ぶ。また、過去作業時間により全作業工程を実行した場合において、全作業工程が完了するまでに要する所要時間を「過去所要時間」と呼ぶ。
The
CPU2は、記憶部4に記憶された各種プログラムを展開することで、取得部21と、抽出部23と、予測部25と、表示制御部27として機能する。各機能の詳細は後述する。
The
図2は、作業者支援方法を示すフローチャートである。作業者支援方法では、取得工程(ステップS1)と、抽出工程(ステップS3)と、予測工程(ステップS5)と、表示制御工程(ステップS7)とが、この順に実行される。 FIG. 2 is a flowchart showing the worker support method. In the worker support method, an acquisition step (step S1), an extraction step (step S3), a prediction step (step S5), and a display control step (step S7) are executed in this order.
取得工程(ステップS1)は、対象動作データ45を取得する工程である。まず、ステップS11において、作業者支援システム1は、カメラ61~64により、スーツ8を着用して作業をしている作業者Pを撮影して撮影データ40を取得する。撮影データ40は、適宜記憶部4に記憶される。次に、ステップS13において、取得部21は、撮影データ40を用いて、各マーカー部材80の3次元的な位置を示す3次元位置情報を取得する。具体的には、取得部21は、各カメラ61~64の撮影データ40に含まれるマーカー部材80を2値化処理等によって検出して、マーカー部材80の2次元的な位置を示す2次元位置情報を取得する。さらに、取得部21は、例えば、各カメラ61~64により取得した同一のマーカー部材80に対する2次元位置情報と、各カメラ61~64の位置関係を示すカメラ位置情報と、を組み合わせることで、各マーカー部材80の3次元位置情報をそれぞれ取得する。次に、ステップS15において、取得部21は、例えば、複数のマーカー部材80の3次元位置情報を、同一のマーカー部材80ごとに時系列順で並べることにより、対象動作データ45を取得する。なお、標準動作データ41および過去動作データ43についても、同様の方法により取得され、記憶部4に予め記憶されてもよい。
The acquisition step (step S1) is a step of acquiring
抽出工程(ステップS3)は、過去動作データ43に含まれる作業者Pの動作のうち、標準動作データ41よりも作業時間に遅れが生じる原因となる動作(以下、原因動作)を抽出する工程である。まず、ステップS31において、抽出部23は、標準動作データ41と過去動作データ43とを比較する。具体的には、抽出部23は、例えば、標準動作データ41から導き出される標準作業時間と、過去動作データ43から導き出される過去作業時間と、を作業工程ごとに比較する。次に、ステップS33において、抽出部23は、標準作業時間と過去作業時間との差分(遅れ時間)を作業工程ごとに算出する。次に、ステップS35において、抽出部23は、標準作業時間よりも過去作業時間の方が長くなっている作業工程を抽出し、抽出した作業工程に含まれる動作を原因動作として、表示制御部27に出力する。
The extraction step (step S3) is a step of extracting, from among the actions of the worker P included in the
予測工程(ステップS5)は、作業者Pが現在の進度(現作業時間)により作業を続行した場合に、全作業工程が完了するまでに要する時間(以下、予測所要時間)を予測する工程である。まず、ステップS51において、予測部25は、対象動作データ45と過去動作データ43とを比較する。次に、ステップS53において、予測部25は、予測所要時間を算出するための予備データを取得する。予備データは、例えば、過去作業時間と現作業時間との作業工程ごとの時間差、全作業工程に対する現時点までの作業の進捗に関するデータである。次に、ステップS55において、予測部25は、予備データを基に予測所要時間を予測して、表示制御部27に出力する。
The prediction process (step S5) is a process of predicting the time required to complete all work processes (hereinafter referred to as the predicted required time) when the worker P continues the work at the current progress (current work time). be. First, in step S51, the prediction unit 25 compares the
表示制御工程(ステップS7)は、予測した予測所要時間が標準所要時間を超える場合に、作業者支援情報をゴーグル7の表示部70に表示させる工程である。まず、ステップS71において、表示制御部27は、予測所要時間が標準所要時間を超えているか否かを判定する。予測所要時間が標準所要時間を超えている場合(ステップS71:Yes)に、表示制御部27は、ステップS73において、ゴーグル7の表示部70に作業者支援情報を表示させる。作業者支援情報は、例えば、抽出工程(ステップS3)において抽出した原因動作、予測所要時間と標準所要時間との差分、現時点における標準作業時間に対する遅れ時間である。表示制御部27は、例えば、原因動作を含む作業工程を熟練者が実行した場合における静止画像や動画像を現実世界に重畳した拡張現実をゴーグル7の表示部70に表示させる。これにより、表示制御部27は、作業者Pの動作と熟練者の動作との差異を強調した状態で作業中の作業者Pに通知する。これに対して、予測所要時間が標準所要時間以内である場合(ステップS71:No)に、表示制御部27は、ステップS75において、ゴーグル7の表示部70に作業者支援情報を表示させない。 The display control step (step S7) is a step in which worker support information is displayed on the display section 70 of the goggles 7 when the predicted required time exceeds the standard required time. First, in step S71, the display control unit 27 determines whether the predicted required time exceeds the standard required time. If the predicted required time exceeds the standard required time (step S71: Yes), the display control unit 27 causes the display unit 70 of the goggles 7 to display the worker support information in step S73. The worker support information is, for example, the causative action extracted in the extraction process (step S3), the difference between the predicted required time and the standard required time, and the delay time with respect to the current standard working time. The display control unit 27 causes the display unit 70 of the goggles 7 to display, for example, augmented reality in which a still image or a moving image is superimposed on the real world when a work process including the causative action is executed by an expert. Thereby, the display control unit 27 notifies the worker P who is working in a state that emphasizes the difference between the worker P's motion and the expert's motion. On the other hand, if the predicted required time is within the standard required time (step S71: No), the display control unit 27 does not display the worker support information on the display unit 70 of the goggles 7 in step S75.
ステップS73とステップS75とのいずれかを実行した後に、表示制御部27は、ステップS77において、支援の対象とする全作業工程が完了したか否かを判定する。全作業工程が完了していないと判定した場合(ステップS77:No)に、表示制御部27は、ステップS11に戻り、ステップS11~ステップS77までの各工程を繰り返し実行する。これに対して、全作業工程が完了していると判定した場合(ステップS77:Yes)に、表示制御部27は、本実施形態における作業者支援方法を終了する。 After executing either step S73 or step S75, the display control unit 27 determines in step S77 whether all the work steps targeted for support have been completed. If it is determined that all the work steps have not been completed (step S77: No), the display control unit 27 returns to step S11 and repeatedly executes each step from step S11 to step S77. On the other hand, if it is determined that all the work steps have been completed (step S77: Yes), the display control unit 27 ends the worker support method in this embodiment.
上記実施形態によれば、作業者支援システム1は、作業者Pの動作が熟練者の標準的な動作に対して遅れている場合に、作業者Pに対して、作業中に、原因動作等の作業者支援情報を通知することができる。換言すると、作業者支援システム1は、作業中の作業者Pの作業を中断させることなく、作業者Pに対して、適時に原因動作等の作業者支援情報を通知することができる。そのため、作業者Pは、作業中に自身の動作の問題点を把握することができる。これにより、作業者Pは、原因動作をタイムリーに改善することができる。 According to the embodiment described above, when the worker P's motion is delayed compared to the standard motion of an expert, the worker support system 1 provides the worker P with the cause motion, etc. during the work. can be notified of worker support information. In other words, the worker support system 1 can notify the worker P of worker support information such as the causative action in a timely manner without interrupting the work of the worker P who is working. Therefore, the worker P can grasp problems in his/her own movement while working. Thereby, the worker P can timely improve the causative action.
また、上記実施形態によれば、熟練者が、作業中の作業者Pを撮影した動画像を作業完了後に確認したり、作業中の作業者Pを直接に観察したりして、作業者Pの動作の問題点を抽出し、作業者Pにフィードバックする指導を行うことなく、作業者Pを指導できる。これにより、作業者Pを指導する熟練者の負荷を軽減することができる。 Further, according to the embodiment described above, the skilled worker can check the moving image taken of the worker P during the work after the work is completed, or directly observe the worker P during the work, and It is possible to instruct the worker P without extracting problems in the operation and providing feedback to the worker P. Thereby, the burden on the expert who instructs the worker P can be reduced.
B.他の実施形態:
B-1.他の実施形態1:
上記実施形態では、図1に示すように、作業者支援システム1は、光学式のモーションキャプチャシステムによって作業者Pの動作を取得していたが、これに限られるものではない。作業者支援システム1は、例えば、予め記憶部4に記憶させた機械学習モデルに、撮影データ40を入力して、機械学習により作業者Pの身体の各部位や姿勢を特定することで、作業者Pの動作を取得してもよい。
B. Other embodiments:
B-1. Other embodiment 1:
In the above embodiment, as shown in FIG. 1, the worker support system 1 acquires the motion of the worker P using an optical motion capture system, but the present invention is not limited to this. The worker support system 1, for example, inputs the photographic data 40 into a machine learning model stored in advance in the
B-2.他の実施形態2:
上記実施形態では、図2に示すように、作業者Pが全作業工程を完了した場合に、作業者支援方法を終了していたが、これに限られるものではない。例えば、作業者Pが全作業工程を完了した後に、同一の作業工程を繰り返し実行する場合、全作業工程を完了した後でも(ステップS77:Yes)、ステップS11に戻り、ステップS11~ステップS77までの各工程を繰り返し実行してもよい。このとき、例えば、作業中の生産ラインの停止により異常処置を行った場合等における撮影データ40は、記憶部4に記憶しないことが好ましい。これにより、作業者支援情報の精度が低下することを抑制できる。
B-2. Other embodiment 2:
In the above embodiment, as shown in FIG. 2, the worker support method ends when the worker P completes all the work steps, but the present invention is not limited to this. For example, when worker P repeats the same work process after completing all the work processes, even after completing all the work processes (step S77: Yes), the process returns to step S11 and steps S11 to S77 are executed. You may perform each process repeatedly. At this time, it is preferable not to store the photographic data 40 in the
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the embodiments described above, and can be implemented in various configurations without departing from the spirit thereof. For example, the technical features of the embodiments corresponding to the technical features in each form described in the summary column of the invention may be used to solve some or all of the above problems, or to achieve some of the above effects. Alternatively, in order to achieve all of the above, it is possible to perform appropriate replacements or combinations. Further, unless the technical feature is described as essential in this specification, it can be deleted as appropriate.
1…作業者支援システム、2…CPU、3…通信部、4…記憶部、7…ゴーグル、8…スーツ、10…制御装置、21…取得部、23…抽出部、25…予測部、27…表示制御部、40…撮影データ、41…標準動作データ、43…過去動作データ、45…対象動作データ、61~64…カメラ、70…表示部、80…マーカー部材、I…赤外線、P…作業者 DESCRIPTION OF SYMBOLS 1... Worker support system, 2... CPU, 3... Communication unit, 4... Storage unit, 7... Goggles, 8... Suit, 10... Control device, 21... Acquisition unit, 23... Extraction unit, 25... Prediction unit, 27 ...Display control unit, 40...Photography data, 41...Standard operation data, 43...Past operation data, 45...Target operation data, 61-64...Camera, 70...Display section, 80...Marker member, I...Infrared rays, P... worker
Claims (1)
作業者の動作を取得可能とするスーツを着用した前記作業者を、支援の対象とする作業の全工程に亘って動画により撮影するカメラと、
前記作業者が身に着けるゴーグルと、
制御装置と、を備え、
前記制御装置は、
前記作業を標準的に実行する熟練者の動作を示す標準動作データと、前記作業者が過去に前記作業を実行したときの前記作業者の動作を示す過去動作データと、を記憶する記憶部と、
前記カメラにより撮影された撮影データを用いて、前記支援の対象とする前記作業者の動作を示す対象動作データを取得する取得部と、
前記標準動作データと前記対象動作データとを比較して、前記標準動作データよりも作業時間に遅れが生じる原因となる動作を抽出する抽出部と、
前記過去動作データを用いて、前記支援の対象とする前記作業の前記全工程が完了するまでに要する所要時間を予測する予測部と、
予測した前記所要時間が、前記標準動作データにおいて前記作業の前記全工程が完了するまでに要する標準所要時間を超える場合に、抽出した前記原因となる動作を前記ゴーグルに表示させる表示制御部と、を有する、作業者支援システム。 A worker support system,
a camera that takes video of the worker wearing a suit capable of capturing the worker's movements throughout the entire process of the work to be supported;
Goggles worn by the worker;
comprising a control device;
The control device includes:
a storage unit that stores standard motion data indicating the motions of an expert who performs the work in a standard manner; and past motion data indicating the motions of the worker when the worker executed the work in the past; ,
an acquisition unit that uses photographic data taken by the camera to acquire target motion data indicating the motion of the worker who is the target of the support;
an extraction unit that compares the standard motion data and the target motion data and extracts a motion that causes a delay in work time compared to the standard motion data;
a prediction unit that uses the past operation data to predict the time required to complete all the steps of the work targeted for support;
a display control unit that displays the extracted causative action on the goggles when the predicted required time exceeds the standard required time required to complete all steps of the work according to the standard action data; A worker support system with
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022136901A JP2024033364A (en) | 2022-08-30 | 2022-08-30 | Worker assisting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022136901A JP2024033364A (en) | 2022-08-30 | 2022-08-30 | Worker assisting system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024033364A true JP2024033364A (en) | 2024-03-13 |
Family
ID=90193344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022136901A Pending JP2024033364A (en) | 2022-08-30 | 2022-08-30 | Worker assisting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024033364A (en) |
-
2022
- 2022-08-30 JP JP2022136901A patent/JP2024033364A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10157477B2 (en) | Robust head pose estimation with a depth camera | |
US10755438B2 (en) | Robust head pose estimation with a depth camera | |
CN105666505B (en) | Robot system having display for augmented reality | |
US9838670B2 (en) | Method and system for three-dimensional imaging | |
US20170316582A1 (en) | Robust Head Pose Estimation with a Depth Camera | |
Huy et al. | See-through and spatial augmented reality-a novel framework for human-robot interaction | |
JP6598191B2 (en) | Image display system and image display method | |
CN106325511A (en) | Virtual reality realizing system | |
US20220070365A1 (en) | Mixed reality image capture and smart inspection | |
TW202029127A (en) | Object tracking system and object tracking method | |
JP7471428B2 (en) | SYSTEM, METHOD AND COMPUTER READABLE MEDIUM FOR USING VIRTUAL/AUGHTENT FOR INTERACTING WITH COLLABORATORY ROBOTS IN A MANUFACTURING OR INDUSTRIAL ENVIRONMENT - Patent application | |
JP2020052979A (en) | Information processing device and program | |
JP2020144776A (en) | Work support system, work support device, and work support method | |
JP7517803B2 (en) | ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM | |
JP2011070368A (en) | Presentation system | |
KR102000624B1 (en) | Forklift virtual reality device | |
JP2024033364A (en) | Worker assisting system | |
EP3432204B1 (en) | Telepresence framework for region of interest marking using headmount devices | |
JP2018180894A (en) | Information processing device, information processing method, and program | |
US11508121B2 (en) | Method for annotating points on a hand image to create training dataset for machine learning | |
CN104156138B (en) | Filming control method and imaging control device | |
JP2018056845A (en) | Work support apparatus, system, method and program | |
Bannat et al. | Event analysis and interpretation of human activity for augmented reality-based assistant systems | |
KR20220041981A (en) | Head mounted display based augmented reality | |
JP4027294B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program |