JP2005134536A - Work training support system - Google Patents

Work training support system Download PDF

Info

Publication number
JP2005134536A
JP2005134536A JP2003368945A JP2003368945A JP2005134536A JP 2005134536 A JP2005134536 A JP 2005134536A JP 2003368945 A JP2003368945 A JP 2003368945A JP 2003368945 A JP2003368945 A JP 2003368945A JP 2005134536 A JP2005134536 A JP 2005134536A
Authority
JP
Japan
Prior art keywords
work
training
worker
virtual
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003368945A
Other languages
Japanese (ja)
Inventor
Tetsuya Ikeda
哲也 池田
Takeshi Kobayashi
剛 小林
Yasuhiro Kajiwara
康博 梶原
Koichi Osaki
紘一 大崎
Yoshiomi Munesawa
良臣 宗澤
Takashi Terasawa
貴志 寺澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Okayama University NUC
Original Assignee
Omron Corp
Okayama University NUC
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Okayama University NUC, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2003368945A priority Critical patent/JP2005134536A/en
Publication of JP2005134536A publication Critical patent/JP2005134536A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for self-sustainedly and efficiently carrying out work training. <P>SOLUTION: The operator receiving the guidance of the work to be carried out by display and speech receives the pseudo-work training using an artificial sense for the real in front of a large-sized screen 2a on which a virtual work region and the operator's model are three-dimensionally displayed, and learns the work. Simultaneously whether the work is right or wrong and the skill level of the work are fed back by speech or display to the operator who is evaluated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、製造ラインなどにおける各種作業の作業訓練を支援するシステムに関し、更に詳しくは、コンピュータを用いた仮想の作業領域で作業を擬似的に体験させて訓練する作業訓練支援システムに関する。   The present invention relates to a system for supporting work training of various kinds of work in a production line and the like, and more particularly, to a work training support system for training a work in a virtual work area using a computer.

一般に、企業においては、時間競争および多品種小ロット生産に対応するために、組立工程の設計から量産までの準備期間を短縮することが求められている。この課題に対応するために、人工現実感を用いて組立工程の設計支援を行なうシステムが開発されている(例えば、特許文献1参照)。
特開平9−16550号公報
In general, companies are required to shorten the preparation period from the design of the assembly process to mass production in order to cope with time competition and multi-product small-lot production. In order to cope with this problem, a system that supports design of an assembly process using artificial reality has been developed (for example, see Patent Document 1).
JP-A-9-16550

しかしながら、従来のシステムは、組立工程の設計支援が中心であり、このため、効率的な作業訓練およびその作業訓練の効果を正しく評価できるようにして作業者自身が自立的に訓練を行なえるようにしたシステムの開発が望まれる。   However, the conventional system mainly focuses on the design support of the assembly process, so that the worker himself can perform the training independently so that the efficient work training and the effect of the work training can be correctly evaluated. It is hoped that this system will be developed.

本発明は、上述のような点に鑑みて為されたものであって、作業を擬似的に体験させて効率的に作業訓練を行えるとともに、作業訓練の効果を評価できるようにし、作業者自身が、作業習得の程度を確認しながら自立的に作業訓練を行なえるようにすることを目的とする。   The present invention has been made in view of the above-described points, and allows the user to experience the work in a simulated manner and efficiently perform the work training, and to evaluate the effect of the work training. However, the objective is to be able to perform work training independently while confirming the level of work acquisition.

本発明では、上記目的を達成するために、次のように構成している。   In order to achieve the above object, the present invention is configured as follows.

すなわち、本発明は、作業者に対する作業訓練を支援する作業訓練支援システムであって、仮想作業領域を表示してその仮想作業領域における作業内容を指導する作業指導手段と、仮想作業領域を表示するとともに、作業者の動きを検出して前記仮想作業領域に表示して作業訓練を施す作業訓練手段と、前記作業訓練手段による作業訓練の結果を評価する作業評価手段とを備え、前記作業評価手段は、作業の正誤および作業習得の程度を評価するものである。   That is, the present invention is a work training support system for supporting work training for an operator, and displays a virtual work area and a work guidance means for guiding work contents in the virtual work area and a virtual work area. And a work training means for detecting the movement of the worker and displaying it in the virtual work area to perform work training, and a work evaluation means for evaluating the result of the work training by the work training means. Evaluates the correctness of work and the degree of work acquisition.

ここで、仮想作業領域とは、実際の作業領域ではなく、作業者に対する指導や訓練を施すために、実際の作業領域を模した仮想の作業領域をいい、この仮想作業領域は、3D−CADで設計するのが好ましく、少なくとも作業訓練手段においては、この仮想作業領域を、立体視表示、すなわち、3次元グラフィックスによって表示するのが好ましい。   Here, the virtual work area is not an actual work area, but a virtual work area imitating an actual work area in order to give guidance or training to the worker. This virtual work area is a 3D-CAD. The virtual work area is preferably displayed by stereoscopic display, that is, three-dimensional graphics, at least in the work training means.

作業内容を指導するとは、仮想作業領域で行なうべき作業内容を指導することをいい、例えば、仮想作業領域での作業内容に対応する表示、例えば、作業内容を説明する文字やアニメーションなどの表示を行なったり、作業内容を音声で出力して指導したりすることをいう。   Guidance of work contents means guidance of work contents to be performed in the virtual work area. For example, display corresponding to work contents in the virtual work area, for example, display of characters or animations explaining the work contents, etc. It means performing or giving guidance by outputting work contents by voice.

作業者の動きとは、作業者の身体の動きをいい、例えば、左右の手、背中、腰、頭、肘などの動きをいう。   The movement of the worker refers to the movement of the worker's body, for example, movements of the left and right hands, the back, the waist, the head, the elbow, and the like.

本発明によると、訓練を受ける作業者は、作業指導手段によって表示される仮想作業領域における作業内容の指導を受け、作業訓練手段によって、作業者自身の動きが表示される仮想作業領域における擬似的な作業訓練を行なって作業を習得することができ、この作業訓練における作業の正誤および作業習得の程度(習熟度)が評価されるので、評価に基づいて、作業者自身が自立的に作業訓練を行なうことができる。   According to the present invention, a worker who receives training receives guidance on the work content in the virtual work area displayed by the work guidance means, and the work training means displays a pseudo-work in the virtual work area in which the worker's own movement is displayed. Since the work can be mastered through proper work training, the correctness of the work and the level of mastery of the work (proficiency level) are evaluated. Can be performed.

本発明の一実施態様においては、前記作業指導手段は、前記仮想作業領域に前記作業内容に対応する位置を表示するものであり、前記作業訓練手段は、前記仮想作業領域、前記作業者のモデルおよび作業内容に対応する前記位置を立体視可能に表示するものであり、前記作業評価手段は、検出される作業者の動きに基づいて、作業の正誤および作業習得の程度を評価するとともに、評価結果を前記作業者に表示および音声の少なくともいずれか一方で報知するものである。   In one embodiment of the present invention, the work guidance means displays a position corresponding to the work content in the virtual work area, and the work training means includes the virtual work area, the worker's model. The position corresponding to the work content is displayed so as to be stereoscopically viewed, and the work evaluation means evaluates the correctness of the work and the degree of work acquisition based on the detected movement of the worker, and evaluates The result is notified to the operator by at least one of display and voice.

ここで、作業内容に対応する位置とは、各種の作業、例えば、部品の組み立て、半田付け、基板の分割などの作業の内容に応じて、例えば、部品を取る位置、作業をする位置、部品を置く位置などをいう。   Here, the position corresponding to the work content refers to, for example, the position where the part is taken, the position where the work is performed, and the part according to the content of various work such as assembly, soldering, and board division. This refers to the position where you place.

この作業内容に対応する位置の表示は、文字やマークなどで表示してもよいし、赤球や青球などの特定物によって表示してもよく、更に、作業の始点位置からの移動軌跡を併せて表示してもよい。   The position corresponding to the work content may be displayed with characters or marks, or may be displayed with a specific object such as a red sphere or a blue sphere, and the movement locus from the start position of the work may be displayed. You may display together.

この実施態様によると、訓練を受ける作業者は、作業指導手段によって仮想作業領域における作業位置の指導を受け、作業訓練手段によって、立体的に表示される仮想作業領域における作業者のモデルを見ながら擬似的な作業を行なって作業位置などを習得することができる。   According to this embodiment, the worker who receives training receives guidance on the work position in the virtual work area by the work guidance means, and while viewing the model of the worker in the virtual work area displayed in three dimensions by the work training means. It is possible to learn a work position and the like by performing a pseudo work.

本発明の好ましい実施態様においては、前記作業指導手段は、前記作業内容を音声で出力するものであり、前記作業訓練手段は、前記作業内容に対応する作業者の音声を認識するものであり、前記作業評価手段は、認識される前記音声に基づいて、作業の正誤を評価するものである。   In a preferred embodiment of the present invention, the work instruction means outputs the work content by voice, and the work training means recognizes a worker's voice corresponding to the work content, The work evaluation means evaluates the correctness of the work based on the recognized voice.

この実施態様によると、訓練を受ける作業者は、作業指導手段によって、表示および音声による作業内容の指導を受け、作業訓練手段によって擬似的な作業を行なう際には、音声によって指導された作業内容を作業者が発声することにより、作業評価手段では、認識された作業者の音声に基づいて、作業の正誤を判定することができる。   According to this embodiment, a worker who receives training receives guidance of work contents by display and voice by the work guidance means, and when performing pseudo work by the work training means, the work contents instructed by voice. , The work evaluation means can determine the correctness of the work based on the recognized voice of the worker.

本発明の他の実施態様においては、前記作業指導手段は、前記仮想作業領域を表示する表示部と、作業内容を音声で出力する音声出力部とを備え、前記作業訓練手段は、前記仮想作業領域および前記作業者のモデルを立体視可能に表示する立体映像表示部と、前記作業者の動きを検出する動き検出部と、作業者の音声を入力して認識する音声認識部とを備えている。   In another embodiment of the present invention, the work instruction means includes a display unit that displays the virtual work area, and a voice output unit that outputs work contents by voice, and the work training means includes the virtual work area. A stereoscopic image display unit that displays the region and the worker's model in a stereoscopic manner; a motion detection unit that detects the movement of the worker; and a voice recognition unit that inputs and recognizes the worker's voice. Yes.

ここで、作業者の動きを検出する動き検出部としては、例えば、モーションキャプチャなどが好ましい。   Here, for example, a motion capture is preferable as the motion detection unit that detects the motion of the worker.

この実施態様によると、訓練を受ける作業者は、作業指導手段の表示部に表示される仮想作業領域などを見ながら音声出力部からの音声によって作業内容の指導を受け、作業訓練手段によって、立体映像表示部に表示される作業者の動きに対応する作業者のモデルを見ながら擬似的に作業を行なって作業内容を発声して確認しながら訓練を進めることができる。   According to this embodiment, the worker who receives training receives guidance of work contents by voice from the voice output unit while looking at the virtual work area displayed on the display unit of the work guidance unit, and the work training unit Training can be carried out while performing pseudo work while observing the worker's model corresponding to the movement of the worker displayed on the video display unit, and speaking and confirming the work content.

本発明の更に他の実施態様においては、前記作業評価手段は、作業内容に対応する前記位置への作業者の手の動きに基づいて、作業の正誤および作業習得の程度を評価するものである。   In still another embodiment of the present invention, the work evaluation means evaluates the correctness of the work and the degree of work acquisition based on the movement of the operator's hand to the position corresponding to the work content. .

この実施態様によると、作業位置への作業者の手の動きに基づいて、例えば、正しい作業位置へ手が運ばれているか否か、あるいは、スムーズに手が運ばれているか否かなどによって、作業の正誤および作業習得の程度を評価することができる。   According to this embodiment, based on the movement of the operator's hand to the work position, for example, whether or not the hand is carried to the correct work position, whether or not the hand is carried smoothly, etc. The degree of correctness and mastery of work can be evaluated.

本発明の一実施態様においては、前記作業評価手段は、予め定められた標準動作時間と、検出された作業者の動作時間とに基づいて、作業習得の程度を評価するものである。   In one embodiment of the present invention, the work evaluation means evaluates the degree of work acquisition based on a predetermined standard operation time and the detected operation time of the worker.

この実施態様によると、作業内容に応じて予め定められている標準的な作業時間と作業者の動作時間とに基づいて、作業習得の程度を評価することができる。   According to this embodiment, the degree of work acquisition can be evaluated based on a standard work time that is predetermined according to the work content and the operation time of the worker.

本発明の他の実施態様においては、前記作業評価手段は、作業内容に対応する前記位置への作業者の動作の迷いおよび動作の滑らかさの少なくともいずれか一方に基づいて、作業習得の程度を評価するものである。   In another embodiment of the present invention, the work evaluation means determines the degree of work acquisition based on at least one of the operator's ambiguity and the smoothness of the operation to the position corresponding to the work content. It is something to evaluate.

この実施態様によると、作業位置への作業者の動作の迷いあるいは動作の滑らかさを、例えば、手の動きのぶれ(蛇行)や動作軌跡として把握し、それに基づいて、作業習得の程度を評価することができる。   According to this embodiment, the worker's movement at the work position or the smoothness of the movement is grasped as, for example, hand movement shaking (meandering) or movement locus, and based on this, the degree of work acquisition is evaluated. can do.

以上のように本発明によれば、訓練を受ける作業者は、作業指導手段によって表示される仮想作業領域における作業内容の指導を受け、作業訓練手段によって、作業者の動きが表示される仮想作業領域における擬似的な作業訓練を受けて作業を習得することができ、この作業訓練における作業の正誤および作業習得の程度が評価されるので、評価に基づいて、作業者自身が自立的に作業訓練を行なうことができる。   As described above, according to the present invention, a worker who receives training receives guidance on the work content in the virtual work area displayed by the work guidance means, and the virtual work in which the movement of the worker is displayed by the work training means. It is possible to acquire work by receiving pseudo work training in the area, and the correctness of the work and the degree of work acquisition in this work training are evaluated. Can be performed.

以下、図面によって本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一つの実施の形態に係る作業訓練支援システムの概略構成図である。   FIG. 1 is a schematic configuration diagram of a work training support system according to an embodiment of the present invention.

この実施の形態の作業訓練支援システムは、仮想の作業領域を表示して作業者に作業内容を指導(教育)し、次に、作業者に仮想の作業領域で作業を擬似的に体験させて仮想の作業訓練を施し、その作業訓練の結果を作業習得の程度、いわゆる作業の習熟度等として評価するものであり、作業者自身の自立的な作業訓練を可能にするものである。   The work training support system according to this embodiment displays a virtual work area to instruct (educate) work contents to the worker, and then causes the worker to experience the work in the virtual work area in a pseudo manner. A virtual work training is performed, and the result of the work training is evaluated as a degree of work acquisition, a so-called work proficiency level, etc., and enables the worker's own work training.

このため、この実施の形態の作業訓練支援システムは、データベース1の3Dデータなどに基づいて、例えば、偏光立体方式のVR(Virtual Reality)表示装置2の大型スクリーンに、仮想の作業領域を立体視可能に表示するVR制御パソコン3と、音声データベース4のデータに基づいて、音声合成してスピーカ5を介して出力するとともに、マイク6を介して入力される作業者の音声を認識する音声制御パソコン7と、データベース24のデータに基づいて、動き検出装置8によって取り込まれた作業者の動きに対応するデータをVR制御パソコン3に受け渡して仮想の作業領域の作業者の動きを表示させるモーション制御パソコン9とを備えている。動き検出装置8は、作業者の動きを、3次元の空間座標位置で検出するものであり、例えば、モーションキャプチャ(登録商標)からなる。   For this reason, the work training support system according to the present embodiment stereoscopically displays a virtual work area on a large screen of a polarized stereoscopic three-dimensional VR (Virtual Reality) display device 2 based on 3D data in the database 1 or the like. The VR control personal computer 3 that can be displayed and the voice control personal computer that synthesizes the voice based on the data in the voice database 4 and outputs the synthesized voice through the speaker 5 and recognizes the voice of the worker inputted through the microphone 6. 7 and a motion control personal computer that transfers data corresponding to the worker's movement captured by the motion detection device 8 to the VR control personal computer 3 based on the data in the database 24 and displays the movement of the worker in the virtual work area. 9 and. The motion detection device 8 detects a worker's motion at a three-dimensional spatial coordinate position, and includes, for example, motion capture (registered trademark).

データベース1には、3D−CADで設計した製造ラインにおける作業領域の3Dデータや作業内容データなどが格納されており、VR制御パソコン3は、かかるデータに基づいて、VR表示装置2の大型スクリーンに、3D空間の画像表示を行なって仮想の作業領域および作業者のモデル、この実施の形態では、作業者の手のモデルを表示する。また、このVR制御パソコン3は、作業評価手段としての機能を有しており、作業者の訓練の結果を評価するものであり、後述のようにして作業の正誤および作業の習熟度(作業習得の程度)の評価を行う。   The database 1 stores 3D data and work content data of a work area in a production line designed by 3D-CAD, and the VR control personal computer 3 stores the data on the large screen of the VR display device 2 based on such data. 3D space image display is performed to display a virtual work area and a worker's model, in this embodiment, a worker's hand model. Further, this VR control personal computer 3 has a function as a work evaluation means, and evaluates the result of training of the worker. As described later, the correctness of work and the proficiency level of work (work mastery) Grade).

この実施の形態の動き検出装置8は、図2に示されるように、立体映像表示装置としてのVR表示装置2の大型スクリーン2aの前で該スクリーン2aに立体的に表示される仮想の作業領域で作業訓練を行なう作業者10の左右の手に取り付けられる磁気センサ11と、磁界発生装置12と、制御ボックス13とを備えており、人の動きを、数値化する磁気式の装置である。   As shown in FIG. 2, the motion detection device 8 of this embodiment is a virtual work area that is displayed in three dimensions on the screen 2a in front of the large screen 2a of the VR display device 2 as a three-dimensional image display device. The magnetic sensor 11 attached to the left and right hands of the worker 10 who performs work training, the magnetic field generator 12, and the control box 13 are magnetic devices that digitize human movements.

モーション制御パソコン9は、この動き検出装置8からのデータを、データベース24の人の動きのデータに基づいて、3D座標値情報および角度情報に変換してVR制御パソコン3に与える。   The motion control personal computer 9 converts the data from the motion detection device 8 into 3D coordinate value information and angle information based on the human motion data in the database 24, and gives it to the VR control personal computer 3.

以下、この実施の形態のシステムによる作業訓練の支援について説明する。   Hereinafter, work training support by the system of this embodiment will be described.

この実施の形態のシステムでは、作業内容を作業者に指導する作業ガイダンスと、指導した作業内容を仮想の作業領域で作業者に行なわせるバーチャル作業訓練とを行なうものであり、このバーチャル作業訓練では、作業が正しく行なわれているか否かの作業の正誤および作業の習熟度(作業習得の程度)を評価して作業者にフィードバックできるようにしている。   In the system of this embodiment, work guidance for instructing an operator about work contents and virtual work training for making an operator perform the instructed work contents in a virtual work area are performed. In this virtual work training, In addition, it is possible to evaluate the correctness of the work whether or not the work is correctly performed and the proficiency level of the work (degree of work acquisition) and to provide feedback to the worker.

先ず、システムの立ち上げ時には、作業者は、例えば、VR制御パソコン3の前に座り、システムを起動すると、VR制御パソコン3のディスプレイには、図3に示される画面が表示され、作業訓練を受ける作業者の氏名コード、氏名を入力し、作業開始ボタンをクリックする。なお、VR表示装置2の大型スクリーン2aに同じ画面を表示してもよい。   First, when starting up the system, for example, when an operator sits in front of the VR control personal computer 3 and starts the system, the screen shown in FIG. 3 is displayed on the display of the VR control personal computer 3 to perform work training. Enter the name code and name of the worker to receive, and click the work start button. The same screen may be displayed on the large screen 2a of the VR display device 2.

作業開始ボタンのクリックによって、図4に示される作業内容設定画面となり、作業内容を設定する。この作業内容の設定では、作業訓練の対象となる製品形式の選択、対象となる製造ラインの選択およびその製造ラインの何人目の工程の作業であるかといった工程選択の設定を行なうとともに、音声ガイダンス、作業の注意項目等のラベル表示、後述する位置を示す赤球や青球の表示、赤球等のアニメーション移動の速度(再生速度)の設定などを行なう。   When the work start button is clicked, the work content setting screen shown in FIG. 4 is displayed and the work content is set. In the setting of the work content, the selection of the product type to be subjected to the work training, the selection of the target production line, and the selection of the number of processes in the production line are set, and voice guidance is provided. In addition, labeling of work attention items and the like, display of red spheres and blue spheres indicating positions to be described later, setting of the speed (reproduction speed) of animation movement of red spheres and the like are performed.

この作業内容設定画面には、作業者に作業内容を指導する作業ガイダンス、バーチャル作業訓練を行なうバーチャル作業訓練および作業選択画面に戻るボタンが表示されており、作業ガイダンスのボタンをクリックして作業ガイダンスを開始する。   In this work content setting screen, a work guidance for instructing the work content to the worker, a virtual work training for performing virtual work training, and a button for returning to the work selection screen are displayed. To start.

図5は、作業ガイダンスの画面を説明するための図である。この画面では、作業机15の上に、部品箱16等が載置された仮想の作業領域が表示される。部品箱16には、収納されている部品のイメージ25が表示される。また、この仮想の作業領域には、例えば、部品を取る位置(場所)が赤球17で表示されるとともに、部品をとって作業する位置(場所)が青球18で表示され、破線矢符で示されるように赤球17が青球18に向かってアニメーション移動する。また、作業内容、作業の注意項目や確認項目が、黄色や緑のラベル19を用いて文字で表示される。更に、作業対象の部品の写真26が、はめ込み表示される。   FIG. 5 is a diagram for explaining a work guidance screen. In this screen, a virtual work area where the parts box 16 and the like are placed is displayed on the work desk 15. The parts box 16 displays an image 25 of the housed parts. Further, in this virtual work area, for example, the position (place) where the part is picked up is displayed as a red sphere 17, and the position (place) where the part is taken is displayed as a blue sphere 18. The red sphere 17 is animated toward the blue sphere 18 as shown in FIG. In addition, the work content, work caution items, and confirmation items are displayed in characters using yellow or green labels 19. Further, a photograph 26 of the part to be worked is displayed in an inset manner.

この作業ガイダンスの画面の表示と共に、作業内容、作業の注意項目や確認項目がVR制御パソコン3のスピーカから音声で出力される。   Along with the display of the work guidance screen, work contents, work caution items and confirmation items are output from the speaker of the VR control personal computer 3 by voice.

作業内容、注意項目および確認項目は、作業に応じて、種々のものがあり、例えば、基板を取って割る作業の場合には、作業内容としては、「基板をとって割る」、作業の注意項目としては、例えば、「基板の割り方向に気をつける」、作業確認項目としては、例えば、「割り方向は正しいか」といったものである。また、この場合に、基板を取る位置が、赤球で表示されるとともに、基板を割る位置が青球で表示されることなる。   There are various work contents, caution items, and confirmation items depending on the work. For example, in the case of the work of removing the board, the work contents include “breaking the board” and cautions for the work. The item is, for example, “careful about the dividing direction of the board”, and the work confirmation item is, for example, “whether the dividing direction is correct”. In this case, the position where the substrate is taken is displayed as a red sphere, and the position where the substrate is divided is displayed as a blue sphere.

図6は、作業内容を指導する作業ガイダンスにおける表示画面の展開および処理の流れを示す図であり、(a)〜(c)は、第1工程〜第3工程に対応している。   FIG. 6 is a diagram showing the development of the display screen and the flow of processing in the work guidance for instructing work contents, and (a) to (c) correspond to the first process to the third process.

この作業ガイダンスでは、作業者は、作業指導手段としての機能を有するVR制御パソコン3のディスプレイに表示される画面と、VR制御パソコン3のスピーカから出力される音声とにより、作業内容、作業位置、注意項目および確認項目を、キー操作によって自分のペースで繰り返し覚えるものである。   In this work guidance, the worker uses the screen displayed on the display of the VR control personal computer 3 having a function as work guidance means and the sound output from the speaker of the VR control personal computer 3 to obtain the work content, work position, Notes and confirmation items are repeatedly memorized at their own pace by key operation.

この作業ガイダンスでは、VR制御パソコン3のディスプレイには、各工程毎に、上述の図5と同様に仮想の作業領域および作業内容に応じた作業の位置が上述のように赤球および青球でそれぞれ順番に表示され、作業内容、注意項目、確認項目などがラベル表示される。さらに、音声によって、作業内容、注意項目、確認項目が出力される。   In this work guidance, on the display of the VR control personal computer 3, the virtual work area and the work position corresponding to the work content are indicated by the red sphere and the blue sphere as described above for each process as in FIG. They are displayed in order, and the work contents, caution items, confirmation items, etc. are displayed in labels. Further, work contents, caution items, and confirmation items are output by voice.

すなわち、図6(a)に示されるように、仮想の作業領域が表示された状態で、VR制御パソコン3のキーボードのスタートキー20を操作すると、例えば、部品を取る位置を示す赤球が、作業をする位置を示す青球に向かってアニメーション移動し、作業内容、注意項目、確認項目がラベル表示される一方、音声で出力され、第1工程が終了する。   That is, as shown in FIG. 6A, when the start key 20 of the keyboard of the VR control personal computer 3 is operated in a state where the virtual work area is displayed, for example, The animation moves toward the blue sphere indicating the work position, and the work contents, caution items, and confirmation items are displayed in a label, while being output by voice, and the first step ends.

次に、作業者が、キー21を操作することにより、第2工程の仮想の作業領域の画面に切換えられ、作業内容に対応して赤球が青球に向かってアニメーション移動し、作業内容、注意項目、確認項目がラベル表示される一方、音声で出力され、第2工程が終了する。   Next, when the operator operates the key 21, the screen is switched to the virtual work area screen in the second step, and the red sphere moves toward the blue sphere in accordance with the work content. While the caution item and the confirmation item are displayed as labels, they are output by voice, and the second step ends.

更に、作業者が、キー21を操作することにより、第3工程の仮想の作業領域の画面に切換えられ、作業内容に対応して赤球が青球に向かってアニメーション移動し、作業内容の説明、注意項目、確認項目がラベル表示される一方、音声で出力され、第3工程が終了する。   Further, when the operator operates the key 21, the screen is switched to the virtual work area screen in the third step, and the red sphere moves in an animation toward the blue sphere corresponding to the work content. The caution item and the confirmation item are displayed as labels, while being output by voice, and the third step ends.

以下、同様にして一連の工程の作業ガイダンスが終了する。なお、キー22の操作によって、前の工程に戻ることができ、リセットキー23の操作によって、第1工程に戻ることができ、作業者は、記憶が不完全な工程に戻って繰り返すことによって、作業内容を確実に記憶することができる。   Thereafter, work guidance for a series of steps is completed in the same manner. In addition, it is possible to return to the previous process by operating the key 22, and to return to the first process by operating the reset key 23. The work content can be stored reliably.

また、全自動の設定操作をすることにより、各工程へのキー21による画面の切換え操作を不要とすることもできる。   Further, by performing a fully automatic setting operation, it is possible to eliminate the need to switch the screen by the key 21 to each process.

以上のように作業ガイダンスを受けて作業内容を記憶した作業者は、仮想の作業領域において、バーチャル作業訓練を行なって作業を習得する。   The worker who has received the work guidance and stored the work content as described above acquires the work by performing the virtual work training in the virtual work area.

図7は、バーチャル作業訓練の画面展開および処理の流れを示す図である。   FIG. 7 is a diagram showing the screen development and processing flow of virtual work training.

このバーチャル作業訓練では、上述の図2に示されるように作業者は、動き検出装置8の磁気センサ11を左右の手に装着するとともに、音声制御パソコン7のマイク6およびスピーカ5(ヘッドホン付マイク)並びに立体視するための偏光メガネ27を装着してVR表示装置2の大型スクリーン2aの前に立ち、大型スクリーン2aに立体視可能に表示される実物大の仮想の作業領域の中で、作業の擬似訓練を行うものである。   In this virtual work training, as shown in FIG. 2 described above, the worker wears the magnetic sensor 11 of the motion detection device 8 on the left and right hands, and also the microphone 6 and the speaker 5 of the voice control personal computer 7 (the microphone with headphones). ) In addition, wearing polarized glasses 27 for stereoscopic viewing, standing in front of the large screen 2a of the VR display device 2 and working in a full-scale virtual work area displayed stereoscopically on the large screen 2a This is a pseudo training.

また、VR制御パソコン3は、音声制御パソコン7によって認識される作業者による作業内容等の音声およびモーション制御パソコン9からの作業者の手の動きに基づいて、後述のようにして作業の正誤および作業の習熟度の判定を行なう。   Further, the VR control personal computer 3 determines whether the work is correct or not based on the voice of the work content by the worker recognized by the voice control personal computer 7 and the movement of the worker's hand from the motion control personal computer 9 as described later. Determine the proficiency level of the work.

先ず、VR表示装置2の大型スクリーン2aには、実物大の仮想の作業領域と共に、作業ガイダンスの一連の工程の全ての赤球および青球が立体表示される。   First, on the large screen 2a of the VR display device 2, all red spheres and blue spheres of a series of work guidance processes are displayed in a three-dimensional manner together with a full-size virtual work area.

次に、作業者がVR制御パソコン3に対してスタート操作をすると、作業者の手に対応する手のモデルが、仮想の作業領域に表示され、作業者の手の動きとリンクされる。作業者は、この立体的に表示される仮想の作業領域の第1工程に対応する赤球の位置に手を伸ばして赤球を取り、青球の位置に移動させるとともに、第1工程に対応する作業内容、注意項目および確認項目を発声しながら擬似的に作業を行う。作業者は、作業者自身の手の動きにリンクされた仮想の作業領域における手のモデルを見ながら手の動きおよび位置を習得する。   Next, when the worker performs a start operation on the VR control personal computer 3, a hand model corresponding to the worker's hand is displayed in the virtual work area and linked to the movement of the worker's hand. The worker reaches for the red sphere corresponding to the first step of the three-dimensional virtual work area, takes the red sphere, moves it to the blue sphere, and corresponds to the first step. The work is performed in a pseudo manner while speaking the contents of work to be performed, caution items, and confirmation items. An operator learns hand movement and position while looking at a hand model in a virtual work area linked to the worker's own hand movement.

システム側では、作業者の音声を認識するとともに、手の動きに基づいて、第1工程の作業の正誤および作業の習熟度を評価する。   On the system side, the operator's voice is recognized, and the correctness of the work in the first step and the proficiency level of the work are evaluated based on the movement of the hand.

なお、作業における左右の手の使い分けは、作業者に対して赤球が左側にある場合には、左手を、右側にある場合には、右手を、二つの赤球に対しては左右の手を使うのが基本であるが、作業内容に応じて使う手を指定してもよい。   Note that the left and right hands in the work are divided into the left hand when the red sphere is on the left side for the worker, the right hand when the red sphere is on the right side, and the left and right hand for the two red spheres. Although it is basic to use, you may specify the hand to use according to the work contents.

この実施の形態では、作業の正誤判定は、その作業に対応する作業内容、注意項目、確認項目が正しく発声されたか否か、および、その作業に対応する正しい位置の赤球および青球に作業者の手が触れられたか否かに基づいて判定するものである。   In this embodiment, the correctness / incorrectness of the work is determined based on whether the work contents, caution items, and confirmation items corresponding to the work are correctly uttered, and the red and blue spheres at the correct positions corresponding to the work. It is determined based on whether or not the person's hand has been touched.

作業が正しくないときには、例えば、音声で「間違っています。」といったコメントを出力し、再度の作業を促し、作業が正しく行われたときには、第1工程の赤球および青球が消去されて次の作業を促す。   When the work is not correct, for example, a comment such as “Wrong” is output by voice to prompt the user to work again. When the work is performed correctly, the red and blue spheres in the first step are erased and Encourage work.

次に、作業者は、第2工程に対応する位置の赤球をとって青球の位置に移動させて第2工程に対応する作業を擬似的に行うとともに、作業内容、注意項目および確認項目を発声し、システム側は、第2の工程の作業の正誤判定を行い、以下同様にして各工程の作業を行う。   Next, the worker takes the red sphere at the position corresponding to the second step and moves it to the position of the blue sphere to perform the work corresponding to the second step in a pseudo manner, and also the work contents, caution items and confirmation items. The system side determines whether the work in the second process is correct or not, and then performs the work in each process in the same manner.

なお、作業者が、VR制御パソコン3に対してリセットキー23の操作を行なったときには、第1工程の作業前の初期画面となり、最初から作業をやり直すことができるように構成されている。   When the operator operates the reset key 23 on the VR control personal computer 3, the initial screen before the first process is displayed and the operation can be started again from the beginning.

このバーチャル作業訓練では、後述のようにして作業の習熟度の評価も行なわれる。   In this virtual work training, work proficiency is also evaluated as described later.

このバーチャル作業訓練では、人工現実感を用いて作業訓練が行なわれるので、実際の作業に近い状態での訓練となって作業の正確さが向上するとともに、訓練に要する時間が、従来に比べて短縮される。しかも、作業指導者がいなくても自立的に訓練を行なうことが可能となる。   In this virtual work training, work training is performed using virtual reality, so that the training is performed in a state close to the actual work, and the accuracy of the work is improved, and the time required for the training is less than before. Shortened. Moreover, it is possible to perform training independently without a work instructor.

次に、以上の作業ガイダンスおよびバーチャル作業訓練におけるシステムの概略動作を、フローチャートに基づいて説明する。   Next, the general operation of the system in the above work guidance and virtual work training will be described based on a flowchart.

図8は、作業ガイダンスのフローチャートであり、先ず、仮想の作業領域を、VR制御パソコン3のディスプレイに表示し(ステップn1)、この作業領域内に、赤球・青球を表示し(ステップn2)、赤球が青球の位置へアニメーション移動し(ステップn3)、「作業内容」、「注意項目」、「確認項目」をラベル表示するとともに、VR制御パソコン3のスピーカから音声で出力してステップn5に移る(ステップn4)。   FIG. 8 is a flowchart of work guidance. First, a virtual work area is displayed on the display of the VR control personal computer 3 (step n1), and red and blue spheres are displayed in this work area (step n2). ), The red sphere moves to the position of the blue sphere (step n3), “work contents”, “caution items”, and “confirmation items” are displayed as labels and output from the speaker of the VR control personal computer 3 by voice. The process proceeds to step n5 (step n4).

ステップn5では、最終工程の作業であるか否かを判断し、最終工程の作業でないときには、ステップn2に戻り、最終工程の作業であるときには、作業ガイダンスを終了する。   In step n5, it is determined whether or not the work is a final process. When the work is not the final process, the process returns to step n2, and when the work is the final process, the work guidance is terminated.

次に、図9に示されるバーチャル作業訓練では、VR表示装置2の大型スクリーン2aに仮想の作業領域を立体視表示し(ステップn11)、この仮想の作業領域に作業者の手のモデルを表示し(ステップn12)、手のモデルと動き検出装置8によって検出される作業者の手とをリンクし(ステップn13)、仮想の作業領域内の全工程の作業に対応する赤球・青球の全てを表示する(ステップn14)。   Next, in the virtual work training shown in FIG. 9, the virtual work area is stereoscopically displayed on the large screen 2a of the VR display device 2 (step n11), and the model of the operator's hand is displayed in the virtual work area. (Step n12), the hand model and the worker's hand detected by the motion detection device 8 are linked (step n13), and the red and blue spheres corresponding to the work of all processes in the virtual work area All are displayed (step n14).

次に、バーチャル作業訓練のスタートの入力が行なわれると(ステップn15)、作業者の作業データを後述のようにして取得し(ステップn16)、作業の正誤判定を行ない、正しい作業をしたか否かを判断し(ステップn17)、正しくないときには、「間違っています」といったNGコメントを音声で出力してステップn16に戻る(ステップn27)。このステップn17における正誤判定は、正しい赤球に作業者が触れたか否かに基づいて行なわれる。   Next, when the start of the virtual work training is input (step n15), the work data of the worker is acquired as described later (step n16), whether the work is correct or not is determined. If it is not correct, an NG comment such as “I am wrong” is output by voice and the process returns to step n16 (step n27). The correctness / incorrectness determination in step n17 is performed based on whether or not the operator has touched the correct red sphere.

このステップn17で正しいと判断されたときには、作業の習熟度を後述のようにして判定し(ステップn18)、作業者の作業データを取得し(ステップn19)、作業の正誤判定を行ない(ステップn20)、正しくないときには、「間違っています」といったNGコメントを音声で出力してステップn19に戻る(ステップn28)。このステップn20における正誤判定は、正しい青球に作業者が触れたか否かに基づいて行なわれる。   If it is determined in step n17 that it is correct, the proficiency level of the work is determined as described later (step n18), the work data of the worker is acquired (step n19), and the correctness of the work is determined (step n20). If it is not correct, an NG comment such as “I am wrong” is output by voice and the process returns to step n19 (step n28). The correctness / incorrectness determination in step n20 is performed based on whether or not the operator has touched the correct blue sphere.

このステップn20で正しいと判断されたときには、作業の習熟度を後述のようにして判定し(ステップn21)、作業者による作業内容、注意項目および確認項目の発声を音声認識し(ステップn22)、正しい発声をしたか否かの作業の正誤判定を行ない(ステップn23)、正しくないときには、「間違っています。もう一度言って下さい。」といったNGコメントを音声で出力してステップn22に戻る(ステップn29)。   When it is determined in step n20 that it is correct, the proficiency level of the work is determined as described later (step n21), and the contents of the work by the worker, the caution items and the utterances of the confirmation items are recognized by voice (step n22), The correctness / incorrectness of the work as to whether or not a correct utterance has been made is determined (step n23). If it is not correct, an NG comment such as “I am wrong. Please say again” is output by voice and the process returns to step n22 (step n29). ).

ステップn23で正しいと判断されたときには、例えば、「正解です」といったOKのコメントを音声で出力し(ステップn24)、最終工程の作業であるか否かを判断し(ステップn25)、最終工程の作業でないときには、ステップn16に戻り、最終工程の作業であるときには、作業の習熟度を含めた総合判定結果をスクリーン2aに表示して終了する(ステップn26)。   If it is determined in step n23 that it is correct, for example, an OK comment such as “It is correct” is output by voice (step n24), and it is determined whether or not it is work of the final process (step n25). When it is not a work, the process returns to step n16, and when it is a work of the final process, the comprehensive judgment result including the skill level of the work is displayed on the screen 2a and the process is ended (step n26).

上述のステップn16およびステップn19の作業データの取得は、図10に示されるように、現在の時刻T1を取得し(ステップn30)、現在の右手(モデル)の位置Ar[X,Y,Z]を取得し(ステップn31)、現在の左手(モデル)の位置Al[X,Y,Z]を取得し(ステップn32)、現在の赤球(または青球)の位置B[X,Y.Z]を取得し(ステップn33)、動作中の右手(モデル)の位置Cri[X,Y,Z]を取得し(ステップn34)、動作中の左手(モデル)の位置Cli[X,Y,Z]を取得し(ステップn35)、右手(または左手)が赤球(または青球)に触れたか否かを判断し(ステップn36)、触れていないときには、ステップn34に戻り、触れたときには、現在の時刻T2を取得して終了する(ステップn37)。   As shown in FIG. 10, the current time T1 is acquired (step n30), and the current right hand (model) position Ar [X, Y, Z] is acquired in the above-described step n16 and step n19. (Step n31), the current left hand (model) position Al [X, Y, Z] is obtained (Step n32), and the current red sphere (or blue sphere) position B [X, Y. Z] (step n33), the position Cri [X, Y, Z] of the operating right hand (model) is acquired (step n34), and the position Cli [X, Y, of the operating left hand (model) is acquired. Z] (step n35), it is determined whether or not the right hand (or left hand) has touched the red sphere (or blue sphere) (step n36). If not touched, the process returns to step n34. The current time T2 is acquired and the process ends (step n37).

以上のようにして左手または右手が赤球または青球に触れるまでの位置のデータおよびそれに要する時間のデータを取得するものである。   As described above, the position data until the left hand or the right hand touches the red sphere or the blue sphere and the data required for the position are acquired.

次に、上述の図9におけるステップn18およびステップn21における作業の習熟度(作業習得の程度)の判定処理について説明する。   Next, the process of determining the proficiency level of work (the degree of work acquisition) in step n18 and step n21 in FIG. 9 described above will be described.

この実施の形態では、作業時間、手の動きのぶれ(蛇行)、手の動きの2次回帰曲線の寄与率の3種類の指標を用いて評価を行なうようにしている。   In this embodiment, the evaluation is performed using three types of indices: work time, hand movement blur (meandering), and hand movement secondary regression curve contribution rate.

すなわち、図11に示されるように、作業時間(動作時間)による評価では、上述の図10で取得された作業データから算出される作業時間(T2−T1)が、標準作業時間以下であるか否かを判断し(ステップn40)、標準作業時間以下でないときには、習熟総合判定をNGとしてスクリーン2aに表示する(ステップn41)。   That is, as shown in FIG. 11, in the evaluation based on the work time (operation time), is the work time (T2-T1) calculated from the work data acquired in FIG. 10 described above equal to or less than the standard work time? If it is not less than the standard work time, the master comprehensive judgment is displayed as NG on the screen 2a (step n41).

また、例えば、手の動きのぶれ(蛇行)による評価では、上述の図10で取得された作業データのA・BとCiのそれぞれの法線ベクトルを求め(ステップn42)、その中の一つを基準とし、他のベクトルとの角度を求める(ステップn43)。   Further, for example, in the evaluation by hand movement shaking (meandering), the normal vectors of A, B, and Ci of the work data acquired in FIG. 10 described above are obtained (step n42), and one of them is obtained. Is used as a reference to obtain an angle with another vector (step n43).

その角度の平均値が基準値以下であるか否かを判断し(ステップn44)、基準値以下でないときには、手の動きに蛇行(迷い)があるとして習熟総合判定をNGとしてスクリーン2aに表示する(ステップn41)。   It is determined whether or not the average value of the angles is equal to or less than the reference value (step n44). If the average value is not equal to or less than the reference value, the learning comprehensive determination is displayed on the screen 2a as NG because the movement of the hand is meandering. (Step n41).

また、ステップn45においては、角度の最大値が基準値以下であるか否かを判断し、基準値以下でないときには、手の動きに蛇行(迷い)があるとして習熟総合判定をNGとしてスクリーン2aに表示する(ステップn41)。   In step n45, it is determined whether or not the maximum value of the angle is equal to or less than the reference value. If the maximum value of the angle is not equal to or less than the reference value, it is determined that the learning comprehensive determination is NG on the screen 2a. Display (step n41).

また、ステップn46においては、基準値を超えるポイントの割合が、基準(%)以下であるか否か判断し、基準以下でないときには、手の動きに蛇行(迷い)があるとして習熟総合判定をNGとしてスクリーン2aに表示する(ステップn41)。   In step n46, it is determined whether or not the ratio of points exceeding the reference value is equal to or less than the reference (%). Is displayed on the screen 2a (step n41).

さらに、手の動きの2次回帰曲線の寄与率による評価では、上述の図10で取得された作業データのA・B・CそれぞれをXY平面・YZ平面に投影し(ステップn47)、二次曲線で近似して寄与率を求め(ステップn48)、寄与率が基準値以上であるか否かを判断し(ステップn49)、基準値以上でないときには、習熟総合判定をNGとしてスクリーン2aに表示する(ステップn41)。   Further, in the evaluation based on the contribution rate of the quadratic regression curve of the hand movement, A, B, and C of the work data acquired in FIG. 10 are projected onto the XY plane and the YZ plane (step n47), and the secondary is obtained. Approximate with a curve to determine the contribution rate (step n48), determine whether the contribution rate is greater than or equal to the reference value (step n49), and if not greater than the reference value, display the master comprehensive judgment as NG on the screen 2a. (Step n41).

以上の3種類の評価でOKと判断されたときに、すなわち、上述のステップn40,44,45,46,49において、YESと判断されたときには、習熟度総合判定OKをスクリーン2aに表示してバーチャル作業訓練を終了する(ステップn50)。   When it is determined that the above three types of evaluations are OK, that is, when it is determined YES in the above-described steps n40, 44, 45, 46, and 49, the skill level comprehensive determination OK is displayed on the screen 2a. The virtual work training is finished (step n50).

このようにしてバーチャル作業訓練と同時に、作業の正誤および作業の習熟度がリアルタイムで評価されて作業者にフィードバックされることになる。   Thus, simultaneously with the virtual work training, the correctness of the work and the proficiency level of the work are evaluated in real time and fed back to the worker.

なお、習熟度総合判定がOKと評価された場合には、作業訓練を終了し、実際の製造ラインで作業を行なうことになる。   Note that if the proficiency level comprehensive evaluation is evaluated as OK, the work training is ended and the work is performed on the actual production line.

ここで、以上の作業の習熟度の評価について、更に詳細に説明する。   Here, the evaluation of the proficiency level of the above work will be described in more detail.

作業の習熟度の評価は、作業中の迷い、手の軌跡などにより評価する。動作の迷いの指標には、上述のように手の軌跡のぶれ(蛇行)の有無および作業時間を用いる。
(1)動作の迷い(蛇行)
動作の迷いを判別する方法の一つとして、取り置き動作中の手の蛇行(ぶれ)を測定し、「迷い」の有無を判定する。
The proficiency level of the work is evaluated based on the wonder during the work, the trajectory of the hand, and the like. As described above, the presence / absence of shaking (meandering) of the hand trajectory and the working time are used as the index for the stray behavior.
(1) Lost movement (meandering)
As one of the methods for discriminating the movement, the meandering (blurring) of the hand during the holding operation is measured to determine the presence / absence of “stuck”.

動作始点の手の位置を、A(Xa,Ya,Za),部品位置(終点)をB(Xb,Yb,Zb),取り置き動作中の手の位置を、Ci=C(Xi,Yi,Zi)(i=1,2,…ni)とする。始点A、終点BおよびCiを通る平面の法線ベクトルαCiを求める。そして、求めたベクトルの中から一つ(αCw)を基準とし他のベクトルとの角度θiを計算する。   The position of the hand at the operation start point is A (Xa, Ya, Za), the part position (end point) is B (Xb, Yb, Zb), and the position of the hand during the holding operation is Ci = C (Xi, Yi, Zi). ) (I = 1, 2,..., Ni). A normal vector αCi of a plane passing through the start point A, the end point B, and Ci is obtained. Then, an angle θi with another vector is calculated based on one (αCw) of the obtained vectors.

法線ベクトルαCiは、式(1)により求まる。   The normal vector αCi is obtained by the equation (1).

Figure 2005134536
同様に、αCwを求める。αCiとαCwの2つのベクトルのなす角度θiは、式(2)により求まる。
Figure 2005134536
Similarly, αCw is obtained. The angle θi formed by the two vectors αCi and αCw can be obtained from Equation (2).

Figure 2005134536
そして、θiが0に近ければ、蛇行がないと判定するのである。
Figure 2005134536
If θi is close to 0, it is determined that there is no meandering.

なお、図12(a),(b)に蛇行がない場合と蛇行がある場合の平面の法線ベクトルの例を示している。
(2)動作の迷い(時間)
動作の迷いは、軌跡の他に、動作を始める前(停滞時間)にも発生すると考えられる。そこで、取り置き動作に要した時間を基に「迷い」の有無を判定する。
FIGS. 12A and 12B show examples of plane normal vectors when there is no meandering and when there is meandering.
(2) Loss of operation (time)
In addition to the trajectory, it is conceivable that the movement ambiguity occurs before the movement starts (stagnation time). Therefore, the presence / absence of “being lost” is determined based on the time required for the reserve operation.

標準資料(MTM法)を用いて移動動作の始点と終点の距離から標準動作時間を設定する。そして、作業者の動作時間が、標準動作時間以下となれば、迷いが発生していないと判定するものである。   The standard operation time is set from the distance between the start point and the end point of the movement operation using standard data (MTM method). If the operator's operation time is equal to or less than the standard operation time, it is determined that no hesitation has occurred.

Figure 2005134536
(3)動作軌跡の滑らかさ
作業に慣れるほど、手の軌跡は、滑らかになると考えられる。そこで、手の動きの滑らかさに着目して、到達度を評価する。手の軌跡を、XY平面、YZ平面に投影し、2次曲線で近似する。
Figure 2005134536
(3) Smoothness of motion trajectory It is considered that the trajectory of the hand becomes smoother as it gets used to work. Therefore, focusing on the smoothness of hand movement, the degree of achievement is evaluated. The locus of the hand is projected on the XY plane and the YZ plane and approximated by a quadratic curve.

XY平面上の近似式の寄与率Rl(X,Y)は次式により求まる。 The contribution ratio R 2 l (X, Y) of the approximate expression on the XY plane is obtained by the following expression.

Figure 2005134536
そして、寄与率が、1に近ければ、動作軌跡が2次曲線で表され、滑らかな動きになったと判定できる。そこで、XY平面における寄与率Rl(YZ)を横軸に、YZ平面における寄与率Rlを縦軸にプロットとし、それぞれの点Plと座標(1,1)との距離の和εを求め、動作の滑らかさの指標とする。
Figure 2005134536
If the contribution ratio is close to 1, the motion trajectory is represented by a quadratic curve, and it can be determined that the movement is smooth. Therefore, the contribution rate R 2 l (YZ) in the XY plane is plotted on the horizontal axis, and the contribution rate R 2 l in the YZ plane is plotted on the vertical axis, and the sum ε of the distances between the respective points Pl and coordinates (1, 1) As an index of smoothness of movement.

Figure 2005134536
なお、上述の実施の形態では、採用していなかったが、次のような身体部位の動きを用いて評価してもよい。
(4)身体部位の移動範囲
体全体の動きから、作業習熟度の到達度を評価する。作業に慣れる程、動作は規則的となり、各部位の動作範囲も小さくなると仮定する。そこで、作業中の身体の各部位の位置データを求める。各部位、例えば、肘28の動作範囲は、図13に示される2次元信頼楕円により近似する。信頼楕円の長径r1および短径r2は、次式により与えられる。
Figure 2005134536
Although not employed in the above-described embodiment, the following movement of the body part may be used for evaluation.
(4) Movement range of body part The achievement level of work proficiency is evaluated from the movement of the whole body. It is assumed that the operation becomes regular and the operation range of each part becomes small as it gets used to work. Therefore, the position data of each part of the body during work is obtained. The movement range of each part, for example, the elbow 28 is approximated by a two-dimensional confidence ellipse shown in FIG. The major axis r1 and minor axis r2 of the confidence ellipse are given by the following equations.

Figure 2005134536
以上の本発明の実施の形態の効果を明らかにするために、以下のような条件でバーチャル作業訓練を行い、上述の(1)〜(4)の4種類の指標によって、作業習熟度を評価した。
Figure 2005134536
In order to clarify the effects of the embodiment of the present invention described above, virtual work training is performed under the following conditions, and work proficiency is evaluated by the four types of indicators (1) to (4) described above. did.

対象とする組立工程は、図14に示すように、部品棚29の10箇所の部品置き場に置かれた異種部品を図示された順番にとって組立て位置に持ってくる作業とした。被験者に対してバーチャル作業訓練を5回行なった。   As shown in FIG. 14, the target assembly process is an operation of bringing different types of parts placed in 10 parts storage places of the parts shelf 29 to the assembly position in the order shown. Virtual work training was conducted 5 times for the subjects.

図15は、動作の迷い(蛇行)の評価結果を示す図である。この図15では、10番目の部品に右手を伸ばす動作を分析した結果を示している。但し、予備実験を行い、蛇行の判定基準を10°とした。   FIG. 15 is a diagram showing the evaluation result of the stray operation (meandering). FIG. 15 shows the result of analyzing the action of extending the right hand to the tenth part. However, a preliminary experiment was performed, and the criterion for meandering was set to 10 °.

1回目の作業訓練では、蛇行が2回確認されたのに対して、5回目では、蛇行は現れなくなった。同様に、10個の部品全てについて、5回の作業訓練を行なうことによって、手の蛇行は、現れなくなった。   In the first work training, meandering was confirmed twice, whereas in the fifth time, meandering did not appear. Similarly, by conducting 5 work trainings on all 10 parts, hand meandering disappeared.

図16は、動作の迷い(時間)の評価結果を示す図であり、この図では、10番目の部品に手を伸ばす動作に要した時間を示している。   FIG. 16 is a diagram showing the evaluation result of the ambiguity (time) of the operation. In this drawing, the time required for the operation of reaching the tenth component is shown.

作業訓練4回目以降は、動作時間WTが、標準動作時間SWT以下となった。この結果、4回目以降は、迷いが発生していないと判定した。同様に、10個の部品の全てについて、時間測定を行なった結果、5回目までに作業時間から見た迷いが現れなくなった。   After the fourth work training, the operation time WT became the standard operation time SWT or less. As a result, after the fourth time, it was determined that no hesitation occurred. Similarly, as a result of measuring the time for all the ten parts, there was no longer any inconvenience from the working time by the fifth time.

図17は、動作の滑らかさの評価結果を示す図であり、10番目の部品に手を伸ばす動作の軌跡を分析した結果を示している。この図 17には、動作軌跡の2次曲線および回帰式の寄与率を示しており、(a)は1回目、(b)は5回目を示している。   FIG. 17 is a diagram showing the evaluation results of the smoothness of the operation, and shows the result of analyzing the trajectory of the operation reaching for the tenth part. In FIG. 17, the quadratic curve of the motion trajectory and the contribution rate of the regression equation are shown. (A) shows the first time and (b) shows the fifth time.

寄与率は、5回目の方が、1に近づき、滑らかな動作となっている。YZ平面においても同様の結果が得られ、距離の合計εも5回目の方が、1回目に比べて20%減少した。   The contribution rate is closer to 1 in the fifth time, and the operation is smooth. Similar results were obtained in the YZ plane, and the total distance ε was reduced by 20% in the fifth time compared to the first time.

図18は、身体部位の移動範囲の評価結果を示す図であり、10番目の部品に右手を伸ばす動作の右肘の動作範囲を示している。(a)に示される1回目は、動作範囲が不規則に曲がり、予備実験により得られた範囲を越えている。しかし、(b)に示される5回目では、動作が滑らかとなり、動作範囲も予備実験により得られた範囲内に納まっている。   FIG. 18 is a diagram showing the evaluation result of the movement range of the body part, and shows the movement range of the right elbow in the movement of extending the right hand to the tenth part. In the first time shown in (a), the operation range bends irregularly and exceeds the range obtained by the preliminary experiment. However, at the fifth time shown in (b), the operation is smooth and the operation range is within the range obtained by the preliminary experiment.

本発明の作業訓練支援システムは、上述の各指標の少なくともいずれか一つを用いて作業の習熟度を評価すればよいが、好ましくは、全ての指標を組み合わせて総合的に評価するのが好ましい。   The work training support system of the present invention may evaluate the proficiency level of the work using at least one of the above-mentioned indices, but it is preferable to comprehensively evaluate by combining all the indices. .

(その他の実施の形態)
本発明は、法線ベクトルや2次回帰曲線などを用いた上述の実施の形態の解析手法に限らず、体の各部位の動きを、3次元空間座標位置および角度として検出し、その他の解析手法を用いて作業習得の程度を判定するようにしてもよい。
(Other embodiments)
The present invention is not limited to the analysis method of the above-described embodiment using a normal vector, a quadratic regression curve, or the like, but detects the movement of each part of the body as a three-dimensional spatial coordinate position and angle, and performs other analysis. You may make it determine the grade of work acquisition using a method.

上述の実施の形態では、偏光立体方式の大型スクリーンに仮想作業領域を表示して仮想の作業訓練を行なったけれども、本発明の他の実施の形態として、仮想作業領域を表示するVR表示装置としてヘッドマウントディスプレイを用いてもよい。   In the above-described embodiment, the virtual work area is displayed on the large-size polarizing stereoscopic screen and the virtual work training is performed. However, as another embodiment of the present invention, as a VR display device that displays the virtual work area. A head mounted display may be used.

また、VR表示装置2は、立体視表示できるのが好ましいが、二次元の表示装置であってもよい。   The VR display device 2 is preferably capable of stereoscopic display, but may be a two-dimensional display device.

上述の実施の形態では、動き検出装置の磁気センサは、左右の手に装着したけれども、この磁気センサの数や装着位置は、任意の選択してもよいのは勿論であり、それに応じて、作業者のモデルも手のみに限らず、その他の部位や作業者全体のモデルを表示するようにしてもよい。   In the above-described embodiment, the magnetic sensors of the motion detection device are mounted on the left and right hands, but the number and mounting positions of the magnetic sensors may be arbitrarily selected, and accordingly, The model of the worker is not limited to the hand, but other parts or the model of the entire worker may be displayed.

また、動き検出装置は、磁気式に限らず、光学式あるいは機械式などであってもよい。   The motion detection device is not limited to a magnetic type, and may be an optical type or a mechanical type.

本発明は、各種作業の作業訓練に有用である。   The present invention is useful for work training of various work.

本発明の一つの実施の形態に係るシステムの概略構成図である。1 is a schematic configuration diagram of a system according to an embodiment of the present invention. 図1の動き検出装置を説明するための図である。It is a figure for demonstrating the motion detection apparatus of FIG. システムの立ち上げ時の表示画面を示す図である。It is a figure which shows the display screen at the time of starting of a system. 設定画面を示す図である。It is a figure which shows a setting screen. 作業ガイダンスの画面を示す図である。It is a figure which shows the screen of work guidance. 作業ガイダンスの画面展開および処理の流れを示す図である。It is a figure which shows the screen expansion of a work guidance, and the flow of a process. バーチャル作業訓練および処理の流れを示す図である。It is a figure which shows the flow of virtual work training and a process. 作業ガイダンスの動作説明に供するフローチャートである。It is a flowchart with which it uses for operation | movement description of work guidance. バーチャル作業訓練の動作説明に供するフローチャートである。It is a flowchart with which it uses for operation | movement description of virtual work training. 作業データ取得の動作説明に供するフローチャートである。It is a flowchart with which operation | movement description of operation | work data acquisition is provided. 作業訓練評価の動作説明に供するフローチャートである。It is a flowchart with which it uses for operation | movement description of work training evaluation. 法線ベクトルを説明するための図である。It is a figure for demonstrating a normal vector. 信頼楕円を説明するための図である。It is a figure for demonstrating a trust ellipse. 組立て工程の部品棚を示す図である。It is a figure which shows the components shelf of an assembly process. 動作の迷い(蛇行)の評価結果を示す図である。It is a figure which shows the evaluation result of the ambiguity (meandering) of operation | movement. 動作の迷い(時間)の評価結果を示す図である。It is a figure which shows the evaluation result of the hesitation of operation (time). 動作の滑らかさの評価結果を示す図である。It is a figure which shows the evaluation result of the smoothness of operation | movement. 身体部位の移動範囲の評価結果を示す図である。It is a figure which shows the evaluation result of the movement range of a body part.

符号の説明Explanation of symbols

2 VR制御装置 3 VR制御パソコン
7 音声制御パソコン 8 動き検出装置
9 モーション制御パソコン
17 赤球 18 青球
2 VR control device 3 VR control personal computer 7 Voice control personal computer 8 Motion detection device 9 Motion control personal computer 17 Red ball 18 Blue ball

Claims (7)

作業者に対する作業訓練を支援する作業訓練支援システムであって、
仮想作業領域を表示してその仮想作業領域における作業内容を指導する作業指導手段と、
仮想作業領域を表示するとともに、作業者の動きを検出して前記仮想作業領域に表示して作業訓練を施す作業訓練手段と、
前記作業訓練手段による作業訓練の結果を評価する作業評価手段とを備え、
前記作業評価手段は、作業の正誤および作業習得の程度を評価することを特徴とする作業訓練支援システム。
A work training support system for supporting work training for workers,
A work guidance means for displaying a virtual work area and guiding work contents in the virtual work area;
A work training means for displaying a virtual work area, detecting a movement of an operator and displaying the virtual work area to perform work training;
Work evaluation means for evaluating the result of work training by the work training means,
The work evaluation support system characterized in that the work evaluation means evaluates the correctness of work and the degree of work acquisition.
前記作業指導手段は、前記仮想作業領域に前記作業内容に対応する位置を表示するものであり、
前記作業訓練手段は、前記仮想作業領域、前記作業者のモデルおよび作業内容に対応する前記位置を立体視可能に表示するものであり、
前記作業評価手段は、検出される作業者の動きに基づいて、作業の正誤および作業習得の程度を評価するとともに、評価結果を前記作業者に表示および音声の少なくともいずれか一方で報知する請求項1記載の作業訓練支援システム。
The work guidance means displays a position corresponding to the work content in the virtual work area,
The work training means displays the position corresponding to the virtual work area, the worker's model and work contents so as to be stereoscopically viewed,
The work evaluation means evaluates the degree of work accuracy and work acquisition based on the detected movement of the worker, and notifies the worker of the evaluation result by at least one of display and sound. The work training support system according to 1.
前記作業指導手段は、前記作業内容を音声で出力するものであり、
前記作業訓練手段は、前記作業内容に対応する作業者の音声を認識するものであり、
前記作業評価手段は、認識される前記音声に基づいて、作業の正誤を評価する請求項1または2記載の作業訓練支援システム。
The work guidance means outputs the work content by voice,
The work training means recognizes a worker's voice corresponding to the work content,
The work training support system according to claim 1, wherein the work evaluation unit evaluates the correctness of the work based on the recognized voice.
前記作業指導手段は、前記仮想作業領域を表示する表示部と、作業内容を音声で出力する音声出力部とを備え、
前記作業訓練手段は、前記仮想作業領域および前記作業者のモデルを立体視可能に表示する立体映像表示部と、前記作業者の動きを検出する動き検出部と、作業者の音声を入力して認識する音声認識部とを備える請求項3記載の作業訓練支援システム。
The work guidance means includes a display unit that displays the virtual work area, and a voice output unit that outputs work contents by voice.
The work training means inputs a stereoscopic video display unit that displays the virtual work area and the worker's model in a stereoscopic view, a motion detection unit that detects the movement of the worker, and voice of the worker. The work training support system according to claim 3, further comprising a voice recognition unit for recognizing.
前記作業評価手段は、作業内容に対応する前記位置への作業者の手の動きに基づいて、作業の正誤および作業習得の程度を評価する請求項2〜4のいずれかに記載の作業訓練支援システム。   The work training support according to any one of claims 2 to 4, wherein the work evaluation means evaluates the correctness of the work and the degree of work acquisition based on the movement of the worker's hand to the position corresponding to the work content. system. 前記作業評価手段は、予め定められた標準動作時間と、検出された作業者の動作時間とに基づいて、作業習得の程度を評価する請求項5記載の作業訓練支援システム。   6. The work training support system according to claim 5, wherein the work evaluation means evaluates the degree of work acquisition based on a predetermined standard operation time and the detected operation time of the worker. 前記作業評価手段は、作業内容に対応する前記位置への作業者の動作の迷いおよび動作の滑らかさの少なくともいずれか一方に基づいて、作業習得の程度を評価する請求項5または6記載の作業訓練支援システム。   The work according to claim 5 or 6, wherein the work evaluation means evaluates the degree of work acquisition based on at least one of a worker's ambiguity and smoothness of movement to the position corresponding to the work content. Training support system.
JP2003368945A 2003-10-29 2003-10-29 Work training support system Pending JP2005134536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003368945A JP2005134536A (en) 2003-10-29 2003-10-29 Work training support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003368945A JP2005134536A (en) 2003-10-29 2003-10-29 Work training support system

Publications (1)

Publication Number Publication Date
JP2005134536A true JP2005134536A (en) 2005-05-26

Family

ID=34646456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003368945A Pending JP2005134536A (en) 2003-10-29 2003-10-29 Work training support system

Country Status (1)

Country Link
JP (1) JP2005134536A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165193A (en) * 2006-12-29 2008-07-17 Yokogawa Electric Corp Operator training device for production environment and method of using the same
JP2010271926A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work guide system, work guide method, and recording medium recording the same
JP2010271536A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work training system and work training method, as well as recording medium with the work training method recorded thereon
JP2010271927A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work determination system, work determination method, and recording medium recording the same
JP2012133213A (en) * 2010-12-22 2012-07-12 Toyota Motor Corp Bolt tightening training equipment
CN104200018A (en) * 2014-08-26 2014-12-10 浪潮电子信息产业股份有限公司 Three-dimensional simulation software design method for equipment training
WO2016140129A1 (en) * 2015-03-05 2016-09-09 Necソリューションイノベータ株式会社 Motion evaluation device, motion evaluation method, and computer-readable recording medium
JP2017068432A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Step organization supporting device, step organization supporting method
JP2017207670A (en) * 2016-05-19 2017-11-24 株式会社東芝 Plant operation evaluation device, operation evaluation system for the same, and operation evaluation method for the same
JP6242452B1 (en) * 2016-08-22 2017-12-06 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2018072727A (en) * 2016-11-02 2018-05-10 株式会社東芝 Operation training simulator system
KR20180080897A (en) * 2017-01-05 2018-07-13 (주)유티엘코리아 Disaster training system and method using virtual reality
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
JP2019066623A (en) * 2017-09-29 2019-04-25 三井E&S造船株式会社 Engine room simulation training system and method for engine room simulation training
WO2019207816A1 (en) * 2018-04-24 2019-10-31 株式会社日立産機システム Simulation device and simulation method
CN110660287A (en) * 2019-09-11 2020-01-07 广东电网有限责任公司 Simulation examination system for distribution network uninterrupted operation
WO2020012702A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Work assisting system and work assisting method
WO2020012701A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Skill training device and skill training method
CN110751892A (en) * 2018-07-23 2020-02-04 西门子(中国)有限公司 Discrete manufacturing demonstration system and demonstration method, demonstration device and storage medium
CN110992795A (en) * 2019-12-26 2020-04-10 广东电网有限责任公司 Multifunctional live working training system
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
WO2020196818A1 (en) * 2019-03-27 2020-10-01 株式会社バイオミメティクスシンパシーズ Cell culturing education system and method
KR20200145342A (en) * 2019-06-21 2020-12-30 서울대학교병원 VR-based clean verification procedure training system of biological safety cabinet for GMP environment monitoring
KR102216312B1 (en) * 2019-11-14 2021-02-17 빠 왼 아웅 빠 Method and apparus providng virtual simulation with vr
JP2022513578A (en) * 2018-10-12 2022-02-09 クオリティー エグゼクティブ パートナーズ インコーポレイテッド Virtual reality simulation and method
JP7034518B1 (en) * 2021-07-12 2022-03-14 株式会社フルリール Systems, information processing equipment, methods, programs

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165193A (en) * 2006-12-29 2008-07-17 Yokogawa Electric Corp Operator training device for production environment and method of using the same
JP2010271926A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work guide system, work guide method, and recording medium recording the same
JP2010271536A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work training system and work training method, as well as recording medium with the work training method recorded thereon
JP2010271927A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work determination system, work determination method, and recording medium recording the same
JP2012133213A (en) * 2010-12-22 2012-07-12 Toyota Motor Corp Bolt tightening training equipment
CN104200018A (en) * 2014-08-26 2014-12-10 浪潮电子信息产业股份有限公司 Three-dimensional simulation software design method for equipment training
US10593223B2 (en) 2015-03-05 2020-03-17 Nec Solution Innovators, Ltd. Action evaluation apparatus, action evaluation method, and computer-readable storage medium
WO2016140129A1 (en) * 2015-03-05 2016-09-09 Necソリューションイノベータ株式会社 Motion evaluation device, motion evaluation method, and computer-readable recording medium
CN107408354A (en) * 2015-03-05 2017-11-28 日本电气方案创新株式会社 Act apparatus for evaluating, action appraisal procedure and computer-readable recording medium
JPWO2016140129A1 (en) * 2015-03-05 2018-01-25 Necソリューションイノベータ株式会社 Operation evaluation apparatus, operation evaluation method, and program
JP2017068432A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Step organization supporting device, step organization supporting method
JP2017207670A (en) * 2016-05-19 2017-11-24 株式会社東芝 Plant operation evaluation device, operation evaluation system for the same, and operation evaluation method for the same
JP2018032101A (en) * 2016-08-22 2018-03-01 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program and recording medium
JP6242452B1 (en) * 2016-08-22 2017-12-06 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2018072727A (en) * 2016-11-02 2018-05-10 株式会社東芝 Operation training simulator system
KR20180080897A (en) * 2017-01-05 2018-07-13 (주)유티엘코리아 Disaster training system and method using virtual reality
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
US10971029B2 (en) 2017-07-13 2021-04-06 Kabushiki Kaisha Toshiba Information processing device, method, and storage medium
JP2019066623A (en) * 2017-09-29 2019-04-25 三井E&S造船株式会社 Engine room simulation training system and method for engine room simulation training
JP7133915B2 (en) 2017-09-29 2022-09-09 三菱重工マリタイムシステムズ株式会社 Engine room simulation training system and engine room simulation training method
WO2019207816A1 (en) * 2018-04-24 2019-10-31 株式会社日立産機システム Simulation device and simulation method
JP2019191348A (en) * 2018-04-24 2019-10-31 株式会社日立産機システム Simulator and simulation method
JP6993927B2 (en) 2018-04-24 2022-02-04 株式会社日立産機システム Simulation equipment and simulation method
WO2020012702A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Work assisting system and work assisting method
JP7125872B2 (en) 2018-07-13 2022-08-25 株式会社日立製作所 Work support device and work support method
US11462126B2 (en) 2018-07-13 2022-10-04 Hitachi, Ltd. Work support device and work supporting method
JP2020012858A (en) * 2018-07-13 2020-01-23 株式会社日立製作所 Skill training device and skill training method
US11393360B2 (en) 2018-07-13 2022-07-19 Hitachi, Ltd. Skill training device and skill training method
WO2020012701A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Skill training device and skill training method
JP2020012859A (en) * 2018-07-13 2020-01-23 株式会社日立製作所 Work support device and work support method
CN110751892A (en) * 2018-07-23 2020-02-04 西门子(中国)有限公司 Discrete manufacturing demonstration system and demonstration method, demonstration device and storage medium
JP2022513578A (en) * 2018-10-12 2022-02-09 クオリティー エグゼクティブ パートナーズ インコーポレイテッド Virtual reality simulation and method
JP7402867B2 (en) 2018-10-12 2023-12-21 クオリティー エグゼクティブ パートナーズ インコーポレイテッド Virtual reality simulation and method
US11854424B2 (en) 2018-12-10 2023-12-26 Quality Executive Partners, Inc. Virtual reality simulation and method
WO2020196818A1 (en) * 2019-03-27 2020-10-01 株式会社バイオミメティクスシンパシーズ Cell culturing education system and method
KR102211108B1 (en) * 2019-06-21 2021-02-03 서울대학교병원 VR-based clean verification procedure training system of biological safety cabinet for GMP environment monitoring
KR20200145342A (en) * 2019-06-21 2020-12-30 서울대학교병원 VR-based clean verification procedure training system of biological safety cabinet for GMP environment monitoring
CN110660287A (en) * 2019-09-11 2020-01-07 广东电网有限责任公司 Simulation examination system for distribution network uninterrupted operation
KR102216312B1 (en) * 2019-11-14 2021-02-17 빠 왼 아웅 빠 Method and apparus providng virtual simulation with vr
CN110992795A (en) * 2019-12-26 2020-04-10 广东电网有限责任公司 Multifunctional live working training system
JP7034518B1 (en) * 2021-07-12 2022-03-14 株式会社フルリール Systems, information processing equipment, methods, programs
JP2023011271A (en) * 2021-07-12 2023-01-24 株式会社フルリール System, information processing device, method and program

Similar Documents

Publication Publication Date Title
JP2005134536A (en) Work training support system
Cao et al. An exploratory study of augmented reality presence for tutoring machine tasks
CN106128212B (en) Learning calligraphy system and method based on augmented reality
Motokawa et al. Support system for guitar playing using augmented reality display
Kwon et al. Combining body sensors and visual sensors for motion training
CN106409063A (en) Robot painting teaching method and device and robot
CN107992858A (en) A kind of real-time three-dimensional gesture method of estimation based on single RGB frame
Buń et al. Possibilities and determinants of using low-cost devices in virtual education applications
CN105929958B (en) A kind of gesture identification method, device and wear-type visual device
US11442685B2 (en) Remote interaction via bi-directional mixed-reality telepresence
Zielasko et al. A reliable non-verbal vocal input metaphor for clicking
Bhargava et al. Did i hit the door? effects of self-avatars and calibration in a person-plus-virtual-object system on perceived frontal passability in vr
US20190355281A1 (en) Learning support system and recording medium
US20140310640A1 (en) Interactive digital art apparatus
CN112748800B (en) Intelligent glove-based experimental scene perception interaction method
Liu et al. An interactive speech training system with virtual reality articulation for Mandarin-speaking hearing impaired children
Huenerfauth et al. Accurate and accessible motion-capture glove calibration for sign language data collection
KR20170039953A (en) Learning apparatus using augmented reality
Miyake et al. A spoken dialogue system using virtual conversational agent with augmented reality
Soares et al. Sign language learning using the hangman videogame
Sharma et al. Projectable interactive surface using microsoft kinect v2: Recovering information from coarse data to detect touch
JP7133590B2 (en) Video processing method, server device and computer program
Gac et al. Virtual interactive tablet to support vocational training in immersive environment
Krak et al. Interactive systems for sign language learning
Jamal et al. EasyARPiano: Piano Teaching Mobile App with Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090623