JP7116696B2 - Learning support system and program - Google Patents
Learning support system and program Download PDFInfo
- Publication number
- JP7116696B2 JP7116696B2 JP2019040764A JP2019040764A JP7116696B2 JP 7116696 B2 JP7116696 B2 JP 7116696B2 JP 2019040764 A JP2019040764 A JP 2019040764A JP 2019040764 A JP2019040764 A JP 2019040764A JP 7116696 B2 JP7116696 B2 JP 7116696B2
- Authority
- JP
- Japan
- Prior art keywords
- learner
- difference
- model
- unit
- instructor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/24—Use of tools
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Computer Hardware Design (AREA)
- Educational Administration (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Entrepreneurship & Innovation (AREA)
- Electrically Operated Instructional Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、技術を学習する際に使用される学習支援システム、学習支援装置及びプログラムに関する。 The present invention relates to a learning support system, a learning support device, and a program used when learning a technique.
従来、様々な技術分野における技術の伝承は、指導者の指導のもとで技術の学習者が実際に訓練や作業を行うことで行われてきた。 Conventionally, techniques in various technical fields have been passed down through actual training and work performed by technical learners under the guidance of instructors.
高度な技術を学習者に伝えるには、言葉では表現しにくいコツを伝えることが必要な場合があるが、指導者にとって、そのコツを効率よく学習者に伝えることは容易ではない。近年、指導者が取得した技術を、学習者に効率よく伝えるために、指導者の技術をデータ化して保存し、保存した技術データを学習者に表示する装置や方法が提案されている(例えば特許文献1)。 In order to convey advanced skills to learners, it is sometimes necessary to convey tips that are difficult to express in words, but it is not easy for instructors to efficiently convey these tips to learners. In recent years, in order to efficiently convey the skills acquired by the instructor to the learner, devices and methods have been proposed that store the instructor's skills as data and display the stored technical data to the learner (for example, Patent document 1).
特許文献1には、様々な環境下において、指導者の手の位置、移動量、移動速度など、指導者の動きを抽出して保存する方法が開示されている。この方法では、環境を変えながら指導者に毎度同じ作業を行ってもらい、指導者の動作をその都度モーションキャプチャ等により測定することで、環境の変化と動作の変化とを関連付けて保存している。 Patent Literature 1 discloses a method of extracting and storing movements of a leader, such as the position of the leader's hand, the amount of movement, and the speed of movement, under various environments. In this method, the instructor performs the same work each time while changing the environment, and by measuring the instructor's movements each time using motion capture, etc., changes in the environment and movements are associated and saved. .
また、測定した指導者の動作情報を画像化し、その画像を、メガネ型のウエアラブルデバイス(スマートグラス)などを用いた拡張現実(AR)技術により現実の作業風景に重ねて表示する技術も提案されている(例えば特許文献2)。 In addition, a technology has been proposed that visualizes the movement information of the instructor that has been measured, and displays the image superimposed on the actual work scene using augmented reality (AR) technology using glasses-type wearable devices (smart glasses). (for example, Patent Document 2).
例えば特許文献2の作業支援装置では、情報処理部が、撮像部により測定された作業対象となる物体の表面形状と、予め保存されている物体の表面形状とを比較し、作業対象物体の各点において熱変形させるべき量を算出した後、その変形量を得るために加熱する位置と加熱量を算出し、加熱する位置を示す画像を作業対象物体の映像上に重ね合わせてヘッドマウントディスプレイに表示している。 For example, in the work support device disclosed in Patent Document 2, the information processing unit compares the surface shape of the work target object measured by the imaging unit with the surface shape of the work target object that is stored in advance. After calculating the amount to be thermally deformed at the point, the position to be heated and the amount of heat to obtain the amount of deformation are calculated, and an image showing the position to be heated is superimposed on the image of the work target object and displayed on the head-mounted display. it's shown.
特許文献2など、データ化された指導者の技術を学習者に表示する従来の学習支援システムは、習熟度の異なる学習者に対しても、利き手など特徴の異なる学習者に対しても、一様に技術を表示する。このようなシステムでは、習熟度や特徴の異なる学習者が効率よく学習できない場合がある。 A conventional learning support system, such as Patent Document 2, which displays the data of the instructor's technique to the learner, can be used for learners with different proficiency levels and for learners with different characteristics such as dominant hand. Show technology like In such a system, learners with different proficiency levels and characteristics may not be able to learn efficiently.
本発明は、学習者が、技術を効率よく習得できる学習支援システムを提供することを目的とする。 An object of the present invention is to provide a learning support system that enables a learner to efficiently acquire skills.
上記課題を解決するため、本発明は、学習者に装着される表示部と、学習者に装着されて学習者の視野映像を撮像する撮像部と、学習者の動作のお手本となる指導者の作業動作の動画であるお手本動画を格納する格納部と、演算部とを備えている。演算部は、お手本動画を、撮像部が撮像した視野映像上に重ね合わせて表示部に表示させるとともに、視野映像に含まれる学習者の作業動作の特徴に応じて、動的にお手本動画の表示内容を変化させる。 In order to solve the above problems, the present invention provides a display unit worn by the learner, an imaging unit worn by the learner to capture the visual field image of the learner, and an instructor who serves as a model of the learner's actions. It comprises a storage section for storing a model video, which is a video of a working action, and a computing section. The calculation unit superimposes the model video on the visual field image captured by the imaging unit and displays it on the display unit. Change content.
本発明によれば、表示されるお手本動画が学習者の作業動作に合わせて動的に変化するため、学習者は、それぞれにあったペースで技術を習得する訓練を行うことができる。これにより学習者は、技術を効率よく習得できる。 According to the present invention, the displayed model moving image dynamically changes according to the work motion of the learner, so that the learner can train to acquire the technique at a pace suitable for each learner. This allows the learner to acquire the technology efficiently.
以下、本発明の実施の形態にかかる学習支援システムについて説明する。 A learning support system according to an embodiment of the present invention will be described below.
<<第1実施形態の学習支援システム>>
第1実施形態の学習支援システムとしては、学習者が超音波撮像装置におけるプローブの操作方法を学習するメガネ型デバイス用のシステムの例について説明する。この学習支援システムは、図1に示すように、学習者102に装着されるメガネ型デバイス201と、メガネ型デバイス201にネットワーク(一例として無線LAN(Local Area Network))30を介して接続されメガネ型デバイス201の機能を制御する制御システム101とを備えている。メガネ型デバイス201は、表示部19と、学習者102の視野映像を撮像する撮像部(カメラ)15と、を備えている。
<<Learning support system of the first embodiment>>
As a learning support system according to the first embodiment, an example of a system for a glasses-type device in which a learner learns how to operate a probe in an ultrasonic imaging apparatus will be described. As shown in FIG. 1, this learning support system includes a glasses-
制御システム101は、図2に示すように、メガネ型デバイス201から受け取った情報に基づいてこの学習支援システムにおける各種演算を行う演算部16と、各種情報を格納している情報格納部17と、を備えている。演算部16は、学習者102の作業動作のお手本となる指導者の作業動作の動画であるお手本動画(例えば図4参照)を、カメラ15が撮像した視野映像上に重ね合わせて表示部19に表示させるとともに、視野映像に含まれる学習者102の作業動作の特徴に応じて、動的にお手本動画の表示内容を変化させる。情報格納部17には、後で詳しく説明するが、お手本動画や指導者の手の位置情報などを含むお手本データが、少なくとも格納されている。
As shown in FIG. 2, the
演算部16は情報格納部17に予め格納された学習支援プログラムを実行することにより種々の演算を実行する。具体的には演算部16は、カメラ15から学習者102の視野映像を取り込む映像取り込み部161と、学習者102の視野映像に、お手本動画を重畳し、重畳した処理画像を表示部19に出力する重畳表示部162と、お手本動画に含まれる指導者の作業動作と視野映像に含まれる学習者102の作業動作との差分を算出する差分算出部163と、差分算出部163により求められた差分が所定の閾値以上か否かを判定する差分判定部16Aと、差分算出部163が算出した差分に基づいて表示するお手本動画の表示内容を変更する表示調整部16Cとを備えている。
The
第1実施形態の学習支援システムによる訓練動作の流れを図3を参照して説明する。このフローでは、学習者102がプローブ202を手に持った状態で訓練を行う場合の作業動作について説明する。
The flow of training motions by the learning support system of the first embodiment will be described with reference to FIG. In this flow, a work operation when the
図3のフローの訓練動作は、制御システム101により制御され実行される。まずカメラ15が学習者102の視野映像を撮像する。映像取り込み部161は、ネットワーク30を介してカメラ15により撮像された学習者の視野映像を取り込む(ステップS41)。次に重畳表示部162は、情報格納部17に格納されているお手本画像を読み出して、学習者の視野映像に含まれる学習者の手とプローブ202の像に、お手本動画に含まれる指導者の手とプローブの予め定めた基準点が重なるように位置を調整し、位置を調整したお手本動画を表示部19に表示させる(ステップS42)。次に差分算出部163が、図4に示すように、学習者が持つプローブ202の位置と、指導者が持つプローブの位置の差分を算出する。具体的には、まず差分算出部163は、学習者の視野映像から、学習者が持つプローブ202の検査対象の表面に触れる面の中心202bの位置を算出する。また差分算出部163は、情報格納部17に格納されているお手本データから、指導者が持つプローブが検査対象に触れる面の中心202cの位置を読み出す。そして差分算出部163は、指導者の持つプローブの中心202cの位置と学習者の持つプローブ202の中心202bの位置の差分を算出する(ステップS43)。
The training operation of the flow of FIG. 3 is controlled and executed by
次に差分判定部16Aは、ステップS43で差分算出部163が求めた差分が、所定の閾値以上であるか否かを判定し、差分が閾値以上の場合、その結果(差分判定結果)を表示調整部16Cに出力する(ステップS44)。表示調整部16Cは、お手本動画のプローブの中心202bの位置を、学習者のもつプローブ202の中心202cの位置にずらす画像処理を行い、処理したお手本動画を、ネットワーク30を介してメガネ型デバイス201に出力する。メガネ型デバイス201が受け取ったお手本動画は、表示部19に表示される(ステップS45)。
Next, the
これにより、学習者は、指導者と学習者のプローブの位置が重なった映像を見ることができるため、手やプローブの向きや角度を指導者の手やプローブの向きや角度に合わせることができ、効率よく手やプローブの動かし方を学習することができる。 As a result, the learner can see the images in which the positions of the probes of the instructor and the learner are overlapped, so that the orientation and angle of the hand and probe can be matched to the orientation and angle of the instructor's hand and probe. , you can learn how to move your hands and probes efficiently.
ステップS45で処理したお手本動画が学習者に表示されたら、フローはステップS41に戻る。学習支援システムは以上のフローを学習者の訓練が終了するまで繰り返す。また、ステップS44で差分算出部163が算出した差分が閾値未満の場合、フローはステップS41に戻る。
After the model moving image processed in step S45 is displayed to the learner, the flow returns to step S41. The learning support system repeats the above flow until the learner's training is completed. Moreover, when the difference calculated by the
なお、表示調整部16Cは、学習者のプローブ202の中心202bと、指導者のプローブの中心202cとを基準点として、学習者の視野映像の手の位置にお手本動画の手の位置を揃えたが、他の基準点を用いてもよい。例えば表示調整部16Cは、学習者102の指先の位置とお手本動画の指導者の指先の位置を揃えるなど、学習者の身体の一部の位置を検出してお手本動画の表示位置の調整を行ってもよい。
Note that the
[位置の差分を学習者に知らせる表示]
以下、差分判定部16Aが算出した学習者と指導者との位置の差分が閾値以上である場合に、表示調整部16Cが行う別の表示調整例について説明する。
[Display to inform the learner of the difference in position]
Another example of display adjustment performed by the
表示調整部16Cは、学習者の持つプローブ202の中心202bと、指導者の持つプローブの中心202cとの位置の差分を図4に示すように、矢印102dにより表示することができる。学習者は、矢印102dの大きさや傾きを見て、自分の動作がお手本からどれだけずれているかを認識することができる。また学習者は、矢印102dを見ながら、自分が持つプローブ202の位置を指導者が持つプローブの位置に容易に近づけることができる。
The
また、指導者のヒジの位置がお手本動画に含まれ、ヒジの位置情報が情報格納部17に格納されている構成としてもよい。この場合、差分算出部163は、学習者の視野映像から学習者のヒジの位置を検出し、学習者のヒジの位置と指導者のヒジの位置の差分を算出することができる。学習者のヒジの位置と指導者のヒジの位置との差分が閾値以上である場合、表示調整部16Cは、図5に示すように、「もっとヒジを持ち上げて!」など、学習者がどのように身体を動かしたらよいかを具体的に文章で表示することができる。また表示調整部16Cは、動かすべき身体の部位に矢印19bなどのサインを表示してヒントを表示してもよい。
In addition, the position of the instructor's elbow may be included in the model moving image, and the position information of the elbow may be stored in the
また、情報格納部17に指導者の手102bの骨と関節の位置を示す骨格図19cを格納しておく構成としてもよい。この場合、図6に示すように、表示調整部16Cは、指導者の手102bの映像に骨格図19cを重ねて表示することができる。骨格図19cを表示することにより、学習者は、表示された指導者の手102bの関節の位置を見ながら自分の手の位置を容易に修正することができる。
Further, the
さらに情報格納部17に、図7に示すように、作業する手や腕の形をしていて、作業の各時点で手の部位ごとに加えるべき力の大きさを色で示した色分布図19dを格納しておく構成としてもよい。この場合、差分算出部163が学習者の視野映像から学習者の手や腕の位置や形状を検出し、表示調整部16Cは、色分布図19dを学習者の手102cに重ねて表示することができる。例えばサーモグラフィのように、学習者が筋肉に大きく力を加えるべき身体の部位には暖色系の色を重ね、少しだけ力を加えるべき身体の部位には寒色系の色を重ねて表示する等により、学習者に力の入れ具合を認識させることができる。
Further, in the
また、表示調整部16Cは、図8に示すように、指導者のプローブと学習者が持つプローブ202の位置が重なっている領域と位置がずれている領域を検出し、重なっている領域を白色に表示し、位置ずれが生じている領域については、指導者のプローブとプローブ202とを異なる色に着色して表示することもできる。このように学習者と指導者との位置がずれている領域を、学習者と指導者とで色を変えて表示することができるため、学習者と指導者との位置の差分が強調される。よって学習者は、自分の手を動かすべき方向を容易に認識できる。
In addition, as shown in FIG. 8, the
また、表示調整部16Cは、学習者の持つプローブ202の位置が指導者の持つプローブの位置からずれた場合、位置ずれが始まったタイミングまでお手本動画を巻き戻し、再生する構成としてもよい。このとき再び流すお手本動画を短い時間のセグメントに分けて、セグメント毎にお手本動画を繰り返し再生してもよい。これにより、学習者が苦手な作業動作を何回も練習できるため、学習効果を高めることができる。
Further, when the position of the
なお、メガネ型デバイス201には振動センサが備えられていてもよい。その場合、学習者の持つプローブ202の位置と指導者の持つプローブの位置がずれたタイミングで、メガネ型デバイス201に搭載された振動センサにより振動や衝撃などのフォースフィードバックを学習者に与えるようにしてもよい。
Note that the glasses-
以上のように表示内容を変化させることで、位置ずれを学習者に知らせることができるため、学習者は正しいプローブや手の位置を把握しやすく、かつ位置ずれを修正しやすくなる。 By changing the display content as described above, the learner can be informed of the positional deviation, so that the learner can easily grasp the correct positions of the probe and the hand, and can easily correct the positional deviation.
[表示調整の種類]
<位置以外の動作要素について>
以上の説明では、差分算出部163が学習者と指導者のプローブまたは手の位置の差分(動作要素)を算出する例について説明したが、差分算出部163は、学習者と指導者との作業動作の差分を算出する動作要素として、「位置」以外にも「スピード、圧力、動作軌跡、注視点、音」など1以上の動作要素を検出してもよい。指導者のこれらの動作要素は、お手本データに含まれ、情報格納部17に格納されている。各動作要素における学習者と指導者との差分の算出方法と、その差分の表示方法について、図9を参照して説明する。
[Display adjustment type]
<Operating elements other than position>
In the above description, an example has been described in which the
・スピード
カメラ15が撮像した映像から、差分算出部163は、学習者が手を動かすスピードを算出し、算出した学習者の手のスピードと、情報格納部17に格納されている指導者の手の動くスピードとの差分を学習者と指導者の手の位置の差から算出する。差分判定部16Aが学習者のスピードと指導者のスピードとの差分が所定値以上であると判定した場合、表示調整部16Cは、お手本動画の再生スピードを学習者のスピードに合わせるように調整する。例えば学習者102の作業動作が所定値以上に指導者の作業動作よりも遅い場合、表示調整部16Cは、学習者102のスピードに合うように、お手本動画の再生スピードを遅くする。学習者と指導者のスピードはそれぞれ、表示する画像の色温度の違いで表示したり、バロメータや数値などによって表示したりして、学習者に自分のスピードと指導者のスピードの差分を認識させるようにしてもよい。
・From the video imaged by the
・圧力
指導者が検査対象にプローブを押し当てる際の圧力(以下、指導者の圧力という)情報を、情報格納部17に予め格納しておく。重畳表示部162は情報格納部17から指導者の圧力情報を読み出し、その圧力の大きさを径の大きさで示す円103b2を、図9に示すように、学習者の視野映像に重畳表示させる。また差分算出部163は、学習者が検査対象にプローブ202を押し当てる際の手、指先、または爪の色の変化から、学習者が検査対象にプローブ202を押し当てている圧力を算出する。差分判定部16Aが、学習者のプローブ202を押し当てる圧力と指導者の圧力との差分が所定値以上であると判定した場合、表示調整部16Cは、指導者の圧力と学習者の圧力の差分を例えば円の大きさ、円の色の違いなどにより表示する。指導者の圧力と学習者の圧力の差は、例えば図10に示すように学習者102による圧力を示す円103b1と、指導者による圧力を示す円103b2とで囲まれた領域を塗りつぶすことにより強調表示することができる。学習者は、この円の塗りつぶされた領域を小さくするようにプローブを動かすことで、指導者の圧力に近い圧力で検査対象を押し当てる訓練を行うことができる。
Pressure Information on the pressure when the instructor presses the probe against the test object (hereinafter referred to as the instructor's pressure) is stored in advance in the
・動作軌跡
指導者がプローブを動かす経路(動作軌跡)の情報を情報格納部17に予め格納しておく。重畳表示部162は、情報格納部17から動作軌跡の情報を読み出し、その動作軌跡を示す動線を、学習者の視野映像に重畳表示させる。その際、指導者の動作軌跡の色を図9に示すように、学習者のプローブ202の今ある位置よりも過去の軌跡(過去の動作軌跡)103cか、未来の軌跡(将来の動作軌跡)103dかで異なる色にして表示してもよい。また差分算出部163は、カメラ15により撮像された学習者の視野映像から、学習者のプローブ202の動作軌跡を算出し、学習者のプローブ202の動作軌跡と指導者のプローブの動作軌跡との差分を求める。差分判定部16Aが、差分が所定値以上であると判定した場合、表示調整部16Cは、すでに表示されている指導者のプローブの動作軌跡103c、103dに、学習者のプローブ202の動作軌跡を示す動線を重畳表示させることで指導者の動作軌跡と学習者の動作軌跡の差分を、学習者に認識させてもよい。
- Motion trajectory Information on the route (motion trajectory) along which the instructor moves the probe is stored in advance in the
・注視点
作業中に指導者が注目している点(注視点)の情報を情報格納部17に予め格納しておく。重畳表示部162は、情報格納部17から注視点情報を読み出し、その注視点を示す点103aを、学習者の視野映像に重畳表示させる。メガネ型デバイス201は後述する図11のように視線センサ20を備えている。視線センサ20は学習者の注視点を検出する。差分算出部163は、学習者の注視点と、情報格納部17に格納されている指導者の注視点103aとの差分を算出する。差分判定部16Aが、学習者と指導者の注視点103aとの差分が閾値以上であると判定した場合、表示調整部16Cは、指導者の注視点103aを点滅などにより強調して表示させる。表示調整部16Cは指導者の注視点103a以外にも、視線センサ20により検出された学習者の注視点を、十字記号などを用いて表示部19に表示させてもよい。
- Gaze Point Information on the point (gazing point) that the instructor pays attention to during the work is stored in advance in the
・音
メガネ型デバイス201に、作業音を録音する録音機器が備えられていてもよい。この場合、録音機器は、学習者の作業音をその録音機器が取得し、差分算出部163が録音した学習者の作業音と、情報格納部17に格納されているお手本動画の作業音との差分を算出する。差分判定部16Aが学習者と指導者の作業音の差分が閾値以上であると判定した場合、表示調整部16Cは波形、色、文字などにより音がずれていることを表示させる。
- Sound The glasses-
なお、各動作要素について、統計的に起こりやすいずれ方やその原因が、情報格納部17に予め格納されていてもよい。その場合、差分算出部163は、学習者の作業動作と指導者の作業動作とでずれの生じた動作要素について、学習者の作業動作と指導者の作業動作の違いの原因を求める構成としてもよい。また、表示調整部16Cは、各動作要素の統計的に起こりやすいずれ方やその原因を表示部19に表示させてもよい。
It should be noted that the
[メガネ型デバイス201]
ここで、メガネ型デバイス201の構成について具体的に説明する。メガネ型デバイス201は、図11に示すように、眼鏡と、眼鏡の一部に搭載された、カメラ15、表示部19、無線通信デバイス13、CPU12、メモリ18、および視線センサ20を備えて構成される。
[Glasses-type device 201]
Here, the configuration of the glasses-
カメラ15は、ユーザの視線の方向等の所定の方向の映像を撮像し、またユーザの作業動作を計測する。
The
表示部19は、演算部16およびCPU12の制御下で表示調整部16Cが調整したお手本動画をユーザの視野内に投影する。
The
なお、表示部19としては、ユーザの網膜に映像を投影する構造のものを用いることも可能である。また眼鏡の代わりにウエアラブルなディスプレイを用いてもよい。この場合、カメラ15が撮像したユーザの視野映像と、表示調整部16Cが調整したお手本動画とが重畳されて、ウエアラブルなディスプレイに表示される。
As the
無線通信デバイス13は、CPU12と、制御システム101との間の通信を行う。
A
CPU12は、制御システム101の演算部16から受け取った情報に基づいてメガネ型デバイス201の各部の動作の制御を行う。具体的には、カメラ15で撮像した映像データを、映像取り込み部161に送信するように無線通信デバイス13に指示を送ったり、重畳表示部162や表示調整部16Cから受け取った情報を表示部19に送信して表示する映像に反映させたりする。
The
メモリ18には、カメラ15の撮像した映像やCPU12の演算結果が必要に応じて格納される。また、メモリ18には、表示部19に表示する映像を格納することもできる。
The
視線センサ20は、ユーザの注視点がどこにあるかを検出するセンサである。視線センサ20は、検出した注視点のデータをCPU12に送信する。
The line-of-
[訓練モード]
以上の説明では、表示調整部16Cが、随時、指導者の持つプローブの位置を学習者の持つプローブ202の位置に合わせるものとして説明した。情報格納部17には、随時指導者の手の位置合わせを行い学習者のペースに合わせた訓練を可能とした基礎訓練用のビギナーモードと、差分が所定値を超えたときだけ指導者の手の位置が修正されるノーマルモードなど、複数の訓練モード(表1)が格納されていてもよい。ここで、情報格納部17に格納される訓練モードについて説明する。
[Training mode]
In the above description, it is assumed that the
ビギナーモードでは、お手本動画の再生中、お手本動画が学習者102の作業動作に追随し、お手本動画の重畳位置や動作スピードが動的に変更される。このモードでは、お手本動画が学習者の動作ペースに合わせて調整されるため、学習者は、指導者の作業をつぶさに観察し、正しい作業の型を覚えることができる。
In the beginner mode, during the reproduction of the model moving image, the model moving image follows the work motion of the
ノーマルモードは、指導者の作業のスピード感を重視してお手本動画を再生し、学習者がそれに慣れながら作業の質を向上できるようにした訓練モードである。このモードでは、基本的にはお手本動画は指導者の作業スピードで再生され、学習者102の作業動作が一定以上遅れた場合のみ、お手本動画の重畳位置や再生スピードが学習者102に合うようにコントロールされる。
The normal mode is a training mode in which a model video is played back with an emphasis on the speed of the instructor's work so that the learner can improve the quality of the work while getting used to it. In this mode, basically, the model video is played back at the work speed of the instructor, and only when the work action of the
各訓練モードにおける処理は図3で示したフローの通りであり、各訓練モードで表示調整部16Cは、差分判定部16Aによる差分判定結果に応じて、お手本動画の表示内容を、学習者102の作業動作に合わせて動的に変化させる。具体的には、表示調整部16Cは、差分判定結果に基づいて、差分が所定値以上の動作要素を、差分が所定値に満たない動作要素よりも学習者102に認知しやすい形で表示させるように、お手本動画の各動作要素の透過率を動的に変更したり、表示の有無を動的に切り替えたりする。
The processing in each training mode is as shown in the flow shown in FIG. Dynamically change according to work operation. Specifically, based on the difference determination result, the
具体的には、例えば図12(a)に示すように指導者の圧力を示す円103b2、指導者の注視点103a、動作軌跡103c、103dが表示されており、学習者の圧力と注視点が指導者の圧力と注視点に対して差分が少なくなるように変化していった場合、学習者が適切な圧力や注視点で作業を行っているということであり、表示調整部16Cは、図12(a)~(c)に示すように、表示していた指導者の圧力103b2と注視点103aの表示の透明度を高める透明度制御を行う。反対に、学習者の作業動作で指導者の作業動作との差分が大きくなるように変化していく動作要素について、表示調整部16Cは、透明度を低く、より強調して表示するようにする。
Specifically, for example, as shown in FIG. 12(a), a circle 103b2 indicating the instructor's pressure, the instructor's
このような透明度制御により、学習者の苦手な動作要素(ここでは、正しい軌跡を描いてプローブを動かすこと)の表示が強調されるため、学習者は苦手な動作要素に注目しながら訓練を行うことができる。 This kind of transparency control emphasizes the display of movement elements that the learner is not good at (here, moving the probe while drawing the correct trajectory), so the learner can focus on the movement elements that the learner is not good at during training. be able to.
[プログラム構成・訓練全体の流れ]
以下、本実施形態の学習支援システムが実行する、技術訓練のプログラムの構成の例と、訓練全体の流れについて説明する。情報格納部17には、学習支援プログラムとして、例えば表1に示すように複数のモードが格納されている。具体的には、先述のビギナーモード、ノーマルモードに加えて、レベル判定モード、ガイダンスモード、および振り返りモードが情報格納部17に格納されている。
[Program structure/flow of overall training]
An example of the configuration of the technical training program executed by the learning support system of the present embodiment and the overall flow of the training will be described below. The
これらのモードを実行する場合、制御システム101の演算部16は、図13に示すように、映像取り込み部161、重畳表示部162、差分算出部163、差分判定部16A、表示調整部16Cに加えて、差分判定部16Aによる差分判定結果から学習者102の技術レベルを評価するレベル評価部16Bと、学習者102のスキルデータを統計演算する統計演算部16Dとを備えている。
When executing these modes, the
重畳表示部162が学習者の視野映像とお手本動画の位置を揃えて重ねる方法には、公知の方法を用いることができる。例えば重畳表示部162は、学習者102の身体(手など)や超音波検査の対象物、学習者が持つプローブなど、技術習得中に学習者102の視界に入るもの、あるいはその周囲に取り付けられた印を基準マーカーとして用い、お手本動画の表示位置を決定する。
A well-known method can be used as a method for the superimposed
演算部16は、CPU或いはGPUに搭載されるソフトウェアとしてその機能が実現される。また演算部16の一部または全部の機能は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programable Gate Array)などのハードウェアで実現することも可能である。
The functions of the
情報格納部17には、技術習得のための訓練モードを含む学習支援プログラムに加え、学習者102の基本情報(例えば年齢、利き手、くせ、視力、握力などの個々人の身体能力の違い)、訓練の種類に応じて指導者が行う作業動作に関するお手本データ、学習者102の技術データのログ、学習者102の弱点リスト等を含む学習者102のデータテーブルが格納されている。情報格納部17に格納されているお手本データには、お手本動画、指導者の作業動作の複数の動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、お手本動画の基本情報(例えば利き手、お手本動画で超音波検査を行う検査部位、検査内容、患者の体型)、各動作要素について指導者と学習者の動作に差分が生じた場合の差分の表示方法等が含まれている。また情報格納部17には、カメラ15で撮像した映像や演算部16の演算結果が必要に応じて格納される。さらに情報格納部17は、表示部19に表示する映像を格納することもできる。
In the
以下、学習支援システムによる訓練全体のフローについて図14、15を参照して説明する。このフローでは、学習者の作業動作と指導者の作業動作との差分を判断する動作要素として、位置、スピード、圧力、動作軌跡、注視点および音の6つの動作要素を用いる場合について説明する。 The overall flow of training by the learning support system will be described below with reference to FIGS. 14 and 15. FIG. In this flow, a case will be described in which six motion elements of position, speed, pressure, motion trajectory, gaze point, and sound are used as motion elements for judging the difference between the work motion of the learner and the work motion of the instructor.
また、このフローではプローブ202の代わりに、学習者がセンシングデバイス204(図1参照)を持って訓練を行う場合について説明する。センシングデバイス204を用いて訓練を行う場合、メガネ型デバイス201のほかに、センシングデバイス204がネットワーク30を介して制御システム101に接続される。センシングデバイス204は、圧力センサ、傾きセンサ、温度センサ、湿度センサ、光センサ、学習者102に触覚フィードバックを与える触覚デバイス(例えばバイブレータ)などを備えることができる。センシングデバイス204が制御システム101に接続されている場合、センシングデバイス204が取得した情報は、演算部16による演算に利用することができる。また重重畳表示部162は、センシングデバイス204により検出された圧力や傾きなどの情報を、表示部19に表示可能な画像に変換し、学習者102の視野映像に重畳表示させることができる。センシングデバイス204に、カメラ15からは取得できない温度、湿度、光度などの情報を取得するセンサが備えられている場合、センサが取得した情報は表示調整部16Cによるお手本動画の表示制御に用いることができる。カメラ15から取得可能な情報であっても、センシングデバイス204を用いることにより、カメラ15よりも高精度にその情報を取得できる場合がある。なお、センシングデバイス204には訓練する作業に使用する道具(例えば超音波撮像装置のプローブ)と同様の形状をしているものを用いることが好ましい。
Also, in this flow, instead of the
[ステップS1]
まず、制御システム101は、学習者から訓練を行うために必要な基本条件の入力を受け付ける。具体的には、制御システム101は、図16のようなUI画面を表示部19に表示させる。学習者は、表示されたUI画面に学習者の基本情報と訓練の種類を入力する。入力された情報はネットワーク30を介して制御システム101に送られ、情報格納部17に格納される。これにより訓練プログラムを実行するコンテンツが起動して、メガネ型デバイス201に配信される。
[Step S1]
First, the
[ステップS2]
次に、制御システム101がメガネ型デバイス201にガイダンスモードのコンテンツを配信し、ガイダンスモードが実施される。ガイダンスモードでは、表示部19に表示されるガイドに従って学習者が作業動作を行うことにより、後に実行される訓練モードで学習者102が行うべき作業動作や、表示される内容の確認、訓練への動機づけ等、コンテンツの使用方法を学ぶことができる。このモードでは、学習者102の技術レベルと、学習者の作業動作と指導者の作業動作との差や、習熟度判定がどのように表示されるか、あるいは各訓練モードの違い等が学習者102に表示される。例えば、訓練モード中に学習者の作業動作が指導者の作業動作と乖離した場合、その情報がどのように表示されるかなどを、学習者102が体験して学べる。なお、このガイダンスモードは、レベル判定モードの後に実施されてもよく、学習者がコンテンツの使用方法を体得するまで繰り返し実施されてもよい。
[Step S2]
Next, the
[ステップS3]
次に、制御システム101がメガネ型デバイス201にレベル判定モードのコンテンツを配信してレベル判定モードが実施される。このモードの具体的なフローは後で説明するが、このモードでは、お手本動画は再生されない状態で学習者が作業を行う。差分判定部16Aとレベル評価部16Bは、学習者102の現在の習熟度の評価を行い、習熟度の評価に応じて次の訓練モード(ビギナーモードやノーマルモードなど)の難易度の設定を行う。習熟度の評価方法は各訓練モードにおけるレベル評価方法と同じである。
[Step S3]
Next, the
[ステップS4]
次にレベル判定モードで設定された訓練モードで訓練が行われる。訓練モードにおける具体的なフローは図3で説明した通りであり、差分算出部163は、カメラ15やセンシングデバイス202から得られた学習者102の視野映像に基づき、各動作要素(位置、スピード、圧力、動作軌跡、注視点、音)について、学習者102の動作とお手本動画に含まれる指導者の動作との差分を求める。このとき、差分算出部163は、図17に示すように、6つの動作要素を単位時間ごとに割り当て、単位時間毎に分けられた動作要素それぞれの差分を求める。差分判定部16Aは、図17のスパイダーチャートに示すように差分算出部163により各動作要素についてそれぞれ算出された差分が、それぞれの動作要素について予め定められた許容可能な差分の大きさ(閾値)116以上であるか否かを判定する。表示調整部16Cは、学習者と指導者の差分が閾値以上の場合、お手本動画の表示内容を調整する。なお、差分が閾値116以下となった動作要素(この図では音以外の5つの動作要素)は、訓練中、学習者が上手にできていた動作要素であり、差分が閾値116を超えた動作要素(この図では音)は、学習者が上手くできなかった動作要素である。
[Step S4]
Next, training is performed in the training mode set in the level judgment mode. The specific flow in the training mode is as described with reference to FIG. pressure, motion trajectory, gaze point, sound), the difference between the motion of the
[ステップS5]
訓練モードが終了すると、制御システム101が、習熟度を判定するコンテンツを起動し、レベル評価部16Bが、訓練中の学習者の技術習熟度を判定する。具体的にはレベル評価部16Bは、差分判定部16Aによる差分判定結果を用いて、図17のスパイダーチャートに示すように、6つの動作要素のうち差分が閾値116以下となった動作要素がいくつあるかに応じて学習者の習熟度を評価する。
[Step S5]
When the training mode ends, the
閾値116以下になった動作要素の数と、習熟度との関係は任意に設定可能である。例えば6つの動作要素のうち、閾値116以下となった動作要素の数とレベル数を揃えてもよく、この図のように閾値116以下となった動作要素の数が5動作要素の場合、レベル評価部16Bはこの学習者の習熟度を「レベル5」と判定してもよい。
The relationship between the number of motion elements having a threshold value of 116 or less and the proficiency level can be set arbitrarily. For example, among six action elements, the number of action elements whose threshold is 116 or less may be the same as the number of levels. The
また判定された習熟度に応じて、次に同じ学習者102が行う学習において、学習モードや重点的に学習する内容を変更することができる。また例えばビギナーモードでの訓練結果で、全動作要素の差分が閾値116以下になった等、学習者のレベルがある一定レベルを超えた場合、次の訓練時には次のレベルのノーマルモードに進めるようにしてもよい。
Also, in accordance with the determined proficiency level, the learning mode and the content to be learned intensively can be changed in the next learning performed by the
[ステップS6]
次に、ステップS5で判定された習熟度がメガネ型デバイス201により学習者に表示され、習熟度に応じて、振り返りモードが実行される。振り返りモードでは、学習者102に対して、ステップS4の訓練モードでの学習者の作業動作が再生され、学習者に現在の技術レベルを客観的に把握させる。このステップでは、ステップS3で判定された初期の習熟度よりも、どれだけ習熟度が向上したかを学習者に表示することが好ましい。
[Step S6]
Next, the proficiency level determined in step S5 is displayed to the learner by the glasses-
例えば訓練モード中にカメラ15により学習者の撮像された視野映像が情報格納部17に格納されていた場合、このモードで重畳表示部162は、格納された学習者の視野映像を読み出し、読み出した視野映像にお手本動画を重畳させた振り返り動画を表示する。特に、差分が閾値116以上になった(学習者が上手にできなかった)動作要素の原因となる学習者102の作業動作を呼び出して再生してもよい。これにより、学習者は、現在の自分の技術がお手本技術に対してどれだけ違うか、あるいは自分の弱点がどこにあるかを客観的に把握することができる。
For example, when the visual field image of the learner captured by the
この振り返りモードで統計演算部16Dは、差分判定部16Aが判定した各動作要素の差分判定結果に基づいて、統計グラフ(ヒストグラムや図17のようなレーダーチャートなど)を生成し、統計グラフで学習者の技術レベルを表示してもよい。また統計グラフの代わりに、例えば図18に示すようなスキルデータや弱点のリストが表示部19に表示されることで学習者に表示されてもよい。統計グラフやリストが表示されることにより、学習者102は自分の得意または不得意な動作要素を確認しやすい。このリストや統計グラフは、情報格納部17に格納される。
In this review mode, the
振り返りモードは、レベル判定モードの後に実行されてもよく、各訓練モードの後に、毎回実行されることが好ましい。振り返りモードをレベル判定モードや訓練モードの実施後に都度実施することにより、学習者102は自分の現在の技術レベルを認識しながら、次の訓練を行うことができる。
以上の工程により、学習者102が技術を習得する訓練が実施される。
The retrospective mode may be run after the level determination mode, and is preferably run after each training mode. By implementing the retrospective mode after implementing the level determination mode and the training mode each time, the
Through the above steps, the
ここで、ステップS3のレベル判定モードの具体的なフローについて図15および図19を参照して説明する。 Here, a specific flow of the level determination mode in step S3 will be described with reference to FIGS. 15 and 19. FIG.
[ステップS31]
レベル判定モードが始まると、メガネ型デバイス201の表示部19にはレベル判定モードのコンテンツが表示され、カメラ15が学習者102の視野映像から学習者102の視野映像を撮像する。カメラ15から得られた視野映像は、制御システム101に送信される。またセンシングデバイス202は、学習者102の作業動作を各センサで計測し、計測したデータを制御システム101に送信する。
[Step S31]
When the level determination mode starts, the content of the level determination mode is displayed on the
レベル判定モードでは、後に学習者が行う訓練モードと同じ作業でレベル判定を行ってもよいし、訓練モードよりも簡単な基礎作業でレベル判定を行ってもよい。訓練モードと同じ作業でレベル判定を行う場合、情報格納部17に格納するモードを少なくできる。一方、訓練モードで行う作業よりも簡単な基礎作業でレベル判定を行う場合、情報格納部17に格納するモードは増えるが、学習者102のレベルが基礎レベルに到達しているか否かを判断することができる。
In the level determination mode, the level determination may be performed by the same work as the training mode that the learner later performs, or the level determination may be performed by basic work that is simpler than the training mode. When level determination is performed in the same work as the training mode, the number of modes stored in the
[ステップS32]
カメラ15から得られた情報に基づき、差分算出部163は、6つの動作要素について学習者102の作業動作と、お手本(このモードでは表示されない)の作業動作との差分を算出する。
[Step S32]
Based on the information obtained from the
[ステップS33]
差分判定部16Aは、各動作要素において、学習者102の手との差分が、それぞれ閾値以上であるか否かを判定し、判定した差分判定結果をレベル評価部16Bに送信する。
[Step S33]
The
[ステップS34]
レベル評価部16Bは、差分判定結果に応じて学習者の習熟度を判定し、ノーマルモードで訓練を行うか、あるいはビギナーモードで訓練を行うかを判断する。
[Step S34]
The
レベル評価部16Bは、学習者のレベルが所定レベル以上の場合、ノーマルモードで訓練を行うことを決定し、学習者のレベルが所定レベル以下の場合、ビギナーモードで訓練を行うことを決定する。
The
[ステップS35]
レベル評価部16Bが、ステップS34で決定したレベル判定結果をメガネ型デバイス201に送信し、学習者のレベルが表示される。また、訓練モードの実行後に行われる振り返りモードと同様に、レベル判定モードにおける学習者の作業動作を振り返るコンテンツを実行することが好ましい。
[Step S35]
The
[ステップS36]
表示調整部16Cは、ステップS34で決定されたモードに応じて訓練用のコンテンツを構築し、メガネ型デバイス201に訓練用コンテンツを配信する。訓練用コンテンツを配信した後、学習支援システムによる訓練フローは図14のステップS4に戻り、訓練モードが実行される。表示調整部16Cは、構築する訓練モードに応じて、お手本動画の再生スピードを変えたり、お手本動画の再生スピード以外にも、その他の方法で表示を調整したりしてもよい。
[Step S36]
The
[その他の表示調整例]
以上で説明した以外の手法を用い、各モードや各動作要素に応じてお手本動画の表示を調整する例を以下に示す。
例えば差分判定部16Aの差分判定結果により、学習者102の注視点と指導者の注視点との差分が大きく、閾値よりずれていることがわかった場合、表示調整部16Cは、表示部19に正しい注視点を長時間表示させたり強調表示させたりするなどして、学習者102に正しい注視点を身につけさせることができる。
[Other display adjustment examples]
An example of adjusting the display of a model moving image in accordance with each mode and each operation element using methods other than those described above will be described below.
For example, when it is found from the difference determination result of the
またビギナーモードでは、学習者の動作スピードに合わせて指導者の動作スピードを落とす調整を行うという説明をしたが、学習者の作業動作に指導者の作業動作が追従する方法には、再生スピードを落とす以外の方法もある。例えば表示調整部16Cは、学習者の動作が一定以上遅れた場合、お手本動画を一時停止し、ひとつ前の工程からやり直すように巻き戻して再生するコンテンツを構築してもよい。またノーマルモードは指導者の動作スピードに合わせて学習者が訓練するモードであると説明したが、ノーマルモードにおいても、学習者の作業動作が一定以上遅れた場合、表示調整部16Cは、お手本動画の再生を一時停止するなどして学習者の作業をお手本動画に追いつかせるようにしてもよい。
Also, in the beginner mode, we explained that the instructor's movement speed is adjusted to match the learner's movement speed. There are other ways to drop it. For example, the
表示調整部16Cは、学習者の作業動作の各動作要素がそれぞれ指導者の動作要素と一致した際に、一致したことを学習者に表示するようにコンテンツを構築してもよい。その表示方法としては、表示、音、あるいは振動によるフィードバックを用いることができる。一致したことを表示する手法が各動作要素で共通だと、学習者は、一致した動作要素について、お手本通りに作業できたことを認識しやすい。
The
表示調整部16Cは、一定期間みられた学習者の動作要素と指導者の動作要素とのずれが所定値以上改善された場合(学習者102の技術に一定以上の上達がみられた場合)や、ある一連の作業動作をクリアした場合、学習者102には、上達を実感させるフィードバックを与えるようにコンテンツを構築してもよい。例えば、表示調整部16Cは、表示、音、振動などのフィードバック、あるいは上達した動作要素を強調表示するなどにより、レベルアップしたことを学習者に表示することができる。
The
なお、表示調整部16Cは、学習者102に、表示、音による視覚的、聴覚的フィードバックに加え、センシングデバイス202により、振動や衝撃など触覚によるフィードバックを学習者に与えるコンテンツを構築し、学習者に実際に作業をしている感覚をもたせるようにしてもよい。
In addition, the
以上のように、第1実施形態の学習支援システムでは、学習者の作業動作に合わせてお手本動画の表示を動的に変化させることができる。そのため、レベルの異なる学習者、あるいは特徴の異なる学習者など、学習者それぞれが、それぞれに合った学習ペースで技術を訓練することができ、熟練した技術をより習得しやすくなる。 As described above, the learning support system of the first embodiment can dynamically change the display of the model moving image according to the learner's work motion. Therefore, each learner, such as a learner with a different level or a learner with different characteristics, can train the technique at a learning pace that suits them, making it easier to acquire the skillful technique.
また、第1実施形態の学習支援システムでは、技術の習得の際に必要な、言葉などで表現しにくい微妙なコツを動作要素として抽出し、動作要素ごとに指導者と学習者の技術の差分求めて差分判定結果を表示するため、学習者は、技術の高度で細かなコツと、自分がそのコツをどれだけつかめているかを、動作要素ごとに把握することができる。差分判定結果は学習者が直感的に学べるような表示方法で表示されるため、学習者は、直感的な動作により技術を習得することができる。 In addition, the learning support system of the first embodiment extracts subtle tricks that are difficult to express in words, which are necessary for skill acquisition, as movement elements, and calculates the difference between the skill of the instructor and the learner for each movement element. Since the difference judgment result is displayed, the learner can grasp the advanced and detailed tricks of the technique and how well he or she has grasped the tricks for each action element. Since the difference determination result is displayed in a display method that allows the learner to learn intuitively, the learner can acquire the technique through intuitive actions.
また第1実施形態の学習支援システムでは、圧力や視線など、本来は見た目だけではわかりにくい情報が学習者の視野映像に重畳表示されるため、指導者から直接技術を教わるときには学びにくいコツであっても、学習者は確認しながら学習することができる。 In addition, in the learning support system of the first embodiment, information such as pressure and line of sight, which is originally difficult to understand by appearance, is superimposed on the visual field image of the learner. However, learners can learn while checking.
なお、第1実施形態の学習支援システムでは、1人の学習者が制御システム101に格納されている学習支援プログラムを用いて訓練を行う例を示したが、複数の学習者が制御システムにネットワークを介して接続されているメガネ型デバイスをそれぞれ用いることにより、同時にあるいは異なるタイミングで訓練することができる。そのため、第1実施形態の学習支援システムでは、指導者が取得した高度な技術を、多くの学習者に効率よく伝達することができる。
In addition, in the learning support system of the first embodiment, an example was shown in which one learner trains using the learning support program stored in the
また、この実施形態では、ビギナーモードとノーマルモードの2つの訓練モードで技術の習熟を図るものとしたが、訓練モードは1モードであってもよいし、3つ以上のモードであってもよい。さらに、情報格納部17は、上述のモード以外にも学習者の技術習得に有効なモードを格納していてもよい。
In addition, in this embodiment, two training modes, a beginner mode and a normal mode, are used to improve technique, but the training mode may be one mode or three or more modes. . Furthermore, the
また、制御システム101の内部構成(演算部16と情報格納部17)は、ネットワーク30を介してメガネ型デバイス201に接続されたクラウドに格納されていてもよい。
Also, the internal configuration of the control system 101 (the
<<第2実施形態の学習支援システム>>
以下、第2実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第2実施形態の学習支援システムは、第1実施形態の学習支援システムと同様に、メガネ型デバイス201と、メガネ型デバイス201にネットワークを介して接続された制御システム101とを備えている。但し、第1実施形態の学習支援システムでは、制御システム101の情報格納部17にすでに格納されている指導者のお手本データを用いて表示されるお手本動画の表示調整を行うが、第2実施形態の学習支援システムでは、情報格納部17に現状では格納されていない指導者のお手本動画から新たなお手本データを生成し、新たに生成したお手本データを表示調整に用いる。この点で、第2実施形態の学習支援システムは第1実施形態の学習支援システムとは異なっている。
<<Learning support system of the second embodiment>>
Differences between the learning support system of the second embodiment and the learning support system of the first embodiment will be described below. Like the learning support system of the first embodiment, the learning support system of the second embodiment includes a glasses-
第2実施形態の学習支援システムは、図20に示すように、学習者102が装着可能なメガネ型デバイス201と、学習者とは離れた場所にいる指導者103が装着可能なデバイス(例えばメガネ型デバイス)203と、メガネ型デバイス201およびメガネ型デバイス203にネットワーク30を介して接続された制御システム101とを備えている。
As shown in FIG. 20, the learning support system of the second embodiment includes a glasses-
メガネ型デバイス203は、メガネ型デバイス201と同様の構成であり図21に示すように、指導者103の視野映像を撮像するカメラ15B、無線通信デバイス13、CPU12、メモリ18、および学習者の動作映像が表示される表示部19Bを備えている。またメガネ型デバイス203は、必要に応じて作業音を録音する機器、指導者の作業音を再生するスピーカーなどを備えていてもよい。
The spectacles-
第2実施形態において、制御システム101は、第1実施形態における制御システム101と同様の構成であり、メガネ型デバイス201およびメガネ型デバイス203から受け取った情報を処理する演算部16と、お手本データを格納している情報格納部17とを備えている。
In the second embodiment, the
また第2実施形態において、演算部16は、図22に示すように、学習者102の視野映像と指導者103の視野映像を取り込む映像取り込み部161と、重畳表示部162と、差分算出部163と、差分判定部16Aと、表示調整部16Cと、指導者の視野映像からお手本データを生成するお手本生成部164とを少なくとも備えている。
Further, in the second embodiment, as shown in FIG. 22, the
以下、第2実施形態の学習支援システムの訓練動作の流れについて、第1実施形態の学習支援システムの訓練動作の流れと異なる点を、図23を参照して説明する。まず学習者が訓練のための作業を行う。カメラ15が学習者102の視野映像を撮像する(ステップS41)。映像取り込み部161はカメラ15が撮像した視野映像を受け付け、学習者の視野映像を、指導者103のメガネ型デバイス203の表示部19Bに出力する(ステップS41B1)。指導者は、表示部19Bに表示された学習者の訓練動作を見て、学習者の作業動作の特徴を把握し、学習者の作業動作の特徴に合うようなスタイルでお手本となる作業を行う。カメラ15Bは、指導者103がお手本となる作業を行っている間、指導者103の視野映像を撮像する。(ステップS41B2)。映像取り込み部161は、カメラ15Bが撮像した視野映像を受け付けるお手本生成部164は、指導者103の視野映像からお手本動画を生成するとともに、指導者103のお手本動画からお手本データを生成する(ステップS41B3)。指導者103のお手本動画から新たに生成されたお手本データは情報格納部17に格納され、表示調整部16Cが学習者の作業動作に合わせて表示内容を調整する際に用いられる。第2実施形態において、表示調整部16Cがお手本動画と学習者の視野映像を重畳表示するステップS42以降(ステップS42~S45)は、第1実施形態と同じである。
The difference between the flow of the training operation of the learning support system of the second embodiment and the flow of the training operation of the learning support system of the first embodiment will be described below with reference to FIG. First, the learner performs work for training.
第2実施形態の学習支援システムでは、第1実施形態の学習支援システムで得られる効果に加えて、情報格納部に格納されていない指導者の技術を、学習者の学習支援に活用することができるという効果が得られる。また第2の実施形態の学習支援システムでは、学習者と離れた場所にいる指導者の技術を、学習者に学ばせることができる。 In the learning support system of the second embodiment, in addition to the effects obtained in the learning support system of the first embodiment, it is possible to utilize the instructor's technique, which is not stored in the information storage unit, for learning support of the learner. You can get the effect that you can. Further, in the learning support system of the second embodiment, it is possible to make the learner learn the skill of the instructor who is away from the learner.
なお、第2実施形態の学習支援システムでは、情報格納部に格納されていない指導者の作業動画を録画してお手本動画を作成し、作成したお手本動画を学習者の学習支援に活用するものとしたが、学習者が離れたところにいる指導者から訓練のサポートを受けられるようにする例は、上述の例に限られない。 In addition, in the learning support system of the second embodiment, it is assumed that a work video of the instructor that is not stored in the information storage unit is recorded to create a model video, and that the created model video is utilized for learning support of the learner. However, examples of enabling a learner to receive training support from a remote instructor are not limited to the above examples.
例えば、指導者側のメガネ型デバイスと学習者側のメガネ型デバイスに互いの映像や音声を送るようにしてもよい。具体的には、指導者側のメガネ型デバイスには、学習者がメガネ型デバイスを使用して訓練動作をしている映像を表示し、指導者が学習者の訓練動作の様子を見ながら、作業のコツなどを動作や声がけにより学習者にアドバイスする。指導者による動作映像のデータや声がけの音声データが学習者側のメガネ型デバイスに送られて、学習者側のメガネ型デバイスに指導者の動作映像が表示されたり、指導者の音声が再生されたりする。このように、学習者とは離れたところにいる指導者によるアドバイスを訓練中の学習者に伝えることにより、学習者はより効率よく技術を習得できる。 For example, the glasses-type device on the instructor's side and the glasses-type device on the learner's side may be sent to each other's video and audio. Specifically, on the instructor's glasses-type device, an image of the learner using the glasses-type device and performing training movements is displayed, and while the instructor watches the learner's training movements, Gives advice to the learner about work tips and the like through actions and voice. The instructor's action video data and voice data are sent to the learner's glasses-type device, and the instructor's action video is displayed on the learner's glasses-type device, and the instructor's voice is played back. be done. In this way, the learner can acquire skills more efficiently by transmitting advice from an instructor remote from the learner to the learner during training.
<<第3実施形態の学習支援システム>>
以下、第3実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第3実施形態の学習支援システムでは、複数の指導者の技術を学習した人工知能(AI)により、学習者の作業動作が進むにつれて学習者の作業動作の特徴に最も近いお手本動画が選択されて、表示されるお手本動画が時間ごとに変更される。
<<Learning support system of the third embodiment>>
Differences between the learning support system of the third embodiment and the learning support system of the first embodiment will be described below. In the learning support system of the third embodiment, artificial intelligence (AI) that has learned the skills of multiple instructors selects a model video that is closest to the characteristics of the learner's work motion as the learner's work motion progresses. , The model video displayed changes every hour.
第3実施形態の学習支援システムは、第1実施形態の学習支援システムと同様に、メガネ型デバイス201と、メガネ型デバイス201にネットワークを介して接続された制御システム101とを備えている。
Like the learning support system of the first embodiment, the learning support system of the third embodiment includes a glasses-
第3実施形態において、制御システム101は、第1実施形態における制御システム101と同様の構成であり、図24に示すように、演算部16と、情報格納部17とを備えている。また第3実施形態における演算部16の構成は第1実施形態における演算部16と同様の構成であり、映像取り込み部161と、重畳表示部162と、差分算出部163と、差分判定部16Aと、表示調整部16Cとを少なくとも備えている。
In the third embodiment, the
第3実施形態における情報格納部17は、学習者の基本情報、スキルデータ、および弱点リストを含む格納部171と、複数の指導者の技術の特徴を用いてお手本動画の表示を変更する人工知能部172とを有している。人工知能部172には、学習者の作業動作の特徴に最も近い特徴をもつ組み合わせデータを選択する学習済モデル172Aと、学習済モデル172Aにより選択された組み合わせデータから表示するお手本動画を選択する結果表示部172Bとを備えている。
The
学習済モデル172Aは、お手本動画に加え、学習者の特徴と指導者の特徴との組み合わせデータが多数学習されているモデルである。学習済モデル172Aは例えばニューラル・ネットワークにより構成されている。学習済モデル172Aが学習した学習者の特徴および指導者の特徴の組み合わせとしては、作業動作の6つの動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、基本情報(例えば利き手、超音波検査の訓練を行う検査部位、検査内容、患者の体型)等がそれぞれ含まれている。
The learned
以下、第3実施形態の学習支援システムの動作の流れについて、図25を参照して説明する。 The operation flow of the learning support system of the third embodiment will be described below with reference to FIG.
まずカメラ15が学習者102の視野映像を撮像する。次に、映像取り込み部161は、ネットワーク30を介してカメラ15により撮像された学習者の視野映像を取り込む。(ステップS41)。次に学習済モデル172Aは、学習者の視野映像から学習者の作業動作の特徴を抽出し、学習者の動作の特徴と、学習済モデル172Aに学習されている多数の組み合わせデータとを比較することにより、学習者の特徴に最も近い特徴をもつ組み合わせデータを選択する(ステップS411)。結果表示部172Bは、学習モデル172Aにより選択された組み合わせデータから、最も学習者の特徴に近い特徴をもつお手本動画を選択し、重畳表示部162に受け渡す。重畳表示部162は、受け取ったお手本動画を学習者の視野映像に重畳表示させる(ステップS42)。最も学習者の作業動作の特徴に近いお手本動画を表示したら、動作のフローはステップS41に戻り、このフローは単位時間毎に繰り返される。
First, the
このように第3実施形態の学習支援システムでは、学習者の作業動作の特徴に最も近いお手本動画が随時変更されて表示されるため、時間ごとに最も学習者の指導に適したお手本動画が表示される。これにより訓練中どのタイミングであっても学習者の特徴に合う訓練コンテンツを提供することができ、学習者はより、効率よく技術を学ぶことができるようになる。 As described above, in the learning support system of the third embodiment, the model video closest to the features of the learner's work motion is changed and displayed at any time. be done. As a result, it is possible to provide training content that matches the characteristics of the learner at any time during training, and the learner can learn techniques more efficiently.
<<第3実施形態の変形例>>
複数の指導者の技術を学習した人工知能(AI)を用いてお手本動画の調整を行う他の例について、図26を用いて説明する。この変形例では、人工知能部は、学習者と指導者の作業動作で差分が閾値より大きい動作要素について、各動作要素の差分の大きさに応じて、差分を表示する手法を随時変更する。
<<Modified example of the third embodiment>>
Another example of adjusting a model video using artificial intelligence (AI) that has learned the techniques of a plurality of instructors will be described with reference to FIG. 26 . In this modified example, the artificial intelligence unit changes the method of displaying the difference between the work motions of the learner and the instructor at any time according to the magnitude of the difference between the action elements for which the difference is greater than the threshold.
変形例の学習支援システムは、第3実施形態の学習支援システムと同じ構成であるが、学習済モデル172Aに学習されている組み合わせデータの内容が異なる。変形例の学習支援システムにおいて、学習済モデル172Aには、動作要素ごとの差分の大きさと、差分の大きさを表示する手法として最適な手法との組み合わせが多数含まれている。例えば学習者と指導者のヒジの位置の差分について、差分が所定値以下のときは図5のように「もっとヒジを持ち上げて!」と文字で表示し、差分が所定値より大きいときは矢印19bのようなサインで示し、さらに差分が大きいときは図6に示すような骨格図19cをお手本動画の指導者の手に重畳させるなど、差分の大きさと最適な表示の手法との組み合わせが学習済モデル172Aに学習されている。
The learning support system of the modified example has the same configuration as the learning support system of the third embodiment, but differs in the contents of the combination data learned by the trained
また学習済モデル172Aには、お手本動画、学習者の特徴と指導者の特徴なども含まれている。学習者の特徴および指導者の特徴としては、作業動作の6つの動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、基本情報(例えば利き手、超音波検査の訓練を行う検査部位、検査内容、患者の体型)等がそれぞれ含まれている。
The learned
以下、第3実施形態の変形例の学習支援システムの動作の流れについて説明する。 The flow of operation of the learning support system of the modified example of the third embodiment will be described below.
変形例の学習支援システムのフローにおいて、カメラ15が学習者102の視野映像を撮像してから、お手本動画が視野映像に重畳されるまでのステップS41、ステップS42は、第1実施形態におけるフロー(図3)と同じである。お手本動画が学習者の視野映像に重畳されたら、差分算出部163は、学習者の視野映像から学習者の6つの動作要素をそれぞれ抽出し、モデル172Aから指導者の6つの動作要素をそれぞれ読み出す。次に差分算出部163は、動作要素ごとに学習者と指導者の動作の差分を算出する。(ステップS43C)。
In the flow of the learning support system of the modified example, steps S41 and S42 from when the
次に差分判定部16Aは、各動作要素について、差分算出部163が求めた差分が閾値以上であるか否かをそれぞれ判定し、判定結果を人工知能部172に通知する(ステップS44C)。
Next, the
次に学習済モデル172Aは、学習者の視野映像を取り込み、差分が閾値以上になった動作要素と、その差分の大きさを抽出する。学習済モデル172Aは抽出した動作要素およびその差分の大きさと、学習済モデル172Aに学習されている組み合わせデータとを比較することにより、動作要素毎に差分の最適な表示の手法を含む組み合わせデータを選択する(ステップS45C1)。結果表示部172Bは、学習モデル172Aにより選択された組み合わせデータから、各動作要素の差分を表示する手法として最も学習者の訓練に効果的な手法を決定し、その手法を用いて表示調整を行うように表示調整部16Cに指示を送る(ステップS45C2)。表示調整部16Cは、結果表示部172Bから受け取った指示に従い、お手本動画の表示方法を調整して表示部19に表示させる(ステップS45)。ステップS45で処理したお手本動画が学習者に表示されたら、フローはステップS41に戻る。
Next, the learned
このように第3実施形態の変形例の学習支援システムでは、学習者の動作と指導者の動作の差分が、動作要素ごとに最適な表示方法により表示されるため、学習者は、表示された差分を見て、どのように自分の動作を変更するべきかを容易に理解することができる。 As described above, in the learning support system of the modified example of the third embodiment, the difference between the learner's motion and the instructor's motion is displayed by the optimum display method for each motion element. You can easily see the diff and understand how you should change your behavior.
<<第4実施形態の学習支援システム>>
以下、第4実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第3実施形態の学習支援システムは、図27に示すように、メガネ型デバイス201と、メガネ型デバイス201にネットワーク30を介して接続された制御システム101を備え、ネットワーク30には、さらに超音波撮像装置104が接続されている。
<<Learning support system of the fourth embodiment>>
Differences between the learning support system of the fourth embodiment and the learning support system of the first embodiment will be described below. As shown in FIG. 27, the learning support system of the third embodiment includes a spectacles-
超音波撮像装置104は、従来の超音波撮像装置と同様の構成であってよい。超音波撮像装置で取得された撮影画像は、メガネ型デバイス201の表示部19に、例えば図28に示すように、学習者102の作業動画とお手本動画が表示されている横に並列して表示することが好ましい。
The
超音波撮像装置の利用時、ユーザの視点は、プローブを持つ手元ではなく、撮影画像が表示されている画面にあることが想定される。ユーザは手元の動作と撮影画像を同時に見ることができないため、プローブ操作しながら画面をみることは、技術に不慣れな学習者にとって難しく、習熟を困難にする原因の一つとなっている。 When using the ultrasonic imaging apparatus, it is assumed that the user's viewpoint is not the hand holding the probe but the screen on which the captured image is displayed. Since the user cannot see the action at hand and the captured image at the same time, it is difficult for the learner who is unfamiliar with the technique to see the screen while operating the probe, which is one of the reasons why it is difficult to master the technique.
第4実施形態では、超音波撮像装置による撮影画像をメガネ型デバイス201により学習者の手元の画像周辺に表示することにより、学習者102の視点の移動が最小限になるため、学習者は、手元の動きとそれによる撮影画像の変化とをより直感的に把握しながら習熟することができる。
In the fourth embodiment, by displaying the image captured by the ultrasonic imaging device around the image at the learner's hand by the glasses-
なお、第2~第4実施形態において、第1実施形態で説明したセンシングデバイス204が制御システム101に接続されていてもよく、学習者102は訓練の際にセンシングデバイス204を用いてもよい。また、第4実施形態において、超音波撮像装置104のプローブに、センシングデバイス204に含まれるセンサと同様のセンサを組み込み、学習者102が実物のプローブを用いながら、プローブを扱う技術を学べるようにしてもよい。
In the second to fourth embodiments, the
<<学習支援装置>>
以上の実施形態では、制御システム101を、メガネ型デバイス201に対してネットワーク30を介して接続する例を説明したが、制御システム101の構成は以上の例に限られない。制御システム101はメガネ型デバイス201内のメモリ18内に搭載されていてもよい。また制御システム101は、メガネ型デバイス201に外付け可能なメモリ内に搭載されてもよい。
<<Learning support device>>
In the above embodiment, an example in which the
本実施形態では、学習支援装置として、メガネ型デバイス201を用いたが、学習支援装置は、少なくともカメラと表示部を備えていればよく、例えばカメラが備えられたヘルメットやヘアバンドと、ユーザの近くに配置されたディスプレイまたは持ち運び可能なディスプレイの組み合わせでもよい。
In this embodiment, the glasses-
また本実施形態では、学習者の学習する技術が超音波撮像装置のプローブ操作の場合について例示したが、本発明はあらゆる技術分野の学習に適用可能である。例えば、手術方法やリハビリ、あるいはスポーツ、伝統芸能における身体の動かし方、介護の方法を学習する際に用いられてもよいし、料理の方法や楽器の演奏方法、文字の書き方の練習等に用いられてもよい。さらに本発明は、配線作業や溶接作業など産業分野における技術学習に用いられてもよい。 Further, in the present embodiment, the case where the technique learned by the learner is the probe operation of the ultrasonic imaging apparatus was exemplified, but the present invention is applicable to learning in all technical fields. For example, it may be used for surgical methods, rehabilitation, sports, how to move the body in traditional performing arts, and nursing care methods. may be Furthermore, the present invention may be used for technical learning in industrial fields such as wiring work and welding work.
12…CPU、13…無線通信デバイス、14…モーションセンサ、15…カメラ、16…演算部、16A…差分判定部、16B…レベル評価部、16C…表示調整部、16D…統計演算部、17…情報格納部、18…メモリ、19…表示部、20…視線センサ、30…ネットワーク、101…制御システム、201、203…メガネ型デバイス、204…センシングデバイス
DESCRIPTION OF
Claims (11)
前記演算部は、レベル判定モードと、前記レベル判定モードの判定結果に従って前記お手本動画を前記撮像部が撮像した前記視野映像上に重ね合わせて前記表示部に表示させる訓練モードを実行するものであり、
前記演算部は、前記お手本動画に含まれる指導者の作業動作と前記視野映像に含まれる学習者の作業動作との差分を随時算出する差分算出部と、当該差分に応じて前記お手本動画の表示内容を変更する表示調整部とを含み、
前記演算部は、前記レベル判定モードにおいて、前記差分が閾値以上であるか否かにより、ビギナーモードで前記訓練モードを行うか、ノーマルモードで前記訓練モードを行うかを判定し、前記ビギナーモードで前記訓練モードを行う場合、前記お手本動画の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに追随するように、前記表示調整部が前記お手本動画の再生スピードを変更し、前記ノーマルモードで前記訓練モードを行う場合、前記お手本動画を前記指導者の作業動作のスピードで再生し、前記学習者の作業動作が前記お手本動画の前記指導者の作業動作よりも一定以上遅れ、前記差分算出部が随時算出する前記差分が閾値以上になった場合のみ、前記お手本動作の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに合うように前記お手本動画の再生スピードをコントロールする
ことを特徴とする学習支援システム。 Stores a display unit worn by the learner, an imaging unit worn by the learner that captures the visual field image of the learner, and a model video that is a video of the instructor's work motion that serves as a model for the work motion of the learner. and a computing unit,
The calculation unit executes a level determination mode and a training mode in which the model moving image is superimposed on the visual field image captured by the imaging unit and displayed on the display unit according to the determination result of the level determination mode. can be,
The calculation unit includes a difference calculation unit that calculates at any time a difference between the work motion of the instructor included in the model video and the work motion of the learner included in the visual field image, and the model video is displayed according to the difference. a display adjustment unit that changes the content,
The computing unit determines whether the training mode is performed in a beginner mode or in a normal mode, depending on whether or not the difference is equal to or greater than a threshold in the level determination mode. When the training mode is performed, the display adjustment unit changes the playback speed of the model animation so that the speed of the work movement of the instructor in the model animation follows the speed of the work movement of the learner, When the training mode is performed in the normal mode, the model moving image is reproduced at the speed of the work movement of the instructor, and the work movement of the learner lags behind the work movement of the instructor in the model animation by a certain amount or more, and the Only when the difference calculated from time to time by the difference calculation unit reaches or exceeds a threshold value, the playback speed of the model video is adjusted so that the speed of the work motion of the instructor of the model motion matches the speed of the work motion of the learner. to control
A learning support system characterized by:
前記表示調整部は、前記動作要素ごとの前記差分に応じて、前記お手本動画の表示内容を変化させることを特徴とする請求項1に記載の学習支援システム。 The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
2. The learning support system according to claim 1 , wherein the display adjustment unit changes the display content of the model moving image according to the difference for each of the action elements.
前記表示調整部は、前記複数の動作要素のうち、算出した前記差分が所定値を超えた動作要素を、前記差分が所定値以下の動作要素よりも強調するように前記お手本動画の表示内容を変更することを特徴とする請求項1に記載の学習支援システム。 The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
The display adjustment unit adjusts the display content of the model moving image so that, among the plurality of motion elements, the motion elements whose calculated difference exceeds a predetermined value are emphasized over the motion elements whose difference is equal to or less than a predetermined value. 2. The learning support system according to claim 1 , wherein the learning support system is changed.
前記表示調整部は、前記複数の動作要素のうち、前記差分が所定値よりも小さく動作要素について、前記表示部に表示される前記お手本動画の透過率を高くすることを特徴とする請求項1に記載の学習支援システム。 The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
2. The display adjustment unit increases the transmittance of the model moving image displayed on the display unit for an operation element, of the plurality of operation elements, for which the difference is smaller than a predetermined value. The learning support system described in .
前記演算部は、前記格納部に格納された学習者の視野映像に、お手本動画が重畳された振り返り動画を再生することを特徴とする請求項1に記載の学習支援システム。 The storage unit stores the learner's visual field image captured by the imaging unit,
2. The learning support system according to claim 1, wherein the calculation unit reproduces a retrospective video in which a model video is superimposed on the visual field video of the learner stored in the storage unit.
前記表示部および前記撮像部は、学習者により装着されるメガネ型デバイスに備えられ、
前記演算部および前記格納部は、前記制御システム内に備えられていることを特徴とする請求項1に記載の学習支援システム。 further comprising a glasses-type device and a control system connected to the glasses-type device via a network;
The display unit and the imaging unit are provided in a glasses-type device worn by the learner,
2. The learning support system according to claim 1, wherein said calculation unit and said storage unit are provided within said control system.
前記演算部は、前記センシングデバイスにより検出された情報に基づいて、前記お手本動画の表示内容を動的に変化させることを特徴とする請求項6に記載の学習支援システム。 further comprising a sensing device connected to the control system via a network;
7. The learning support system according to claim 6 , wherein the calculation unit dynamically changes display content of the model moving image based on information detected by the sensing device.
前記演算部は、前記デバイスが撮像した指導者の視野映像から前記お手本動画を生成することを特徴とする請求項6に記載の学習支援システム。 Further comprising a device that captures a leader's visual field image, connected to the control system via a network,
7. The learning support system according to claim 6 , wherein the calculation unit generates the model moving image from a visual field image of the instructor captured by the device.
前記人工知能部は、学習者の作業動作の特徴に近い特徴をもつ指導者の作業動作のお手本動画を随時選択し、前記視野映像上に重ね合わせるお手本動画を随時変更することを特徴とする請求項1に記載の学習支援システム。 The storage unit stores an artificial intelligence unit that has learned a plurality of features of the work motion of the learner and features of the work motion of the instructor,
The artificial intelligence unit selects at any time a model video of the work motion of the instructor having features similar to the features of the work motion of the learner, and changes the model video to be superimposed on the visual field image at any time. Item 1. The learning support system according to Item 1.
前記演算部は、前記超音波撮像装置により取得された超音波画像を、前記表示部に表示させることを特徴とする請求項6に記載の学習支援システム。 An ultrasound imaging device is further connected to the network,
7. The learning support system according to claim 6 , wherein the computing unit causes the display unit to display an ultrasonic image acquired by the ultrasonic imaging device.
学習者の動作のお手本となる指導者の作業動作の動画であるお手本動画を、学習者に装着されて学習者の視野映像を撮像する撮像部が撮像した前記視野映像上に重ね合わせて、学習者に装着される表示部に表示させるとともに、前記視野映像に含まれる学習者の作業動作の特徴に応じて、動的に前記お手本動画の表示内容を変化させる演算手段として機能させるプログラムであって、
前記演算手段は、前記お手本動画に含まれる指導者の作業動作と前記視野映像に含まれる学習者の作業動作との差分を随時算出する差分算出手段と、当該差分に応じて前記お手本動画の表示内容を変更する表示調整手段とを含み、
前記演算手段は、レベル判定モードと、前記レベル判定モードの判定結果に従って前記お手本動画を前記撮像部が撮像した前記視野映像上に重ね合わせて前記表示部に表示させる訓練モードを実行し、
前記演算手段は、前記レベル判定モードにおいて、前記差分が閾値以上であるか否かにより、ビギナーモードで前記訓練モードを行うか、ノーマルモードで前記訓練モードを行うかを判定し、前記ビギナーモードで前記訓練モードを行う場合、前記お手本動画の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに追随するように、前記表示調整部が前記お手本動画の再生スピードを変更し、前記ノーマルモードで前記訓練モードを行う場合、前記お手本動画を前記指導者の作業動作のスピードで再生し、前記学習者の作業動作が前記お手本動画の前記指導者の作業動作よりも一定以上遅れ、前記差分算出部が随時算出する前記差分が閾値以上になった場合のみ、前記お手本動作の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに合うように前記お手本動画の再生スピードをコントロールする、
プログラム。 the computer,
A model video, which is a video of the instructor's working motion that serves as a model of the learner's motion, is superimposed on the visual field image captured by the imaging unit that is worn by the learner and captures the learner's visual field image, thereby learning. A program for displaying on a display unit worn by a person and functioning as a calculation means for dynamically changing the display contents of the model moving image according to the characteristics of the learner's work motion included in the visual field image, ,
The calculation means includes difference calculation means for calculating at any time a difference between the working motion of the instructor included in the model moving image and the working motion of the learner included in the visual field image, and displaying the model moving image according to the difference. and display adjustment means for changing the content,
The computing means executes a level determination mode and a training mode in which the model moving image is superimposed on the visual field image captured by the imaging unit and displayed on the display unit according to the determination result of the level determination mode,
The computing means determines whether the training mode is performed in a beginner mode or in a normal mode depending on whether or not the difference is equal to or greater than a threshold value in the level determination mode. When the training mode is performed, the display adjustment unit changes the playback speed of the model animation so that the speed of the work movement of the instructor in the model animation follows the speed of the work movement of the learner, When the training mode is performed in the normal mode, the model moving image is reproduced at the speed of the work movement of the instructor, and the work movement of the learner lags behind the work movement of the instructor in the model animation by a certain amount or more, and the Only when the difference calculated from time to time by the difference calculation unit reaches or exceeds a threshold value, the playback speed of the model video is adjusted so that the speed of the work motion of the instructor of the model motion matches the speed of the work motion of the learner. to control,
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019040764A JP7116696B2 (en) | 2019-03-06 | 2019-03-06 | Learning support system and program |
PCT/JP2019/042527 WO2020179128A1 (en) | 2019-03-06 | 2019-10-30 | Learning assist system, learning assist device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019040764A JP7116696B2 (en) | 2019-03-06 | 2019-03-06 | Learning support system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020144233A JP2020144233A (en) | 2020-09-10 |
JP7116696B2 true JP7116696B2 (en) | 2022-08-10 |
Family
ID=72337841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019040764A Active JP7116696B2 (en) | 2019-03-06 | 2019-03-06 | Learning support system and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7116696B2 (en) |
WO (1) | WO2020179128A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6899105B1 (en) * | 2020-10-13 | 2021-07-07 | 株式会社PocketRD | Operation display device, operation display method and operation display program |
JPWO2022180894A1 (en) * | 2021-02-24 | 2022-09-01 | ||
JPWO2022190774A1 (en) * | 2021-03-11 | 2022-09-15 | ||
JP7345866B2 (en) * | 2021-03-23 | 2023-09-19 | 国立大学法人 東京大学 | Information processing system, information processing method and program |
US11714491B2 (en) | 2021-06-07 | 2023-08-01 | Huawei Technologies Co., Ltd. | Device and method for generating haptic feedback on a tactile surface |
JP2023134269A (en) * | 2022-03-14 | 2023-09-27 | オムロン株式会社 | Work support device, work support method and work support program |
JP2023177620A (en) * | 2022-06-02 | 2023-12-14 | パナソニックIpマネジメント株式会社 | Information processing method and system |
WO2023242981A1 (en) * | 2022-06-15 | 2023-12-21 | マクセル株式会社 | Head-mounted display, head-mounted display system, and display method for head-mounted display |
JP7412826B1 (en) | 2023-07-28 | 2024-01-15 | 株式会社計数技研 | Video compositing device, video compositing method, and program |
JP7432275B1 (en) | 2023-07-28 | 2024-02-16 | 株式会社計数技研 | Video display device, video display method, and program |
JP7486860B1 (en) | 2023-08-04 | 2024-05-20 | 株式会社計数技研 | Image synthesis device, image synthesis method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (en) | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | Exercise support system, user terminal therefor and exercise support program |
JP2013088730A (en) | 2011-10-21 | 2013-05-13 | Toyota Motor East Japan Inc | Skill acquisition supporting system and skill acquisition support method |
WO2015097825A1 (en) | 2013-12-26 | 2015-07-02 | 独立行政法人科学技術振興機構 | Movement learning support device and movement learning support method |
JP2015229052A (en) | 2014-06-06 | 2015-12-21 | セイコーエプソン株式会社 | Head mounted display device, control method for the same, and computer program |
JP2016077346A (en) | 2014-10-10 | 2016-05-16 | セイコーエプソン株式会社 | Motion support system, motion support method, and motion support program |
JP2019012965A (en) | 2017-06-30 | 2019-01-24 | 富士通株式会社 | Video control method, video control device, and video control program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5846086A (en) * | 1994-07-01 | 1998-12-08 | Massachusetts Institute Of Technology | System for human trajectory learning in virtual environments |
-
2019
- 2019-03-06 JP JP2019040764A patent/JP7116696B2/en active Active
- 2019-10-30 WO PCT/JP2019/042527 patent/WO2020179128A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (en) | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | Exercise support system, user terminal therefor and exercise support program |
JP2013088730A (en) | 2011-10-21 | 2013-05-13 | Toyota Motor East Japan Inc | Skill acquisition supporting system and skill acquisition support method |
WO2015097825A1 (en) | 2013-12-26 | 2015-07-02 | 独立行政法人科学技術振興機構 | Movement learning support device and movement learning support method |
JP2015229052A (en) | 2014-06-06 | 2015-12-21 | セイコーエプソン株式会社 | Head mounted display device, control method for the same, and computer program |
JP2016077346A (en) | 2014-10-10 | 2016-05-16 | セイコーエプソン株式会社 | Motion support system, motion support method, and motion support program |
JP2019012965A (en) | 2017-06-30 | 2019-01-24 | 富士通株式会社 | Video control method, video control device, and video control program |
Non-Patent Citations (1)
Title |
---|
小林 達也 Tatsuya KOBAYASHI,拡張現実と動作情報を用いた技能の定着を目指した支援への取り組み An Approach to the Support Aimed at Acquiring Skills by using Augmented Reality and Motion Data,情報処理学会 研究報告 教育学習支援情報システム(CLE) 2016-CLE-19 [online] ,日本,情報処理学会,2016年05月13日,2016-CLE-19巻,14号,Pages 1-4,ISSN:2188-8620 |
Also Published As
Publication number | Publication date |
---|---|
WO2020179128A1 (en) | 2020-09-10 |
JP2020144233A (en) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7116696B2 (en) | Learning support system and program | |
CN107067856B (en) | Medical simulation training system and method | |
US8314840B1 (en) | Motion analysis using smart model animations | |
US20170221379A1 (en) | Information terminal, motion evaluating system, motion evaluating method, and recording medium | |
US11508344B2 (en) | Information processing device, information processing method and program | |
US20150004581A1 (en) | Interactive physical therapy | |
US20040227699A1 (en) | Foveated display eye-tracking system and method | |
JP2009297240A (en) | Learning support apparatus and method | |
JP5921674B2 (en) | Motion guide presentation method, system thereof, and motion guide presentation device | |
Ikeda et al. | AR based Self-sports Learning System using Decayed Dynamic TimeWarping Algorithm. | |
Yu et al. | Perspective matters: Design implications for motion guidance in mixed reality | |
JP2005198818A (en) | Learning supporting system for bodily motion and learning supporting method | |
JP2020505686A5 (en) | ||
WO2020152779A1 (en) | Rehabilitation system and image processing device for higher brain dysfunction | |
JP2022182673A (en) | Learning system and learning method | |
US20190355281A1 (en) | Learning support system and recording medium | |
WO2022034771A1 (en) | Program, method, and information processing device | |
WO2020082181A1 (en) | Precise teleguidance of humans | |
US20230240594A1 (en) | Posture assessment program, posture assessment apparatus, posture assessment method, and posture assessment system | |
KR101965073B1 (en) | Virtual hair design appartus and controlling method thereof | |
Jan et al. | Augmented Tai-Chi chuan practice tool with pose evaluation | |
Komizunai et al. | An immersive nursing education system that provides experience of exemplary procedures from first person viewpoint with haptic feedback on wrist | |
EP3905225A1 (en) | System and method for evaluating simulation-based medical training | |
JP6897177B2 (en) | Computer programs for training equipment that can be used for rehabilitation and training equipment that can be used for rehabilitation | |
Liu et al. | PianoSyncAR: Enhancing Piano Learning through Visualizing Synchronized Hand Pose Discrepancies in Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7116696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |