JP7116696B2 - Learning support system and program - Google Patents

Learning support system and program Download PDF

Info

Publication number
JP7116696B2
JP7116696B2 JP2019040764A JP2019040764A JP7116696B2 JP 7116696 B2 JP7116696 B2 JP 7116696B2 JP 2019040764 A JP2019040764 A JP 2019040764A JP 2019040764 A JP2019040764 A JP 2019040764A JP 7116696 B2 JP7116696 B2 JP 7116696B2
Authority
JP
Japan
Prior art keywords
learner
difference
model
unit
instructor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019040764A
Other languages
Japanese (ja)
Other versions
JP2020144233A (en
Inventor
力也 田尻
真理子 味八木
昌樹 高野
さゆり 橋爪
純一 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019040764A priority Critical patent/JP7116696B2/en
Priority to PCT/JP2019/042527 priority patent/WO2020179128A1/en
Publication of JP2020144233A publication Critical patent/JP2020144233A/en
Application granted granted Critical
Publication of JP7116696B2 publication Critical patent/JP7116696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Educational Administration (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、技術を学習する際に使用される学習支援システム、学習支援装置及びプログラムに関する。 The present invention relates to a learning support system, a learning support device, and a program used when learning a technique.

従来、様々な技術分野における技術の伝承は、指導者の指導のもとで技術の学習者が実際に訓練や作業を行うことで行われてきた。 Conventionally, techniques in various technical fields have been passed down through actual training and work performed by technical learners under the guidance of instructors.

高度な技術を学習者に伝えるには、言葉では表現しにくいコツを伝えることが必要な場合があるが、指導者にとって、そのコツを効率よく学習者に伝えることは容易ではない。近年、指導者が取得した技術を、学習者に効率よく伝えるために、指導者の技術をデータ化して保存し、保存した技術データを学習者に表示する装置や方法が提案されている(例えば特許文献1)。 In order to convey advanced skills to learners, it is sometimes necessary to convey tips that are difficult to express in words, but it is not easy for instructors to efficiently convey these tips to learners. In recent years, in order to efficiently convey the skills acquired by the instructor to the learner, devices and methods have been proposed that store the instructor's skills as data and display the stored technical data to the learner (for example, Patent document 1).

特許文献1には、様々な環境下において、指導者の手の位置、移動量、移動速度など、指導者の動きを抽出して保存する方法が開示されている。この方法では、環境を変えながら指導者に毎度同じ作業を行ってもらい、指導者の動作をその都度モーションキャプチャ等により測定することで、環境の変化と動作の変化とを関連付けて保存している。 Patent Literature 1 discloses a method of extracting and storing movements of a leader, such as the position of the leader's hand, the amount of movement, and the speed of movement, under various environments. In this method, the instructor performs the same work each time while changing the environment, and by measuring the instructor's movements each time using motion capture, etc., changes in the environment and movements are associated and saved. .

また、測定した指導者の動作情報を画像化し、その画像を、メガネ型のウエアラブルデバイス(スマートグラス)などを用いた拡張現実(AR)技術により現実の作業風景に重ねて表示する技術も提案されている(例えば特許文献2)。 In addition, a technology has been proposed that visualizes the movement information of the instructor that has been measured, and displays the image superimposed on the actual work scene using augmented reality (AR) technology using glasses-type wearable devices (smart glasses). (for example, Patent Document 2).

例えば特許文献2の作業支援装置では、情報処理部が、撮像部により測定された作業対象となる物体の表面形状と、予め保存されている物体の表面形状とを比較し、作業対象物体の各点において熱変形させるべき量を算出した後、その変形量を得るために加熱する位置と加熱量を算出し、加熱する位置を示す画像を作業対象物体の映像上に重ね合わせてヘッドマウントディスプレイに表示している。 For example, in the work support device disclosed in Patent Document 2, the information processing unit compares the surface shape of the work target object measured by the imaging unit with the surface shape of the work target object that is stored in advance. After calculating the amount to be thermally deformed at the point, the position to be heated and the amount of heat to obtain the amount of deformation are calculated, and an image showing the position to be heated is superimposed on the image of the work target object and displayed on the head-mounted display. it's shown.

特開2003-281287号公報Japanese Patent Application Laid-Open No. 2003-281287 特開2009-69954号公報JP 2009-69954 A

特許文献2など、データ化された指導者の技術を学習者に表示する従来の学習支援システムは、習熟度の異なる学習者に対しても、利き手など特徴の異なる学習者に対しても、一様に技術を表示する。このようなシステムでは、習熟度や特徴の異なる学習者が効率よく学習できない場合がある。 A conventional learning support system, such as Patent Document 2, which displays the data of the instructor's technique to the learner, can be used for learners with different proficiency levels and for learners with different characteristics such as dominant hand. Show technology like In such a system, learners with different proficiency levels and characteristics may not be able to learn efficiently.

本発明は、学習者が、技術を効率よく習得できる学習支援システムを提供することを目的とする。 An object of the present invention is to provide a learning support system that enables a learner to efficiently acquire skills.

上記課題を解決するため、本発明は、学習者に装着される表示部と、学習者に装着されて学習者の視野映像を撮像する撮像部と、学習者の動作のお手本となる指導者の作業動作の動画であるお手本動画を格納する格納部と、演算部とを備えている。演算部は、お手本動画を、撮像部が撮像した視野映像上に重ね合わせて表示部に表示させるとともに、視野映像に含まれる学習者の作業動作の特徴に応じて、動的にお手本動画の表示内容を変化させる。 In order to solve the above problems, the present invention provides a display unit worn by the learner, an imaging unit worn by the learner to capture the visual field image of the learner, and an instructor who serves as a model of the learner's actions. It comprises a storage section for storing a model video, which is a video of a working action, and a computing section. The calculation unit superimposes the model video on the visual field image captured by the imaging unit and displays it on the display unit. Change content.

本発明によれば、表示されるお手本動画が学習者の作業動作に合わせて動的に変化するため、学習者は、それぞれにあったペースで技術を習得する訓練を行うことができる。これにより学習者は、技術を効率よく習得できる。 According to the present invention, the displayed model moving image dynamically changes according to the work motion of the learner, so that the learner can train to acquire the technique at a pace suitable for each learner. This allows the learner to acquire the technology efficiently.

第1実施形態の学習支援システムの構成を示す説明図。Explanatory drawing which shows the structure of the learning support system of 1st Embodiment. 第1実施形態の学習支援システムの制御システム101の構成を示すブロック図。1 is a block diagram showing the configuration of a control system 101 of the learning support system according to the first embodiment; FIG. 第1実施形態の学習訓練の流れを示すフローチャート。4 is a flowchart showing the flow of learning and training according to the first embodiment; 表示部19に位置の差分が表示される場合の画面例。An example of a screen when a positional difference is displayed on the display unit 19. FIG. 表示部19に位置の差分が表示される場合の画面例。An example of a screen when a positional difference is displayed on the display unit 19. FIG. 位置の差分の表示例。A display example of the position difference. 位置の差分の表示例。A display example of the position difference. 位置の差分の表示例。A display example of the position difference. 学習者と指導者との動作要素の差分を示す表示例。A display example showing the difference in action elements between the learner and the instructor. 学習者と指導者との圧力の差分を示す表示例。A display example showing the difference in pressure between the learner and the instructor. メガネ型デバイス201の構成の詳細を示すブロック図。2 is a block diagram showing the details of the configuration of the glasses-type device 201. FIG. 差分が減った動作要素の表示変更例。An example of changing the display of operation elements with reduced differences. 学習支援システムの制御システム101の構成例を示すブロック図。1 is a block diagram showing a configuration example of a control system 101 of a learning support system; FIG. 第1実施形態の学習支援システム全体の流れを示すフローチャート。4 is a flowchart showing the overall flow of the learning support system according to the first embodiment; 制御システム101、メガネ型デバイス201およびセンシングデバイス204の入出力シーケンスを示す図。FIG. 4 is a diagram showing input/output sequences of the control system 101, the glasses-type device 201, and the sensing device 204; (a)、(b)基本情報と訓練の種類を入力する際に表示部に表示されるUI例。(a), (b) Examples of UI displayed on the display unit when inputting basic information and training type. 差分判定と習熟度評価と振り返りの説明図。Explanatory diagram of difference determination, proficiency evaluation, and review. 情報格納部17に格納されるログの例。An example of a log stored in the information storage unit 17. FIG. レベル判定モード中の流れを示すフローチャート。4 is a flow chart showing the flow during the level determination mode; 第2実施形態の学習支援システムの構成を示す説明図。Explanatory drawing which shows the structure of the learning support system of 2nd Embodiment. 指導者が装着するメガネ型デバイスの構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a glasses-type device worn by a leader; 第2実施形態の学習支援システムの制御システム101の構成を示すブロック図。The block diagram which shows the structure of the control system 101 of the learning support system of 2nd Embodiment. 第2実施形態の学習支援システムの動作の流れを示すフローチャート。9 is a flow chart showing the operation flow of the learning support system of the second embodiment. 第3実施形態の学習支援システムの構成を示すブロック図。The block diagram which shows the structure of the learning support system of 3rd Embodiment. 第3実施形態の学習支援システムの動作の流れを示すフローチャート。10 is a flow chart showing the flow of operation of the learning support system of the third embodiment; 第3実施形態の変形例の学習支援システムの動作の流れを示すフローチャート。11 is a flow chart showing the flow of operation of a learning support system according to a modification of the third embodiment; 第4実施形態の学習支援システムの構成を示す説明図。Explanatory drawing which shows the structure of the learning support system of 4th Embodiment. 第4実施形態の学習支援システムの表示部19の表示例。A display example of the display unit 19 of the learning support system of the fourth embodiment.

以下、本発明の実施の形態にかかる学習支援システムについて説明する。 A learning support system according to an embodiment of the present invention will be described below.

<<第1実施形態の学習支援システム>>
第1実施形態の学習支援システムとしては、学習者が超音波撮像装置におけるプローブの操作方法を学習するメガネ型デバイス用のシステムの例について説明する。この学習支援システムは、図1に示すように、学習者102に装着されるメガネ型デバイス201と、メガネ型デバイス201にネットワーク(一例として無線LAN(Local Area Network))30を介して接続されメガネ型デバイス201の機能を制御する制御システム101とを備えている。メガネ型デバイス201は、表示部19と、学習者102の視野映像を撮像する撮像部(カメラ)15と、を備えている。
<<Learning support system of the first embodiment>>
As a learning support system according to the first embodiment, an example of a system for a glasses-type device in which a learner learns how to operate a probe in an ultrasonic imaging apparatus will be described. As shown in FIG. 1, this learning support system includes a glasses-type device 201 worn by a learner 102, and glasses connected to the glasses-type device 201 via a network (eg, a wireless LAN (Local Area Network)) 30. and a control system 101 that controls the functions of the mold device 201 . The glasses-type device 201 includes a display unit 19 and an imaging unit (camera) 15 that captures the visual field image of the learner 102 .

制御システム101は、図2に示すように、メガネ型デバイス201から受け取った情報に基づいてこの学習支援システムにおける各種演算を行う演算部16と、各種情報を格納している情報格納部17と、を備えている。演算部16は、学習者102の作業動作のお手本となる指導者の作業動作の動画であるお手本動画(例えば図4参照)を、カメラ15が撮像した視野映像上に重ね合わせて表示部19に表示させるとともに、視野映像に含まれる学習者102の作業動作の特徴に応じて、動的にお手本動画の表示内容を変化させる。情報格納部17には、後で詳しく説明するが、お手本動画や指導者の手の位置情報などを含むお手本データが、少なくとも格納されている。 As shown in FIG. 2, the control system 101 includes a computing unit 16 that performs various computations in the learning support system based on information received from the glasses-type device 201, an information storage unit 17 that stores various information, It has The calculation unit 16 superimposes a model moving image (for example, see FIG. 4), which is a moving image of the instructor's work motion, which is a model of the work motion of the learner 102, on the visual field image captured by the camera 15, and displays it on the display unit 19. In addition to displaying, the display content of the model moving image is dynamically changed according to the feature of the work motion of the learner 102 included in the visual field image. The information storage unit 17 stores at least model data including a model moving image and position information of the instructor's hand, which will be described in detail later.

演算部16は情報格納部17に予め格納された学習支援プログラムを実行することにより種々の演算を実行する。具体的には演算部16は、カメラ15から学習者102の視野映像を取り込む映像取り込み部161と、学習者102の視野映像に、お手本動画を重畳し、重畳した処理画像を表示部19に出力する重畳表示部162と、お手本動画に含まれる指導者の作業動作と視野映像に含まれる学習者102の作業動作との差分を算出する差分算出部163と、差分算出部163により求められた差分が所定の閾値以上か否かを判定する差分判定部16Aと、差分算出部163が算出した差分に基づいて表示するお手本動画の表示内容を変更する表示調整部16Cとを備えている。 The calculation unit 16 executes various calculations by executing a learning support program stored in advance in the information storage unit 17 . Specifically, the calculation unit 16 superimposes the model moving image on the video capturing unit 161 that captures the visual field video of the learner 102 from the camera 15 and the visual field video of the learner 102, and outputs the superimposed processed image to the display unit 19. a superimposed display unit 162, a difference calculation unit 163 for calculating the difference between the work action of the instructor included in the model moving image and the work action of the learner 102 included in the visual field image, and the difference calculated by the difference calculation unit 163 is equal to or greater than a predetermined threshold, and a display adjustment unit 16C changes the display content of the model moving image to be displayed based on the difference calculated by the difference calculation unit 163.

第1実施形態の学習支援システムによる訓練動作の流れを図3を参照して説明する。このフローでは、学習者102がプローブ202を手に持った状態で訓練を行う場合の作業動作について説明する。 The flow of training motions by the learning support system of the first embodiment will be described with reference to FIG. In this flow, a work operation when the learner 102 performs training while holding the probe 202 in his/her hand will be described.

図3のフローの訓練動作は、制御システム101により制御され実行される。まずカメラ15が学習者102の視野映像を撮像する。映像取り込み部161は、ネットワーク30を介してカメラ15により撮像された学習者の視野映像を取り込む(ステップS41)。次に重畳表示部162は、情報格納部17に格納されているお手本画像を読み出して、学習者の視野映像に含まれる学習者の手とプローブ202の像に、お手本動画に含まれる指導者の手とプローブの予め定めた基準点が重なるように位置を調整し、位置を調整したお手本動画を表示部19に表示させる(ステップS42)。次に差分算出部163が、図4に示すように、学習者が持つプローブ202の位置と、指導者が持つプローブの位置の差分を算出する。具体的には、まず差分算出部163は、学習者の視野映像から、学習者が持つプローブ202の検査対象の表面に触れる面の中心202bの位置を算出する。また差分算出部163は、情報格納部17に格納されているお手本データから、指導者が持つプローブが検査対象に触れる面の中心202cの位置を読み出す。そして差分算出部163は、指導者の持つプローブの中心202cの位置と学習者の持つプローブ202の中心202bの位置の差分を算出する(ステップS43)。 The training operation of the flow of FIG. 3 is controlled and executed by control system 101 . First, the camera 15 captures the visual field image of the learner 102 . The video capturing unit 161 captures the visual field video of the learner captured by the camera 15 via the network 30 (step S41). Next, the superimposed display unit 162 reads out the model image stored in the information storage unit 17, and superimposes the image of the learner's hand and the probe 202 included in the learner's visual field image onto the image of the instructor included in the model moving image. Positions are adjusted so that predetermined reference points of the hand and the probe overlap, and the position-adjusted model moving image is displayed on the display unit 19 (step S42). Next, as shown in FIG. 4, the difference calculation unit 163 calculates the difference between the position of the probe 202 held by the learner and the position of the probe held by the instructor. Specifically, first, the difference calculation unit 163 calculates the position of the center 202b of the surface of the probe 202 held by the learner that touches the surface of the inspection target, from the visual field image of the learner. Further, the difference calculation unit 163 reads out the position of the center 202c of the surface where the probe held by the instructor touches the inspection target from the model data stored in the information storage unit 17 . Then, the difference calculator 163 calculates the difference between the position of the center 202c of the probe held by the instructor and the position of the center 202b of the probe 202 held by the learner (step S43).

次に差分判定部16Aは、ステップS43で差分算出部163が求めた差分が、所定の閾値以上であるか否かを判定し、差分が閾値以上の場合、その結果(差分判定結果)を表示調整部16Cに出力する(ステップS44)。表示調整部16Cは、お手本動画のプローブの中心202bの位置を、学習者のもつプローブ202の中心202cの位置にずらす画像処理を行い、処理したお手本動画を、ネットワーク30を介してメガネ型デバイス201に出力する。メガネ型デバイス201が受け取ったお手本動画は、表示部19に表示される(ステップS45)。 Next, the difference determination unit 16A determines whether or not the difference calculated by the difference calculation unit 163 in step S43 is equal to or greater than a predetermined threshold. If the difference is equal to or greater than the threshold, the result (difference determination result) is displayed. Output to the adjustment unit 16C (step S44). The display adjustment unit 16C performs image processing to shift the position of the probe center 202b of the model moving image to the position of the probe 202 held by the learner, and transmits the processed model moving image to the glasses-type device 201 via the network 30. output to The model moving image received by the glasses-type device 201 is displayed on the display unit 19 (step S45).

これにより、学習者は、指導者と学習者のプローブの位置が重なった映像を見ることができるため、手やプローブの向きや角度を指導者の手やプローブの向きや角度に合わせることができ、効率よく手やプローブの動かし方を学習することができる。 As a result, the learner can see the images in which the positions of the probes of the instructor and the learner are overlapped, so that the orientation and angle of the hand and probe can be matched to the orientation and angle of the instructor's hand and probe. , you can learn how to move your hands and probes efficiently.

ステップS45で処理したお手本動画が学習者に表示されたら、フローはステップS41に戻る。学習支援システムは以上のフローを学習者の訓練が終了するまで繰り返す。また、ステップS44で差分算出部163が算出した差分が閾値未満の場合、フローはステップS41に戻る。 After the model moving image processed in step S45 is displayed to the learner, the flow returns to step S41. The learning support system repeats the above flow until the learner's training is completed. Moreover, when the difference calculated by the difference calculation unit 163 in step S44 is less than the threshold value, the flow returns to step S41.

なお、表示調整部16Cは、学習者のプローブ202の中心202bと、指導者のプローブの中心202cとを基準点として、学習者の視野映像の手の位置にお手本動画の手の位置を揃えたが、他の基準点を用いてもよい。例えば表示調整部16Cは、学習者102の指先の位置とお手本動画の指導者の指先の位置を揃えるなど、学習者の身体の一部の位置を検出してお手本動画の表示位置の調整を行ってもよい。 Note that the display adjustment unit 16C uses the center 202b of the learner's probe 202 and the center 202c of the instructor's probe as reference points, and aligns the position of the hand of the model video with the position of the hand in the visual field image of the learner. but other reference points may be used. For example, the display adjustment unit 16C detects the position of a part of the body of the learner and adjusts the display position of the model video, such as aligning the position of the fingertip of the learner 102 with the position of the fingertip of the instructor of the model video. may

[位置の差分を学習者に知らせる表示]
以下、差分判定部16Aが算出した学習者と指導者との位置の差分が閾値以上である場合に、表示調整部16Cが行う別の表示調整例について説明する。
[Display to inform the learner of the difference in position]
Another example of display adjustment performed by the display adjustment unit 16C when the position difference between the learner and the instructor calculated by the difference determination unit 16A is equal to or greater than the threshold will be described below.

表示調整部16Cは、学習者の持つプローブ202の中心202bと、指導者の持つプローブの中心202cとの位置の差分を図4に示すように、矢印102dにより表示することができる。学習者は、矢印102dの大きさや傾きを見て、自分の動作がお手本からどれだけずれているかを認識することができる。また学習者は、矢印102dを見ながら、自分が持つプローブ202の位置を指導者が持つプローブの位置に容易に近づけることができる。 The display adjustment unit 16C can display the positional difference between the center 202b of the probe 202 held by the learner and the center 202c of the probe held by the instructor by an arrow 102d as shown in FIG. The learner can recognize how much his or her motion deviates from the model by looking at the size and inclination of the arrow 102d. Also, the learner can easily bring the position of the probe 202 held by him/herself close to the position of the probe held by the instructor while looking at the arrow 102d.

また、指導者のヒジの位置がお手本動画に含まれ、ヒジの位置情報が情報格納部17に格納されている構成としてもよい。この場合、差分算出部163は、学習者の視野映像から学習者のヒジの位置を検出し、学習者のヒジの位置と指導者のヒジの位置の差分を算出することができる。学習者のヒジの位置と指導者のヒジの位置との差分が閾値以上である場合、表示調整部16Cは、図5に示すように、「もっとヒジを持ち上げて!」など、学習者がどのように身体を動かしたらよいかを具体的に文章で表示することができる。また表示調整部16Cは、動かすべき身体の部位に矢印19bなどのサインを表示してヒントを表示してもよい。 In addition, the position of the instructor's elbow may be included in the model moving image, and the position information of the elbow may be stored in the information storage unit 17 . In this case, the difference calculation unit 163 can detect the position of the elbow of the learner from the visual field image of the learner, and calculate the difference between the position of the elbow of the learner and the position of the elbow of the instructor. When the difference between the position of the learner's elbow and the position of the instructor's elbow is greater than or equal to the threshold value, the display adjustment unit 16C, as shown in FIG. It is possible to display concretely in sentences how to move the body. In addition, the display adjustment unit 16C may display a hint by displaying a sign such as an arrow 19b on the part of the body that should be moved.

また、情報格納部17に指導者の手102bの骨と関節の位置を示す骨格図19cを格納しておく構成としてもよい。この場合、図6に示すように、表示調整部16Cは、指導者の手102bの映像に骨格図19cを重ねて表示することができる。骨格図19cを表示することにより、学習者は、表示された指導者の手102bの関節の位置を見ながら自分の手の位置を容易に修正することができる。 Further, the information storage unit 17 may store a skeleton diagram 19c showing the positions of the bones and joints of the instructor's hand 102b. In this case, as shown in FIG. 6, the display adjustment unit 16C can display a skeleton diagram 19c superimposed on the image of the instructor's hand 102b. By displaying the skeletal diagram 19c, the learner can easily correct the position of his/her own hand while viewing the displayed positions of the joints of the instructor's hand 102b.

さらに情報格納部17に、図7に示すように、作業する手や腕の形をしていて、作業の各時点で手の部位ごとに加えるべき力の大きさを色で示した色分布図19dを格納しておく構成としてもよい。この場合、差分算出部163が学習者の視野映像から学習者の手や腕の位置や形状を検出し、表示調整部16Cは、色分布図19dを学習者の手102cに重ねて表示することができる。例えばサーモグラフィのように、学習者が筋肉に大きく力を加えるべき身体の部位には暖色系の色を重ね、少しだけ力を加えるべき身体の部位には寒色系の色を重ねて表示する等により、学習者に力の入れ具合を認識させることができる。 Further, in the information storage unit 17, as shown in FIG. 7, there is a color distribution diagram in the shape of a working hand or arm, which indicates the magnitude of the force to be applied to each part of the hand at each time point of the work. 19d may be stored. In this case, the difference calculation unit 163 detects the position and shape of the learner's hands and arms from the learner's visual field image, and the display adjustment unit 16C displays the color distribution diagram 19d superimposed on the learner's hand 102c. can be done. For example, like thermography, warm colors are superimposed on parts of the body where the learner should apply a lot of force to the muscles, and cool colors are superimposed on parts of the body where the learner should apply a little force. , the learner can be made to recognize the degree of effort put in.

また、表示調整部16Cは、図8に示すように、指導者のプローブと学習者が持つプローブ202の位置が重なっている領域と位置がずれている領域を検出し、重なっている領域を白色に表示し、位置ずれが生じている領域については、指導者のプローブとプローブ202とを異なる色に着色して表示することもできる。このように学習者と指導者との位置がずれている領域を、学習者と指導者とで色を変えて表示することができるため、学習者と指導者との位置の差分が強調される。よって学習者は、自分の手を動かすべき方向を容易に認識できる。 In addition, as shown in FIG. 8, the display adjustment unit 16C detects areas where the positions of the instructor's probe and the probe 202 held by the learner overlap and areas where the positions of the probes 202 are misaligned, and displays the overlapping area in white. , and the instructor's probe and the probe 202 can be displayed in different colors for areas where misalignment occurs. In this way, the area where the positions of the learner and the instructor are misaligned can be displayed in different colors for the learner and the instructor, so the difference in the positions of the learner and the instructor is emphasized. . Therefore, the learner can easily recognize the direction in which to move his or her hand.

また、表示調整部16Cは、学習者の持つプローブ202の位置が指導者の持つプローブの位置からずれた場合、位置ずれが始まったタイミングまでお手本動画を巻き戻し、再生する構成としてもよい。このとき再び流すお手本動画を短い時間のセグメントに分けて、セグメント毎にお手本動画を繰り返し再生してもよい。これにより、学習者が苦手な作業動作を何回も練習できるため、学習効果を高めることができる。 Further, when the position of the probe 202 held by the learner deviates from the position of the probe held by the instructor, the display adjustment unit 16C may be configured to rewind and reproduce the model moving image to the timing when the position deviation starts. At this time, the model moving image to be played again may be divided into short-time segments, and the model moving image may be repeatedly reproduced for each segment. As a result, the learning effect can be enhanced because the learner can practice the work motions that the learner is not good at many times.

なお、メガネ型デバイス201には振動センサが備えられていてもよい。その場合、学習者の持つプローブ202の位置と指導者の持つプローブの位置がずれたタイミングで、メガネ型デバイス201に搭載された振動センサにより振動や衝撃などのフォースフィードバックを学習者に与えるようにしてもよい。 Note that the glasses-type device 201 may be provided with a vibration sensor. In that case, when the position of the probe 202 held by the learner and the position of the probe held by the instructor are deviated, the vibration sensor mounted on the glasses-type device 201 gives force feedback such as vibration or impact to the learner. may

以上のように表示内容を変化させることで、位置ずれを学習者に知らせることができるため、学習者は正しいプローブや手の位置を把握しやすく、かつ位置ずれを修正しやすくなる。 By changing the display content as described above, the learner can be informed of the positional deviation, so that the learner can easily grasp the correct positions of the probe and the hand, and can easily correct the positional deviation.

[表示調整の種類]
<位置以外の動作要素について>
以上の説明では、差分算出部163が学習者と指導者のプローブまたは手の位置の差分(動作要素)を算出する例について説明したが、差分算出部163は、学習者と指導者との作業動作の差分を算出する動作要素として、「位置」以外にも「スピード、圧力、動作軌跡、注視点、音」など1以上の動作要素を検出してもよい。指導者のこれらの動作要素は、お手本データに含まれ、情報格納部17に格納されている。各動作要素における学習者と指導者との差分の算出方法と、その差分の表示方法について、図9を参照して説明する。
[Display adjustment type]
<Operating elements other than position>
In the above description, an example has been described in which the difference calculation unit 163 calculates the difference (action element) between the positions of the probes or hands of the learner and the instructor. As the motion element for calculating the motion difference, one or more motion elements such as "speed, pressure, motion trajectory, gaze point, sound" may be detected in addition to "position". These action elements of the instructor are included in the model data and stored in the information storage unit 17 . A method of calculating the difference between the learner and the instructor in each action element and a method of displaying the difference will be described with reference to FIG.

・スピード
カメラ15が撮像した映像から、差分算出部163は、学習者が手を動かすスピードを算出し、算出した学習者の手のスピードと、情報格納部17に格納されている指導者の手の動くスピードとの差分を学習者と指導者の手の位置の差から算出する。差分判定部16Aが学習者のスピードと指導者のスピードとの差分が所定値以上であると判定した場合、表示調整部16Cは、お手本動画の再生スピードを学習者のスピードに合わせるように調整する。例えば学習者102の作業動作が所定値以上に指導者の作業動作よりも遅い場合、表示調整部16Cは、学習者102のスピードに合うように、お手本動画の再生スピードを遅くする。学習者と指導者のスピードはそれぞれ、表示する画像の色温度の違いで表示したり、バロメータや数値などによって表示したりして、学習者に自分のスピードと指導者のスピードの差分を認識させるようにしてもよい。
・From the video imaged by the speed camera 15, the difference calculation unit 163 calculates the speed of the learner's hand movement, and the calculated speed of the learner's hand and the instructor's hand stored in the information storage unit 17. The difference between the movement speed of the learner and the instructor is calculated from the difference in the position of the hands of the learner and the instructor. When the difference determination unit 16A determines that the difference between the speed of the learner and the speed of the instructor is equal to or greater than a predetermined value, the display adjustment unit 16C adjusts the playback speed of the model video to match the speed of the learner. . For example, when the work motion of the learner 102 is slower than the work motion of the instructor by a predetermined value or more, the display adjustment unit 16C slows down the reproduction speed of the model moving image so as to match the speed of the learner 102 . The learner's and instructor's speeds are displayed by different color temperatures of the displayed images, barometers, numerical values, etc. so that the learners can recognize the difference between their own speed and the instructor's speed. You may do so.

・圧力
指導者が検査対象にプローブを押し当てる際の圧力(以下、指導者の圧力という)情報を、情報格納部17に予め格納しておく。重畳表示部162は情報格納部17から指導者の圧力情報を読み出し、その圧力の大きさを径の大きさで示す円103b2を、図9に示すように、学習者の視野映像に重畳表示させる。また差分算出部163は、学習者が検査対象にプローブ202を押し当てる際の手、指先、または爪の色の変化から、学習者が検査対象にプローブ202を押し当てている圧力を算出する。差分判定部16Aが、学習者のプローブ202を押し当てる圧力と指導者の圧力との差分が所定値以上であると判定した場合、表示調整部16Cは、指導者の圧力と学習者の圧力の差分を例えば円の大きさ、円の色の違いなどにより表示する。指導者の圧力と学習者の圧力の差は、例えば図10に示すように学習者102による圧力を示す円103b1と、指導者による圧力を示す円103b2とで囲まれた領域を塗りつぶすことにより強調表示することができる。学習者は、この円の塗りつぶされた領域を小さくするようにプローブを動かすことで、指導者の圧力に近い圧力で検査対象を押し当てる訓練を行うことができる。
Pressure Information on the pressure when the instructor presses the probe against the test object (hereinafter referred to as the instructor's pressure) is stored in advance in the information storage unit 17 . The superimposed display unit 162 reads the instructor's pressure information from the information storage unit 17, and superimposes a circle 103b2 indicating the magnitude of the pressure on the visual field image of the learner as shown in FIG. . Further, the difference calculation unit 163 calculates the pressure with which the learner presses the probe 202 against the test object from the color change of the hand, fingertip, or nail when the learner presses the probe 202 against the test object. When the difference determination unit 16A determines that the difference between the pressure of the learner pressing the probe 202 and the pressure of the instructor is equal to or greater than a predetermined value, the display adjustment unit 16C determines the difference between the pressure of the instructor and the pressure of the learner. The difference is displayed by, for example, the size of the circle, the difference in the color of the circle, and the like. The difference between the instructor's pressure and the learner's pressure is emphasized by, for example, filling in an area surrounded by a circle 103b1 indicating the pressure by the learner 102 and a circle 103b2 indicating the pressure by the instructor as shown in FIG. can be displayed. By moving the probe so as to reduce the area filled in with this circle, the learner can perform training in which the test object is pressed with a pressure close to that of the instructor.

・動作軌跡
指導者がプローブを動かす経路(動作軌跡)の情報を情報格納部17に予め格納しておく。重畳表示部162は、情報格納部17から動作軌跡の情報を読み出し、その動作軌跡を示す動線を、学習者の視野映像に重畳表示させる。その際、指導者の動作軌跡の色を図9に示すように、学習者のプローブ202の今ある位置よりも過去の軌跡(過去の動作軌跡)103cか、未来の軌跡(将来の動作軌跡)103dかで異なる色にして表示してもよい。また差分算出部163は、カメラ15により撮像された学習者の視野映像から、学習者のプローブ202の動作軌跡を算出し、学習者のプローブ202の動作軌跡と指導者のプローブの動作軌跡との差分を求める。差分判定部16Aが、差分が所定値以上であると判定した場合、表示調整部16Cは、すでに表示されている指導者のプローブの動作軌跡103c、103dに、学習者のプローブ202の動作軌跡を示す動線を重畳表示させることで指導者の動作軌跡と学習者の動作軌跡の差分を、学習者に認識させてもよい。
- Motion trajectory Information on the route (motion trajectory) along which the instructor moves the probe is stored in advance in the information storage unit 17 . The superimposed display unit 162 reads information on the motion trajectory from the information storage unit 17, and superimposes and displays a flow line indicating the motion trajectory on the visual field image of the learner. At that time, as shown in FIG. 9, the color of the instructor's motion trajectory is set to the past trajectory (past motion trajectory) 103c or the future trajectory (future motion trajectory) from the current position of the probe 202 of the learner. 103d may be displayed in different colors. Further, the difference calculation unit 163 calculates the motion trajectory of the learner's probe 202 from the learner's visual field image captured by the camera 15, and the motion trajectory of the learner's probe 202 and the motion trajectory of the instructor's probe. Find the difference. When the difference determination unit 16A determines that the difference is equal to or greater than the predetermined value, the display adjustment unit 16C adds the motion trajectory of the learner's probe 202 to the already displayed instructor's probe motion trajectories 103c and 103d. A learner may be allowed to recognize the difference between the instructor's action trajectory and the learner's action trajectory by superimposing the indicated flow line.

・注視点
作業中に指導者が注目している点(注視点)の情報を情報格納部17に予め格納しておく。重畳表示部162は、情報格納部17から注視点情報を読み出し、その注視点を示す点103aを、学習者の視野映像に重畳表示させる。メガネ型デバイス201は後述する図11のように視線センサ20を備えている。視線センサ20は学習者の注視点を検出する。差分算出部163は、学習者の注視点と、情報格納部17に格納されている指導者の注視点103aとの差分を算出する。差分判定部16Aが、学習者と指導者の注視点103aとの差分が閾値以上であると判定した場合、表示調整部16Cは、指導者の注視点103aを点滅などにより強調して表示させる。表示調整部16Cは指導者の注視点103a以外にも、視線センサ20により検出された学習者の注視点を、十字記号などを用いて表示部19に表示させてもよい。
- Gaze Point Information on the point (gazing point) that the instructor pays attention to during the work is stored in advance in the information storage unit 17 . The superimposed display unit 162 reads the point-of-regard information from the information storage unit 17, and superimposes a point 103a indicating the point-of-regard on the visual field image of the learner. The spectacles type device 201 includes a line-of-sight sensor 20 as shown in FIG. 11, which will be described later. The line-of-sight sensor 20 detects the gaze point of the learner. The difference calculation unit 163 calculates the difference between the learner's gaze point and the leader's gaze point 103 a stored in the information storage unit 17 . When the difference determination unit 16A determines that the difference between the gaze point 103a of the learner and the instructor is equal to or greater than the threshold value, the display adjustment unit 16C highlights and displays the instructor's gaze point 103a by blinking or the like. The display adjustment unit 16C may cause the display unit 19 to display the point of gaze of the learner detected by the line-of-sight sensor 20, other than the point of gaze 103a of the instructor, using a cross symbol or the like.

・音
メガネ型デバイス201に、作業音を録音する録音機器が備えられていてもよい。この場合、録音機器は、学習者の作業音をその録音機器が取得し、差分算出部163が録音した学習者の作業音と、情報格納部17に格納されているお手本動画の作業音との差分を算出する。差分判定部16Aが学習者と指導者の作業音の差分が閾値以上であると判定した場合、表示調整部16Cは波形、色、文字などにより音がずれていることを表示させる。
- Sound The glasses-type device 201 may be equipped with a recording device for recording work sounds. In this case, the recording device acquires the work sound of the learner, and the work sound of the learner recorded by the difference calculation unit 163 and the work sound of the model video stored in the information storage unit 17 are combined. Calculate the difference. When the difference determination unit 16A determines that the difference between the work sounds of the learner and the instructor is equal to or greater than the threshold value, the display adjustment unit 16C displays that the sounds are out of sync using waveforms, colors, characters, and the like.

なお、各動作要素について、統計的に起こりやすいずれ方やその原因が、情報格納部17に予め格納されていてもよい。その場合、差分算出部163は、学習者の作業動作と指導者の作業動作とでずれの生じた動作要素について、学習者の作業動作と指導者の作業動作の違いの原因を求める構成としてもよい。また、表示調整部16Cは、各動作要素の統計的に起こりやすいずれ方やその原因を表示部19に表示させてもよい。 It should be noted that the information storage unit 17 may store in advance the statistically likely deviation and its cause for each motion element. In that case, the difference calculation unit 163 may be configured to obtain the cause of the difference between the learner's work motion and the instructor's work motion for the motion element in which the learner's work motion and the instructor's work motion are deviated. good. Further, the display adjustment unit 16C may cause the display unit 19 to display the statistically likely deviation of each motion element and its cause.

[メガネ型デバイス201]
ここで、メガネ型デバイス201の構成について具体的に説明する。メガネ型デバイス201は、図11に示すように、眼鏡と、眼鏡の一部に搭載された、カメラ15、表示部19、無線通信デバイス13、CPU12、メモリ18、および視線センサ20を備えて構成される。
[Glasses-type device 201]
Here, the configuration of the glasses-type device 201 will be specifically described. As shown in FIG. 11, the spectacles-type device 201 includes spectacles, a camera 15, a display unit 19, a wireless communication device 13, a CPU 12, a memory 18, and a line-of-sight sensor 20 mounted on a part of the spectacles. be done.

カメラ15は、ユーザの視線の方向等の所定の方向の映像を撮像し、またユーザの作業動作を計測する。 The camera 15 captures an image in a predetermined direction such as the line of sight of the user, and measures the work motion of the user.

表示部19は、演算部16およびCPU12の制御下で表示調整部16Cが調整したお手本動画をユーザの視野内に投影する。 The display unit 19 projects the model moving image adjusted by the display adjustment unit 16C under the control of the calculation unit 16 and the CPU 12 into the user's field of view.

なお、表示部19としては、ユーザの網膜に映像を投影する構造のものを用いることも可能である。また眼鏡の代わりにウエアラブルなディスプレイを用いてもよい。この場合、カメラ15が撮像したユーザの視野映像と、表示調整部16Cが調整したお手本動画とが重畳されて、ウエアラブルなディスプレイに表示される。 As the display unit 19, it is also possible to use a structure that projects an image onto the user's retina. A wearable display may be used instead of glasses. In this case, the visual field image of the user captured by the camera 15 and the model moving image adjusted by the display adjustment unit 16C are superimposed and displayed on the wearable display.

無線通信デバイス13は、CPU12と、制御システム101との間の通信を行う。 A wireless communication device 13 performs communication between the CPU 12 and the control system 101 .

CPU12は、制御システム101の演算部16から受け取った情報に基づいてメガネ型デバイス201の各部の動作の制御を行う。具体的には、カメラ15で撮像した映像データを、映像取り込み部161に送信するように無線通信デバイス13に指示を送ったり、重畳表示部162や表示調整部16Cから受け取った情報を表示部19に送信して表示する映像に反映させたりする。 The CPU 12 controls the operation of each part of the glasses-type device 201 based on the information received from the calculation part 16 of the control system 101 . Specifically, an instruction is sent to the wireless communication device 13 to transmit the image data captured by the camera 15 to the image capture unit 161, or information received from the superimposed display unit 162 or the display adjustment unit 16C is sent to the display unit 19. It is reflected in the video that is sent to and displayed.

メモリ18には、カメラ15の撮像した映像やCPU12の演算結果が必要に応じて格納される。また、メモリ18には、表示部19に表示する映像を格納することもできる。 The memory 18 stores the image captured by the camera 15 and the calculation result of the CPU 12 as required. Also, the memory 18 can store images to be displayed on the display unit 19 .

視線センサ20は、ユーザの注視点がどこにあるかを検出するセンサである。視線センサ20は、検出した注視点のデータをCPU12に送信する。 The line-of-sight sensor 20 is a sensor that detects where the gaze point of the user is. The line-of-sight sensor 20 transmits data of the detected gaze point to the CPU 12 .

[訓練モード]
以上の説明では、表示調整部16Cが、随時、指導者の持つプローブの位置を学習者の持つプローブ202の位置に合わせるものとして説明した。情報格納部17には、随時指導者の手の位置合わせを行い学習者のペースに合わせた訓練を可能とした基礎訓練用のビギナーモードと、差分が所定値を超えたときだけ指導者の手の位置が修正されるノーマルモードなど、複数の訓練モード(表1)が格納されていてもよい。ここで、情報格納部17に格納される訓練モードについて説明する。
[Training mode]
In the above description, it is assumed that the display adjustment unit 16C aligns the position of the probe held by the instructor with the position of the probe 202 held by the learner at any time. In the information storage unit 17, there are a beginner mode for basic training in which the position of the instructor's hand is adjusted at any time to enable training to match the learner's pace, and a basic training mode in which the instructor's hand is displayed only when the difference exceeds a predetermined value. Multiple training modes (Table 1) may be stored, such as a normal mode in which the position of is modified. Now, the training modes stored in the information storage unit 17 will be described.

Figure 0007116696000001
Figure 0007116696000001

ビギナーモードでは、お手本動画の再生中、お手本動画が学習者102の作業動作に追随し、お手本動画の重畳位置や動作スピードが動的に変更される。このモードでは、お手本動画が学習者の動作ペースに合わせて調整されるため、学習者は、指導者の作業をつぶさに観察し、正しい作業の型を覚えることができる。 In the beginner mode, during the reproduction of the model moving image, the model moving image follows the work motion of the learner 102, and the superimposed position and movement speed of the model moving image are dynamically changed. In this mode, the model video is adjusted to the learner's movement pace, so the learner can observe the instructor's work closely and memorize the correct work patterns.

ノーマルモードは、指導者の作業のスピード感を重視してお手本動画を再生し、学習者がそれに慣れながら作業の質を向上できるようにした訓練モードである。このモードでは、基本的にはお手本動画は指導者の作業スピードで再生され、学習者102の作業動作が一定以上遅れた場合のみ、お手本動画の重畳位置や再生スピードが学習者102に合うようにコントロールされる。 The normal mode is a training mode in which a model video is played back with an emphasis on the speed of the instructor's work so that the learner can improve the quality of the work while getting used to it. In this mode, basically, the model video is played back at the work speed of the instructor, and only when the work action of the learner 102 is delayed by a certain amount or more, the superimposed position and playback speed of the model video are adjusted to suit the learner 102. controlled.

各訓練モードにおける処理は図3で示したフローの通りであり、各訓練モードで表示調整部16Cは、差分判定部16Aによる差分判定結果に応じて、お手本動画の表示内容を、学習者102の作業動作に合わせて動的に変化させる。具体的には、表示調整部16Cは、差分判定結果に基づいて、差分が所定値以上の動作要素を、差分が所定値に満たない動作要素よりも学習者102に認知しやすい形で表示させるように、お手本動画の各動作要素の透過率を動的に変更したり、表示の有無を動的に切り替えたりする。 The processing in each training mode is as shown in the flow shown in FIG. Dynamically change according to work operation. Specifically, based on the difference determination result, the display adjustment unit 16C causes the learner 102 to display the action elements whose difference is equal to or greater than the predetermined value in a manner that is easier for the learner 102 to perceive than the action elements whose difference is less than the predetermined value. In this manner, the transmittance of each action element of the model moving image is dynamically changed, and the presence/absence of display is dynamically switched.

具体的には、例えば図12(a)に示すように指導者の圧力を示す円103b2、指導者の注視点103a、動作軌跡103c、103dが表示されており、学習者の圧力と注視点が指導者の圧力と注視点に対して差分が少なくなるように変化していった場合、学習者が適切な圧力や注視点で作業を行っているということであり、表示調整部16Cは、図12(a)~(c)に示すように、表示していた指導者の圧力103b2と注視点103aの表示の透明度を高める透明度制御を行う。反対に、学習者の作業動作で指導者の作業動作との差分が大きくなるように変化していく動作要素について、表示調整部16Cは、透明度を低く、より強調して表示するようにする。 Specifically, for example, as shown in FIG. 12(a), a circle 103b2 indicating the instructor's pressure, the instructor's gaze point 103a, and motion trajectories 103c and 103d are displayed, and the learner's pressure and gaze point are displayed. If the difference between the instructor's pressure and the gaze point changes to decrease, it means that the learner is working with appropriate pressure and gaze point. As shown in 12(a) to 12(c), transparency control is performed to increase the transparency of the displayed instructor's pressure 103b2 and the gaze point 103a. Conversely, the display adjustment unit 16C lowers the transparency and emphasizes and displays the action elements that change such that the difference between the work action of the learner and the work action of the instructor increases.

このような透明度制御により、学習者の苦手な動作要素(ここでは、正しい軌跡を描いてプローブを動かすこと)の表示が強調されるため、学習者は苦手な動作要素に注目しながら訓練を行うことができる。 This kind of transparency control emphasizes the display of movement elements that the learner is not good at (here, moving the probe while drawing the correct trajectory), so the learner can focus on the movement elements that the learner is not good at during training. be able to.

[プログラム構成・訓練全体の流れ]
以下、本実施形態の学習支援システムが実行する、技術訓練のプログラムの構成の例と、訓練全体の流れについて説明する。情報格納部17には、学習支援プログラムとして、例えば表1に示すように複数のモードが格納されている。具体的には、先述のビギナーモード、ノーマルモードに加えて、レベル判定モード、ガイダンスモード、および振り返りモードが情報格納部17に格納されている。
[Program structure/flow of overall training]
An example of the configuration of the technical training program executed by the learning support system of the present embodiment and the overall flow of the training will be described below. The information storage unit 17 stores a plurality of modes as shown in Table 1, for example, as learning support programs. Specifically, in addition to the beginner mode and normal mode described above, the information storage unit 17 stores a level determination mode, a guidance mode, and a review mode.

これらのモードを実行する場合、制御システム101の演算部16は、図13に示すように、映像取り込み部161、重畳表示部162、差分算出部163、差分判定部16A、表示調整部16Cに加えて、差分判定部16Aによる差分判定結果から学習者102の技術レベルを評価するレベル評価部16Bと、学習者102のスキルデータを統計演算する統計演算部16Dとを備えている。 When executing these modes, the calculation unit 16 of the control system 101 includes, as shown in FIG. A level evaluation unit 16B that evaluates the technical level of the learner 102 from the result of difference determination by the difference determination unit 16A, and a statistical calculation unit 16D that statistically calculates the skill data of the learner 102 are provided.

重畳表示部162が学習者の視野映像とお手本動画の位置を揃えて重ねる方法には、公知の方法を用いることができる。例えば重畳表示部162は、学習者102の身体(手など)や超音波検査の対象物、学習者が持つプローブなど、技術習得中に学習者102の視界に入るもの、あるいはその周囲に取り付けられた印を基準マーカーとして用い、お手本動画の表示位置を決定する。 A well-known method can be used as a method for the superimposed display unit 162 to align and superimpose the view image of the learner and the model moving image. For example, the superimposed display unit 162 is attached to objects that come into the field of view of the learner 102 during skill acquisition, such as the body (hands, etc.) of the learner 102, an object of ultrasonic examination, a probe held by the learner, or the surroundings thereof. The mark is used as a reference marker to determine the display position of the model movie.

演算部16は、CPU或いはGPUに搭載されるソフトウェアとしてその機能が実現される。また演算部16の一部または全部の機能は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programable Gate Array)などのハードウェアで実現することも可能である。 The functions of the calculation unit 16 are realized as software installed in the CPU or GPU. Part or all of the functions of the computing unit 16 can also be realized by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

情報格納部17には、技術習得のための訓練モードを含む学習支援プログラムに加え、学習者102の基本情報(例えば年齢、利き手、くせ、視力、握力などの個々人の身体能力の違い)、訓練の種類に応じて指導者が行う作業動作に関するお手本データ、学習者102の技術データのログ、学習者102の弱点リスト等を含む学習者102のデータテーブルが格納されている。情報格納部17に格納されているお手本データには、お手本動画、指導者の作業動作の複数の動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、お手本動画の基本情報(例えば利き手、お手本動画で超音波検査を行う検査部位、検査内容、患者の体型)、各動作要素について指導者と学習者の動作に差分が生じた場合の差分の表示方法等が含まれている。また情報格納部17には、カメラ15で撮像した映像や演算部16の演算結果が必要に応じて格納される。さらに情報格納部17は、表示部19に表示する映像を格納することもできる。 In the information storage unit 17, in addition to a learning support program including a training mode for skill acquisition, basic information of the learner 102 (for example, age, dominant hand, habit, eyesight, difference in physical ability of each individual such as grip strength), training A data table of the learner 102 including model data related to work actions performed by the instructor according to the type of training, a log of the technical data of the learner 102, a weak point list of the learner 102, and the like is stored. The model data stored in the information storage unit 17 includes a model video, a plurality of motion elements of the instructor's work motion (position, speed, pressure, motion trajectory, gaze point, and sound), basic information of the model video ( (e.g., dominant hand, examination site to be examined by ultrasound examination in the model video, examination content, patient's body shape), method of displaying the difference when there is a difference between the action of the instructor and the learner for each action element, etc. . Further, the information storage unit 17 stores the image captured by the camera 15 and the calculation result of the calculation unit 16 as necessary. Furthermore, the information storage section 17 can also store images to be displayed on the display section 19 .

以下、学習支援システムによる訓練全体のフローについて図14、15を参照して説明する。このフローでは、学習者の作業動作と指導者の作業動作との差分を判断する動作要素として、位置、スピード、圧力、動作軌跡、注視点および音の6つの動作要素を用いる場合について説明する。 The overall flow of training by the learning support system will be described below with reference to FIGS. 14 and 15. FIG. In this flow, a case will be described in which six motion elements of position, speed, pressure, motion trajectory, gaze point, and sound are used as motion elements for judging the difference between the work motion of the learner and the work motion of the instructor.

また、このフローではプローブ202の代わりに、学習者がセンシングデバイス204(図1参照)を持って訓練を行う場合について説明する。センシングデバイス204を用いて訓練を行う場合、メガネ型デバイス201のほかに、センシングデバイス204がネットワーク30を介して制御システム101に接続される。センシングデバイス204は、圧力センサ、傾きセンサ、温度センサ、湿度センサ、光センサ、学習者102に触覚フィードバックを与える触覚デバイス(例えばバイブレータ)などを備えることができる。センシングデバイス204が制御システム101に接続されている場合、センシングデバイス204が取得した情報は、演算部16による演算に利用することができる。また重重畳表示部162は、センシングデバイス204により検出された圧力や傾きなどの情報を、表示部19に表示可能な画像に変換し、学習者102の視野映像に重畳表示させることができる。センシングデバイス204に、カメラ15からは取得できない温度、湿度、光度などの情報を取得するセンサが備えられている場合、センサが取得した情報は表示調整部16Cによるお手本動画の表示制御に用いることができる。カメラ15から取得可能な情報であっても、センシングデバイス204を用いることにより、カメラ15よりも高精度にその情報を取得できる場合がある。なお、センシングデバイス204には訓練する作業に使用する道具(例えば超音波撮像装置のプローブ)と同様の形状をしているものを用いることが好ましい。 Also, in this flow, instead of the probe 202, the learner will hold the sensing device 204 (see FIG. 1) for training. When training using the sensing device 204 , the sensing device 204 is connected to the control system 101 via the network 30 in addition to the glasses-type device 201 . Sensing devices 204 may include pressure sensors, tilt sensors, temperature sensors, humidity sensors, light sensors, tactile devices (eg, vibrators) that provide tactile feedback to learner 102, and the like. When the sensing device 204 is connected to the control system 101 , information acquired by the sensing device 204 can be used for computation by the computation unit 16 . The superimposed display unit 162 can convert information such as pressure and tilt detected by the sensing device 204 into an image that can be displayed on the display unit 19 and superimpose it on the visual field image of the learner 102 . If the sensing device 204 is provided with a sensor that acquires information such as temperature, humidity, and light intensity that cannot be acquired from the camera 15, the information acquired by the sensor can be used for display control of the model moving image by the display adjustment unit 16C. can. Even information that can be acquired from the camera 15 may be acquired with higher accuracy than the camera 15 by using the sensing device 204 . It should be noted that the sensing device 204 preferably has the same shape as the tool used in the training work (for example, the probe of the ultrasonic imaging apparatus).

[ステップS1]
まず、制御システム101は、学習者から訓練を行うために必要な基本条件の入力を受け付ける。具体的には、制御システム101は、図16のようなUI画面を表示部19に表示させる。学習者は、表示されたUI画面に学習者の基本情報と訓練の種類を入力する。入力された情報はネットワーク30を介して制御システム101に送られ、情報格納部17に格納される。これにより訓練プログラムを実行するコンテンツが起動して、メガネ型デバイス201に配信される。
[Step S1]
First, the control system 101 receives input of basic conditions necessary for training from the learner. Specifically, the control system 101 causes the display unit 19 to display a UI screen as shown in FIG. The learner inputs the learner's basic information and the type of training on the displayed UI screen. The input information is sent to the control system 101 via the network 30 and stored in the information storage unit 17 . As a result, the content for executing the training program is activated and delivered to the spectacles type device 201 .

[ステップS2]
次に、制御システム101がメガネ型デバイス201にガイダンスモードのコンテンツを配信し、ガイダンスモードが実施される。ガイダンスモードでは、表示部19に表示されるガイドに従って学習者が作業動作を行うことにより、後に実行される訓練モードで学習者102が行うべき作業動作や、表示される内容の確認、訓練への動機づけ等、コンテンツの使用方法を学ぶことができる。このモードでは、学習者102の技術レベルと、学習者の作業動作と指導者の作業動作との差や、習熟度判定がどのように表示されるか、あるいは各訓練モードの違い等が学習者102に表示される。例えば、訓練モード中に学習者の作業動作が指導者の作業動作と乖離した場合、その情報がどのように表示されるかなどを、学習者102が体験して学べる。なお、このガイダンスモードは、レベル判定モードの後に実施されてもよく、学習者がコンテンツの使用方法を体得するまで繰り返し実施されてもよい。
[Step S2]
Next, the control system 101 delivers guidance mode content to the glasses-type device 201, and the guidance mode is implemented. In the guidance mode, the learner performs work actions according to the guide displayed on the display unit 19, thereby confirming the work actions to be performed by the learner 102 in the training mode to be executed later, confirming the contents displayed, and preparing for the training. You can learn how to use the content, such as motivation. In this mode, the skill level of the learner 102, the difference between the work motion of the learner and the work motion of the instructor, how the proficiency level determination is displayed, the difference between each training mode, etc. 102. For example, the learner 102 can experience and learn how the information is displayed when the learner's work motion deviates from the instructor's work motion during the training mode. Note that this guidance mode may be implemented after the level determination mode, or may be implemented repeatedly until the learner masters how to use the content.

[ステップS3]
次に、制御システム101がメガネ型デバイス201にレベル判定モードのコンテンツを配信してレベル判定モードが実施される。このモードの具体的なフローは後で説明するが、このモードでは、お手本動画は再生されない状態で学習者が作業を行う。差分判定部16Aとレベル評価部16Bは、学習者102の現在の習熟度の評価を行い、習熟度の評価に応じて次の訓練モード(ビギナーモードやノーマルモードなど)の難易度の設定を行う。習熟度の評価方法は各訓練モードにおけるレベル評価方法と同じである。
[Step S3]
Next, the control system 101 distributes the contents of the level determination mode to the spectacles type device 201 to implement the level determination mode. A specific flow of this mode will be described later, but in this mode, the learner works without reproducing the model moving image. The difference determination unit 16A and the level evaluation unit 16B evaluate the current proficiency level of the learner 102, and set the difficulty level of the next training mode (beginner mode, normal mode, etc.) according to the evaluation of the proficiency level. . The proficiency evaluation method is the same as the level evaluation method in each training mode.

[ステップS4]
次にレベル判定モードで設定された訓練モードで訓練が行われる。訓練モードにおける具体的なフローは図3で説明した通りであり、差分算出部163は、カメラ15やセンシングデバイス202から得られた学習者102の視野映像に基づき、各動作要素(位置、スピード、圧力、動作軌跡、注視点、音)について、学習者102の動作とお手本動画に含まれる指導者の動作との差分を求める。このとき、差分算出部163は、図17に示すように、6つの動作要素を単位時間ごとに割り当て、単位時間毎に分けられた動作要素それぞれの差分を求める。差分判定部16Aは、図17のスパイダーチャートに示すように差分算出部163により各動作要素についてそれぞれ算出された差分が、それぞれの動作要素について予め定められた許容可能な差分の大きさ(閾値)116以上であるか否かを判定する。表示調整部16Cは、学習者と指導者の差分が閾値以上の場合、お手本動画の表示内容を調整する。なお、差分が閾値116以下となった動作要素(この図では音以外の5つの動作要素)は、訓練中、学習者が上手にできていた動作要素であり、差分が閾値116を超えた動作要素(この図では音)は、学習者が上手くできなかった動作要素である。
[Step S4]
Next, training is performed in the training mode set in the level judgment mode. The specific flow in the training mode is as described with reference to FIG. pressure, motion trajectory, gaze point, sound), the difference between the motion of the learner 102 and the motion of the instructor included in the model moving image is obtained. At this time, as shown in FIG. 17, the difference calculator 163 assigns six motion elements to each unit time, and obtains the difference of each motion element divided for each unit time. The difference determination unit 16A determines whether the difference calculated for each motion element by the difference calculation unit 163 as shown in the spider chart of FIG. It is determined whether or not it is 116 or more. 16 C of display adjustment parts adjust the display content of a model moving image, when the difference of a learner and an instructor is more than a threshold value. It should be noted that the action elements (five action elements other than sound in this figure) for which the difference is equal to or less than the threshold value 116 are the action elements that the learner performed well during the training, and the action elements for which the difference exceeds the threshold value 116. The elements (sounds in this figure) are action elements that the learner did poorly.

[ステップS5]
訓練モードが終了すると、制御システム101が、習熟度を判定するコンテンツを起動し、レベル評価部16Bが、訓練中の学習者の技術習熟度を判定する。具体的にはレベル評価部16Bは、差分判定部16Aによる差分判定結果を用いて、図17のスパイダーチャートに示すように、6つの動作要素のうち差分が閾値116以下となった動作要素がいくつあるかに応じて学習者の習熟度を評価する。
[Step S5]
When the training mode ends, the control system 101 activates content for judging proficiency, and the level evaluation unit 16B judges the technical proficiency of the learner during training. Specifically, the level evaluation unit 16B uses the difference determination result by the difference determination unit 16A to determine how many motion elements among the six motion elements have a difference equal to or less than the threshold value 116, as shown in the spider chart of FIG. Evaluate the learner's proficiency according to

閾値116以下になった動作要素の数と、習熟度との関係は任意に設定可能である。例えば6つの動作要素のうち、閾値116以下となった動作要素の数とレベル数を揃えてもよく、この図のように閾値116以下となった動作要素の数が5動作要素の場合、レベル評価部16Bはこの学習者の習熟度を「レベル5」と判定してもよい。 The relationship between the number of motion elements having a threshold value of 116 or less and the proficiency level can be set arbitrarily. For example, among six action elements, the number of action elements whose threshold is 116 or less may be the same as the number of levels. The evaluation unit 16B may determine the proficiency level of this learner as "level 5".

また判定された習熟度に応じて、次に同じ学習者102が行う学習において、学習モードや重点的に学習する内容を変更することができる。また例えばビギナーモードでの訓練結果で、全動作要素の差分が閾値116以下になった等、学習者のレベルがある一定レベルを超えた場合、次の訓練時には次のレベルのノーマルモードに進めるようにしてもよい。 Also, in accordance with the determined proficiency level, the learning mode and the content to be learned intensively can be changed in the next learning performed by the same learner 102 . Also, for example, if the learner's level exceeds a certain level, such as when the difference between all motion elements is less than the threshold 116 in the training result in the beginner mode, the next training will proceed to the normal mode of the next level. can be

[ステップS6]
次に、ステップS5で判定された習熟度がメガネ型デバイス201により学習者に表示され、習熟度に応じて、振り返りモードが実行される。振り返りモードでは、学習者102に対して、ステップS4の訓練モードでの学習者の作業動作が再生され、学習者に現在の技術レベルを客観的に把握させる。このステップでは、ステップS3で判定された初期の習熟度よりも、どれだけ習熟度が向上したかを学習者に表示することが好ましい。
[Step S6]
Next, the proficiency level determined in step S5 is displayed to the learner by the glasses-type device 201, and the review mode is executed according to the proficiency level. In the review mode, the learner's work motions in the training mode in step S4 are reproduced for the learner 102, allowing the learner to objectively grasp the current skill level. In this step, it is preferable to display to the learner how much the proficiency level has improved from the initial proficiency level determined in step S3.

例えば訓練モード中にカメラ15により学習者の撮像された視野映像が情報格納部17に格納されていた場合、このモードで重畳表示部162は、格納された学習者の視野映像を読み出し、読み出した視野映像にお手本動画を重畳させた振り返り動画を表示する。特に、差分が閾値116以上になった(学習者が上手にできなかった)動作要素の原因となる学習者102の作業動作を呼び出して再生してもよい。これにより、学習者は、現在の自分の技術がお手本技術に対してどれだけ違うか、あるいは自分の弱点がどこにあるかを客観的に把握することができる。 For example, when the visual field image of the learner captured by the camera 15 during the training mode is stored in the information storage unit 17, the superimposed display unit 162 reads out the stored visual field image of the learner in this mode. A retrospective video is displayed by superimposing a model video on the visual field video. In particular, the work action of the learner 102 that causes the action element whose difference is greater than or equal to the threshold 116 (the learner did poorly) may be recalled and played back. As a result, the learner can objectively grasp how much his current technique differs from the model technique, or where his weak points are.

この振り返りモードで統計演算部16Dは、差分判定部16Aが判定した各動作要素の差分判定結果に基づいて、統計グラフ(ヒストグラムや図17のようなレーダーチャートなど)を生成し、統計グラフで学習者の技術レベルを表示してもよい。また統計グラフの代わりに、例えば図18に示すようなスキルデータや弱点のリストが表示部19に表示されることで学習者に表示されてもよい。統計グラフやリストが表示されることにより、学習者102は自分の得意または不得意な動作要素を確認しやすい。このリストや統計グラフは、情報格納部17に格納される。 In this review mode, the statistical calculation unit 16D generates a statistical graph (histogram, radar chart as shown in FIG. 17, etc.) based on the difference determination result of each motion element determined by the difference determination unit 16A, and learns from the statistical graph. The skill level of the person may be displayed. Also, instead of the statistical graph, for example, skill data and a weak point list as shown in FIG. By displaying statistical graphs and lists, the learner 102 can easily check the action elements that he or she is good at or weak in. This list and statistical graph are stored in the information storage unit 17 .

振り返りモードは、レベル判定モードの後に実行されてもよく、各訓練モードの後に、毎回実行されることが好ましい。振り返りモードをレベル判定モードや訓練モードの実施後に都度実施することにより、学習者102は自分の現在の技術レベルを認識しながら、次の訓練を行うことができる。
以上の工程により、学習者102が技術を習得する訓練が実施される。
The retrospective mode may be run after the level determination mode, and is preferably run after each training mode. By implementing the retrospective mode after implementing the level determination mode and the training mode each time, the learner 102 can perform the next training while recognizing his/her current skill level.
Through the above steps, the learner 102 is trained to master the technique.

ここで、ステップS3のレベル判定モードの具体的なフローについて図15および図19を参照して説明する。 Here, a specific flow of the level determination mode in step S3 will be described with reference to FIGS. 15 and 19. FIG.

[ステップS31]
レベル判定モードが始まると、メガネ型デバイス201の表示部19にはレベル判定モードのコンテンツが表示され、カメラ15が学習者102の視野映像から学習者102の視野映像を撮像する。カメラ15から得られた視野映像は、制御システム101に送信される。またセンシングデバイス202は、学習者102の作業動作を各センサで計測し、計測したデータを制御システム101に送信する。
[Step S31]
When the level determination mode starts, the content of the level determination mode is displayed on the display unit 19 of the glasses-type device 201, and the camera 15 captures the learner's 102 visual field image from the learner's 102 visual field image. A field-of-view image obtained from the camera 15 is transmitted to the control system 101 . The sensing device 202 also measures the work motion of the learner 102 with each sensor and transmits the measured data to the control system 101 .

レベル判定モードでは、後に学習者が行う訓練モードと同じ作業でレベル判定を行ってもよいし、訓練モードよりも簡単な基礎作業でレベル判定を行ってもよい。訓練モードと同じ作業でレベル判定を行う場合、情報格納部17に格納するモードを少なくできる。一方、訓練モードで行う作業よりも簡単な基礎作業でレベル判定を行う場合、情報格納部17に格納するモードは増えるが、学習者102のレベルが基礎レベルに到達しているか否かを判断することができる。 In the level determination mode, the level determination may be performed by the same work as the training mode that the learner later performs, or the level determination may be performed by basic work that is simpler than the training mode. When level determination is performed in the same work as the training mode, the number of modes stored in the information storage unit 17 can be reduced. On the other hand, when level determination is performed with basic work that is easier than the work performed in the training mode, the number of modes stored in the information storage unit 17 increases, but it is determined whether the level of the learner 102 has reached the basic level. be able to.

[ステップS32]
カメラ15から得られた情報に基づき、差分算出部163は、6つの動作要素について学習者102の作業動作と、お手本(このモードでは表示されない)の作業動作との差分を算出する。
[Step S32]
Based on the information obtained from the camera 15, the difference calculation unit 163 calculates the difference between the work motion of the learner 102 and the model work motion (not displayed in this mode) for the six motion elements.

[ステップS33]
差分判定部16Aは、各動作要素において、学習者102の手との差分が、それぞれ閾値以上であるか否かを判定し、判定した差分判定結果をレベル評価部16Bに送信する。
[Step S33]
The difference determination unit 16A determines whether or not the difference between each motion element and the hand of the learner 102 is equal to or greater than a threshold value, and transmits the determined difference determination result to the level evaluation unit 16B.

[ステップS34]
レベル評価部16Bは、差分判定結果に応じて学習者の習熟度を判定し、ノーマルモードで訓練を行うか、あるいはビギナーモードで訓練を行うかを判断する。
[Step S34]
The level evaluation unit 16B determines the proficiency level of the learner according to the difference determination result, and determines whether to train in the normal mode or in the beginner mode.

レベル評価部16Bは、学習者のレベルが所定レベル以上の場合、ノーマルモードで訓練を行うことを決定し、学習者のレベルが所定レベル以下の場合、ビギナーモードで訓練を行うことを決定する。 The level evaluation unit 16B determines to perform training in the normal mode when the learner's level is equal to or higher than a predetermined level, and determines to perform training in the beginner mode when the learner's level is equal to or lower than the predetermined level.

[ステップS35]
レベル評価部16Bが、ステップS34で決定したレベル判定結果をメガネ型デバイス201に送信し、学習者のレベルが表示される。また、訓練モードの実行後に行われる振り返りモードと同様に、レベル判定モードにおける学習者の作業動作を振り返るコンテンツを実行することが好ましい。
[Step S35]
The level evaluation unit 16B transmits the level determination result determined in step S34 to the glasses-type device 201, and the learner's level is displayed. In addition, it is preferable to execute content for reviewing the work actions of the learner in the level determination mode, similar to the review mode performed after execution of the training mode.

[ステップS36]
表示調整部16Cは、ステップS34で決定されたモードに応じて訓練用のコンテンツを構築し、メガネ型デバイス201に訓練用コンテンツを配信する。訓練用コンテンツを配信した後、学習支援システムによる訓練フローは図14のステップS4に戻り、訓練モードが実行される。表示調整部16Cは、構築する訓練モードに応じて、お手本動画の再生スピードを変えたり、お手本動画の再生スピード以外にも、その他の方法で表示を調整したりしてもよい。
[Step S36]
The display adjustment unit 16C constructs training content according to the mode determined in step S34, and distributes the training content to the glasses-type device 201. FIG. After distributing the training contents, the training flow by the learning support system returns to step S4 in FIG. 14, and the training mode is executed. The display adjustment unit 16C may change the playback speed of the model moving image, or adjust the display by other methods besides the playback speed of the model moving image, according to the training mode to be constructed.

[その他の表示調整例]
以上で説明した以外の手法を用い、各モードや各動作要素に応じてお手本動画の表示を調整する例を以下に示す。
例えば差分判定部16Aの差分判定結果により、学習者102の注視点と指導者の注視点との差分が大きく、閾値よりずれていることがわかった場合、表示調整部16Cは、表示部19に正しい注視点を長時間表示させたり強調表示させたりするなどして、学習者102に正しい注視点を身につけさせることができる。
[Other display adjustment examples]
An example of adjusting the display of a model moving image in accordance with each mode and each operation element using methods other than those described above will be described below.
For example, when it is found from the difference determination result of the difference determination unit 16A that the difference between the point of gaze of the learner 102 and the point of gaze of the instructor is large and deviates from the threshold, the display adjustment unit 16C causes the display unit 19 to display The learner 102 can acquire the correct gazing point by displaying the correct gazing point for a long time or highlighting it.

またビギナーモードでは、学習者の動作スピードに合わせて指導者の動作スピードを落とす調整を行うという説明をしたが、学習者の作業動作に指導者の作業動作が追従する方法には、再生スピードを落とす以外の方法もある。例えば表示調整部16Cは、学習者の動作が一定以上遅れた場合、お手本動画を一時停止し、ひとつ前の工程からやり直すように巻き戻して再生するコンテンツを構築してもよい。またノーマルモードは指導者の動作スピードに合わせて学習者が訓練するモードであると説明したが、ノーマルモードにおいても、学習者の作業動作が一定以上遅れた場合、表示調整部16Cは、お手本動画の再生を一時停止するなどして学習者の作業をお手本動画に追いつかせるようにしてもよい。 Also, in the beginner mode, we explained that the instructor's movement speed is adjusted to match the learner's movement speed. There are other ways to drop it. For example, the display adjustment unit 16C may construct content that, when the learner's action is delayed by a certain amount or more, pauses the model moving image, and rewinds and reproduces it so as to start over from the previous step. In addition, although the normal mode has been described as a mode in which the learner trains according to the movement speed of the instructor, even in the normal mode, if the learner's work movement is delayed by more You may make a learner's work catch up with a model animation by pausing reproduction|regeneration of.

表示調整部16Cは、学習者の作業動作の各動作要素がそれぞれ指導者の動作要素と一致した際に、一致したことを学習者に表示するようにコンテンツを構築してもよい。その表示方法としては、表示、音、あるいは振動によるフィードバックを用いることができる。一致したことを表示する手法が各動作要素で共通だと、学習者は、一致した動作要素について、お手本通りに作業できたことを認識しやすい。 The display adjustment unit 16C may construct content so that, when each action element of the work action of the learner matches the action element of the instructor, the match is displayed to the learner. As the display method, display, sound, or vibration feedback can be used. If the method of displaying a match is the same for each action element, the learner can easily recognize that he or she has been able to perform the corresponding action element according to the model.

表示調整部16Cは、一定期間みられた学習者の動作要素と指導者の動作要素とのずれが所定値以上改善された場合(学習者102の技術に一定以上の上達がみられた場合)や、ある一連の作業動作をクリアした場合、学習者102には、上達を実感させるフィードバックを与えるようにコンテンツを構築してもよい。例えば、表示調整部16Cは、表示、音、振動などのフィードバック、あるいは上達した動作要素を強調表示するなどにより、レベルアップしたことを学習者に表示することができる。 The display adjustment unit 16C, when the discrepancy between the learner's action element and the instructor's action element seen for a certain period of time is improved by a predetermined value or more (when the learner's skill is improved by a certain amount or more) Alternatively, the content may be structured so that when the learner 102 completes a series of work actions, the learner 102 is given feedback that makes them realize their progress. For example, the display adjustment unit 16C can display to the learner that the skill level has been improved by feedback such as display, sound, or vibration, or by highlighting the improved action element.

なお、表示調整部16Cは、学習者102に、表示、音による視覚的、聴覚的フィードバックに加え、センシングデバイス202により、振動や衝撃など触覚によるフィードバックを学習者に与えるコンテンツを構築し、学習者に実際に作業をしている感覚をもたせるようにしてもよい。 In addition, the display adjustment unit 16C provides the learner 102 with visual and auditory feedback by display and sound, and by the sensing device 202, constructs content that gives the learner tactile feedback such as vibration and impact. It is also possible to make the user feel as if they are actually working.

以上のように、第1実施形態の学習支援システムでは、学習者の作業動作に合わせてお手本動画の表示を動的に変化させることができる。そのため、レベルの異なる学習者、あるいは特徴の異なる学習者など、学習者それぞれが、それぞれに合った学習ペースで技術を訓練することができ、熟練した技術をより習得しやすくなる。 As described above, the learning support system of the first embodiment can dynamically change the display of the model moving image according to the learner's work motion. Therefore, each learner, such as a learner with a different level or a learner with different characteristics, can train the technique at a learning pace that suits them, making it easier to acquire the skillful technique.

また、第1実施形態の学習支援システムでは、技術の習得の際に必要な、言葉などで表現しにくい微妙なコツを動作要素として抽出し、動作要素ごとに指導者と学習者の技術の差分求めて差分判定結果を表示するため、学習者は、技術の高度で細かなコツと、自分がそのコツをどれだけつかめているかを、動作要素ごとに把握することができる。差分判定結果は学習者が直感的に学べるような表示方法で表示されるため、学習者は、直感的な動作により技術を習得することができる。 In addition, the learning support system of the first embodiment extracts subtle tricks that are difficult to express in words, which are necessary for skill acquisition, as movement elements, and calculates the difference between the skill of the instructor and the learner for each movement element. Since the difference judgment result is displayed, the learner can grasp the advanced and detailed tricks of the technique and how well he or she has grasped the tricks for each action element. Since the difference determination result is displayed in a display method that allows the learner to learn intuitively, the learner can acquire the technique through intuitive actions.

また第1実施形態の学習支援システムでは、圧力や視線など、本来は見た目だけではわかりにくい情報が学習者の視野映像に重畳表示されるため、指導者から直接技術を教わるときには学びにくいコツであっても、学習者は確認しながら学習することができる。 In addition, in the learning support system of the first embodiment, information such as pressure and line of sight, which is originally difficult to understand by appearance, is superimposed on the visual field image of the learner. However, learners can learn while checking.

なお、第1実施形態の学習支援システムでは、1人の学習者が制御システム101に格納されている学習支援プログラムを用いて訓練を行う例を示したが、複数の学習者が制御システムにネットワークを介して接続されているメガネ型デバイスをそれぞれ用いることにより、同時にあるいは異なるタイミングで訓練することができる。そのため、第1実施形態の学習支援システムでは、指導者が取得した高度な技術を、多くの学習者に効率よく伝達することができる。 In addition, in the learning support system of the first embodiment, an example was shown in which one learner trains using the learning support program stored in the control system 101. It is possible to train at the same time or at different timings by using the glasses-type devices connected via the respective devices. Therefore, in the learning support system of the first embodiment, the advanced skills acquired by the instructor can be efficiently transmitted to many learners.

また、この実施形態では、ビギナーモードとノーマルモードの2つの訓練モードで技術の習熟を図るものとしたが、訓練モードは1モードであってもよいし、3つ以上のモードであってもよい。さらに、情報格納部17は、上述のモード以外にも学習者の技術習得に有効なモードを格納していてもよい。 In addition, in this embodiment, two training modes, a beginner mode and a normal mode, are used to improve technique, but the training mode may be one mode or three or more modes. . Furthermore, the information storage unit 17 may store a mode effective for a learner's skill acquisition in addition to the modes described above.

また、制御システム101の内部構成(演算部16と情報格納部17)は、ネットワーク30を介してメガネ型デバイス201に接続されたクラウドに格納されていてもよい。 Also, the internal configuration of the control system 101 (the calculation unit 16 and the information storage unit 17) may be stored in a cloud connected to the glasses-type device 201 via the network 30. FIG.

<<第2実施形態の学習支援システム>>
以下、第2実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第2実施形態の学習支援システムは、第1実施形態の学習支援システムと同様に、メガネ型デバイス201と、メガネ型デバイス201にネットワークを介して接続された制御システム101とを備えている。但し、第1実施形態の学習支援システムでは、制御システム101の情報格納部17にすでに格納されている指導者のお手本データを用いて表示されるお手本動画の表示調整を行うが、第2実施形態の学習支援システムでは、情報格納部17に現状では格納されていない指導者のお手本動画から新たなお手本データを生成し、新たに生成したお手本データを表示調整に用いる。この点で、第2実施形態の学習支援システムは第1実施形態の学習支援システムとは異なっている。
<<Learning support system of the second embodiment>>
Differences between the learning support system of the second embodiment and the learning support system of the first embodiment will be described below. Like the learning support system of the first embodiment, the learning support system of the second embodiment includes a glasses-type device 201 and a control system 101 connected to the glasses-type device 201 via a network. However, in the learning support system of the first embodiment, display adjustment of the model moving image displayed is performed using the teacher's model data already stored in the information storage unit 17 of the control system 101. In the learning support system of (1), new model data is generated from a teacher's model video that is not currently stored in the information storage unit 17, and the newly generated model data is used for display adjustment. In this respect, the learning support system of the second embodiment differs from the learning support system of the first embodiment.

第2実施形態の学習支援システムは、図20に示すように、学習者102が装着可能なメガネ型デバイス201と、学習者とは離れた場所にいる指導者103が装着可能なデバイス(例えばメガネ型デバイス)203と、メガネ型デバイス201およびメガネ型デバイス203にネットワーク30を介して接続された制御システム101とを備えている。 As shown in FIG. 20, the learning support system of the second embodiment includes a glasses-type device 201 that can be worn by a learner 102 and a device that can be worn by a leader 103 who is away from the learner (for example, glasses and a glasses-type device 201 and a control system 101 connected to the glasses-type device 203 via a network 30 .

メガネ型デバイス203は、メガネ型デバイス201と同様の構成であり図21に示すように、指導者103の視野映像を撮像するカメラ15B、無線通信デバイス13、CPU12、メモリ18、および学習者の動作映像が表示される表示部19Bを備えている。またメガネ型デバイス203は、必要に応じて作業音を録音する機器、指導者の作業音を再生するスピーカーなどを備えていてもよい。 The spectacles-type device 203 has the same configuration as the spectacles-type device 201, and as shown in FIG. A display section 19B for displaying an image is provided. The glasses-type device 203 may also include a device for recording work sounds, a speaker for reproducing the work sounds of the instructor, and the like, if necessary.

第2実施形態において、制御システム101は、第1実施形態における制御システム101と同様の構成であり、メガネ型デバイス201およびメガネ型デバイス203から受け取った情報を処理する演算部16と、お手本データを格納している情報格納部17とを備えている。 In the second embodiment, the control system 101 has the same configuration as the control system 101 in the first embodiment. and an information storage unit 17 that stores the information.

また第2実施形態において、演算部16は、図22に示すように、学習者102の視野映像と指導者103の視野映像を取り込む映像取り込み部161と、重畳表示部162と、差分算出部163と、差分判定部16Aと、表示調整部16Cと、指導者の視野映像からお手本データを生成するお手本生成部164とを少なくとも備えている。 Further, in the second embodiment, as shown in FIG. 22, the calculation unit 16 includes an image capture unit 161 that captures the visual field image of the learner 102 and the visual field image of the instructor 103, a superimposed display unit 162, and a difference calculation unit 163. , a difference determination unit 16A, a display adjustment unit 16C, and a model generation unit 164 that generates model data from the instructor's visual field image.

以下、第2実施形態の学習支援システムの訓練動作の流れについて、第1実施形態の学習支援システムの訓練動作の流れと異なる点を、図23を参照して説明する。まず学習者が訓練のための作業を行う。カメラ15が学習者102の視野映像を撮像する(ステップS41)。映像取り込み部161はカメラ15が撮像した視野映像を受け付け、学習者の視野映像を、指導者103のメガネ型デバイス203の表示部19Bに出力する(ステップS41B1)。指導者は、表示部19Bに表示された学習者の訓練動作を見て、学習者の作業動作の特徴を把握し、学習者の作業動作の特徴に合うようなスタイルでお手本となる作業を行う。カメラ15Bは、指導者103がお手本となる作業を行っている間、指導者103の視野映像を撮像する。(ステップS41B2)。映像取り込み部161は、カメラ15Bが撮像した視野映像を受け付けるお手本生成部164は、指導者103の視野映像からお手本動画を生成するとともに、指導者103のお手本動画からお手本データを生成する(ステップS41B3)。指導者103のお手本動画から新たに生成されたお手本データは情報格納部17に格納され、表示調整部16Cが学習者の作業動作に合わせて表示内容を調整する際に用いられる。第2実施形態において、表示調整部16Cがお手本動画と学習者の視野映像を重畳表示するステップS42以降(ステップS42~S45)は、第1実施形態と同じである。 The difference between the flow of the training operation of the learning support system of the second embodiment and the flow of the training operation of the learning support system of the first embodiment will be described below with reference to FIG. First, the learner performs work for training. Camera 15 captures a visual field image of learner 102 (step S41). The image capture unit 161 receives the visual field image captured by the camera 15, and outputs the visual field image of the learner to the display unit 19B of the glasses-type device 203 of the instructor 103 (step S41B1). The instructor sees the training motion of the learner displayed on the display unit 19B, grasps the characteristics of the work motion of the learner, and performs a model work in a style that matches the characteristics of the work motion of the learner. . The camera 15B captures the visual field image of the instructor 103 while the instructor 103 is doing the model work. (Step S41B2). The image capturing unit 161 receives the visual field image captured by the camera 15B. The model generating unit 164 generates a model moving image from the visual field image of the instructor 103, and generates model data from the instructor 103 moving image (step S41B3). ). The model data newly generated from the model moving image of the instructor 103 is stored in the information storage unit 17, and used when the display adjustment unit 16C adjusts the display content according to the learner's work motion. In the second embodiment, steps after step S42 (steps S42 to S45) in which the display adjustment unit 16C superimposes and displays the model moving image and the visual field image of the learner are the same as in the first embodiment.

第2実施形態の学習支援システムでは、第1実施形態の学習支援システムで得られる効果に加えて、情報格納部に格納されていない指導者の技術を、学習者の学習支援に活用することができるという効果が得られる。また第2の実施形態の学習支援システムでは、学習者と離れた場所にいる指導者の技術を、学習者に学ばせることができる。 In the learning support system of the second embodiment, in addition to the effects obtained in the learning support system of the first embodiment, it is possible to utilize the instructor's technique, which is not stored in the information storage unit, for learning support of the learner. You can get the effect that you can. Further, in the learning support system of the second embodiment, it is possible to make the learner learn the skill of the instructor who is away from the learner.

なお、第2実施形態の学習支援システムでは、情報格納部に格納されていない指導者の作業動画を録画してお手本動画を作成し、作成したお手本動画を学習者の学習支援に活用するものとしたが、学習者が離れたところにいる指導者から訓練のサポートを受けられるようにする例は、上述の例に限られない。 In addition, in the learning support system of the second embodiment, it is assumed that a work video of the instructor that is not stored in the information storage unit is recorded to create a model video, and that the created model video is utilized for learning support of the learner. However, examples of enabling a learner to receive training support from a remote instructor are not limited to the above examples.

例えば、指導者側のメガネ型デバイスと学習者側のメガネ型デバイスに互いの映像や音声を送るようにしてもよい。具体的には、指導者側のメガネ型デバイスには、学習者がメガネ型デバイスを使用して訓練動作をしている映像を表示し、指導者が学習者の訓練動作の様子を見ながら、作業のコツなどを動作や声がけにより学習者にアドバイスする。指導者による動作映像のデータや声がけの音声データが学習者側のメガネ型デバイスに送られて、学習者側のメガネ型デバイスに指導者の動作映像が表示されたり、指導者の音声が再生されたりする。このように、学習者とは離れたところにいる指導者によるアドバイスを訓練中の学習者に伝えることにより、学習者はより効率よく技術を習得できる。 For example, the glasses-type device on the instructor's side and the glasses-type device on the learner's side may be sent to each other's video and audio. Specifically, on the instructor's glasses-type device, an image of the learner using the glasses-type device and performing training movements is displayed, and while the instructor watches the learner's training movements, Gives advice to the learner about work tips and the like through actions and voice. The instructor's action video data and voice data are sent to the learner's glasses-type device, and the instructor's action video is displayed on the learner's glasses-type device, and the instructor's voice is played back. be done. In this way, the learner can acquire skills more efficiently by transmitting advice from an instructor remote from the learner to the learner during training.

<<第3実施形態の学習支援システム>>
以下、第3実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第3実施形態の学習支援システムでは、複数の指導者の技術を学習した人工知能(AI)により、学習者の作業動作が進むにつれて学習者の作業動作の特徴に最も近いお手本動画が選択されて、表示されるお手本動画が時間ごとに変更される。
<<Learning support system of the third embodiment>>
Differences between the learning support system of the third embodiment and the learning support system of the first embodiment will be described below. In the learning support system of the third embodiment, artificial intelligence (AI) that has learned the skills of multiple instructors selects a model video that is closest to the characteristics of the learner's work motion as the learner's work motion progresses. , The model video displayed changes every hour.

第3実施形態の学習支援システムは、第1実施形態の学習支援システムと同様に、メガネ型デバイス201と、メガネ型デバイス201にネットワークを介して接続された制御システム101とを備えている。 Like the learning support system of the first embodiment, the learning support system of the third embodiment includes a glasses-type device 201 and a control system 101 connected to the glasses-type device 201 via a network.

第3実施形態において、制御システム101は、第1実施形態における制御システム101と同様の構成であり、図24に示すように、演算部16と、情報格納部17とを備えている。また第3実施形態における演算部16の構成は第1実施形態における演算部16と同様の構成であり、映像取り込み部161と、重畳表示部162と、差分算出部163と、差分判定部16Aと、表示調整部16Cとを少なくとも備えている。 In the third embodiment, the control system 101 has the same configuration as the control system 101 in the first embodiment, and includes a calculation section 16 and an information storage section 17 as shown in FIG. Further, the configuration of the calculation unit 16 in the third embodiment is similar to that of the calculation unit 16 in the first embodiment, and includes an image acquisition unit 161, a superimposed display unit 162, a difference calculation unit 163, and a difference determination unit 16A. , and a display adjustment unit 16C.

第3実施形態における情報格納部17は、学習者の基本情報、スキルデータ、および弱点リストを含む格納部171と、複数の指導者の技術の特徴を用いてお手本動画の表示を変更する人工知能部172とを有している。人工知能部172には、学習者の作業動作の特徴に最も近い特徴をもつ組み合わせデータを選択する学習済モデル172Aと、学習済モデル172Aにより選択された組み合わせデータから表示するお手本動画を選択する結果表示部172Bとを備えている。 The information storage unit 17 in the third embodiment includes a storage unit 171 containing the learner's basic information, skill data, and a weak point list, and an artificial intelligence that changes the display of the model video using the technical features of a plurality of instructors. and a portion 172 . The artificial intelligence unit 172 has a learned model 172A that selects combination data having features closest to the features of the learner's work motion, and a result of selecting a model video to be displayed from the combination data selected by the learned model 172A. and a display unit 172B.

学習済モデル172Aは、お手本動画に加え、学習者の特徴と指導者の特徴との組み合わせデータが多数学習されているモデルである。学習済モデル172Aは例えばニューラル・ネットワークにより構成されている。学習済モデル172Aが学習した学習者の特徴および指導者の特徴の組み合わせとしては、作業動作の6つの動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、基本情報(例えば利き手、超音波検査の訓練を行う検査部位、検査内容、患者の体型)等がそれぞれ含まれている。 The learned model 172A is a model in which a large number of combined data of learner's characteristics and instructor's characteristics are learned in addition to model moving images. The trained model 172A is composed of, for example, a neural network. Combinations of the learner's features and the instructor's features learned by the learned model 172A include six motion elements of work motion (position, speed, pressure, motion trajectory, gaze point, and sound), basic information (for example, dominant hand , examination site for ultrasonic examination training, examination contents, patient's body type), etc. are included.

以下、第3実施形態の学習支援システムの動作の流れについて、図25を参照して説明する。 The operation flow of the learning support system of the third embodiment will be described below with reference to FIG.

まずカメラ15が学習者102の視野映像を撮像する。次に、映像取り込み部161は、ネットワーク30を介してカメラ15により撮像された学習者の視野映像を取り込む。(ステップS41)。次に学習済モデル172Aは、学習者の視野映像から学習者の作業動作の特徴を抽出し、学習者の動作の特徴と、学習済モデル172Aに学習されている多数の組み合わせデータとを比較することにより、学習者の特徴に最も近い特徴をもつ組み合わせデータを選択する(ステップS411)。結果表示部172Bは、学習モデル172Aにより選択された組み合わせデータから、最も学習者の特徴に近い特徴をもつお手本動画を選択し、重畳表示部162に受け渡す。重畳表示部162は、受け取ったお手本動画を学習者の視野映像に重畳表示させる(ステップS42)。最も学習者の作業動作の特徴に近いお手本動画を表示したら、動作のフローはステップS41に戻り、このフローは単位時間毎に繰り返される。 First, the camera 15 captures the visual field image of the learner 102 . Next, the video capturing unit 161 captures the visual field video of the learner captured by the camera 15 via the network 30 . (Step S41). Next, the trained model 172A extracts the features of the work motion of the learner from the visual field image of the learner, and compares the features of the learner's motion with a large number of combined data learned by the trained model 172A. By doing so, combination data having features closest to those of the learner are selected (step S411). The result display unit 172B selects a model moving image having features closest to those of the learner from the combination data selected by the learning model 172A, and transfers it to the superimposed display unit 162. FIG. The superimposed display unit 162 superimposes the received model moving image on the visual field image of the learner (step S42). After displaying the model moving image that most closely resembles the characteristics of the learner's work motion, the flow of the motion returns to step S41, and this flow is repeated for each unit of time.

このように第3実施形態の学習支援システムでは、学習者の作業動作の特徴に最も近いお手本動画が随時変更されて表示されるため、時間ごとに最も学習者の指導に適したお手本動画が表示される。これにより訓練中どのタイミングであっても学習者の特徴に合う訓練コンテンツを提供することができ、学習者はより、効率よく技術を学ぶことができるようになる。 As described above, in the learning support system of the third embodiment, the model video closest to the features of the learner's work motion is changed and displayed at any time. be done. As a result, it is possible to provide training content that matches the characteristics of the learner at any time during training, and the learner can learn techniques more efficiently.

<<第3実施形態の変形例>>
複数の指導者の技術を学習した人工知能(AI)を用いてお手本動画の調整を行う他の例について、図26を用いて説明する。この変形例では、人工知能部は、学習者と指導者の作業動作で差分が閾値より大きい動作要素について、各動作要素の差分の大きさに応じて、差分を表示する手法を随時変更する。
<<Modified example of the third embodiment>>
Another example of adjusting a model video using artificial intelligence (AI) that has learned the techniques of a plurality of instructors will be described with reference to FIG. 26 . In this modified example, the artificial intelligence unit changes the method of displaying the difference between the work motions of the learner and the instructor at any time according to the magnitude of the difference between the action elements for which the difference is greater than the threshold.

変形例の学習支援システムは、第3実施形態の学習支援システムと同じ構成であるが、学習済モデル172Aに学習されている組み合わせデータの内容が異なる。変形例の学習支援システムにおいて、学習済モデル172Aには、動作要素ごとの差分の大きさと、差分の大きさを表示する手法として最適な手法との組み合わせが多数含まれている。例えば学習者と指導者のヒジの位置の差分について、差分が所定値以下のときは図5のように「もっとヒジを持ち上げて!」と文字で表示し、差分が所定値より大きいときは矢印19bのようなサインで示し、さらに差分が大きいときは図6に示すような骨格図19cをお手本動画の指導者の手に重畳させるなど、差分の大きさと最適な表示の手法との組み合わせが学習済モデル172Aに学習されている。 The learning support system of the modified example has the same configuration as the learning support system of the third embodiment, but differs in the contents of the combination data learned by the trained model 172A. In the learning support system of the modified example, the trained model 172A includes many combinations of the magnitude of the difference for each action element and the optimum method for displaying the magnitude of the difference. For example, regarding the difference between the elbow positions of the learner and the instructor, if the difference is less than a predetermined value, the text "Lift more elbows!" is displayed as shown in FIG. It is indicated by a sign such as 19b, and when the difference is large, a skeletal diagram 19c as shown in FIG. learned by the finished model 172A.

また学習済モデル172Aには、お手本動画、学習者の特徴と指導者の特徴なども含まれている。学習者の特徴および指導者の特徴としては、作業動作の6つの動作要素(位置、スピード、圧力、動作軌跡、注視点、及び音)、基本情報(例えば利き手、超音波検査の訓練を行う検査部位、検査内容、患者の体型)等がそれぞれ含まれている。 The learned model 172A also includes a model video, learner's characteristics, instructor's characteristics, and the like. Features of learners and instructors include six motion elements of work motion (position, speed, pressure, motion trajectory, gaze point, and sound), basic information (e.g., dominant hand, ultrasonic examination training) site, examination content, patient's body type, etc.).

以下、第3実施形態の変形例の学習支援システムの動作の流れについて説明する。 The flow of operation of the learning support system of the modified example of the third embodiment will be described below.

変形例の学習支援システムのフローにおいて、カメラ15が学習者102の視野映像を撮像してから、お手本動画が視野映像に重畳されるまでのステップS41、ステップS42は、第1実施形態におけるフロー(図3)と同じである。お手本動画が学習者の視野映像に重畳されたら、差分算出部163は、学習者の視野映像から学習者の6つの動作要素をそれぞれ抽出し、モデル172Aから指導者の6つの動作要素をそれぞれ読み出す。次に差分算出部163は、動作要素ごとに学習者と指導者の動作の差分を算出する。(ステップS43C)。 In the flow of the learning support system of the modified example, steps S41 and S42 from when the camera 15 captures the visual field image of the learner 102 until the model moving image is superimposed on the visual field image are the same as those in the first embodiment ( Fig. 3). When the model video is superimposed on the visual field image of the learner, the difference calculation unit 163 extracts the six motion elements of the learner from the visual field video of the learner, and reads the six motion elements of the instructor from the model 172A. . Next, the difference calculation unit 163 calculates the difference between the actions of the learner and the instructor for each action element. (Step S43C).

次に差分判定部16Aは、各動作要素について、差分算出部163が求めた差分が閾値以上であるか否かをそれぞれ判定し、判定結果を人工知能部172に通知する(ステップS44C)。 Next, the difference determination unit 16A determines whether or not the difference calculated by the difference calculation unit 163 is equal to or greater than a threshold for each motion element, and notifies the artificial intelligence unit 172 of the determination result (step S44C).

次に学習済モデル172Aは、学習者の視野映像を取り込み、差分が閾値以上になった動作要素と、その差分の大きさを抽出する。学習済モデル172Aは抽出した動作要素およびその差分の大きさと、学習済モデル172Aに学習されている組み合わせデータとを比較することにより、動作要素毎に差分の最適な表示の手法を含む組み合わせデータを選択する(ステップS45C1)。結果表示部172Bは、学習モデル172Aにより選択された組み合わせデータから、各動作要素の差分を表示する手法として最も学習者の訓練に効果的な手法を決定し、その手法を用いて表示調整を行うように表示調整部16Cに指示を送る(ステップS45C2)。表示調整部16Cは、結果表示部172Bから受け取った指示に従い、お手本動画の表示方法を調整して表示部19に表示させる(ステップS45)。ステップS45で処理したお手本動画が学習者に表示されたら、フローはステップS41に戻る。 Next, the learned model 172A captures the visual field image of the learner, and extracts the motion elements whose difference is equal to or greater than the threshold and the magnitude of the difference. The learned model 172A compares the extracted action elements and the magnitude of the difference between them with the combination data learned by the learned model 172A, thereby obtaining combination data including the method of optimally displaying the difference for each action element. Select (step S45C1). The result display unit 172B determines, from the combined data selected by the learning model 172A, the most effective method for training the learner as a method of displaying the difference between each action element, and performs display adjustment using that method. Then, an instruction is sent to the display adjustment unit 16C as follows (step S45C2). The display adjustment unit 16C adjusts the display method of the model moving image according to the instruction received from the result display unit 172B and causes the display unit 19 to display the model moving image (step S45). After the model moving image processed in step S45 is displayed to the learner, the flow returns to step S41.

このように第3実施形態の変形例の学習支援システムでは、学習者の動作と指導者の動作の差分が、動作要素ごとに最適な表示方法により表示されるため、学習者は、表示された差分を見て、どのように自分の動作を変更するべきかを容易に理解することができる。 As described above, in the learning support system of the modified example of the third embodiment, the difference between the learner's motion and the instructor's motion is displayed by the optimum display method for each motion element. You can easily see the diff and understand how you should change your behavior.

<<第4実施形態の学習支援システム>>
以下、第4実施形態の学習支援システムについて、第1実施形態の学習支援システムと異なる点を説明する。第3実施形態の学習支援システムは、図27に示すように、メガネ型デバイス201と、メガネ型デバイス201にネットワーク30を介して接続された制御システム101を備え、ネットワーク30には、さらに超音波撮像装置104が接続されている。
<<Learning support system of the fourth embodiment>>
Differences between the learning support system of the fourth embodiment and the learning support system of the first embodiment will be described below. As shown in FIG. 27, the learning support system of the third embodiment includes a spectacles-type device 201 and a control system 101 connected to the spectacles-type device 201 via a network 30. The network 30 further includes ultrasound waves. An imaging device 104 is connected.

超音波撮像装置104は、従来の超音波撮像装置と同様の構成であってよい。超音波撮像装置で取得された撮影画像は、メガネ型デバイス201の表示部19に、例えば図28に示すように、学習者102の作業動画とお手本動画が表示されている横に並列して表示することが好ましい。 The ultrasonic imaging device 104 may have the same configuration as a conventional ultrasonic imaging device. The images captured by the ultrasonic imaging apparatus are displayed on the display unit 19 of the spectacles-type device 201, for example, as shown in FIG. preferably.

超音波撮像装置の利用時、ユーザの視点は、プローブを持つ手元ではなく、撮影画像が表示されている画面にあることが想定される。ユーザは手元の動作と撮影画像を同時に見ることができないため、プローブ操作しながら画面をみることは、技術に不慣れな学習者にとって難しく、習熟を困難にする原因の一つとなっている。 When using the ultrasonic imaging apparatus, it is assumed that the user's viewpoint is not the hand holding the probe but the screen on which the captured image is displayed. Since the user cannot see the action at hand and the captured image at the same time, it is difficult for the learner who is unfamiliar with the technique to see the screen while operating the probe, which is one of the reasons why it is difficult to master the technique.

第4実施形態では、超音波撮像装置による撮影画像をメガネ型デバイス201により学習者の手元の画像周辺に表示することにより、学習者102の視点の移動が最小限になるため、学習者は、手元の動きとそれによる撮影画像の変化とをより直感的に把握しながら習熟することができる。 In the fourth embodiment, by displaying the image captured by the ultrasonic imaging device around the image at the learner's hand by the glasses-type device 201, the movement of the learner's 102 viewpoint is minimized. It is possible to master the movement of the hand and the resulting change in the photographed image while more intuitively grasping it.

なお、第2~第4実施形態において、第1実施形態で説明したセンシングデバイス204が制御システム101に接続されていてもよく、学習者102は訓練の際にセンシングデバイス204を用いてもよい。また、第4実施形態において、超音波撮像装置104のプローブに、センシングデバイス204に含まれるセンサと同様のセンサを組み込み、学習者102が実物のプローブを用いながら、プローブを扱う技術を学べるようにしてもよい。 In the second to fourth embodiments, the sensing device 204 described in the first embodiment may be connected to the control system 101, and the learner 102 may use the sensing device 204 during training. In addition, in the fourth embodiment, the probe of the ultrasonic imaging apparatus 104 incorporates a sensor similar to the sensor included in the sensing device 204 so that the learner 102 can learn techniques for handling the probe while using a real probe. may

<<学習支援装置>>
以上の実施形態では、制御システム101を、メガネ型デバイス201に対してネットワーク30を介して接続する例を説明したが、制御システム101の構成は以上の例に限られない。制御システム101はメガネ型デバイス201内のメモリ18内に搭載されていてもよい。また制御システム101は、メガネ型デバイス201に外付け可能なメモリ内に搭載されてもよい。
<<Learning support device>>
In the above embodiment, an example in which the control system 101 is connected to the glasses-type device 201 via the network 30 has been described, but the configuration of the control system 101 is not limited to the above example. The control system 101 may reside within the memory 18 within the eyewear device 201 . The control system 101 may also be installed in a memory that can be externally attached to the glasses-type device 201 .

本実施形態では、学習支援装置として、メガネ型デバイス201を用いたが、学習支援装置は、少なくともカメラと表示部を備えていればよく、例えばカメラが備えられたヘルメットやヘアバンドと、ユーザの近くに配置されたディスプレイまたは持ち運び可能なディスプレイの組み合わせでもよい。 In this embodiment, the glasses-type device 201 is used as the learning support device, but the learning support device may include at least a camera and a display unit. It may be a combination of displays that are located nearby or a portable display.

また本実施形態では、学習者の学習する技術が超音波撮像装置のプローブ操作の場合について例示したが、本発明はあらゆる技術分野の学習に適用可能である。例えば、手術方法やリハビリ、あるいはスポーツ、伝統芸能における身体の動かし方、介護の方法を学習する際に用いられてもよいし、料理の方法や楽器の演奏方法、文字の書き方の練習等に用いられてもよい。さらに本発明は、配線作業や溶接作業など産業分野における技術学習に用いられてもよい。 Further, in the present embodiment, the case where the technique learned by the learner is the probe operation of the ultrasonic imaging apparatus was exemplified, but the present invention is applicable to learning in all technical fields. For example, it may be used for surgical methods, rehabilitation, sports, how to move the body in traditional performing arts, and nursing care methods. may be Furthermore, the present invention may be used for technical learning in industrial fields such as wiring work and welding work.

12…CPU、13…無線通信デバイス、14…モーションセンサ、15…カメラ、16…演算部、16A…差分判定部、16B…レベル評価部、16C…表示調整部、16D…統計演算部、17…情報格納部、18…メモリ、19…表示部、20…視線センサ、30…ネットワーク、101…制御システム、201、203…メガネ型デバイス、204…センシングデバイス DESCRIPTION OF SYMBOLS 12... CPU, 13... Wireless communication device, 14... Motion sensor, 15... Camera, 16... Calculation part, 16A... Difference determination part, 16B... Level evaluation part, 16C... Display adjustment part, 16D... Statistical calculation part, 17... Information storage unit 18 Memory 19 Display unit 20 Line-of-sight sensor 30 Network 101 Control system 201, 203 Glasses type device 204 Sensing device

Claims (11)

学習者に装着される表示部と、学習者に装着されて学習者の視野映像を撮像する撮像部と、学習者の作業動作のお手本となる指導者の作業動作の動画であるお手本動画を格納する格納部と、演算部とを備え、
前記演算部は、レベル判定モードと、前記レベル判定モードの判定結果に従って前記お手本動画を前記撮像部が撮像した前記視野映像上に重ね合わせて前記表示部に表示させる訓練モードを実行するものであり、
前記演算部は、前記お手本動画に含まれる指導者の作業動作と前記視野映像に含まれる学習者の作業動作との差分を随時算出する差分算出部と、当該差分に応じて前記お手本動画の表示内容を変更する表示調整部とを含み、
前記演算部は、前記レベル判定モードにおいて、前記差分が閾値以上であるか否かにより、ビギナーモードで前記訓練モードを行うか、ノーマルモードで前記訓練モードを行うかを判定し、前記ビギナーモードで前記訓練モードを行う場合、前記お手本動画の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに追随するように、前記表示調整部が前記お手本動画の再生スピードを変更し、前記ノーマルモードで前記訓練モードを行う場合、前記お手本動画を前記指導者の作業動作のスピードで再生し、前記学習者の作業動作が前記お手本動画の前記指導者の作業動作よりも一定以上遅れ、前記差分算出部が随時算出する前記差分が閾値以上になった場合のみ、前記お手本動作の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに合うように前記お手本動画の再生スピードをコントロールする
ことを特徴とする学習支援システム。
Stores a display unit worn by the learner, an imaging unit worn by the learner that captures the visual field image of the learner, and a model video that is a video of the instructor's work motion that serves as a model for the work motion of the learner. and a computing unit,
The calculation unit executes a level determination mode and a training mode in which the model moving image is superimposed on the visual field image captured by the imaging unit and displayed on the display unit according to the determination result of the level determination mode. can be,
The calculation unit includes a difference calculation unit that calculates at any time a difference between the work motion of the instructor included in the model video and the work motion of the learner included in the visual field image, and the model video is displayed according to the difference. a display adjustment unit that changes the content,
The computing unit determines whether the training mode is performed in a beginner mode or in a normal mode, depending on whether or not the difference is equal to or greater than a threshold in the level determination mode. When the training mode is performed, the display adjustment unit changes the playback speed of the model animation so that the speed of the work movement of the instructor in the model animation follows the speed of the work movement of the learner, When the training mode is performed in the normal mode, the model moving image is reproduced at the speed of the work movement of the instructor, and the work movement of the learner lags behind the work movement of the instructor in the model animation by a certain amount or more, and the Only when the difference calculated from time to time by the difference calculation unit reaches or exceeds a threshold value, the playback speed of the model video is adjusted so that the speed of the work motion of the instructor of the model motion matches the speed of the work motion of the learner. to control
A learning support system characterized by:
前記差分算出部は、前記差分を予め定めた複数の動作要素ごとに算出し、
前記表示調整部は、前記動作要素ごとの前記差分に応じて、前記お手本動画の表示内容を変化させることを特徴とする請求項に記載の学習支援システム。
The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
2. The learning support system according to claim 1 , wherein the display adjustment unit changes the display content of the model moving image according to the difference for each of the action elements.
前記差分算出部は、前記差分を予め定めた複数の動作要素ごとに算出し、
前記表示調整部は、前記複数の動作要素のうち、算出した前記差分が所定値を超えた動作要素を、前記差分が所定値以下の動作要素よりも強調するように前記お手本動画の表示内容を変更することを特徴とする請求項に記載の学習支援システム。
The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
The display adjustment unit adjusts the display content of the model moving image so that, among the plurality of motion elements, the motion elements whose calculated difference exceeds a predetermined value are emphasized over the motion elements whose difference is equal to or less than a predetermined value. 2. The learning support system according to claim 1 , wherein the learning support system is changed.
前記差分算出部は、前記差分を予め定めた複数の動作要素ごとに算出し、
前記表示調整部は、前記複数の動作要素のうち、前記差分が所定値よりも小さく動作要素について、前記表示部に表示される前記お手本動画の透過率を高くすることを特徴とする請求項に記載の学習支援システム。
The difference calculation unit calculates the difference for each of a plurality of predetermined motion elements,
2. The display adjustment unit increases the transmittance of the model moving image displayed on the display unit for an operation element, of the plurality of operation elements, for which the difference is smaller than a predetermined value. The learning support system described in .
前記格納部には、前記撮像部により撮像された学習者の視野映像が格納され、
前記演算部は、前記格納部に格納された学習者の視野映像に、お手本動画が重畳された振り返り動画を再生することを特徴とする請求項1に記載の学習支援システム。
The storage unit stores the learner's visual field image captured by the imaging unit,
2. The learning support system according to claim 1, wherein the calculation unit reproduces a retrospective video in which a model video is superimposed on the visual field video of the learner stored in the storage unit.
メガネ型デバイスと、前記メガネ型デバイスにネットワークを介して接続された制御システムとをさらに有し、
前記表示部および前記撮像部は、学習者により装着されるメガネ型デバイスに備えられ、
前記演算部および前記格納部は、前記制御システム内に備えられていることを特徴とする請求項1に記載の学習支援システム。
further comprising a glasses-type device and a control system connected to the glasses-type device via a network;
The display unit and the imaging unit are provided in a glasses-type device worn by the learner,
2. The learning support system according to claim 1, wherein said calculation unit and said storage unit are provided within said control system.
前記制御システムにネットワークを介して接続されたセンシングデバイスを更に備え、
前記演算部は、前記センシングデバイスにより検出された情報に基づいて、前記お手本動画の表示内容を動的に変化させることを特徴とする請求項に記載の学習支援システム。
further comprising a sensing device connected to the control system via a network;
7. The learning support system according to claim 6 , wherein the calculation unit dynamically changes display content of the model moving image based on information detected by the sensing device.
前記制御システムにネットワークを介して接続された、指導者の視野映像を撮像するデバイスを更に備え、
前記演算部は、前記デバイスが撮像した指導者の視野映像から前記お手本動画を生成することを特徴とする請求項に記載の学習支援システム。
Further comprising a device that captures a leader's visual field image, connected to the control system via a network,
7. The learning support system according to claim 6 , wherein the calculation unit generates the model moving image from a visual field image of the instructor captured by the device.
前記格納部には、学習者の作業動作の特徴と指導者の作業動作の特徴とを複数学習した人工知能部が格納されており、
前記人工知能部は、学習者の作業動作の特徴に近い特徴をもつ指導者の作業動作のお手本動画を随時選択し、前記視野映像上に重ね合わせるお手本動画を随時変更することを特徴とする請求項1に記載の学習支援システム。
The storage unit stores an artificial intelligence unit that has learned a plurality of features of the work motion of the learner and features of the work motion of the instructor,
The artificial intelligence unit selects at any time a model video of the work motion of the instructor having features similar to the features of the work motion of the learner, and changes the model video to be superimposed on the visual field image at any time. Item 1. The learning support system according to Item 1.
前記ネットワークには、超音波撮像装置が更に接続されており、
前記演算部は、前記超音波撮像装置により取得された超音波画像を、前記表示部に表示させることを特徴とする請求項に記載の学習支援システム。
An ultrasound imaging device is further connected to the network,
7. The learning support system according to claim 6 , wherein the computing unit causes the display unit to display an ultrasonic image acquired by the ultrasonic imaging device.
コンピュータを、
学習者の動作のお手本となる指導者の作業動作の動画であるお手本動画を、学習者に装着されて学習者の視野映像を撮像する撮像部が撮像した前記視野映像上に重ね合わせて、学習者に装着される表示部に表示させるとともに、前記視野映像に含まれる学習者の作業動作の特徴に応じて、動的に前記お手本動画の表示内容を変化させる演算手段として機能させるプログラムであって、
前記演算手段は、前記お手本動画に含まれる指導者の作業動作と前記視野映像に含まれる学習者の作業動作との差分を随時算出する差分算出手段と、当該差分に応じて前記お手本動画の表示内容を変更する表示調整手段とを含み、
前記演算手段は、レベル判定モードと、前記レベル判定モードの判定結果に従って前記お手本動画を前記撮像部が撮像した前記視野映像上に重ね合わせて前記表示部に表示させる訓練モードを実行し
前記演算手段は、前記レベル判定モードにおいて、前記差分が閾値以上であるか否かにより、ビギナーモードで前記訓練モードを行うか、ノーマルモードで前記訓練モードを行うかを判定し、前記ビギナーモードで前記訓練モードを行う場合、前記お手本動画の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに追随するように、前記表示調整部が前記お手本動画の再生スピードを変更し、前記ノーマルモードで前記訓練モードを行う場合、前記お手本動画を前記指導者の作業動作のスピードで再生し、前記学習者の作業動作が前記お手本動画の前記指導者の作業動作よりも一定以上遅れ、前記差分算出部が随時算出する前記差分が閾値以上になった場合のみ、前記お手本動作の前記指導者の作業動作のスピードが前記学習者の作業動作のスピードに合うように前記お手本動画の再生スピードをコントロールする、
プログラム。
the computer,
A model video, which is a video of the instructor's working motion that serves as a model of the learner's motion, is superimposed on the visual field image captured by the imaging unit that is worn by the learner and captures the learner's visual field image, thereby learning. A program for displaying on a display unit worn by a person and functioning as a calculation means for dynamically changing the display contents of the model moving image according to the characteristics of the learner's work motion included in the visual field image, ,
The calculation means includes difference calculation means for calculating at any time a difference between the working motion of the instructor included in the model moving image and the working motion of the learner included in the visual field image, and displaying the model moving image according to the difference. and display adjustment means for changing the content,
The computing means executes a level determination mode and a training mode in which the model moving image is superimposed on the visual field image captured by the imaging unit and displayed on the display unit according to the determination result of the level determination mode,
The computing means determines whether the training mode is performed in a beginner mode or in a normal mode depending on whether or not the difference is equal to or greater than a threshold value in the level determination mode. When the training mode is performed, the display adjustment unit changes the playback speed of the model animation so that the speed of the work movement of the instructor in the model animation follows the speed of the work movement of the learner, When the training mode is performed in the normal mode, the model moving image is reproduced at the speed of the work movement of the instructor, and the work movement of the learner lags behind the work movement of the instructor in the model animation by a certain amount or more, and the Only when the difference calculated from time to time by the difference calculation unit reaches or exceeds a threshold value, the playback speed of the model video is adjusted so that the speed of the work motion of the instructor of the model motion matches the speed of the work motion of the learner. to control,
program.
JP2019040764A 2019-03-06 2019-03-06 Learning support system and program Active JP7116696B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019040764A JP7116696B2 (en) 2019-03-06 2019-03-06 Learning support system and program
PCT/JP2019/042527 WO2020179128A1 (en) 2019-03-06 2019-10-30 Learning assist system, learning assist device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019040764A JP7116696B2 (en) 2019-03-06 2019-03-06 Learning support system and program

Publications (2)

Publication Number Publication Date
JP2020144233A JP2020144233A (en) 2020-09-10
JP7116696B2 true JP7116696B2 (en) 2022-08-10

Family

ID=72337841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019040764A Active JP7116696B2 (en) 2019-03-06 2019-03-06 Learning support system and program

Country Status (2)

Country Link
JP (1) JP7116696B2 (en)
WO (1) WO2020179128A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6899105B1 (en) * 2020-10-13 2021-07-07 株式会社PocketRD Operation display device, operation display method and operation display program
JPWO2022180894A1 (en) * 2021-02-24 2022-09-01
JPWO2022190774A1 (en) * 2021-03-11 2022-09-15
JP7345866B2 (en) * 2021-03-23 2023-09-19 国立大学法人 東京大学 Information processing system, information processing method and program
US11714491B2 (en) 2021-06-07 2023-08-01 Huawei Technologies Co., Ltd. Device and method for generating haptic feedback on a tactile surface
JP2023134269A (en) * 2022-03-14 2023-09-27 オムロン株式会社 Work support device, work support method and work support program
JP2023177620A (en) * 2022-06-02 2023-12-14 パナソニックIpマネジメント株式会社 Information processing method and system
WO2023242981A1 (en) * 2022-06-15 2023-12-21 マクセル株式会社 Head-mounted display, head-mounted display system, and display method for head-mounted display
JP7412826B1 (en) 2023-07-28 2024-01-15 株式会社計数技研 Video compositing device, video compositing method, and program
JP7432275B1 (en) 2023-07-28 2024-02-16 株式会社計数技研 Video display device, video display method, and program
JP7486860B1 (en) 2023-08-04 2024-05-20 株式会社計数技研 Image synthesis device, image synthesis method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302122A (en) 2005-04-22 2006-11-02 Nippon Telegr & Teleph Corp <Ntt> Exercise support system, user terminal therefor and exercise support program
JP2013088730A (en) 2011-10-21 2013-05-13 Toyota Motor East Japan Inc Skill acquisition supporting system and skill acquisition support method
WO2015097825A1 (en) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 Movement learning support device and movement learning support method
JP2015229052A (en) 2014-06-06 2015-12-21 セイコーエプソン株式会社 Head mounted display device, control method for the same, and computer program
JP2016077346A (en) 2014-10-10 2016-05-16 セイコーエプソン株式会社 Motion support system, motion support method, and motion support program
JP2019012965A (en) 2017-06-30 2019-01-24 富士通株式会社 Video control method, video control device, and video control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5846086A (en) * 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302122A (en) 2005-04-22 2006-11-02 Nippon Telegr & Teleph Corp <Ntt> Exercise support system, user terminal therefor and exercise support program
JP2013088730A (en) 2011-10-21 2013-05-13 Toyota Motor East Japan Inc Skill acquisition supporting system and skill acquisition support method
WO2015097825A1 (en) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 Movement learning support device and movement learning support method
JP2015229052A (en) 2014-06-06 2015-12-21 セイコーエプソン株式会社 Head mounted display device, control method for the same, and computer program
JP2016077346A (en) 2014-10-10 2016-05-16 セイコーエプソン株式会社 Motion support system, motion support method, and motion support program
JP2019012965A (en) 2017-06-30 2019-01-24 富士通株式会社 Video control method, video control device, and video control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小林 達也 Tatsuya KOBAYASHI,拡張現実と動作情報を用いた技能の定着を目指した支援への取り組み An Approach to the Support Aimed at Acquiring Skills by using Augmented Reality and Motion Data,情報処理学会 研究報告 教育学習支援情報システム(CLE) 2016-CLE-19 [online] ,日本,情報処理学会,2016年05月13日,2016-CLE-19巻,14号,Pages 1-4,ISSN:2188-8620

Also Published As

Publication number Publication date
WO2020179128A1 (en) 2020-09-10
JP2020144233A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
JP7116696B2 (en) Learning support system and program
CN107067856B (en) Medical simulation training system and method
US8314840B1 (en) Motion analysis using smart model animations
US20170221379A1 (en) Information terminal, motion evaluating system, motion evaluating method, and recording medium
US11508344B2 (en) Information processing device, information processing method and program
US20150004581A1 (en) Interactive physical therapy
US20040227699A1 (en) Foveated display eye-tracking system and method
JP2009297240A (en) Learning support apparatus and method
JP5921674B2 (en) Motion guide presentation method, system thereof, and motion guide presentation device
Ikeda et al. AR based Self-sports Learning System using Decayed Dynamic TimeWarping Algorithm.
Yu et al. Perspective matters: Design implications for motion guidance in mixed reality
JP2005198818A (en) Learning supporting system for bodily motion and learning supporting method
JP2020505686A5 (en)
WO2020152779A1 (en) Rehabilitation system and image processing device for higher brain dysfunction
JP2022182673A (en) Learning system and learning method
US20190355281A1 (en) Learning support system and recording medium
WO2022034771A1 (en) Program, method, and information processing device
WO2020082181A1 (en) Precise teleguidance of humans
US20230240594A1 (en) Posture assessment program, posture assessment apparatus, posture assessment method, and posture assessment system
KR101965073B1 (en) Virtual hair design appartus and controlling method thereof
Jan et al. Augmented Tai-Chi chuan practice tool with pose evaluation
Komizunai et al. An immersive nursing education system that provides experience of exemplary procedures from first person viewpoint with haptic feedback on wrist
EP3905225A1 (en) System and method for evaluating simulation-based medical training
JP6897177B2 (en) Computer programs for training equipment that can be used for rehabilitation and training equipment that can be used for rehabilitation
Liu et al. PianoSyncAR: Enhancing Piano Learning through Visualizing Synchronized Hand Pose Discrepancies in Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R150 Certificate of patent or registration of utility model

Ref document number: 7116696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150