JP7530754B2 - 教育支援システム、方法およびプログラム - Google Patents
教育支援システム、方法およびプログラム Download PDFInfo
- Publication number
- JP7530754B2 JP7530754B2 JP2020113655A JP2020113655A JP7530754B2 JP 7530754 B2 JP7530754 B2 JP 7530754B2 JP 2020113655 A JP2020113655 A JP 2020113655A JP 2020113655 A JP2020113655 A JP 2020113655A JP 7530754 B2 JP7530754 B2 JP 7530754B2
- Authority
- JP
- Japan
- Prior art keywords
- educational
- model
- student
- teacher
- event information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000033001 locomotion Effects 0.000 claims description 42
- 230000005540 biological transmission Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000005315 distribution function Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013075 data extraction Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
例えば、特許文献1では、教師側の機器と生徒側の機器との間で、仮想空間を描画するための講義の信号を送受信するネットワーク手段を備え、講義資料のデータを仮想空間内の空間スクリーンに描画して、講義を行う学習システムが記載されている。
前記バーチャルコンテンツ表示装置は、
前記教育用モデルを表示するためのデータを保存する教育用モデル記憶部と、
前記教育用モデルに変化を与えるイベント情報を予め保存するイベント情報記憶部と、
前記教育指示装置から送られてくる指示情報をトリガとして、前記イベント情報によって前記教育用モデルを変化させて仮想空間上に表示する教育用モデル表示部と、
を備えたことを特徴とする。
前記バーチャルコンテンツ表示装置は、前記イベント情報送信部から送られてくるイベント情報を受信すると、前記イベント情報記憶部に保存されているイベント情報を部品単位で更新するイベント情報受信部を備えたことを特徴とする。
前記操作検知部で検知した受講者の動きを前記教育指示装置へ送信するイベント送信部と、を備え、
前記教育用モデル表示部は、前記操作検知部によって検知する受講者の動きを表す映像を仮想空間上に表示し、
前記教育指示装置は、
教育用モデルを仮想空間上に表示する教師側教育用モデル表示部と、
前記バーチャルコンテンツ表示装置の前記イベント送信部から送られてくる受講者の動きを表示するイベント表示部と、
を備えたことを特徴とする。
なお、操作検知部はバーチャルコンテンツ表示装置とは別の装置で実現しても良いし、バーチャルコンテンツ表示装置が有する機能、例えば視線トラッキング機能により受講者の視線を追うことにより受講者の動きを検知するようにしても良い。
各受講者が装着するバーチャルコンテンツ表示装置の前記教育用モデル表示部は、各受講者にそれぞれ割付けられた着席位置から見た教育用モデルを表示することを特徴とする。
前記教育用モデルを表示するためのデータを保存するステップと、
前記教育用モデルに変化を与えるイベント情報を保存するステップと、
前記イベント情報を特定するコマンドを入力するステップと、
前記コマンドを入力したとき、前記イベント情報によって前記教育用モデルを変化させて表示装置に表示するステップと、
をコンピュータに実行させることを特徴とする。
図1において、教育指示装置50は、教育用モデルのデータを格納する教育用モデル記憶部61、教育用モデルの部品に関連付けられた視聴覚的に何らかの変化を発生させる情報(イベント情報)を格納するイベント情報記憶部62、教育シナリオデータを格納する教育シナリオ記憶部63、各受講者のバーチャルコンテンツ表示装置10から送られてくる受講者の操作等に関する情報をイベント情報として保存する受講者イベント情報記憶部64を備える。
本実施の形態による教育コンテンツの3Dモデル(教育用モデル)は、図3に示すように複数の部品の3Dモデルの集合で構成される。具体的には、図3に示すように、教育コンテンツ(例えば、ある装置)を構成する部品のアセット番号(ID)および当該部品の名称、および部品の形態を3D仮想空間上で定義するための座標データや色彩データなどの属性情報(以下、単に「座標データ」という。)が互いに関連付けられて保存される。
なお、3Dモデルの部品の形状よりも更に細かい部分を受講者にチェックさせたいような場合は、実際には見えない(透明な)仮の部品を作って、3Dモデル上に配置するようにしてもよい。これであれば、更に細かい部分に範囲を絞って確認箇所を指定することができる。透明な部品もUNITY上で管理し、ツリー構成(階層構造)上の確認対象部品の下位に配置される。
図4に、イベント情報記憶部に保存されるイベント情報の構造を示す。
この図に示すように、イベント情報は、イベント番号ごとに、動作部位を示すアセット番号、動作(アニメーション)内容、解説テキスト、音響データなどが関連付けられて保存される。ここで、イベント情報のアセット番号は、教育用モデルデータのアセット番号に対応している。あるイベント番号が指定されると、受講者のHMD10の仮想空間上に表示されている該当する部品(アセット)に対して、設定された動作(アニメーション)内容が実行され、また解説テキストが表示され、音響データが再生される。
図5に、教育シナリオ記憶部63に保存されるシナリオデータの構造を示す。
この図に示すように、シナリオデータは、教育カリキュラムごとに、講義の順番にしたがって、シナリオ名、イベント番号、受講者チェック有無、正解データなどが保存される。イベント番号は、イベント情報記憶部のイベント番号に対応している。
次に本実施の形態による教育支援システム1の機能概要を説明する。
(1)メニュー/ログイン機能
受講者は、HMD10を装着して起動すると、VR空間でシステムメニューが表示される。受講者はカリキュラム及び番号(受講者番号)を設定して、スタートボタンを選択する等のトリガによって教育カリキュラムが開始される。
受講者が装着するHMD10には、上述したように予め各カリキュラムで使用する教育コンテンツ(教育用モデル)及びイベント情報(CG動作・解説説明再生など)を登録しておく。そして指示情報受信部13が教師側のパソコン50から送られてくるカリキュラムIDを含む開始指示を受信すると、教育用モデル表示部14は該当するカリキュラムの教育用モデルをHMD10のディスプレイに表示する。次にHMD10は、教師指示装置50から送られてくる指示情報に含まれているイベント番号を検出すると、イベント情報記憶部32にアクセスして、該当するイベント番号の内容を実行する。これにより、教師指示装置50は、ネットワークに負荷をかけずに複数台のHMD10に同時に指示したり、教育コンテンツの再生等の制御をしたりすることができる。
各受講者は、HMD10に表示されている3D教育用モデルに対して、操作用装置40(例えば、コントローラ)を用いてアクションをすることができる。受講者は、教育用モデルのある部位に対してコントローラの向きによって移動するポインタをあてて、確認のアクション(例えば、コントローラボタンの押下)をする。これにより、ポインタのあてられた3D教育用モデル上の位置座標がイベント情報としてイベント送信部16から教師側のパソコン50へ送られる。パソコン50のイベント受信部55は、イベント情報を受け取ると、受講者イベント情報記憶部64に保存する。またイベント表示部56は、イベント情報に含まれている位置座標をもとに、パソコン50のディスプレイ上に表示されている教育用モデルに対してポインタを表示する。これにより教師は、各受講者の確認状態を知ることができる。
教師が教育用モデル上で指示している位置を教師用ポインタで表示する。その位置情報は教師用パソコン50から各受講者のHMD10に送られる。HMD10の指示情報受信部13はこのポインタ位置情報を受信すると、教育用モデル表示部14を介して受講者のHMD10のディスプレイに表示されている教育用モデルに重ねて教師用ポインタを表示する。なお、教師側において、3D座標での正確なポインタの位置を指示する必要がある場合は、教師側もゴーグル(HMD)をつけて指示することができる。
教育カリキュラムの中で、教師が表示されている教育用モデルのCG画像を説明する場合は、音声を受講者側のHMD10に配信する。具体的には、音声再生・検知部51によって教師の音声を検知すると、音声送受信部52によって音声データをHMD10に送信する。HMD10では、音声送受信部12によって音声データを受け取ると音声再生・検知部11によって音声データを再生する。これにより、受講者は、教師の音声を聞くことができる。一方、受講者から質問がある場合は、逆の流れで受講者の音声が教師用パソコン50に送られ教師側で再生される。
教育カリキュラムの追加や変更などに対して、容易に変更反映ができるように、コンテンツ(教育用モデルやイベント情報を含む)の配信機能を設ける。教師用のパソコン50から複数台のHMD10に対してコンテンツを配信してインストール可能に構成する。
次に上述した機能を実現するための教師用パソコン50、HMD10の主な処理手順について説明する。
(1)教師用パソコン50の処理手順
上記の動作を実行する教師用パソコン50の処理手順を図6に示す。
教師用パソコン50は起動されると、指示情報送信部53は教育シナリオ記憶部63にアクセスして、教育対象カリキュラムの全ての項目について以下の処理を実行する(S101a,101b)。なお、教育シナリオのカリキュラムには、図5に示すようにシナリオ順に番号が付されており順に実行される。なお、あるシナリオの終了後自動的に次のシナリオが実行されるようにしてもよいし、教師の所定の確認アクションを検知して次のシナリオに進むようにしてもよい。図5に示すデータ例に、次のシナリオに進むための教師の確認アクションが必要かどうかを設定するフラグをシナリオごとに設けるようにしてもよい。教師用パソコン50にはシナリオの進行状況が表示される。
次に、上記の動作を実行する各受講者用HMD10の処理手順を図7,図8を用いて説明する。
(2-1)表示処理
受講者用HMD10は起動されると、指示情報受信部13は教師用パソコン50から送られてくる指示情報に含まれているカリキュラムIDを抽出する。そして教育用モデル表示部14は対象カリキュラムの3DモデルをHMD10のディスプレイに表示する(S301)。なお、対象カリキュラムは予め自身で選択して事前に教育用モデルを表示させるようにしてもよい。
そして指示情報受信部13は教師用パソコン50から送られてくるイベント番号を受信すると(S302)、イベント情報記憶部32にアクセスして該当するイベントを実行する(S303)。
操作用装置40の操作検知部41はユーザによる操作を検知するとその操作情報(例えばポインタの位置や方向、ボタン押下などのデータ)を送信する。
図8において、HMD10の操作受信部15は、操作用装置40から送られてきた操作情報をもとにポインタの位置、方向を検出すると(S201)、教育用モデル表示部14を介してディスプレイに表示されている教育用モデルと交差したか否かを判定する(S202)。ポインタが教育用モデルと交差した場合は、その交差位置をディスプレイ上に表示する(S203)。その後操作受信部15は操作用装置40のボタン押下などによってトリガを検出すると、交差位置をワールド座標から相対座標に変換して、ポインタのあてられた部品のアセット番号を特定する(S206)。そしてイベント送信部16を介して、特定したアセット番号および交差位置の座標をイベント情報として教師用パソコン50へ送信する(S207)。
教師用パソコン50は、イベント受信部55によってこれを受信すると、教師用パソコン50のディスプレイ上に表示されている教育用モデルに重ねてポインタ位置を表示する。この表示例を図10に示す。
次に、教師用パソコン50の教育用モデル表示部54、受講者用HMD10の教育用モデル表示部14の3Dモデル表示処理について説明する。なお、両部54,14はこの他イベント情報をもとにアニメーション表示も行うがこの処理は3Dモデル表示後に独立して実行可能であるため説明を省略する。
教育用モデル表示部54は起動されると、教育用モデル記憶部61にアクセスして、教師によって指定された教育用モデルデータを順次抽出する。教育用モデルデータは、図3に示すように階層構造になっており、教育用モデル表示部54は最上位階層の全ての部品IDについて、ステップS402の座標データ抽出・表示ルーチンを呼び出して実行する(S401a,S401b)。この座標データ抽出・表示ルーチンの処理は、図11(c)に示されているように、まず対象となっている部品IDの一つしたの階層のデータフィールドにアクセスして(S501)、そのデータフィールドに座標データが有るか否かを判定する(S502)。その結果座標データが有る場合は、その座標データをもとに3Dモデルイメージを作成する(S503)。即ち対象部品の3DモデルデータをもとにレンダリングによりCG化する。
教師用パソコン50と受講者用HMD10に予め同じ教育用モデルとイベント情報が保存される。なお、教師用パソコン50側で、教育用モデルやイベント情報が追加・更新された場合は、通信回線2を介して各受講者HMD10に送信される。
教師用パソコン50と受講者用HMD10のそれぞれで教育用モデルを表示する。図12に示すように、教師用パソコン50と受講者用HMD10共に3Dモデル(教育用モデル)の配置と最初の視点・向き(視線ベクトル)は固定である。受講者用HMD10側の教育用モデル表示部14は、その後本システムを起動したときのヘッドマウントの位置(実空間)を基準位置として、それからの移動は基準位置からの移動量で計算する。
このように、受講者側では3Dモデルの座標は、初期値の座標(予め定めた視点からの相対座標)がワールド座標系に変換されるのに対して、教師用パソコン50ではワールド座標系への変換が行わないのが本実施の形態の特徴の一つである。
教師側では、専ら教師用パソコン50での操作によって3Dモデルを回転・移動させるが、この教師側での操作に関して、受講者側では次の2通りの反映のしかたがある。
このパターンは、教師が各受講者側での3Dモデルの回転・移動を制御できるパターンであり、次のステップにより実現することができる。
(ステップa1)教師用パソコン50の操作(マウスなど)によりパソコンに表示されている3Dモデルを回転・移動させる。このとき視線位置・向きは固定である。即ち3Dモデルの座標は視点を基準とした相対座標(パソコン上のローカル座標)である。
(ステップa2)3Dモデル表示位置情報を送信する。この表示位置情報は3Dモデルの新たな相対座標を送信するようにしてもよいが、初期値からの回転量・移動量で表すことにより通信時のデータ量を削減することができる。
(ステップa4)その後、受講者が移動や頭の向きを変えた場合は、ジャイロセンサで移動量を検知して、その差分をVR空間内で移動させる。
なお、受講者側のVR空間内に教師の視点を表示するようにしてもよい。ちなみに、教師の視点位置は、ローカル座標系(講師側の座標系)での回転・移動量に基づいて変わる。これにより、受講者は常に教師がどの位置から3Dモデルを見ているかを把握することができる。
このパターンは、専ら受講者側が主体で3Dモデルを回転・移動させるものである。
(ステップb1)教師用パソコン50の操作(マウスなど)によりパソコンに表示されている3Dモデルを回転・移動させる(視線位置・向きは固定)。
この移動操作はあくまでも教師がパソコンの画面で見て操作するための移動操作であって受講者が見るヘッドマウント側の見え方をコントロールするものではない。
受講者側ではVR座標系は絶対座標で表されるため、3Dモデルの座標は固定であり、その固定された3Dモデルの周りを自分(視点)が移動するというものである。この移動パターン2では、教師側の3Dモデルの移動・回転操作は、受講者用HMD10には反映しない。
次に、教師用パソコン50から指示したタイミングで、受講者用HMD10に表示している教育用モデルを動作させる方法について説明する。
例えば、イベント番号001を受信すると、3Dモデルにおいて、そのイベント番号に対応する部位(ブレード)が回転し、それに伴うフローの映像が表示される。
次の手順により、教師用パソコン50からの指示(座標ポインタ)を受講者用HMD10へ送信して、受講者側の3Dモデル上の同じ位置にポインタを表示する。
(ステップd1)教師用パソコン画面(2D)に表示されている3Dモデル上に指示用ポインタを表示させる。
(ステップd2)パソコン画面は2Dのため、3Dモデルの裏側などを示したいときは、3Dモデル自体をマウスで回転させて、ポインタを投射する。そして、投射して3Dモデルにぶつかった位置をポインタの座標とし、その位置にポインタ表示をする。このとき、上述した移動パターン2を選択しておく。
(ステップd4)HMD10の支持情報受信部13はポインタ位置情報を受信すると、教育用モデル表示部14を介してそのポインタ位置情報に基づいてVR空間上の3Dモデル上にポインタを表示させる(3D空間)。
これにより、教師は、2Dのパソコン画面上でポインタ位置を指定して、受講者用HMD10の仮想空間上に3D表示させることができる。
受講者の動作(操作)をトラッキングして、HMD10へ表示し、更にその操作情報を教師用パソコン50へ送信して、受講者イベント情報として表示する。(N台分)
(ステップe1)まず、教師から設問(予め設定されている)を出題する。
(ステップe2)受講者はコントローラ40を使用して、教師から指示された部位を指し示す。コントローラボタンを押下することにより部位が確定する。
(ステップe4)教師用パソコン50の教育シナリオデータには、設問に対する正解の位置(部位・アセット)が設定されており、ポインタが正解部位にフォーカスされたかを判定する。各受講者から送られてきたイベント情報や判定結果は受講者イベント情報記憶部64に保存される。また、各受講者の判定結果はイベント表示部56によりチェックリストとしてディスプレイに表示される。
受講者イベント情報記憶部64に保存されているイベント情報や設問に対する解答結果は、受講データ計算処理部57の演算処理(例えば統計処理)によって集計される。
上記の実施形態では、教育シナリオデータを教師用パソコン50側にのみ持たせることとしたが、各受講者用HMD10にも同じ教育シナリオデータを持たせるようにしても良い。このようにすれば、教師側からの出題後、受講者の回答は、HMD10に保存されている教育シナリオデータによって判定し、その判定結果を教師用パソコン50へ送信することができるので、教師用パソコン50の負荷を軽減することができる。
本実施の形態は、教育用モデルの周りに複数の受講者の座席(すなわち異なる視点位置)を仮想的に設けるものである。各受講者は仮想空間内において、それぞれ異なる座席に座り、その席から3次元表示される教育用モデルを見る。
本実施の形態では、HMD10において、教育用モデルの座標の他、受講者の座席の座標を保存する。各受講者の座席の座標は次の方法で指定することができる。
すなわち、第1の実施の形態で説明したように、教育用モデルはある基準位置(例えば図12の視点位置)からの相対座標で表されている。本実施の形態では、受講者の座席座標についても、この教育用モデルの基準位置からの相対座標で表すことを特徴の一つとしている。同じ基準位置を用いることにより後述するように各HMD10での教育用モデル表示処理を効率的に行うことができる。
このようにすれば、共同で作業するような教育に対して、例えば、ある受講者がある部位を抑えている状態で、他の受講者が当該部位にあるオペレーション(例えばネジを嵌める等)をするような作業を行うといったより複雑な教育訓練も可能となる。
2 通信回線
10 バーチャルコンテンツ表示装置(ヘッドマウントディスプレイ,HMD)
11,51 音声再生・検知部
12,52 音声送受信部
13 指示情報受信部
14,54 教育用モデル表示部
15 操作受信部
16 イベント送信部
17 視線判定部
40 操作用装置
41 操作検知部
50 教育指示装置(教師用パソコン)
53 指示情報送信部
55 イベント受信部
56 イベント表示部
57 受講データ計算処理部
31,61 教育用モデル記憶部
32,62 イベント情報記憶部
63 教育シナリオ記憶部
64 受講者イベント情報記憶部
Claims (8)
- 受講者が装着し、仮想空間上に教育用モデルを表示するバーチャルコンテンツ表示装置と、教師側に設けられ、前記教育用モデルに対する動作指示を送信する教育指示装置と、を有する教育支援システムであって、
前記バーチャルコンテンツ表示装置は、
前記教育用モデルを表示するためのデータを保存する教育用モデル記憶部と、
前記教育用モデルに変化を与えるイベント情報を予め保存するイベント情報記憶部と、
前記教育指示装置から送られてくる指示情報をトリガとして、前記イベント情報によって前記教育用モデルを変化させて仮想空間上に表示する教育用モデル表示部と、
を備えたことを特徴とする教育支援システム。 - 前記教育用モデルは、一又は二以上の部品からなり、
前記イベント情報は、前記部品に関連付けられた視聴覚的な変化を規定する変化定義情報を含み、
前記教育用モデル表示部は、前記指示情報を受信すると、該指示情報に対応する前記変化定義情報に基づいて前記教育用モデルを変化させることを特徴とする請求項1に記載の教育支援システム。 - 前記教育指示装置は、前記教育用モデルの部品ごとにイベント情報を変更、追加するイベント情報更新部と、前記イベント情報を前記バーチャルコンテンツ表示装置へ送信するイベント情報送信部を備え、
前記バーチャルコンテンツ表示装置は、前記イベント情報送信部から送られてくるイベント情報を受信すると、前記イベント情報記憶部に保存されているイベント情報を部品単位で更新するイベント情報受信部を備えたことを特徴とする請求項2に記載の教育支援システム。 - 前記教育用モデルに対する受講者の動きを検知する操作検知部と、
前記操作検知部で検知した受講者の動きを前記教育指示装置へ送信するイベント送信部と、を備え、
前記教育用モデル表示部は、前記操作検知部によって検知する受講者の動きを表す映像を仮想空間上に表示し、
前記教育指示装置は、
前記教育用モデルを仮想空間上に表示する教師側教育用モデル表示部と、
前記バーチャルコンテンツ表示装置の前記イベント送信部から送られてくる受講者の動きを表示するイベント表示部と、
を備えたことを特徴とする請求項1乃至3のいずれか一項に記載の教育支援システム。 - 前記操作検知部は、受講者の視線によって受講者の動きを検知することを特徴とする請求項4に記載の教育支援システム。
- 前記教育用モデルには、複数の受講者に対してそれぞれ異なる着席位置を示す座標情報が関連付けられ、
各受講者が装着するバーチャルコンテンツ表示装置の前記教育用モデル表示部は、各受講者にそれぞれ割付けられた着席位置から見た教育用モデルを表示することを特徴とする請求項1乃至5のいずれか一項に記載の教育支援システム。 - 前記教育指示装置は、教育用モデルと共に前記受講者の着席位置に該受講者の識別情報を表示することを特徴とする請求項6に記載の教育支援システム。
- 受講者が装着し、仮想空間上に教育用モデルを表示するバーチャルコンテンツ表示装置と、教師側に設けられ、前記教育用モデルに対する動作指示を送信する教育指示装置と、を用いて行う教育支援方法であって、
前記バーチャルコンテンツ表示装置に、前記教育用モデルと、前記教育用モデルに変化を与えるイベント情報とを予め保存しておき、前記教育指示装置から送られてくる指示情報をトリガとして、前記イベント情報によって前記教育用モデルの一部又は全部を変化させて仮想空間上に表示することを特徴とする教育支援方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020113655A JP7530754B2 (ja) | 2020-06-30 | 2020-06-30 | 教育支援システム、方法およびプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020113655A JP7530754B2 (ja) | 2020-06-30 | 2020-06-30 | 教育支援システム、方法およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022022664A JP2022022664A (ja) | 2022-02-07 |
| JP7530754B2 true JP7530754B2 (ja) | 2024-08-08 |
Family
ID=80225130
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020113655A Active JP7530754B2 (ja) | 2020-06-30 | 2020-06-30 | 教育支援システム、方法およびプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7530754B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023144941A (ja) * | 2022-03-28 | 2023-10-11 | 矢崎総業株式会社 | 通信システム |
| JP7685256B2 (ja) * | 2023-06-13 | 2025-05-29 | 株式会社Risoh | 教育補助システム |
| JP7432275B1 (ja) | 2023-07-28 | 2024-02-16 | 株式会社計数技研 | 映像表示装置、映像表示方法、及びプログラム |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090253109A1 (en) | 2006-04-21 | 2009-10-08 | Mehran Anvari | Haptic Enabled Robotic Training System and Method |
| JP2020080154A (ja) | 2018-11-09 | 2020-05-28 | 株式会社テンアップ | 情報処理システム |
| JP2020515891A (ja) | 2017-03-24 | 2020-05-28 | サージカル シアター エルエルシー | 仮想環境における訓練および共同作業のためのシステムおよび方法 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1011253A (ja) * | 1996-06-25 | 1998-01-16 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間表示方法 |
-
2020
- 2020-06-30 JP JP2020113655A patent/JP7530754B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090253109A1 (en) | 2006-04-21 | 2009-10-08 | Mehran Anvari | Haptic Enabled Robotic Training System and Method |
| JP2020515891A (ja) | 2017-03-24 | 2020-05-28 | サージカル シアター エルエルシー | 仮想環境における訓練および共同作業のためのシステムおよび方法 |
| JP2020080154A (ja) | 2018-11-09 | 2020-05-28 | 株式会社テンアップ | 情報処理システム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022022664A (ja) | 2022-02-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Stanney et al. | Extended reality (XR) environments | |
| US12488699B2 (en) | Class system, viewing terminal, information processing method, and program | |
| Craig et al. | Developing virtual reality applications: Foundations of effective design | |
| Vince | Introduction to virtual reality | |
| KR102623460B1 (ko) | 실장비 연동기능이 구비된 확장 현실 기반의 교육 훈련시스템 및 그것을 이용한 교육 훈련 방법 | |
| Bowman et al. | Evaluating effectiveness in virtual environments with MR simulation | |
| CN108389249B (zh) | 一种多兼容性的vr/ar空间教室及其构建方法 | |
| JP7047168B1 (ja) | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム | |
| JP7530754B2 (ja) | 教育支援システム、方法およびプログラム | |
| KR20090003079A (ko) | 가상 페인팅 훈련 시스템 및 방법 | |
| CN107168534B (zh) | 一种基于cave系统的渲染优化方法及投影方法 | |
| JP6683864B1 (ja) | コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム | |
| JP2021125209A (ja) | 視聴端末、視聴方法、視聴システム及びプログラム | |
| CN102509502A (zh) | 一种凸透镜成像虚拟实验制作方法 | |
| Sasikumar et al. | Spatial perception enhancement in assembly training using augmented volumetric playback | |
| CN102262705A (zh) | 实景虚拟现实方法 | |
| Gupta et al. | Training in virtual environments: A safe, cost effective, and engaging approach to training | |
| JP6892478B2 (ja) | コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム | |
| Klico et al. | The role of immersive technologies in value creation in marketing | |
| JP7465737B2 (ja) | 授業システム、視聴端末、情報処理方法及びプログラム | |
| JP7547501B2 (ja) | Vr映像空間生成システム | |
| JP7011746B1 (ja) | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム | |
| Wichert | A mobile augmented reality environment for collaborative learning and training | |
| Avis | Virtual environment technologies | |
| KR102668432B1 (ko) | 확장 현실 기반의 교육 훈련 시스템 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230526 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240510 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240729 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7530754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |