JP6842494B2 - 拡張現実トレーニングシステム - Google Patents

拡張現実トレーニングシステム Download PDF

Info

Publication number
JP6842494B2
JP6842494B2 JP2019081780A JP2019081780A JP6842494B2 JP 6842494 B2 JP6842494 B2 JP 6842494B2 JP 2019081780 A JP2019081780 A JP 2019081780A JP 2019081780 A JP2019081780 A JP 2019081780A JP 6842494 B2 JP6842494 B2 JP 6842494B2
Authority
JP
Japan
Prior art keywords
augmented reality
virtual
instrument
user
training system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019081780A
Other languages
English (en)
Other versions
JP2019207401A (ja
Inventor
▲黄▼宇軒
張皓宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huang Yu Hsuan
Original Assignee
Huang Yu Hsuan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huang Yu Hsuan filed Critical Huang Yu Hsuan
Publication of JP2019207401A publication Critical patent/JP2019207401A/ja
Application granted granted Critical
Publication of JP6842494B2 publication Critical patent/JP6842494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Microscoopes, Condenser (AREA)

Description

本出願は、2018年4月23日に出願された米国仮出願シリアル番号62/661,511の優先権を主張します。前記仮出願の全てが、本願に引用され組み込まれる。
本発明は、拡張現実トレーニングシステムに関する。より具体的には、顕微手術、例えば、眼科手術、神経外科手術、心臓血管手術や整形手術などのトレーニングに適用できる拡張現実トレーニングシステムに関する。
1955年、Hunterとその同僚は光学式のバーチャルリアリティシミュレーションシステムを発明した。そのシステムは、ロボットアームによって微細な動きによる入力を受信する。研究者は、電磁センサー、光学式追跡カメラ、ホールセンサー、慣性センサー、及びそれらの組合せによるシステムを利用して、器械の位置決めの精度と解像度を改善してきた。センサーでデータを収集するためには、実際の器械に代わって、特別に設計、改善した有線の器械が使用されている。そのため、これらの器械の重量感及び触覚のフィードバックは、実際の器械とは違う。
白内障手術を行う外科医にとって、器械の位置決めの精度と解像度の他、手術器械への熟練度も非常に重要である。例えば、嚢切開鉗子は、湾曲又は直線状の先端と、円形又は扁形のハンドルと、を有する。各種類の嚢切開鉗子は、それぞれ異なる操作のテクニックを要する。手術の技能と器械の種類は、関連性が高いと考えられ、特に顕微手術はその関連性が顕著である。そのため、トレーニングの際に実際の器械を使用しないと、トレーニングシステムによる効果は限られたものになる。既知の光学式追跡システムにおいて、6つの自由度での追跡を行うために、少なくとも3つの反射マークをレプリカの器械に貼付する必要がある。レプリカの器械の重量と弾性は、実際の器械とは相違している。電磁センサーを利用したシステムにおいて、検出の精度は、実際の器械の金属材料に影響される恐れがある。また、ロボットアームを利用したシステムにおいて、ユーザは実際の器械に代わってロボットアームを操作するので、実際の感触と大きく異なる。前記課題は、既知の手術トレーニングシステムにおいてよくある難点である。
また、前記トレーニングシステムは、バーチャルリアリティ内に構築されている。これらのシステムは、バーチャルリアリティの環境内に器械と目との相互作用を可視化することができない。そのため、実際の器械を観察することができない。なお、バーチャルリアリティの環境内では無視してもよいが、サイズが拡大された眼球模型に対する操作の動作は、実際の手術での動作とは大きく相違する。
本発明は、微細な動きへの追跡と実際の器械でのトレーニングを実現し、研修者の手と目の協調性を改善することが可能な拡張現実(AR)トレーニングシステムを提供することを目的とする。
前記目的に基づいて、本発明に係る拡張現実トレーニングシステム(ARTS)は、手術人体模型を配置する模型配置領域と、ユーザが前記手術人体模型に対してトレーニングを行う操作空間と、を有する操作台と、前記操作台に対向して設置され、カメラによって前記手術人体模型と前記手術人体模型に対して操作される器械の実際の立体映像を撮影し、拡張現実映像を前記ユーザの目に伝達する拡張現実実体顕微鏡ユニットと、前記操作空間の上方に設置され、前記器械の上部にあるマークを追跡する頂部カメラと、前記操作空間の下方に設置され、前記器械の下部を追跡する底部カメラとを有し、前記器械の位置と方向を検出して位置信号と方向信号として発信する器械追跡モジュールと、前記拡張現実実体顕微鏡ユニット及び前記器械追跡モジュールに接続され、前記器械とトレーニングプログラムとの相互作用をシミュレーションするように、前記拡張現実実体顕微鏡ユニットからの実際の立体映像と、前記器械の位置と方向に基づいた前記位置信号と前記方向信号と前記トレーニングプログラムとの相互作用によって生成された複数の仮想映像と、を重ねた拡張現実映像を生成して表示するシミュレーションモジュールと、を備える拡張現実トレーニングシステムである。
それによって、前記拡張現実トレーニングシステムは、顕微手術、例えば、眼科手術、神経外科手術、心臓血管手術や整形手術などのトレーニングに適用できる。それによって、本発明は、ユーザがトレーニングの際に実際の器械を使用する要望を満足させることができる。また、頂部カメラと底部カメラを利用することで、前記器械の位置をリアルタイムで算出することができ、それに対応する仮想映像を生成することが可能になる。前記仮想映像と、前記拡張現実実体顕微鏡ユニットが撮影した前記実際の立体映像とを重ねることで、ユーザは双眼の接眼レンズを通して拡張現実を見ることができる。前記拡張現実トレーニングシステムは、実体顕微鏡と手術用の顕微鏡の構造に合わせて設計されたので、ユーザは立体感を感じて微細な物体を観察することが可能であり、双眼の接眼レンズを通して高画質のディスプレイを見ることでリアリティを一層感じることができる。なお、前記拡張現実トレーニングシステムは、0.02mmの空間精度を得ることができるので、外科医の白内障手術のトレーニングに適用することが可能である。前記拡張現実トレーニングシステムを使用する場合、ユーザは自由に所望の手術の傷口を作ることができる。また、器械の移動経路は特に制限されていない。本発明に係る手術トレーニングの操作空間は、拡大されることがなく、実際の空間の広さに相当する。
本発明において、前記拡張現実トレーニングシステムは、多様の器械、例えば、スクレーパー、はさみ、鉗子等を追跡することが可能である。特別に設計されたカメラの設置方式と計算ソフトウェアによって、ユーザは前記拡張現実トレーニングシステムにおいて事前に登録された器械を使用することが可能であり、鉗子の開閉を含む7つの自由度での追跡を行うことができる。本発明に係るトレーニングシステムは、ワイアレスの実際の器械をユーザインターフェースとして採用するので、ユーザはトレーニングで得られた熟練の手術技能を実際の手術に活用することができ、実際の手術への移行期間を最大限に短縮することが可能になる。また、拡張現実トレーニングシステムを使用する前に、前記器械に1つ又は複数のマークを貼付する必要がある。前記マークは、受動式のマーク(例えば、光反射ボール)であってもよく、能動式のマーク(例えば、無線又は有線の充電式のLED(発光ダイオード)モジュール)であってもよい。前記マークは前記器械の上部に貼付される。本発明の実施形態において、前記マークは受動式のマークであり、前記拡張現実トレーニングシステムの操作空間の上方には、頂部発光モジュールが設置されると好適である。頂部カメラと底部カメラとして赤外線(IR)カメラを利用した場合、頂部発光モジュールは赤外線と可視光を出射する。それによって、前記器械の上部は、前記マークによって追跡されることになる。また、前記拡張現実トレーニングシステムの操作空間の下方には、赤外線と可視光を出射する底部発光モジュールが設置されると好適である。より具体的には、前記底部発光モジュールは複数の光源を備える。それによって、ユーザは前記器械から下部までの深度を容易に判断することができる。少なくとも3つの反射マークで6つの自由度での追跡を行う既知の光学追跡システムに比べて、本発明に係る拡張現実トレーニングシステムは、1つのマークのみ必要とするので、マークが設置されても、ユーザはそのマークによる違いを無視することができ、実際の手術を行うような体験を味わうことが可能である。
本発明において、前記シミュレーションモジュールは、プロセッサとディスプレイとを備える。前記プロセッサは、前記拡張現実実体顕微鏡ユニットと前記器械追跡モジュールに接続される。前記ディスプレイは、前記プロセッサに接続され、前記拡張現実映像を表示する。より具体的には、前記ディスプレイは、右モニターと左モニターとを備える。前記拡張現実映像は、前記右モニターと前記左モニターに表示され、前記拡張現実実体顕微鏡ユニットの光学モジュールを通してユーザの目に伝達される。また、前記シミュレーションモジュールは、前記プロセッサに接続される指導パネルを備える。前記指導パネルは、前記手術人体模型の3Dシミュレーションモデル及び前記器械と前記トレーニングプログラムとの相互作用による3Dシミュレーション映像を、3次元映像として表示する。前記シミュレーションモジュールの前記プロセッサは、ユーザのトレーニングプログラムにおける操作の分析報告を、前記指導パネルに表示させると好適である。白内障手術のトレーニングの場合、前記プロセッサによって生成された仮想映像は、仮想瞳孔領域を含む。トレーニングプログラムは、前記プロセッサによって実行され、以下のトレーニングコースのうち少なくとも1つを提供する:(i)少なくとも1つの仮想物体を前記仮想瞳孔領域に配置し、ユーザがトレーニングコースにおいて予定期間内に前記器械を操作する位置を記録し、前記器械の移動範囲を分析することで、ユーザが器械を使用する際の安定さを評価する。(ii)1つの仮想出発点と複数の仮想物体を前記仮想瞳孔領域に配置し、ユーザが前記器械を利用して前記仮想出発点に接触してから高さが異なる複数の仮想物体に接触する回数と時間を記録することで、ユーザの深度感覚と器械の動く速度を評価する。(iii)1つの仮想基準円を前記仮想瞳孔領域に配置し、ユーザが描いた仮想追跡曲線と前記仮想基準円を比較して、ユーザの円形追跡技能を評価する。(iv)少なくとも1つの仮想物体と1つの仮想目標点を前記仮想瞳孔領域に配置し、ユーザが鉗子を利用して前記仮想物体を前記仮想目標点に搬送する時間を記録し、ユーザの鉗子の使用技能を評価する。(v)1つの仮想物体と、1つの仮想ガイド曲線と、1つの仮想リリース点とを、前記仮想瞳孔領域に配置し、ユーザが鉗子を利用して前記仮想物体を前記仮想ガイド曲線に沿って前記仮想リリース点まで搬送する時間を記録し、ユーザの嚢切開技能を評価する。
本発明において、前記拡張現実実体顕微鏡ユニットは、カメラモジュールと、光学モジュールと、接眼レンズとを備え、拡大した立体映像を表示してもよい。前記カメラモジュールは、実際の立体映像を撮影するように、前記操作空間に対向して設置される。前記光学モジュールは、前記接眼レンズと前記シミュレーションモジュールに対向して設置され、前記接眼レンズを通して前記拡張現実映像をユーザの目に伝達する。より具体的には、前記光学モジュールは、複数の光学レンズと、複数のプリズムと、複数のミラーと、複数の光学用ディフューザーと、複数のビームスプリッターと、を備える。それによって、前記拡張現実映像は、前記光学レンズと、前記プリズムと、前記ミラーと、前記光学用ディフューザーと、前記ビームスプリッターとを介して、ユーザの目に伝達される。
本発明において、前記手術人体模型は、白内障手術のトレーニング用の眼球模型を備える。前記眼球模型は、器械が眼球模型内に挿入するための人工傷口を有すると好適である。より具体的には、前記眼球模型は、硬底部と、前記硬底部の上に位置する柔軟部とを備える。前記人工傷口は、前記柔軟部に形成される。それによって、前記眼球模型の柔軟部と前記器械の摩擦力によって、触覚のフィードバックを提供することができる。また、前記トレーニングプログラムは、前記プロセッサによって実行され、前記人工傷口の縁部に警告マークを設置し、前記器械が前記警告マークに接触することを検知すると警告を出す。
本発明において、前記拡張現実トレーニングシステムは、前記プロセッサに接続される操作インターフェースモジュールを備える。前記操作インターフェースモジュールによって、前記拡張現実実体顕微鏡ユニットの焦平面と縮小拡大の倍率を調整することができ、前記拡張現実実体顕微鏡ユニットを移動させることも可能である。また、前記操作インターフェースモジュールによって、ユーザは光線を調整することができ、カスタマイズの機能を制御することが可能である。
本発明の前記目的、利点、特徴構成は、以下の説明と図面によってより明確になる。
本発明の実施例に係る拡張現実トレーニングシステムを示す模式図である。 本発明の実施例に係る光学モジュールを示すブロック図である。 本発明の実施例に係る底部カメラと、底部発光モジュールと、眼球模型とを示す分解斜視図である。 本発明の実施例に係る眼球模型を示す模式図である。 本発明の実施例に係る光学モジュールと、ディスプレイと、接眼レンズとを示す模式図である。 本発明の実施例に係る拡張現実実体顕微鏡ユニットと、器械追跡モジュールと、操作インターフェースモジュールと、シミュレーションモジュールとの間に行われる信号の転送を示すブロック図である。 本発明の実施例に係る器械の安定さのトレーニングモードにおいて拡張現実映像を示す模式図である。 本発明の実施例に係る前眼房における器械移動のトレーニングモードにおいて拡張現実映像を示す模式図である。 本発明の実施例に係る円形追跡のトレーニングモードにおいて拡張現実映像を示す模式図である。 本発明の実施例に係る鉗子のトレーニングモードにおいて拡張現実映像を示す模式図である。 本発明の実施例に係る嚢切開のトレーニングモードにおいて拡張現実映像を示す模式図である。 本発明の実施例に係る前眼房における器械移動のトレーニングモードにおいて経験と探索時間の関連性を示す図である。
当業者は、本明細書の記載により本発明の利点と効果を理解できる。注意すべき点として、以下の図面は簡略化したものである。部材の数量と、形状と、サイズとは必要に応じて種々変更することができ、実際の構造は図面より複雑な場合もある。また、本発明は、複数の実施例を組合せ、必要に応じて種々変更することができる。この明細書の詳細内容についても、様々な観点や応用などに基づいて、本発明の原理に背かないことを前提として、種々変更することができる。
図1は、本発明の実施例に係る拡張現実トレーニングシステム(ARTS)100を示す図である。本実施例に係る拡張現実トレーニングシステム100は、操作台10と、拡張現実実体顕微鏡ユニット30と、器械追跡モジュール50と、シミュレーションモジュール70と、を備える。拡張現実トレーニングシステム100において、シミュレーションモジュール70は、拡張現実実体顕微鏡ユニット30と器械追跡モジュール50からの信号を受信し、拡張現実映像ARをディスプレイ73に表示させる。それによって、ユーザは、拡張現実実体顕微鏡ユニット30を通して、ディスプレイ73からユーザの目に映った拡張現実映像ARを観察することができる。
説明のため、前記拡張現実トレーニングシステム100を、眼科手術のトレーニング(例えば、白内障手術のトレーニング)用のシステムとする。そのため、本実施例においては、手術人体模型20として眼球模型を利用して模式図で説明する。しかし、当然ながら、前記拡張現実トレーニングシステム100は、眼科手術のトレーニングに限定されない。拡張現実トレーニングシステム100は、任意のトレーニングに対応可能である。以下、本発明に係る拡張現実トレーニングシステム100の構造と部品間の接続関係を詳しく説明する。
操作台10は、手術人体模型20を配置する模型配置領域101と、ユーザが手術人体模型20に対してトレーニングを行う操作空間103と、を有する。この実施例において、操作台10はケースで覆われるので、不要な環境光を避けることが可能である。また、ケースの内部には黒色の非反射材料が覆われるので、2次反射を避けることができる。
拡張現実実体顕微鏡ユニット30は、操作台10に対向して設置され(より具体的には、操作台10の操作空間103の上方に設置され)、カメラによって手術人体模型20と手術人体模型20に対して操作される器械40(例えば、手術器械)の実際の立体映像を撮影し、光学方式で拡張現実映像ARをユーザの目に伝達する。より具体的には、拡張現実実体顕微鏡ユニット30は、カメラモジュール31と、光学モジュール33と、接眼レンズ35と、を備える。カメラモジュール31は、実際の立体映像を撮影するように、操作空間103に対向して設置される。この実施例において、カメラモジュール31は、適切な距離を置いた2つのカメラ機構(ステレオカメラ)を備える。ステレオカメラにおける2つのカメラ機構の間の距離と角度は、作業スペースの距離に合わせて変えてもよい。光学モジュール33は、接眼レンズ35に対向して設置され、ディスプレイ73上の拡張現実映像ARを接眼レンズ35に伝達する。この実施例において、光学モジュール33は、ダブルミラー333を備える。前記ダブルミラー333において、左のミラーと右のミラーは、それぞれ接眼レンズ35の左半分と右半分に対向して設置される。図2に示すダブルミラー333の他、光学モジュール33は、複数の光学レンズ331と、複数のプリズム332と、複数の光学用ディフューザー334と、複数のビームスプリッター335と、を備える。それによって、拡張現実映像ARは、光学レンズ331と、プリズム332と、ダブルミラー333と、光学用ディフューザー334と、ビームスプリッター335とを介して、ディスプレイ73から反射でユーザの目に伝達される。
器械追跡モジュール50は、頂部カメラ51と底部カメラ53とを備え、前記器械40の位置と方向を検出して位置信号と方向信号として発信する。頂部カメラ51と底部カメラ53は、赤外線カメラ、RGBカメラ、被写界深度カメラ、サーマルカメラや、他種類のカメラなどであってもよく、特に制限されない。この実施例には、赤外線カメラを頂部カメラ51と底部カメラ53として使用する。頂部カメラ51は、操作空間103の上方に設置され、前記器械40の上部41(例えば、尾部)を追跡する。底部カメラ53は、操作空間103の下方に設置され、前記器械40の下部43(例えば、頭部)を追跡する。例えば、眼科手術において、底部カメラ53は、図3に示す中空の眼球模型21の下方に回転可能に設置される。頂部カメラ51と底部カメラ53は、手術人体模型20の手術領域内(例えば、中空の眼球模型21における直径10mmの瞳孔領域)に焦点を合わせる。より具体的には、頂部カメラ51は、器械40の上部41に貼付されたマーク45を追跡するように、配置されている。底部カメラ53は、器械40の下部43を追跡するように、配置されている。前記マーク45は、器械40の上部41に貼付可能なマークであればよく、受動式のマークや能動式のマークであってもよい。この実施例には、受動式のマークを前記マーク45として使用する。また、操作空間103の上方には、赤外線と可視光(例えば、白色光)を出射する頂部発光モジュール81が設置される。例えば、前記マーク45は小型の光反射ボールである。前記光反射ボールには、3MTM ScotchliteTMの反射テープが覆われるので、どの方向からの光源であっても均一に反射することができる。マーク45は、直径が6mmであり、重量がおよそ0.8グラムである。そのため、マーク45は器械の操作に影響を与えないので、ユーザはマークによる違いを無視することができる。実際の手術において、顕微鏡からの光は、網膜の反射によって器械40の下部43に当てられる。上記現象をシミュレートするために、この実施例において、図3に示すように、眼球模型21の下方には、4つの調整可能な光源(例えば、赤外線と白色光のLED)を備える底部発光モジュール83が設置される。それによって、ユーザは下部43の深度を容易に判断することができる。対称構造の鉗子を手術用の器械40として使用する場合、手術の際に鉗子の少なくとも一端は傷口の底部に接触する。傷口の底部は、底部カメラ53の映像の明暗によって区別できる。接触箇所が確認されると、器械40の位置と開口の角度を算出することが可能である。頂部カメラ51と底部カメラ53によって事前に得られた情報に基づいて、器械の先端と、光反射ボールと、ターニングポイントとの間の長さを算出し、器械40の三次元の位置と方向を算出することができる。なお、各種類の色や反射光の干渉を最小限に抑えるために、黒色のラテックス手袋の着用が推奨される。この実施例において、手術人体模型20は、人体模型23と眼球模型21とを備える。それによって、白内障手術における物理的なフィードバックを実現することができる。また、没入感の高い環境と触覚フィードバックを提供するために、人体模型23は、3Dスキャンで制作した実サイズの顔面骨模型と前頭骨模型を含む模型を修正して形成される。眼球模型21において、図4に示すように、柔軟部211は硬底部213の上に形成される。それによって、擬似体験の良い環境と触覚フィードバックを提供することができる。この実施例には、0.2mmの3Dプリントのノズルで酢酸ビニル(EVA)からなる3Dプリント材料をプリントし、脆弱性を持つ角膜の模型として前記硬底部213の上に柔軟部211を形成する。また、人工傷口212は、角膜の傷口として前記柔軟部211に形成される。それによって、器械40の下部43は、人工傷口212を通して眼球模型21内に挿入することができる。眼球模型21の柔軟部211と器械40の摩擦力によって、触覚のフィードバックを提供することが可能である。この実施例において、人工傷口212の幅は、2.4mmであり、極小切開白内障手術における標準の切口と同じである。人工傷口212は、リアルな変形特性を持つように白内障手術の専門医によって高さが調整される。それによって、横傾斜になる鉗子の開口範囲が制限される。
その他の実施例において、拡張現実トレーニングシステム100は、さらに操作台10に隣接して操作空間103に誘導電界を生成する無線電力伝送モジュール91(図1参照)を備える。それによって、操作空間103に設置されたワイヤレス充電電子装置(例えば、器械40、眼球模型21、底部カメラ53、能動式のLEDマーク、或いは無線充電可能な光学/電子部品)に電力を供給することが可能になる。
シミュレーションモジュール70は、拡張現実実体顕微鏡ユニット30及び器械追跡モジュール50に接続され、器械40とトレーニングプログラムとの相互作用をシミュレーションするように、拡張現実映像ARを生成して表示する。拡張現実映像ARは、拡張現実実体顕微鏡ユニット30からの実際の立体映像と、器械40の位置と方向に基づいた位置信号と前記方向信号とトレーニングプログラムとの相互作用によって生成された複数の仮想映像と、を重ねて生成された映像である。より具体的には、シミュレーションモジュール70は、拡張現実実体顕微鏡ユニット30と器械追跡モジュール50に接続されるプロセッサ71と、プロセッサ71に接続され、拡張現実映像ARを表示するディスプレイ73と、を備える。ディスプレイ73は、前記光学モジュール33に対向して設置される。ディスプレイ73に表示された拡張現実映像ARは、光学モジュール33によって接眼レンズ35を介してユーザの目に伝達される。より具体的には、ディスプレイ73は、右モニター731と左モニター733を備える。右モニター731と左モニター733は対向して設置され、光学モジュール33(例えば、ダブルミラー333の右ミラーと左ミラー)に対向する。それによって、右モニター731に表示された右の拡張現実映像ARは、光学モジュール33の右半分(例えば、ダブルミラー333の右ミラー)によってユーザの目に伝達される。左モニター733に表示された左の拡張現実映像ARは、光学モジュール33の左半分(例えば、ダブルミラー333の左ミラー)によってユーザの目に伝達される。この実施例には、ビデオ透過(video see−through、VST)技術をこのシステムに利用した。ディスプレイは、実際と仮想の映像を重ねた映像をユーザに提示する。実際の映像と仮想の映像に遅延時間が常に同等であり、映像同期の位置ずれがなければ、ユーザは、VST技術を利用したシステムで映像を快適に見ることができる。また、一般には33ms以下の遅延時間は許容できる。顕微手術に許容できる解像度を得るために、任意のサイズの高解像度ディスプレイ、例えば、2つの28インチの4K液晶ディスプレイを、拡張現実映像ARを表示する映像表示装置として利用すると好適である。この実施例において、図5に示すように、ダブルミラー333の右ミラーと右モニター731の水平距離D1、及びダブルミラー333の左ミラーと左モニター733の水平距離D2は、32cmに設定される。それによって、視野角50度で、角画素密度(pixels per degree、PPD)の高い映像(43PPD)を表示し、実際の顕微手術の環境を再現することができる。また、図6に示すように、シミュレーションモジュール70は、プロセッサ71に接続される指導パネル75を備える。指導パネル75は、手術人体模型20の3Dシミュレーションモデル及び器械40とトレーニングプログラムとの相互作用による3Dシミュレーション映像を、3次元映像として表示する。プロセッサ71は、ユーザのトレーニングプログラムにおける操作の分析報告を、指導パネル75に表示させると好適である。また、実際の場合には、図6に示すように、ユーザ用の操作インターフェースモジュール60はプロセッサ71に接続される。例えば、操作インターフェースモジュール60によって、拡張現実実体顕微鏡ユニット30の焦平面と縮小拡大の倍率を調整することができ、拡張現実実体顕微鏡ユニット30を移動させることも可能である。なお、ユーザは、操作インターフェースモジュール60によって光線を調整することができ、カスタマイズの機能を制御することが可能である。具体的には、操作インターフェースモジュール60は、フットペダル或いは条件を調整できる機構であればよい。プロセッサ71は、ユーザの操作で操作インターフェースモジュール60から指令を受信すると、対応する制御信号を生成して拡張現実実体顕微鏡ユニット30に送信する。この実施例において、拡張現実トレーニングシステム100は、白内障手術のトレーニングを例として示した。プロセッサ71によって実行されるトレーニングプログラムは、警告マークを設定し、以下の4つの基本技能のトレーニングコース(器械の安定さのトレーニングと、前眼房における器械移動のトレーニングと、円形追跡のトレーニングと、鉗子のトレーニング)と、手術工程のトレーニングコース(嚢切開のトレーニング)と、を提供する。
〔傷口接触検出〕
外科医が角膜傷口の縁部に手術器械を強引に操作すると、角膜構造に不可逆的な損傷を与えてしまうことになる。また、外科医が軸コンセプト(pivot concept)を応用すれば、前記損傷を避けることができる。しかし、操作の際に、研修者は器械の先端に細心の注意を払うが、傷口の状況まで注意を払うことが難しいと考えられる。拡張現実トレーニングシステム100には、図7から図11に示すように、器械40が人工傷口の右側縁部と左側縁部に設置された警告マークW、Wに接触すると、警告マークW、Wの色は変化する。傷口接触検出のモードには、傷口接触の回数と、傷口接触の合計時間と、傷口接触の最大時間と、を記録して分析する。
〔器械の安定さのトレーニングモード〕
図7に示すように、6つの仮想物体P(6つの球体)は、同じ高さで均等に仮想瞳孔領域Aに配置される。例えば、均等に仮想瞳孔領域Aの縁部に配置される。器械40(図ではスクレーパーを例示した)の下部43が仮想物体Pに接触すると、仮想物体Pの色は変化する。連続接触時間が予定時間(例えば、5秒)に達すると、仮想物体は消える。ユーザは、任意の順に仮想物体Pに接触してもよい。器械40の下部43が仮想物体Pに接触すると、器械先端の位置は1秒ごとに5回記録される。X軸、Y軸、及びZ軸における動作範囲と動作の3次元空間は計算される。それによって、ユーザによる器械の安定さを評価する。
〔前眼房における器械移動のトレーニングモード〕
図8に示すように、仮想出発点Pは、仮想瞳孔領域Aの中心に設定される。複数の仮想物体P、P...、P(図ではPとPしか表示されない)は異なる高さに設定され、それぞれ仮想瞳孔領域Aに位置する。まず、ユーザは仮想出発点Pに接触する。続いて、仮想物体Pが現れる。仮想物体Pが接触によって消えると、仮想出発点Pは再び現れる。その際、ユーザは、仮想出発点Pに戻ってから、次に現れる仮想物体Pに接触する。前記の動作を繰り返して、予定数の全ての仮想物体P、P...、Pに接触する。ユーザが持つ器械40(図ではスクレーパーを例示した)の下部43が仮想出発点Pから仮想物体P、P...、Pに移動する時間を、探索時間とする。合計探索時間と、最大探索時間と、合計タスク時間とを記録して分析することで、ユーザの深度感覚と器械の動く速度を評価する。
〔円形追跡のトレーニングモード〕
図9に示すように、仮想基準円Cは、嚢切開領域として仮想瞳孔領域Aの中心部に設定される。ユーザは、器械40(図ではスクレーパーを例示した)の下部43で傷口の対応位置から前記仮想基準円Cを追跡する。ユーザは、自分の選択で時計回り或いは反時計回りに仮想基準円Cを追跡してもよい。ユーザが描いた仮想追跡曲線C上の各参考点によって、仮想基準円C上に同じ中心角に位置する対応点を決定し、各参考点と対応点の平均距離を算出する。仮想追跡曲線Cと仮想基準円Cのフレシェ距離(Frechet distance)を算出する。タスクの所要時間は、記録されて中心角に基づいて標準化される。それによって、ユーザの円形追跡の技能を評価することができる。
〔鉗子のトレーニングモード〕
図10に示すように、同じ位置に位置する予定数量(例えば、6つ)の仮想物体P(仮想物体Pに対する操作が完了するまでに、残りの仮想物体が現れないので、図では1つの仮想物体Pだけを示した)と、異なる位置に位置する仮想目標点Tと、を仮想瞳孔領域Aに配置する。ユーザは、器械40(図では鉗子を例示した)で仮想物体Pを取り、注意を払って前記仮想目標点Tに搬送する。それによって、前記仮想物体Pは消える。ユーザは、反時計回りの方向で前記仮想物体Pを搬送する。ユーザが次の仮想物体Pに着手するまでの時間を探索時間とする。前記仮想物体Pを仮想目標点Tに搬送する時間を搬送時間とする。移動経路の長さの合計は、合計経路値と積算される。それによって、ユーザの鉗子の使用技能を評価することができる。
〔嚢切開のトレーニングモード〕
図11に示すように、外科医は、前嚢に初期開口皮弁を形成した後、嚢切開鉗子(capsule forceps)で近端の皮弁をつかみ、前嚢に円形の嚢切開開口が形成されるように皮弁を引く。外科医は、四分の一の開口ができると前記皮弁を離し、鉗子の先端を皮弁の他の近端に移動させる。前記動作を繰り返すことで連続した円形の嚢切開開口を作り出す。このモードには、仮想物体P(図では薄型のケースを例示した)と、仮想ガイド曲線Cと、仮想リリース点Rとを、仮想瞳孔領域Aに設定する。仮想物体P(図では薄型のケースを例示した)は、皮弁の近端として嚢切開の縁部の理想位置に配置される。ユーザは、器械で仮想物体Pをつかみ、仮想ガイド曲線Cに沿って仮想リリース点Rまで搬送する。ユーザは、4つの方向でこのタスクを繰り返し、標準の嚢切開工程を練習する。ユーザが仮想物体Pをつかむのに所要の時間を探索時間とする。仮想物体Pを仮想リリース点Rまで搬送する時間を搬送時間とする。移動経路の長さの合計は、合計経路値と積算される。それによって、ユーザの嚢切開技能を評価することができる。
〔参加者〕
2017年3月から4月にかけて、1名の眼科医アシスタントと、眼科研修コースに参加している1名のインターンと2名の総合医療研修医と、18名の眼科医と、6名の白内障手術の専門医と、を含む28名の参加者がこの研究のプログラムに参加した。眼科についての経験に基づいて、参加者は3つのグループに分けられた。(1)初心者:2年未満の研修医で、白内障手術に立ち会い又はアシストした経験があるが、人体手術についての経験が限られたもの。(2)中級者:監督下で白内障手術を行った経験があるが、独自で行った経験がないもの(この研究のプログラムに参加する前に独自で手術を行った経験がないもの)。(3)白内障手術の経験者:白内障手術についての経験が豊富で、独自で白内障手術を行うことが可能なもの。
〔介入プロセス〕
まず、標準化の方式で参加者全員に拡張現実トレーニングシステム100の操作方法を指導した(5分間)。瞳孔の間隔を適切に調整し、5分間のウォームアップで参加者に拡張現実トレーニングシステム100を学習させた。器械の安定さのトレーニングモードと、前眼房における器械移動のトレーニングモードと、円形追跡のトレーニングモードと、鉗子のトレーニングモーと、嚢切開のトレーニングモードの順に5つのトレーニングモードを行うことで、介入前の評価を行った。参加者の操作結果を記録した。また、操作は指導医の監視のもとで行った。
次に、トレーニングプロセスに入った。器械の安定さのトレーニングと前眼房における器械移動のトレーニングモードを5回行い、その他のトレーニングモードを10回繰り返して行った。前記トレーニングプロセスはおよそ1時間かかった。必要に応じて、参加者は短い休憩をしてもよい。トレーニングをしたら、介入後の評価を行った。この評価においては、前記と同じ順に各トレーニングモードを行った。操作結果を記録して介入前の評価結果と比較した。その比較結果は、以下の表1に示す通りであった。
〔拡張現実トレーニングシステムの検証〕
意義のあるトレーニングシステムは、得点によって異なるスキルレベルのユーザーを評価する必要がある。本発明に係る研究は、初心者のグループ(n=12)と白内障手術について経験豊富な医師(n=9)との介入前の結果を比較した。その比較結果は、以下の表2に示す通りであった。
他の参加者と違って、2名の医師は長年にわたって患者の頭部の上方から器械で角膜の切開を行っている。本発明に係る研究は、側頭部から人体模型に対して手術を行ったので、彼らの両手の支持姿勢と操作技能は、角膜の切開開口の各方向において影響を受け、不良な評価結果になってしまった。そのため、分析の際に、彼らの評価結果は経験豊富な医師のグループから排除された。
〔実験結果〕
〔統計分析〕
この実施例に係る統計分析は、バージョン17.5.5のMedCalcソフトウェア(MedCalc software BVBA, Ostend, Belgium)を使用した。異なるグループの成績の差、及び訓練法における主観的な効果に関する統計的差異は、両側マンホイットニーU検定で評価した。介入前と介入後の操作成績は、両側ウィルコクソンの符号順位検定で評価した。顕著な差異の基準は0.05であった。手術の経験及び手と目の協調性の関連性は、スピアマンの順位相関係数で計算され、前眼房における器械移動のトレーニングモードにおける探索時間によって定量化された。その結果は、図12に示す通りである。
〔構築効果分析〕
経験豊富な白内障手術専門医は、全てのトレーニングモードにおいて、少なくとも1つの数値は初心者より優れていた。表1と表2に示すように、器械の安定さのトレーニングモードにおいて、Y軸の動作範囲は(P=0.47)であった。前眼房における器械移動のトレーニングモードにおいて、合計タスク時間は(P=.016)で、探索時間は(P=.016)であった。円形追跡のトレーニングモードにおいて、平均長の差異は(P=.042)で、フレシェ距離(P=.010)であった。鉗子のトレーニングモーにおいて、探索時間は(P=.043)で、搬送時間は(P=.019)で、合計タスク時間は(P=.018)で、経路の合計長さは(P=.019)で、傷口接触時間は(P=.037)であった。嚢切開のトレーニングモードにおいて搬送時間は(P=.047)で、合計タスク時間は(P=.023)で、経路の合計長さは(P=.001)で、傷口接触時間は(P=.047)で、最大傷口接触時間は(P=.039)であった。31個の数値のうち、16個は構築効果テストに合格した。
〔客観効果分析〕
表1と表2に示すように、1時間の介入プロセスの後、器械の安定さのトレーニングモードにおいて、X軸の動作範囲は(P=.2275)となったが、他の数値は統計上で顕著に進歩した(P<.05)。また、器械の安定さのトレーニングモードにおいてZ軸の動作範囲は(P=.024)となり、円形追跡のトレーニングモードにおいて傷口接触回数は(P=.027)となり、嚢切開のトレーニングモードにおいて探索時間は(P=.032)となったが、ほとんどの数値(27個/31個)は著しく異なった(P<0.01)。
本発明に係る拡張現実トレーニングシステムは、世界初の拡張現実顕微手術のシミュレータであり、実際の器械を操作インターフェースとして利用した世界初のシステムである。本発明に係るシステムは、高い空間解像度の拡張現実立体映像を提供するほか、高い精度(20μm)で手術器械をリアルタイムで追跡する機能を有する。本発明に係る拡張現実トレーニングシステムは、経験が異なるユーザによるパフォーマンスを区別し、手術の熟練度を評価するツールになるシステムである。また、操作時の3D空間の動作はすべてデータとして記録されるので、それらのデータをトレーニングのデータベースとして人工知能手術の開発に利用することが可能である。
上述の実施例は、本発明の実施形態を説明するものであり、本発明の特徴構成を説明するものであるが、本発明は上記の実施例に限定されるものではない。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれる。
100 拡張現実トレーニングシステム
10 操作台
101 模型配置領域
103 操作空間
20 手術人体模型
21 眼球模型
211 柔軟部
212 人工傷口
213 硬底部
23 人体模型
30 拡張現実実体顕微鏡ユニット
31 カメラモジュール
33 光学モジュール
331 光学レンズ
332 プリズム
333 ダブルミラー
334 光学用ディフューザー
335 ビームスプリッター
35 接眼レンズ
40 器械
41 上部
43 下部
45 マーク
50 器械追跡モジュール
51 頂部カメラ
53 底部カメラ
70 シミュレーションモジュール
71 プロセッサ
73 ディスプレイ
731 右モニター
733 左モニター
75 指導パネル
81 頂部発光モジュール
83 底部発光モジュール

Claims (18)

  1. 拡張現実トレーニングシステムであって、
    手術人体模型を配置する模型配置領域と、ユーザが前記手術人体模型に対してトレーニングを行う操作空間と、を有する操作台と、
    前記操作台に対向して設置され、カメラによって前記手術人体模型と前記手術人体模型に対して操作される器械の実際の立体映像を撮影し、拡張現実映像を前記ユーザの目に伝達する拡張現実実体顕微鏡ユニットと、
    前記操作空間の上方に設置され、前記器械の上部にあるマークを追跡する頂部カメラと、前記操作空間の下方に設置され、前記器械の下部を追跡する底部カメラとを有し、前記器械の位置と方向を検出して位置信号と方向信号として発信する器械追跡モジュールと、
    前記拡張現実実体顕微鏡ユニット及び前記器械追跡モジュールに接続され、前記器械とトレーニングプログラムとの相互作用をシミュレーションするように、前記拡張現実実体顕微鏡ユニットからの実際の立体映像と、前記器械の位置と方向に基づいた前記位置信号と前記方向信号と前記トレーニングプログラムとの相互作用によって生成された複数の仮想映像と、を重ねた拡張現実映像を生成して表示するシミュレーションモジュールと、
    を備え
    前記シミュレーションモジュールは、
    前記拡張現実実体顕微鏡ユニットと前記器械追跡モジュールに接続されるプロセッサと、
    前記プロセッサに接続され、前記拡張現実映像を表示するディスプレイと、
    前記プロセッサに接続される指導パネルと、
    を備え、
    前記指導パネルは、前記手術人体模型の3Dシミュレーションモデル及び前記器械と前記トレーニングプログラムとの相互作用による3Dシミュレーション映像を、3次元映像として表示することを特徴とする拡張現実トレーニングシステム。
  2. 前記底部カメラは、回転可能に前記操作空間の下方に設置されることを特徴とする請求項1記載の拡張現実トレーニングシステム。
  3. 前記プロセッサは、前記ユーザのトレーニングプログラムにおける操作の分析報告を、前記指導パネルに表示させることを特徴とする請求項記載の拡張現実トレーニングシステム。
  4. 前記拡張現実トレーニングシステムは、さらに前記プロセッサに接続される操作インターフェースモジュールを備え、前記操作インターフェースモジュールによって、前記拡張現実実体顕微鏡ユニットの焦平面と縮小拡大の倍率を調整し、或いは前記拡張現実実体顕微鏡ユニットを移動させることを特徴とする請求項記載の拡張現実トレーニングシステム。
  5. 前記ユーザは、前記操作インターフェースモジュールで光線を調整することを特徴とする請求項記載の拡張現実トレーニングシステム。
  6. 前記拡張現実実体顕微鏡ユニットは、カメラモジュールと、光学モジュールと、接眼レンズと、を備え、前記カメラモジュールは、実際の立体映像を撮影するように、前記操作空間に対向して設置され、前記光学モジュールは、前記接眼レンズと前記シミュレーションモジュールに対向して設置され、前記接眼レンズを通して前記拡張現実映像を前記ユーザの目に伝達することを特徴とする請求項記載の拡張現実トレーニングシステム。
  7. 前記光学モジュールは、複数の光学レンズと、複数のプリズムと、複数のミラーと、複数の光学用ディフューザーと、複数のビームスプリッターと、を備え、前記拡張現実映像は、前記光学レンズと、前記プリズムと、前記ミラーと、前記光学用ディフューザーと、前記ビームスプリッターとを介して、前記ユーザの目に伝達されることを特徴とする請求項記載の拡張現実トレーニングシステム。
  8. 前記頂部カメラと前記底部カメラは、赤外線カメラであることを特徴とする請求項1記載の拡張現実トレーニングシステム。
  9. さらに前記操作空間の下方に設置され、赤外線と可視光を出射する底部発光モジュールを備えることを特徴とする請求項記載の拡張現実トレーニングシステム。
  10. さらに前記操作空間の上方に設置され、赤外線と可視光を出射する頂部発光モジュールを備えることを特徴とする請求項記載の拡張現実トレーニングシステム。
  11. 前記マークは光反射ボールであることを特徴とする請求項10記載の拡張現実トレーニングシステム。
  12. 前記マークは発光ダイオードモジュールであることを特徴とする請求項1記載の拡張現実トレーニングシステム。
  13. さらに前記操作台に隣接して前記操作空間に誘導電界を生成する無線電力伝送モジュールを備えることを特徴とする請求項1記載の拡張現実トレーニングシステム。
  14. 前記手術人体模型は眼球模型を含み、前記眼球模型は、器械が挿入するための人工傷口を有することを特徴とする請求項1記載の拡張現実トレーニングシステム。
  15. 前記眼球模型は、硬底部と、前記硬底部の上に位置する柔軟部とを備え、前記人工傷口は、前記柔軟部に形成されることを特徴とする請求項14記載の拡張現実トレーニングシステム。
  16. 前記仮想映像は仮想瞳孔領域を含むことを特徴とする請求項14記載の拡張現実トレーニングシステム。
  17. 前記トレーニングプログラムは、前記プロセッサによって実行され、前記人工傷口の縁部に警告マークを設置し、前記器械が前記警告マークに接触することを検知すると警告を出すことを特徴とする請求項16記載の拡張現実トレーニングシステム。
  18. 前記トレーニングプログラムは、前記プロセッサによって実行され、以下のトレーニングコースのうち少なくとも1つを提供することを特徴とする請求項16記載の拡張現実トレーニングシステム:
    (i)少なくとも1つの仮想物体を前記仮想瞳孔領域に配置し、前記ユーザが前記トレーニングコースにおいて予定期間内に前記器械を操作する位置を記録し、前記器械の移動範囲を分析することで、前記ユーザが前記器械を使用する際の安定さを評価すること;
    (ii)1つの仮想出発点と複数の仮想物体を前記仮想瞳孔領域に配置し、前記ユーザが前記器械を利用して前記仮想出発点に接触してから高さが異なる複数の前記仮想物体に接触する回数と時間を記録することで、前記ユーザの深度感覚と前記器械の動く速度を評価すること;
    (iii)1つの仮想基準円を前記仮想瞳孔領域に配置し、前記ユーザが描いた仮想追跡曲線と前記仮想基準円を比較して、前記ユーザの円形追跡技能を評価すること;
    (iv)少なくとも1つの仮想物体と1つの仮想目標点を前記仮想瞳孔領域に配置し、前記ユーザが鉗子を利用して前記仮想物体を前記仮想目標点に搬送する時間を記録し、前記ユーザの鉗子の使用技能を評価すること;
    (v)1つの仮想物体と、1つの仮想ガイド曲線と、1つの仮想リリース点とを、前記仮想瞳孔領域に配置し、前記ユーザが鉗子を利用して前記仮想物体を前記仮想ガイド曲線に沿って前記仮想リリース点まで搬送する時間を記録し、前記ユーザの嚢切開技能を評価すること。
JP2019081780A 2018-04-23 2019-04-23 拡張現実トレーニングシステム Active JP6842494B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862661511P 2018-04-23 2018-04-23
US62/661,511 2018-04-23

Publications (2)

Publication Number Publication Date
JP2019207401A JP2019207401A (ja) 2019-12-05
JP6842494B2 true JP6842494B2 (ja) 2021-03-17

Family

ID=66239932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081780A Active JP6842494B2 (ja) 2018-04-23 2019-04-23 拡張現実トレーニングシステム

Country Status (5)

Country Link
US (1) US11373550B2 (ja)
EP (1) EP3561795B1 (ja)
JP (1) JP6842494B2 (ja)
CN (1) CN110390851B (ja)
TW (1) TWI733102B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10890751B2 (en) * 2016-02-05 2021-01-12 Yu-Hsuan Huang Systems and applications for generating augmented reality images
JP7057780B2 (ja) * 2017-11-30 2022-04-20 三井化学株式会社 模擬眼球、眼球手術練習用装置、眼球手術の練習方法
WO2020066892A1 (ja) * 2018-09-28 2020-04-02 三井化学株式会社 模擬強膜、及び模擬眼球
US11328485B2 (en) * 2019-08-23 2022-05-10 Tencent America LLC Method and apparatus for displaying an augmented-reality image corresponding to a microscope view
CN111276032A (zh) * 2020-02-29 2020-06-12 中山大学中山眼科中心 一种虚拟手术训练系统
US11357594B2 (en) 2020-08-07 2022-06-14 Johnson & Johnson Surgical Vision, Inc. Jig assembled on stereoscopic surgical microscope for applying augmented reality techniques to surgical procedures
CN114550525B (zh) * 2020-11-24 2023-09-29 郑州畅想高科股份有限公司 一种基于混合现实技术的机车部件检修实训系统
CN113223342B (zh) * 2021-05-11 2023-06-16 浙江大学医学院附属邵逸夫医院 一种基于虚拟现实技术的手术仪器操作训练系统及其设备
CN113674574B (zh) * 2021-07-05 2023-10-13 河南泊云电子科技股份有限公司 一种增强现实半实物复杂机电设备培训系统
CN113808450B (zh) * 2021-08-20 2023-05-09 北京中电智博科技有限公司 外浮顶油罐模型事故处置训练方法、装置和设备
WO2024003961A1 (en) * 2022-07-01 2024-01-04 Dal Pont Giulia Integrated optical device and related diagnostic imaging method
CN116469289B (zh) * 2023-04-25 2024-02-09 自考人(广东)教育发展集团有限公司 基于虚拟现实的ots培训系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7826641B2 (en) * 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
CN101010700B (zh) * 2004-08-23 2010-05-26 盖姆卡斯特公司 用以观看和操纵虚拟环境的设备、方法和系统
US20080297535A1 (en) * 2007-05-30 2008-12-04 Touch Of Life Technologies Terminal device for presenting an improved virtual environment to a user
US9424761B2 (en) * 2012-01-23 2016-08-23 Virtamed Ag Medical simulation system and method with configurable anatomy model manufacturing
TW201345491A (zh) * 2012-05-04 2013-11-16 Eped Inc 牙科補綴及贗復體數位建檔與製作之方法及其教學訓練
US9563266B2 (en) * 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
TWI576787B (zh) * 2016-02-05 2017-04-01 黃宇軒 擴增實境影像產生系統及其應用
CN105788390A (zh) * 2016-04-29 2016-07-20 吉林医药学院 基于增强现实的医学解剖辅助教学系统
CN106251752A (zh) * 2016-10-25 2016-12-21 深圳市科创数字显示技术有限公司 Ar和vr相结合的医学培训系统
CN106297472A (zh) * 2016-10-25 2017-01-04 深圳市科创数字显示技术有限公司 Ar与vr相结合的眼角膜智能手术培训系统
US10997943B2 (en) * 2018-03-02 2021-05-04 Facebook Technologies, Llc Portable compute case for storing and wirelessly communicating with an eyewear device

Also Published As

Publication number Publication date
JP2019207401A (ja) 2019-12-05
TWI733102B (zh) 2021-07-11
EP3561795A1 (en) 2019-10-30
US11373550B2 (en) 2022-06-28
TW201944366A (zh) 2019-11-16
US20190325785A1 (en) 2019-10-24
EP3561795B1 (en) 2023-04-05
CN110390851A (zh) 2019-10-29
CN110390851B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
JP6842494B2 (ja) 拡張現実トレーニングシステム
JP7182538B2 (ja) 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化
US10108266B2 (en) Haptic augmented and virtual reality system for simulation of surgical procedures
CN110200702B (zh) 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
JP5887026B2 (ja) ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US9595208B2 (en) Trauma training simulator with event-based gesture detection and instrument-motion tracking
JP2023171641A (ja) 視線追跡を使用する医療装置、システム、及び方法
Hunter et al. Ophthalmic microsurgical robot and associated virtual environment
US5766016A (en) Surgical simulator and method for simulating surgical procedure
US20140315174A1 (en) Universal microsurgical simulator
Wheeler et al. Interactive computer-based simulator for training in blade navigation and targeting in myringotomy
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
JP4129527B2 (ja) 仮想手術シミュレーションシステム
Huang et al. CatAR: a novel stereoscopic augmented reality cataract surgery training system with dexterous instruments tracking technology
CN109907835B (zh) 应用红外热成像的一体化外视镜腹腔镜设备
CN207264655U (zh) 基于运动捕捉和混合现实的眼科手术培训系统
JP2020134710A (ja) 手術トレーニング装置
WO2022014203A1 (en) Device, computer program and method
Mukai et al. Development of a PC‐based real‐time surgical simulator
Lee et al. Ophthalmoscopic examination training using virtual reality
Dubois et al. Training simulator for retinal laser photocoagulation: a new approach for surgeons' apprenticeships
TW202310792A (zh) 改善視網膜損傷患者視力的系統與方法
Nowinski The future of imaging in orbital disease
Lee et al. Virtual reality simulation of the ophthalmoscopic examination
Simulator et al. SOPHOCLE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210219

R150 Certificate of patent or registration of utility model

Ref document number: 6842494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250