JP2020515891A - 仮想環境における訓練および共同作業のためのシステムおよび方法 - Google Patents

仮想環境における訓練および共同作業のためのシステムおよび方法 Download PDF

Info

Publication number
JP2020515891A
JP2020515891A JP2019552005A JP2019552005A JP2020515891A JP 2020515891 A JP2020515891 A JP 2020515891A JP 2019552005 A JP2019552005 A JP 2019552005A JP 2019552005 A JP2019552005 A JP 2019552005A JP 2020515891 A JP2020515891 A JP 2020515891A
Authority
JP
Japan
Prior art keywords
head mounted
head
user
mounted displays
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019552005A
Other languages
English (en)
Inventor
ゲリ,アロン,ヤコブ
アヴィサル,モルデチャイ
Original Assignee
サージカル シアター エルエルシー
サージカル シアター エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サージカル シアター エルエルシー, サージカル シアター エルエルシー filed Critical サージカル シアター エルエルシー
Publication of JP2020515891A publication Critical patent/JP2020515891A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0806Configuration setting for initial configuration or provisioning, e.g. plug-and-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

共同作業を支援するためのシステムは、内容物を格納するためのデータベースを含む。このシステムは、複数の頭部搭載ディスプレイをさらに含む。このシステムは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読有形ストレージ装置と、1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納されたプログラムモジュールと、を含むコンピュータサーバを、さらに含む。これらのプログラムモジュールは、データベースから内容物を取得するための第1プログラムモジュールを含む。これらのプログラムモジュールは、複数の頭部搭載ディスプレイに内容物を同期的に送達するための第2プログラムモジュールをさらに含む。これらのプログラムモジュールは、内容物に対する相互作用を表現するデータを受け取るための第3プログラムモジュールをさらに含む。これらのプログラムモジュールは、受け取られた相互作用に基づいて複数の頭部搭載ディスプレイに更新済み内容物を同期的に送達するための第4プログラムモジュールをさらに含む。【選択図】図3

Description

関連出願の相互参照
本願は2017年3月24日に出願された米国仮特許出願整理番号第62/476259号の優先権を主張するものであり、米国仮特許出願整理番号第62/476259号の全体は参照することにより本願に援用される。
本開示は、訓練および共同作業の分野に関し、さらに詳細には、仮想環境における訓練および共同作業のためのシステムおよび方法に関する。
特定の手術手順は複雑であり得、したがって特定的な訓練、大規模な計画、および準備を要求し得る。例えば、脳動脈瘤修復手術などの高リスク手術の過程において、執刀医が動脈瘤エリアにアプローチするために組織を押し、切除するにつれて、脳組織の絶対方向は顕著に変化させられる。さらに、動脈瘤修復などの手術は、動脈瘤エリアに対して一時的に血管をクランプする様々な処置のために、時間的に極めて大きい制約を受ける。したがって、処置の確度および効率は極めて重要であり、患者の特定的な局所的幾何学的形状および動脈瘤の物理的特性に基づく綿密な計画が必須である。
参照することにより本願に組み込まれる米国特許出願第8,311,791号において以前に説明された、手術リハーサルおよび準備ツールは、静的なCTおよびMRI医用画像を、リアルタイムで医療処置をシミュレートするために医師により使用可能である、動的かつ相互作用的な多次元全球形仮想現実6自由度モデル(「MD6DM」)に変換するために、開発された。MD6DMは、医師が全球形仮想現実環境において介入の経験、計画、実施、およびナビゲートを実行することを可能にする、グラフィカルシミュレーション環境を提供する。特にMD6DMは、全容積球形仮想現実モデルにおける6つの自由度(すなわち、並進のx、y、zと、角度のヨー、ピッチ、ロール)を与える、従来の2次元患者医療スキャンから構築された他に類を見ない多次元モデルを使用して、外科医がナビゲートする能力を提供する。
MD6DMは、CT、MRI、DTI、その他を含む患者自身の医用画像のデータセットから構築され、患者固有のものである。Atlasデータなどの代表的な脳モデルは、外科医の希望に応じて、部分的に患者固有のモデルを作るために統合され得る。このモデルはMD6DM上の任意の地点からの360度球形ビューを与える。MD6DMを使用すると、観察者は仮想的に解剖学的組織の内部に位置することとなり、あたかも患者の身体内部に立っているかのように、解剖学的構造および病理学的構造の両方を閲覧および観察することが可能である。観察者は、上下方向および肩越しに見ることなどが可能であり、患者の体内で見られるように正確に互いに対して本来の構造を見るであろう。内部構造間の空間的関係が保存され、MD6DMを使用して評価されることが可能である。
MD6DMのアルゴリズムは、医用画像情報を取り込み、係る医用画像情報を、球形モデルへと、すなわち、解剖学的構造体の内部を「飛行」しながら、任意の角度から観察可能である完全に連続的なリアルタイムモデルへと構築する。特に、CT、MRI、その他が、実際の臓器を取り込み、その取り込み結果を、数千の地点から構築された数百の薄いスライスに分解した後、MD6DMはそれを、内部および外部の両方からそれらの地点の360度ビューを表すことにより、それを3Dモデルに戻す。
複数の医療専門家、学生、および他の関係者が、係る外科訓練および準備に共同作業という形態で参加することは望ましいものとなり得る。上述の手術リハーサルおよび準備ツールなどのツールは、複数の関係者の係る共同作業を効率的かつ効果的に支援する能力は有し得ない。
共同作業を支援するためのシステムは、内容物を格納するためのデータベースを含む。このシステムは、複数の頭部搭載ディスプレイをさらに含む。このシステムは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読有形ストレージ装置と、1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納されたプログラムモジュールと、を含むコンピュータサーバを、さらに含む。これらのプログラムモジュールは、データベースから内容物を取得するための第1プログラムモジュールを含む。これらのプログラムモジュールは、複数の頭部搭載ディスプレイに内容物を同期的に送達するための第2プログラムモジュールをさらに含む。これらのプログラムモジュールは、内容物に対する相互作用を表現するデータを受け取るための第3プログラムモジュールをさらに含む。これらのプログラムモジュールは、受け取られた相互作用に基づいて複数の頭部搭載ディスプレイに更新済み内容物を同期的に送達するための第4プログラムモジュールをさらに含む。
共同作業を支援するための方法は、コンピュータがデータベースから内容物を取得することを含む。この方法は、コンピュータが複数の頭部搭載ディスプレイに同期的に内容物を送達することをさらに含む。これの方法は、コンピュータが、内容物との相互作用を表現するデータを受け取ることをさらに含む。この方法は、コンピュータが、受け取られた相互作用に基づいて複数の頭部搭載ディスプレイに更新済み内容物を同期的に送達することをさらに含む。
共同作業を支援するためのシステムは、複数の頭部搭載ディスプレイを含む。このシステムは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読有形ストレージ装置と、1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納されたプログラムモジュール、すなわちプログラムモジュールと、を含むコンピュータサーバを、さらに含む。これらのプログラムモジュールは、仮想環境を表現するデータ内容物を受け取るための第1プログラムモジュールを含む。これらのプログラムモジュールは、複数の頭部搭載ディスプレイに内容物を同期的に送達するための第2プログラムモジュールをさらに含む。これらのプログラムモジュールは、仮想環境における運動を表現するデータを受け取るための第3プログラムモジュールを含む。これらのプログラムモジュールは、運動に関連付けられた仮想環境のビューの更新済みパースペクティブに基づいて複数の頭部搭載ディスプレイに更新済み内容物を同期的に送達するための第4プログラムモジュールをさらに含む。
添付の図面では、以下で提供される詳細な説明とともに、請求される発明の典型的な実施形態を説明する構造が図示される。同様の要素は、同じ参照番号を用いて特定される。単一の構成要素として示される要素は、複数の構成要素と置き換えられ得ること、および複数の構成要素として示される要素は単一の構成要素と置き換えられ得ること、が理解されるべきである。これらの図面は必ずしも縮尺が一定であるとはかぎらず、特定の要素の比率は例示目的のために誇張される場合がある。
例示的な仮想スタジアムシステムを示す図である。 例示的な仮想SNAPコンピュータを示す図である。 例示的な仮想スタジアムシステムを示す図である。 例示的な仮想スタジアムにおける例示的な仮想手術室を示す図である。 例示的な仮想スタジアムシステムを示す図である。 例示的な仮想スタジアムシステムを示す図である。 例示的な仮想3Dモデルディスプレイを示す図である。
以下の頭文字および定義は、詳細な説明を理解する上での一助となるであろう。
AR−拡張現実−要素が音、ビデオ、またはグラフィックなどのコンピュータにより生成された感覚要素により強化された物理的かつ現実世界の環境のライブビュー。
VR−仮想現実−様々な度合いにおいて人により調査および相互作用されることが可能である3次元のコンピュータにより生成された環境。
HMD−頭部搭載ディスプレイは、ARまたはVRの環境において使用が可能であるヘッドセットを指す。これは有線式またはワイヤレス式であり得る。HMDは、ヘッドフォン、マイクロフォン、HDカメラ、赤外線カメラ、ハンドトラッカー、ポジショントラッカー、その他などの1つまたは複数のアドオンも含み得る。
コントローラ−ボタンおよび方向コントローラを有する装置。これは有線式またはワイヤレス式であり得る。この装置の例としては、Xboxゲームパッド、PlayStationゲームパッド、オキュラスタッチ、その他が挙げられる。
SNAPケース−SNAPは、DICOMファイルフォーマットにおいて患者の1つまたは複数のスキャン(CT、MR、fMR、DTI、その他)を使用して作られた3Dテクスチャまたは3Dオブジェクトを指す。これは、3Dテクスチャにおいて特定範囲にフィルタ処理を施し、他の範囲に着色を施すためのセグメント化の異なるプリセットも含む。これは、対象となる特定の地点または解剖学的組織をマークするための3D形状、3Dラベル、3D測定マーカ、案内のための3D矢印、および3D手術ツールを含む、シーン内に配置される3Dオブジェクトも含み得る。手術ツールおよび装置は、教育および患者固有のリハーサルのために、特に、動脈瘤クリップの寸法を適切に決定するために、モデル化されてきた。
アヴァター−アヴァターは仮想環境内のユーザを表す。
MD6DM−多次元全球形仮想現実6自由度モデル。これは、医師が全球形仮想現実環境において介入の経験、計画、実施、およびナビゲーションを実行することを可能にする、グラフィカルシミュレーション環境を提供する。
仮想環境における訓練および共同作業を支援するためのシステムおよび方法が本明細書で説明される。このシステムは、複数のユーザ(指導員および参加者を含む)が、仮想環境内の多様な種類の内容物とリアルタイムで相互作用することを可能にする。内容物は、例えば、患者全身の3Dモデル、臓器の3Dモデル、仮想手術室、および仮想ライブラリを含み得る。指導員は例えば、3D患者モデルの周囲を移動し、患者の3D身体の内部に進入し、より細かく検査するために3Dモデル臓器を取り上げ、仮想手術室の周囲を移動し、仮想手術室の内部において仮想手術手順を実施し、または、仮想ライブラリにおける内容物に対して関与し得る。指導員が内容物をナビゲートするにつれて、参加者が指導員に随行して、学習および共同作業することが可能となるよう、参加者には、指導員に対して同期的に同一の内容物が示される。参加者は、各参加者が、指導員および他の参加者とともに依然として随行している間に、一意的かつ個人的なパースペクティブおよび経験を有することができ得るよう、個々のアヴァターとして表現されて、内容物の周囲および内容物の内部の移動に関してある程度の自律性が与えられ得る。指導員は、訓練および共同作業セッションの間に、覚え書きを書き、図面を追加し、可聴注解を提供するなどを行い得、参加者はこれらをリアルタイムで見ることが可能である。
訓練および共同作業のための仮想環境(以後、「仮想スタジアム」または「VRスタジアム」と呼ぶ)114を可能にする仮想スタジアムシステム100が図1に示されている。仮想スタジアム114は、指導員ならびに相互から学習するために、さらには特定問題を解決するために共同作業するためにも、複数の人が仮想スタジアム114内で相互作用することを可能にする。例えば医師または他の指導員は特定の医療処置に関してユーザを訓練するために仮想スタジアム100内の学生と相互作用し得る。医師は、患者の治療に関して共同作業するために、仮想スタジアム100内の他の医師または他の専門医とも相互作用し得る。
VRスタジアムシステム100は、VRスタジアム114を生成し支援するハードウェア上で実行可能であるハードウェアおよび専用ソフトウェアを含むVRスタジアムサーバ102を含む。特にVRスタジアムサーバ102は、HMD104を介して、1名または複数名のユーザ106a〜106g(以後、ユーザ106と呼ぶ)に内容物を送達するために、および、ユーザ106からデータを受け取るために、1つまたは複数の頭部搭載ディスプレイ104a〜104g(以後「HMD」104と呼ぶ)と通信する。VRスタジアムサーバ102は、HMD104に送達するために、VRスタジアムデータベース108から内容物を取得する。
VRスタジアムデータベース108から取得された内容物が、多様な種類の医療状態および手順に関して訓練および共同作業を実施するための任意の好適な種類の内容物を含み得ることは、理解されるべきである。この内容物は、例えば2010年10月19日に出願され、かつ、参照することにより本願に援用される米国特許第8,311,791号に記載の医療撮像手順を介して、1名または複数名の特定患者から取得された臓器または他の組織の画像および医療パラメータを含み得る。同特許では、特定患者の医用画像(例えばCTスキャン、MRI、X線、その他)が、隣接組織およびあらゆる欠陥とともに当該特定患者の実際の臓器の実形状画像に変換されることが説明されている。この内容物は、患者において実際の医療処置を実施するために医師により使用される実際の手術ツールまたは他の医療ツールの画像およびパラメータも含み得る。特に、内容物がHDM104に送達されると、ユーザ106のグループは、全員が同一の仮想スタジアム114内に入り込んでいる間、可視化し、議論し、入力を提供し、フィードバックを受け取り、相互から学習し得る。
1つの事例では、指導員106gなどの首席ユーザまたは先導ユーザは、議論または訓練のセッションを先導するために、送達された内容物と相互作用すること、および送達された内容物を通してナビゲートすること、に関する制御を与えられ得る。係る事例では、他のユーザ106の全員はHDM104を介して指導員106gと同一のパースペクティブから同一の内容物を見る。指導員106gは、仮想内容物を通してナビゲートするために指導員106gが使用するハンドヘルド型コントローラ110を有する。指導員106gが、仮想内容物および仮想オブジェクトをナビゲートおよび操作するために、ジェスチャを使用して、または任意の他の好適な手段を使用して、仮想内容物を通してナビゲートし得ることも理解すべきである。指導員以外のユーザ106は(ユーザ106の一部または全員は指導員106gから遠隔位置にあり得る(例えば、別室にいる場合もあり、さらには他の地理学的場所にいる場合さえあり、または、多様な位置にいる場合もある))は、指導員106gがそこを通してナビゲートする内容物に沿って随行し、係る内容物を見る。指導員は、ハンドヘルド型コントローラ110を使用して、注釈、マーク、図面、その他を作成してもよく、その場合、他のユーザ106も、それぞれのHDM104を介して、それらを閲覧するであろう。VRスタジアムサーバ102は、各ユーザ106が、指導員106gが見ているのと同時に同一の内容物(任意の注釈、マーク、その他を含む)を見ることが保証されるよう、各HDM104に送達される内容物を同期する。
1つの事例では、各ユーザ106は、自分自身のコントローラ(図示せず)を有し得る。係る事例では、ユーザ106は、仮想スタジアム114の周囲を自由に移動する自律性を有し得る。1つの事例では、ユーザ106は仮想スタジアム114の周囲を移動し得るが、指導員106gにより課せられた制限に基づいて特定の機能または内容物に制限され得る。例えば、指導員106gは、指導員106gが最初に仮想スタジアム114内の特定の仮想内容物にナビゲートした後に同一の仮想内容物にナビゲートする許可をユーザに与え得る。
他の事例では、ユーザ106が、他のユーザ106と共有するために、テキストおよび/または図面を、および/またはグラフィック画像を、含み得る注釈作成し得、このことは、共同作業および学習をさらに支援し得る。1つの事例では、指導員106gは、ユーザ106が共有し得る注釈および入力の種類を制限してもよく、または、係る注釈および入力が共有され得るタイミングを制限してもよい。例えば、指導員は、指導員106gが話し終わって入力または質問を求めたときにのみ、ユーザ106が自分自身のコントローラ(図示せず)を介して注釈などの入力を形成するよう、制限してもよい。指導員106gは、特定ユーザ106からの入力が、他の全ユーザ106の内容物と即時に同期され、全HDM104に送達されることを許可することを選択してもよく、または、指導員106gは、係る入力が指導員106g自身のHDM104gのみに送達されることを選択してもよい。VRスタジアムサーバ102は、任意の適切なルールおよび制限を実装し、それにしたがって各HDM104に送達される内容物を同期するよう機能する。
仮想スタジアムシステム100が、仮想スタジアム114内におけるナビゲーションを可能にするための、および、入力およびフィードバックを提供するための、他の特徴を含み得ることを理解すべきである。例えば、仮想スタジアム114を通してナビゲートするためのコントローラ110について説明したが、1つの例示的な仮想スタジアムシステム100はユーザ106の移動を追跡するためのセンサ(図示せず)を含み得る。例えば、HDM104上に配置された1つまたは複数のセンサは、ユーザ106の頭部の移動を追跡し、係る移動をVRスタジアムサーバ102に通信し得る。次に、VRスタジアムサーバ102は係るセンサ情報を使用して仮想内容物がそれぞれのHDM104に送達されることを判定する。他の事例では、物理的空間の内部に配置されたセンサがユーザ106の物理的移動を追跡し、係る情報をVRスタジアムサーバ102に通信し、次にそれにしたがってVRスタジアムサーバ102が仮想内容物ユーザ106のHDM104に送達してもよい。
1つの事例では、VRスタジアムシステム100は、ユーザ106が可聴フィードバックをスタジアムサーバ102に提供することを可能にするマイクロフォン(図示せず)をさらに含み得、次に、係る可聴フィードバックは、他のユーザ106と共有され、分散された仮想内容物と同期され得る。これらの可聴録音は将来の再生のために電子的に記録され得る。
VRスタジアム100は、HDM104gを介して指導員106gにより経験された内容物を表示するためのディスプレイ112bをさらに含む。したがって、HDM104に対するアクセスを有し得ない追加的ユーザも、依然として内容物を見て、1つまたは複数のディスプレイ112bを介して、随行および参加し得る。ディスプレイ112が、指導員106gの物理的近傍内に、または遠隔位置に、配置され得ることが理解されるべきである。
VRスタジアムサーバ102が、ワイヤレス(例えばWiFiもしくはBluetoothなどにより)で、または、有線接続(例えばイーサネットなど)を介して、HDM104、コントローラ110、ディスプレイ112、および、他の好適な構成要素と通信し得ることが理解されるべきである。
例示的なVRスタジアムシステム100が特に医療分野における訓練および共同作業に関して説明され得るが、VRスタジアムシステム100が同様に、多様な種類の職業人の訓練および共同作業を可能にするために、他の分野においても使用され得ることが理解されるべきである。
1つの事例では、VRスタジアムサーバ102はVRスタジアム114内に仮想コンピュータ(図示せず)を提供し得る。指導員106gは、その仮想コンピュータにナビゲートし、ローカル位置または遠隔位置にあるデータベースまたは他のコンピュータシステムにより提供され得る仮想ライブラリ(図示せず)を閲覧し得るこのライブラリは、訓練目的のためにVRスタジアムデータベース108から取得されることが可能である事前構築されたSNAPケースなどの多様な種類の格納された内容物を含み得る。例えば、指導員106gは、他のユーザ106とともに閲覧および討論するために、仮想コンピュータにナビゲートし、仮想ライブラリを開き、特定のSNAPケースを選択し得る。指導員116gは、例えば特定の教示セッションの準備のために、SNAPケース内で注釈を作成し、または必要に応じてSNAPケースを編集し得る。図2には、仮想スタジアム114内の仮想ディスプレイ202上に表示するための例示的なSNAPケースをロードするために使用される例示的な仮想SNAPコンピュータ200が示されている。
1つの事例では、訓練セッションは、VRスタジアムサーバ102により記録され、後に取得するためにVRスタジアムデータベース108に格納され得る。例えば指導員106gは、2つの別個のグループのユーザ106と、異なる時間において、さらには異なる場所においてさえ、同一のSNAPケースを精査することを希望し、第1回目を提示する際に作製されたものと同一の注釈、マークアップ、可聴録音、その他を第2の提示の際に再利用することを希望する場合もあり、その一方で、追加的な提示において追加的な注釈、および/または聴覚録音を開発する場合もある。所望に応じて、それらも記録され得る。係る提示は、所望により任意回数反復され得る。したがって指導員106gは、仮想コンピュータ200にナビゲートし、記録されたセッションを取得し、次いで、同一のセッションを使用して、第2、第3、または他のグループの訓練を開始し得る。
1つの事例では、図3において図示されているように、VRスタジアムシステム100は、処置をシミュレートするために指導員106gにより使用されることが可能である1つまたは複数のツール302を含む。ツール302は、物理的世界においてツール302を使用して指導員106gにより実行された移動または活動を、VRスタジアム114内における同一または同様の移動または活動に、変換するためにVRスタジアムサーバ102と通信する。係るツール302は実際の医療ツール(例えば手術ツールなど)であり得る。係る医療ツールは、例えば、システム100と通信するよう変更されたものであり得る。1つの事例では、ユーザ106の全員は、同一の移動または活動の実行を学習および訓練するために、同一のツールが与えられてもよく、またはユーザ106は同一のツール106を順番に使用してもよい。1つの事例では、VRスタジアムサーバ102は、ツール302の移動および活動を、SNAPケースに基づいてVRスタジアムサーバ102により生成されたMD6DMモデル内の仮想的な移動および活動に、変換する。他の事例では、VRスタジアムサーバ102は、図4において示される仮想手術室400を生成する。仮想手術室400は、VRスタジアム114内でナビゲートされること、および、訓練および共同作業のために相互作用されること、が可能である。例えば、仮想スタジアム114内に入った後、指導員106gは、仮想手術室400内の仮想患者ベッド402にユーザ106を誘導し得、仮想患者ベッド402において指導員106gは仮想患者(図示せず)に対して医療処置をリアルタイムで実演し得る。さらに詳細には、指導員が、ツール302とともに特定の移動または活動をなすと、係る移動または活動は、VRスタジアムサーバ102により、仮想手術室400内の対応する仮想的な移動または活動に変換され得る。次にユーザ106はHDM104を介して観察し、指導員106gから学習し、いくつかの場合では、仮想医療処置に参加し得る。ツール106の仮想表現はシステム100のディスプレイ上に提供され得る。
1つの事例では、ユーザ106は、仮想手術室の特定のビューおよびパースペクティブに制限され、指導員106gにより閲覧されるものと同一のパースペクティブに沿ってのみ随行し得る。他の事例では、ユーザ106は、仮想手術室のビューの、および、仮想患者ベッド402上に横たわる仮想患者の、自分のパースペクティブを自由に変更し得る。例えば、コントローラ110を介して、または運動センサを介して、VRスタジアムサーバ102は移動を検出し得、次に、その移動を仮想手術室400内の対応する移動に変換し得る。したがって指導員が仮想医療処置を実施する間、ユーザ106が他の角度からの閲覧が有益かつ教育的であると考えた場合には、ユーザ106は、患者の反対側面まで歩き、実施されている処置を異なる角度から閲覧し得る。
1つの事例では、ユーザ106は、ユーザ106が他のユーザ106の移動を視覚化することが可能となり、それにより、さらなる相互作用および共同作業が可能となり得るよう、VRスタジアム114内のアヴァターにより表され得る。
ユーザ106は全員が仮想スタジアム114に参加するために同一の部屋または物理的位置にいてもよく、またはいなくてもよいことが理解されるべきである。例えば、図5において示されているように、1名または複数名のユーザ506は遠隔位置502に物理的にいて、遠隔HDM504を使用することにより仮想スタジアム114内の訓練セッションまたは共同作業セッションに参加し得る。遠隔HDM504は、例えば内容物を取得し、他のHDM104と同期するために、インターネット508を介してVRスタジアムサーバ102と通信し得る。したがって、遠隔ユーザ506は、まさに他のユーザ106と同一の内容物を見て、訓練セッションまたは共同作業セッションに参加し得る。1つの事例では、遠隔HDM506は、ローカルの計算装置またはサーバ510と通信し得、次にサーバ510はVRスタジアムサーバ102と通信し得る。1つの事例では、これらユーザの全員は指導員106gの物理的位置とは異なる物理的位置に配置され得る。
1つの事例では、図6において示されているように、VRスタジアムシステム100はインターネット508を介して遠隔病院602に対する接続を有する。特にVRスタジアムサーバ102は、遠隔病院602内の物理的手術室内からのライブリアルタイムフィードを受け取る。次にライブリアルタイムフィードは仮想スタジアム114内のHDM104を介して仮想スタジアムサーバ102によりユーザ106に提示される。したがって指導員106gは、手術室内部の貴重な空間を占めることなく、教育目的のために実施中の処置の詳細をユーザ106とともに閲覧し討論し得る。加えて、異なる部屋、異なる建物、さらに異なる地理学的位置(例えば異なる州、さらには異なる国など)にさえいる、1名または複数名の遠隔ユーザ506も、仮想スタジアムシステム100を利用して、病院602に物理的に存在し、医療処置を実施している医師に対して案内および支持を提供し得る。したがって、リアルタイム共同作業が、様々な物理的位置にいる数名の医療専門家の間で促進され、それにより、多数の異なる位置に物理的に存在し得る専門家間の共同作業が可能となる。
病院602からのライブデータフィードは、例えば患者に配置された内視鏡からキャプチャされたリアルタイムビデオフィードであり得る。このライブデータフィードは、HDM104を装着し、かつ、遠隔病院602に配置されたSNAPコンピュータ(図示せず)を介して仮想MD6DMモデルをナビゲートする、遠隔病院602に位置する医師のパースペクティブからのVRフィードまたはARフィードも含み得る。
1つの事例では、ユーザ106は多様な3Dモデルと相互作用し得る。例えば図7において示されているように、VRスタジアム114は仮想3Dモデルディスプレイ700を含み得る。なお、この仮想3Dモデルディスプレイ700では、ユーザ106は、多様な3Dモデルまでナビゲートまたは歩いて行くこと、係る3Dモデルを拾い上げること、係る3Dモデルを回転させること、係る3Dモデルを異なる角度から調査すること、および、係る3Dモデルから学習すること、を実行し得る。1つの事例では、これらの3Dモデルは、SNAPケースからエクスポートされ得、患者固有であり得、より早い時刻において発生したものであり得る医療撮像手順を使用して得られた臓器または他の組織の画像を含み得る。他の事例では、これらの3Dモデルは、特定の患者には当てはまらない全般的なモデルであり得る。例示的な3Dモデルディスプレイ700は、頭部702、動脈瘤704、腫瘍706、皮質708、DTIトラクト710ならびに712を含む。図示された例示的な3Dモデルディスプレイ700が特定セットの3Dモデルを含むが、3Dモデルディスプレイ700が、特定患者に、または、特定患者に基づかない全般的なモデルに、基づいたものであり得る、任意の好適な個数および種類の3Dモデルを含み得ることが理解されるべきである。
特定患者に関しては、当該患者の臓器および組織の3Dモデルは、結果的に生成される3Dモデルが、当該の特定患者の実際の組織および臓器の構造を反映するよう、当該の特定患者に対して実施された医用画像から生成される。それにより、あたかも当該の特定患者に対してこれらの処置が実施されているかのように、医療処置のシミュレーションを実施することが可能である。
上記の説明は、複数名のユーザが遠隔位置からログインしアヴァターとしてVRスタジアム114に進入する具体例のシナリオを参照することでさらに理解され得る。内部に進入した後、これらのユーザは、3Dモデルディスプレイ700までナビゲートし、相互作用するモデルを選択し得る。ユーザは、モデルと相互作用するための1つまたは複数の仮想ツールも選択し得る。実際の医療ツールに基づくものであり得る係るツールは、システムと通信し得、ツールの仮想表現として表現され得る。例えば図8において示されているように、ユーザは、仮想ツール802または仮想ハンドを使用して相互作用するための腫瘍モデル706を選択し得る。仮想ハンド802は、例えば移動を追跡するためのセンサまたは他の類似した装置を使用して、現実世界の人間ジェスチャにより制御され得る。他の事例では、仮想ハンド802はコントローラ804により制御され得る。例示的なシナリオが特定のモデルを参照して説明され得るが、ユーザが、VRスタジアム114内における多様な種類の手術手順に対する準備において、多様な種類のモデルと相互作用しうることが、理解されるべきである。例えばVRスタジアム114は、動脈瘤または脳腫瘍、身体の他の部分、すなわち脊髄、心臓、その他における腫瘍などの、頭脳に関する手術手順を準備することと、係る手術手順を実施するよう訓練することと、の関連において使用され得る。
3Dモデルが選択された後、ユーザは、モデルをVRスタジアム114内部で移動させること、回転させること、その他により、当該モデルと相互作用し得る。これらのユーザのうちの1名のユーザ(例えば指導員)がモデルと相互作用する間、その他のユーザは、その相互作用を観察し、モデルの周囲を移動し得る。1つの事例では、遠隔ユーザは、交替しながらモデルと相互作用し、その一方で、他のユーザはその相互作用を観察し得る。このようにして仮想的な共同作業環境が支援される。モデルとの相互作用は、例えば、モデルを他のユーザに説明すること、質疑応答すること、測定すること、モデルに注釈を加えること、および手術デモンストレーションを実施することを含み得る。これらのうちの任意は、将来の再生のために記録され得る。相互作用が、現実世界のジェスチャまたは動作をVRスタジアム114内の仮想活動に変換するための他の利用可能な入力ツールを使用することにより支援され得ることが、理解されるべきである。
1つの事例では、ユーザは、図9において示されているようにアヴァター902とともにモデル902の内部に行きモデル902の内部を探索することにより、選択されたモデルとさらに相互作用し得る。したがって指導員は、モデル902の非常に特定的な内部エリアに対してズームインして、はるかに近接した状態でフォーカスし、その一方で、ユーザに対して、それぞれのアヴァター902を用いて係る内部の周囲をナビゲートし、それぞれの選択したパースペクティブから観察する機会を、与え得る。
他の事例では、ユーザは、患者の臓器または他の組織に相互作用するためのデータベースに格納されたツールライブラリから選択された1つまたは複数の仮想ツールを使用することにより、選択されたモデルと相互作用し得る。これらの仮想ツールは、システムと通信する実際の医療ツールの表現であり得る。なお、これらの仮想ツールは、ユーザが、自分の仮想表現を仮想空間において同様に反応させるために、実際の空間で操作する。組織モデルに対するツールの相互作用は、’791特許において説明されているようにリアルな様式で実施される。それにより、実際の医療処置をリアルにシミュレートするために、ユーザツール(例えば手術ツール、プローブ、埋入可能な医療装置、その他)のツールモデルが、組織のリアルの動的画像と動的に相互作用し、入力インターフェースに対するユーザ入力が、組織および臓器のリアルな画像と動的に相互作用することが示されるリアルなユーザツール画像を動的に操作するために使用されることが、示される(例えば、実際の特定患者の組織および臓器を反映するシミュレートされた組織および臓器に対するユーザ入力など)。このようにして、実施される、または特定患者に対して実施されるべき、医療処置のシミュレーションは、例えば、訓練、準備、または教育目的のためにシミュレートされ得る。
仮想3Dモデルとの相互作用を補足するために、ユーザは、図10において示されているように、腫瘍などの特定のケースに関する特定のライブラリ資源1002にアクセスし得る。ライブラリ資源は、ビデオ、書籍、定期刊行物、可聴録音、その他を含み得、これらのライブラリ資源は、3Dモデルに対する調査および研究に対して同時に、または並行して、ユーザのグループ間で仮想的に精査および研究され得る。1つの事例では、ユーザは、ライブラリから、事前構築されたSNAPケースも取得し、VRスタジアム114内の仮想ディスプレイ1104上に表示するために仮想コンピュータ1102上にロードし得る。
3Dモデルおよびライブラリ資源を使用して準備を完了した後、ユーザは、手術に対する追加的な教育および準備のために、それぞれのアヴァターを介して、仮想スタジアム114内の仮想手術室1202へとナビゲートし得る。特に、仮想手術室1302内部に入った後、ユーザまたはユーザのグループは、ユーザまたはユーザのグループが仮想患者に対して3Dモデルおよびライブラリ資源を使用して準備してきた仮想手術手順を実施し得る。追加的ユーザは仮想手術室1302内の仮想手術手順を観察し得る。ユーザは、360度ビューおよび仮想患者に対するアクセスを有し、したがって手術手順を実施または観察するために患者の周囲をナビゲートすることが可能である。ユーザは、たとえユーザの全員が様々な遠隔位置に分散されていたとしても、あたかもユーザの全員が同一の物理的な手術室にいるかのように、例えば個々のマイクロフォンを使用して仮想的に相互に話し得、仮想手術室1302の内部で共同作業し得る。仮想手術室1302が、仮想手術手順の間にユーザが相互作用し得る、ユーザが物理的世界の手術室において見慣れ、かつ使用し馴れている、様々な仮想機器(SNAPコンピュータを、および、事前構築されたSNAPケースを表示するためのディスプレイを、含む)を含み得ることを、さらに理解されるべきである。
手術手順に対する準備が完了した後も、遠隔ユーザは、たとえ様々な遠隔位置に存在していたとしても、実際の手術手順が実施される間に仮想的に存在するために、仮想スタジアム114を依然として活用して得る。ユーザはVRスタジアム114に遠隔的にログインし、それぞれのアヴァターを介して、手術手順がその中で実施されている物理的手術室の内部の複数の位置から流されるリアルタイム360度ビデオおよび可聴フィードにアクセスする。したがって遠隔ユーザは、あたかも自分自身が手術室内に物理的に存在しているかのように、物理的手術室に存在する医師および他の医療専門スタッフを観察することが可能であり、さらには係る医師および他の医療専門スタッフとともに共同作業し、係る医師および他の医療専門スタッフを支援することさえ可能である。
VRスタジアムシステム100内で通信される全データ、および外部の病院602と通信される全データは、不正アクセスを防止するため、および、それぞれの国の該当する政府規制を満足するために、暗号化されることが可能であり、例えばHIPPAに準拠し得ることが理解されるべきである。
図14は、図1、図3、図5、および図6の例示的なAVRスタジアムサーバ102を実装するための例示的なコンピュータを示す概略図である。例示的なコンピュータ1400は、ラップトップ、デスクトップ、ハンドヘルド型コンピュータ、タブレットコンピュータ、スマートフォン、サーバ、および他の同様の種類の計算装置を含む、様々な形態のデジタルコンピュータを表すことを意図したものである。コンピュータ1400は、プロセッサ1402と、メモリ1404と、ストレージ装置1406と、バス1412を介してインターフェース1410により動作可能に接続される通信ポート1408と、を含む。
[0001]プロセッサ1402は、コンピュータ800内で実行するためにメモリ1404を介して命令を処理する。例示的な実施形態では、複数のメモリとともに複数のプロセッサが使用され得る。
[0002]メモリ1404は揮発性メモリであってもよく、または不揮発性メモリであってもよい。メモリ1404は、磁気ディスクまたは光ディスクなどのコンピュータ可読媒体であり得る。ストレージ装置1406は、フロッピディスク装置、ハードディスク装置、光ディスク装置、テープ装置、フラッシュメモリ、位相変化メモリ、または他の同様のソリッドステートメモリデバイスなどのコンピュータ可読媒体であってもよく、または、他の構成のストレージエリアネットワーク内の装置を含む、装置のアレイであってもよい。コンピュータプログラム製品は、メモリ1404またはストレージ装置1406などのコンピュータ可読媒体において有形の形態で具体化され得る。
[0003]コンピュータ1400は、ディスプレイ1414、プリンタ1416、スキャナ1418、およびマウス1420などの、1つまたは複数の入力装置および出力装置に接続され得る。
当業者により理解されるであろうように、例示的な実施形態は、方法、システム、コンピュータプログラム製品、またはこれらの組み合わせとして具体化され、またはこれらを全般的に利用し得る。したがって、これらの実施形態のうちの任意の実施形態は、コンピュータハードウェア上で実行するためにストレージ装置に格納された実行可能命令を含む専用ソフトウェアの形態を取り得る。なお、ソフトウェアは、媒体において具体化されたコンピュータ使用可能プログラムコードを有するコンピュータ使用可能ストレージ媒体上に格納され得る。
データベースは、開示されたサーバ上でまたは追加的なコンピュータサーバ上で動作し得るMySQLなどのオープンソースソリューションまたはMicrosoft SQLのようなクローズドソリューションなどの市販のコンピュータアプリケーションを使用して実装され得る。データベースは、上記で開示した例示的な実施形態に対して使用されるデータ、モデル、およびモデルパラメータを格納するためにリレーショナルまたはオブジェクト指向のパラダイムを利用し得る。係るデータベースは、本明細書で開示されるように専用適用可能性のために既知のデータベースプログラミング技術を使用してカスタマイズされ得る。
任意の好適なコンピュータ使用可能(コンピュータ可読)媒体は、実行可能命令を含むソフトウェアを格納するために利用され得る。コンピュータ使用可能媒体またはコンピュータ可読媒体は、例えば、電子、磁気、光、電磁、赤外線、または半導体のシステム、装置、デバイス、または伝搬媒体であり得るが、これらに限定されない。コンピュータ可読媒体のさらなる具体例(非網羅的一覧)は、1つまたは複数のワイヤを有する電気連結部、有形媒体(例えば、ポータブル型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブル・リード・オンリー・メモリ(EPROMまたはフラッシュメモリ)、コンパクトディスク・リード・オンリー・メモリ(CDROM)、または他の有形の光もしくは磁気記憶装置など)、またはインターネットまたはイントラネットをサポートする媒体などの伝送媒体を含み得る。
本明細書の文脈において、コンピュータ使用可能媒体またはコンピュータ可読媒体は、1つまたは複数のプログラム可能または専用のプロセッサ/コントローラ(単数または複数)を含む任意の好適なコンピュータ(またはコンピュータシステム)を含み得る、命令実行システム、プラットフォーム、装置、またはデバイスにより使用されるための、または、係る命令実行システム、プラットフォーム、装置、またはデバイスと通信する、プログラム命令を、含む、格納する、通信する、伝搬する、または輸送することが可能である、任意の媒体であり得る。コンピュータ使用可能媒体は、ベースバンドにおいて、またはキャリア波の一部として、それとともに埋め込まれたコンピュータ使用可能プログラムコードを有する、伝搬されたデータ信号を含み得る。コンピュータ使用可能プログラムコードは、インターネット、ワイヤライン、光ファイバケーブル、ローカル通信バス、無線周波数(RF)または他の手段を含み得るがこれらに限定されない任意の好適な媒体を使用して伝送され得る。
例示的な実施形態の動作を実行するための実行可能命令を有するコンピュータプログラムコードは、インタープリタ型またはイベントドリブン型の言語(例えばBASIC、Lisp、VBA、もしくはVBScript、またはvisual basicなどのGUI具体化)、コンパイル型のプログラム言語(例えばFORTRAN、COBOL、またはPascalなど)、オブジェクト指向、スクリプト型、または非スクリプト型の言語(例えばJava、JavaScript、Perl、Smalltalk、C++、Object Pascal、その他など)、人工知能言語(例えばPrologなど)、リアルタイム埋め込み言語(例えばAdaなど)、またはさらには、ラダーロジックを使用する、より直接的または簡略化されたプログラミング、アセンブラ言語、または、適切な機械語を使用する直接的プログラミングさえを含むがこれらに限定されない任意のコンピュータ言語を使用して従来の手段により書かれ得る。
「含む」または「含んでいる」という用語が本明細書または請求項において使用されるかぎりにおいて、この用語は、使用されるときには、請求項における移行句として解釈されるため、「包含する」という用語と同様に包括的であることが意図される。さらに、「または」という用語が使用される(例えばAまたはB)かぎりでは、この用語は「AまたはBまたはその両者」を意味することが意図される。出願者が「AまたはBのいずれかであって、両方ではない」を示すことを意図する場合、「AまたはBのいずれかであって、両方ではない」という用語が使用されるであろう。したがって本開示における「または」という用語の使用は、包括的な用法であって、排他的な用法ではない。Bryan A. Garner, A Dictionary of Modern Legal Usage 624 (2d. Ed. 1995)を参照されたい。「〜における」または「〜に」という用語が本明細書または請求項において使用されるかぎりでは、この用語は「〜の上」または「〜の上に」を追加的に意味することが意図される。さらに、「接続する」という用語が本明細書または請求項において使用されるかぎりでは、この用語は、「〜に直接的に接続する」ことを意味するのみではなく、「〜に対して間接的に接続する」(例えば他の構成要素(単数または複数)を通して接続する)も意味することが意図される。
本願について本願の様々な実施形態を説明することにより例示してきたが、また、様々な実施形態についてかなり詳細に説明してきたが、添付の請求項の範囲を係る詳細に、限定またはいかなる方法においても制限することは、出願者の意図するところではない。追加的な利点および変更は当業者には明らかとなるであろう。したがって本願は、その広範な態様において、図示および説明された、特定の詳細、代表的な装置ならびに方法、および具体例に限定されない。したがって、出願者の全般的な発明概念の趣旨または範囲からそれることなく、係る詳細からの逸脱が可能である。

Claims (49)

  1. 共同作業を支援するためのシステムであって、
    複数名の患者に対応する複数の仮想3次元解剖学的モデルを表現する内容物を格納するためのデータベースと、
    先導者頭部搭載ディスプレイおよび複数の参加者頭部搭載ディスプレイを含む、複数の頭部搭載ディスプレイと、
    1つまたは複数のプロセッサ、1つまたは複数のコンピュータ可読有形ストレージ装置、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるための、前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納されたプログラムモジュールを含むコンピュータサーバであって、前記プログラムモジュールは、
    前記複数の前記仮想3次元解剖学的モデルのうちの対応する1つの仮想3次元解剖学的モデルを、前記複数名の患者のうちの1名の患者に対する共同作業を始動する要求に応答して、前記データベースから選択するための、第1プログラムモジュール、
    前記選択された仮想3次元解剖学的モデルを表現する内容物を、前記複数の頭部搭載ディスプレイに同期的に送達するための、第2プログラムモジュール、
    前記仮想3次元解剖学的モデルとの相互作用であって、前記先導者頭部搭載ディスプレイに関連付けられた相互作用を表現するデータを受け取るための第3プログラムモジュール、および
    前記受け取られた相互作用に基づいて、更新済み内容物を前記複数の頭部搭載ディスプレイに同期的に送達するための、第4プログラムモジュール
    を含む、コンピュータサーバと
    を含む、システム。
  2. 前記内容物は仮想医療ライブラリおよび仮想手術室のうちの少なくとも1つをさらに含み、前記第3プログラムモジュールは、前記仮想医療ライブラリおよび前記仮想手術室のうちの少なくとも1つとの相互作用を表現するデータをさらに受け取る、請求項1に記載のシステム。
  3. 前記頭部搭載ディスプレイのうちの少なくとも1つの頭部搭載ディスプレイは遠隔に配置された頭部搭載ディスプレイを含む、請求項1〜請求項2のうちのいずれかに記載のシステム。
  4. 前記第3プログラムモジュールは、前記先導者頭部搭載ディスプレイに関連付けられた前記相互作用であって、前記仮想3次元解剖学的モデルに対する移動を表現する前記相互作用を表現するデータをコントローラから受け取り、それにより、前記移動に関連付けられた前記仮想3次元解剖学的モデルの更新済みパースペクティブビューに基づいて、更新済み内容物を前記先導者頭部搭載ディスプレイに送達するようさらに構成され、前記第4プログラムモジュールは、前記移動に関連付けられた前記仮想3次元解剖学的モデルのビューの前記同一の更新済みパースペクティブを、前記複数の参加者頭部搭載ディスプレイのうちの全部に、同期的に送達するよう、さらに構成されている、請求項1〜請求項3のうちのいずれかに記載のシステム。
  5. 前記第3プログラムモジュールは、前記複数の参加者頭部搭載ディスプレイに関連付けられた複数のコントローラのうちの1つのコントローラから、前記仮想3次元解剖学的モデルの内部の移動を表現するデータを受け取るよう、さらに構成され、前記第4プログラムモジュールは、前記複数のコントローラのうちの関連付けられた1つのコントローラにより表現される前記移動に基づいて、前記仮想3次元解剖学的モデルの前記内部のビューの更新済みパースペクティブを、前記複数の参加者頭部搭載ディスプレイのうちの前記1つの参加者頭部搭載ディスプレイに送達するよう、さらに構成されている、請求項1〜請求項4のうちのいずれかに記載のシステム。
  6. 前記複数の頭部搭載ディスプレイの各頭部搭載ディスプレイは運動を追跡するためのセンサを含み、前記第3プログラムモジュールは、前記複数の頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイの前記センサから、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイの運動を表現するデータを受け取るよう、さらに構成され、前記第4プログラムモジュールは、前記複数の頭部搭載ディスプレイの前記関連付けられた1つの頭部搭載ディスプレイにより表現される前記移動に基づいて、前記仮想3次元解剖学的モデルのビューの更新済みパースペクティブを前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイに送達するよう、さらに構成されている、請求項1〜請求項5のうちのいずれかに記載のシステム。
  7. 前記プログラムモジュールは、前記それぞれの複数の頭部搭載ディスプレイを表現する複数のアヴァターを前記仮想3次元解剖学的モデル内部に生成するための第5プログラムモジュールをさらに含み、更新済み内容物を同期的に送達するための前記第4プログラムモジュールは、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイの前記移動を表現するアヴァターの更新済み表現を送達するようようさらに構成されている、請求項6に記載のシステム。
  8. 前記第3プログラムモジュールは、ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを受け取るようさらに構成され、前記第4プログラムモジュールは、前記ユーザにより生成された注釈、マーク、および図面のうちの前記少なくとも1つを前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項7のうちのいずれかに記載のシステム。
  9. 少なくとも1つのマイクロフォンをさらに含み、前記第3プログラムモジュールは前記内容物に関連付けられた可聴入力を受け取るようさらに構成され、前記第4プログラムモジュールは、前記内容物とともに前記可聴入力を前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項8のうちのいずれかに記載のシステム。
  10. 前記プログラムモジュールは、前記共同作業を記録すること、および前記データベースに前記共同作業を格納すること、を実行するための第6プログラムモジュールをさらに含む、請求項1〜請求項9のうちのいずれかに記載のシステム。
  11. 物理的活動を実行するよう構成されたツールをさらに含み、前記第3モジュールは、前記ツールにより実行された前記物理的活動を解釈すること、および、前記物理的活動を、前記内容物との対応する相互作用に変換すること、を実行するようさらに構成され、前記第4プログラムモジュールは、前記変換された物理的活動に対応する前記相互作用を前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項10のうちのいずれかに記載のシステム。
  12. 共同作業を支援するための方法であって、
    コンピュータが、複数名の患者に対応する前記複数の仮想3次元解剖学的モデルのうちの対応する1つの仮想3次元解剖学的モデルを、前記複数名の患者のうちの1名の患者に対する共同作業を始動する要求に応答して、データベースから選択することと、
    前記コンピュータが、前記選択された仮想3次元解剖学的モデルを表現する内容物を複数の頭部搭載ディスプレイに同期的に送達することと、
    前記コンピュータが、前記仮想3次元解剖学的モデルとの相互作用であって前記複数の頭部搭載ディスプレイのうちの先導者頭部搭載ディスプレイに関連付けられている相互作用を表現するデータを受け取ることと、
    前記コンピュータが、更新済み内容物を、前記受け取られた相互作用に基づいて、前記複数の頭部搭載ディスプレイのうちの複数の参加者頭部搭載ディスプレイに、同期的に送達することと
    を含む、方法。
  13. 前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、更新済み内容物を、少なくとも1つの遠隔に配置された参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
  14. 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、前記先導者頭部搭載ディスプレイと関連付けられたデータであって、前記仮想3次元解剖学的モデルに対する移動を表現するデータをコントローラから受け取り、それにより、更新済み内容物を、前記移動に関連付けられた前記仮想3次元解剖学的モデルの更新済みパースペクティブビューに基づいて、前記先導者頭部搭載ディスプレイに送達することを含み、前記コンピュータが、更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記移動に関連付けられた前記仮想3次元解剖学的モデルのビューの前記同一の更新済みパースペクティブを前記複数の参加者頭部搭載ディスプレイのうちの全参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
  15. 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを受け取ることを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
  16. 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが前記内容物に関連付けられた可聴入力を受け取ることを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記内容物とともに前記可聴入力を前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
  17. 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、ツールにより実行された物理的活動を解釈し、前記物理的活動を、前記仮想3次元解剖学的モデルとの対応する相互作用に変換することを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記変換された物理的活動に対応する前記相互作用を前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
  18. 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、前記複数の頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイの運動を表現するデータを前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイのセンサから受け取り、前記仮想3次元解剖学的モデルのビューの更新済みパースペクティブを、前記複数の頭部搭載ディスプレイのうちの前記関連付けられた1つの頭部搭載ディスプレイにより表現される前記移動に基づいて、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイに送達すること、を含む、請求項12に記載の方法。
  19. 共同作業を支援するための方法であって、
    1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
    各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
    前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置のユーザ入力を先導ユーザから受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
    前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するために前記先導者頭部搭載ディスプレイの前記ユーザにより誘導される3次元シミュレーション処理を実行するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、前記シミュレーション処理は、
    前記少なくとも1つのデータベースにおいてデータとして格納される、実際のツールの物理的特性に関する情報から生成された前記実際のツールのリアルな3次元ツールモデルを提供するステップであって、前記画像モデルは、前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置を使用する前記先導ユーザにより制御される、ステップ、
    複数の実際の物体のうちの各実際の物体のリアルな3次元物体モデルであって、前記少なくとも1つのデータベースにおいてデータとして格納される、前記実際の物体のうちの各実際の物体の物理的特性に関する情報から生成された物体モデルを提供するステップ、および
    前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記物体モデルに対する前記ツールモデルのリアルな視覚的相互作用であって、現実世界における前記実際の物体に対する前記実際のツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
    を含む、ステップと
    を含み、
    それぞれの関連付けられた入力装置を使用する前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記制限された機能の範囲に基づいて、前記シミュレーションにおける参加が制限される、
    方法。
  20. 前記実際のツールは手術ツールである、請求項19に記載の方法。
  21. 前記実際の物体はヒトの臓器および/または組織である、請求項19または請求項20に記載の方法。
  22. 前記実際の物体は特定患者の撮影された医用画像に基づく前記特定患者の臓器および/または組織である、請求項19〜請求項21のうちのいずれかに記載の方法。
  23. 前記シミュレーションは患者に対する手術手順のシミュレーションである、請求項19〜請求項22のうちのいずれかに記載の方法。
  24. 前記手術手順はリアルタイムで患者に対して実施される実体的な手術手順である、請求項23に記載の方法。
  25. 前記先導者頭部搭載ディスプレイの前記ユーザは前記患者に対して前記実体的な手術手順の少なくとも一部を実施する医師である、請求項24に記載の方法。
  26. 前記システムは、前記シミュレーションと相互作用する特定の許可を、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの1名または複数名のユーザに与えるための入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項19〜請求項25のうちのいずれかに記載の方法。
  27. 前記システムは、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの前記1名または複数名のユーザが、前記先導者頭部搭載ディスプレイの前記ユーザの前記パースペクティブから前記シミュレーションを閲覧することを実行させる入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項19〜請求項26のうちのいずれかに記載の方法。
  28. 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、前記頭部搭載ディスプレイから分離されたコントローラを含む、請求項19〜請求項27のうちのいずれかに記載の方法。
  29. 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、前記頭部搭載ディスプレイに一体化されたコントローラを含む、請求項19〜請求項28のうちのいずれかに記載の方法。
  30. 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、それぞれのユーザの手(単数または複数)および/または前記ユーザにより保持されるツールの移動を追跡するよう構成された入力装置を含む、請求項19〜請求項29のうちのいずれかに記載の方法。
  31. 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザの片手または両手の運動を、および/または、前記先導ユーザにより保持されるツールの運動を、検出するよう構成された運動検出入力装置を含む、請求項19〜請求項30のうちのいずれかに記載の方法。
  32. 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザにより保持される手術ツールの運動を検出するよう構成された入力装置を含む、請求項19〜請求項31のうちのいずれかに記載の方法。
  33. 前記シミュレーションは、前記物体モデルの周囲を動くための、より細かく検査するために前記物体モデルを持ち上げるための、部屋の周囲を移動するための、前記部屋の内部で前記物体モデルに対して手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリ内の内容物と関与するための、前記先導ユーザの能力を提供することを含む、請求項19〜請求項32のうちのいずれかに記載の方法。
  34. 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記先導者頭部搭載ディスプレイの前記ユーザから遠隔に配置されている、請求項19〜請求項33のうちのいずれかに記載の方法。
  35. 共同作業を支援するための方法であって、
    特定患者の医用画像を、前記特定患者の臓器および組織のリアルな3次元モデルを表現するデータに変換するステップと、
    1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
    前記特定患者の臓器および組織のリアルな3次元モデルを表現する前記データを、前記臓器および組織の物理的特性を含む少なくとも1つのデータベースに格納するステップと、
    前記実際の手術ツールの物理的特性を含む実際の手術ツールのリアルな3次元モデルを表現する前記データを、前記少なくとも1つのデータベースに格納するステップと、
    各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
    前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置のユーザ入力を先導ユーザから受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
    前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するために前記先導者頭部搭載ディスプレイの前記ユーザにより誘導される3次元手術シミュレーション処理を実行するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、前記シミュレーション処理は、
    前記データベースから取得された実際の手術ツールのリアルな3次元モデルを表現する前記データから生成された前記実際の手術ツールのリアルな3次元手術ツールを提供するステップであって、前記画像モデルは、前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置を使用する前記先導ユーザにより制御される、ステップ、
    前記特定患者の臓器および組織のリアルな3次元臓器・組織モデルであって、前記データベースから取得された前記特定患者の臓器および組織の前記リアルな3次元モデルを表現するデータから生成された、臓器・組織モデルを提供するステップ、および
    前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記臓器・組織モデルに対する前記手術ツールのリアルな視覚的相互作用であって、前記患者の前記実際の臓器および組織に対する前記実際の手術ツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
    を含む、ステップと
    を含み、
    それぞれの関連付けられた入力装置を使用する前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記手術シミュレーションに参加する、
    方法。
  36. 前記手術手順はリアルタイムで前記特定患者に対して実施される実体的な手術手順である、請求項35に記載の方法。
  37. 前記先導者頭部搭載ディスプレイの前記ユーザは前記特定患者に対して前記実体的な手術手順の少なくとも一部を実施する医師である、請求項36に記載の方法。
  38. 前記システムは、前記シミュレーションと相互作用する特定の許可を、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの1名または複数名のユーザに与えるための入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項35〜請求項37のうちのいずれかに記載の方法。
  39. 前記システムは、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの前記1名または複数名のユーザが、前記先導者頭部搭載ディスプレイの前記ユーザの前記パースペクティブから前記シミュレーションを閲覧することを実行させる入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項35〜請求項38のうちのいずれかに記載の方法。
  40. 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、それぞれのユーザの手(単数または複数)および/または前記ユーザにより保持されるツールの移動を追跡するよう構成された入力装置を含む、請求項35〜請求項39のうちのいずれかに記載の方法。
  41. 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザの片手または両手の運動を、および/または、前記先導ユーザにより保持されるツールの運動を、検出するよう構成された運動検出入力装置を含む、請求項35〜請求項40のうちのいずれかに記載の方法。
  42. 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザにより保持される手術ツールの運動を検出するよう構成された入力装置を含む、請求項35〜請求項41のうちのいずれかに記載の方法。
  43. 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記先導者頭部搭載ディスプレイの前記ユーザから遠隔に配置されている、請求項35〜請求項42のうちのいずれかに記載の方法。
  44. 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記それぞれの頭部搭載ディスプレイの前記関連付けられた入力装置を使用して前記手術シミュレーションに参加する、請求項35〜請求項43のうちのいずれかに記載の方法。
  45. 前記シミュレーションは、前記患者の臓器および組織を含む3D患者モデルの周囲を移動するための、前記患者の3D身体の内部に進入するための、より細かく検査するために3Dモデル臓器を取り上げるための、仮想手術室の周囲を移動するための、前記仮想手術室の内部で仮想手術手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリにおける内容物に対して関与するための、前記指導員の能力を提供することを含む、請求項35〜請求項44のうちのいずれかに記載の方法。
  46. 共同作業を支援するための方法であって、
    特定患者の医用画像を、前記特定患者の臓器および組織のリアルな3次元モデルを表現するデータに変換するステップと、
    1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
    前記特定患者の臓器および組織のリアルな3次元モデルを表現する前記データを、前記臓器および組織の物理的特性を含む少なくとも1つのデータベースに格納するステップと、
    前記実際の手術ツールの物理的特性を含む実際の手術ツールのリアルな3次元モデルを表現する前記データを、前記少なくとも1つのデータベースに格納するステップと、
    各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
    前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
    前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置として構成された前記実際の手術ツールを使用する医師からユーザ入力を受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
    前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するためにリアルタイムで前記医師により少なくとも部分的に実施される実際の手術手順をキャプチャするために前記先導者頭部搭載ディスプレイの前記医師により誘導される3次元手術過程を表示するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、
    前記データベースから取得された実際の手術ツールのリアルな3次元モデルを表現する前記データから生成された前記実際の手術ツールのリアルな3次元手術ツールモデルであって、前記手術手順において前記実際の手術ツールを使用する前記医師により制御される、ツールモデルを提供するステップ、
    前記特定患者の臓器および組織のリアルな3次元臓器・組織モデルであって、前記データベースから取得された前記特定患者の臓器および組織の前記リアルな3次元モデルを表現するデータから生成された、臓器・組織モデルを提供するステップ、および
    前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記臓器・組織モデルに対する前記手術ツールのリアルな視覚的相互作用であって、前記手術手順の間の前記患者の前記実際の臓器および組織に対する前記実際の手術ツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
    を含む、ステップと
    を含み、
    前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記頭部搭載ディスプレイを使用して前記手術過程を閲覧することが可能である、
    方法。
  47. 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記ユーザのそれぞれの頭部搭載ディスプレイの前記関連付けられた入力装置を使用して前記特定患者に対する前記実体的な手術手順に参加する、請求項46に記載の方法。
  48. 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記医師から遠隔に配置されている、請求項46〜請求項47のうちのいずれかに記載の方法。
  49. 前記シミュレーションは、前記患者の臓器および組織を含む3D患者モデルの周囲を移動するための、前記患者の3D身体の内部に進入するための、より細かく検査するために3Dモデル臓器を取り上げるための、仮想手術室の周囲を移動するための、前記仮想手術室の内部で仮想手術手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリにおける内容物に対して関与するための、前記医師の能力を提供することを含む、請求項46〜請求項48のうちのいずれかに記載の方法。
JP2019552005A 2017-03-24 2018-03-23 仮想環境における訓練および共同作業のためのシステムおよび方法 Pending JP2020515891A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762476259P 2017-03-24 2017-03-24
US62/476,259 2017-03-24
PCT/US2018/024154 WO2018175971A1 (en) 2017-03-24 2018-03-23 System and method for training and collaborating in a virtual environment

Publications (1)

Publication Number Publication Date
JP2020515891A true JP2020515891A (ja) 2020-05-28

Family

ID=63585797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552005A Pending JP2020515891A (ja) 2017-03-24 2018-03-23 仮想環境における訓練および共同作業のためのシステムおよび方法

Country Status (7)

Country Link
US (1) US20200038119A1 (ja)
EP (1) EP3593344A4 (ja)
JP (1) JP2020515891A (ja)
CN (1) CN109643530A (ja)
IL (1) IL269521A (ja)
TW (1) TW201835878A (ja)
WO (1) WO2018175971A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6933850B1 (ja) * 2020-11-06 2021-09-08 株式会社Abal 仮想空間体感システム
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3588469A1 (en) * 2018-06-26 2020-01-01 Siemens Aktiengesellschaft Method and system for sharing automatically procedural knowledge
US10898151B2 (en) * 2018-10-31 2021-01-26 Medtronic Inc. Real-time rendering and referencing for medical procedures
TWI714235B (zh) * 2019-03-25 2020-12-21 必揚實境科技股份有限公司 虛擬實境教學系統
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
TWI696085B (zh) * 2019-06-06 2020-06-11 崑山科技大學 虛擬實境輔助室內設計系統及其互動方法
CN110572633A (zh) * 2019-09-16 2019-12-13 上海市刑事科学技术研究院 刑侦物证展示方法、装置、电子设备与存储介质
CN111450511A (zh) * 2020-04-01 2020-07-28 福建医科大学附属第一医院 一种脑卒中的肢体功能评估和康复训练系统及方法
US20230298279A1 (en) * 2020-06-30 2023-09-21 Surgical Theater, Inc. Augmented reality shared anchoring system and method
CN112509410A (zh) * 2020-12-08 2021-03-16 中日友好医院(中日友好临床医学研究所) 一种基于虚拟现实的髋关节镜手术辅助教学系统
CN113223342B (zh) * 2021-05-11 2023-06-16 浙江大学医学院附属邵逸夫医院 一种基于虚拟现实技术的手术仪器操作训练系统及其设备
CA3221339A1 (en) * 2021-06-03 2022-12-08 Cameron Mcintyre Systems, methods, and media for presenting biophysical simulations in an interactive mixed reality environment
CN113593347B (zh) * 2021-08-10 2023-01-06 中国人民解放军63919部队 一种基于虚拟现实的多人协同训练系统
IL312436A (en) * 2021-10-23 2024-06-01 Simulated Inanimate Models Llc Device, methods and systems for guidance in guiding procedures
CN114081624B (zh) * 2021-11-10 2023-06-27 武汉联影智融医疗科技有限公司 一种手术机器人虚拟仿真系统
CN114333482B (zh) * 2022-01-07 2024-05-24 众阳健康科技集团有限公司 一种基于混合现实技术的虚拟解剖教学系统
US11747954B1 (en) * 2022-03-10 2023-09-05 Samsung Electronics Company, Ltd. Systems and methods for organizing contents in XR environments
WO2023173162A1 (en) * 2022-03-14 2023-09-21 Bairamian, Daniel An augmented reality point of view synchronisation system
KR102458491B1 (ko) * 2022-03-17 2022-10-26 주식회사 메디씽큐 실시간 수술영상 태깅이 가능한 원격협진지원시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2009521985A (ja) * 2005-12-31 2009-06-11 ブラッコ イメージング エス.ピー.エー. 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法
WO2016096547A1 (en) * 2014-12-18 2016-06-23 Koninklijke Philips N.V. Head-mountable computing device, method and computer program product

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7317955B2 (en) * 2003-12-12 2008-01-08 Conmed Corporation Virtual operating room integration
US7331929B2 (en) * 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
WO2007108776A2 (en) * 2005-12-31 2007-09-27 Bracco Imaging S.P.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')
US8311791B1 (en) * 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
WO2012033739A2 (en) * 2010-09-08 2012-03-15 Disruptive Navigational Technologies, Llc Surgical and medical instrument tracking using a depth-sensing device
US9063566B2 (en) * 2011-11-30 2015-06-23 Microsoft Technology Licensing, Llc Shared collaboration using display device
US20140176661A1 (en) * 2012-12-21 2014-06-26 G. Anthony Reina System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom)
KR20160033721A (ko) * 2013-07-16 2016-03-28 세이코 엡슨 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및, 정보 처리 시스템
EP4184483A1 (en) * 2013-12-20 2023-05-24 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
CN105892686B (zh) * 2016-05-05 2018-10-09 刘昊 一种3d虚拟现实广播交互方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2009521985A (ja) * 2005-12-31 2009-06-11 ブラッコ イメージング エス.ピー.エー. 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法
WO2016096547A1 (en) * 2014-12-18 2016-06-23 Koninklijke Philips N.V. Head-mountable computing device, method and computer program product

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
JP6933850B1 (ja) * 2020-11-06 2021-09-08 株式会社Abal 仮想空間体感システム
WO2022097271A1 (ja) * 2020-11-06 2022-05-12 株式会社Abal 仮想空間体感システム
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11871997B2 (en) 2021-04-02 2024-01-16 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US11610378B1 (en) 2021-10-04 2023-03-21 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras

Also Published As

Publication number Publication date
IL269521A (en) 2019-11-28
US20200038119A1 (en) 2020-02-06
EP3593344A4 (en) 2021-01-06
WO2018175971A1 (en) 2018-09-27
CN109643530A (zh) 2019-04-16
TW201835878A (zh) 2018-10-01
EP3593344A1 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP2020515891A (ja) 仮想環境における訓練および共同作業のためのシステムおよび方法
US11532135B2 (en) Dual mode augmented reality surgical system and method
US20190236840A1 (en) System and method for patient engagement
JP6081907B2 (ja) 医療処置のコンピュータ化シミュレーションを行うシステム及び方法
WO2021011668A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
US11749137B2 (en) System and method for multisensory psychomotor skill training
JP2018534011A (ja) 拡張現実感手術ナビゲーション
Lareyre et al. Applications of head-mounted displays and smart glasses in vascular surgery
US11983824B2 (en) System and method for augmenting and synchronizing a virtual model with a physical model
US11925418B2 (en) Methods for multi-modal bioimaging data integration and visualization
JP2021530774A (ja) 双方向にマルチユーザの仮想現実体験を効率的にレンダリング、管理、記録、および再生するための方法及び装置
Preim et al. Virtual and augmented reality for educational anatomy
US20210358218A1 (en) 360 vr volumetric media editor
Garg et al. Applications of augmented reality in medical training
Proniewska et al. Holography as a progressive revolution in medicine
Uzun Augmented reality in cardiology
Zhou et al. Development and application of a surgical process simulation system using vr technology
Elsakka et al. Virtual and augmented reality in interventional radiology: current applications, challenges, and future directions
TW202131875A (zh) 用於擴增實體模型及使虛擬模型與實體模型同步之系統及方法
Bhatla et al. Augmented reality: The emerging technology in medical field
JP2022506708A (ja) 光学追跡のためのシステムおよび方法
Negrão Characterizing affordances using AR for laparoscopic surgeries and challenges of planning a mixed reality remote collaboration application
James A New Perspective on Minimally Invasive Procedures: Exploring the Utility of a Novel Virtual Reality Endovascular Navigation System
TW202228598A (zh) 用於腫瘤追踪之系統及方法
Basdogan Integration of force feedback into virtual reality based training systems for simulating minimally invasive procedures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920