JP2020515891A - 仮想環境における訓練および共同作業のためのシステムおよび方法 - Google Patents
仮想環境における訓練および共同作業のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2020515891A JP2020515891A JP2019552005A JP2019552005A JP2020515891A JP 2020515891 A JP2020515891 A JP 2020515891A JP 2019552005 A JP2019552005 A JP 2019552005A JP 2019552005 A JP2019552005 A JP 2019552005A JP 2020515891 A JP2020515891 A JP 2020515891A
- Authority
- JP
- Japan
- Prior art keywords
- head mounted
- head
- user
- mounted displays
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0806—Configuration setting for initial configuration or provisioning, e.g. plug-and-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Human Computer Interaction (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本願は2017年3月24日に出願された米国仮特許出願整理番号第62/476259号の優先権を主張するものであり、米国仮特許出願整理番号第62/476259号の全体は参照することにより本願に援用される。
[0001]プロセッサ1402は、コンピュータ800内で実行するためにメモリ1404を介して命令を処理する。例示的な実施形態では、複数のメモリとともに複数のプロセッサが使用され得る。
[0003]コンピュータ1400は、ディスプレイ1414、プリンタ1416、スキャナ1418、およびマウス1420などの、1つまたは複数の入力装置および出力装置に接続され得る。
Claims (49)
- 共同作業を支援するためのシステムであって、
複数名の患者に対応する複数の仮想3次元解剖学的モデルを表現する内容物を格納するためのデータベースと、
先導者頭部搭載ディスプレイおよび複数の参加者頭部搭載ディスプレイを含む、複数の頭部搭載ディスプレイと、
1つまたは複数のプロセッサ、1つまたは複数のコンピュータ可読有形ストレージ装置、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるための、前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納されたプログラムモジュールを含むコンピュータサーバであって、前記プログラムモジュールは、
前記複数の前記仮想3次元解剖学的モデルのうちの対応する1つの仮想3次元解剖学的モデルを、前記複数名の患者のうちの1名の患者に対する共同作業を始動する要求に応答して、前記データベースから選択するための、第1プログラムモジュール、
前記選択された仮想3次元解剖学的モデルを表現する内容物を、前記複数の頭部搭載ディスプレイに同期的に送達するための、第2プログラムモジュール、
前記仮想3次元解剖学的モデルとの相互作用であって、前記先導者頭部搭載ディスプレイに関連付けられた相互作用を表現するデータを受け取るための第3プログラムモジュール、および
前記受け取られた相互作用に基づいて、更新済み内容物を前記複数の頭部搭載ディスプレイに同期的に送達するための、第4プログラムモジュール
を含む、コンピュータサーバと
を含む、システム。 - 前記内容物は仮想医療ライブラリおよび仮想手術室のうちの少なくとも1つをさらに含み、前記第3プログラムモジュールは、前記仮想医療ライブラリおよび前記仮想手術室のうちの少なくとも1つとの相互作用を表現するデータをさらに受け取る、請求項1に記載のシステム。
- 前記頭部搭載ディスプレイのうちの少なくとも1つの頭部搭載ディスプレイは遠隔に配置された頭部搭載ディスプレイを含む、請求項1〜請求項2のうちのいずれかに記載のシステム。
- 前記第3プログラムモジュールは、前記先導者頭部搭載ディスプレイに関連付けられた前記相互作用であって、前記仮想3次元解剖学的モデルに対する移動を表現する前記相互作用を表現するデータをコントローラから受け取り、それにより、前記移動に関連付けられた前記仮想3次元解剖学的モデルの更新済みパースペクティブビューに基づいて、更新済み内容物を前記先導者頭部搭載ディスプレイに送達するようさらに構成され、前記第4プログラムモジュールは、前記移動に関連付けられた前記仮想3次元解剖学的モデルのビューの前記同一の更新済みパースペクティブを、前記複数の参加者頭部搭載ディスプレイのうちの全部に、同期的に送達するよう、さらに構成されている、請求項1〜請求項3のうちのいずれかに記載のシステム。
- 前記第3プログラムモジュールは、前記複数の参加者頭部搭載ディスプレイに関連付けられた複数のコントローラのうちの1つのコントローラから、前記仮想3次元解剖学的モデルの内部の移動を表現するデータを受け取るよう、さらに構成され、前記第4プログラムモジュールは、前記複数のコントローラのうちの関連付けられた1つのコントローラにより表現される前記移動に基づいて、前記仮想3次元解剖学的モデルの前記内部のビューの更新済みパースペクティブを、前記複数の参加者頭部搭載ディスプレイのうちの前記1つの参加者頭部搭載ディスプレイに送達するよう、さらに構成されている、請求項1〜請求項4のうちのいずれかに記載のシステム。
- 前記複数の頭部搭載ディスプレイの各頭部搭載ディスプレイは運動を追跡するためのセンサを含み、前記第3プログラムモジュールは、前記複数の頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイの前記センサから、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイの運動を表現するデータを受け取るよう、さらに構成され、前記第4プログラムモジュールは、前記複数の頭部搭載ディスプレイの前記関連付けられた1つの頭部搭載ディスプレイにより表現される前記移動に基づいて、前記仮想3次元解剖学的モデルのビューの更新済みパースペクティブを前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイに送達するよう、さらに構成されている、請求項1〜請求項5のうちのいずれかに記載のシステム。
- 前記プログラムモジュールは、前記それぞれの複数の頭部搭載ディスプレイを表現する複数のアヴァターを前記仮想3次元解剖学的モデル内部に生成するための第5プログラムモジュールをさらに含み、更新済み内容物を同期的に送達するための前記第4プログラムモジュールは、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイの前記移動を表現するアヴァターの更新済み表現を送達するようようさらに構成されている、請求項6に記載のシステム。
- 前記第3プログラムモジュールは、ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを受け取るようさらに構成され、前記第4プログラムモジュールは、前記ユーザにより生成された注釈、マーク、および図面のうちの前記少なくとも1つを前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項7のうちのいずれかに記載のシステム。
- 少なくとも1つのマイクロフォンをさらに含み、前記第3プログラムモジュールは前記内容物に関連付けられた可聴入力を受け取るようさらに構成され、前記第4プログラムモジュールは、前記内容物とともに前記可聴入力を前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項8のうちのいずれかに記載のシステム。
- 前記プログラムモジュールは、前記共同作業を記録すること、および前記データベースに前記共同作業を格納すること、を実行するための第6プログラムモジュールをさらに含む、請求項1〜請求項9のうちのいずれかに記載のシステム。
- 物理的活動を実行するよう構成されたツールをさらに含み、前記第3モジュールは、前記ツールにより実行された前記物理的活動を解釈すること、および、前記物理的活動を、前記内容物との対応する相互作用に変換すること、を実行するようさらに構成され、前記第4プログラムモジュールは、前記変換された物理的活動に対応する前記相互作用を前記複数の頭部搭載ディスプレイに同期的に送達するようさらに構成されている、請求項1〜請求項10のうちのいずれかに記載のシステム。
- 共同作業を支援するための方法であって、
コンピュータが、複数名の患者に対応する前記複数の仮想3次元解剖学的モデルのうちの対応する1つの仮想3次元解剖学的モデルを、前記複数名の患者のうちの1名の患者に対する共同作業を始動する要求に応答して、データベースから選択することと、
前記コンピュータが、前記選択された仮想3次元解剖学的モデルを表現する内容物を複数の頭部搭載ディスプレイに同期的に送達することと、
前記コンピュータが、前記仮想3次元解剖学的モデルとの相互作用であって前記複数の頭部搭載ディスプレイのうちの先導者頭部搭載ディスプレイに関連付けられている相互作用を表現するデータを受け取ることと、
前記コンピュータが、更新済み内容物を、前記受け取られた相互作用に基づいて、前記複数の頭部搭載ディスプレイのうちの複数の参加者頭部搭載ディスプレイに、同期的に送達することと
を含む、方法。 - 前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、更新済み内容物を、少なくとも1つの遠隔に配置された参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
- 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、前記先導者頭部搭載ディスプレイと関連付けられたデータであって、前記仮想3次元解剖学的モデルに対する移動を表現するデータをコントローラから受け取り、それにより、更新済み内容物を、前記移動に関連付けられた前記仮想3次元解剖学的モデルの更新済みパースペクティブビューに基づいて、前記先導者頭部搭載ディスプレイに送達することを含み、前記コンピュータが、更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記移動に関連付けられた前記仮想3次元解剖学的モデルのビューの前記同一の更新済みパースペクティブを前記複数の参加者頭部搭載ディスプレイのうちの全参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
- 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを受け取ることを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記ユーザにより生成された注釈、マーク、および図面のうちの少なくとも1つを前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
- 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが前記内容物に関連付けられた可聴入力を受け取ることを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記内容物とともに前記可聴入力を前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
- 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、ツールにより実行された物理的活動を解釈し、前記物理的活動を、前記仮想3次元解剖学的モデルとの対応する相互作用に変換することを含み、前記コンピュータが更新済み内容物を前記複数の参加者頭部搭載ディスプレイに同期的に送達することは、前記コンピュータが、前記変換された物理的活動に対応する前記相互作用を前記複数の参加者頭部搭載ディスプレイに同期的に送達することを含む、請求項12に記載の方法。
- 前記コンピュータが相互作用を表現するデータを受け取ることは、前記コンピュータが、前記複数の頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイの運動を表現するデータを前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイのセンサから受け取り、前記仮想3次元解剖学的モデルのビューの更新済みパースペクティブを、前記複数の頭部搭載ディスプレイのうちの前記関連付けられた1つの頭部搭載ディスプレイにより表現される前記移動に基づいて、前記複数の頭部搭載ディスプレイのうちの前記1つの頭部搭載ディスプレイに送達すること、を含む、請求項12に記載の方法。
- 共同作業を支援するための方法であって、
1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置のユーザ入力を先導ユーザから受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するために前記先導者頭部搭載ディスプレイの前記ユーザにより誘導される3次元シミュレーション処理を実行するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、前記シミュレーション処理は、
前記少なくとも1つのデータベースにおいてデータとして格納される、実際のツールの物理的特性に関する情報から生成された前記実際のツールのリアルな3次元ツールモデルを提供するステップであって、前記画像モデルは、前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置を使用する前記先導ユーザにより制御される、ステップ、
複数の実際の物体のうちの各実際の物体のリアルな3次元物体モデルであって、前記少なくとも1つのデータベースにおいてデータとして格納される、前記実際の物体のうちの各実際の物体の物理的特性に関する情報から生成された物体モデルを提供するステップ、および
前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記物体モデルに対する前記ツールモデルのリアルな視覚的相互作用であって、現実世界における前記実際の物体に対する前記実際のツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
を含む、ステップと
を含み、
それぞれの関連付けられた入力装置を使用する前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記制限された機能の範囲に基づいて、前記シミュレーションにおける参加が制限される、
方法。 - 前記実際のツールは手術ツールである、請求項19に記載の方法。
- 前記実際の物体はヒトの臓器および/または組織である、請求項19または請求項20に記載の方法。
- 前記実際の物体は特定患者の撮影された医用画像に基づく前記特定患者の臓器および/または組織である、請求項19〜請求項21のうちのいずれかに記載の方法。
- 前記シミュレーションは患者に対する手術手順のシミュレーションである、請求項19〜請求項22のうちのいずれかに記載の方法。
- 前記手術手順はリアルタイムで患者に対して実施される実体的な手術手順である、請求項23に記載の方法。
- 前記先導者頭部搭載ディスプレイの前記ユーザは前記患者に対して前記実体的な手術手順の少なくとも一部を実施する医師である、請求項24に記載の方法。
- 前記システムは、前記シミュレーションと相互作用する特定の許可を、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの1名または複数名のユーザに与えるための入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項19〜請求項25のうちのいずれかに記載の方法。
- 前記システムは、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの前記1名または複数名のユーザが、前記先導者頭部搭載ディスプレイの前記ユーザの前記パースペクティブから前記シミュレーションを閲覧することを実行させる入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項19〜請求項26のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、前記頭部搭載ディスプレイから分離されたコントローラを含む、請求項19〜請求項27のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、前記頭部搭載ディスプレイに一体化されたコントローラを含む、請求項19〜請求項28のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、それぞれのユーザの手(単数または複数)および/または前記ユーザにより保持されるツールの移動を追跡するよう構成された入力装置を含む、請求項19〜請求項29のうちのいずれかに記載の方法。
- 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザの片手または両手の運動を、および/または、前記先導ユーザにより保持されるツールの運動を、検出するよう構成された運動検出入力装置を含む、請求項19〜請求項30のうちのいずれかに記載の方法。
- 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザにより保持される手術ツールの運動を検出するよう構成された入力装置を含む、請求項19〜請求項31のうちのいずれかに記載の方法。
- 前記シミュレーションは、前記物体モデルの周囲を動くための、より細かく検査するために前記物体モデルを持ち上げるための、部屋の周囲を移動するための、前記部屋の内部で前記物体モデルに対して手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリ内の内容物と関与するための、前記先導ユーザの能力を提供することを含む、請求項19〜請求項32のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記先導者頭部搭載ディスプレイの前記ユーザから遠隔に配置されている、請求項19〜請求項33のうちのいずれかに記載の方法。
- 共同作業を支援するための方法であって、
特定患者の医用画像を、前記特定患者の臓器および組織のリアルな3次元モデルを表現するデータに変換するステップと、
1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
前記特定患者の臓器および組織のリアルな3次元モデルを表現する前記データを、前記臓器および組織の物理的特性を含む少なくとも1つのデータベースに格納するステップと、
前記実際の手術ツールの物理的特性を含む実際の手術ツールのリアルな3次元モデルを表現する前記データを、前記少なくとも1つのデータベースに格納するステップと、
各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置のユーザ入力を先導ユーザから受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するために前記先導者頭部搭載ディスプレイの前記ユーザにより誘導される3次元手術シミュレーション処理を実行するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、前記シミュレーション処理は、
前記データベースから取得された実際の手術ツールのリアルな3次元モデルを表現する前記データから生成された前記実際の手術ツールのリアルな3次元手術ツールを提供するステップであって、前記画像モデルは、前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置を使用する前記先導ユーザにより制御される、ステップ、
前記特定患者の臓器および組織のリアルな3次元臓器・組織モデルであって、前記データベースから取得された前記特定患者の臓器および組織の前記リアルな3次元モデルを表現するデータから生成された、臓器・組織モデルを提供するステップ、および
前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記臓器・組織モデルに対する前記手術ツールのリアルな視覚的相互作用であって、前記患者の前記実際の臓器および組織に対する前記実際の手術ツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
を含む、ステップと
を含み、
それぞれの関連付けられた入力装置を使用する前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記手術シミュレーションに参加する、
方法。 - 前記手術手順はリアルタイムで前記特定患者に対して実施される実体的な手術手順である、請求項35に記載の方法。
- 前記先導者頭部搭載ディスプレイの前記ユーザは前記特定患者に対して前記実体的な手術手順の少なくとも一部を実施する医師である、請求項36に記載の方法。
- 前記システムは、前記シミュレーションと相互作用する特定の許可を、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの1名または複数名のユーザに与えるための入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項35〜請求項37のうちのいずれかに記載の方法。
- 前記システムは、前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイの前記1名または複数名のユーザが、前記先導者頭部搭載ディスプレイの前記ユーザの前記パースペクティブから前記シミュレーションを閲覧することを実行させる入力を、前記先導者頭部搭載ディスプレイの前記ユーザから受け取るよう構成されている、請求項35〜請求項38のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイに関連付けられた前記入力装置は、それぞれのユーザの手(単数または複数)および/または前記ユーザにより保持されるツールの移動を追跡するよう構成された入力装置を含む、請求項35〜請求項39のうちのいずれかに記載の方法。
- 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザの片手または両手の運動を、および/または、前記先導ユーザにより保持されるツールの運動を、検出するよう構成された運動検出入力装置を含む、請求項35〜請求項40のうちのいずれかに記載の方法。
- 前記先導ユーザの前記入力装置は、前記相互作用を制御するために、前記先導ユーザにより保持される手術ツールの運動を検出するよう構成された入力装置を含む、請求項35〜請求項41のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記先導者頭部搭載ディスプレイの前記ユーザから遠隔に配置されている、請求項35〜請求項42のうちのいずれかに記載の方法。
- 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記それぞれの頭部搭載ディスプレイの前記関連付けられた入力装置を使用して前記手術シミュレーションに参加する、請求項35〜請求項43のうちのいずれかに記載の方法。
- 前記シミュレーションは、前記患者の臓器および組織を含む3D患者モデルの周囲を移動するための、前記患者の3D身体の内部に進入するための、より細かく検査するために3Dモデル臓器を取り上げるための、仮想手術室の周囲を移動するための、前記仮想手術室の内部で仮想手術手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリにおける内容物に対して関与するための、前記指導員の能力を提供することを含む、請求項35〜請求項44のうちのいずれかに記載の方法。
- 共同作業を支援するための方法であって、
特定患者の医用画像を、前記特定患者の臓器および組織のリアルな3次元モデルを表現するデータに変換するステップと、
1つまたは複数のプロセッサを、1つまたは複数のコンピュータ可読有形ストレージ装置を、少なくとも1つのデータベースを、および、前記1つまたは複数のプロセッサのうちの少なくとも1つのプロセッサにより実行されるために前記1つまたは複数のストレージ装置のうちの少なくとも1つのストレージ装置上に格納された、少なくとも1つのプログラムモジュールを、含むコンピュータサーバを提供するステップと、
前記特定患者の臓器および組織のリアルな3次元モデルを表現する前記データを、前記臓器および組織の物理的特性を含む少なくとも1つのデータベースに格納するステップと、
前記実際の手術ツールの物理的特性を含む実際の手術ツールのリアルな3次元モデルを表現する前記データを、前記少なくとも1つのデータベースに格納するステップと、
各頭部搭載ディスプレイが、3次元ディスプレイを、および、前記頭部搭載ディスプレイのうちの各頭部搭載ディスプレイに関連付けられた少なくとも1つの入力装置を、含む、複数の頭部搭載ディスプレイを提供するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記頭部搭載ディスプレイのうちの1つの頭部搭載ディスプレイが先導者頭部搭載ディスプレイとなるよう構成するステップと、
前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行することにより、前記複数の頭部搭載ディスプレイのうちの複数の他の頭部搭載ディスプレイがユーザ頭部搭載ディスプレイとなるよう構成するステップと、
前記先導者頭部搭載ディスプレイの前記関連付けられた入力装置として構成された前記実際の手術ツールを使用する医師からユーザ入力を受け取り、それにより前記ユーザ頭部搭載ディスプレイのうちのいくつかのユーザ頭部搭載ディスプレイに対して異なる場合もありまたは異ならない場合もある制限された範囲の機能を有する前記ユーザ頭部搭載ディスプレイのうちの各ユーザ頭部搭載ディスプレイを構成するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップと、
前記複数の頭部搭載ディスプレイのうちの各頭部搭載ディスプレイにおいて表示するためにリアルタイムで前記医師により少なくとも部分的に実施される実際の手術手順をキャプチャするために前記先導者頭部搭載ディスプレイの前記医師により誘導される3次元手術過程を表示するために、前記サーバが、前記少なくとも1つのプログラムモジュールにおいてソフトウェア命令を実行するステップであって、
前記データベースから取得された実際の手術ツールのリアルな3次元モデルを表現する前記データから生成された前記実際の手術ツールのリアルな3次元手術ツールモデルであって、前記手術手順において前記実際の手術ツールを使用する前記医師により制御される、ツールモデルを提供するステップ、
前記特定患者の臓器および組織のリアルな3次元臓器・組織モデルであって、前記データベースから取得された前記特定患者の臓器および組織の前記リアルな3次元モデルを表現するデータから生成された、臓器・組織モデルを提供するステップ、および
前記先導者頭部搭載ディスプレイの前記入力装置を使用する前記先導ユーザからの入力に基づいて、前記臓器・組織モデルに対する前記手術ツールのリアルな視覚的相互作用であって、前記手術手順の間の前記患者の前記実際の臓器および組織に対する前記実際の手術ツールの実体的な相互作用を示す、リアルな視覚的相互作用を生成するステップ
を含む、ステップと
を含み、
前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのユーザは、前記頭部搭載ディスプレイを使用して前記手術過程を閲覧することが可能である、
方法。 - 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記ユーザのそれぞれの頭部搭載ディスプレイの前記関連付けられた入力装置を使用して前記特定患者に対する前記実体的な手術手順に参加する、請求項46に記載の方法。
- 前記頭部搭載ディスプレイのうちの前記他の頭部搭載ディスプレイのうちの少なくともいくつかの頭部搭載ディスプレイの前記ユーザは、前記医師から遠隔に配置されている、請求項46〜請求項47のうちのいずれかに記載の方法。
- 前記シミュレーションは、前記患者の臓器および組織を含む3D患者モデルの周囲を移動するための、前記患者の3D身体の内部に進入するための、より細かく検査するために3Dモデル臓器を取り上げるための、仮想手術室の周囲を移動するための、前記仮想手術室の内部で仮想手術手順を実施するための、および/または、前記サーバにより提供される仮想ライブラリにおける内容物に対して関与するための、前記医師の能力を提供することを含む、請求項46〜請求項48のうちのいずれかに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762476259P | 2017-03-24 | 2017-03-24 | |
US62/476,259 | 2017-03-24 | ||
PCT/US2018/024154 WO2018175971A1 (en) | 2017-03-24 | 2018-03-23 | System and method for training and collaborating in a virtual environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020515891A true JP2020515891A (ja) | 2020-05-28 |
Family
ID=63585797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019552005A Pending JP2020515891A (ja) | 2017-03-24 | 2018-03-23 | 仮想環境における訓練および共同作業のためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200038119A1 (ja) |
EP (1) | EP3593344A4 (ja) |
JP (1) | JP2020515891A (ja) |
CN (1) | CN109643530A (ja) |
IL (1) | IL269521A (ja) |
TW (1) | TW201835878A (ja) |
WO (1) | WO2018175971A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6933850B1 (ja) * | 2020-11-06 | 2021-09-08 | 株式会社Abal | 仮想空間体感システム |
US11571225B2 (en) | 2020-08-17 | 2023-02-07 | Russell Todd Nevins | System and method for location determination using movement between optical labels and a 3D spatial mapping camera |
US11600053B1 (en) | 2021-10-04 | 2023-03-07 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
US11806081B2 (en) | 2021-04-02 | 2023-11-07 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3588469A1 (en) * | 2018-06-26 | 2020-01-01 | Siemens Aktiengesellschaft | Method and system for sharing automatically procedural knowledge |
US10898151B2 (en) * | 2018-10-31 | 2021-01-26 | Medtronic Inc. | Real-time rendering and referencing for medical procedures |
TWI714235B (zh) * | 2019-03-25 | 2020-12-21 | 必揚實境科技股份有限公司 | 虛擬實境教學系統 |
WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
TWI696085B (zh) * | 2019-06-06 | 2020-06-11 | 崑山科技大學 | 虛擬實境輔助室內設計系統及其互動方法 |
CN110572633A (zh) * | 2019-09-16 | 2019-12-13 | 上海市刑事科学技术研究院 | 刑侦物证展示方法、装置、电子设备与存储介质 |
CN111450511A (zh) * | 2020-04-01 | 2020-07-28 | 福建医科大学附属第一医院 | 一种脑卒中的肢体功能评估和康复训练系统及方法 |
US20230298279A1 (en) * | 2020-06-30 | 2023-09-21 | Surgical Theater, Inc. | Augmented reality shared anchoring system and method |
CN112509410A (zh) * | 2020-12-08 | 2021-03-16 | 中日友好医院(中日友好临床医学研究所) | 一种基于虚拟现实的髋关节镜手术辅助教学系统 |
CN113223342B (zh) * | 2021-05-11 | 2023-06-16 | 浙江大学医学院附属邵逸夫医院 | 一种基于虚拟现实技术的手术仪器操作训练系统及其设备 |
CA3221339A1 (en) * | 2021-06-03 | 2022-12-08 | Cameron Mcintyre | Systems, methods, and media for presenting biophysical simulations in an interactive mixed reality environment |
CN113593347B (zh) * | 2021-08-10 | 2023-01-06 | 中国人民解放军63919部队 | 一种基于虚拟现实的多人协同训练系统 |
IL312436A (en) * | 2021-10-23 | 2024-06-01 | Simulated Inanimate Models Llc | Device, methods and systems for guidance in guiding procedures |
CN114081624B (zh) * | 2021-11-10 | 2023-06-27 | 武汉联影智融医疗科技有限公司 | 一种手术机器人虚拟仿真系统 |
CN114333482B (zh) * | 2022-01-07 | 2024-05-24 | 众阳健康科技集团有限公司 | 一种基于混合现实技术的虚拟解剖教学系统 |
US11747954B1 (en) * | 2022-03-10 | 2023-09-05 | Samsung Electronics Company, Ltd. | Systems and methods for organizing contents in XR environments |
WO2023173162A1 (en) * | 2022-03-14 | 2023-09-21 | Bairamian, Daniel | An augmented reality point of view synchronisation system |
KR102458491B1 (ko) * | 2022-03-17 | 2022-10-26 | 주식회사 메디씽큐 | 실시간 수술영상 태깅이 가능한 원격협진지원시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11197159A (ja) * | 1998-01-13 | 1999-07-27 | Hitachi Ltd | 手術支援システム |
JP2009521985A (ja) * | 2005-12-31 | 2009-06-11 | ブラッコ イメージング エス.ピー.エー. | 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法 |
WO2016096547A1 (en) * | 2014-12-18 | 2016-06-23 | Koninklijke Philips N.V. | Head-mountable computing device, method and computer program product |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7317955B2 (en) * | 2003-12-12 | 2008-01-08 | Conmed Corporation | Virtual operating room integration |
US7331929B2 (en) * | 2004-10-01 | 2008-02-19 | General Electric Company | Method and apparatus for surgical operating room information display gaze detection and user prioritization for control |
WO2007108776A2 (en) * | 2005-12-31 | 2007-09-27 | Bracco Imaging S.P.A. | Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet') |
US8311791B1 (en) * | 2009-10-19 | 2012-11-13 | Surgical Theater LLC | Method and system for simulating surgical procedures |
WO2012033739A2 (en) * | 2010-09-08 | 2012-03-15 | Disruptive Navigational Technologies, Llc | Surgical and medical instrument tracking using a depth-sensing device |
US9063566B2 (en) * | 2011-11-30 | 2015-06-23 | Microsoft Technology Licensing, Llc | Shared collaboration using display device |
US20140176661A1 (en) * | 2012-12-21 | 2014-06-26 | G. Anthony Reina | System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom) |
KR20160033721A (ko) * | 2013-07-16 | 2016-03-28 | 세이코 엡슨 가부시키가이샤 | 정보 처리 장치, 정보 처리 방법 및, 정보 처리 시스템 |
EP4184483A1 (en) * | 2013-12-20 | 2023-05-24 | Intuitive Surgical Operations, Inc. | Simulator system for medical procedure training |
US9818225B2 (en) * | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
CN105892686B (zh) * | 2016-05-05 | 2018-10-09 | 刘昊 | 一种3d虚拟现实广播交互方法及系统 |
-
2018
- 2018-03-23 US US16/340,324 patent/US20200038119A1/en not_active Abandoned
- 2018-03-23 WO PCT/US2018/024154 patent/WO2018175971A1/en unknown
- 2018-03-23 JP JP2019552005A patent/JP2020515891A/ja active Pending
- 2018-03-23 TW TW107110037A patent/TW201835878A/zh unknown
- 2018-03-23 EP EP18771897.8A patent/EP3593344A4/en not_active Withdrawn
- 2018-03-23 CN CN201880003187.7A patent/CN109643530A/zh active Pending
-
2019
- 2019-09-22 IL IL26952119A patent/IL269521A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11197159A (ja) * | 1998-01-13 | 1999-07-27 | Hitachi Ltd | 手術支援システム |
JP2009521985A (ja) * | 2005-12-31 | 2009-06-11 | ブラッコ イメージング エス.ピー.エー. | 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法 |
WO2016096547A1 (en) * | 2014-12-18 | 2016-06-23 | Koninklijke Philips N.V. | Head-mountable computing device, method and computer program product |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11571225B2 (en) | 2020-08-17 | 2023-02-07 | Russell Todd Nevins | System and method for location determination using movement between optical labels and a 3D spatial mapping camera |
JP6933850B1 (ja) * | 2020-11-06 | 2021-09-08 | 株式会社Abal | 仮想空間体感システム |
WO2022097271A1 (ja) * | 2020-11-06 | 2022-05-12 | 株式会社Abal | 仮想空間体感システム |
US11806081B2 (en) | 2021-04-02 | 2023-11-07 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
US11871997B2 (en) | 2021-04-02 | 2024-01-16 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
US11600053B1 (en) | 2021-10-04 | 2023-03-07 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
US11610378B1 (en) | 2021-10-04 | 2023-03-21 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
Also Published As
Publication number | Publication date |
---|---|
IL269521A (en) | 2019-11-28 |
US20200038119A1 (en) | 2020-02-06 |
EP3593344A4 (en) | 2021-01-06 |
WO2018175971A1 (en) | 2018-09-27 |
CN109643530A (zh) | 2019-04-16 |
TW201835878A (zh) | 2018-10-01 |
EP3593344A1 (en) | 2020-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020515891A (ja) | 仮想環境における訓練および共同作業のためのシステムおよび方法 | |
US11532135B2 (en) | Dual mode augmented reality surgical system and method | |
US20190236840A1 (en) | System and method for patient engagement | |
JP6081907B2 (ja) | 医療処置のコンピュータ化シミュレーションを行うシステム及び方法 | |
WO2021011668A1 (en) | Augmented reality system and method for tele-proctoring a surgical procedure | |
US11749137B2 (en) | System and method for multisensory psychomotor skill training | |
JP2018534011A (ja) | 拡張現実感手術ナビゲーション | |
Lareyre et al. | Applications of head-mounted displays and smart glasses in vascular surgery | |
US11983824B2 (en) | System and method for augmenting and synchronizing a virtual model with a physical model | |
US11925418B2 (en) | Methods for multi-modal bioimaging data integration and visualization | |
JP2021530774A (ja) | 双方向にマルチユーザの仮想現実体験を効率的にレンダリング、管理、記録、および再生するための方法及び装置 | |
Preim et al. | Virtual and augmented reality for educational anatomy | |
US20210358218A1 (en) | 360 vr volumetric media editor | |
Garg et al. | Applications of augmented reality in medical training | |
Proniewska et al. | Holography as a progressive revolution in medicine | |
Uzun | Augmented reality in cardiology | |
Zhou et al. | Development and application of a surgical process simulation system using vr technology | |
Elsakka et al. | Virtual and augmented reality in interventional radiology: current applications, challenges, and future directions | |
TW202131875A (zh) | 用於擴增實體模型及使虛擬模型與實體模型同步之系統及方法 | |
Bhatla et al. | Augmented reality: The emerging technology in medical field | |
JP2022506708A (ja) | 光学追跡のためのシステムおよび方法 | |
Negrão | Characterizing affordances using AR for laparoscopic surgeries and challenges of planning a mixed reality remote collaboration application | |
James | A New Perspective on Minimally Invasive Procedures: Exploring the Utility of a Novel Virtual Reality Endovascular Navigation System | |
TW202228598A (zh) | 用於腫瘤追踪之系統及方法 | |
Basdogan | Integration of force feedback into virtual reality based training systems for simulating minimally invasive procedures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220413 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220614 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220920 |