JP2021512440A - 患者エンゲージメントのシステムおよび方法 - Google Patents

患者エンゲージメントのシステムおよび方法 Download PDF

Info

Publication number
JP2021512440A
JP2021512440A JP2020561606A JP2020561606A JP2021512440A JP 2021512440 A JP2021512440 A JP 2021512440A JP 2020561606 A JP2020561606 A JP 2020561606A JP 2020561606 A JP2020561606 A JP 2020561606A JP 2021512440 A JP2021512440 A JP 2021512440A
Authority
JP
Japan
Prior art keywords
patient
display
dimensional model
view
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020561606A
Other languages
English (en)
Inventor
ゲリ,アロン,ヤコブ
アヴィサル,モルデチャイ
ザッカーマン,アロン
Original Assignee
サージカル シアター インコーポレイテッド
サージカル シアター インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サージカル シアター インコーポレイテッド, サージカル シアター インコーポレイテッド filed Critical サージカル シアター インコーポレイテッド
Publication of JP2021512440A publication Critical patent/JP2021512440A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Bioethics (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

方法は、患者の静的医療画像を記憶することと、患者の医療画像を患者の解剖学的構造の3次元モデルに変換することによって、3次元モデルを生成することと、3次元モデルを記憶することと、第1のディスプレイ上で、ユーザに、対話的な形で患者の3次元モデルを表示することと、第2のディスプレイ上で、患者に、第1のディスプレイ上で対話的な形で同時に表示される3次元モデルを表示することと、患者に適合された医療に関する情報を表す明らかにする材料をユーザから受け入れるように構成された入力インターフェースをユーザに提供することと、前記明らかにする材料を用いて変更された形で第1のディスプレイ上に3次元モデルを表示することと、前記明らかにする材料を用いて変更された形で第2のディスプレイ上にも3次元モデルを表示することとを含む。【選択図】図1

Description

関連出願の相互参照
本願は、参照によってその全体が本明細書に組み込まれている、2018年1月26日に出願した米国特許仮出願第62/622581号からの優先権を主張するものである。
本開示は、外科処置の分野に関し、より具体的には患者エンゲージメントに関する。
複雑な外科処置に直面する時に、患者は、しばしば、手術までの数日または数週間に恐怖および不安を経験する場合がある。これは、患者が処置を明瞭に理解せず、したがって何を期待すべきかを知らないことの結果である場合がある。外科処置の前に患者をエンゲージさせ、教育することが、この恐怖および不安を軽減するのを助ける可能性がある。患者の病理学的状況および提案される解決策に関する、治療する医師と患者との間のより明瞭なコミュニケーションは、患者が感じる可能性がある疑念を克服し、一方の患者と他方の医師およびヘルスケア・プロバイダとの間の信頼を確立するのに重要である。また、これは、ヘルスケア・プロバイダが現在活動する競争環境と、医師およびプロバイダを選択する際に患者が直面する多数のオプションとに起因して重要である。さらに、患者にエンゲージさせ、処置に関して患者を教育することによって、患者は、複雑化なしに、フォロー・アップ・ケアのために病院に戻る必要なしに、正しい回復を保証するのに適当なケアおよびステップを講じる可能性がより高くなる。しかし、解剖学的構造または3Dモデルの画像を患者に見せるなど、患者をエンゲージさせ、教育する既存の技法は、特に手術が抽象的なまたは単独の画像もしくは3Dモデルの文脈ですら理解がむずかしい解剖学的構造の部分を含む時に、有効ではない可能性がある。
さらに、外科医または他の医療専門家が、病院の規制を満足するために、患者のエンゲージメントに関するデータを収集することが望ましい場合がある。たとえば、病院は、患者が外科処置に関する情報を提示されたこと、患者がその処置を理解したこと、および患者がその外科処置に同意することの、何らかの形の承諾書を患者が提供することを要求する場合がある。しかし、患者エンゲージメントを文書化する既存の形は、効率的または有効ではない場合がある。さらに、患者エンゲージメントを文書化する既存の形は、複数のステップを含む場合がある複雑な外科処置のすべてのステップならびにそのような処置に関連するリスクを患者が真に理解することの保証に関して、正しいデータを提供しない場合がある。
最後に、外科処置の前の協議に関して患者とエンゲージする時に、その一部が患者および/または主な治療する医師に関してリモート位置に配置される可能性がある複数の医療専門家を含めることが有益である場合がある。患者をエンゲージさせる既存のプロトコルおよび手順は、リモートに配置された医療専門家をプロセスに含めることを可能にせず、またはこれに対処しない場合がある。
患者の解剖学的構造のシミュレーションを介して患者をエンゲージさせるシステムは、第1のディスプレイと、第2のディスプレイと、1つまたは複数のプロセッサ、1つまたは複数のコンピュータ可読有形ストレージ・デバイス、および1つまたは複数のプロセッサのうちの少なくとも1つによる実行のために1つまたは複数のストレージ・デバイスのうちの少なくとも1つに記憶されたプログラム命令を含むコンピュータとを含む。プログラム命令は、患者の静的医療画像を画像データベースに記憶し、患者の医療画像を3次元モデルに変換することによって、患者の解剖学的構造の3次元モデルを生成し、患者の解剖学的構造の3次元モデルをモデル・データベースに記憶し、第1のディスプレイ上で、医療サービスのプロバイダであるユーザに、対話的な形で患者の3次元モデルを表示し、第2のディスプレイ上で、患者に、第1のディスプレイ上で対話的な形で同時に表示される患者の3次元モデルを表示し、患者に適合された医療に関する情報を表す明らかにする材料をユーザから受け入れるように構成された入力インターフェースをユーザに提供し、ユーザからの明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で第1のディスプレイ上に3次元モデルを表示し、ユーザからの明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で第2のディスプレイ上にも3次元モデルを表示するように構成される。
患者をエンゲージさせるのに患者の解剖学的構造のシミュレーションを使用する方法は、患者の静的医療画像を画像データベースに記憶するステップと、患者の医療画像を患者の解剖学的構造の3次元モデルに変換するためにコンピュータ・システム上でソフトウェアを実行することによって、3次元モデルを生成するステップと、患者の解剖学的構造の3次元モデルをモデル・データベースに記憶するステップと、第1のディスプレイ上で、医療サービスのプロバイダであるユーザに、対話的な形で患者の3次元モデルを表示するためにコンピュータ・システム上でソフトウェアを実行するステップと、第2のディスプレイ上で、患者に、第1のディスプレイ上で対話的な形で同時に表示される患者の3次元モデルを表示するためにコンピュータ・システム上でソフトウェアを実行するステップと、患者に適合された医療に関する情報を表す明らかにする材料をユーザから受け入れるように構成された入力インターフェースをユーザに提供するためにコンピュータ・システム上でソフトウェアを実行するステップと、ユーザからの明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で第1のディスプレイ上に3次元モデルを表示するためにコンピュータ・システム上でソフトウェアを実行するステップと、ユーザからの明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で第2のディスプレイ上にも3次元モデルを表示するためにコンピュータ・システム上でソフトウェアを実行するステップとを含む。
添付図面では、下で提供される詳細な説明と一緒に、請求される発明の例示的実施形態を説明する構造が示される。同様の要素は、同一の符号を用いいて識別される。単一の構成要素として示された要素を複数の構成要素に置換でき、複数の構成要素として示された要素を単一の構成要素に置換できることを理解されたい。図面は、原寸通りではなく、ある種の要素の比率が、例示のために誇張される場合がある。
例の患者エンゲージメント・システムを示す図である。 例の患者エンゲージメント・システムの例の拡張現実感アプリケーションを示す図である。 例の患者エンゲージメント・システムを示す図である。 例の患者エンゲージメント・システムの例の患者同意アプリケーションを示す図である。 例の患者エンゲージメント・システムを示す図である。 例の患者エンゲージメント・システムを示す図である。 例の患者エンゲージメント・システムの例の電子カルテ・アプリケーションを示す図である。 例の患者エンゲージメント・システムの例の患者エンゲージメント・コンピュータを示すブロック図である。 患者をエンゲージさせる例の方法を示す図である。 例の患者エンゲージメント・コンピュータを実施する例のコンピュータを示す図である。
以下の頭字語および定義は、この詳細な説明の理解を助ける。
AR 拡張現実感(Augmented Reality) その要素がサウンド、ビデオ、またはグラフィックスなどのコンピュータ生成された感覚要素によって強化されている、物理的な実世界環境のライブ・ビュー。
VR 仮想現実感(Virtual Reality) 変化する度合で人によって探検され、対話され得る、3次元のコンピュータ生成された環境。
HMD ヘッド・マウント・ディスプレイ(Head Mounted Display)は、AR環境またはVR環境で使用できるヘッドセットを指す。HMDは、有線または無線とすることができる。HMDは、ヘッドフォン、マイクロホン、HDカメラ、赤外線カメラ、ハンド・トラッカ、位置トラッカ、その他などの1つまたは複数のアドオンを含む場合もある。
コントローラ ボタンと方向コントローラとを含むデバイス。コントローラは、有線または無線とすることができる。このデバイスの例は、Xboxゲームパッド、PlayStationゲームパッド、Oculus touchなどである。
SNAPモデル SNAPケースは、DICOMファイル・フォーマットの、患者の1つまたは複数のスキャン(CT、MR、fMR、DTIなど)を使用して作成された3Dテクスチャまたは3D物体を指す。これは、3Dテクスチャ内の特定の範囲をフィルタリングし、他の範囲を着色するセグメンテーションの異なるプリセットをも含む。これは、特定の点または関心を持たれている解剖学的構造をマークする3D形状、3Dラベル、3D測定マーカー、案内用の3D矢印、および3D外科ツールを含むシーン内に配置された3D物体をも含むことができる。外科ツールおよびデバイスは、教育と、特に動脈瘤クリップのサイズを適当に定めるための患者固有リハーサルとのためにモデル化されている。
アバタ アバタは、仮想環境の内部でユーザを表す。
MD6DM 多次元完全球面仮想現実感6自由度モデル(Multi Dimension full spherical virtual reality, 6 Degrees of Freedom Model)。これは、完全球面仮想現実感環境で医師が介入を経験し、計画し、実行し、ナビゲートすることを可能にする、グラフィカル・シミュレーション環境を提供する。
参照によって本明細書に組み込まれている米国特許第8311791号で前に説明された手術リハーサルおよび準備ツールは、静的なCTおよびMRIの医療画像をリアル・タイムで医学的手技をシミュレートするのに医師によって使用され得る動的で対話型の多次元完全球面仮想現実感6自由度モデル(「MD6DM」)に変換するために開発された。MD6DMは、完全球面仮想現実感環境で医師が介入を経験し、計画し、実行し、ナビゲートすることを可能にするグラフィカル・シミュレーション環境を提供する。具体的には、MD6DMは、完全ボリュメトリック球面仮想現実感モデル内で球面仮想現実感6自由度(すなわち、線形x、y、zおよび角度ヨー、ピッチ、ロールーる)を与える、伝統的な2次元患者医療スキャンから構築された独自の多次元モデルを使用してナビゲートする能力を外科医に与える。
MD6DMは、CT、MRI、DTIなどを含む医療イメージングの患者自身のデータ・セットから構築され、患者固有である。外科医が望む場合には、Atlas dataなどの代表的な脳モデルを一体化して、部分的に患者固有のモデルを作成することができる。このモデルは、MD6DM上の任意の点からの360°球面ビューを与える。MD6DMを使用すると、見る人は、仮想的に解剖学的構造の内部に位置決めされ、患者の体内に立っているかのように解剖学的構造と病理学的構造との両方を見、観察することができる。見る人は、上、下、肩越しなどで見ることができ、正確に患者内で見られる通りに、天然構造をお互いに関して見る。内部構造の間の空間的関係が保存され、MD6DMを使用して了解され得る。
MD6DMのアルゴリズムは、医療画像情報をとり、これを球面モデルすなわち、解剖学的構造の内部を「飛んでいる」間に任意の角度から見ることのできる完全な連続リアル・タイム・モデルに構築する。具体的には、CT、MRIなどが実際の有機体を撮影し、これを数千個の点から作られた数百枚の薄いスライスに分解した後に、MD6DMは、これを、内部と外部との両方からのこれらの点のそれぞれの360°ビューを表すことによって、3Dモデルに戻す。
図1は、有効に効率的に患者をエンゲージさせるために、事前に構築されたMD6DMモデルを活用する、例の患者エンゲージメント・システム100を示す。具体的には、患者エンゲージメント・システム100は、医師が、外科処置に関して患者を教育すると同時に、外科処置および関連するリスクの患者の理解を同時に自動的に文書化することを可能にする。
患者エンゲージメント・システム100は、MD6DMデータ・ストア104と通信し、これから事前に構築されたMD6DM 360モデル(図示せず)を受信する患者エンゲージメント・コンピュータ102を含む。一例では、患者エンゲージメント・コンピュータ102は、医師106または他のユーザもしくは管理者が、患者108との協議の前に360モデルを変更することを可能にする。たとえば、医師は、協議中に有することまたは患者108に示すことが有益である可能性があるメモまたは他の適切な情報を360モデルに追加することができる。
患者エンゲージメント・コンピュータ102は、360仮想モデルがデータ・ストア104からロードされた後に、これを使用して患者108に医療を説明することによって、医師106が患者108をエンゲージさせることを可能にする。具体的には、医師106は、コントローラ110または他の適切な入力デバイスを介して患者エンゲージメント・コンピュータ102と対話し、360モデルの中および周囲にナビゲートし、この360モデルは、患者108の解剖学的構造を表す。言い換えると、医師106は、患者108の身体の内部を仮想的に旅行し、身体の内部を飛ぶことができる。患者HMD 112は、医師106が360モデルをナビゲートする時に、患者108が後に続き、360モデルによって表される彼/彼女自身の解剖学的構造を仮想的に見ることを可能にする。これは、患者エンゲージメント・コンピュータ102が、コントローラ110からナビゲーション制御命令を受信することと、適当な画像をレンダリングするためにこれらの命令を翻訳することによって可能にされ、この適当な画像は、患者108が見るために、患者エンゲージメント・コンピュータ102が患者HMD 112に通信する。これは、コントローラ110を介する医師106からの入力に基づいて、リアル・タイムで達成される。
患者エンゲージメント・システム100は、患者エンゲージメント・コンピュータ102によって生成され、患者HMD 112に通信されるものと同一の画像を受信するために、医師HMD 114をさらに含む。したがって、医師106は、360モデルによって表された解剖学的構造の患者108が見ているものと同一の同時仮想360ビューを与えられる。医師HMD 114によって提供される仮想ビューは、患者108をエンゲージさせるために、医師がコントローラ110を使用して360モデル内の位置を正確に同定し、そこにナビゲートすることをも可能にする。言い換えると、患者HMD 112は、医師HMD 114の画像および対話を鏡映する。
一例では、患者エンゲージメント・システム100は、患者エンゲージメント・コンピュータ102によって生成され、患者HMD 112に通信されるものと同一の画像を受信するために、ディスプレイ・スクリーン116を含む。したがって、一例では、医師106は、医師HMD 114を使用するのではなくディスプレイ・スクリーン116上で360モデルを見ることができ、患者108は、患者HMD 112を介して360モデルを見る。一例では、医師106と患者108との両方が、一緒に同時にディスプレイ・スクリーン114上で360モデルによって表される解剖学的構造を見ることができる。
医師106が、360モデルによって表される解剖学的構造をナビゲートする時に、医師106は、実行される外科処置に関するさまざまな重要な点を説明するのを止めることによって、患者108をエンゲージさせる。たとえば、医師106は、解剖学的構造の異なる部分が何であるのかと、特に解剖学的構造の特定の部分に関して外科処置がどのように実行されるのかと、を説明することができる。医師106は、患者108をエンゲージさせ、患者108が実行される外科処置をよりよく理解するのを助けるために、解剖学的構造の異なる部分を視察またはナビゲートし、あるいは、解剖学的構造の同一部分の異なる透視図を得るために異なる側面および角度にナビゲートすることができる。医師106は、適宜、質問に答えるために立ち止まり、または部分または位置をもう一度説明するために、同じ道を引き返し、解剖学的構造内の位置に戻ってナビゲートすることができる。
一例では、患者エンゲージメント・コンピュータ102は、患者108が見るモデル360内に表示する、医師106のメモ、マーカー、または他のタイプの入力を示すデータ入力をコントローラ110から受信し、所望のメモ、マーカーなどを表すデータを表示のために患者HMD 112に通信することができる。たとえば、医師106は、医師106が関連箇所に関して単純に話すことと比較して、患者108にとってよりエンゲージする経験を創作するために、解剖学的構造内の特定の関連箇所を強調表示し、または外科処置が特定の箇所に関してどこでどのように実行されるのかに関するメモをとることを望む場合がある。一例では、そのようなメモまたは他のデータ入力を、後の参照のためにMD6DMデータ・ストア104内に360モデルと共に保存することができる。一例では、メモまたは他のデータは、クラウド120内に配置されたリモート・データ・ストア118に保存される。
一例では、医師106のメモは、解剖学的構造内の特定の関連箇所に対応するオーディオ説明を含むことができる。さらに、オーディオ説明は、複数の関連箇所に対応する複数の箇所を含むことができる。したがって、患者エンゲージメント・コンピュータ102は、オーディオが、解剖学的構造内の対応する関連箇所の提示と一致するタイミングで患者108に提示されるように、医師106によって準備されたオーディオ説明または他の適切なオーディオなどのオーディオを360モデルと同期化することができる。
例の患者エンゲージメント・コンピュータ102が、患者HMD 112を介して患者108に仮想現実感ビューを提供するものとして説明されるが、患者エンゲージメント・コンピュータ102が、一例で、患者HMD 112を介して患者108に混合現実感ビューまたは拡張現実感ビューを提供することもできることを了解されたい。そのような例では、図2に示されているように、患者拡張現実感HMD 202および医師拡張現実感HMD 204を半透明とすることができ、その結果、患者206は、医師208が外科処置について患者206に教育している間に医師208とのアイ・コンタクトを維持できると同時に、患者協議室212の内部の拡張されたビュー内で同時に360モデル210によって表される解剖学的構造を見られるようになる。したがって、図1で説明した患者エンゲージメント・コンピュータ102は、拡張現実感ビューまたは混合現実感ビューに適するように仮想360モデルを変更するように構成され得る。さらに、患者206および医師は、360モデル210が患者協議室212に関してどこにどのように提示されるのかを指示することができる。
一例では、図3に示されているように、患者エンゲージメント・システム100は、医師106および患者108が、SNAPモデル308が頭骨406の上にオーバーレイされた物理モデル頭骨306または解剖学的構造の他の適切な部分を見ることを可能にするために、医師拡張現実感HMD 302および患者拡張現実感HMD 304を含む。そのような例では、患者エンゲージメント・コンピュータ102は、それぞれ医師106および患者108の現在の位置および画角を示すトラッキング情報を受信し、判定された位置および画角に対応するSNAP画像をリアル・タイムで生成し、生成された画像をそれぞれ医師拡張現実感HMD 302および患者拡張現実感HMD 304に通信する。これは、医師106および患者108が、物理モデル頭骨306を調べ、実際の脳の内部を見ているかのように内部の解剖学的構造を見ることを可能にする。トラッキング情報を活用することによって、医師106および患者108は、モデル頭骨306の回りを移動し、異なる位置および角度からこれを見る時に、モデル頭骨306のリアル・タイム調整された拡張現実感ビュー できる。これは、患者108エンゲージメントおよび実行される外科処置の理解をさらに促進する。
一例では、患者エンゲージメント・コンピュータ102は、患者108が医師106から外科処置に関する情報を受け取ったことと、患者108が処置および関連するリスクを理解したこととの確認を示すデータを受信し、記録する。たとえば、医師106および患者108が、解剖学的構造を通る視察または飛行および外科処置の議論を終了した時に、患者エンゲージメント・コンピュータ102は、患者108が処置を理解し合意することを示すために署名すべき、図4に示されたデジタル・フォーム402を患者に提示する。患者エンゲージメント・コンピュータ102は、必要に応じて後のアクセスのために署名された同意フォームを記憶する。一例では、患者エンゲージメント・コンピュータ102は、患者108が、患者HMD 112を介して360仮想モデル内で同意フォームに署名することを可能にすることができる。たとえば、患者108は、同意を示すチェック・ボックスを指すように360仮想モデル内のポインタを整列させる形で彼の手を動かすことによって、同意フォームに署名することができる。
一例では、患者エンゲージメント・コンピュータ102は、医師106が、協議中または飛行中に複数回、停止し、患者108に、同意するか処置の理解を確認するよう求めることを可能にする。たとえば、医師106が、解剖学的構造内の第1の位置にナビゲートし、外科処置の第1ステップまたは外科処置のある部分および適当な場合に関連するリスクを説明した後に、患者エンゲージメント・コンピュータ102は、患者108から入力を受け取った時に患者108が情報のその特定の部分を理解し、同意することを確認する仮想チェック・ボックスまたはなんらかの他の適切な入力の要求を患者108に提供することができる。その後、医師106は、外科処置の追加の情報またはステップの説明に進むことができ、患者エンゲージメント・コンピュータ102は、情報の後続のステップまたは部分ごとに、適宜、患者108同意を記録し続ける。同意プロセスを複数のステップに分解することは、医師106が情報のある特定の部分を強調することを可能にすることと、必要に応じて患者108が情報の各すべての特定の部分を理解することを保証することとによって、患者108エンゲージメントをさらに促進する
本明細書で説明するHMD、コンピュータ、およびデータ・ストアの間の通信を、有線接続または無線接続のいずれかを介して促進することができることを了解されたい。さらに、本明細書で説明する例が、単一の医師106と対話する単一の患者108を示すが、患者エンゲージメント・コンピュータ102が、同一室内の複数の当事者の間のエンゲージメントを促進することができることを了解されたい。たとえば、患者108の友人または親族が参加し、別のHMD(図示せず)またはディスプレイ・スクリーン116を介して同様にエンゲージされ得る。同様に、複数の医師が協議に参加し、患者108とエンゲージすることができる。複数の人が協議に同時にエンゲージする例では、各当事者は、対話を促進するために、360仮想モデル内で個々のアバタによって表される。
一例では、図5に示されているように、協議に参加する当事者のうちの1つまたは複数が、リモート位置に配置されてもよい。たとえば、医師106が、物理的に第1の病院502に位置し、協議に参加する患者が、自宅504に位置してもよい。第2の医師506が、第1の病院502から離れた第2の病院510から、患者エンゲージメント・コンピュータ102と通信している第2の医師HMD 508を介して同一の協議に参加することができる。これは、異なるレベルの専門知識および専門化の複数の医師が協議に同時に参加することを可能にし、したがって、患者の経験をさらに改善する。
図5に示されたシナリオ以外に、さまざまな位置から協議に参加する当事者の他の適切な組合せを、患者エンゲージメント・コンピュータ102によって促進できることを了解されたい。たとえば、患者108が、第1の医師106と同一の病室内に物理的に位置しながら、第2の離れた病院510内の第2の医師506と対話することができる。
一例では、患者エンゲージメント・コンピュータ102は、患者108が、自宅504などのリモート位置から、前に説明したように同意/承諾書に署名することを可能にすることができる。一例では、図6に示されているように、患者エンゲージメント・コンピュータ102は、患者108が、医師106との最初の協議の後に、後刻に自宅でまたは蟻任意の便利な時および位置で協議を再検討し、最初の協議の後、実際の外科処置の時の前の任意の時に同意/承諾書に署名することを可能にすることができる。具体的には、患者エンゲージメント・コンピュータ102は、医師106と患者108との間の協議のレコーディングを自動的に生成し、医師106と患者108との間の協議中に取り込まれた任意の適切なオーディオを含む、協議中に経験された解剖学的構造を通る360仮想視察または飛行の患者エンゲージメント・ビデオ602を作成する。患者エンゲージメント・ビデオ602は、医師106が協議中または任意の他の適用可能な対話中に360モデルに追加した任意の適切なメモまたは追加情報をも含むことができる。患者エンゲージメント・コンピュータ102は、クラウド120内のリモート・データ・ストア118に患者エンゲージメント・ビデオ602をアップロードする。
患者エンゲージメント・コンピュータ102は、リモート・データ・ストア118の患者エンゲージメント・ビデオ602にアクセスするためのカスタマイズされたセキュア・ビデオ・リンク604をも作成する。したがって、許可されないアクセスが防がれる。患者エンゲージメント・コンピュータ102は、ビデオ・リンク604を医師106に通信する。医師106がリンク604を受信した後に、医師106は、患者エンゲージメント・ビデオ602を再検討し、編集し、または必要に応じて追加のメモを追加し、その後、ビデオ・リンク604を患者108に送る。
ビデオ・リンク604を、郵便、電子メール、テキスト・メッセージ、その他によるなど、任意の適切な手段を介して通信できることを了解されたい。一例では、患者エンゲージメント・コンピュータ102は、患者エンゲージメント・ビデオ602にどのようにアクセスすべきかに関する情報と共にビデオ・リンク604を含む、患者108用のプリントアウトを生成し、または協議の直後に他の適切な手段を介して患者108に直接にリンクを通信することができる。そのような例では、患者エンゲージメント・ビデオ602へのアクセスは、医師106がビデオを再検討し、承認し、患者108にアクセスを許可するまで、ロックされ得る。これは、医師が患者108にビデオ・リンク604を転送することを要求するという余分なステップを除去する。
患者エンゲージメント・ビデオ602がリモート・データ・ストア118にアップロードされた後に、最初の協議の後、実際の外科処置の日まで、患者108がエンゲージされ続けるために、患者エンゲージメント・ビデオ602は、患者108に便利なように、いつでも任意の位置から患者108によってアクセスされ得る。一例では、患者エンゲージメント・コンピュータ102は、患者108がどれほど頻繁にいつビデオ602にアクセスするのかを監視し、その情報を医師106に通信する。そのような情報を有することは、医師106が、外科処置の前に患者108とよりよく対話し、エンゲージさせることを可能にすることができる。
一例では、患者108が患者エンゲージメント・ビデオ602にアクセスしなかった、または要求される同意フォームを完成させなかったと患者エンゲージメント・コンピュータ102が判定する場合に、患者エンゲージメント・コンピュータ102は、電子メール、テキスト・メッセージ、電話呼、その他などの適切な通信方法を介して、患者108または医師106のいずれかまたは両方にアラートまたはリマインダを送ることができる。
患者エンゲージメント・ビデオ602が、HIPAA規則または他の適用可能な取締規則および規定に従ってリモート・データ・ストア118で記憶され、許可されないアクセスが防がれることを了解されたい。
一例では、患者エンゲージメント・コンピュータ102は、電子カルテ(EHR)システムなどの追加のデータ供給源(図示せず)と相互作用する。そのような例では、患者エンゲージメント・コンピュータ102は、360仮想モデルの提供に加えて、仮想的なまたは拡張された形で追加の適切なコンテンツまたは情報を患者に提供し、これによって、さらなるエンゲージメントを可能にすることができる。たとえば、図7に示されているように、患者に固有のEHRレコードを検索し、仮想ビューまたは拡張ビューでHMDを介してEHRビュー702として患者に提供することができる。これは、医師と患者との間のエンゲージメントをさらに促進し、患者のカルテに含まれる特定の情報に関する議論を可能にすると同時に、異なるシステムまたはディスプレイの間で切り替える必要なしに、単一の仮想環境または拡張環境内で、実行される外科処置を議論することもできる。
図8は、例の患者エンゲージメント・コンピュータ800(すなわち、図1の患者エンゲージメント・コンピュータ102)のブロック図を示す。患者エンゲージメント・コンピュータ800は、HMDなどの第1のディスプレイ(図示せず)に患者の解剖学的構造を表す対話側3次元モデル(すなわち、前に説明した360仮想モデル)を提供するように構成されたディスプレイ・モジュールを含む。
患者エンゲージメント・コンピュータ800は、第1のディスプレイを介する3次元モデルとの対話を示すデータ入力を受信するように構成された対話モジュール804をさらに含む。患者エンゲージメント・コンピュータ800は、対話の患者の理解の確認の要求を3次元モデルに関連付けるように構成された理解モジュール806をさらに含む。一例では、対話は、解剖学的構造を通る経路に沿った移動のシミュレーションを含む。一例では、理解モジュール806は、経路内の複数の位置と共に患者の理解の確認の複数の要求を3次元モデルに関連付けるように構成される。一例では、対話は、解剖学的構造の一部にオーディオ・レコーディングを関連付けることを含む。一例では、対話は、解剖学的構造の一部にグラフィカル・メモを関連付けることを含む。
患者エンゲージメント・コンピュータ800は、患者をエンゲージさせるように構成されたエンゲージメント・モジュール808をさらに含む。エンゲージメント・モジュール808は、第2のHMDなどの第2のディスプレイに対話型3次元モデルを供給することと、3次元モデルとの対話を第2のディスプレイ上で鏡映することと、確認の関連する要求を第2のディスプレイに通信することと、対話の患者の理解の確認を示すデータを受信することとによって、患者をエンゲージさせる。
一例では、エンゲージメント・モジュール808は、対話型3次元モデルのビデオ表現、3次元モデルとの鏡映される対話、および確認の関連する要求を生成し、ビデオへのリンクを通信するようにさらに構成される。一例では、エンゲージメント・モジュール808は、リンクをアクティブ化し、これによってビデオへのアクセスを許可するようにさらに構成される。一例では、エンゲージメント・モジュール808は、リンクの通信の後に経過した時間の長さを監視し、患者の理解の確認を示すデータを受信せずに所定の時間が経過することを示すアラートを通信するようにさらに構成される。
一例では、患者エンゲージメント・コンピュータ800は、患者に関連する電子カルテを受信し、その電子カルテを第1のディスプレイに供給するように構成された電子カルテ(「EHR」)モジュール810をさらに含む。EHRモジュール810は、電子カルテとの対話を示すデータ入力を受信し、電子カルテを第2のディスプレイに供給し、電子カルテとの対話を第2のディスプレイ上に鏡映するようにさらに構成される。
一例では、第1および第2のディスプレイは、拡張現実感ヘッド・マウント・ディスプレイである。そのような例では、拡張現実感(「AR」)モジュール812が、物理的物体の第1のビューに関する第1の拡張現実感ヘッド・マウント・ディスプレイの第1の現在の位置および画角を示す第1のトラッキング情報を受信し、物理的物体の第2のビューに関する第2の拡張現実感ヘッド・マウント・ディスプレイの第2の現在の位置および画角を示す第2のトラッキング情報を受信するように構成される。ARモジュール812は、第1のトラッキング情報に対応する3次元モデルの第1のビューを生成し、第2のトラッキング情報に対応する3次元モデルの第2のビューを生成するようにさらに構成される。ARモジュール812は、第1の拡張現実感ヘッド・マウント・ディスプレイに3次元モデルの第1のビューを提供し(3次元モデルの第1のビューは、物体の第1のビューと整列し、これにオーバーレイする)、第2の拡張現実感ヘッド・マウント・ディスプレイに3次元モデルの第2のビューを提供する(3次元モデルの第2のビューは、物体の第2のビューと整列し、これにオーバーレイする)ようにさらに構成される。
図9は、患者をエンゲージさせる例の方法900を示す流れ図である。ステップ902では、コンピュータ・システム上で実行するソフトウェアが、患者の記憶された医療画像を3次元モデルに変換することによって、患者の解剖学的構造の3次元モデルを生成し、患者の解剖学的構造の3次元モデルをモデル・データベースに記憶する。ステップ904では、コンピュータ・システム上で実行するソフトウェアが、医療サービスのプロバイダであるユーザに、第1のディスプレイ上で対話的な形で患者の3次元モデルを表示する。906では、コンピュータ・システム上で実行するソフトウェアが、患者に、第2のディスプレイ上で、第1ディスプレイ上で対話的な形で同時に表示される患者の3次元モデルを表示する。908では、コンピュータ・システム上で実行するソフトウェアが、ユーザに入力インターフェースを提供し、この入力インターフェースは、患者に適合された医療に関する情報を表す明らかにする材料をユーザから受け入れるように構成される。910では、ユーザからの明らかにする材料の受信に応答して、コンピュータ・システム上で実行するソフトウェアが、前記明らかにする材料を用いて変更された形で第1のディスプレイ上で3次元モデルを表示する。912では、ユーザからの明らかにする材料の受信に応答して、コンピュータ・システム上で実行するソフトウェアが、前記明らかにする材料を用いて変更された形で第2のディスプレイ上でも3次元モデルを表示する。
図10は、図1〜図8の例の患者エンゲージメント・コンピュータ102を実施する例のコンピュータの概略図である。例のコンピュータ1000は、ラップトップ、デスクトップ、ハンドヘルド・コンピュータ、タブレット・コンピュータ、スマートホン、サーバ、および他の同様のタイプのコンピューティング・デバイスを含む、さまざまな形のデジタル・コンピュータを表すことを意図されたものである。コンピュータ1000は、バス1012を介してインターフェース1010によって動作可能に接続された、プロセッサ1002、メモリ1004、ストレージ・デバイス1006、および通信ポート1008を含む。
プロセッサ1002は、コンピュータ800内での実行のために、メモリ1004を介して命令を処理する。例の実施形態では、複数のプロセッサを、複数のメモリと一緒に使用することができる。
メモリ1004は、揮発性メモリまたは不揮発性メモリとすることができる。メモリ1004は、磁気ディスクまたは光ディスクなど、コンピュータ可読媒体とすることができる。ストレージ・デバイス1006は、フロッピ・ディスク・デバイス、ハード・ディスク・デバイス、光ディスク・デバイス、テープ・デバイス、フラッシュ・メモリ、相変化メモリ、または他の同様のソリッド・ステート・メモリ・デバイス、あるいは他の構成のストレージ・エリア・ネットワーク内のデバイスを含むデバイスのアレイなど、コンピュータ可読媒体とすることができる。コンピュータ・プログラム製品を、メモリ1004またはストレージ・デバイス1006などのコンピュータ可読媒体内で有形に実施することができる。
コンピュータ1000を、ディスプレイ1014、プリンタ1016、スキャナ1018、およびマウス1020などの1つまたは複数の入力デバイスおよび出力デバイスに結合することができる。
当業者によって了解されるように、例の実施形態は、方法、システム、コンピュータ・プログラム製品、または前述の組合せとして実現され得、あるいは、一般にこれらを利用することができる。したがって、実施形態のいずれもが、コンピュータ・ハードウェア上での実行のためにストレージ・デバイスに記憶された実行可能命令を含む特殊化されたソフトウェアの形をとることができ、ソフトウェアは、媒体内で実施されたコンピュータ使用可能プログラム・コードを有するコンピュータ使用可能記憶媒体に記憶され得る。
データベースは、開示されるサーバまたは追加のコンピュータ・サーバ上で動作できる、MySQLなどのオープン・ソース・ソリューションまたはMicrosoft SQLなどのクローズド・ソリューションなど、市販コンピュータ・アプリケーションを使用して実施され得る。データベースは、上で開示した例の実施形態に使用されるデータ、モデル、およびモデル・パラメータを記憶するのにリレーショナル・パラダイムまたはオブジェクト指向パラダイムを利用することができる。そのようなデータベースを、本明細書で開示される特殊化された適用可能性のために既知のデータベース・プログラミング技法を使用してカスタマイズすることができる。
任意の適切なコンピュータ使用可能(コンピュータ可読)媒体を、実行可能命令を含むソフトウェアの記憶に利用することができる。コンピュータ使用可能媒体またはコンピュータ可読媒体は、たとえば、電子、磁気、光学、電磁、赤外線、または半導体のシステム、装置、デバイス、または伝搬媒体とすることができるが、これに限定されない。コンピュータ可読媒体のより特定の例(非網羅的リスト)は、1つまたは複数のワイヤを有する電気接続か、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取専用メモリ(ROM)、消去可能プログラム可能読取専用メモリ(EPROMまたはフラッシュ・メモリ)、コンパクト・ディスク読取専用メモリ(CDROM)、または他の有形の光学ストレージ・デバイスもしくは磁気ストレージ・デバイスなどの有形の媒体か、あるいはインターネットまたはイントラネットをサポートするものなどの伝送媒体か、を含む。
本文書の文脈では、コンピュータ使用可能媒体またはコンピュータ可読媒体は、1つまたは複数のプログラム可能なまたは専用のプロセッサ/コントローラを含む任意の適切なコンピュータ(またはコンピュータ・システム)を含むことのできる命令実行システム、プラットフォーム、装置、またはデバイスによる使用またはこれらに関連する使用のためにプログラム命令を含み、記憶し、通信し、伝搬させ、または移動させることができる任意の媒体とすることができる。コンピュータ使用可能媒体は、ベースバンド内または搬送波の一部としてのいずれかでコンピュータ使用可能プログラム・コードをそれと共に実施された伝搬されるデータ信号を含むことができる。コンピュータ使用可能プログラム・コードを、インターネット、地上通信線、光ファイバ・ケーブル、ローカル通信バス、ラジオ周波数(RF)、または他の手段を含むがこれに限定されない任意の適当な媒体を使用して伝送することができる。
例の実施形態の動作を実行する実行可能命令を有するコンピュータ・プログラム・コードは、BASIC、Lisp、VBA、もしくはVBScript、またはvisual basicなどのGUI実施形態などの、解釈される言語もしくはイベント駆動言語、FORTRAN、COBOL、もしくはPascalなどのコンパイルされるプログラミング言語、Java、JavaScript、Perl、Smalltalk、C++、Object Pascal、もしくは類似物などの、スクプティングされるかスクプティングされないオブジェクト指向のプログラミング言語、Prologなどの人工知能言語、Adaなどのリアル・タイム組込み言語、または、ラダー・ロジック、アセンブラ言語、もしくは適当な機械語を使用する直接プログラミングを使用するより直接的なまたは単純化されたプログラミングを含むがこれに限定されない任意のコンピュータ言語を使用して従来の手段によって記述され得る。
用語「includes」または「including」が本明細書または特許請求の範囲で使用される範囲で、これは、用語「comprising」が請求項で前後を接続する語として使用される時にこの用語が解釈される時の用語「comprising」に似た形で包括的であることが意図されている。さらに、用語「or」が使用される(たとえばA or B)範囲で、これは、「AまたはBまたは両方」を意味することが意図されている。本出願人が、「AまたはBのみで両方ではない」と示すことを意図する時には、用語「only A or B but not both」が使用される。したがって、本明細書での用語「or」の使用は、包括的であって排他的ではない。Bryan A.Garner、A Dictionary of Modern Legal Usage 624(2d. Ed. 1995年)を参照されたい。また、用語「in」または「into」が本明細書または特許請求の範囲で使用される範囲で、これは、「on」または「onto」をさらに意味することが意図されている。さらに、用語「connect」が本明細書または特許請求の範囲で使用される範囲で、これは、「directly connected to(〜に直接に接続される)」だけを意味するのではなく、別の1つまたは複数の構成要素を介して接続されるなど、「indirectly connected to(〜に間接に接続される)」をも意味することが意図されている。
本願が、その実施形態の説明によって示され、実施形態が、かなり詳細に説明されたが、添付の請求項の範囲をそのような詳細に制限し、またはいかなる形であれ限定することは、本出願人の意図ではない。追加の利益および変更が、当業者にはたやすく明らかになる。したがって、本願は、その最も広い態様において、示され説明された特定の詳細、代表的な装置および方法、ならびに例示的な例に限定されない。したがって、本出願人の全般的な発明的概念の趣旨または範囲から逸脱せずに、そのような詳細から新案を作ることができる。

Claims (20)

  1. 患者の解剖学的構造のシミュレーションを介して前記患者をエンゲージさせるシステムであって、
    第1のディスプレイと、
    第2のディスプレイと、
    1つまたは複数のプロセッサ、1つまたは複数のコンピュータ可読有形ストレージ・デバイス、および前記1つまたは複数のプロセッサのうちの少なくとも1つによる実行のために前記1つまたは複数のストレージ・デバイスのうちの少なくとも1つに記憶されたプログラム命令を含むコンピュータであって、前記プログラム命令は、
    前記患者の静的医療画像を画像データベースに記憶し、
    前記患者の前記医療画像を前記患者の解剖学的構造3次元モデルに変換することによって前記3次元モデルを生成し、
    前記患者の前記解剖学的構造の前記3次元モデルをモデル・データベースに記憶し、
    前記第1のディスプレイ上で、医療サービスのプロバイダであるユーザに、対話的な形で前記患者の前記3次元モデルを表示し、
    前記第2のディスプレイ上で、前記患者に、前記第1のディスプレイ上で対話的な形で同時に表示される前記患者の前記3次元モデルを表示し、
    前記患者に適合された医療に関する情報を表す明らかにする材料を前記ユーザから受け入れるように構成された入力インターフェースを前記ユーザに提供し、
    前記ユーザからの前記明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で前記第1のディスプレイ上に前記3次元モデルを表示し、
    前記ユーザからの前記明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で前記第2のディスプレイ上にも前記3次元モデルを表示する
    ように構成される、コンピュータと
    を含むシステム。
  2. 前記プログラム命令は、前記患者に第2の入力インターフェースを提供するようにさらに構成され、前記第2の入力インターフェースは、前記患者に適合された前記医療の前記患者の理解および同意を表すデータを前記患者から受け入れるように構成される、請求項1に記載のシステム。
  3. 前記明らかにする材料は、前記患者の解剖学的構造を通る経路に沿った移動のシミュレーションを含む、請求項1に記載のシステム。
  4. 前記明らかにする材料は、オーディオ・レコーディングおよびグラフィカル・メモのうちの少なくとも1つを含む、請求項1に記載のシステム。
  5. 前記プログラム命令は、
    電子カルテ(「EHR」)システムから前記患者に関連するEHRを受信するように構成されたEHRインターフェースを提供し、
    前記EHRの受信に応答して、前記EHRを用いて変更された形で前記第1のディスプレイ上に前記3次元モデルを表示し、
    前記EHRの受信に応答して、前記EHRを用いて変更された形で前記第2のディスプレイ上にも前記3次元モデルを表示する
    ようにさらに構成される、請求項1に記載のシステム。
  6. 前記第1のディスプレイは、第1のヘッド・マウント・ディスプレイを含み、前記第2のディスプレイは、第2のヘッド・マウント・ディスプレイを含む、請求項1に記載のシステム。
  7. 前記第1のヘッド・マウント・ディスプレイは、第1の拡張現実感ヘッド・マウント・ディスプレイを含み、前記第2のヘッド・マウント・ディスプレイは、第2の拡張現実感ヘッド・マウント・ディスプレイを含む、請求項6に記載のシステム。
  8. 前記プログラム命令は、
    物理的物体の第1のビューに関する前記第1の拡張現実感ヘッド・マウント・ディスプレイの第1の現在の位置および画角を示す第1のトラッキング情報と、前記物理的物体の第2のビューに関する前記第2の拡張現実感ヘッド・マウント・ディスプレイの第2の現在の位置および画角を示す第2のトラッキング情報を受信することとを受信し、
    前記第1のトラッキング情報に対応する前記3次元モデルの第1のビューと、前記第2のトラッキング情報に対応する前記3次元モデルの第2のビューを生成することとを生成し、
    前記物体の前記第1のビューと整列し、これにオーバーレイする、前記3次元モデルの前記第1のビューを前記第1の拡張現実感ヘッド・マウント・ディスプレイに、前記物体の前記第2のビューと整列し、これにオーバーレイする、前記3次元モデルの前記第2のビューを前記第2の拡張現実感ヘッド・マウント・ディスプレイに提供することを提供する
    ようにさらに構成される、請求項7に記載のシステム。
  9. 前記プログラム命令は、
    前記明らかにする材料を用いて変更され、前記患者に適合された前記医療の前記患者の理解および同意を表す前記データの前記第2の入力インターフェースによる要求を用いてさらに変更された前記3次元モデルを表すビデオを生成し、
    前記ビデオを記憶し、
    前記ビデオへのリンクを通信する
    ようにさらに構成される、請求項2に記載のシステム。
  10. 前記プログラム命令は、
    前記リンクの通信の後に経過した時間の長さを監視し、
    前記患者に適合された前記医療の前記患者の理解および同意を表す前記データを前記患者から受信せずに所定の時間が経過することを示すアラートを通信する
    ようにさらに構成される、請求項9に記載のシステム。
  11. 患者をエンゲージさせるのに前記患者の解剖学的構造のシミュレーションを使用する方法であって、
    前記患者の静的医療画像を画像データベースに記憶するステップと、
    前記患者の前記医療画像を前記患者の解剖学的構造の3次元モデルに変換するためにコンピュータ・システム上でソフトウェアを実行することによって、前記3次元モデルを生成するステップと、
    前記患者の前記解剖学的構造の前記3次元モデルをモデル・データベースに記憶するステップと、
    第1のディスプレイ上で、医療サービスのプロバイダであるユーザに、対話的な形で前記患者の前記3次元モデルを表示するためにコンピュータ・システム上でソフトウェアを実行するステップと、
    第2のディスプレイ上で、前記患者に、前記第1のディスプレイ上で対話的な形で同時に表示される前記患者の前記3次元モデルを表示するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記患者に適合された医療に関する情報を表す明らかにする材料を前記ユーザから受け入れるように構成された入力インターフェースを前記ユーザに提供するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記ユーザからの前記明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で前記第1のディスプレイ上に前記3次元モデルを表示するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記ユーザからの前記明らかにする材料の受信に応答して、前記明らかにする材料を用いて変更された形で前記第2のディスプレイ上にも前記3次元モデルを表示するために前記コンピュータ・システム上でソフトウェアを実行するステップと
    を含む方法。
  12. 前記患者に第2の入力インターフェースを提供するために前記コンピュータ・システム上でソフトウェアを実行するステップをさらに含み、前記第2の入力インターフェースは、前記患者に適合された前記医療の前記患者の理解および同意を表すデータを前記患者から受け入れるように構成される、請求項11に記載の方法。
  13. 前記明らかにする材料は、前記患者の解剖学的構造を通る経路に沿った移動のシミュレーションを含む、請求項11に記載の方法。
  14. 前記明らかにする材料は、オーディオ・レコーディングおよびグラフィカル・メモのうちの少なくとも1つを含む、請求項11に記載の方法。
  15. 電子カルテ(「EHR」)システムから前記患者に関連するEHRを受信するように構成されたEHRインターフェースを提供するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記EHRの受信に応答して、前記EHRを用いて変更された形で前記第1のディスプレイ上に前記3次元モデルを表示するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記EHRの受信に応答して、前記EHRを用いて変更された形で前記第2のディスプレイ上にも前記3次元モデルを表示するために前記コンピュータ・システム上でソフトウェアを実行するステップと
    をさらに含む、請求項11に記載の方法。
  16. 前記第1のディスプレイは、第1のヘッド・マウント・ディスプレイを含み、前記第2のディスプレイは、第2のヘッド・マウント・ディスプレイを含む、請求項11に記載の方法。
  17. 前記第1のヘッド・マウント・ディスプレイは、第1の拡張現実感ヘッド・マウント・ディスプレイを含み、前記第2のヘッド・マウント・ディスプレイは、第2の拡張現実感ヘッド・マウント・ディスプレイを含む、請求項16に記載の方法。
  18. 物理的物体の第1のビューに関する前記第1の拡張現実感ヘッド・マウント・ディスプレイの第1の現在の位置および画角を示す第1のトラッキング情報と、前記物理的物体の第2のビューに関する前記第2の拡張現実感ヘッド・マウント・ディスプレイの第2の現在の位置および画角を示す第2のトラッキング情報を受信することとを受信するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記第1のトラッキング情報に対応する前記3次元モデルの第1のビューと、前記第2のトラッキング情報に対応する前記3次元モデルの第2のビューを生成することとを生成するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記第1の拡張現実感ヘッド・マウント・ディスプレイに前記物体の前記第1のビューと整列し、これにオーバーレイする、前記3次元モデルの前記第1のビューを、および前記物体の前記第2のビューと整列し、これにオーバーレイする、前記3次元モデルの前記第2のビューを前記第2の拡張現実感ヘッド・マウント・ディスプレイに提供することを提供するために前記コンピュータ・システム上でソフトウェアを実行するステップと
    をさらに含む、請求項17に記載の方法。
  19. 前記明らかにする材料を用いて変更され、前記患者に適合された前記医療の前記患者の理解および同意を表す前記データの前記第2の入力インターフェースによる要求を用いてさらに変更された前記3次元モデルを表すビデオを生成するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記ビデオを記憶するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記ビデオへのリンクを通信するために前記コンピュータ・システム上でソフトウェアを実行するステップと
    をさらに含む、請求項12に記載の方法。
  20. 前記リンクの通信の後に経過した時間の長さを監視するために前記コンピュータ・システム上でソフトウェアを実行するステップと、
    前記患者に適合された前記医療の前記患者の理解および同意を表す前記データを前記患者から受信せずに所定の時間が経過することを示すアラートを通信するために前記コンピュータ・システム上でソフトウェアを実行するステップと
    をさらに含む、請求項19に記載の方法。
JP2020561606A 2018-01-26 2019-01-25 患者エンゲージメントのシステムおよび方法 Pending JP2021512440A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862622581P 2018-01-26 2018-01-26
US62/622,581 2018-01-26
PCT/US2019/015203 WO2019147972A1 (en) 2018-01-26 2019-01-25 System and method for patient engagement

Publications (1)

Publication Number Publication Date
JP2021512440A true JP2021512440A (ja) 2021-05-13

Family

ID=67392302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561606A Pending JP2021512440A (ja) 2018-01-26 2019-01-25 患者エンゲージメントのシステムおよび方法

Country Status (7)

Country Link
US (1) US20190236840A1 (ja)
EP (1) EP3735695A4 (ja)
JP (1) JP2021512440A (ja)
CN (1) CN110520932A (ja)
IL (1) IL276301A (ja)
TW (1) TW201935490A (ja)
WO (1) WO2019147972A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11684401B2 (en) 2018-09-07 2023-06-27 Cilag Gmbh International Backplane connector design to connect stacked energy modules
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
USD959477S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959447S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11205296B2 (en) * 2019-12-20 2021-12-21 Sap Se 3D data exploration using interactive cuboids
USD959476S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US20210295730A1 (en) * 2020-03-18 2021-09-23 Max OROZCO System and method for virtual reality mock mri
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US20220331047A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Method for intraoperative display for surgical systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273362A (ja) * 2000-03-23 2001-10-05 Toshiba Corp 医療診断支援方法、そのシステム、そのための検索端末及び医療情報端末
JP2006072533A (ja) * 2004-08-31 2006-03-16 Toshiba Corp 治療方針決定支援システム
US20060178913A1 (en) * 2005-02-09 2006-08-10 Anne Lara Medical and other consent information management system
JP2015062119A (ja) * 2013-09-22 2015-04-02 株式会社リコー 医療関係者用モバイル情報ゲートウェイ
WO2017066373A1 (en) * 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544649A (en) * 1992-03-25 1996-08-13 Cardiomedix, Inc. Ambulatory patient health monitoring techniques utilizing interactive visual communication
US20070214002A1 (en) * 2001-04-30 2007-09-13 Smith James C System for outpatient treatment of chronic health conditions
US7302488B2 (en) * 2002-06-28 2007-11-27 Microsoft Corporation Parental controls customization and notification
US7658611B2 (en) 2004-03-18 2010-02-09 Reality Engineering, Inc. Interactive patient education system
US10037820B2 (en) * 2012-05-29 2018-07-31 Medical Avatar Llc System and method for managing past, present, and future states of health using personalized 3-D anatomical models
CA2871845A1 (en) * 2012-06-08 2013-12-12 Hewlett-Packard Development Company, L.P. Patient information interface
DE102015226669B4 (de) * 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273362A (ja) * 2000-03-23 2001-10-05 Toshiba Corp 医療診断支援方法、そのシステム、そのための検索端末及び医療情報端末
JP2006072533A (ja) * 2004-08-31 2006-03-16 Toshiba Corp 治療方針決定支援システム
US20060178913A1 (en) * 2005-02-09 2006-08-10 Anne Lara Medical and other consent information management system
JP2015062119A (ja) * 2013-09-22 2015-04-02 株式会社リコー 医療関係者用モバイル情報ゲートウェイ
WO2017066373A1 (en) * 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation

Also Published As

Publication number Publication date
EP3735695A4 (en) 2021-10-20
US20190236840A1 (en) 2019-08-01
IL276301A (en) 2020-09-30
WO2019147972A1 (en) 2019-08-01
EP3735695A1 (en) 2020-11-11
TW201935490A (zh) 2019-09-01
CN110520932A (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
JP2021512440A (ja) 患者エンゲージメントのシステムおよび方法
US11730545B2 (en) System and method for multi-client deployment of augmented reality instrument tracking
Silva et al. Emerging applications of virtual reality in cardiovascular medicine
Sutherland et al. Applying modern virtual and augmented reality technologies to medical images and models
US20210015583A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
US20200038119A1 (en) System and method for training and collaborating in a virtual environment
US11983824B2 (en) System and method for augmenting and synchronizing a virtual model with a physical model
JP2022541233A (ja) 外科手術のためのパラメータを推奨するためのシステムおよび方法
Rachmad MediVerse: Challenges And Development Of Digital Health Transformation Towards Metaverse in Medicine
JP2023521714A (ja) ビデオコラボレーションのための方法及びシステム
Sugimoto Cloud XR (extended reality: virtual reality, augmented reality, mixed reality) and 5g mobile communication system for medical image-guided holographic surgery and telemedicine
Gupta et al. Augmented reality based human-machine interfaces in healthcare environment: benefits, challenges, and future trends
Zhang et al. Immersive augmented reality (I am real)–remote clinical consultation
Riva et al. Virtual reality as telemedicine tool: technology, ergonomics and actual applications
US20210358218A1 (en) 360 vr volumetric media editor
Proniewska et al. Holography as a progressive revolution in medicine
US20220130039A1 (en) System and method for tumor tracking
Pucer et al. Augmented Reality in Healthcare
Sutherland et al. Augmented and Virtual Reality in Medicine
Bailey et al. Streaming Virtual Reality: An Innovative Approach to Distance Healthcare Simulation
Virag Contributions to the visualization process and manipulation of pseudo-holographic images
TW202131875A (zh) 用於擴增實體模型及使虛擬模型與實體模型同步之系統及方法
Marsh Virtual Reality and Its Integration into a Twenty‐First Century Telemedical Information Society
Marsh The integration of virtual reality into a Web-based telemedical information society
Huber et al. Highly-Immersive Virtual Reality Laparoscopy Simulation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230815