JP2023520741A - ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法 - Google Patents

ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法 Download PDF

Info

Publication number
JP2023520741A
JP2023520741A JP2023503519A JP2023503519A JP2023520741A JP 2023520741 A JP2023520741 A JP 2023520741A JP 2023503519 A JP2023503519 A JP 2023503519A JP 2023503519 A JP2023503519 A JP 2023503519A JP 2023520741 A JP2023520741 A JP 2023520741A
Authority
JP
Japan
Prior art keywords
image stream
medical
images
model
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023503519A
Other languages
English (en)
Inventor
パッパラルド,オマール
ピアッティ,フィリッポ
ロッシーニ,ジョヴァンニ
マルッロ,ヤーコポ
ピッタリス,ステファノ
Original Assignee
アルティネス・ソチエタ・ア・レスポンサビリタ・リミタータ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルティネス・ソチエタ・ア・レスポンサビリタ・リミタータ filed Critical アルティネス・ソチエタ・ア・レスポンサビリタ・リミタータ
Publication of JP2023520741A publication Critical patent/JP2023520741A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)

Abstract

本発明は、介入部位で取得された医用画像ストリームを、遠隔ホログラフィックデバイス(112)によって可視化する方法に関し、本方法は、A.患者の身体器官の医用画像ストリームを医用取得装置(101)によって取得するステップであって、介入中に医療機器が患者の身体器官に挿入される、ステップと、B.医用画像ストリームをサーバ(105)上の仮想マシンにストリーミングするステップ(102)と、C.当該仮想マシン上で実行される、画像ストリームのみに基づくエキスパートアルゴリズム(107)によって、医療機器のデジタル位置及び向き、並びに画像ストリーム内の画像の少なくともサブセット上にある少なくとも2つのデジタル解剖学的ランドマークを同定するステップと、D.医療機器のデジタル位置及び向きを表すグラフィック要素を生成し、かつ当該画像のサブセットにグラフィック要素を重ね合わせることで、重ね合わせ画像ストリームを取得するステップと、E.重ね合わせ画像ストリームをビデオ信号へと再フォーマットするステップ(108)と、F.可視化を行うために、遠隔ホログラフィックデバイス(112)にビデオ信号を送信するステップと、を実行することを含む。

Description

本発明は、ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法に関する。
アメリカ家庭医学会(American Academy of Family Physicians:AAFP)によれば、プロクタリングとは、医療スタッフを代表し、なおかつ医療スタッフに対して指導責任を負う立場にあるプロクター(監督医師)が、医師の臨床能力を客観的に評価することである。権限を求める新人の医療スタッフ、又は新たに権限の拡大を求める既存の医療スタッフに対し、診療の提供中又は権限が求められる手技の実行中にプロクタリングが行われる。多くの場合、プロクターは、別の医師の技術的な能力や認識能力を評価する監督としての役割のみを果たす。プロクターが患者の治療を直接行うことはなく、受療患者との医師・患者関係を有しないため、患者から診察料を受け取ることはない。
「プロクター制度」及び「プリセプター制度」という用語は、場合によっては互換的に使用される。しかしながら、プリセプター制度は、指導医が別の医師に対して新たな技能の指導を行い、なおかつその指導医が患者の治療に対する主な責任を負う教育プログラムであるという点で異なっている。
プロクタリングには、事前、同時並行、及び事後の3つの形式がある。事前のプロクタリングでは、プロクターは治療前に、患者を自身で検査するか、又は患者のカルテをレビューする。この形式のプロクタリングは、特定の手技に対する指示を決定することが困難である場合、又は当該手技が特に危険を伴う場合に使用されてもよい。同時並行のプロクタリングでは、プロクターは希望者の手技を直接監視する。この形式のプロクタリングは通常、当該希望者の力量を保証する説明をプロクターが医療スタッフに直接行うことができるように、侵襲的手技に使用される。事後のプロクタリングは、プロクターが患者のカルテを事後に検討することを含む。事後の検討は通常、非侵襲的手技のプロクタリングに適している。
同時並行のプロクタリングには時間がかかり、準備して実施するのがより困難であるが、最も有効であり得る。
特許文献1は、2Dフラットパネルスクリーン上に可視化する際に生じるいくつかの不都合を克服する、ライブ3Dホログラフィックガイダンス及びナビゲーションを用いて低侵襲的に実施され得る介入手技を開示している。ライブ3Dホログラフィックガイダンスは、トラッキングされた介入器具/機器のナビゲーションを可能にするために、患者身体の一部の完全なホログラフィック表示を提供することができる。しかしながら、開示されている方法では、こうした表示を実現するために光発生器及びトラッキングデバイスを使用しており、このトラッキングデバイスは反射マーカであり得、またトラッキングデータを提供するために、光学的にトラッキングされ得る。このため、そのようなマーカは、これらのデバイスに介入手術を依存させている物理的デバイスと言える。これらのデバイスを既存の介入器具に適用することは、困難又は不可能でさえあり得る。これらのデバイスを新たに介入器具に組み込むとコストがかかる恐れがあり、また当該器具のサイズが大型化するだけでなく、その機能性にも影響が及ぶ可能性がある。
仮想の遠隔プロクタリングを実現するために、情報通信技術を使用することが強く必要とされており、この仮想の遠隔プロクタリングにより、病院の医師をプロクタリングするのに世界で最も適した専門家を起用することができる。このような点から、トラッキング対象の器具にいかなる物理的なマーカデバイスも追加することなく、即ち画像演算のみによって、手術中に介入器具をトラッキングする方法を備える必要性が感じられている。このように、介入器具の開発と、トラッキング技術及びプロクタリング技術の開発とは独立して行われ、これによりコスト削減、専用の研究、サイズの縮小、実際のリアルタイムの遠隔支援を可能にするトラッキング速度の向上、及び物理的マーカの誤動作の回避を含む、利点すべてがもたらされる。
米国特許出願公開第2019339525(A1)号明細書
本発明の目的は、ホログラフィックによる遠隔プロクタリングのための、外科的介入中の医療機器のリアルタイムトラッキング方法を提供することである。
本発明の主題は、添付の特許請求の範囲による医療機器のリアルタイムトラッキング方法である。
本発明の特定の主題は、添付のサーバの請求項に記載されている、本発明の方法で使用されるように構成されたサーバである。
ここで本発明について、添付の図面における図を具体的に参照して、限定ではなく例示の目的で説明する。
本発明の概略的なプロクタリングによる支援の概念を示す図である。 本発明による一実施形態を示す詳細なフローチャートである。 本発明を使用する医師及びプロクターを示す概略図である。 心臓介入に適用される本発明の方法において、AIを訓練するために使用される様々な学習用セットを示す図である。 心臓介入に適用される本発明の方法において、AIを訓練するために使用される様々な学習用セットを示す図である。 心臓介入に適用される本発明の方法において、AIを訓練するために使用される様々な学習用セットを示す図である。 本発明による方法のニューラルネットワーク訓練の一例における、学習用データセット(濃灰色)及び検証用データセット(薄灰色)でのUNETニューラルネットワークの損失傾向を示す図である。 本発明による検証用画像に対して得られた、本発明のニューラルネットワークの結果例を示す図である。1行目は機器のセグメント化に関し、2行目は心臓の弁尖に関する。左の画像は、切り取られた診断画像に重ね合わされたニューラルネットワークによるセグメント化を示し、中央の画像は、テスト提供者によって提供されたセグメント化を示し、また右の画像では、ニューラルネットワークによるセグメント化が示されている。 本発明によるニューラルネットワークの結果例を示し、ここでは弁尖のセグメント化(2行目)は誤っており不完全であるが、機器のセグメント化(1行目)は正確である。
当業者が本稿の記載から直接的かつ明確に理解を得るように、本発明の技術的概念を考慮しながら制限することなく、異なる実施形態の要素を組み合わせて更なる実施形態を提供できることが、ここに明記される。
本明細書はまた、その実施のために、例えば同じ種類の解決策において従来技術で通常使用される比較的重要性が低い要素など、記載していない個別の特性に関して、従来技術を参照している。
1つの要素が導入される場合、それは常に「少なくとも1つ(at least one)」又は「1つ又は複数(one or more)」であり得ることを意味する。
要素又は特徴のリストが本明細書に列挙されている場合、本発明による知見は、そのような要素を「備える(comprise)」又はそのような要素から「構成される(is composed of)」ことが理解される。
実施形態
以下の実施形態は、心臓介入中のプロクタリングに言及しているが、本発明の方法が、あらゆる器官又は器官群のあらゆる外科的又は医学的介入の遠隔プロクタリングを可能にすることを理解されたい。
実際に図1を参照すると、プロクタリングサービスを提供する医療機器会社10は、情報通信ネットワーク20を使用して1つ又は複数の病院30に接続しており、病院で行われた介入からのデータが、好ましくはマルチアクセス・エッジ・コンピューティング(Multi-access edge computing:MEC)40を使用して転送されている。
以下の実施形態は5G情報通信ネットワークの使用に言及しているが、本発明の方法が、経路の遅延時間が異なっているケーブル接続及びWi-Fi(登録商標)を含む、他の現行又は将来型のネットワークによっても十分に実現され得ることを理解されたい。
本発明の一態様によれば、患者の心臓弁及び心臓構造の心エコー画像が、経カテーテル外科的手技中の心血管医療機器を埋植している間に取得される。手技に使用されて埋植されない機器も含むあらゆる種類の医療機器が、本発明に従ってトラッキングされ得る。
この点に関して、本発明の方法によってトラッキングされるに際し、医療機器がその内部/上に物理的マーカ(又は任意のトラッキングハードウェアシステム若しくは構成要素)を有する必要はない。本発明の方法は、画像処理のみによって機能する。しかしながら、状況によっては、本発明の方法を別の形で補完するために、1つ又は複数の物理的マーカを備える医療機器を使用することができる。
取得時、画像は患者の関心対象の解剖学的構造(例えば、心臓弁の弁尖、弁輪、左心房及び左心室)と、操作者によって操作される医療機器とを含む。
図2のフローチャートを参照すると、患者の心臓のライブイメージング映像が、手術室内の心エコー装置101によって撮像されている。そのようなライブイメージング映像は、ビデオキャプチャ装置(例えばHDMI(登録商標)変換器)を介してキャプチャされ得、好ましくは101の出力と同一の解像度及びフレームレートを維持しながら、(手術室内の)ローカルコンピュータ上のストリーミングソフトウェア102(例えば、ピアツーピアのビデオストリーミング)に生データとして送信され得る。
102のストリーミングソフトウェアはビデオ入力を取得し、ストリーミングソフトウェア受信部106が設置されたサーバ105(例えば、M.E.C環境が実装される)内の仮想マシン(例えば、現在では複合現実デバイス間の接続により適しているWindows(登録商標)オペレーティングシステムを使用している)のIPアドレスに向けたストリーミング接続(例えば、ユーザ・データグラム・プロトコル(User Datagram Protocol:UDP)を生成する。
ピアツーピアビデオ受信部106は、5Gルータ103及び5Gアンテナ104を介してストリーミング信号を受信し、好ましくは101の出力と同一の解像度及びフレームレートを維持する。本発明の好ましい一実施形態によれば、この時点で、20Mbit/s近くのデータ転送が102から106へと生成される。
本発明によれば、通常5Gルータは、LAN又はWiFiケーブルを介してビデオストリーマに接続され得、また5G無線信号を介して5Gアンテナに接続され得る。さらに、本発明の一態様によれば、ルータの代わりに、5G SIMを備えるコンピュータを使用して、ネットワークに直接アクセスすることができる。
別の実施形態によれば、ルータは、エンドユーザのホログラフィック(可視化)デバイスに組み込まれ得る(図2では、ブロック103はブロック113に組み込まれている)。より一般的には、エンドユーザのホログラフィック(可視化)デバイスは、(5G)ネットワークに接続するように構成され得る。
次いで、ビデオストリーミングが、好ましくは画像の連続ストリームとしてAIネットワーク107に渡される。AIネットワークは心エコー画像上で、ストリーム画像の少なくともサブセットごとに、好ましくは処理されたすべての画像ごとに(即ち、ビデオフレームごとに)、上記医療機器の位置及び少なくとも2つの解剖学的ランドマーク(本実施例では僧帽弁弁尖から弁輪にかけての挿入)を認識するように訓練されている。解剖学的ランドマークは、位置、向き、形状、特定の点又は代表点のうちの1つ又は複数によって定義され得る。これらのランドマークは2つの効果を有し得、即ちプロクタリングされる者(本発明の一態様に従って画像ストリームに重ね合わされたグラフィック要素によって表される場合)又は医師が関心領域を認識するのを補助することができ、また以下に説明するように、これらを使用して、手技の3D表現を作成することができる。
AIの訓練段階中に使用されるデータセットと一致するように、各フレームがグレースケール画像に変換され得る。この演算は、データレベル並列性(single instruction, multiple data:SIMD)を利用して、高度に並列に算出される。
ここでは1つの医療機器について言及しているが、本発明の方法により、介入で使用される2つ以上の医療機器を同時並行的に認識できるようになる。
受信されたフレームはローカルバッファにキャッシュされ得、即ち少数のフレームのセットとなり、次いでAIが個々の画像を処理すると、即時にローカルバッファから除去され得る。AIによるフレームの処理速度がバッファ充填の速度よりも遅い場合、キャッシュが完全にフルになる可能性があり、この場合、ユーザに対し確実にスムーズなフレームフローが戻るようにするために、ビデオストリームを停止するのではなく、AIからの情報なしで元のビデオフレームを代わりに使用することが好ましい。
本発明の一態様によれば、AIネットワーク107(又は、より一般的にはエキスパートアルゴリズム)は、デバイスの位置(及び好ましくは向きも)と解剖学的ランドマークとを表示するために、各処理画像に重ね合わされるグラフィック要素(例えば、任意の形状の線又はセグメント)を生成している。この演算は、当該演算の遅延が確実に最短になるように、グラフィック処理装置によって提供される高レベルの並列性を利用することによって実行され得る。AIネットワークは、有利には同一のフォーマットのビデオ入力を有するビデオ映像に再フォーマットされた画像の(例えば、連続的)ストリームである出力を生成し、次いでこの出力は、仮想ビデオ作成部108に直接渡される。仮想ビデオ作成部が、ライブカメラによって生成されたかのようにビデオストリームを作成する、仮想ウェブカム作成部であると好ましい。AIネットワークは、所与の心エコー画像上で強調表示される必要のある、それらのピクセル座標のリストのみを送信することができる。この送信を行うことにより、2つのVM間で交換されるデータ量を削減することができる。データ交換量が少ないということは、後処理された画像全体を直接送信する場合と比較して、遅延時間が10分の1に短縮されることを意味する。
仮想ビデオ作成部は、ピクセル座標バイトを受信し、それらを初期のフルフレーム画像のピクセルデータと共にインテリジェントに処理して、最終的な重ね合わせ出力ビデオストリームを生成する。好ましい一実装では、この動作は、プロセスの速度をさらに向上させるために、有意なサイズのバッチで各フレームをグループ化して実行される。画像の連続ストリームの場合、本発明は、重ね合わせプロセスが終了する前に画像をキューに格納し、AIがその応答を送信するのを待機するバッファリングシステムを利用することができる。仮想ビデオ作成部は、高度な並列演算アルゴリズムを使用することにより、VMのすべての演算部の能力を利用して各フレームを処理している。本発明は、複数の参加者(例えば、病院)が互いに接続されている場合に、MECの全演算能力を使用することによって水平方向にスケーリングされ得る。
AI 107が、第1の仮想マシンと同一のM.E.C層でホストすることができる、第2の仮想マシン(例えば、現在ではより効果的に機能するという理由から、Linux(登録商標)オペレーティングシステムを使用している)でホストされると好ましい。仮想ウェブカム作成部108は、ピアツーピアビデオ受信部106と共に第1の仮想マシン上でホストされている。2つのVM間の通信には、リアルタイムデータ交換技術を利用している。データは、メモリ内データベースを使用してすべてRAM内の2つの仮想マシン間で交換され、その際、Ping時間が確実に2ミリ秒未満となるようにしている。
仮想ウェブカム作成部108が、好ましくは同一の解像度及びフレームレートを維持しながら、107からの入力を仮想ライブウェブカムビデオ信号として符号化してもよい。このビデオ符号化プロセスでは、心エコー装置101から得られる高スループットを、その後ストリーミングプロトコル仮想サーバ109で利用するように最適化する。仮想サーバ109が、WebRTC伝送プロトコルを利用することによって接続ユーザとのマルチピア接続を確立し、これにより、他の技術と比較してデータネットワーク伝送の総量を10分の1まで削減する(例えば、2Mbit/sまで)、WebRTC仮想サーバであると好ましい。
ストリーミングプロトコル109は第1の仮想マシン上にあり、ビデオチャットシステムとして108の仮想ウェブカム信号を読み取り(当該読取りはウェブカム信号を処理する場合に限られ、その他の場合はストリーミングプロトコルは108の信号をチャットとして読み取らない)、これを処理して、5Gアンテナ110及び5Gルータ111並びに/又は5Gアンテナ104及び5Gルータ103をそれぞれ介して、エンドユーザのホログラフィックデバイス112及び/又はホログラフィックデバイス113へとバイナリデータを送信する。
本明細書では、デバイス112は人間の医師によって使用される物理的デバイスであるが、デバイス112が、医療機器を制御するように構成されたロボット内に組み込まれる仮想デバイスである場合にも、本発明は等しく適用される。したがって、本出願では、可視化を行う物理的及び仮想的デバイスは、本発明を説明し、かつ特許請求するにあたって等しく意図されている。
このバイナリデータには、当該ビデオ映像の処理された各ピクセルの情報が含まれる。本発明の一実施形態によれば、この情報は112及び113によって同時に受信され、現在の技術の場合には、この情報を適用して、仮想サーバ109のビデオ出力、即ち医療機器を使用した心エコー画像、及び場合によっては解剖学的ランドマークの認識(対応するグラフィック要素を含み、これについては以下を参照されたい)を正確に示す、仮想モニタを表すホログラフィック3D立体のテクスチャ素材の特性が変更される。
有利には、112は101から離隔した遠隔地点に設置されている(医師が装着する)一方、113は101と同一地点に設置されている。それでもなお、システム全体により、2人の操作者(112がプロクターであり、113が執刀医である)が同一のホログラフィックによる心エコーの可視化を、時間における全く同一の瞬間にトラッキングするAIデバイスを用いて共有することができる。5Gネットワークを使用すると、遅延は101の出力に対して0.5秒未満になり得る。
システム全体は、サーバ105上のM.E.C.環境に依存してもよく、当該環境は、5Gルータ及び5Gアンテナとのネットワーク接続と、専用のクラウド・コンピューティング・サービスとして機能する仮想マシンとの両方をホストすることができる技術である。
M.E.C.インフラストラクチャは、データソース、即ち101及び病院施設に近接した分散型エッジ・コンピューティング・ポイントであるように実装される。処理コンピューティングのこうした分散化は、目下M.E.C.インフラストラクチャに固有のものであり、他のいかなるネットワークシステム(例えば4G)が実現するよりも、コンピューティングリソースをデータソースに近接させることができる。したがって、5G技術を使用すると、高帯域幅のデータ伝送及びリアルタイム接続が行われても、M.E.C.へのデータ伝送及びM.E.C.からのデータ伝送において、極めて低い遅延を得るのに有利である。とりわけ複数の接続、即ち多数のユーザが接続されている場合にも、確実に低遅延が得られるようになる。この低遅延は2つの状況で起こり得、
1)112が113を支援している間、N>50名の参加者が、学習目的で112及び113の手技を見学するために接続している状況、及び
2)病院とプロクターとのN個の接続を同時並行的に管理するN>20対の仮想マシンを、105が並行してホストしている状況である。これらの接続はすべて、よりコンピューティングサーバに近接したアンテナ104、110のセットを通過してもよい。
同時並行的可視化
図3を参照すると、本発明のシステムにより、プロクタリングが異なる地点で行われている間でも、病院の現場で遠隔プロクタリングキットを使用することができる。例えば、地点♯1と地点♯2とは遠く離れている可能性があるが、2つのプロクタリングを実現している。この場合、これら2つの可視化地点は、遠隔可視化に使用されるのと同一の情報通信ネットワークとすることができる情報通信ネットワークを介して、互いに通信し合うことができる。
3Dエコー装置は心エコーを取得し、ローカル及び遠隔のHololensデバイス上でのビデオ映像の可視化を実現するローカルコンピュータへと、当該心エコーを渡す。この可視化を行うために、ビデオ映像はまずMECサーバに送信される。次いで複合現実によるビデオ映像はローカルアンテナに返され、そしてHololensの他、遠隔受信者にも返され、その後遠隔Hololensに返される。
複合現実
上記のホログラフィックによる心エコーの可視化は、本発明の特定の一実施形態によれば、複合現実で行われ得る。この場合、心臓(又は他の器官)の3D解剖学的モデルが事前に作成され(何らかのスキャンに基づいて患者ごとに)、ライブストリーミングに重ね合わされる。さらに、AIは医療機器の位置及び向きだけでなく、解剖学的ランドマークをも認識する。
このようにして、医療機器は解剖学的モデル内で可視化され得、その結果、医師は対象物を様々に動かす判断を下すことができる。解剖学的ランドマークは、他の臨床目的にも役立てることができる。
ホログラフィック可視化デバイスを、例えばHololens、Magic leap、Lenovo Explorer、又はホログラフィックかどうかにかかわらず、他の任意のデバイスとすることができる。さらに、複合現実は、ボタンパネルなどの他の任意の有用な要素を含むことができる。
エコー画像の3Dモデルへの重ね合わせは、剛体変換によって行われてもよい。しかしながら、解剖学的部位が動いている(例えば、拍動する心臓)場合には、剛体重ね合わせを行うのは不可能である。この場合、剛体アフィニティ変換が使用され得る。
例えば、僧帽弁の心エコー取得では、鞍形弁尖
Figure 2023520741000002
[Netter、Frank.H.著、「Atlas Of Human Anatomy」、ペンシルバニア州フィラデルフィア、Saunders/Elsevier社、2011年]、弁輪後部の中間点
Figure 2023520741000003
[Netter、Frank.H.著、「Atlas Of Human Anatomy」、ペンシルバニア州フィラデルフィア、Saunders/Elsevier社、2011年]、及び心室尖部
Figure 2023520741000004
[Netter、Frank.H.著、「Atlas Of Human Anatomy」、ペンシルバニア州フィラデルフィア、Saunders/Elsevier社、2011年]を同定することができる。本実施例では、当然ながらその部位の一箇所を取得しているが、ほとんどの場合はこれで十分である。
3D術前モデル上の3つの対応するマーカ
Figure 2023520741000005
を同定した後、当該3Dモデル上に2D画像を重ね合わせるために、解を得る方程式は以下の通りである。
Figure 2023520741000006
また、3D解剖学的モデルを動的、即ち一連のモデルフレームとすることができ、モデルの身体器官は(少なくともモデルフレームのサブセットごとに)異なるフレームで異なる形状を有する。取得された画像ストリームについて(したがって、グラフィック要素が重ね合わされた画像ストリームについて)同じことが当てはまる場合、当該モデルへのストリームの重ね合わせは問題となり得る。この場合、取得された中で、所与のモデルフレームに重ね合わせる正しい身体器官フレームを認識することは、所与のモデルフレームに対するアフィン変換の誤差が最小である(重ね合わされた)フレームを同定することによって実行され得る。この認識は、数学的変換又は学習済みアルゴリズムによって実現され得る。当然ながら、この認識はモデルフレームの一部に対してのみ行うことができ、合間に補間又は他の方法を使用することができる。
ニューラルネットワークの訓練
AIが認識するランドマークは事前に決定されている。したがって、AIは、マーカを検出するまで画像を一枚ずつ認識するように訓練されることになる。
マーカは領域であり得るので、この場合、モデル上の位置決めを決定する必要がある。この作業は医療機器の位置決め精度を変化させ得るので、本発明の一態様によれば、AIは4つ以上のマーカを使用することにより、重ね合わせを最適化するように訓練され得る。
図4~図6は、2つのマーカ(心臓弁の弁尖用の正方形格子パターンセグメント及び他の心臓弁の弁尖用の十字パターンセグメント)と、医療機器(斜線パターンセグメント)とを有する例示的な学習用セットを示す。
AI発明の具体例(エキスパートアルゴリズム)
例示的な状況
2D心エコー図の時間的シーケンスとして取得されたビデオ映像において、心臓弁組織片を縫合するAbbott Mitraclip(商標)弁修復装置を同定するためのAIベースのシステムが開発された。具体的には、
-ビデオ映像の各フレームは、装置をセグメント化するために解析され、
-当該モデルの結果は、各フレームにおけるMitraclip(商標)のバイナリセグメンテーションである。
データセットの説明と前処理
図4~図6を参照すると、心エコー検査の実行中に保存された画像及び対応するアノテーションが、基礎となる起点を構成する。具体的には、画像ごとに、アノテーションがMitraclip(商標)を斜線パターンセグメントとして示している一方、僧帽弁弁尖は、正方形の格子パターンセグメント及び十字パターンセグメントとして同定されている。
3Dモード又は2Dモードで2つの異なるメーカーのプローブを使用して実施された心エコー検査中に、画像を取得した。具体的には、
-GE社製のプローブを使用して、2D心エコー検査から186枚の画像を取得し、
-Philips社製のプローブを使用して、2D心エコー検査から823枚の画像を取得し、
-GE社製のプローブを使用して、3D心エコー検査から166枚の画像を取得し、
-Philips社製のプローブを使用して、3D心エコー検査から216枚の画像を取得した。
第1のテストでは、Philips社製のプローブを使用して2D心エコー検査から取得した画像のみが使用されているが、当該モデルの開発では、データセットのサイズを拡大するためにすべての種類の画像を利用した。
学習用セット、検証用セット及びテスト用セットは、固定シードであるが、同一の心エコー検査で取得されたすべての画像を同一のセットに含めるという制約を伴って、ランダムに構築された(画像間でのランダムな選択)。利用可能なデータセット全体の約10%がテスト用セットに含まれ、約10%が検証用データセットに含まれ、そして残りの80%が学習用セットに含まれていた。
マスク構築(マスクは、元の画像に重ね合わされた一対の画像であり、当該一対の画像には、セグメント化された領域が存在する)において機器を同定するために、斜線パターンピクセルが選択される一方、正方形格子パターンピクセル及び十字パターンピクセルは弁尖を抽出していると考えられる。アノテーションを起点とするマスク構築により、僧帽弁弁尖を含むこともできるし、含まないこともできる。第1の事例ではマスクは三次元であり、僧帽弁弁尖と見なされる2つのチャネルを含む(各チャネルは通常、セグメント化されたオブジェクトに対応し得る)一方、第2の事例ではマスクは二次元である。
ニューラルネットワーク構造
二次元画像(より一般的には、例えば、エコー検査若しくはX線検査又は他の撮像システムからのN次元画像、例えば3D画像である)をセグメント化することを目的としているため、本発明者らはhttps://github.com/milesial/Pytorch-UNet/blob/master/unet/unet_model.pyで入手可能な典型的なモデルから始めて、UNETニューラルネットワークを使用することを選択した。本発明者らは、ダイススコアの補完値を最小化することによって当該モデルを訓練することを選択した。
ニューラルネットワークは、検査者が機器のみを同定したいか、又は僧帽弁弁尖もさらに同定したいかに応じて、1つ又は複数の出力クラスを有してもよい。弁尖と機器との両方をセグメント化する場合、2つの出力チャネルの損失が平均化される。ドロップアウトを使用して当該モデルを訓練する可能性も含まれていた(即ち、弁尖及び医療機器がない状態で)。
各バッチは16枚の画像を含み、学習率及び荷重減衰(weight decay)はそれぞれ、1e-3と1e-4とに初期化された。学習率は、0.618ガンマで800エポックごとに更新された。
ニューラルネットワーク入力として使用する前に、当該画像にいくつかの変換を施した。より詳細には、学習用セット画像は、
・90°の範囲でランダムに回転され、
・正方形になるようにランダムにトリミングされ、その辺は学習用セット画像における最小サイズに等しく、
・ランダムに反転し、
・必要に応じて、その輝度をランダムに変換しており、
・128×128のサイズとなるようにサイズ変更されている。
検証用データセット画像は、その辺が学習用セット画像における最小サイズに等しい状態で、中央にトリミングされただけであり、次いで当該画像は、128×128のサイズにサイズ変更された。
ニューラルネットワークの性能
本発明者らは、以下の異なる構成を使用してNNモデルを訓練した。
1.古典的2D UNET(上記リンクの)、
2.ドロップアウトを伴う2D UNET、
3.ドロップアウト及び弁尖のセグメント化を伴う2D UNET、
4.ドロップアウト、弁尖のセグメント化及び輝度変換を伴う2D UNET。
当該性能は、検証用セット画像におけるMitraclip(商標)のセグメント化の解析と、新たなビデオ映像に対してテスト提供者によって行われたいくつかのテストとによって評価された。上記の第3の事例で最高の性能に達しており、弁尖のセグメント化が、機器のセグメント化結果を改善するのに役立つ補助タスクであることが判明した。実際、弁尖が存在する領域を認識すると、医療機器の探索領域が少なく済む。さらに、この認識により、弁尖と機器との間の相互位置においてより多くの制約が規定される。図7のグラフは、学習用データセット(濃灰色)及び検証用データセット(薄灰色)における損失傾向を示す。
実際、弁尖が存在する領域を認識すると、相互位置を考慮して、医療機器の探索においても制約を確立する。通常は、補助タスクを追加することによって、ネットワーク損失が複数のタスクの性能を評価している(損失=一次_損失+補助_損失であり、ここでの一次タスクは機器のセグメント化である)。このため、複数のタスクを実行することができ、その結果、特定のタスクに対する過剰適合のリスク(即ち、一次損失)が低減され、より効果的に一般化されるモデルが得られる。多くの層、ひいてはネットワーク荷重は、各タスクの特定の層がその後に続く場合でも、様々なタスク間で共有されている。層を共有することにより、2つの部分損失の加重和が最小化されるため、学習がより制約される。次いで、共有レベルでより高まる正確性が、一次活動のために、即ち機器をセグメント化するために、特定の層によって利用され得る。すべての認識がデジタル的に行われる中で、外科手術に取り組む方法では、認識精度が重要である。このため、(少なくとも)2つの解剖学的ランドマークを認識することは、上述したように、重ね合わせ画像ストリームを身体器官の所定の3Dモデルに重ね合わせるのに有用であり得る。したがって、認識の重要性は2倍(twofold)になり得る。
図8は、検証用画像に対して得られた結果例を示す。画像の一番上の行はMitraclip(商標)のセグメント化に関連しており、一番下の行は弁尖のセグメント化に関連している。両方の行において、左側の画像は、切り取られた診断画像に重ね合わされたニューラルネットワークによる予測を示し、中央の画像は、テスト提供者による元のセグメント化を示し、右側には、ニューラルネットワークによる予測のみが示されている。
通常は、機器のセグメント化の方が弁尖のセグメント化よりも優れており、図9から分かるように、この弁尖のセグメント化は誤っていたり、不完全であったりする場合がある。ニューラルネットワークでのMitraclip(商標)のセグメント化は正確であるように思われ、テスト提供者によって提供される線形近似よりも良好に機器の形状に適合している。
心エコービデオへのモデルの適用
当該モデル(エキスパートアルゴリズム)を使用して、心エコー検査を実施することによって取得されたビデオ映像内のMitraclip(商標)を同定しており、当該ビデオ映像は2D心エコー図の時間的シーケンスである。
ひとたびビデオ映像が取得されると、当該映像はフレームに分割される。フレームの各々は、ニューラルネットワークへの入力として与えられ、次いでその予測が行われる。その後、異なるフレームに対する結果が順にグループ化され、mp4ビデオに保存される。
ビデオ映像のレンダリングを改善するために、本発明者らは不透明度係数を上昇させながら、各フレームに対する予測をn個前後のフレームに拡張できる可能性を追加することを決定し、この後処理により、ビデオ映像自体のより均一なセグメント化とより安定した表示とが可能になる。
発明の効果
本発明の技術によって仮想の遠隔プロクタリングが実現し、これにより、病院の医師をプロクタリングするのに世界で最も適した専門家を使用することができる。
また、本発明の技術によれば、迅速に到着することができなかった相互に離隔した異なる地域で、一連のプロクタリングを間断なく実施できるようになり、これによって同一のプロクターが複数の病院を担当できる可能性が上昇する。
さらに、本発明の技術によれば、「緊急」介入、又はプロクター制度による介入として計画されていなかった介入が実現する。このことは、プロクターによる介入が事前に予見されなかったような概ね標準的な症例で、想定外の合併症が起こった場合にとりわけ有利となり得る。
上記で好ましい実施形態について説明し、また本発明の変形形態を提案してきたが、当業者であれば、添付の特許請求の範囲によって定義される対応する保護範囲から逸脱することなく、修正及び変更を行うことができることを理解されたい。

Claims (15)

  1. 医用画像ストリームを、遠隔ホログラフィックデバイス(112)によって可視化する方法であって、前記方法は、
    A.医用画像取得装置(101)から取得される医用画像ストリームを、サーバ(105)上の仮想マシンにストリーミングするステップ(102)であって、前記医用画像ストリームは、物理的トラッキングマーカ又はハードウェアトラッキングシステムをいずれも欠いており、身体器官に挿入される医療機器のデジタル表現を含む、ステップと、
    B.前記仮想マシン上で実行される、前記画像ストリームのみに基づくエキスパートアルゴリズム(107)によって、前記医療機器のデジタル位置及び向き、並びに前記画像ストリーム内の画像の少なくともサブセット上にある少なくとも2つの所定のデジタル解剖学的ランドマークを同定するステップと、
    C.前記医療機器の前記デジタル位置及び向きを表すグラフィック要素を生成し、かつ前記画像のサブセットに前記グラフィック要素を重ね合わせることで、重ね合わせ画像ストリームを取得するステップと、
    D.前記重ね合わせ画像ストリームをビデオ信号へと再フォーマットするステップ(108)と、
    E.可視化を行うために、前記遠隔ホログラフィックデバイス(112)に前記ビデオ信号を送信するステップと、を実行することを含む、
    方法。
  2. 前記ステップCにおいて、前記少なくとも2つの解剖学的ランドマークを表す少なくとも2つの更なるグラフィック要素が生成され、前記画像のサブセットに重ね合わされる、請求項1に記載の方法。
  3. 前記ステップAにおいて、前記医用画像ストリームが、例えば経カテーテルの外科的手技を表す心エコー画像からなり、前記少なくとも2つの解剖学的ランドマークが、僧帽弁弁尖から弁輪にかけての挿入である、請求項1又は2に記載の方法。
  4. 前記ステップAの前記ストリーミングすることが、前記仮想マシンのIPアドレスに向けたユーザ・データグラム・プロトコルのストリーミング接続を生成することによって行われる、請求項1から3のいずれか一項に記載の方法。
  5. 重ね合わされた前記グラフィック要素がセグメントである、請求項1から4のいずれか一項に記載の方法。
  6. 前記ステップDと前記ステップEとの間で、前記ビデオ信号が、
    WebRTCストリーミングプロトコルと互換性のあるスループットを最適化するように符号化される、請求項1から5のいずれか一項に記載の方法。
  7. 前記ステップAにおいて、前記仮想マシンが、マルチアクセス・エッジ・コンピューティング環境内にある、請求項1から6のいずれか一項に記載の方法。
  8. 前記ステップC及び前記ステップDが、前記ステップBを実行する前記仮想マシンとは異なる仮想マシン上で実行される、請求項1から7のいずれか一項に記載の方法。
  9. 介入部位でホログラフィック可視化を行うために、前記ビデオ信号をローカルホログラフィックデバイス(103)に送信するステップFが、前記ステップEと同時並行的に実行される、請求項1から8のいずれか一項に記載の方法。
  10. 前記サーバ(105)が5Gサーバである、請求項1から9のいずれか一項に記載の方法。
  11. 前記ステップDにおいて、前記ビデオ信号が仮想ウェブカム作成部(109)によってさらに処理される、請求項1から10のいずれか一項に記載の方法。
  12. 前記ステップCにおいて、認識された前記少なくとも2つの解剖学的ランドマークを使用して、前記重ね合わせ画像ストリームを前記身体器官の所定の3Dモデルに重ね合わせる、請求項1から11のいずれか一項に記載の方法。
  13. 前記ステップAにおいて、前記画像ストリームが患者の身体器官の一連の画像フレームによって構成されており、前記身体器官の形状は前記身体器官の画像フレームの少なくともサブセットについて異なっており、前記身体器官の前記所定の3Dモデルが一連のモデルフレームによっても構成される場合、前記重ね合わせ画像ストリームを前記所定の3Dモデルに重ね合わせるために、
    S1.前記モデルフレームごとに、前記重ね合わせ画像ストリームのフレームの少なくともサブセットを前記モデルフレームに変換する剛体アフィニティ変換を演算するステップと、
    S2.前記モデルフレームごとに、前記重ね合わせ画像ストリームの特定のフレームを重ね合わせるステップであって、前記特定のフレームが、前記ステップS1の前記アフィニティ変換の誤差を最小化する、ステップと、
    が実行される、請求項12に記載の方法。
  14. 前記遠隔ホログラフィックデバイス(112)が、前記医療機器を制御するように構成されるロボット内に組み込まれた仮想デバイスである、請求項1から13のいずれか一項に記載の方法。
  15. 請求項1から14のいずれか一項に記載のステップB、ステップC、ステップDを実行するように構成される、サーバ。
JP2023503519A 2020-04-06 2021-04-01 ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法 Pending JP2023520741A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IT102020000007252 2020-04-06
IT102020000007252A IT202000007252A1 (it) 2020-04-06 2020-04-06 Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota
PCT/IB2021/052728 WO2021205292A1 (en) 2020-04-06 2021-04-01 Real-time medical device tracking method from echocardiographic images for remote holographic proctoring

Publications (1)

Publication Number Publication Date
JP2023520741A true JP2023520741A (ja) 2023-05-18

Family

ID=70978505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023503519A Pending JP2023520741A (ja) 2020-04-06 2021-04-01 ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法

Country Status (5)

Country Link
US (1) US20230154606A1 (ja)
EP (1) EP4132411A1 (ja)
JP (1) JP2023520741A (ja)
IT (1) IT202000007252A1 (ja)
WO (1) WO2021205292A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112259255A (zh) * 2019-07-22 2021-01-22 阿尔法(广州)远程医疗科技有限公司 一种可进行全息投影的远程会诊系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396669B2 (en) * 2008-06-16 2016-07-19 Microsoft Technology Licensing, Llc Surgical procedure capture, modelling, and editing interactive playback
DE102009040430B4 (de) * 2009-09-07 2013-03-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
US20120191464A1 (en) * 2011-01-21 2012-07-26 Intouch Technologies, Inc. Telerobotic System with a Dual Application Screen Presentation
CN104582622B (zh) * 2012-04-16 2017-10-13 儿童国家医疗中心 用于外科和介入医疗程序中的跟踪和控制的双模立体成像系统
US9984206B2 (en) * 2013-03-14 2018-05-29 Volcano Corporation System and method for medical resource scheduling in a distributed medical system
US9648060B2 (en) * 2013-11-27 2017-05-09 General Electric Company Systems and methods for medical diagnostic collaboration
US20150254998A1 (en) * 2014-03-05 2015-09-10 Drexel University Training systems
CA3016346A1 (en) * 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images
WO2018140415A1 (en) * 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
US11801114B2 (en) * 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US10413363B2 (en) * 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools
US20190310819A1 (en) * 2018-04-10 2019-10-10 Carto Technologies, LLC Augmented reality image display systems and methods
US10869727B2 (en) * 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
US11412033B2 (en) * 2019-02-25 2022-08-09 Intel Corporation 5G network edge and core service dimensioning

Also Published As

Publication number Publication date
WO2021205292A1 (en) 2021-10-14
EP4132411A1 (en) 2023-02-15
IT202000007252A1 (it) 2021-10-06
US20230154606A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
KR102018565B1 (ko) 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램
US20210015583A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
JP6081907B2 (ja) 医療処置のコンピュータ化シミュレーションを行うシステム及び方法
CN114173692A (zh) 用于推荐手术程序的参数的系统和方法
JP2022545355A (ja) 医療機器を識別、ラベル付け、及び追跡するためのシステム及び方法
Ratul et al. CCX-rayNet: a class conditioned convolutional neural network for biplanar X-rays to CT volume
JP2022174119A (ja) 拡張された解剖学的特徴を表示するためのシステム及び方法
JP2023520741A (ja) ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法
KR20200096155A (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
CN113995525A (zh) 可切换视角的基于混合现实的医疗场景同步操作系统及存储介质
KR102213412B1 (ko) 기복모델 생성방법, 장치 및 프로그램
CN115965785A (zh) 图像分割方法、装置、设备、程序产品及介质
CN115311317A (zh) 一种基于Scaleformer类算法的腹腔镜图像分割方法及系统
JP2019126654A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102084598B1 (ko) 뼈 병변 수술을 위한 ai 기반의 수술 보조 시스템
KR20230013717A (ko) 다중 cnn 기반의 3차원 골절부 검출 장치 및 그 방법
US20240135601A1 (en) Method, device, and system for providing medical augmented reality image using artificial intelligence
KR20190133423A (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
Deakyne et al. Immersive anatomical scenes that enable multiple users to occupy the same virtual space: a tool for surgical planning and education
WO2021095867A1 (ja) 自動手術計画システムおよび手術計画方法並びにプログラム
US20220249170A1 (en) System and method for processing black bone mri data
WO2021205990A1 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
Wu et al. AI-Enhanced Virtual Reality in Medicine: A Comprehensive Survey
WO2021205991A1 (ja) 画像位置合わせ装置、方法およびプログラム