JP7486603B2 - 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム - Google Patents

拡張現実画像上に医用スキャン画像情報を補う方法及びシステム Download PDF

Info

Publication number
JP7486603B2
JP7486603B2 JP2022564308A JP2022564308A JP7486603B2 JP 7486603 B2 JP7486603 B2 JP 7486603B2 JP 2022564308 A JP2022564308 A JP 2022564308A JP 2022564308 A JP2022564308 A JP 2022564308A JP 7486603 B2 JP7486603 B2 JP 7486603B2
Authority
JP
Japan
Prior art keywords
image
augmented reality
processors
dimensional
reality image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022564308A
Other languages
English (en)
Other versions
JP2023524652A (ja
Inventor
シェシャオ チェン
Original Assignee
ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブレイン ナビ バイオテクノロジー カンパニー リミテッド filed Critical ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Publication of JP2023524652A publication Critical patent/JP2023524652A/ja
Application granted granted Critical
Publication of JP7486603B2 publication Critical patent/JP7486603B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Primary Health Care (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Description

[関連出願の相互参照]
本出願は、2020年4月22日に出願された米国仮出願第63/013,687号の利益を主張し、その全体が参照により組み込まれる。
本発明の実施形態は、一般に、拡張現実画像上に医用スキャン画像情報を補う方法及びシステムに関する。
本明細書で特に明記しない限り、このセクションで説明するアプローチは、本出願の特許請求の範囲の先行技術ではなく、このセクションに含めることによって先行技術であるとは認められない。
手術では手術経路の計画が重要である。手術経路は、患者から離れた安全点及び術前点、患者の組織の入口点、手術の目標における目標点など、複数の点によって画定され得る。
手術の前に、患者は医用スキャン(例えば、CTまたはMRI)を受ける。医用スキャンは、患者の組織、器官及び器官系の画像を提供することができる。手術経路は、医用スキャン画像に基づいて計画される。例えば、人工知能を使用して、損傷が最も少ない最良のルートを外科医に提示することができる。
拡張現実技術は、一般に、1つまたは複数の現実及び仮想の複合環境と、コンピュータ技術及び1つまたは複数のウェアラブルによって生成される1つまたは複数のヒューマン-マシンインターフェースとを含む技術を指す。仮想現実と拡張現実(augmented reality)と複合現実とを含む拡張現実(extended reality)は、医療分野でますます使用されている。例えば、拡張現実は、手術経路に隣接する組織、器官、及び器官系の仮想画像を表示し、仮想画像上に医用スキャン情報(例えば、医用スキャン画像)を補って、手術を容易にすることができる。
しかしながら、患者に対して医用スキャンが実行されるときと手術が実行されるときとの間には、些細ではない時間差がある。従来の拡張現実技術では、手術経路に隣接する虚像と、医用スキャンで得られた情報との差異を適切に一致させることができない。
患者に手術を行うときに遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。 目標物の3次元画像を目標物の拡張現実画像に関連付ける例示的なプロセスを示す流れ図である。 目標物の3次元画像を目標物を含む医用スキャン画像に関連付ける例示的なプロセスを示す流れ図である。 及び 医用スキャン画像に基づく例示的な処理画像を示す図である。 目標物に関連付けられた医用スキャンによって取得された情報を目標物の拡張現実画像上に補う例示的なプロセスを示す流れ図である。 全てが本開示のいくつかの実施形態に従って配置された、手術器具が目標物の下面領域に到達したときの目標物の移動に応答して目標物に関連付けられた拡張現実画像を取得するための例示的なプロセスを示す流れ図である。
以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈からそうでないことが示されていない限り、同様の記号は通常、同様の成分を示す。詳細な説明、図面、及び特許請求の範囲に記載されている例示的な実施形態は、限定することを意図していない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。本開示の態様は、本明細書に一般的に記載され、図に例示されるように、多種多様な異なる構成で配置、置換、組み合わせ、及び設計することができ、その全てが本明細書で明示的に企図されることは容易に理解されよう。
以下の段落を通して、「拡張現実(XR)」は、一般に、仮想現実と物理的現実とを組み合わせた環境を指し、「X」は、任意の現在または将来の空間コンピューティング技術の変数を表す。いくつかの実施形態では、拡張現実は、仮想現実と物理的現実とを組み合わせた全ての環境の包括的な用語である。例えば、拡張現実(extended reality)は、拡張現実(augmented reality)、仮想現実、及び複合現実を含む。「拡張現実画像(extended reality image)」は、仮想現実と物理的現実の両方の情報を含む画像を広く指す。「ウェアラブル」、「ウェアラブル技術」、及び「ウェアラブルデバイス」は、一般に、アクセサリとして人に装着することができ、衣服に埋め込むことができ、人の身体に埋め込むことができるなどのハンズフリー装置を指すために交換可能に使用される。そのような装置は、典型的には、バイタルサイン、動きデータ、及び/又は周囲データなど、着用者に関連付けられた情報を検出、収集、分析、及び/又は通信することができる。ウェアラブルの例には、ヘッドセット、スマートグラスなどが含まれ得るが、これらに限定されない。3次元(3D)モデルは、三角形、線、曲面などの様々な幾何学的エンティティによって接続された3D空間内の点の集合を広く指す。
図1は、本開示のいくつかの実施形態に従って配置された、患者の手術を行うときに遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。図1において、手術経路110は、安全点120、術前点130、入口点140、過渡点150、及び目標点160を含み得る。安全点120は、ロボットアームが患者に損傷を与えることなく移動または回転する動作を実行するための点であり得る。術前点130は、手術を行うように構成されているが、まだ患者と物理的に接触していない、ロボットアームの位置及び角度に対応する点であり得る。入口点140は、ロボットアームが手術経路110に沿って初めて患者と接触する点であり得る。目標点160は、手術の目標組織または目標器官に関連付けられた点であり得る。過渡点150は、入口点140と目標点160との間の点であり得る。
図2は、本開示のいくつかの実施形態に従って配置された、目標物の3次元画像を目標物の拡張現実画像に関連付ける例示的なプロセス200を示す流れ図である。プロセス200は、ブロック210、220、230、240、250、260及び/又は270によって示されるように、ハードウェア、ソフトウェア及び/又はファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程及び動作は例としてのみ提供され、工程及び動作の一部はオプションであり、組み合わせてより少ない工程及び動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程及び動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、及び/又は本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス200は、ブロック210「目標物の3次元(3D)画像を取得する」で開始され得る。いくつかの実施形態では、例示のみを目的として、目標物は患者の組織、器官、器官系の一部であり得る。3次元画像のうちの1つは、3次元カメラ(例えば、深度センサを有するカメラ)によって撮影された画像、または2次元カメラによって撮影された画像のセットに対応し得る。3次元画像のうちの別の3次元画像はまた、医用走査装置(例えば、超音波スキャナ、コンピュータ断層撮影(CT)スキャナ、磁気共鳴画像法(MRI)装置など)などの別のソースによって取得された画像に対応し得る。いくつかの実施形態では、3次元画像のいずれかは、患者の組織、器官、器官系の表面解剖学的情報に対応し得る。いくつかの実施形態では、カメラは、患者の頭部の画像を撮影して、患者の頭部の外観及び輪郭(例えば、目、耳、鼻先、鼻孔開口部、耳たぶなど)を捉えるように構成されてもよい。3次元カメラまたは2次元カメラは、患者に手術を行う外科医のウェアラブルデバイスに結合されてもよい。あるいは、3次元カメラまたは2次元カメラは、ロボットアームによって制御される内視鏡または手術器具に結合されてもよい。
これらの3D画像は、物理的現実にあるデバイス(例えば、3Dカメラ、2Dカメラ、医用走査装置など)によってキャプチャされた物理的現実情報を含むと見なされることに留意されたい。
ブロック210の後にブロック220「3D画像から3D特徴点の第1のセットを識別する」が続き得る。いくつかの実施形態では、人工知能エンジンを使用して、ブロック210で取得された3D画像から3D特徴点の第1のセットを識別することができる。人工知能エンジンは、エッジ、コントラスト、形状に基づいて3D特徴点の第1のセットを識別してもよい。いくつかの代替実施形態では、3D特徴点の第1のセットは、ウェアラブルデバイスを介して外科医によって識別されてもよい。
ブロック220の後にブロック230「3D特徴点の第1のセットに基づいて身体構造上の点(anatomical points)を識別する」が続き得る。いくつかの実施形態では、3D特徴点の第1のセットは、3D特徴点の第1のセットに対応する患者の身体構造上の点を識別するために、ブロック210で取得された3D画像上に表示またはマーキングされる。例えば、患者の3D顔画像上に3D特徴点の第1のセットを表示またはマーキングすることにより、3D特徴点の第1のセットに対応する患者の身体構造上の点(例えば、目、耳、鼻先、鼻孔開口部及び耳たぶ)を識別することができる。あるいは、患者の3D内視鏡画像上に3D特徴点の第1のセットを表示またはマーキングすることによって、3D特徴点の第1のセットに対応する患者の身体構造上の点(例えば、器官の血管)を識別することができる。ブロック230では、身体構造上の点を含む患者の1つまたは複数の組織、1つまたは複数の器官、及び1つまたは複数の器官系もまた識別され得る。
ブロック230の後にブロック240「身体構造上の点に関連付けられた拡張現実画像を取得する」が続き得る。いくつかの実施形態では、身体構造上の点を含む患者の識別された1つもしくは複数の組織、1つもしくは複数の器官、または1つもしくは複数の器官系に基づいて、患者の1つもしくは複数の組織、1つもしくは複数の器官、または1つもしくは複数の器官系に関連付けられた拡張現実画像を取得することができる。例えば、この拡張現実画像は、ウェアラブルデバイス(例えば、ヘッドセット、スマートグラスなど)に表示される患者の頭部の表面のXR画像であってもよい。代替実施形態では、この拡張現実画像は、ウェアラブルデバイスに表示される患者の器官(例えば、肝臓または脳)の表面のXR画像であってもよい。これらのXR画像は、物理的現実でキャプチャされた情報(例えば、患者の頭部の1つまたは複数の画像、患者の器官の1つまたは複数の画像など)、及び仮想現実でレンダリングされた画像も含む。
ブロック240の後にブロック250「拡張現実画像から3D特徴点の第2のセットを選択する」が続き得る。いくつかの実施形態では、識別された身体構造上の点に基づいて、ブロック240で取得された拡張現実画像から3D特徴点の第2のセットが選択される。3D特徴点の第2のセットは、識別された身体構造上の点に対応し得る。
ブロック250の後にブロック260「3D特徴点の第1のセットと3D特徴点の第2のセットとの間で画像マッチングを実行する」が続き得る。いくつかの実施形態では、3D特徴点の第1のセット及び3D特徴点の第2のセットは、3D特徴点の第1のセットと3D特徴点の第2のセットとを整列させる関係を決定するためにマッチングされ、場合によっては、3D特徴点の2つのセット間の差を最小化するために反復的にマッチングされる。画像マッチングは、反復最近接点(ICP)などのいくつかの画像比較アプローチに基づいてもよい。3D特徴点の第1のセットと3D特徴点の第2のセットとを整列させる決定された関係に基づいて、目標物の3次元画像は、目標物の拡張現実画像に関連付けられる。いくつかの実施形態では、例えばデカルト座標系において、決定された関係は、X軸に沿った第1の移動、Y軸に沿った第2の移動、Z軸に沿った第3の移動、X軸に沿った第1の回転角度、Y軸に沿った第2の回転角度、及びZ軸に沿った第3の回転角度を含むことができるが、これらに限定されない。決定された関係は、様々な座標系において異なり得る。
ブロック260の後にブロック270「3D画像を拡張現実画像に重ねる」が続き得る。いくつかの実施形態では、3D特徴点の第1のセットと3D特徴点の第2のセットとを整列させるブロック260で決定された関係に基づいて、目標物の3次元画像は、目標物の拡張現実画像に関連付けられる。したがって、ブロック210で取得された目標物の3次元画像は、ブロック240で取得された身体構造上の点に関連する拡張現実画像に重ねられて、ブロック240で取得された拡張現実画像上に、ブロック210で取得された追加情報を補うことができる。
図3は、本開示のいくつかの実施形態に従って配置された、目標物の3次元画像を目標物を含む医用スキャン画像に関連付ける例示的なプロセス300を示す流れ図である。プロセス300は、ブロック310、320、330、340、350、360及び/又は370によって示されるように、ハードウェア、ソフトウェア及び/又はファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。いくつかの実施形態では、図1に関連して、プロセス300は、手術器具が入口点140に到達したことに応答して実行されてもよい。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程及び動作は例としてのみ提供され、工程及び動作の一部はオプションであり、組み合わせてより少ない工程及び動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程及び動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、及び/又は本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス300は、ブロック310「目標物に関連付けられた3次元(3D)画像を取得する」で開始され得る。いくつかの実施形態では、例示のみを目的として、目標物は患者の組織、器官、器官系の一部であり得る。3次元画像は、3次元カメラ(例えば、深度センサを有するカメラ)によって撮影された画像、または2次元カメラによって撮影された画像のセットを含み得る。いくつかの実施形態では、3次元画像は、患者の組織、器官、器官系の表面解剖学的情報に対応し得る。いくつかの実施形態では、カメラは、患者の頭部の画像を撮影して、患者の頭部の外観及び輪郭(例えば、目、耳、鼻先、鼻孔開口部、耳たぶなど)を捉えるように構成されてもよい。3次元カメラまたは2次元カメラは、患者に手術を行う外科医のウェアラブルに固定されてもよい。あるいは、3次元カメラまたは2次元カメラは、ロボットアームによって制御される内視鏡または手術器具に固定されてもよい。
ブロック310の後に、ブロック320「医用スキャンに基づいて3Dモデルを構築する」が続き得る。手術が行われる前に、いくつかの医用スキャンを使用して患者の状態のスナップショットを取り込み、手術計画を策定することができる。手術計画は、上記の計画された手術経路を含み得る。例えば、外科医は、医療スキャン(例えば、CTまたはMRI)を指示して、目標物(例えば、患者の1つまたは複数の組織または器官)を含む医用スキャン画像を取得することができる。そのような医用スキャンは、手術の数日前(例えば、3~5日前)に行われてもよい。いくつかの既知のアプローチを使用して、医用スキャンデータから得られた画像の情報に基づいて、目標物に関連付けられた3次元モデルを構築することができる。
図4A及び図4Bは、本開示のいくつかの実施形態に従って配置された、医用スキャン画像に基づく処理済み画像を示す。図4A及び図4Bに関連して、本開示のいくつかの実施形態によれば、ブロック320の後に、ブロック330「医用スキャンによって得られた情報を処理する」が続き得る。ブロック310で取得された3D画像は、目標物の表面情報にのみ関連付けられ、目標物の下面情報には関連付けられない。しかし、医用スキャンで得られた画像は、通常、表面情報と下面情報の両方に関連付けられる。画像処理を実行して、医用スキャンからの下面情報を取り除く。
図4Aにおいて、いくつかの実施形態では、手術目標が患者の頭部内にあると仮定すると、2値画像410は、患者の頭部からつま先までの軸方向に沿った元のMRI画像から導出され得る。領域411は患者の頭蓋骨であり、通常、元のMRI画像では白で表される。領域411の外周412は、目標物(すなわち、患者の頭部)の表面情報に関連付けられた患者の皮膚を指すことができる。閾値化アプローチにより、頭蓋骨の外側の領域413(全て黒)及び頭蓋骨の内側の領域415を含む画像410が作成され得る。画像410をさらに処理して、画像420を形成することができる。画像420では、領域413にグレースケールが割り当てられ、白黒と区別されて領域423が形成される。
図4Bでは、画像420をさらに処理して画像430を形成することができる。画像430では、領域413のグレースケール以外の領域に黒が割り当てられて領域431が形成される。次に、画像430の領域423に白を割り当てて、画像440を形成することができる。したがって、周囲441に沿った点は、目標物の表面情報に関連付けられた患者の皮膚に対応し得る。したがって、周囲441に沿った点は、医用スキャンによって得られた下面情報を含まない。
ブロック330の後にブロック340「3D画像から3D特徴点の第1のセットを選択する」が続き得る。いくつかの実施形態では、人工知能エンジンを使用して、ブロック310で取得された3D画像から3D特徴点の第1のセットを選択することができる。人工知能エンジンは、エッジ、コントラスト、形状に基づいて3D特徴点の第1のセットを選択してもよい。いくつかの実施形態では、3D特徴点の第1のセットは、器官の血管分布または組織テクスチャなどの解剖学的特徴点に対応することができる。
ブロック340の後にブロック350「処理された情報から3D特徴点の第2のセットを選択する」が続き得る。いくつかの実施形態では、人工知能エンジンを使用して、ブロック330で処理された医用スキャンによって得られた情報から3D特徴点の第2のセットを選択することができる。人工知能エンジンは、エッジ、コントラスト、形状に基づいて3D特徴点の第2のセットを選択してもよい。いくつかの実施形態では、3D特徴点の第2のセットは、ブロック340で選択された3D特徴点の第1のセットに対応する同じ解剖学的特徴点に対応し得る。
ブロック350の後にブロック360「3D特徴点の第1のセットと3D特徴点の第2のセットとの間で画像マッチングを実行する」が続き得る。いくつかの実施形態では、3D特徴点の第1のセット及び3D特徴点の第2のセットは、3D特徴点の第1のセットと3D特徴点の第2のセットとを整列させる関係を決定するためにマッチングされ、場合によっては、3D特徴点の2つのセット間の差を最小化するために反復的にマッチングされる。画像マッチングは、反復最近接点(ICP)などのいくつかの画像比較アプローチに基づいてもよい。3D特徴点の第1のセット及び3D特徴点の第2のセットを整列させる決定された関係に基づいて、目標物に関連付けられた3次元画像は、目標物の処理済み画像(例えば、画像440)に関連付けられる。いくつかの実施形態では、例えばデカルト座標系において、決定された関係は、X軸に沿った第1の移動、Y軸に沿った第2の移動、Z軸に沿った第3の移動、X軸に沿った第1の回転角度、Y軸に沿った第2の回転角度、及びZ軸に沿った第3の回転角度を含むことができるが、これらに限定されない。決定された関係は、様々な座標系において異なり得る。
ブロック360の後にブロック370「3Dモデルを一致した表面に一致させる」が続き得る。いくつかの実施形態では、3D特徴点の第1のセットと3D特徴点の第2のセットとを整列させるブロック360で決定された関係に基づいて、ブロック310で取得された目標物に関連付けられた第1の表面と、医用スキャンに基づいてブロック320で構築された3Dモデルに関連付けられた第2の表面とを一致させる。3Dモデルのいくつかの点は、第2の表面を画定することができる。したがって、上記のように決定された関係に基づいて、ブロック320で構築された3Dモデルを回転及び/又は移動させて、3Dモデルのいくつかの点によって画定された一表面を、第2の表面に一致させることができる。
図5は、本開示のいくつかの実施形態に従って配置された、目標物に関連付けられた医用スキャンによって取得された情報を目標物の拡張現実画像上に補う例示的なプロセスを示す流れ図である。プロセス500は、ブロック510,520及び/又は530によって示されるように、ハードウェア、ソフトウェア、及び/又はファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程及び動作は例としてのみ提供され、工程及び動作の一部はオプションであり、組み合わせてより少ない工程及び動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程及び動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、及び/又は本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス500は、ブロック510「3次元(3D)画像を第1の拡張現実画像に重ねる」で開始され得る。いくつかの実施形態では、図2に関連して、ブロック510はブロック270に対応し得る。例えば、ブロック510では、ブロック210で取得された目標物の3次元画像が、ブロック240で取得された身体構造上の点に関連付けられた第1の拡張現実画像に重ねられて、ブロック240で取得された第1の拡張現実画像上に、ブロック210で取得された追加情報を補うことができる。
ブロック510の後に、ブロック520「一致した3Dモデルに基づいて第2の拡張現実画像を取得する」が続き得る。いくつかの実施形態では、図3に関連して、ブロック370の後にブロック520が続き得る。例えば、ブロック520において、この第2の拡張現実画像は、ブロック370で一致した3Dモデルに基づいて取得され得る。この第2の拡張現実画像は、ウェアラブルデバイス(例えば、ヘッドセット、スマートグラスなど)に表示される患者の頭部の1つまたは複数の表面及び下面(例えば、組織または器官)のXR画像を含むことができる。代替実施形態では、この第2の拡張現実画像は、ウェアラブルデバイスに表示される患者の組織(例えば、血管)または器官(例えば、肝臓または脳)の1つまたは複数の表面及び下面のXR画像を含むことができる。これらのXR画像は、物理的現実でキャプチャされた情報(例えば、患者の医用スキャン画像)、及び仮想現実でレンダリングされた画像を含む。
ブロック520の後に、ブロック530「第2の拡張現実画像を第1の拡張現実画像に重ねる」が続き得る。いくつかの実施形態では、第2の拡張現実画像はブロック370でマッチングされた3Dモデルに基づいて取得されるため、第2の拡張現実画像の1つの表面画像は、ブロック210で取得された目標物の3次元画像の一部でもある、ブロック310で取得された目標物に関連付けられた第1の表面にマッチングされる。ブロック210で取得された目標物の3次元画像から第1の表面を識別した後、第1の表面に基づいて第2の拡張現実画像を第1の拡張現実画像に重ねることができる。第2の拡張現実画像は、同じくブロック320の医用スキャンに基づいて構築されたブロック370の3Dモデルから取得されるため、上述したように、下面情報を含む医用スキャンによって取得された情報を、目標物の第1の拡張現実画像上に補うことができる。
図6は、本開示のいくつかの実施形態に従って配置された、手術器具が目標物の下面領域に到達したときの目標物の移動に応答して目標物に関連付けられた拡張現実画像を取得するための例示的なプロセスを示す流れ図である。プロセス600は、ブロック610、620、630及び/又は640によって示されるように、ハードウェア、ソフトウェア及び/又はファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。いくつかの実施形態では、図1に関連して、プロセス600は、手術器具が入口点140を通過して過渡点150に到達することに応答して実行されてもよい。いくつかの実施形態では、図5に関連して、プロセス600は、ブロック530の後に実行されてもよい。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程及び動作は例としてのみ提供され、工程及び動作の一部はオプションであり、組み合わせてより少ない工程及び動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程及び動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、及び/又は本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス600は、ブロック610「第3の拡張現実画像を取得する」で開始され得る。いくつかの実施形態では、第3の拡張現実画像は、手術器具が目標物の下面領域に到達したときの視野をシミュレートするための目標物の下面領域(例えば、図1の過渡点150)に関連付けられた画像に対応し得る。手術器具は、患者との既知の空間的関係を有する手術室内のロボットアームに取り付けられてもよい。いくつかの実施形態では、図5に関連して、ブロック530の後、第2の拡張現実画像は第1の拡張現実画像に重なっている。したがって、ブロック610において、第3の拡張現実画像は、第2の拡張現実画像と既知の空間的関係に基づいて取得され得る。
ブロック610の後に、ブロック620「下面領域に関連付けられた3次元(3D)画像を取得する」が続き得る。いくつかの実施形態では、下面領域に関連付けられた3D画像は、手術器具が下面領域に物理的に到達したときに、手術器具に取り付けられたカメラまたは超音波センサによって取得され得る。
ブロック620の後に、ブロック630「第3の拡張現実画像と3D画像との間のずれを計算する」が続き得る。いくつかの実施形態では、ブロック610で取得された第3の拡張現実画像とブロック620で取得された3次元画像との間のずれは、任意の技術的に実行可能なアプローチによって計算される。このずれは、手術器具の侵入によって生じ得る。例えば、脳は非常に柔らかい組織を含む。これらの組織は、異物(例えば、手術器具)の侵入に応じて元の位置から容易に移動する。
ブロック630の後にブロック640「第4の拡張現実画像を取得する」が続き得る。いくつかの実施形態では、ブロック610で取得された第3の拡張現実画像は、第4の拡張現実画像を取得するためにブロック630で計算されたずれを補償することによって更新され得る。したがって、第4の拡張現実画像は、手術器具が目標物の下面領域に物理的に到達したときの視野をシミュレートするための下面領域に関連付けられた画像に対応し得る。したがって、第4の拡張現実画像は、医用スキャンによって取得された情報を含むことができ、外科医が1つもしくは複数の組織または1つもしくは複数の器官に関連する移動に応じて手術を実行するのを容易にすることができる。
いくつかの実施形態では、方法200,300,500及び600は、有線または無線方式でウェアラブル(例えば、Microsoft(商標登録)HoloLens)に接続されたコンピュータによって実行されてもよい。コンピュータは、ウェアラブル上で現実体験(例えば、画像)を提供する拡張現実プラットフォームを提供することができる。ウェアラブルは、図2、図3、図5、及び図6で上述したような拡張現実画像を表示するように構成される。
上記の例は、ハードウェア(ハードウェア論理回路を含む)、ソフトウェアもしくはファームウェア、またはそれらの組み合わせによって実施することができる。上記の例は、任意の適切なコンピューティングデバイス、コンピュータシステム、ウェアラブルなどによって実施することができる。コンピューティングデバイスは、通信バスなどを介して互いに通信することができるプロセッサ、メモリユニット、及び物理NICを含むことができる。コンピューティングデバイスは、プロセッサによる実行に応答して、プロセッサに、図2、図3、図5及び図6を参照して本明細書で説明したプロセスを実行させる命令またはプログラムコードを格納した非一時的コンピュータ可読媒体を含むことができる。例えば、コンピューティングデバイスは、ウェアラブル及び/又は1つもしくは複数のセンサと通信することができる。
上記で紹介した技術は、専用ハードワイヤード回路、プログラム可能な回路と組み合わせたソフトウェア及び/又はファームウェア、またはそれらの組み合わせで実施することができる。専用ハードワイヤード回路は、例えば、1つまたは複数の特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などの形態であってもよい。「プロセッサ」という用語は、処理ユニット、ASIC、論理ユニット、またはプログラマブルゲートアレイなどを含むように広く解釈されるべきである。
本明細書に開示される実施形態のいくつかの態様は、全体または一部において、1つまたは複数のコンピュータで実行される1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステムで実行される1つまたは複数のプログラムとして)、1つまたは複数のプロセッサで実行される1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサで実行される1つまたは複数のプログラムとして)、ファームウェアとして、またはそれらの実質的にあらゆる組み合わせとして、集積回路において同等に実装でき、回路の設計及び/又はソフトウェアもしくはファームウェアのコードの記述は、本開示に照らして可能である。
本明細書で紹介した技術を実施するためのソフトウェア及び/又は他の命令は、非一時的コンピュータ可読記憶媒体に記憶されてもよく、1つまたは複数の汎用または専用プログラマブルマイクロプロセッサによって実行されてもよい。「コンピュータ可読記憶媒体」は、この用語が本明細書で使用される場合、機械(例えば、コンピュータ、ネットワークデバイス、携帯情報端末(PDA)、モバイルデバイス、製造ツール、1つまたは複数のプロセッサのセットを有する任意のデバイスなど)によってアクセス可能な形態で情報を提供する(すなわち、記憶及び/又は送信する)任意の機構を含む。コンピュータ可読記憶媒体は、記録可能/記録不可能媒体(例えば、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスクまたは光記憶媒体、フラッシュメモリデバイスなど)を含むことができる。
上記から、本開示の様々な実施形態が例示の目的で本明細書に記載されており、本開示の範囲及び精神から逸脱することなく様々な改変がなされ得ることが理解されよう。したがって、本明細書で開示された様々な実施形態は、限定することを意図するものではない。

Claims (7)

  1. 1つまたは複数のプロセッサと、
    前記プロセッサに結合されたウェアラブルと、
    命令が格納された非一時的コンピュータ可読媒体であって、該命令が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、目標物に関連付けられた医用スキャン情報を第1の拡張現実画像上に補う方法を実行させ、該方法が、
    前記目標物に関連付けられた3次元画像を取得するステップと、
    前記3次元画像から3次元特徴点の第1のセットを識別するステップと、
    前記3次元特徴点の第1のセットに基づいて身体構造上の点を識別するステップと、
    前記身体構造上の点に関連付けられた前記第1の拡張現実画像を取得するステップと、
    前記第1の拡張現実画像から3次元特徴点の第2のセットを選択するステップと、
    前記3次元特徴点の第1のセットと前記3次元特徴点の第2のセットとの間で第1の画像マッチングを実行するステップと、
    前記第1の画像マッチングに基づいて前記3次元画像を前記第1の拡張現実画像に重ねるステップと
    を含む、非一時的コンピュータ可読媒体と、を備える
    追加の命令を記憶している前記非一時的コンピュータ可読媒体が、
    前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、
    前記医用スキャン情報に基づいて3次元モデルを構築させ、
    前記3次元モデルから特徴点の第3のセットを選択させ、
    前記3次元画像と前記3次元モデルとに関連付けられた一致した表面を識別するために、前記3次元特徴点の第1のセットと前記3次元特徴点の第3のセットとの間で第2の画像マッチングを実行させ、
    前記3次元モデルを前記一致した表面に一致させ、
    前記一致した3次元モデルに基づいて第2の拡張現実画像を取得させ、
    追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、前記目標物に関連付けられた前記医用スキャン情報を補うために前記一致した表面に基づいて前記第2の拡張現実画像を前記第1の拡張現実画像に重ねさせる、
    システム。
  2. 追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、前記3次元画像上に前記3次元特徴点の第1のセットをマーキングさせる、
    請求項1に記載のシステム。
  3. 追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、前記3次元モデルの複数の点によって画定された表面を前記一致した表面に一致させるために該3次元モデルを回転または移動させる、
    請求項1に記載のシステム。
  4. 追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、患者の1つもしくは複数の組織、1つもしくは複数の器官、または1つもしくは複数の器官系の下面領域に対応する第3の拡張現実画像を取得させ、該第3の拡張現実画像が、手術器具が前記下面領域に到達したときの視野をシミュレートするための該下面領域に関連付けられた画像である、
    請求項1に記載のシステム。
  5. 追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、
    前記手術器具が前記下面領域に物理的に到達したことに応答して、前記下面領域に関連付けられた別の3次元画像を取得させ、
    前記第3の拡張現実画像と前記別の3次元画像との間のずれを計算させ、該ずれが、前記患者の前記1つもしくは複数の組織、1つもしくは複数の器官、または1つもしくは複数の器官系の移動に対応する、
    請求項4に記載のシステム。
  6. 追加の命令を記憶している前記非一時的コンピュータ可読媒体が、前記1つまたは複数のプロセッサによる実行に応答して、該1つまたは複数のプロセッサに、前記第3の拡張現実画像及び前記ずれに基づいて前記下面領域に対応する第4の拡張現実画像を取得させる、
    請求項5に記載のシステム。
  7. 前記ウェアラブルが、前記第1の拡張現実画像、前記第2の拡張現実画像、前記第3の拡張現実画像、及び前記第4の拡張現実画像のうちの1つまたは複数を表示するように構成されている、
    請求項6に記載のシステム。
JP2022564308A 2020-04-22 2021-04-21 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム Active JP7486603B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063013687P 2020-04-22 2020-04-22
US63/013,687 2020-04-22
PCT/CN2021/088799 WO2021213450A1 (en) 2020-04-22 2021-04-21 Method and system to augment medical scan image information on extended reality image

Publications (2)

Publication Number Publication Date
JP2023524652A JP2023524652A (ja) 2023-06-13
JP7486603B2 true JP7486603B2 (ja) 2024-05-17

Family

ID=78270281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022564308A Active JP7486603B2 (ja) 2020-04-22 2021-04-21 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム

Country Status (6)

Country Link
US (1) US20230149087A1 (ja)
EP (1) EP4140125A4 (ja)
JP (1) JP7486603B2 (ja)
CN (1) CN115428443A (ja)
TW (1) TW202145250A (ja)
WO (1) WO2021213450A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121341A1 (ja) 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
US20150049174A1 (en) 2013-08-13 2015-02-19 Korea Institute Of Science And Technology System and method for non-invasive patient-image registration
WO2018195529A1 (en) 2017-04-21 2018-10-25 Samadani Uzma Using augmented reality in surgical navigation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080049999A1 (en) * 2006-08-28 2008-02-28 Siemens Medical Solutions Usa, Inc. Computer Aided Detection of Bone Metastasis
TWI473598B (zh) * 2012-05-18 2015-02-21 Univ Nat Taiwan Breast ultrasound image scanning and diagnostic assistance system
US9547940B1 (en) * 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
BR112018007473A2 (pt) * 2015-10-14 2018-10-23 Surgical Theater LLC navegação cirúrgica de realidade aumentada
CN107204037B (zh) * 2016-03-17 2020-11-24 中国科学院光电研究院 基于主被动三维成像系统的三维影像生成方法
WO2018032083A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
TWI670681B (zh) * 2017-06-04 2019-09-01 鈦隼生物科技股份有限公司 判定手術路徑上一個或多個點之方法和系統
CN109961487A (zh) * 2017-12-14 2019-07-02 通用电气公司 放疗定位图像识别方法、计算机程序及计算机存储介质
US20190392265A1 (en) * 2018-06-22 2019-12-26 Siemens Medical Solutions Usa, Inc. Patient-Adaptive Nuclear Imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121341A1 (ja) 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
US20130345491A1 (en) 2011-03-09 2013-12-26 A School Corporation Kansai University Image data processing device and transcranial magnetic stimulation apparatus
US20150049174A1 (en) 2013-08-13 2015-02-19 Korea Institute Of Science And Technology System and method for non-invasive patient-image registration
WO2018195529A1 (en) 2017-04-21 2018-10-25 Samadani Uzma Using augmented reality in surgical navigation

Also Published As

Publication number Publication date
CN115428443A (zh) 2022-12-02
WO2021213450A1 (en) 2021-10-28
TW202145250A (zh) 2021-12-01
EP4140125A1 (en) 2023-03-01
US20230149087A1 (en) 2023-05-18
EP4140125A4 (en) 2024-05-15
JP2023524652A (ja) 2023-06-13

Similar Documents

Publication Publication Date Title
US11652971B2 (en) Image-guided surgery with surface reconstruction and augmented reality visualization
US11883118B2 (en) Using augmented reality in surgical navigation
US11443431B2 (en) Augmented reality patient positioning using an atlas
EP3789965B1 (en) Method for controlling a display, computer program and mixed reality display device
Wu et al. Three-dimensional modeling from endoscopic video using geometric constraints via feature positioning
JP6493885B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
JP7486603B2 (ja) 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
CN114270408A (zh) 用于控制显示器的方法、计算机程序和混合现实显示设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240507

R150 Certificate of patent or registration of utility model

Ref document number: 7486603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150