JP2022122663A - 手術ナビゲーションシステム、情報処理装置、および、情報処理方法 - Google Patents
手術ナビゲーションシステム、情報処理装置、および、情報処理方法 Download PDFInfo
- Publication number
- JP2022122663A JP2022122663A JP2021020036A JP2021020036A JP2022122663A JP 2022122663 A JP2022122663 A JP 2022122663A JP 2021020036 A JP2021020036 A JP 2021020036A JP 2021020036 A JP2021020036 A JP 2021020036A JP 2022122663 A JP2022122663 A JP 2022122663A
- Authority
- JP
- Japan
- Prior art keywords
- image
- surgical
- preoperative
- surgical field
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/744—Mouse
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
【課題】術野画像と術前画像とを素早く精度よく位置合わせして表示する。【解決手段】術前画像に含まれる脳溝パターンを抽出するとともに、術中の患者の脳の術野画像に含まれる脳溝パターンを抽出する。術前画像の脳溝パターンのうち、術野画像の脳溝パターンに一致する範囲を抽出し、この範囲を、術野画像に一致させるように術前画像を変換させるための変換ベクトルを算出する。変換ベクトルによって術前画像を変位させて、接続されている表示装置に表示させる。【選択図】 図4
Description
本発明は、顕微鏡の術野映像と、医用画像取得装置から得られた医用画像とを位置合わせして表示する手術ナビゲーションシステムに関する。
手術前に作成した治療計画データと手術中に獲得したデータとを統合して、術具等の位置や姿勢をガイドすることにより安全・安心に手術が行われるように術者を支援する手術用ナビゲーションシステムが知られている。例えば、手術用ナビゲーションシステムは、MRIなどの医用画像撮影装置によって術前に患者を撮像した医用画像上に、位置計測装置等のセンサを用いて検出した術具等の各種医療機器の実空間における位置情報を重畳して表示し、手術の支援を行う。これにより、術者は、実際の術具の位置と、医用画像の例えば腫瘍との位置関係を医用画像上で把握することができる。
なお、位置計測装置等が実空間における術具や患者の位置を検出するために、術具や患者にはマーカーが付される。術前の医用画像の撮像の際にも、患者の同じ位置にマーカーを付して撮像する。医用画像上のマーカーの位置と、患者のマーカーの位置を対応付けることにより、画像空間座標と実空間座標との対応づけ(レジストレーション)を行う。
また、特許文献1には、術前の画像上の血管等の所定のパターンと、手術中に顕微鏡で撮像した術野の映像上の血管等の所定のパターンを比較して、術前画像を術野映像にあわせて変形させて、処置具とともに表示する手術ナビゲーション技術が開示されている。具体的には、特許文献1の手術ナビゲーション装置では、対象とする生体組織は、脳であり、手術前に撮像した画像に基づいて脳の3Dモデル(3次元画像)を生成し、3Dモデルの表面上の血管のパターンと、手術中の撮像画像に含まれる血管パターンとのパターンマッチングを行う。パターンマッチング結果に基づいて、開頭による脳の変形(ブレインシフト)の量を、有限要素法を用いて3次元メッシュの変位を推定することにより算出する。算出した変形量に基づいて3Dモデルを変形させ、処置具の位置を示す表示を付したナビゲーション画像を表示する。
特許文献1に記載されている技術では、手術前に撮像した画像の血管のパターンと、開頭後の術野の顕微鏡映像の血管パターンとを用いてパターンマッチングを行って脳の変位量を算出する。しかしながら、術前の画像をMRI(磁気共鳴撮像装置)で撮像した場合には、脳表の血管を明確に描出できないため精度が低かった。また、手術開始後は、脳表面を切開するため、手術中の脳の変位の算出に血管パターンを用いるのは難しい。
また、脳の変位を検出するために、手術中の脳の表面にマーカーを配置する方法は、患者および術者の負担になる。
一方、実際の手術では、手術進行に伴い、患者の生体組織を切り開いたり、腫瘍等を切除したりするため、切除された組織が無くなったり、その組織があった空間に周囲の組織がシフトして来たりする。これにより、患者の解剖学的構造そのものに変化が生じるため、手術前に得た画像を逐次更新し、手術中に生じた脳の変形を反映させることが望まれる。しかしながら、特許文献1に記載された技術では、手術中の解剖学的構造の変化を推定して、手術前の画像を更新することは難しい。
本発明の目的は、特別な器具を使用せず、リアルタイムに撮像した術野の画像と、術前に撮像した画像とを素早く精度よく位置合わせする技術を提供することにある。
上記目的を達成するために、本発明の手術ナビゲーションシステムは、術前に患者の脳について撮像した術前画像を受け取って、術前画像に含まれる脳溝パターンを抽出する術前脳溝抽出部と、術中の患者の脳の術野画像を撮影する術野画像撮影装置から術野画像を受けとって、術野画像に含まれる脳溝パターンを抽出する術野脳溝抽出部と、術前画像内の脳溝パターンのうち、術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索する探索部と、探索した範囲の脳溝パターンを、術野画像の脳溝パターンに一致させる変換ベクトルを算出する変換ベクトル算出部と、変換ベクトルによって術前画像の座標を変換し、接続されている表示装置に表示させる演算部とを有する。
本発明によれば、術野画像と術前画像とを素早く精度よく位置合わせして表示することができるため、手術の進行をスムーズにすると共に、手術の精度向上に貢献することができる。
以下、本発明の一実施形態について図に基づいて説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。
[1.第1実施形態]
第1の実施形態の手術ナビゲーションシステムは、術前に患者の脳について撮像した術前画像を受け取って、術前画像に含まれる脳溝パターンを抽出するとともに、術中の患者の脳の術野画像を撮影する術野画像撮影装置から術野画像を受けとって、術野画像に含まれる脳溝パターンを抽出する。術前画像内の複数の範囲のうち、術野画像の脳溝パターンに一致する脳溝パターンを含む範囲を抽出し、その範囲を術野画像に一致させるように術前画像の座標を変換させるための変換ベクトルを算出する。最後に、変換ベクトルによって術前画像を変位させて、接続されている表示装置に表示させる。
第1の実施形態の手術ナビゲーションシステムは、術前に患者の脳について撮像した術前画像を受け取って、術前画像に含まれる脳溝パターンを抽出するとともに、術中の患者の脳の術野画像を撮影する術野画像撮影装置から術野画像を受けとって、術野画像に含まれる脳溝パターンを抽出する。術前画像内の複数の範囲のうち、術野画像の脳溝パターンに一致する脳溝パターンを含む範囲を抽出し、その範囲を術野画像に一致させるように術前画像の座標を変換させるための変換ベクトルを算出する。最後に、変換ベクトルによって術前画像を変位させて、接続されている表示装置に表示させる。
[1-1.構成]
図1は、実施形態の手術ナビゲーションシステム1のハードウェア構成を示すブロック図であり、図2は、術具位置検出装置12と術野映像取得装置13とベッド17とを示す斜視図であり、図3は、手術ナビゲーションシステム1の情報取得・処理部4の機能ブロック図である。
図1は、実施形態の手術ナビゲーションシステム1のハードウェア構成を示すブロック図であり、図2は、術具位置検出装置12と術野映像取得装置13とベッド17とを示す斜視図であり、図3は、手術ナビゲーションシステム1の情報取得・処理部4の機能ブロック図である。
図1のように、第1実施形態の手術ナビゲーションシステム1には、医用画像取得装置11と、術具位置検出装置12と、術野映像取得装置13とが接続され、医用画像取得装置11から受け取った患者の術前の医用画像(術前画像)を、術野映像取得装置13が撮像する手術中の術野映像(術野画像)に位置合わせして表示する。その際、医用画像上で術具の位置を示すマークを表示する。
手術ナビゲーションシステム1は、情報取得・処理部4と、記憶部2と、主メモリ3と、表示部9が接続された表示メモリ5と、表示部6と、マウス8が接続されたコントローラ7と、キーボード9とを備え、これらはシステムバス10によって信号送受可能に接続されている。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
情報取得・処理部4には、上述の医用画像取得装部11と、術具位置検出装置12と、術野映像取得装置13とが信号送受可能に接続されている。
医用画像取得部11は、MRI、CT、および、超音波撮像装置等の撮像装置であり、患者の3次元画像を医用画像として撮影する。
術具位置検出装置12は、術具19、ベッド17に搭載された患者15、および、術野映像取得装置13の実空間位置を検出する装置であり、光学的に検出する装置(ステレオカメラ)であっても磁気的に検出する装置(磁気センサ)であってもよい。ここではステレオカメラを術具位置検出装置12として用いる。
術具19は、患者を切開したり、切除したりする器具であり、例えばモノポーラやバイポーラ等の電気メスである。術具19には、マーカー18が固定されており、術具位置検出装置12によって実空間における位置が検出される。
術野映像取得装置13は、患者の術野の映像を撮影・取得する装置であり、ここでは手術顕微鏡を用いる。術野映像取得装置13は、ステレオ視できる光学系として左右2台のカメラを有していることを前提とする。図2に示すように術野映像取得装置(手術顕微鏡)13には、術野映像位置情報取得部(例えばマーカー)14が取り付けられており、術具位置検出装置12によって実空間におけるその位置が検出される。
患者15が搭載されるベッド17にも、患者位置情報取得部(マーカー)16が取り付けられており、術具位置検出装置12によってその位置が検出される。これにより、ベッド17の所定の位置に搭載された患者位置を検出することができる。
情報取得・処理部4は、図3にその機能ブロック図を示したように、術野映像取得装置13から術野映像を取得し、脳溝パターンを抽出する術野映像取得部301と、医用画像と術野映像の脳溝パターンを比較して変換ベクトルを求める照合部302と、求めた変換ベクトルにより術前画像の座標を変換する演算部303と、出力部304とを備えている。照合部302は、探索部302aと変換ベクトル算出部302bとを含む。探索部302aは、術前画像内の脳溝パターンのうち、術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索する。変換ベクトル算出部302bは、探索した範囲の脳溝パターンを、術野画像の脳溝パターンに一致させる変換ベクトルを算出する。
情報取得・処理部4は、CPU(図示せず)を含み、CPUが記憶部2に予め格納されているプログラムや、プログラム実行に必要なデータを主メモリ3にロードして実行することにより上述の各ブロック(301~304)の機能をソフトウエアにより実現する。なお、情報取得・処理部4は、各ブロック(301~304)の機能の一部または全部をハードウェアにより実現することも可能である。例えば、ASIC(Application Specific Integrated Circuit)のようなカスタムICや、FPGA(Field-Programmable Gate Array)のようなプログラマブルICを用いてブロック(301~304)の機能を実現するように回路設計を行えばよい。
記憶部2は、ハードディスク等である。また、記憶部2は、フレキシブルディスク、光(磁気)ディスク、ZIPメモリ、USBメモリ等の可搬性記録媒体とデータの受け渡しをする装置であっても良い。
主メモリ3は、情報取得・処理部4が実行するプログラムや演算処理の途中経過を記憶するものである。
表示メモリ5は、液晶ディスプレイやCRT(Cathode Ray Tube)等の表示部6に表示するための表示データを一時格納するものである。
マウス8やキーボード9は、操作者が本システム1に対して操作指示を行う操作デバイスである。マウス8はトラックパッドやトラックボールなどの他のポインティングデバイスであっても良い。
コントローラ7は、マウス8の状態を検出して、表示部6上のマウスポインタの位置を取得し、取得した位置情報等を情報取得・処理部4へ出力するものである。
[1-2.処理]
以下、情報取得・処理部4の各部の処理動作を図4のフローと、図5の画像例を参照しながら具体的に説明する。
以下、情報取得・処理部4の各部の処理動作を図4のフローと、図5の画像例を参照しながら具体的に説明する。
(ステップS401)
情報取得・処理部4の医用画像情報取得部201は、医用画像取得装置11からLAN(Local Area Network)等を介して医用画像51を取得する(図5(a)参照)。具体的には、医用画像情報取得部201は、MRI画像やX線CT画像等の3次元医療画像を医用画像取得装置11から取得し、画像処理によってサーフェスレンダリング(SR)画像を複数方向について生成し、サーフェスレンダリング画像を医用画像51とする。
情報取得・処理部4の医用画像情報取得部201は、医用画像取得装置11からLAN(Local Area Network)等を介して医用画像51を取得する(図5(a)参照)。具体的には、医用画像情報取得部201は、MRI画像やX線CT画像等の3次元医療画像を医用画像取得装置11から取得し、画像処理によってサーフェスレンダリング(SR)画像を複数方向について生成し、サーフェスレンダリング画像を医用画像51とする。
(ステップS402)
医用画像情報取得部201は、医用画像51上の特徴的な位置として溝の位置を取得する(図5(a)参照)。例えば、医用画像51に対して平滑化処理を行い、各画素に対して平均的な深度情報を取得し、平滑化前の深度情報と比較して差分があらかじめ設定した閾値よりも大きければ、溝があると認識し、当該箇所を特徴的な位置(特徴点、すなわち脳溝)として抽出する。以下、複数の特徴的な位置(溝の位置)を脳溝パターンとも呼ぶ。
医用画像情報取得部201は、医用画像51上の特徴的な位置として溝の位置を取得する(図5(a)参照)。例えば、医用画像51に対して平滑化処理を行い、各画素に対して平均的な深度情報を取得し、平滑化前の深度情報と比較して差分があらかじめ設定した閾値よりも大きければ、溝があると認識し、当該箇所を特徴的な位置(特徴点、すなわち脳溝)として抽出する。以下、複数の特徴的な位置(溝の位置)を脳溝パターンとも呼ぶ。
(ステップS403)
術野映像取得部301は、術野映像取得装置13の左右のカメラから現時点の術野映像(静止画像)52をそれぞれ取得する。
術野映像取得部301は、術野映像取得装置13の左右のカメラから現時点の術野映像(静止画像)52をそれぞれ取得する。
(ステップS404)
術野映像取得部301は、術野映像取得装置13の左右のカメラ間距離をB、焦点距離をF、撮像対象物までの距離をZ、左右カメラの画像での視差をDとした場合、Z=B×F/Dを画素ごとに算出する。画素位置および撮像対象物までの距離から、術野映像52の各画素の3次元位置情報を取得する。
術野映像取得部301は、術野映像取得装置13の左右のカメラ間距離をB、焦点距離をF、撮像対象物までの距離をZ、左右カメラの画像での視差をDとした場合、Z=B×F/Dを画素ごとに算出する。画素位置および撮像対象物までの距離から、術野映像52の各画素の3次元位置情報を取得する。
術野映像取得部301は、術野映像52の3次元位置情報の深さ情報(z方向)に対して平滑化処理を行うことにより、各画素に対して平均的な深さ情報を取得し、平滑化前の深さ情報と比較して差分があらかじめ設定した閾値よりも大きければ、溝があると認識し、当該箇所を特徴的な位置(特徴点、すなわち脳溝パターン)として抽出する(図5(b))。
(ステップS405)
照合部302の探索部302aは、ステップS402で抽出した医用画像51の脳溝パターン(特徴点)と、ステップS404で抽出した術野映像52の脳溝パターン(特徴点)とを比較し、術野映像52の脳溝パターンに最も一致する医用画像51の範囲53を探索する。変換ベクトル算出部302bは、視野映像52の範囲53の脳溝パターンの点群(図5(b))と、医用画像51の脳溝パターン(特徴点)の点群に対して、ICP(Iterative Closest Point)アルゴリズムを用いて2つの点群が整合するように繰り返し計算を行い、並進ベクトルおよび回転行列を求め、これを変換行列とする。
照合部302の探索部302aは、ステップS402で抽出した医用画像51の脳溝パターン(特徴点)と、ステップS404で抽出した術野映像52の脳溝パターン(特徴点)とを比較し、術野映像52の脳溝パターンに最も一致する医用画像51の範囲53を探索する。変換ベクトル算出部302bは、視野映像52の範囲53の脳溝パターンの点群(図5(b))と、医用画像51の脳溝パターン(特徴点)の点群に対して、ICP(Iterative Closest Point)アルゴリズムを用いて2つの点群が整合するように繰り返し計算を行い、並進ベクトルおよび回転行列を求め、これを変換行列とする。
(ステップS406)
演算部303は、術具位置検出装置12から術野映像取得装置(手術顕微鏡)13に取り付けられた術野映像位置情報取得部(マーカー)14の位置と、患者位置情報取得部(ベッドに取り付けられたマーカー)16を取り込む。これにより、演算部303は、術野映像取得装置(手術顕微鏡)13と、患者15の実空間上での位置をそれぞれ認識する。
演算部303は、術具位置検出装置12から術野映像取得装置(手術顕微鏡)13に取り付けられた術野映像位置情報取得部(マーカー)14の位置と、患者位置情報取得部(ベッドに取り付けられたマーカー)16を取り込む。これにより、演算部303は、術野映像取得装置(手術顕微鏡)13と、患者15の実空間上での位置をそれぞれ認識する。
(ステップS407)
演算部303は、図5で示すようにステップS405求めた変換行列を用いて医用画像を変換する。これにより、医用画像空間座標と実空間座標の位置合わせ(レジストレーション)を実施される。
演算部303は、図5で示すようにステップS405求めた変換行列を用いて医用画像を変換する。これにより、医用画像空間座標と実空間座標の位置合わせ(レジストレーション)を実施される。
(ステップS408)
演算部303は、術具位置検出装置12が取得した術具19のマーカー18の位置を取り込み、術具19の位置を認識する。
演算部303は、術具位置検出装置12が取得した術具19のマーカー18の位置を取り込み、術具19の位置を認識する。
出力部205は、ステップS407においてレジストレーション後の医用画像を表示する。このとき、医用画像上に術具の位置を表す矢印や〇印等のマークを表示する。
[1-3.効果]
第1実施形態によると、以下の効果を得ることができる。
第1実施形態によると、以下の効果を得ることができる。
特殊な器具・操作を必要とせず、医用画像および術野映像の脳溝を用いて素早く医用画像レジストレーションを実現することができるため、術者のストレスや負担を軽減することができる。
[2.第2実施形態]
第2実施形態の手術ナビゲーションシステムについて説明する。
第2実施形態の手術ナビゲーションシステムについて説明する。
第2実施形態ではすでに医用画像空間座標と実空間座標の位置合わせ済みの医用画像と術野映像を用いて、術中にリアルタイムに術野映像と医用画像の脳溝パターンを比較し、医用画像を術野映像から取得した患者の解剖学的構造に合わせて更新(変形)させる。
すなわち、第2実施形態の手術ナビゲーションシステムでは、術前に患者の脳について撮像した術前画像を受け取って、術前画像に含まれる脳溝パターンを抽出するとともに、術中の患者の脳の術野画像を撮影する術野画像撮影装置から術野画像を受けとって、術野画像に含まれる脳溝パターンを抽出する。術前画像内の複数の範囲のうち、術野画像の脳溝パターンに最も一致度の高い脳溝パターンを含む範囲を抽出し、範囲を術野画像に一致させるために、術前画像を(深度方向に)変形させる。変形後の術前画像を、接続されている表示装置に表示させる。
[2-1.構成]
第2実施形態の構成は、図6に示したように、情報取得・処理部4が、画像を変形させる画像変形部305を備える点が第1実施形態と異なる。また、照合部302が、変換ベクトル算出302bの代わりに変位ベクトル算出部1302を備え、さらにブレインシフト算出部302cを備える点で第1実施形態とは異なる。他の構成は、第1実施形態と同様であるので説明を省略する。
第2実施形態の構成は、図6に示したように、情報取得・処理部4が、画像を変形させる画像変形部305を備える点が第1実施形態と異なる。また、照合部302が、変換ベクトル算出302bの代わりに変位ベクトル算出部1302を備え、さらにブレインシフト算出部302cを備える点で第1実施形態とは異なる。他の構成は、第1実施形態と同様であるので説明を省略する。
[2-2.処理]
以下、情報取得・処理部4の各部の処理動作を図7のフローを参照しながら具体的に説明する。
以下、情報取得・処理部4の各部の処理動作を図7のフローを参照しながら具体的に説明する。
(ステップS501)
情報取得・処理部4の医用画像情報取得部201は、医用画像取得装置11から医用画像空間座標と実空間座標の位置合わせ済み医用画像51を取得する。
情報取得・処理部4の医用画像情報取得部201は、医用画像取得装置11から医用画像空間座標と実空間座標の位置合わせ済み医用画像51を取得する。
(ステップS502)
医用画像情報取得部201は、第1実施形態のステップS402と同様に医用画像51上の脳溝パターンを取得する。
医用画像情報取得部201は、第1実施形態のステップS402と同様に医用画像51上の脳溝パターンを取得する。
(ステップS503)
術具位置検出装置12は、実空間座標における術具位置を検出する。
術具位置検出装置12は、実空間座標における術具位置を検出する。
(ステップS504)
術野映像取得部301は、術野映像取得装置(手術顕微鏡)13から術野映像を、術前と術中に逐次取得する。
術野映像取得部301は、術野映像取得装置(手術顕微鏡)13から術野映像を、術前と術中に逐次取得する。
(ステップS505)
術野映像取得部301は、第1実施形態のステップS404と同様に、術前の術野映像の脳溝パターンを抽出する。
術野映像取得部301は、第1実施形態のステップS404と同様に、術前の術野映像の脳溝パターンを抽出する。
(ステップS506)
照合部302の探索部302aは、第1の実施形態のステップS405と同様に、ステップS502で抽出した医用画像51の脳溝パターンと、ステップS505で抽出した術野映像52の脳溝パターン(特徴点)とを比較し、術野映像52の脳溝パターンに最も一致する医用画像51の範囲53を探索する。
照合部302の探索部302aは、第1の実施形態のステップS405と同様に、ステップS502で抽出した医用画像51の脳溝パターンと、ステップS505で抽出した術野映像52の脳溝パターン(特徴点)とを比較し、術野映像52の脳溝パターンに最も一致する医用画像51の範囲53を探索する。
次に、ブレインシフト算出部302cは、術前の術野映像51(図8(a))の深度情報81を求め、術中の術野映像52から図8(b)の深度情報82を求め、両者の差(沈み込み量:ブレインシフト)83を算出する。
図8(a),(b)の深度情報81,82は、術野映像取得装置(顕微鏡)13のカメラ601と被検体15の組織(脳)602の表面との距離である。
具体的には、ブレインシフト算出部302cは、術野映像51、52の深度情報81,82を第1実施形態のステップS404と同様にカメラから撮像対象物(脳表)までの距離Zを算出することにより求める。
なお、本ステップS506で算出される深度情報81と82の差83は、手術前の病変603を含む組織602と、病変603の一部が除去された後の組織604および病変605との変形量(ブレインシフト)を示している。
なお、本ステップS506で算出される深度情報81と82の差83は、手術前の病変603を含む組織602と、病変603の一部が除去された後の組織604および病変605との変形量(ブレインシフト)を示している。
(ステップS507)
演算部303は、医用画像51を深度方向および面内に変形させて、術野映像52に一致させる変位場行列を、アフィン変換を用いて求める。具体的には、まず術前医用画像から算出した組織602の深さ情報84と沈みこみの変形量83の差分から組織604の深さ情報85を求める。そして、脳深部を起点として、組織602の深さ情報84と組織604の深さ情報85の比を用いてアフィン変換を適用し医用画像を変形させるための変位場行列を求める。
演算部303は、医用画像51を深度方向および面内に変形させて、術野映像52に一致させる変位場行列を、アフィン変換を用いて求める。具体的には、まず術前医用画像から算出した組織602の深さ情報84と沈みこみの変形量83の差分から組織604の深さ情報85を求める。そして、脳深部を起点として、組織602の深さ情報84と組織604の深さ情報85の比を用いてアフィン変換を適用し医用画像を変形させるための変位場行列を求める。
これにより、術前には、図8(a)のような形状であった脳形状を、開頭や病変除去により図8(b)のように深度方向に沈み込んだ(ブレインシフト)後の脳形状に一致させるための変換行列を求めることができる。
(ステップS508)
画像変形部305は、ステップS507で求めた変換行列を用いて、医用画像51を変形させる。これにより、患者のリアルタイムな解剖学的構造に一致する医用画像51を生成する。
画像変形部305は、ステップS507で求めた変換行列を用いて、医用画像51を変形させる。これにより、患者のリアルタイムな解剖学的構造に一致する医用画像51を生成する。
(ステップS509)
画像変形部305は、ステップS508にて生成した変形後の医用画像と、ステップ501で取得した医用画像が一致するか判断する。例えば、画像の特徴点(脳溝パターン)を2値化して比較し、一致するかどうかを判断する。
画像変形部305は、ステップS508にて生成した変形後の医用画像と、ステップ501で取得した医用画像が一致するか判断する。例えば、画像の特徴点(脳溝パターン)を2値化して比較し、一致するかどうかを判断する。
(ステップS510)
画像変形部305は、ステップS509にて画像情報が一致しないと判断した場合は、画像情報を更新し、医用画像51の空間座標と実空間座標の位置合わせ(レジストレーション)を再度実施する。
画像変形部305は、ステップS509にて画像情報が一致しないと判断した場合は、画像情報を更新し、医用画像51の空間座標と実空間座標の位置合わせ(レジストレーション)を再度実施する。
(ステップS511)
出力部205は、位置合わせ済みの変形後の医用画像を表示する。このとき、変形後の医用画像上に、ステップS508で取得した術具の位置を表す矢印や〇印等のマークを表示する。
出力部205は、位置合わせ済みの変形後の医用画像を表示する。このとき、変形後の医用画像上に、ステップS508で取得した術具の位置を表す矢印や〇印等のマークを表示する。
[2-3.効果]
第2実施形態によると、以下の効果を得ることができる。すなわち、手術の切開や切除等の手技を進めていくと、術前に撮影した医用画像と、現在の患者の生体組織の解剖学的構造にずれが生じていくが、画像変形部305が医用画像を変形させることによりそのずれをリアルタイムに修正することができる。術者は、変形後の医用画像を見て腫瘍の位置等を確認することができるため、精度の高い手術を実現することができる。
第2実施形態によると、以下の効果を得ることができる。すなわち、手術の切開や切除等の手技を進めていくと、術前に撮影した医用画像と、現在の患者の生体組織の解剖学的構造にずれが生じていくが、画像変形部305が医用画像を変形させることによりそのずれをリアルタイムに修正することができる。術者は、変形後の医用画像を見て腫瘍の位置等を確認することができるため、精度の高い手術を実現することができる。
[3.第3実施形態]
第3実施形態の手術ナビゲーションシステムについて、図9~図11を用いて説明する。
第3実施形態の手術ナビゲーションシステムについて、図9~図11を用いて説明する。
第3実施形態では、変位ベクトルの予測を行い、画像を患者の実際の解剖学的構造に合うように変形する。さらに、蓄積した変位ベクトル予測情報と顕微鏡映像情報とを比較し、変位ベクトル予測機能をアップデートする。
すなわち、手術ナビゲーションシステム、術前に患者の脳について撮像した術前画像を受け取るとともに、術具の位置データを時系列に受け取る。術具の時系列な位置データから、術具によって除去された生体組織の範囲を切除領域として算出する。切除領域を用いて、術前画像に生じる変形を表す変位ベクトルを演算により予測し、求めた変位ベクトルにより術前画像を変形させる。変形後の術前画像を、接続されている表示装置に表示させる。
[3-1.構成]
第3実施形態の構成は、第1実施形態と情報取得・処理部4の構成が異なる。
第3実施形態の構成は、第1実施形態と情報取得・処理部4の構成が異なる。
情報取得・処理部4は、図9にその機能ブロック図を示したように、術具位置検出装置12から医用画像に位置合わせ済みの術具位置情報と医用画像を取得する術具位置履歴保存部701と、術具軌跡を基にブレインシフトを予測する変位ベクトル予測部702と、予測に基づき画像を変形させる画像変形部304と、画像を出力する出力部305と、変形情報を蓄積する変形情報蓄積部703とを備えている。
変位ベクトル予測部702は、術前の画像(例えばMRI画像)と摘出(切除)した領域とを入力データとし、変位場行列を教師データとして、学習済みの学習モデル(人工知能アルゴリズム)905を搭載している。これにより、変位ベクトル予測部702は、学習モデルに、実際の術前画像(医用画像51)と、術具位置から算出した切除領域とを入力することより、ブレインシフトによる変形を予測し、変位場行列を出力することができる。
人工知能アルゴリズムとしては、例えば、畳込みニューラルネットワークなど、深層学習(ディープラーニング)のAIアルゴリズムを用いることが好ましい。具体的には、AIアルゴリズムとして、U-net、Seg-net、DenseNetなどの公知のAIアルゴリズムを用いることができる。
学習プロセスでは、上述の入力データを学習前の人工知能アルゴリズムに入力し、出力される予測データと上述の教師データとの比較を行う。そして、比較結果を人工知能アルゴリズムにフィードバックしてアルゴリズムの修正を繰り返すことで、予測データと教師データとの誤差が最小となるように人工知能アルゴリズムを最適化する。
[3-2.処理]
以下、情報取得・処理部4の各部の処理動作を図10のフローを参照しながら具体的に説明する。
以下、情報取得・処理部4の各部の処理動作を図10のフローを参照しながら具体的に説明する。
(ステップS801)
術具位置検出装置12は、医用画像取得装置11からLAN等を介して、医用画像空間座標と実空間座標との位置合わせ済みの医用画像51を取得する。
術具位置検出装置12は、医用画像取得装置11からLAN等を介して、医用画像空間座標と実空間座標との位置合わせ済みの医用画像51を取得する。
(ステップS802)
術具位置履歴保存部701は、術具位置検出装置12から術具位置情報を取得する。
術具位置履歴保存部701は、術具位置検出装置12から術具位置情報を取得する。
(ステップS803)
術具位置履歴保存部701は、ステップS802で取得した術具位置情報を軌跡として保存する。
術具位置履歴保存部701は、ステップS802で取得した術具位置情報を軌跡として保存する。
(ステップS804)
術具位置履歴保存部701は、ステップS803で取得した軌跡情報をもとに切除領域を算出する。例えば、術具(電気メス等)が通過した軌跡または軌跡によって囲まれた領域902は、切除された領域であると判断する。
術具位置履歴保存部701は、ステップS803で取得した軌跡情報をもとに切除領域を算出する。例えば、術具(電気メス等)が通過した軌跡または軌跡によって囲まれた領域902は、切除された領域であると判断する。
(ステップS805)
変位ベクトル予測部702は、ステップS804で算出した切除領域902と、ステップS801で取得した医用画像51を、学習済みモデル905に入力することにより、学習済みモデル905が出力する変位場行列906を得る(図11参照)。
変位ベクトル予測部702は、ステップS804で算出した切除領域902と、ステップS801で取得した医用画像51を、学習済みモデル905に入力することにより、学習済みモデル905が出力する変位場行列906を得る(図11参照)。
(ステップS806)
画像変形部304は、ステップS805で求めた変位場行列(変形ベクトル)906を、ステップS801で取得した医用画像に適用することにより医用画像51を変形する。具体的には、医用画像51のデータを並べて行列形式に表したものに変位場行列906を掛けることにより、ブレインシフト後の医用画像を生成する。
画像変形部304は、ステップS805で求めた変位場行列(変形ベクトル)906を、ステップS801で取得した医用画像に適用することにより医用画像51を変形する。具体的には、医用画像51のデータを並べて行列形式に表したものに変位場行列906を掛けることにより、ブレインシフト後の医用画像を生成する。
これにより、図11に示すように、医用画像51の組織901の病変902の一部が除去され、病変除去後の組織903および病変904が除去前から変形し、脳表が沈み込んだブレインシフト後の医用画像を求めることができる。
(ステップS807)
情報取得・処理部4の画像変形部304は、ステップS806にて生成した変形後の医用画像と、ステップS801で取得した医用画像51が一致するか判断する。例えば、画像の特徴点(脳溝パターン)を2値化して比較し、一致するかどうかを判断する。
情報取得・処理部4の画像変形部304は、ステップS806にて生成した変形後の医用画像と、ステップS801で取得した医用画像51が一致するか判断する。例えば、画像の特徴点(脳溝パターン)を2値化して比較し、一致するかどうかを判断する。
(ステップS808)
画像変形部304は、ステップS809において変形後の医用画像と、ステップS801で取得した医用画像51が一致しないと判断した場合は、医用画像51の空間座標と実空間座標の位置合わせ(レジストレーション)を再度実施する。
画像変形部304は、ステップS809において変形後の医用画像と、ステップS801で取得した医用画像51が一致しないと判断した場合は、医用画像51の空間座標と実空間座標の位置合わせ(レジストレーション)を再度実施する。
(ステップS809)
出力部305は、位置合わせ済みの医用画像に術具の位置を示すマークを重畳して出力し、表示部6に表示する。
出力部305は、位置合わせ済みの医用画像に術具の位置を示すマークを重畳して出力し、表示部6に表示する。
(ステップS810)
また、変形情報蓄積部703は、ステップS806で取得した画像変形情報を蓄積する。
また、変形情報蓄積部703は、ステップS806で取得した画像変形情報を蓄積する。
(ステップS811)
変位ベクトル予測部702は、ステップS810で蓄積した画像変形情報(シミュレーション結果)を用いて、より高精度に変位ベクトル予測ができるよう変位ベクトル予測機能をアップデートする。具体的には、手術後にMRI等の医用画像撮像装置で撮像した画像と、ステップS810で蓄積した医用画像51とを一致させる変位場行列を求め、この変位場行列を出力データ(教師データ)として学習モデル905の再学習を行う。入力データは、医用画像51と、ステップS804で求めた切除領域とする。
変位ベクトル予測部702は、ステップS810で蓄積した画像変形情報(シミュレーション結果)を用いて、より高精度に変位ベクトル予測ができるよう変位ベクトル予測機能をアップデートする。具体的には、手術後にMRI等の医用画像撮像装置で撮像した画像と、ステップS810で蓄積した医用画像51とを一致させる変位場行列を求め、この変位場行列を出力データ(教師データ)として学習モデル905の再学習を行う。入力データは、医用画像51と、ステップS804で求めた切除領域とする。
[3-3.効果]
第3実施形態によると、以下の効果を得ることができる。
第3実施形態によると、以下の効果を得ることができる。
手術の切開や切除等の手技を進めていくと、術前の医用画像と、術中の患者の解剖学的構造とにずれが生じていくが、それを予測して医用画像を演算により変形させ、変形後の医用画像を術具位置とともに表示することができる。よって、術者は、変形後の医用画像を見て腫瘍の位置等を把握することができるため、精度の高い手術を実現することができる。
さらに、蓄積した情報を用いて変位ベクトル予測機能をアップデートすることで、より正確な予測をすることができ手術の精度と安全性に大きく寄与する。
[4.第4実施形態]
第4実施形態の手術ナビゲーションシステムについて、図12~図14を用いて説明する。
第4実施形態の手術ナビゲーションシステムについて、図12~図14を用いて説明する。
第4実施形態の手術ナビゲーションシステムは、第3実施形態と同様に変位ベクトルの予測を行う構成であるが、予測を行う際に、術野映像(顕微鏡映像)の深度情報を用いることでより精度の高い予測を行う点が第3実施形態とは異なっている。また、蓄積した変位ベクトル予測情報と顕微鏡映像情報とを比較し、変位ベクトル予測機能をアップデートする。
すなわち、第4実施形態の手術ナビゲーションシステムは、術前に患者の脳について撮像した術前画像を受け取るとともに、術具の位置データを時系列に受け取って、術具の時系列な位置データから、術具によって除去された生体組織の範囲を切除領域として算出する。また、術中の患者の脳の術野画像を撮影する術野画像撮影装置から術野画像を受けとって、術野の脳表面までの深度情報を求める。術前の医用画像の脳表の位置座標と、術野画像の脳表面までの深度情報から、術野画像の術前からの脳表の沈み込み量(ブレインシフト)を算出する。切除領域と、沈み込み量とを用いて、術前画像に生じる変形を表す変位ベクトルを演算により求め、求めた変位ベクトルにより術前画像を変形させる。画像変形部によって変形後の前記術前画像を、接続されている表示装置に表示させる。
[4-1.構成]
手術ナビゲーションシステムの情報取得・処理部4は、図12に示すように、術具位置検出装置12から位置合わせ済み術具位置情報と医用画像を取得する術具位置履歴保存部701と、術具軌跡を基に変位ベクトルを予測する変位ベクトル予測部1702と、術野映像取得装置13から術野映像を取得する術野映像取得部301と、医用画像と術野映像の脳溝パターンを比較する照合部302と、照合した結果を演算する演算部303と、画像を変形させる画像変形部305と出力部304と、変形情報を蓄積する変形情報蓄積部703とを備えている。
手術ナビゲーションシステムの情報取得・処理部4は、図12に示すように、術具位置検出装置12から位置合わせ済み術具位置情報と医用画像を取得する術具位置履歴保存部701と、術具軌跡を基に変位ベクトルを予測する変位ベクトル予測部1702と、術野映像取得装置13から術野映像を取得する術野映像取得部301と、医用画像と術野映像の脳溝パターンを比較する照合部302と、照合した結果を演算する演算部303と、画像を変形させる画像変形部305と出力部304と、変形情報を蓄積する変形情報蓄積部703とを備えている。
変位ベクトル予測部1702は、術前の画像(例えばMRI画像)と、摘出(切除)した領域と、沈み込み量(ブレインシフト)とを入力データとし、変位場行列を教師データとして、学習済みの学習モデル(人工知能アルゴリズム)1905を搭載している。これにより、変位ベクトル予測部1702は、学習モデル1905に、実際の術前画像(医用画像51)と、術具位置の軌跡から算出した切除領域と、算出した沈み込み量(ブレインシフト)83とを入力することより、変形を予測し、変位場行列を出力することができる。
[4-2.処理]
以下、情報取得・処理部4の各部の処理動作を図13のフローを参照しながら具体的に説明する。第1~第3実施形態において説明した処理と同様の処理については、同一のステップ番号を付し、簡単に説明する。
以下、情報取得・処理部4の各部の処理動作を図13のフローを参照しながら具体的に説明する。第1~第3実施形態において説明した処理と同様の処理については、同一のステップ番号を付し、簡単に説明する。
(ステップS501~S502)
医用画像情報取得部201は、医用画像空間座標と実空間座標の位置合わせ済みの医用画像51を医用画像取得装置11から取得し、医用画像51上の脳溝パターンを取得する。
医用画像情報取得部201は、医用画像空間座標と実空間座標の位置合わせ済みの医用画像51を医用画像取得装置11から取得し、医用画像51上の脳溝パターンを取得する。
(ステップS504~S506)
術野映像取得部301は、術野映像取得装置(手術顕微鏡)13から術野映像を取得し、術野映像の脳溝パターンを抽出する。
術野映像取得部301は、術野映像取得装置(手術顕微鏡)13から術野映像を取得し、術野映像の脳溝パターンを抽出する。
照合部302は、医用画像51の脳溝パターンと、術野映像52の脳溝パターンを比較し、術野映像52の脳溝パターンに最も一致する医用画像51の範囲53を探索する。術前の術野映像51の深度情報81と、術中の術野映像52の深度情報82を求め、両者の差(沈み込み量:ブレインシフト)83を算出する(図8(a),(b)参照)。
(ステップS802~S804)
術具位置履歴保存部701は、術具位置検出装置12から術具位置情報を取得し、術具位置情報を軌跡として保存するとともに、軌跡情報をもとに切除領域を算出する。
術具位置履歴保存部701は、術具位置検出装置12から術具位置情報を取得し、術具位置情報を軌跡として保存するとともに、軌跡情報をもとに切除領域を算出する。
(ステップS1805)
変位ベクトル予測部1702は、ステップS506で算出した沈み込み量(ブレインシフト)83と、ステップS804で算出した切除領域902と、ステップS801で取得した医用画像51を、学習済みモデル1905に入力することにより、学習済みモデル905が出力する変位場行列1906を得る(図11参照)。
変位ベクトル予測部1702は、ステップS506で算出した沈み込み量(ブレインシフト)83と、ステップS804で算出した切除領域902と、ステップS801で取得した医用画像51を、学習済みモデル1905に入力することにより、学習済みモデル905が出力する変位場行列1906を得る(図11参照)。
(ステップS806~S810)
画像変形部304は、ステップS1805で求めた変位場行列1906を医用画像51に適用することにより医用画像51を変形し、ブレインシフト後の医用画像を求める。
画像変形部304は、ステップS1805で求めた変位場行列1906を医用画像51に適用することにより医用画像51を変形し、ブレインシフト後の医用画像を求める。
情報取得・処理部4の画像変形部304は、ステップS806にて生成した変形後の医用画像と、ステップS801で取得し医用画像51が一致するか判断し、一致しない場合は、医用画像51の空間座標と実空間座標の位置合わせ(レジストレーション)を再度実施する。出力部305は、位置合わせ済みの医用画像に術具の位置を示すマークを重畳し
また、変形情報蓄積部703は、ステップS806で取得した画像変形情報を蓄積する。
また、変形情報蓄積部703は、ステップS806で取得した画像変形情報を蓄積する。
(ステップS811)
変位ベクトル予測部1702は、手術後にMRI等の医用画像撮像装置で撮像した画像と、ステップS810で蓄積した医用画像51とを一致させる変位場行列を求め、この変位場行列を出力データ(教師データ)として学習モデル905の再学習を行う。入力データは、医用画像51と、ステップS804で求めた切除領域と、ステップS506で求めた沈み込み量(ブレインシフト)83とする。
変位ベクトル予測部1702は、手術後にMRI等の医用画像撮像装置で撮像した画像と、ステップS810で蓄積した医用画像51とを一致させる変位場行列を求め、この変位場行列を出力データ(教師データ)として学習モデル905の再学習を行う。入力データは、医用画像51と、ステップS804で求めた切除領域と、ステップS506で求めた沈み込み量(ブレインシフト)83とする。
[4-3.効果]
第4実施形態によると、以下の効果を得ることができる。
第4実施形態によると、以下の効果を得ることができる。
変位ベクトル予測時に、視野映像(顕微鏡映像)と比較することでより正確な予測を行うことができ、精度の高い手術に寄与することができる。
1:手術ナビゲーションシステム
2:記憶部
3:主メモリ
4:情報取得・処理部
5:表示メモリ
6:表示部
7:コントローラ
8:マウス
9:キーボード
10:システムバス
11:医用画像取得装置
12:術具位置検出装置
13:術野映像取得装置
14:術野映像位置情報取得部(マーカー)
15:患者
16:患者位置情報取得部(マーカー)
17:ベッド
18:マーカー
19:術具
20:手術ナビゲーション装置
301:術野映像取得部
302:照合部
303:演算部
304:出力部
305:画像変形部
601:対物レンズ
602、901:組織(変形前)
603、902:病変(変形前)
604、903:組織(変形後)
605、904:病変(変形後)
701:術具位置履歴保存部
702:変位ベクトル予測部
703:変形情報蓄積部
1702:変位ベクトル予測部
2:記憶部
3:主メモリ
4:情報取得・処理部
5:表示メモリ
6:表示部
7:コントローラ
8:マウス
9:キーボード
10:システムバス
11:医用画像取得装置
12:術具位置検出装置
13:術野映像取得装置
14:術野映像位置情報取得部(マーカー)
15:患者
16:患者位置情報取得部(マーカー)
17:ベッド
18:マーカー
19:術具
20:手術ナビゲーション装置
301:術野映像取得部
302:照合部
303:演算部
304:出力部
305:画像変形部
601:対物レンズ
602、901:組織(変形前)
603、902:病変(変形前)
604、903:組織(変形後)
605、904:病変(変形後)
701:術具位置履歴保存部
702:変位ベクトル予測部
703:変形情報蓄積部
1702:変位ベクトル予測部
Claims (11)
- 術前に患者の脳について撮像した術前画像を受け取って、前記術前画像に含まれる脳溝パターンを抽出する術前脳溝抽出部と、
術中の患者の脳の術野画像を撮影する術野画像撮影装置から前記術野画像を受けとって、前記術野画像に含まれる脳溝パターンを抽出する術野脳溝抽出部と、
前記術前画像内の脳溝パターンのうち、前記術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索する探索部と、
探索した前記範囲の脳溝パターンを、前記術野画像の脳溝パターンに一致させる変換ベクトルを算出する変換ベクトル算出部と、
前記変換ベクトルによって前記術前画像の座標を変換し、接続されている表示装置に表示させる演算部とを有することを特徴とする手術ナビゲーションシステム。 - 請求項1に記載の手術ナビゲーションシステムであって、
前記術野画像または前記術前画像の前記脳溝パターンは、画像の示す脳表の深度を表す深度情報が、予め定めた値よりも大きい点の集合であることを特徴とする手術ナビゲーションシステム。 - 請求項2に記載の手術ナビゲーションシステムであって、
前記術前脳溝抽出部は、前記術前画像の深度情報の平均値を求め、前記深度情報と前記平均値の差が予め定めた値より大きい位置を、脳溝がある点として抽出することを特徴とする手術ナビゲーションシステム。 - 請求項2に記載の手術ナビゲーションシステムであって、前記術野画像撮影装置は、左右2つのカメラを含み、前記術野脳溝抽出部は、前記左右のカメラ間の距離と、焦点距離と、前記左右のカメラでそれぞれ撮影した画像の視差とを用いて、前記脳までの距離を算出することにより、前記術野画像の3次元位置情報を取得し、前記3次元位置情報の深度情報の平均値を求め、前記深度情報と前記平均値の差が予め定めた値より大きい位置は、脳溝がある点として抽出することを特徴とする手術ナビゲーションシステム。
- 術前に患者の脳について撮像した術前画像を受け取って、前記術前画像に含まれる脳溝パターンを抽出する術前脳溝抽出部と、
術前および術中の患者の脳の術野画像を撮影する術野画像撮影装置から前記術野画像を受けとって、前記術野画像に含まれる脳溝パターンを抽出する術野脳溝抽出部と、
前記術前画像内の脳溝パターンのうち、前記術野画像の脳溝パターンに最も一致度の高い範囲を探索する探索部と、
前記術前画像内の脳溝パターンのうち、前記術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索する探索部と、
前記術前画像の前記範囲について、術前の前記術野画像の所定の位置からの第1の深度を求め、術中の前記術野画像の前記所定の位置からの第2の深度を求め、前記第1の深度と第2の深度との差であるブレインシフトを求めるブレインシフト算出部と、
前記ブレインシフトを用いて、前記術前画像を深度方向に変形させて前記術野画像に一致させる変位ベクトルを算出する変位ベクトル算出部と、
前記術前画像を前記変位ベクトルによって変形させる画像変形部と、
前記画像変形部によって変形後の前記術前画像を、接続されている表示装置に表示させる演算部とを有することを特徴とする手術ナビゲーションシステム。 - 術前に患者の脳について撮像した術前画像を受け取る術前画像取得部と、
術具の位置データを時系列に受け取る術具位置取得部と、
前記術具の時系列な位置データから、前記術具によって除去された生体組織の範囲を切除領域として算出する切除領域算出部と、
前記脳について前記切除領域を切除した場合に前記術前画像に生じる変形を表す変位ベクトルを、前記切除領域と前記術前画像に基づいて演算により予測する変位ベクトル予測部と、
求めた変位ベクトルにより前記術前画像を変形させる画像変形部と、
前記画像変形部によって変形後の前記術前画像を、接続されている表示装置に表示させる演算部とを有することを特徴とする手術ナビゲーションシステム。 - 請求項6に記載の手術ナビゲーションシステムであって、
術中の患者の脳の術野画像を撮影する術野画像撮影装置から前記術野画像を受けとって、前記術野画像の脳表面までの深度情報を求め、前記術野画像の脳表面までの深度情報と、前記術前画像の脳表の位置座標とに基づいて、前記術野画像の術前からの脳表の沈み込み量を算出するブレインシフト算出部をさらに有し、
前記変位ベクトル予測部は、前記切除領域と前記術前画像に加えて、前記沈み込み量に基づいて、演算により前記変位ベクトルを予測することを特徴とする手術ナビゲーションシステム。 - 請求項6に記載の手術ナビゲーションシステムであって、前記画像変形部は、切除領域と術前画像を入力データ、および、変位ベクトルを教師データとして学習済みの学習モデルを含むことを特徴とする手術ナビゲーションシステム。
- 請求項7に記載の手術ナビゲーションシステムであって、前記画像変形部は、切除領域と術前画像と脳表の沈み込み量を入力データ、および、変位ベクトルを教師データとして学習済みの学習モデルを含むことを特徴とする手術ナビゲーションシステム。
- 術前に患者の脳について撮像した術前画像を受け取って、前記術前画像に含まれる脳溝パターンを抽出する術前脳溝抽出部と、
術中の患者の脳の術野画像を撮影する術野画像撮影装置から前記術野画像を受けとって、前記術野画像に含まれる脳溝パターンを抽出する術野脳溝抽出部と、
前記術前画像内の脳溝パターンのうち、前記術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索する探索部と、
探索した前記範囲の脳溝パターンを、前記術野画像の脳溝パターンに一致させる変換ベクトルを算出する変換ベクトル算出部と、
前記変換ベクトルによって前記術前画像の座標を変換し、接続されている表示装置に表示させる演算部とを有することを特徴とする情報処理装置。 - 術前に患者の脳について撮像した術前画像を受け取って、前記術前画像に含まれる脳溝パターンを抽出し、
術中の患者の脳の術野画像を撮影する術野画像撮影装置から前記術野画像を受けとって、前記術野画像に含まれる脳溝パターンを抽出し、
前記術前画像内の脳溝パターンのうち、前記術野画像の脳溝パターンに一致する脳溝パターンの範囲を探索し、
探索した前記範囲の脳溝パターンを、前記術野画像の脳溝パターンに一致させる変換ベクトルを算出し、
前記変位ベクトルによって前記術前画像の座標を変換し、接続されている表示装置に表示させることを特徴とする情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020036A JP2022122663A (ja) | 2021-02-10 | 2021-02-10 | 手術ナビゲーションシステム、情報処理装置、および、情報処理方法 |
US17/578,543 US20220249174A1 (en) | 2021-02-10 | 2022-01-19 | Surgical navigation system, information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020036A JP2022122663A (ja) | 2021-02-10 | 2021-02-10 | 手術ナビゲーションシステム、情報処理装置、および、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022122663A true JP2022122663A (ja) | 2022-08-23 |
Family
ID=82704314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020036A Pending JP2022122663A (ja) | 2021-02-10 | 2021-02-10 | 手術ナビゲーションシステム、情報処理装置、および、情報処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220249174A1 (ja) |
JP (1) | JP2022122663A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022047374A (ja) * | 2020-09-11 | 2022-03-24 | 富士フイルムヘルスケア株式会社 | 手術ナビゲーションシステム、手術ナビゲーション機能を備えた医用撮像システム、および、手術ナビゲーション用の医用画像の位置合わせ方法 |
-
2021
- 2021-02-10 JP JP2021020036A patent/JP2022122663A/ja active Pending
-
2022
- 2022-01-19 US US17/578,543 patent/US20220249174A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220249174A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10593052B2 (en) | Methods and systems for updating an existing landmark registration | |
EP3273854B1 (en) | Systems for computer-aided surgery using intra-operative video acquired by a free moving camera | |
US7949386B2 (en) | Computer-aided osteoplasty surgery system | |
US11335075B2 (en) | Systems and methods for 3D registration of curves and surfaces using local differential information | |
US20230355312A1 (en) | Method and system for computer guided surgery | |
KR20160086629A (ko) | 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치 | |
US11191595B2 (en) | Method for recovering patient registration | |
JP2016512973A (ja) | 身体に対して対象を追跡するための追跡装置 | |
AU2021354680A1 (en) | Readable storage medium, bone modeling registration system and orthopedic surgical system | |
US8165366B2 (en) | Determining correspondence object pairs for medical navigation | |
US10588702B2 (en) | System and methods for updating patient registration during surface trace acquisition | |
EP2883206A1 (en) | Localization of fibrous neural structures | |
JP2023523562A (ja) | ビデオにおけるコンピュータ支援形状測定のためのシステムおよび方法 | |
KR100346363B1 (ko) | 자동 의료 영상 분할을 통한 3차원 영상 데이터 구축방법/장치, 및 그를 이용한 영상유도 수술 장치 | |
US20220249174A1 (en) | Surgical navigation system, information processing device and information processing method | |
Esfandiari et al. | A deep learning-based approach for localization of pedicle regions in preoperative CT scans | |
JP7495216B2 (ja) | 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム | |
EP3644845B1 (en) | Position detection system by fiber bragg grating based optical sensors in surgical fields | |
CN116917942A (zh) | 使用所分割的输入进行计算机断层扫描到透视的配准 | |
WO2022180624A1 (en) | Computer tomography to fluoroscopy registration using segmented inputs | |
CN115475005A (zh) | 根据手术中和手术前获取的图像数据生成手术信息的技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20211014 |