JP6363800B2 - 脊椎フィーチャーの識別 - Google Patents

脊椎フィーチャーの識別 Download PDF

Info

Publication number
JP6363800B2
JP6363800B2 JP2017536970A JP2017536970A JP6363800B2 JP 6363800 B2 JP6363800 B2 JP 6363800B2 JP 2017536970 A JP2017536970 A JP 2017536970A JP 2017536970 A JP2017536970 A JP 2017536970A JP 6363800 B2 JP6363800 B2 JP 6363800B2
Authority
JP
Japan
Prior art keywords
information
spine
vertebra
characteristic
viewing direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017536970A
Other languages
English (en)
Other versions
JP2018508248A (ja
Inventor
クリンダー,トビーアス
セバスティアン ハンシス,エベルハルト
セバスティアン ハンシス,エベルハルト
グラス,ミヒャエル
シェファー,ディルク
ハイケ ホーマン,ハンノ
ハイケ ホーマン,ハンノ
ハーゼ,クリスティアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018508248A publication Critical patent/JP2018508248A/ja
Application granted granted Critical
Publication of JP6363800B2 publication Critical patent/JP6363800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4566Evaluating the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Rheumatology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、3D特徴的脊椎フィーチャーの識別、医療撮像システム、3D体積データを使った3D特徴的脊椎フィーチャーの識別のための方法、コンピュータ・プログラム要素およびコンピュータ可読媒体に関する。
低侵襲脊髄介入を実行するとき、一般的な撮像モダリティは術中フルオロスコピーである。フルオロスコピー・イメージャーの視野は非常に小さい。よって、そのようなイメージャーが同時に表示できるのは、長い脊柱の若干数の椎骨のみであり、連続する椎骨どうしは形が似通っているので連続する椎骨を識別することは難しい。脊柱全体を表示することは現実的ではない。さらに、2Dフルオロスコピーは2D投影を示すのみであり、そのような投影から3Dの相違を評価することは難しい。よって、低侵襲脊髄介入を実行する医療専門家が、正しい脊椎レベルが処置されていることを確実にする必要があるので、医療専門家に負担がかかる。
特許文献1は脊椎の一部を識別するシステムを記述している。特許文献2は、複数の椎骨を識別してそれぞれの椎骨に3D脊椎モデル・データおよび3D椎骨形状差の解析に基づいてラベル付けするよう構成されたシステムを記載している。
EP2756804 US8509502
3D特徴的脊椎フィーチャーの識別を提供するための改善された技法をもつことが有利であろう。
この目的に向け、本発明の第一の側面は、入力ユニット、処理ユニットおよび出力ユニットを有する、3D特徴的脊椎フィーチャーの識別のためのデバイスを提供する。
入力ユニットは、脊柱の一部を表わす処理された3D体積情報を提供するよう構成される。処理された3D体積情報は、脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される。
処理ユニットは、処理された3D体積情報から導出される3D脊椎モデル・データを生成し、3D脊椎モデル・データにおいて第一の椎骨情報および第二の椎骨情報を選択し、脊椎モデル・データにおける第一の椎骨情報と第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算するよう構成される。
出力ユニットは、3D特徴的脊椎フィーチャー情報を出力するよう構成される。以下の明細書では、用語「出力」は、問題となっている情報が、たとえばその後の処理のために内部的に当該システムに、あるいはたとえばディスプレイを介して外部的にユーザーに、利用可能にされることを意味する。
本発明の第二の側面によれば、処理された3D体積情報を使った3D特徴的脊椎フィーチャーの識別のための方法が提供される。本方法は以下の段階を含む:
a)脊柱の一部を表わす処理された3D体積情報を提供する段階であって、前記3D体積データは前記脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される、段階;
b)処理された3D体積情報から導出される3D脊椎モデル・データを生成する段階;
c)3D脊椎モデル・データにおける第一の椎骨情報および第二の椎骨情報を選択する段階;
d)脊椎モデル・データにおける第一の椎骨情報と第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算する段階;および
e)3D特徴的脊椎フィーチャー情報を出力する段階。
本発明の第三の側面によれば、医療イメージング取得装置(medical imaging acquisition arrangement)および画像処理装置を有する医療撮像システム(medical imaging system)が提供される。
前記画像処理装置は先述したデバイスとして提供される。
本発明の第四の側面によれば、処理ユニットによって実行されるときに先述した方法段階を実行するよう適応されている、先述したようにターゲットから取得された医療画像を表示するためのデバイスを制御するためのコンピュータ・プログラム要素が提供される。
本発明の第五の側面によれば、先述したコンピュータ・プログラムが記憶されているコンピュータ可読媒体が提供される。
少なくとも第一の椎骨の3D特徴的脊椎フィーチャー情報の計算は、CTデータのような介入前データが、椎骨の、患者固有の特徴的なフィーチャーの自動決定のために使用されることを可能にする。これにより、脊柱の一部のみが可視であるときに自動的な脊椎レベル決定が容易にされる。そのような患者固有の特徴的なフィーチャーの自動決定は、たとえフルオロスコピー画像において脊柱全体が見えないときであっても、個別的な脊椎レベルの識別を許容する。
介入前データからの三次元の患者固有の特徴的なフィーチャーの自動決定は、さらに、X線フルオロスコピー動作の間のある種の脊椎レベルの識別のための改善された視角の識別を許す。したがって、改善された視方向も提供されることができる。改善された視方向をX線フルオロスコピー設備のような2D医療撮像設備の所与の投影ビューとして使うことにより、医療専門家のような閲覧者ができるだけ多くの特徴的脊椎フィーチャーを知覚できるようになる。そのような医療撮像設備が最適な視方向に位置決めされているという事実は、より信頼できる脊椎フィーチャー識別を許容する。より多くの患者固有の脊椎フィーチャーが2Dビューにおいて医療専門家に可視となるからである。
以下の明細書では、用語「処理された3D体積情報」は、たとえばボクセルの形で撮像された体積の内部構成を定義する3D画像データを意味する。処理された3D体積データは、たとえばCTスキャナ、MRIスキャナまたはCアーム撮像システムに由来することができる。複数の取得方向に沿って取得された、患者を通じて得られた複数の画像から、処理された3D体積情報を提供する再構成アルゴリズムは当業者には既知である。
以下の明細書では、用語「3D脊椎モデル(spinal model)・データ」は、前記処理された3D体積データにおいて脊柱または脊柱の一部の輪郭または体積情報を提供するよう、前記処理された3D体積データから後処理されたデータを意味する。
以下の明細書では、用語「椎骨(vertebra)情報」は、処理された3D体積情報に含まれる、脊椎の特定の椎骨を定義する3D脊椎モデル・データを意味する。そのような椎骨情報は、画像認識アルゴリズムによって3D脊椎モデル・データから自動的に選択されてもよい。あるいはまた、椎骨情報は、ワークステーションおよびグラフィカル・ユーザー・インターフェースを使ってユーザーによって手動でハイライトされてもよい。
以下の明細書では、用語「3D椎骨形状差(vertebral shape difference)」は、3D脊椎モデル・データのある要素が、当該患者の近隣の別の椎骨とは、3D脊椎モデル・データの残りの部分のコンテキストにおいて、明白に異なるボクセル構成をもつことを意味する。典型的には、二つの椎骨を比較するとき、一方の椎骨が、脊椎症形成体(spondylophyte)、骨折、手術用ねじまたはインプラントによって引き起こされる余計な突起をもつときに、形状差が見られる。
換言すれば、低侵襲脊髄介入の間、フルオロスコピー視野において少なくとも一つの椎骨を信頼性をもって識別することが重要である。これは必ずしも処置される椎骨である必要はない。一つの脊椎レベル(vertebral level)がフルオロスコピー設備の視野内で識別されれば、上また下に数えていくことによって他の脊椎レベルが暗黙的に識別できるからである。CTまたはMRIスキャナからの介入前データは、少なくとも一つの椎骨の患者固有のフィーチャーを識別するために使われる。これらのフィーチャーは、その椎骨の特徴的なフィーチャーとして受け容れられる。これらの特徴的なフィーチャーは一意的な脊椎セグメントの識別を許容する。脊椎症形成体、骨折、欠けている骨片または手術用ねじおよびインプラントといった患者固有の脊椎フィーチャー(vertebral feature)は三次元であり、よって三次元の形状差を使って最もよく特徴付けられる。最適な視方向は、特徴的なフィーチャーをもつとして識別される少なくとも一つの椎骨またはそれぞれ識別された特徴的なフィーチャーをもつより多くの椎骨について計算されることができる。該計算はオフラインで介入前または介入中に実行できる。介入中は、他にもある視方向のうちで選択されうる計算された最適な視方向は、目標の脊椎レベル情報に依存しうる。
本発明のこれらおよび他の側面は以下に記述される実施形態を参照することから明白となり、明快にされるであろう。
本発明の例示的実施形態は以下の図面を参照して記述される。
本発明のある側面に基づく方法の例を示す図である。 脊柱のセグメントを示す図である。 例示的な脊椎の3Dの特徴的なフィーチャーの識別プロセスを示す図である。 最適な視方向の例示的な識別を示す図である。 最適な視方向の識別の例示的な実施結果を示す図である。 本発明のある側面に基づく、3D特徴的脊椎フィーチャーの識別のためのデバイスを示す図である。 本発明のある側面に基づく、医療撮像システムの例を示す図である。
低侵襲脊髄介入を実行するとき、脊柱の正しい脊椎レベルを識別することが難しいことがある。通例、撮像モダリティは術中フルオロスコピーであり、このモダリティは制約された視野をもつ。近隣の(連続している)椎骨を識別するのは難しい。そのような連続している椎骨は互いに形が非常に似通っているからである。脊柱全体を表示することは現実的ではない。さらに、2Dフルオロスコピーは2D投影を示すのみであり、そのような投影から3Dの相違を評価することは難しい。よって、同時に見えるのは脊柱の若干数の椎骨のみである。特定の脊椎レベルの識別は、脊髄介入を実行する医療専門家が脊椎レベルの数を数え間違う場合には、ミスリーディングであることがある。そのような数え間違いは、フルオロスコピー・イメージャーの視野の視野境界にどの脊椎レベルが見えているかについての混乱から生じることがある。脊椎レベルは、当技術分野で知られるように、T1、T2、T3などのように逐次的にラベル付けされる。
図2は、そのような状況を示している。七つの椎骨を含む脊柱12が示されている。これらの椎骨はT1からT7のラベルが付されている。フルオロスコピー・イメージャーの有効視野10は点線の境界によって示されている。視野内にはT2、T3、T4、T5のような椎骨の領域14がある。椎骨T1およびT2はフルオロスコピー・イメージャーの視野の上側の除外されるエリア16にはいり、椎骨T7はフルオロスコピー・イメージャーの視野18の底部から除外される。低侵襲外科的介入が椎骨T4に対して実行されていて、医療専門家がフルオロスコピー視野10の脊柱の残りの部分に対する位置決めについて事前の知識を持たなかったとしたら、医療専門家が椎骨T3か椎骨T5において介入を実行してしまうことがたやすく起こりうるであろう。このように、たとえば、シーケンスT4-T5-T6を与えられて、シーケンスT3-T4-T5、T4-T5-T6またはT5-T6-T7のどれを見ているのかを評価することは難しいことがある。
図1は、本発明のある側面によれば、処理された3D体積情報を使った3D特徴的脊椎フィーチャーの識別のための方法20が提供されることを示している。本方法は以下の段階を含む:
a)脊柱の一部を表わす処理された3D体積情報を提供する段階であって、前記処理された3D体積データは前記脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される、段階22;
b)処理された3D体積情報から導出される3D脊椎モデル・データを生成する段階24;
c)3D脊椎モデル・データにおける第一の椎骨情報および第二の椎骨情報を選択する段階25;
d)3D脊椎モデル・データにおける第一の椎骨情報と第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算する段階26;および
e)3D特徴的脊椎フィーチャー情報を出力する段階27。
このように、脊椎レベル識別のための3Dの患者固有の特徴的なフィーチャーの自動決定が、CTスキャナまたはMRIスキャナから得られた介入前の体積データを使って、可能である。これはさらに、医療撮像における脊椎レベルの識別のための最適な視角の特定を許容する。介入前の体積データが、導出された3D特徴的脊椎フィーチャー情報の、たとえば脊椎による隠蔽をさまざまな前方投影角において計算するために使用されうるからである。
図3は、3D形状比較を使って特徴的脊椎フィーチャー情報を特徴付けるための手法を示している。
図3のAでは、脊柱のあるセクションの三つのセグメントT4、T5、T6が示されている。この情報はたとえばCTスキャナまたはMRIスキャナからの処理された3D体積情報から取得されたものである。図3のAは事実上、処理された3D体積データをセグメント分割することによって前記処理された3D体積情報から導出された3D脊椎モデル・データを示している。脊柱28のこのセクションには脊椎レベルT4、脊椎レベルT5および脊椎レベルT6が示されている。脊椎レベルT4およびT5は比較的正常な椎骨を表わす。だが脊椎レベルT6はその左側に脊椎症形成体(spondylophyte)として知られる突起30をもつ。脊椎症は椎骨および脊椎の変形性関節炎の退行変化であり、異常な骨成長によって特徴付けられる。そのような特徴は、個人の脊椎セグメントを特徴付けるときに有用でありうる。
図3のBは、近隣の椎骨との形状位置合わせを使った3Dの特徴的なフィーチャーの検出を示している。文字εは形状差の計算を実行する関数を表わす。
好ましくは、3D脊椎モデル・データにおける表面表現は最も普通には三角表面メッシュを使ってなされる。よって、第一と第二の椎骨情報の間の表面位置合わせはたとえば逐次反復的最近接点(ICP: iterative closest point)アルゴリズムを使って実行される。表面位置合わせ後、第一の椎骨情報上の各頂点について、第二の椎骨情報の表面上でのその点に最も近い点を見出すことによって、表面距離が計算される。次いで、それらの距離を閾値処理することによってフィーチャーが見出される。
本発明のある実施形態によれば、先述した方法の例が提供される。ここで、段階d)において、3D特徴的脊椎フィーチャー情報の計算はさらに:
d6)第一の椎骨情報と第二の椎骨情報の間の形状位置合わせを実行し;
d7)位置合わせされた第一の椎骨情報と第二の椎骨情報の間の3D形状差を計算し;
d8)計算された形状差を使って、第一の椎骨情報におけるある領域を、3D形状差として識別することを含む。
ある実施形態によれば、段階d6)において、形状位置合わせを実行するために逐次反復的最近接点(ICP)アルゴリズムが使われる。
ある実施形態によれば、段階d8)において、第一の椎骨情報における前記領域は、第一の椎骨情報と第二の椎骨情報との間の表面差を閾値処理することによって識別される。
本発明のある実施形態によれば、先述した方法の例が提供される。ここで、段階d8)において、第一の椎骨情報におけるある領域を識別することは、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の3D形状差であってある椎骨差閾値より大きいものを識別することを含む。
したがって、たとえば骨表面における自然な変動に起因する椎骨差の誤識別を防ぎ、医療専門家にとって有意な椎骨差のみを検出することが可能である。
代替的な実施形態では、第一の椎骨情報と第二の椎骨情報の間の3D椎骨形状差は、第一および第二の椎骨情報の事前計算された中心線への重ね合わせによって計算され、第二の脊椎レベルを表わす第二の椎骨情報から第一の脊椎レベルを表わす第一の椎骨情報の直接減算が3Dで実行されることができる。残りのボクセルが3Dの特徴的なフィーチャーとなる。
もう一つの代替的な実施形態では、第一の椎骨情報と第二の椎骨情報の形状位置合わせが実行される。たとえば、T6とT5および/またはT6とT4の間で位置合わせが実行されることができる。この形状位置合わせは、より多数の脊椎セグメントに拡張されてもよい。
図のように、上記で論じたまたは同様の技法を使って、第一の脊椎レベルT6と第二の脊椎レベルT5の間の第一の形状差が導出される。次いで、第一の脊椎レベルT6と第三の脊椎レベルT4の間の前記形状差が導出される。
本発明のある実施形態によれば、形状差の導出は、提案される2Dフルオロスコピー視野において存在している椎骨に限られる。
図3のCは、その3D特徴的脊椎フィーチャー情報32が単離された椎骨T6を示している。3D特徴的脊椎フィーチャー情報は脊柱の一部を表わす処理された3D体積情報のボクセルの部分集合なので、3D特徴的脊椎フィーチャー情報は異なる複数の方向において見られてもよい。さらに、3D特徴的脊椎フィーチャー情報をなすボクセルは、もとの処理された3D体積情報の幾何学的な参照系を基準としており、抽出された3D特徴的脊椎フィーチャー情報のみを通じた前方投影の生成、あるいは脊柱の諸部分によって隠蔽される3D特徴的脊椎フィーチャー情報の前方投影の生成を可能にする。
本発明のある実施形態によれば、先述したような方法が提供される。ここで、3D特徴的脊椎フィーチャー(vertebral feature)情報は:最初の肋骨対、最後の肋骨対、仙骨、環椎、脊椎症形成体、骨折またはインプラントの群から選択される解剖学的特徴を表わす。
したがって、頻繁に現われる脊椎変形が、3D特徴的脊椎フィーチャー情報を識別するために使用できる。
上記の実施形態は第一の椎骨のみの3D特徴的脊椎フィーチャー情報の取得を論じているが、このアルゴリズムは、少なくとも第二の椎骨および/または第三の椎骨および/または第四の椎骨および/または第五の椎骨、あるいは脊柱に存在するすべての椎骨の3D特徴的脊椎フィーチャー情報を単独でまたは組み合わせにおいて計算するよう拡張されることができることは理解されるであろう。
本発明のある実施形態によれば、患者の脊椎に沿った、2D術中フルオロスコピー・デバイスの観察位置(viewing position)が提供される。すると、その観察位置における2D術中フルオロスコピー・デバイスの観察平面(viewing plane)において最もよく見ることのできる諸椎骨について、3Dの特徴的なフィーチャー情報が計算されうる。
観察位置は、もとの処理された3D体積情報の3D参照系における点として与えられる。たとえば、観察位置は、脊椎からのある距離および脊椎からのある角度偏差における脊椎に沿った水平方向の変位として提供される。
3D特徴的脊椎フィーチャー情報の識別後、一連のボクセル領域が利用可能となる。脊柱の特徴的なフィーチャーを表わすこれらのボクセル領域は、明らかに、処理された3D体積情報を取得するために使われた幾何学的データを基準としているであろう。よって、再構成技法を使って、2D投影において3D特徴的脊椎フィーチャーの可視性を最適化する3Dの脊椎フィーチャーの最適な患者視方向が計算されることができる。
本発明のある実施形態によれば、3D特徴的脊椎フィーチャーのみを表わすボクセルを通じた前方投影が実行される。
本発明のある実施形態によれば、3D特徴的脊椎フィーチャーを表わすボクセルを通じたおよび脊柱を表わすボクセルを通じた前方投影が実行される。本発明のある実施形態によれば、先に論じた方法が提供される。ここで、段階a)はさらに:
a1)目標脊椎レベル情報を提供することを含み;
段階d)はさらに:
d1)前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定することを含み、前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定され、
段階e)はさらに:
e1)前記患者視方向を出力することを含む。
この実施形態によれば、2D投影における、(前記3D特徴的脊椎フィーチャー情報によって表わされる)特徴的脊椎フィーチャーの可視性は、術中フルオロスコピー画像介入の間に最適化されることができる。
先述した実施形態において、目標脊椎レベル情報の提供は、低侵襲脊髄介入において処置される、患者の脊柱の脊椎レベルの、医療専門家による同定を含む。たとえば、図3において、たとえばコンピュータ・インターフェースを使って、レベルT5が選択され、目標脊椎レベル情報として入力される。
3D特徴的脊椎フィーチャー可視性メトリックは、ある視方向が3D特徴的脊椎フィーチャー情報の可視性にどのように影響するかの指標を提供する。そのようなメトリックを計算するには多くの仕方がある。
本発明のある実施形態によれば、3D特徴的脊椎フィーチャー可視性メトリックは、ボクセル・クラスターのまわりの複数の方向から3D特徴的脊椎フィーチャー情報を表わすボクセルを通じて複数の前方投影を実行することによって計算される。
3D特徴的脊椎フィーチャー情報を通じた前方投影から2D投影における最大の面積が帰結する結果を与える前方投影方向が、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向である。
フルオロスコピーの投影の性質のため、ある種のフィーチャーが他のフィーチャーよりも容易に識別できる視方向があるであろう。目標脊椎レベルを与えられると、近傍にある特徴的なフィーチャーが選択されることができる。先述した方法を使って、これらのフィーチャーの最大数が識別されることができるよう、あるいは一つのフィーチャーが最適に見えるよう、視方向が決定される。形状特性に加えて、重ね合わされた周囲の解剖構造も、最適な視角決定のために考慮に入れられることができる。識別のための特徴的なフィーチャーを決定した後、諸フィーチャーがある種の視方向でのみ可視であることも考慮される必要がある。
フルオロスコピー投影において容易に見ることのできるフィーチャーを判別するために、それらのフィーチャーの特徴的なエッジが平行になる視方向の範囲がまず決定される。次いで、CTデータのような術前データからシミュレートされた投影画像が計算されることができる。投影のための標準的なアルゴリズムが該段階において使われる。次いで、そのフィーチャーのまわりの局所的な近傍の解析が行なわれる。これは、そのフィーチャーのまわりの小さな関心領域内でのグレー値の変動性(variability)を計算することによる、あるいはそのフィーチャー位置における勾配を解析してその目印がエッジ上に位置しているか否かを検出することによる。次いで、画像において明瞭に見えるフィーチャーが自動的に選択されることができる。次いで、最適なビュー平面(view plane)が、最大数の明瞭に見えるフィーチャーを含むように、選ばれる。最適なビュー平面は、介入の間に選択されてもよく、一方、視方向(viewing direction)の範囲は介入前または介入の間に計算されてもよい。
本発明のある実施形態によれば、段階d1)において、3Dの脊椎モデル・データが、3D特徴的脊椎フィーチャー情報を隠蔽するために使われる。
したがって、患者視方向を決定するときに計算される前方投影は、投影されたビュー平面において諸2Dエリアを生成する。これは第一には3D特徴的脊椎フィーチャー情報を通じて投影された射線から、第二には3D脊椎モデル・データを通じて投影された射線から帰結する。このことは、それぞれの前方投影方向についての3D特徴的脊椎フィーチャー可視性メトリック、ひいては最終的に選ばれる患者視方向が、脊椎があっても最も多くの特徴的なフィーチャーが見えるようにするものであることを保証する。
本発明のある実施形態によれば、患者視方向の出力は標準フォーマットであってもよく、たとえばCTスキャナなどから取得された処理された3D体積データのデータに関する立体角であってもよい。
本発明のある実施形態によれば、この幾何学的情報は、特徴的脊椎フィーチャーの最適な視方向を提供するよう設備を調整させるために使われる。
図4は、上記のプロセスを示している。表示ボクセルを含んでいる幾何学的な参照立方体40が、内部の脊柱のセグメントとともに示されている。脊柱は、三角形44および円46によって示される第一および第二の特徴的なフィーチャーをもつ。この純粋に例示的な呈示においては二つの特徴的脊椎フィーチャーが異なる脊椎レベルに示されているが、本アルゴリズムは、三角形44だけなど、一つの脊椎レベル上のただ一つの3D特徴的脊椎フィーチャーでも機能することは理解されるであろう。
本アルゴリズムは、3D脊椎モデル・データ42を通じてある範囲の異なる前方投影角で前方投影を生成する。前方投影角は点または位置41、43、45から示される。
例示的な第一の2D画面47は、位置41からの前方投影の効果を示している。脊柱セクションが横から見られており、特徴的なフィーチャー44および46が完全に脊椎自身によって隠蔽されていることがわかる。したがって、これは良好な候補視方向ではないであろう。
例示的な第二の2D画面48は、位置43からの特徴的なフィーチャーの前方投影を示している。三角形の特徴的なフィーチャー44が存在しているが、これが特徴的なフィーチャー46を隠蔽していることがわかる。
例示的な第三の2D画面49は、位置45からの3D特徴的脊椎フィーチャー情報のビューを示している。この画面では、両方の特徴的なフィーチャー44および46の側面を容易に見ることができ、これが患者視方向として選択される。3D特徴的脊椎フィーチャー可視性メトリックがこの位置において最適となるからである。
図5は、正しい視方向を定義することが重要である臨床的な例を示している。
図5のAでは、処理された3D情報からの投影が示されている(52)。円で囲んだエリア53は処理された3D情報における脊椎症形成体を示しており、処理された3D情報における他の椎骨はそのようなフィーチャーをもたないので、これは識別のために使用できる。
図5のBでは、図5のAの処理された3D情報においてイメージングされている脊柱のフルオロスコピー投影が示されている。
フルオロスコピー投影は、脊椎症形成体53が脊柱の残りの部分によって隠蔽される(脊柱に関する)視方向から取られたものである。したがって、脊椎症形成体は、介入を実行する医療専門家にとって可視ではない。つまり、Bのフルオロスコピー投影角から脊椎症形成体を使って脊柱の目標脊椎レベルを識別しようとする外科専門家は、正しい目標脊椎レベルを識別することが難しいであろう。
図5のCは、本アルゴリズムによって同定された、脊椎症形成体を58において明瞭に示す視方向から取られたフルオロスコピー投影56である。
したがって、目標脊椎レベルは脊椎症形成体を使ってフルオロスコピー画像から医療専門家によって容易に識別されることができる。
本発明のある実施形態によれば、先述したような方法が提供される。ここで、段階b)はさらに:
b1)処理された3D体積情報から3Dの重ね合わされた解剖構造情報を提供することを含み;
段階d)はさらに:
d2)3D脊椎モデル・データの複数の合成視方向について前記3D特徴的脊椎フィーチャー情報の隠蔽メトリックを計算する段階であって、隠蔽は前記3Dの重ね合わされた解剖構造情報における解剖学的フィーチャーによって引き起こされる、段階と;
d3)前記3D特徴的脊椎フィーチャー情報の前記隠蔽メトリックに基づいて前記3D特徴的脊椎フィーチャー可視性メトリックを導出する段階とを含む。
患者内部の、肝臓、心臓、肺および膵臓のような異なる器官は異なるX線透過性をもち、2Dフルオロスコピーの間の特徴的脊椎フィーチャーの識別に影響することがありうる。
したがって、この実施形態では、3Dの重ね合わされた解剖構造情報が、たとえばCTスキャンから得られた前記処理された3D体積情報から導出される。脊柱のまわりの内臓器官の隠蔽が、3D特徴的脊椎フィーチャー可視性メトリックを計算するときに考慮に入れられる。患者の解剖構造を考慮に入れずに最適な3D特徴的脊椎フィーチャーの可視性を提供する患者視方向は、肝臓、肺および他の器官の位置を考慮に入れるとき、それほど最適でないかもしれないということがありうる。患者の内臓器官の位置が処理された3D体積情報から簡単に導出され、前方投影再構成において使用されることができることは理解されるであろう。
本発明のある実施形態によれば、先に論じたような方法が提供され、ここで、段階i)はさらに:
e2)決定された患者視方向に基づいて患者撮像システムを整列させる(aligning)ことを含む。
患者撮像システムは、コンピュータ制御システムのような制御システムとインターフェースをもたせることができる電気機械的ドライブをもつ電気的に位置決め可能なフレーム上に提供される。処理された3D体積情報の地理的データ、患者撮像システムおよび患者の現在の整列(alignment)が考慮に入れられるとすると、決定された患者視方向を使って、患者撮像システムが患者に関して整列されることが可能である。
したがって、患者撮像システムは、脊柱の一部を表わす3D体積データに基づいて最適な撮像方向を提供するよう自動的に整列されてもよい。これは、医療撮像設備の、より便利で正確な自己整列可能なアイテムを提供する。
本発明のある実施形態によれば、患者撮像システムは電気機械的に整列可能なフルオロスコピー・システムである。
(最適なビュー平面に関係する)最適な視角はユーザーに(または撮像システムに直接)通知される。フルオロスコピー投影はその視角を使ってなされる。介入前データがユーザーに対して体積表示としてまたはスライス表示としてまたはシミュレートされた投影として表示され、同定された特徴的な目印および目標脊椎レベルが指示される。
本発明のある実施形態によれば、先に論じたような方法が提供される。段階a)はさらに:
a2)外科介入の間に脊柱の一部を表わす処理された2Dライブ介入データを提供することを含み;
段階d)はさらに:
d4)前記2Dライブ介入画像データを前記3D特徴的脊椎フィーチャー・データに位置合わせし;
d5)前記3D特徴的脊椎フィーチャー・データを前記患者視方向から前記2Dライブ介入画像に投影することによって、2Dの増強された介入画像を提供することを含み;
段階e)はさらに:
e3)前記増強された介入画像を表示することを含む。
したがって、前記ライブ2Dフルオロスコピー・データは、介入の間にフルオロスコピー設備で使われる患者視方向と同じ角度での前記3D特徴的脊椎フィーチャー・データの前方投影をもって増強される。
前記2Dライブ介入画像データは前記3D特徴的脊椎フィーチャー・データの前方投影と同じビュー平面において整列されるので、特徴的脊椎フィーチャー・データを2Dライブ介入画像データ・ビューの中にハイライトする、あるいは「ゴースト」として現われさせることが可能である。このことは、低侵襲介入の間、目標脊椎レベルが正しく識別されることを保証する。
増強されたライブ介入画像は、脊椎上の特徴的なフィーチャーの位置について向上されたフィードバックを提供する。したがって、ユーザーはライブ・フルオロスコピーの間、3Dの特徴的なフィーチャーを識別することができ、次いで、参照として、処置のための適切な目標脊椎レベルを決定する。
本発明のある実施形態によれば、3D特徴的脊椎フィーチャー識別のためのデバイス60が提供される。デバイスは、入力ユニット62、処理ユニット64および出力ユニット66を有する。
入力ユニット62は、脊柱の一部を表わす処理された3D体積情報を提供するよう構成される。処理された3D体積情報は、脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される。
処理ユニット64は、処理された3D体積情報から導出される3D脊椎モデル・データを生成し、3D脊椎モデル・データにおいて第一の椎骨情報および第二の椎骨情報を選択し、3D脊椎モデル・データにおける第一の椎骨情報と第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算するよう構成される。
出力ユニット66は、3D特徴的脊椎フィーチャー情報を出力するよう構成される。
デバイス60は、入力および出力インターフェース回路をもつコンピュータ・プロセッサ上で実行されるソフトウェア・プログラムとして実装されてもよい。あるいはまた、処理はデジタル信号プロセッサ、FPGA、ASICまたはこれらの組み合わせによって実行されてもよい。
本発明のある実施形態によれば、デバイス60の例が先に論じたように与えられる。ここで、入力ユニット62はさらに、目標脊椎レベル情報を提供するよう構成される。処理ユニット64はさらに、前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定するよう構成され、前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定される。出力ユニット66はさらに、前記患者視方向を出力するよう構成される。
本発明のある実施形態によれば、デバイス60の例が先の記述のように与えられる。ここで、処理ユニット64はさらに、処理された3D体積情報から3Dの重ね合わされた解剖構造情報を生成する段階と、3D脊椎モデル・データの複数の合成視方向について前記3D椎骨形状差の隠蔽メトリックを計算する段階であって、隠蔽は前記3Dの重ね合わされた解剖構造情報における解剖学的フィーチャーによって引き起こされる、段階と、前記3D特徴的脊椎フィーチャー情報の前記隠蔽メトリックに基づいて前記3D特徴的脊椎フィーチャー可視性メトリックを導出する段階とを実行するよう構成される。
本発明のある実施形態によれば、デバイス60の例が先の記述のように与えられる。ここで、出力ユニット66はさらに、決定された患者視方向に基づいて医療イメージング取得装置を整列させるよう構成される。
本発明のある実施形態によれば、デバイス60の例が先の記述のように与えられる。ここで、入力ユニット62はさらに、外科介入の間に脊柱の一部を表わす処理された2Dライブ介入画像データを提供するよう構成される。処理ユニット64はさらに、前記2Dライブ介入画像データを前記3D特徴的脊椎フィーチャー・データに位置合わせし、前記3D特徴的脊椎フィーチャー・データを前記患者視方向から前記2Dライブ介入画像に投影することによって、2Dの増強された介入画像を提供するよう構成される。前記出力ユニット66はさらに、前記増強された介入画像を表示するよう構成される。
本発明のある実施形態によれば、デバイス60の例が先述したように与えられる。ここで、処理ユニット64はさらに、前記処理された3D体積情報をセグメント分割して、前記処理された3D体積情報から3D脊椎モデル・データを提供するよう構成される。
本発明のある実施形態によれば、デバイス60の例が先述したように与えられる。ここで、処理ユニット64はさらに、第一の椎骨情報と第二の椎骨情報の間の形状位置合わせを実行すること、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の形状差を計算することおよび計算された形状差を使って、第一の椎骨情報におけるある領域を、3D形状差として識別することによって、前記3D特徴的脊椎フィーチャー情報を計算するよう構成される。
本発明のある実施形態によれば、デバイス60の例が先の記述のように与えられる。ここで、処理ユニット64は、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の3D椎骨形状差であってある椎骨差閾値より大きいものを識別するよう構成される。
本発明のある側面によれば、医療撮像システム70が提供される。医療撮像システム70は、医療イメージング取得装置72および画像処理装置74を有する。
画像処理装置72は先述したようなデバイスとして提供される。
この側面のある実施形態によれば、医療撮像システム70が先述したように提供される。ここで、医療イメージング取得装置72はさらに、イメージャー整列機構76を有する。画像処理装置74は先の記述に従ったデバイスとして提供され、イメージャー整列機構76は、画像処理装置74から出力される患者視方向に基づいて整列されるよう構成される。イメージャー整列機構は、フルオロスコピー・イメージャー72の方位角80および仰角78を制御する電気機械ドライブを有する。
本発明のこの側面によれば、術前CTスキャンから取得された入力3D体積データ上の特徴的なフィーチャーに基づいて、たとえば2Dフルオロスコピー・イメージャーを含んでいてもよい医療撮像システムを自動的に整列させることが可能である。
本発明のある実施形態によれば、医療専門家が3D体積データにおけるある種の特徴的なフィーチャーを選択してもよく、医療イメージング取得装置は、選択されたフィーチャーについての最適な視方向のみに基づいて整列されてもよい。
したがって、低侵襲な脊髄介入を実行するとき、目標脊椎レベルの誤認識が起こらないことを保証するよう医療イメージング取得装置を最適な角度で、便利な仕方で配置することが可能である。
本発明のある実施形態によれば、画像処理装置74はさらに、コンピュータ上で実行される術前処理アプリケーションを有する。ユーザーが術前処理アプリケーションのインターフェースを使って、フルオロスコピー設備の視野に対応する、アプリケーションのユーザー・インターフェースにおける「視野」フレームを、脊柱の表示されている関連するセクションの上に位置決めしてもよい。3Dの特徴的なフィーチャーを事前計算するためである。
本発明のある実施形態によれば、画像処理装置74はさらに、画像処理装置74に接続された整列モニタリング手段を有する。整列モニタリング手段は、医療イメージング取得装置72の整列における変化をモニタリングするよう構成される。患者に対する医療イメージング取得装置72の整列の変化が検出されるときは、画像処理装置74は3D特徴的脊椎フィーチャー情報を再計算する。
したがって、医療イメージング取得装置72が患者に沿って水平にまたは患者のまわりを移動されるとき、画像処理装置74は、変更後の視野において可視となる期待される3Dの脊椎の特徴的なフィーチャーを示す、更新された向上された2Dフルオロスコピー・ビューを表示することができる。
本発明のある側面によれば、先の記述のように、ターゲットから取得された医療画像を表示するためのデバイスを制御するためのコンピュータ・プログラム要素が提供される。このコンピュータ・プログラム要素は、処理ユニットによって実行されるときに上記で論じた方法段階を実行するよう適応されている。
本発明のある側面によれば、上記のプログラムが記憶されているコンピュータ可読媒体が提供される。
したがって、コンピュータ・プログラム要素は、やはり本発明の実施形態の一部でありうるコンピュータ・ユニットに記憶されていてもよい。このコンピューティング・ユニットは、上記の方法の段階を実行するまたは該実行を誘起する。
さらに、それは、上記の装置のコンポーネントを動作させるよう適応されてもよい。コンピューティング・ユニットは、自動的に動作するよう、および/またはユーザーの命令を実行するよう適応されることができる。コンピュータ・プログラムはデータ・プロセッサの作業メモリにロードされてもよい。このように、データ・プロセッサは、本発明の方法を実行するための備えがされてもよい。
本発明のこの例示的実施形態は、最初から本発明が組み込まれているコンピュータ・プログラムおよび更新により既存のプログラムを本発明を使うプログラムに変えるコンピュータ・プログラムの両方をカバーする。
コンピュータ・プログラムは、他のハードウェアと一緒にまたは他のハードウェアの一部として供給される光記憶媒体または半導体媒体のような好適な媒体上で記憶および/または頒布されてもよいが、インターネットまたは他の有線もしくは無線の遠隔通信システムを介してなど、他の形で頒布されてもよい。
しかしながら、コンピュータ・プログラムはワールド・ワイド・ウェブのようなネットワーク上で呈示されてもよく、そのようなネットワークからデータ・プロセッサの作業メモリにダウンロードされることができる。本発明のさらなる例示的実施形態によれば、本発明の先述した実施形態の一つに基づく方法を実行するよう構成されているコンピュータ・プログラム要素をダウンロードのために利用可能にするための媒体が提供される。
本発明の実施形態は種々の主題を参照して記述されていることを注意しておくべきである。特に、いくつかの実施形態は方法型の請求項を参照して記述され、他の実施形態は装置型の請求項を参照して記述される。しかしながら、当業者は、上記および下記の記述から、特に断わりのない限り、ある型の主題に属する特徴の任意の組み合わせに加えて、異なる主題に関する特徴の間の他の任意の組み合わせも本願で開示されていると考えられることを理解するであろう。
特徴の単なる寄せ集め以上の相乗効果を提供するすべての特徴が組み合わされることができる。
本発明は図面および以上の記述において詳細に図示され、記述されているが、そのような図示および記述は制約ではなく例解または例示するものと考えられるべきである。本発明は開示されている実施形態に限定されるものではない。
開示されている実施形態に対する他の変形が、図面、本開示および付属の請求項の吟味から、特許請求される発明を実施する際に当業者によって理解され、実施されることができる。
請求項において、「有する/含む」の語は他の要素やステップを排除するものではない。単数表現は複数を排除するものではない。単一のプロセッサまたは他のユニットが請求項において記述されているいくつかの項目の機能を充足してもよい。ある種の施策が互いに異なる従属請求項において記載されているというだけの事実が、これらの施策の組み合わせが有利に使用できないことを示すものではない。請求項に参照符号があったとしても、範囲を限定するものと解釈するべきではない。
いくつかの態様を記載しておく。
〔態様1〕
・入力ユニット;
・処理ユニット;および
・出力ユニットを有する、
3D特徴的脊椎フィーチャーの識別のためのデバイスであって、
前記入力ユニットは、脊柱の一部を表わす処理された3D体積情報を提供するよう構成されており、前記処理された3D体積情報は、脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得され、
前記処理ユニットは、前記処理された3D体積情報から導出される3D脊椎モデル・データを生成し、前記3D脊椎モデル・データにおいて第一の椎骨情報および第二の椎骨情報を選択し、前記3D脊椎モデル・データにおける前記第一の椎骨情報と前記第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算するよう構成されており、
前記入力ユニットはさらに、目標脊椎レベル情報を提供するよう構成されており、
前記処理ユニットはさらに、前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定するよう構成され、
前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定され、
前記出力ユニットはさらに、前記患者視方向を出力するよう構成されている、
デバイス。
〔態様2〕
前記処理ユニットはさらに、前記処理された3D体積情報から3Dの重ね合わされた解剖構造情報を生成する段階と、前記3D脊椎モデル・データの複数の合成視方向について前記3D椎骨形状差の隠蔽メトリックを計算する段階であって、隠蔽は前記3Dの重ね合わされた解剖構造情報における解剖学的フィーチャーによって引き起こされる、段階と、前記3D特徴的脊椎フィーチャー情報の前記隠蔽メトリックに基づいて前記3D特徴的脊椎フィーチャー可視性メトリックを導出する段階とを実行するよう構成されている、
態様1記載のデバイス。
〔態様3〕
前記出力ユニットはさらに、決定された患者視方向に基づいて医療イメージング取得装置を整列させるよう構成されている、態様1または2記載のデバイス。
〔態様4〕
前記入力ユニットはさらに、外科介入の間に脊柱の一部を表わす処理された2Dライブ介入画像データを提供するよう構成されており、
前記処理ユニットはさらに、前記2Dライブ介入画像データを前記3D特徴的脊椎フィーチャー・データに位置合わせし、前記3D特徴的脊椎フィーチャー・データを前記患者視方向から前記2Dライブ介入画像に投影することによって、2Dの増強された介入画像を提供するよう構成されており、
前記出力ユニットはさらに、前記増強された介入画像を表示するよう構成されている、
態様1ないし3のうちいずれか一項記載のデバイス。
〔態様5〕
前記処理ユニットはさらに、前記3D体積情報をセグメント分割して、前記3D体積情報から3D脊椎モデル・データを提供するよう構成されている、
態様1ないし4のうちいずれか一項記載のデバイス。
〔態様6〕
前記処理ユニットはさらに、前記第一の椎骨情報と第二の椎骨情報の間の形状位置合わせを実行すること、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の形状差を計算することおよび計算された形状差を使って、前記第一の椎骨情報におけるある領域を、前記3D椎骨形状差として識別することによって、前記3D特徴的脊椎フィーチャー情報を計算するよう構成されている、
態様1ないし5のうちいずれか一項記載のデバイス。
〔態様7〕
前記処理ユニットは、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の前記3D椎骨形状差であって椎骨差閾値より大きいものを識別するよう構成されている、
態様6記載のデバイス。
〔態様8〕
・医療イメージング取得装置;および
・画像処理装置を有する、
医療撮像システムであって、
前記画像処理装置は態様1ないし7のうちいずれか一項記載のデバイスとして提供される、
医療撮像システム。
〔態様9〕
当該医療イメージング取得装置はさらに、イメージャー整列機構を有しており、
前記画像処理装置は態様1または2記載のデバイスとして提供され、
前記イメージャー整列機構は、前記画像処理装置から出力される患者視方向に基づいて整列されるよう構成されている、
態様8記載の医療撮像システム。
〔態様10〕
処理された3D体積情報を使った3D特徴的脊椎フィーチャーの識別のための方法であって、当該方法は:
a)脊柱の一部を表わす処理された3D体積情報を提供する段階であって、前記処理された3D体積情報は前記脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される、段階;
b)前記処理された3D体積情報から導出される3D脊椎モデル・データを生成する段階;
c)前記3D脊椎モデル・データにおける第一の椎骨情報および第二の椎骨情報を選択する段階;
d)前記3D脊椎モデル・データにおける前記第一の椎骨情報と前記第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算する段階を含み;
段階a)はさらに:
a1)目標脊椎レベル情報を提供することを含み;
段階d)はさらに:
d1)前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定することを含み、前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定され、
当該方法はさらに、
e)前記患者視方向を出力する段階を含む、
方法。
〔態様11〕
段階e)がさらに:
e2)決定された患者視方向に基づいて患者撮像システムを整列させることを含む、
態様10記載の方法。
〔態様12〕
処理ユニットによって実行されるときに態様10または11記載の方法段階を実行するよう適応されている、態様1ないし7のうちいずれか一項記載の3D特徴的脊椎フィーチャーの識別のためのデバイスを制御するためのコンピュータ・プログラム。
〔態様13〕
態様12記載のプログラムが記憶されているコンピュータ可読媒体。

Claims (13)

  1. ・入力ユニット;
    ・処理ユニット;および
    ・出力ユニットを有する、
    3D特徴的脊椎フィーチャーの識別のためのデバイスであって、
    前記入力ユニットは、脊柱の一部を表わす処理された3D体積情報を提供するよう構成されており、前記処理された3D体積情報は、脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得され、
    前記処理ユニットは、前記処理された3D体積情報から導出される3D脊椎モデル・データを生成し、前記3D脊椎モデル・データにおいて第一の椎骨情報および第二の椎骨情報を選択し、前記3D脊椎モデル・データにおける前記第一の椎骨情報と前記第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算するよう構成されており、
    前記入力ユニットはさらに、目標脊椎レベル情報を提供するよう構成されており、
    前記処理ユニットはさらに、前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定するよう構成され、
    前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定され、前記3D特徴的脊椎フィーチャー可視性メトリックは、特定の視方向から前記3D脊椎モデル・データを投影したビューにおける前記3D特徴的脊椎フィーチャーの可視性を表わし、
    前記出力ユニットはさらに、前記患者視方向を出力するよう構成されている、
    デバイス。
  2. 前記処理ユニットはさらに、前記処理された3D体積情報から3Dの重ね合わされた解剖構造情報を生成前記投影したビューを生成する際に該解剖構造情報をも使用することで、前記患者視方向の決定を、前記3Dの重ね合わされた解剖構造情報における解剖学的フィーチャーによって引き起こされる、前記3D特徴的脊椎フィーチャー情報の隠を考慮に入れて実行するよう構成されている、
    請求項1記載のデバイス。
  3. 前記出力ユニットはさらに、決定された患者視方向に基づいて医療イメージング取得装置を整列させるよう構成されている、請求項1または2記載のデバイス。
  4. 前記入力ユニットはさらに、外科介入の間に脊柱の一部を表わす処理された2Dライブ介入画像データを提供するよう構成されており、
    前記処理ユニットはさらに、前記2Dライブ介入画像データを前記3D特徴的脊椎フィーチャー・データに位置合わせし、前記3D特徴的脊椎フィーチャー・データを前記患者視方向から前記2Dライブ介入画像に投影することによって、2Dの増強された介入画像を提供するよう構成されており、
    前記出力ユニットはさらに、前記増強された介入画像を表示するよう構成されている、
    請求項1ないし3のうちいずれか一項記載のデバイス。
  5. 前記処理ユニットはさらに、前記3D体積情報をセグメント分割して、前記3D体積情報から3D脊椎モデル・データを提供するよう構成されている、
    請求項1ないし4のうちいずれか一項記載のデバイス。
  6. 前記処理ユニットはさらに、前記第一の椎骨情報と第二の椎骨情報の間の形状位置合わせを実行すること、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の形状差を計算することおよび計算された形状差を使って、前記第一の椎骨情報におけるある領域を、前記3D椎骨形状差として識別することによって、前記3D特徴的脊椎フィーチャー情報を計算するよう構成されている、
    請求項1ないし5のうちいずれか一項記載のデバイス。
  7. 前記処理ユニットは、位置合わせされた第一の椎骨情報と第二の椎骨情報の間の前記3D椎骨形状差であって椎骨差閾値より大きいものを識別するよう構成されている、
    請求項6記載のデバイス。
  8. ・医療イメージング取得装置;および
    ・画像処理装置を有する、
    医療撮像システムであって、
    前記画像処理装置は請求項1ないし7のうちいずれか一項記載のデバイスとして提供される、
    医療撮像システム。
  9. 当該医療イメージング取得装置はさらに、イメージャー整列機構を有しており、
    前記画像処理装置は請求項1または2記載のデバイスとして提供され、
    前記イメージャー整列機構は、前記画像処理装置から出力される患者視方向に基づいて整列されるよう構成されている、
    請求項8記載の医療撮像システム。
  10. 処理された3D体積情報を使った3D特徴的脊椎フィーチャーの識別のための、入力ユニット、処理ユニットおよび出力ユニットを有するデバイスの作動方法であって、当該方法は:
    a)前記入力ユニットが、脊柱の一部を表わす処理された3D体積情報を提供する段階であって、前記処理された3D体積情報は前記脊柱を通じて得られる複数の画像から計算され、複数の取得方向に沿って取得される、段階;
    b)前記処理ユニットが、前記処理された3D体積情報から導出される3D脊椎モデル・データを生成する段階;
    c)前記処理ユニットが、前記3D脊椎モデル・データにおける第一の椎骨情報および第二の椎骨情報を選択する段階;
    d)前記処理ユニットが、前記3D脊椎モデル・データにおける前記第一の椎骨情報と前記第二の椎骨情報との間の3D椎骨形状差を計算することによって第一の椎骨の3D特徴的脊椎フィーチャー情報を計算する段階を含み;
    段階a)はさらに:
    a1)前記入力ユニットが、目標脊椎レベル情報を提供することを含み;
    段階d)はさらに:
    d1)前記3D特徴的脊椎フィーチャー情報および前記目標脊椎レベル情報を使って患者視方向を決定することを含み、前記患者視方向は、3D特徴的脊椎フィーチャー可視性メトリックを最適化する視方向を探すことによって決定され、前記3D特徴的脊椎フィーチャー可視性メトリックは、特定の視方向から前記3D脊椎モデル・データを投影したビューにおける前記3D特徴的脊椎フィーチャーの可視性を表わし、
    当該方法はさらに、
    e)前記出力ユニットが、前記患者視方向を出力する段階を含む、
    方法。
  11. 段階e)がさらに:
    e2)前記出力ユニットが、決定された患者視方向に基づいて患者撮像システムを整列させることを含む、
    請求項10記載の方法。
  12. 処理ユニットに請求項10または11記載の方法段階を実行させるためのコンピュータ・プログラム。
  13. 請求項12記載のプログラムが記憶されているコンピュータ可読媒体。
JP2017536970A 2015-01-16 2016-01-07 脊椎フィーチャーの識別 Active JP6363800B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15151457 2015-01-16
EP15151457.7 2015-01-16
PCT/EP2016/050153 WO2016113165A1 (en) 2015-01-16 2016-01-07 Vertebral feature identification

Publications (2)

Publication Number Publication Date
JP2018508248A JP2018508248A (ja) 2018-03-29
JP6363800B2 true JP6363800B2 (ja) 2018-07-25

Family

ID=52394112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536970A Active JP6363800B2 (ja) 2015-01-16 2016-01-07 脊椎フィーチャーの識別

Country Status (5)

Country Link
US (1) US10251594B2 (ja)
EP (1) EP3244799B1 (ja)
JP (1) JP6363800B2 (ja)
CN (1) CN107106043B (ja)
WO (1) WO2016113165A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10405821B2 (en) * 2014-06-06 2019-09-10 Koninklijke Philips N.V. Imaging system for a vertebral level
GB2542114B (en) * 2015-09-03 2018-06-27 Heartfelt Tech Limited Method and apparatus for determining volumetric data of a predetermined anatomical feature
EP3429475B1 (en) 2016-03-13 2021-12-15 Vuze Medical Ltd. Apparatus for use with skeletal procedures
WO2018035392A1 (en) * 2016-08-18 2018-02-22 Rivanna Medical Llc System and method for ultrasound spine shadow feature detection and imaging thereof
US10460488B2 (en) * 2016-09-06 2019-10-29 International Business Machines Corporation Spine labeling automation
EP3651678A4 (en) 2017-07-08 2021-04-14 Vuze Medical Ltd. APPARATUS AND METHODS FOR USE IN IMAGE GUIDED SKELETON PROCEDURES
US11166764B2 (en) 2017-07-27 2021-11-09 Carlsmed, Inc. Systems and methods for assisting and augmenting surgical procedures
US11112770B2 (en) * 2017-11-09 2021-09-07 Carlsmed, Inc. Systems and methods for assisting a surgeon and producing patient-specific medical devices
CN107941584B (zh) * 2017-12-08 2020-07-31 安徽新涛新材料科技股份有限公司 一种改性活性碳酸钙的性能测试方法
US11432943B2 (en) 2018-03-14 2022-09-06 Carlsmed, Inc. Systems and methods for orthopedic implant fixation
US11439514B2 (en) 2018-04-16 2022-09-13 Carlsmed, Inc. Systems and methods for orthopedic implant fixation
USD958151S1 (en) 2018-07-30 2022-07-19 Carlsmed, Inc. Display screen with a graphical user interface for surgical planning
US11696833B2 (en) 2018-09-12 2023-07-11 Carlsmed, Inc. Systems and methods for orthopedic implants
EP3714792A1 (en) * 2019-03-26 2020-09-30 Koninklijke Philips N.V. Positioning of an x-ray imaging system
US11751827B2 (en) * 2019-09-24 2023-09-12 Brainlab Ag Method and system for determining the configuration of a medical imaging system
US11376076B2 (en) 2020-01-06 2022-07-05 Carlsmed, Inc. Patient-specific medical systems, devices, and methods
US10902944B1 (en) 2020-01-06 2021-01-26 Carlsmed, Inc. Patient-specific medical procedures and devices, and associated systems and methods
CN113470004A (zh) * 2021-07-22 2021-10-01 上海嘉奥信息科技发展有限公司 一种基于ct的单个椎体的分割方法、系统及介质
US11443838B1 (en) 2022-02-23 2022-09-13 Carlsmed, Inc. Non-fungible token systems and methods for storing and accessing healthcare data
US11806241B1 (en) 2022-09-22 2023-11-07 Carlsmed, Inc. System for manufacturing and pre-operative inspecting of patient-specific implants
US11793577B1 (en) 2023-01-27 2023-10-24 Carlsmed, Inc. Techniques to map three-dimensional human anatomy data to two-dimensional human anatomy data
DE102023201348A1 (de) 2023-02-16 2024-03-28 Siemens Healthcare Gmbh Verfahren und Datenverarbeitungssystem zum Bereitstellen von vertebralen Daten

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6666579B2 (en) * 2000-12-28 2003-12-23 Ge Medical Systems Global Technology Company, Llc Method and apparatus for obtaining and displaying computed tomography images using a fluoroscopy imaging system
US7522779B2 (en) 2004-06-30 2009-04-21 Accuray, Inc. Image enhancement method and system for fiducial-less tracking of treatment targets
TWI268148B (en) * 2004-11-25 2006-12-11 Univ Chung Yuan Christian Image analysis method for vertebral disease which comprises 3D reconstruction method and characteristic identification method of unaligned transversal slices
IL179581A0 (en) 2006-11-26 2007-05-15 Algotec Systems Ltd Spine labeling
JP4640384B2 (ja) * 2007-07-04 2011-03-02 富士フイルム株式会社 画像処理装置及び画像処理方法
EP2017785A1 (en) * 2007-07-17 2009-01-21 BrainLAB AG Imaging method for motion analysis
JP5209270B2 (ja) * 2007-10-29 2013-06-12 株式会社東芝 医用画像撮影装置、医用画像処理装置および医用画像処理プログラム
WO2010062989A2 (en) * 2008-11-28 2010-06-03 Fujifilm Medical Systems Usa, Inc. System and method for propagation of spine labeling
BRPI1008264A2 (pt) * 2009-05-28 2019-09-24 Koninklijke Philips Electrnics N. V. dispositivo de tela autoestereoscopica tendo um campo de visão em uma direção lateral e vertical e luz de fundo colimante
US8437521B2 (en) * 2009-09-10 2013-05-07 Siemens Medical Solutions Usa, Inc. Systems and methods for automatic vertebra edge detection, segmentation and identification in 3D imaging
US9042618B2 (en) * 2009-09-17 2015-05-26 Siemens Aktiengesellshaft Method and system for detection 3D spinal geometry using iterated marginal space learning
JP4940340B2 (ja) 2009-11-27 2012-05-30 富士フイルム株式会社 椎骨セグメンテーション装置、方法及びプログラム
WO2011086475A1 (en) * 2010-01-12 2011-07-21 Koninklijke Philips Electronics N.V. Navigating an interventional device
US8676298B2 (en) * 2010-08-30 2014-03-18 Fujifilm Corporation Medical image alignment apparatus, method, and program
CN102727200B (zh) * 2011-03-31 2016-03-30 深圳迈瑞生物医疗电子股份有限公司 脊柱椎体和椎间盘分割方法、装置、磁共振成像系统
CN103300856B (zh) * 2012-03-13 2015-11-25 深圳迈瑞生物医疗电子股份有限公司 Mri图像的颈椎椎体轴线及相关组织的定位方法与装置
EP2756804A1 (en) * 2013-01-22 2014-07-23 Agfa Healthcare Method, apparatus and system for identifying a specific part of a spine in an image
CN103976756A (zh) * 2014-05-21 2014-08-13 周勇 一种脊柱后路手术术中实时三维重构方法
CN104224306B (zh) * 2014-09-30 2017-08-01 华蓥市人民医院 用于寻找置入椎弓根螺钉最佳入点的三维模型

Also Published As

Publication number Publication date
CN107106043A (zh) 2017-08-29
EP3244799B1 (en) 2018-05-23
WO2016113165A1 (en) 2016-07-21
US20170367645A1 (en) 2017-12-28
JP2018508248A (ja) 2018-03-29
CN107106043B (zh) 2020-10-30
EP3244799A1 (en) 2017-11-22
US10251594B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
JP6363800B2 (ja) 脊椎フィーチャーの識別
US10390886B2 (en) Image-based pedicle screw positioning
US7724931B2 (en) Method and apparatus for evaluating a 3D image of a laterally-symmetric organ system
JP5486197B2 (ja) 椎骨中心検出装置および方法並びにプログラム
JP6918528B2 (ja) 医用画像処理装置及び医用画像処理プログラム
US20170091919A1 (en) Image registration device, method, and program
US11676277B2 (en) Medical image processing apparatus and method
JP7337556B2 (ja) 医用画像処理装置、x線診断装置及び医用画像処理方法
EP3069318B1 (en) Registration of medical images
EP3946058B1 (en) Positioning of an x-ray imaging system
US9576353B2 (en) Method for verifying the relative position of bone structures
US11478207B2 (en) Method for visualizing a bone
US8774483B2 (en) Image processing method, image processing apparatus and program
JP5576631B2 (ja) 放射線撮影装置、放射線撮影方法、及びプログラム
JP2015136480A (ja) 3次元医用画像表示制御装置およびその作動方法並びに3次元医用画像表示制御プログラム
US7907761B2 (en) Method for registration and navigation of volumetric scans using energy profiles
US20220096165A1 (en) Interventional device tracking
JP2009022307A (ja) 医用画像表示装置及びそのプログラム
Csorba et al. Registration of chest x-rays

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180628

R150 Certificate of patent or registration of utility model

Ref document number: 6363800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250