JP6757727B2 - Device-based motion-compensated digital subtraction angiography - Google Patents

Device-based motion-compensated digital subtraction angiography Download PDF

Info

Publication number
JP6757727B2
JP6757727B2 JP2017529069A JP2017529069A JP6757727B2 JP 6757727 B2 JP6757727 B2 JP 6757727B2 JP 2017529069 A JP2017529069 A JP 2017529069A JP 2017529069 A JP2017529069 A JP 2017529069A JP 6757727 B2 JP6757727 B2 JP 6757727B2
Authority
JP
Japan
Prior art keywords
image
target
mask
roi
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017529069A
Other languages
Japanese (ja)
Other versions
JP2017536191A (en
Inventor
オリビエ ピエール ネムポント
オリビエ ピエール ネムポント
ハルトグ マーカス ヨハネス ハルメン デン
ハルトグ マーカス ヨハネス ハルメン デン
ラミ ナチャベ
ラミ ナチャベ
ギヨーム ジュリアン ジョセフ ピザイネ
ギヨーム ジュリアン ジョセフ ピザイネ
アレッサンドロ グイド ラダエッリ
アレッサンドロ グイド ラダエッリ
ラウル フローレント
ラウル フローレント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017536191A publication Critical patent/JP2017536191A/en
Application granted granted Critical
Publication of JP6757727B2 publication Critical patent/JP6757727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/404Angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/428Real-time

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、画像処理方法、画像処理システム、コンピュータプログラム要素、及びコンピュータ可読媒体に関する。 The present invention relates to image processing methods, image processing systems, computer program elements, and computer readable media.

複数の医療介入は、蛍光透視法又は血管造影法の下で行われる。言い換えれば、リアルタイム投影X線画像を獲得して、患者の内部を撮像するとともに、医療器具又はデバイスを患者内へ導入して、介入を実現する。 Multiple medical interventions are performed under fluoroscopy or angiography. In other words, a real-time projected X-ray image is acquired to image the inside of the patient and a medical device or device is introduced into the patient to realize the intervention.

たとえば、癌組織又はAVM(動静脈奇形)の成長を止めるために、その栄養動脈に意図的に塞栓を形成して、血液供給(AVM)の閉鎖及び/又は癌若しくは成長への栄養素供給の停止を行う(経カテーテル動脈化学塞栓形成(TACE)など)。医療塞栓形成と呼ばれるこのタイプの介入は、カテーテル管を用いて人体内の所望の位置(関心領域(ROI))に塞栓形成剤を投与することによって行われる。塞栓形成剤は、本質的に、キャリア液体中に懸濁した小さいビードを含む膠剤の液体ボリューム又は質量であり、それによって患部位置の閉塞が行われる。そのような塞栓形成介入中、対象とする栄養動脈だけが塞がれ、健全な血管は塞がれないことが確実になることが極めて優れている。現在、塞栓の位置は、1つ又は複数の蛍光透視投影画像を獲得することによって監視される。塞栓及び/又はキャリア流体の放射の不透明度のため、前記蛍光透視画像内では投影による「フットプリント」を認識することができ、それによって介入放射線医に対して塞栓の所在に関する手がかりが提供される。 For example, in order to stop the growth of cancer tissue or AVM (arteriovenous malformation), an embolus is intentionally formed in its feeding artery to close the blood supply (AVM) and / or stop the supply of nutrients to cancer or growth. (Transcatheter arterial chemoembolization (TACE), etc.). This type of intervention, called medical embolization, is performed by administering an embolus-forming agent to a desired location (region of interest (ROI)) in the human body using a catheter tube. The embolic forming agent is essentially a liquid volume or mass of glue containing a small bead suspended in the carrier liquid, thereby occluding the affected area. During such embolization interventions, it is extremely good to ensure that only the feeding arteries of interest are blocked and healthy vessels are not. Currently, the location of the embolus is monitored by acquiring one or more fluoroscopic projection images. Due to the opacity of the embolism and / or the radiation of the carrier fluid, a projected "footprint" can be recognized within the fluoroscopic image, thereby providing the intervention radiologist with clues as to the location of the embolus. ..

画像ベースの支援に依拠する介入に対する別の例は、経カテーテル大動脈弁移植(TAVI)である。TAVI処置の結果を評価するために、弁膜逆流の視覚評価が、血管造影法を使用して日常的に実行される。造影剤の注射が実行される。次いで、介入者は、左心室内への造影剤の逆流があるかどうかに関して、血管造影フレームを視覚的に検査し、したがって逆流の重大度を判定する(心室内の造影の量、造影で充填された心室の割合などに基づく)。 Another example of an intervention that relies on image-based support is transcatheter aortic valve transplantation (TAVI). To assess the outcome of TAVI treatment, a visual assessment of valve regurgitation is routinely performed using angiography. Injection of contrast agent is performed. The intervener then visually inspects the angiographic frame for the presence of contrast medium regurgitation into the left ventricle and thus determines the severity of the regurgitation (amount of contrast in the ventricle, filled with contrast). Based on the percentage of ventricles that were created).

上記2つの例示的な介入及び他の介入では、複雑で乱雑な背景(脊柱、肋骨、医療デバイスなど)を背にして見ると、1つ又は複数の運動層内のコントラストが不十分であることによって、画像品質が損なわれることが多い。この状況を改善しようとして、より良好な画像コントラストを実現するために、デジタルサブトラクション血管造影法(DSA)が使用されることがある。従来のDSAでは、造影画像(たとえば、塞栓を捕捉する血管造影又は蛍光透視フレームなど)から、マスク画像が減算される。しかし、介入中の動きパターンが複雑であるため、DSAによって減算アーティファクトが導入されることがあり、これもまた画像品質を害する。 In the above two exemplary and other interventions, the contrast within one or more motor layers is inadequate when viewed against a complex and messy background (spine, ribs, medical devices, etc.). Often the image quality is impaired. Digital Subtraction Angiography (DSA) may be used to improve this situation and achieve better image contrast. In conventional DSAs, the mask image is subtracted from the contrast image (eg, angiography or fluoroscopy frame that captures the embolus). However, due to the complexity of the movement patterns during the intervention, the DSA may introduce subtractive artifacts, which also impair image quality.

したがって、上述した欠陥の少なくともいくつかに対処する代替の画像処理方法及び/又は関連する装置が、当技術分野で必要とされている。 Therefore, alternative image processing methods and / or related devices are needed in the art to address at least some of the defects mentioned above.

本発明の目的は、独立請求項の主題によって解決され、さらなる実施形態は、従属請求項に組み込まれている。本発明の以下に記載する態様は、画像処理方法、画像処理システム、コンピュータプログラム要素、及びコンピュータ可読媒体にも等しく当てはまることに留意されたい。 An object of the present invention is solved by the subject matter of the independent claims, and further embodiments are incorporated in the dependent claims. It should be noted that the following aspects of the invention apply equally to image processing methods, image processing systems, computer program elements, and computer readable media.

本発明の第1の態様によれば、
物体を含む少なくとも一部の試験片の少なくとも1つのマスク画像及び少なくとも1つの造影画像を含む少なくとも2つの投影画像を受け取るように構成された入力ポートであって、マスク画像及び造影画像が異なる獲得時間に獲得され、それぞれ異なるコントラストで関心領域(ROI)を表す、入力ポートと、
造影画像及び少なくとも1つのマスク画像内で前記物体の少なくとも1つの目標物を識別するように構成された目標物識別器と、
少なくとも造影画像及び少なくとも1つのマスク画像にわたって、識別された少なくとも1つの目標物の動きによって物体の動きを推定するように構成された動き推定器であって、前記動きがROIの動きに関する、動き推定器と、
推定された目標物の動きのみに基づいて、少なくとも1つのマスク画像を少なくとも1つの造影画像と位置合わせするように構成された動き補償器と、
少なくとも1つの造影画像から位置合わせされた少なくとも1つのマスク画像を減算して、ROIの差分画像を取得するように構成された減算器と、
差分画像を出力するように構成された出力ポートと
を備える画像処理システムが提供される。
According to the first aspect of the present invention
An input port configured to receive at least one mask image of at least some test pieces containing an object and at least two projected images including at least one contrast image, with different acquisition times for the mask image and the contrast image. The input port, which is acquired in and represents the region of interest (ROI) with different contrasts,
A target discriminator configured to identify at least one target of the object in a contrast image and at least one mask image.
A motion estimator configured to estimate the motion of an object by the motion of at least one identified target over at least a contrast image and at least one mask image, wherein the motion is a motion estimate with respect to the motion of the ROI. With a vessel
A motion compensator configured to align at least one mask image with at least one contrast image based solely on the estimated motion of the target.
A subtractor configured to subtract at least one aligned mask image from at least one contrast image to obtain a difference image of ROI.
An image processing system is provided with an output port configured to output the difference image.

一実施形態によれば、画像処理システムは、ROIに対応する差分画像の少なくとも一部を表示デバイス上に表示するように構成されたビジュアライザを備える。 According to one embodiment, the image processing system comprises a visualizer configured to display at least a portion of the difference image corresponding to the ROI on the display device.

言い換えれば、提案する方法は、ROIの動きに集中させたROI動き補償式のDSAを実施する。より詳細には、ROIの動きは、ROIを表す画像部分の内側又は外側に位置する目標物を追尾することによって取得され、この目標物の動きのみが、ROIの動きを補償するために考慮される。さらに言い換えれば、動き補償は、目標物の動きのみに基づいている。周辺の画像物体の他の動きは無視される。したがって、目標物の動きとは異なる動きを受ける物体は、場合によってはぼやけて見えることがあるが、こうしてぼやけることで、操作者は、(場合により)ぼやけた背景を背にしてより目立つROI内の高いコントラストの画像情報に、より容易に精神的に集中することができるため、これは実際に利点であることが、出願人によって発見された。これは、提案する方法が、操作者が複雑な解剖学的構造及び動きパターンをうまく切り抜けなければならない要求の厳しい介入を支援するために、画像をリアルタイムで視覚化することを目的とする場合に、特に有利である。 In other words, the proposed method implements a ROI motion compensation DSA focused on the ROI motion. More specifically, the movement of the ROI is obtained by tracking a target located inside or outside the image portion representing the ROI, and only the movement of this target is considered to compensate for the movement of the ROI. To. In other words, motion compensation is based solely on the motion of the target. Other movements of surrounding image objects are ignored. Therefore, an object that undergoes a movement different from that of the target may appear blurry in some cases, but this blurring allows the operator to (in some cases) be more prominent in the ROI against a blurred background. It has been discovered by the applicant that this is actually an advantage, as it makes it easier to focus mentally on the high contrast image information of. This is when the proposed method aims to visualize images in real time to assist demanding interventions where the operator must successfully navigate complex anatomical structures and movement patterns. , Especially advantageous.

一実施形態によれば、目標物の識別は、投影画像の少なくとも1つと位置合わせされた補助画像データに基づいている。 According to one embodiment, the identification of the target is based on auxiliary image data aligned with at least one of the projected images.

一実施形態によれば、目標物は第1の動きを受け、動き補償器の位置合わせ動作は、選択されたマスク画像による目標物の位置が、少なくとも1つの造影画像による目標物の位置に対応するように、マスク画像を選択することを含む。 According to one embodiment, the target receives the first movement, and the alignment motion of the motion compensator corresponds to the position of the target by the selected mask image corresponding to the position of the target by at least one contrast image. Includes selecting a mask image to do so.

一実施形態によれば、画像処理システムは、目標物指定入力ポートを備え、識別器は、前記入力ポートで1つ又は複数の目標物の指定を受け取ったことに応答して、目標物を識別するように動作し、この指定は、マスク画像又は造影画像からの選択である。 According to one embodiment, the image processing system comprises a target designation input port, and the classifier identifies the target in response to receiving designation of one or more target at the input port. This designation is a selection from a mask image or a contrast image.

一実施形態によれば、ビジュアライザは、マスク画像及び/又は造影画像とともに差分画像の少なくとも一部の表示を表示デバイス上で行うように構成される。一実施形態では、差分画像の一区間のみが表示され、すなわちこの区間が「ROI集中」されている。 According to one embodiment, the visualizer is configured to display at least a portion of the difference image along with the mask image and / or contrast image on the display device. In one embodiment, only one section of the difference image is displayed, i.e. this section is "ROI concentrated".

一実施形態によれば、ビジュアライザは、位置合わせされた補助画像データの少なくとも一部を表示するように構成される。 According to one embodiment, the visualizer is configured to display at least a portion of the aligned auxiliary image data.

一実施形態によれば、システムは、第2の目標物及び/又は第2のROIに関して少なくとも2つの投影画像を処理して、第2の差分画像を取得するように構成され、ビジュアライザは、差分画像の代わりに、又は差分画像とともに、前記第2の差分画像の少なくとも一部を表示するように構成される。 According to one embodiment, the system is configured to process at least two projected images with respect to the second target and / or the second ROI to obtain a second difference image, and the visualizer is the difference. It is configured to display at least a portion of the second difference image in place of the image or together with the difference image.

一実施形態によれば、ビジュアライザは、ROI及び/又は第2のROIの位置を示すグラフィカルオーバーレイをマスク画像内に表示するように構成される。 According to one embodiment, the visualizer is configured to display a graphical overlay in the mask image indicating the location of the ROI and / or the second ROI.

一実施形態によれば、目標物は第2の動きを受け、動き補償器は、
i)2つの追加のマスク投影画像による第1の動きのための目標物の位置は、実質上同じになり、ii)マスク画像及び少なくとも1つの造影画像による第2の動きに関する位置差分は、目標物に関して実質上同じになるように、2つの追加のマスク画像を選択するように構成される。
According to one embodiment, the target receives a second movement and the motion compensator
i) The position of the target for the first movement with the two additional mask projection images will be substantially the same, and ii) the position difference for the second movement with the mask image and at least one contrast image will be the target. Two additional mask images are configured to be selected so that they are substantially the same with respect to the object.

一実施形態によれば、減算器は、
前記2つの追加のマスク画像を減算してマスク差分画像を取得し、第1又は第2の動きに関する動き補償後、差分画像からマスク差分画像を減算して、カスケード差分画像を取得するように構成される。
According to one embodiment, the subtractor
The two additional mask images are subtracted to obtain a mask difference image, and after motion compensation for the first or second movement, the mask difference image is subtracted from the difference image to acquire a cascade difference image. Will be done.

一実施形態によれば、ビジュアライザは、前記カスケード差分画像の少なくとも一部を画面上に表示するように構成された。 According to one embodiment, the visualizer is configured to display at least a portion of the cascade difference image on the screen.

一実施形態によれば、目標物は、自然のままの物体又は外的な物体、特に人工心臓弁又は塞栓などの移植された物体に対する投影フットプリントであり、又はそのような投影フットプリントに関する。物体は、マスク投影画像及び投影画像のそれぞれの獲得時間に、試験片内に存在する。 According to one embodiment, the target is, or relates to, a projected footprint on a pristine or external object, particularly an implanted object such as a prosthetic heart valve or embolus. The object is present in the test piece at each acquisition time of the mask projection image and the projection image.

本発明の例示的な実施形態について、以下の図面を参照して次に説明する。 An exemplary embodiment of the present invention will be described below with reference to the following drawings.

撮像配置を示す図である。It is a figure which shows the imaging arrangement. 第1の実施形態による画像処理方法の流れ図である。It is a flow chart of the image processing method by 1st Embodiment. 第2の実施形態による画像処理方法の流れ図である。It is a flow chart of the image processing method by 2nd Embodiment. 一実施形態によるグラフィックスディスプレイを示す図である。It is a figure which shows the graphics display by one Embodiment. 本明細書に提案する画像処理方法によって作成される例示的な画像を示す図である。It is a figure which shows the exemplary image produced by the image processing method proposed in this specification.

図1を参照すると、介入処置を支援するために使用することができる蛍光透視又は血管造影の撮像配置の基本的な構成要素が示されている。 With reference to FIG. 1, the basic components of a fluoroscopy or angiography imaging arrangement that can be used to assist intervention procedures are shown.

患者SPの心臓弁は、正常に機能していない。TAVI介入処置中、医療従事者が、患者SPの大腿動脈内へガイドワイヤを導入し、次いで修復又は交換すべき患部の大動脈弁ROIへ送達カテーテルOBを案内する。ガイドワイヤが患者の心臓血管構造Pを通って前進するにつれて、一連の連続する蛍光透視画像Fが、X線撮像器100によって獲得される。別の例は、塞栓形成剤投与のためのカテーテルOBがAVM又は癌(TACEと同様)の部位へ案内される塞栓形成処置である。 The heart valve of the patient SP is not functioning normally. During the TAVI intervention procedure, the healthcare professional introduces a guide wire into the femoral artery of the patient SP and then guides the delivery catheter OB to the affected aortic valve ROI to be repaired or replaced. As the guidewire advances through the patient's cardiovascular structure P, a series of continuous fluoroscopic images F are acquired by the X-ray imager 100. Another example is an embolization procedure in which a catheter OB for embolization agent administration is guided to the site of AVM or cancer (similar to TACE).

介入中、患者SPは、X線撮像器100のX線管XTと検出器Dとの間でベッドB上に配置される。X線管XT及び検出器Dは、ベアリングB上に回転可能に取り付けられた剛性フレームCに取り付けられる。蛍光透視画像動作は、コンピュータコンソールCCから制御される。介入放射線医は、前記コンソールCCを介して画像獲得を制御することができ、ジョイスティック又はペダルを作動させることによって、一連の個々の蛍光透視フレーム(「フルオロ」)Fを「撮影」することができる。一実施形態によれば、撮像器100はCアーム型であるが、他のシステムも想定される。 During the intervention, the patient SP is placed on bed B between the X-ray tube XT of the X-ray imager 100 and the detector D. The X-ray tube XT and the detector D are attached to a rigid frame C rotatably mounted on the bearing B. Fluorescence fluoroscopic image operation is controlled from the computer console CC. The intervention radiologist can control image acquisition via the console CC and can "photograph" a series of individual fluoroscopic frames ("fluoro") F by activating a joystick or pedal. .. According to one embodiment, the imager 100 is a C-arm type, but other systems are also envisioned.

画像獲得中、X線放射がX線管XTから出て、ROIを通過し、体内の物質との相互作用による減衰を受け、次いで、そのように減衰されたビームpは、検出器Dを構成する複数の検出器セルの1つにおいて、検出器Dの表面に当たる。ビームが当たった各セルは、対応する電気信号を発行することによって反応する。次いで、この一群の前記信号は、前記減衰を表すそれぞれのデジタル値に変換される。ROIを構成する材料の密度は、減衰のレベルを決定し、高い密度の材料は、より低い密度の材料より大きい減衰を引き起こす。次いで、各X線pに対するそのように登録されたデジタル値は、所与の獲得時間及び投影方向に対してフルオロフレームを形成するデジタル値のアレイ内へ集約される。言い換えれば、各フルオロは、投影方向に沿った投影図のデジタル画像であり、前記方向は、所与の獲得時間又は瞬間におけるCアームの回転によって決定される。次いで、一連のフルオロFは、データ獲得ユニットDASによってデジタル処理され、次いで、画像プロセッサIPSへ送られる。その目的及び動作について、さらに詳細に以下で説明する。 During image acquisition, X-ray radiation exits the X-ray tube XT, passes through the ROI, is attenuated by interaction with substances in the body, and then the beam p thus attenuated constitutes detector D. It hits the surface of the detector D in one of the plurality of detector cells. Each cell hit by the beam reacts by issuing a corresponding electrical signal. The group of signals is then converted into their respective digital values representing the attenuation. The density of the materials that make up the ROI determines the level of attenuation, with higher densities causing greater attenuation than lower densities. The digital values so registered for each X-ray p are then aggregated into an array of digital values forming a fluoroframe for a given acquisition time and projection direction. In other words, each fluoro is a digital image of a projection along the projection direction, the direction of which is determined by the rotation of the C-arm at a given acquisition time or moment. The series of fluoroFs is then digitally processed by the data acquisition unit DAS and then sent to the image processor IPS. Its purpose and operation will be described in more detail below.

一実施形態では、検出器Dは、リアルタイム観察のために画像を画面M上に直接投影する画像増強管の構成要素である。 In one embodiment, the detector D is a component of an image enhancement tube that projects an image directly onto the screen M for real-time observation.

蛍光透視画像Fでは、概して、大きく減衰する物体のみのフットプリントを認識することができる。より具体的には、高い不透明度の材料から作られたガイドワイヤ又はカテーテルOBのみが、各フルオロF内で投影図フットプリント又は「影」として見える。蛍光透視画像Fの流れは、患者SPの体内を通るカテーテルOBによるガイドワイヤの進行を監視することができるのに十分なフレーム率(TAVIの場合は1秒当たり約15画像、又はTACEの場合は1秒当たり2画像)で獲得される。 In the fluoroscopic image F, it is generally possible to recognize the footprint of only a significantly attenuated object. More specifically, only guide wires or catheter OBs made of high opacity material appear as projection footprints or "shadows" within each fluoroF. The flow of the fluoroscopic image F is a frame rate sufficient to monitor the progress of the guidewire by the catheter OB through the body of the patient SP (about 15 images per second for TAVI, or about 15 images per second for TACE). 2 images per second).

いくつかの介入では、柔組織に対するコントラストを高めるために、又は弁膜逆流の評価の場合と同様に、流体の動的挙動を撮像するために、高い不透明度の造影剤(「染料」)が患者SPへ送達される。次いで、ある量の造影剤(「ボーラス」)が、血流とともに血管構造を通って進み、最終的にROIまで進む。言い換えれば、染料又は造影剤は、普通なら見えない血管構造ROIに時間的な不透明度を与え、それぞれの血管AG内に蜘蛛状のフットプリントとして、血管樹が現れる。ボーラスがROIへ進む途中で、ROIの蛍光透視フレームを獲得し、ボーラスがROIを通過する点で、より高いコントラストのフルオロフレームを取得する。これらの特別にタイミングを合わせたフルオロが、血管造影図である。言い換えれば、蛍光透視フレームFの流れは、2つのタイプのフレームを含み、1つは、ROIに造影剤が存在することなく獲得され(これは、デフォルトであるが、この文脈では、本発明者らはこれらの「染料なし」フレームを「マスク画像」MIと呼ぶ)、またROIに造影剤が存在する間に獲得されるフレームもある。これらは、血管造影フレーム又は「造影画像」AGである。造影剤の代わりに塞栓形成剤でもよく、したがって、マスク画像及び造影画像のタイミングに関する上記の記載が当てはまる。造影剤若しくは塞栓形成剤が使用されているか、又は任意の他の材料が使用されているかにかかわらず、「造影画像」という同じ用語が使用されている。 In some interventions, a high opacity contrast agent (“dye”) is used to increase the contrast to the parenchyma, or to image the dynamic behavior of the fluid, as in the assessment of valve regurgitation. Delivered to SP. A certain amount of contrast agent (“bolus”) then travels along with the bloodstream through the vascular structure and finally to the ROI. In other words, the dye or contrast agent imparts temporal opacity to the normally invisible vascular structure ROI, and a vascular tree appears as a spider-like footprint within each vascular AG. On the way to the ROI, the bolus acquires a fluoroscopic frame of ROI and a higher contrast fluoroframe at the point where the bolus passes through the ROI. These specially timed fluorographs are angiographic diagrams. In other words, the flow of the fluorescence fluoroscopic frame F comprises two types of frames, one acquired in the absence of contrast medium in the ROI (this is the default, but in this context, the inventor We call these "dye-free" frames "mask image" MI), and some frames are acquired during the presence of contrast agent in the ROI. These are angiographic frames or "contrast image" AGs. An embolus-forming agent may be used instead of the contrast agent, and therefore the above description regarding the timing of the mask image and the contrast image applies. The same term "contrast image" is used regardless of whether a contrast or embolic agent is used or any other material is used.

撮像システムは、ROIへのそれぞれの医療器具OB(カテーテル、移植すべき弁など)の案内だけでなく、塞栓形成、心臓弁の修復、又は任意の他の診断若しくは評価処置などのROIにおける実際の介入タスクも支援することが可能である。たとえば、塞栓形成介入では、このタスクは、カテーテルシステムを通ってROIに塞栓形成剤のボリューム(以下、「膠剤の小塊」、「塞栓」、又は単に「小塊」と呼ぶ)を放出することである。前記ROIは、たとえば、患者がAVM、動静脈瘻(AVF)、又は血管腫の治療を受ける必要があるために閉塞する必要のある血管のシャントである。液体の塞栓形成材料の例には、Onyx(登録商標)(膠剤状の物質)、アルコール、又はn−ブチルシアノアクリレート(NBCA)が挙げられる。塞栓の投与は、前記カテーテルの開端部を介してROI付近で塞栓形成剤のボリュームを解放することによって、瞬間tに始まる。次いで、塞栓は、血流中を循環した後、対象位置(通常は、動脈系と静脈系を連結するシャント)でつかえ、それによって血管を閉塞する。 The imaging system guides each medical device OB (catheter, valve to be implanted, etc.) to the ROI, as well as the actual in the ROI such as embolization, heart valve repair, or any other diagnostic or evaluation procedure. Intervention tasks can also be supported. For example, in an embolization intervention, this task releases a volume of embolization agent (hereinafter referred to as "glue mass", "embolization", or simply "mass") to the ROI through the catheter system. That is. The ROI is, for example, a shunt of blood vessels that needs to be occluded because the patient needs to be treated for AVM, arteriovenous fistula (AVF), or hemangiomas. Examples of liquid embolizing materials include Onyx® (a glue-like substance), alcohol, or n-butyl cyanoacrylate (NBCA). Administration of emboli, by releasing the volume of embolization agents around ROI through the open end of the catheter, starting at the moment t 0. The embolus then circulates in the bloodstream and is then held at the target location (usually the shunt that connects the arterial and venous systems), thereby occluding the blood vessels.

他の介入処置には、心臓血管への修復のための介入、たとえば天然又は人工心臓弁における逆流の評価が含まれる。この場合、ROIは、移植された人工弁の箇所であると見なされる。 Other interventional procedures include interventions for cardiovascular repair, such as assessment of regurgitation in a natural or prosthetic heart valve. In this case, the ROI is considered to be the location of the implanted prosthesis.

血管造影図AG内の画像コントラストをさらに増大させ、背景又は前景の物体及びその他の散らかったものからの減衰の寄与を除去するために、DSAが使用され、DSAでは従来、現在の血管造影図(本明細書では、造影画像とも呼ぶ)から、マスク画像MI(ゼロ又は無視できるほどの造影剤しかROIに存在しないフルオロ)を減算して、(ピクセル単位の)差分画像DF1を作成する。しかし残念ながら、たとえば生理学的な活動(呼吸及び/又は心臓)などの患者の動きによって、フルオロ/血管造影図の獲得中に動きが引き起こされることが多い。これには、画像物体(たとえば、ROI並びにカテーテル若しくは他の器具OB及び/又は臓器、たとえば肋骨などのそれぞれの投影フットプリントを表す)が、フレームにわたって明らかな動きを受けるという影響がある。動きが生じたときにフレームを互いから単に減算すると、アーティファクトの導入を招くことがある。 DSA is used to further increase image contrast within angiography AG and eliminate the contribution of attenuation from background or foreground objects and other clutter, with DSA traditionally presenting angiography. In the present specification, the mask image MI (fluoro in which only zero or negligible contrast medium is present in ROI) is subtracted from the contrast image (also referred to as contrast image) to create a differential image DF1 (in pixels). Unfortunately, however, patient movements, such as physiological activity (breathing and / or heart), often cause movements during the acquisition of fluoro / angiography. This has the effect that the image object (eg, representing the ROI and the respective projected footprint of the catheter or other instrument OB and / or organ, such as the ribs) undergoes obvious movement over the frame. Simply subtracting frames from each other when movement occurs can lead to the introduction of artifacts.

特に動き中の上記又は類似の介入の画像をより良好に支援するために、システムは、X線撮像器によって与えられる蛍光透視画像の流れに作用するように構成された画像プロセッサをさらに備える。挿入する図1Aは、本明細書に提案する画像処理システムIPSの詳細を示す。 In particular to better assist images of the above or similar interventions in motion, the system further comprises an image processor configured to act on the flow of fluoroscopic images provided by an X-ray imager. FIG. 1A to be inserted shows the details of the image processing system IPS proposed in the present specification.

IPSは、入力ポートIN及び出力ポートOUTを含む。目標物識別器モジュールLID、動き推定器ME、及び動き補償器MCがある。これらのモジュールは、図2及び図3を参照して以下でより詳細に説明するように、蛍光透視画像の流れの異なるフレームを処理し、そのように処理されたフレーム上を通って減算器モジュールDIFへ進み、差分画像DIF1を作成し、したがってDSAを行う。次いで、差分画像DIF1は、出力ポートOUTで出力され、次いで、さらなる処理のために記憶され、又はビジュアライザVISへ進み、ビジュアライザVISは、撮像システム100のビデオ機器と相互作用して、表示ユニットM(モニタ又は画面など)上にグラフィックスディスプレイGDを作成し、次いで、表示ユニットMには差分画像DIF又はその一部が表示される。 The IPS includes an input port IN and an output port OUT. There is a target classifier module LID, a motion estimator ME, and a motion compensator MC. These modules process frames with different flow of fluoroscopic images and pass over the processed frames to the subtractor module, as described in more detail below with reference to FIGS. 2 and 3. Proceed to DIF to create the differential image DIF1 and therefore perform DSA. The difference image DIF1 is then output at the output port OUT and then stored for further processing or proceeds to the visualizer VIS, which interacts with the video equipment of the imaging system 100 to display unit M ( A graphics display GD is created on the monitor, screen, etc.), and then the display unit M displays the difference image DIF or a part thereof.

簡単に言うと、提案する画像プロセッサシステムは、画像のうちROIを表す部分のみで画像コントラストを増大させるためにコントラスト増強部として作用する。本明細書に提案する画像プロセッサIPSは、本質的に、局所的に動き補償するDSAモジュールとして作用する。本発明は、画像内の特異な目標物の周りのROIのみに集中する最適化された減算を提案する。目標物はまた、目標物の動きとROIとの間に知られた決定的関係が存在する限り、ROIの外側に位置してもよい。目標物は、カテーテルOBの先端部、又は任意の他の事前に導入/移植された心臓弁などのデバイスなどの外的な物体であっても、部分的に塞栓が形成された組織若しくは塞栓自体であってもよい。専用のアルゴリズムが画像を処理し、後の画像内で目標物を追跡することが可能である。目標物が与える特徴がより構造的であればあるほど、フレームにわたってその検出がより容易かつより堅固になる。次いで、IPSは、局所的な関心領域(概して、常に目標物の周りの領域とは限らない)のみを正確に動き補償する減算を実行する。したがって、画像の残りは、著しい減算アーティファクトを有することがある。しかし、いくつかの介入では、ROIを表さない画像部分内のアーティファクトは、それらの画像部分内の情報はほとんど重要でないため、問題ないと考えられる。より具体的には、画像プロセッサIPSは、考慮される目標物が受ける1つ又は複数の運動層内の動きを補償するように動作する。「運動層」とは、いくつかの画像物体が異なるフレームにわたって動いているように見えるが、たとえば背景の画像物体などの他の画像物体は動いていない、又は異なる形で動いているように見える、投影画像内の現象を指す。したがって、これらの物体は、異なる運動層内に位置すると言うことができる。本発明の方法は、関心領域内で複数の目標物を取り扱うことが可能であるが、これらは、それぞれ専用の動き補償された差分画像DFIを作成するために、別個に処理される。 Simply put, the proposed image processor system acts as a contrast enhancer to increase the image contrast only in the portion of the image that represents the ROI. The image processor IPS proposed herein acts essentially as a locally motion-compensating DSA module. The present invention proposes an optimized subtraction that focuses only on the ROI around a unique target in the image. The target may also be located outside the ROI as long as there is a known deterministic relationship between the movement of the target and the ROI. The target is an external object, such as the tip of a catheter OB, or any other pre-introduced / implanted device such as a heart valve, or the partially embolized tissue or the embolus itself. It may be. A dedicated algorithm can process the image and track the target within a later image. The more structural the features the target provides, the easier and more robust it is to detect across frames. The IPS then performs a subtraction that accurately moves and compensates only for the local area of interest (generally, not always the area around the target). Therefore, the rest of the image may have significant subtraction artifacts. However, with some interventions, artifacts in image parts that do not represent ROI are considered okay because the information in those image parts is of little importance. More specifically, the image processor IPS operates to compensate for the movement within one or more layers of motion that the object being considered receives. A "moving layer" is one in which some image objects appear to move over different frames, while other image objects, such as background image objects, appear to be stationary or moving in different ways. , Refers to the phenomenon in the projected image. Therefore, it can be said that these objects are located in different moving layers. The methods of the invention can handle multiple targets within the region of interest, but they are processed separately to create their own motion-compensated differential image DFI.

画像プロセッサIPSの動作について、それぞれ異なる実施形態を示す図2及び図3の流れ図を参照して、以下でより詳細に次に説明する。 The operation of the image processor IPS will be described in more detail below with reference to the flow charts of FIGS. 2 and 3 showing different embodiments.

図2の流れ図をまず参照すると、図2では、考慮される目標物OBの単一の動きに対する動き補償式DSAのための画像処理システムIPSの動作について説明する。たとえば、これは一切限定的ではなく、例示のみを目的とするが、第1の動きは、心臓活動によって誘起されたものであり、第2の動きは、呼吸活動によって誘起又は駆動されたものであり、本明細書に仮定する呼吸停止プロトコルを使用することによって抑制される。下の図3では、組み合わせた動きを取り扱うことが可能な異なる実施形態について説明する。この場合も、心臓又は呼吸以外の動き、特に周期的でない動きが、展開によって本明細書内で考慮され、本明細書に具体的に想定される。 With reference to the flow chart of FIG. 2, FIG. 2 describes the operation of the image processing system IPS for the motion compensation DSA for a single motion of the target OB to be considered. For example, this is by no means limited and is for illustration purposes only, but the first movement is induced by cardiac activity and the second movement is induced or driven by respiratory activity. Yes, it is suppressed by using the respiratory arrest protocol assumed herein. FIG. 3 below describes different embodiments that can handle combined movements. Again, movements other than heart or respiration, especially non-periodic movements, are considered herein by development and are specifically envisioned herein.

ステップS210で、マスク画像フレームMI及び造影画像フレーム(血管造影フレーム)AGが、蛍光透視画像の流れFから取り出される。これは、たとえば蛍光透視の流れの各フレーム内の個々のピクセルにおけるグレーレベル強度を監視する閾値処理方式を使用することによって実現することができる。次いで、たとえば、現在受け取った蛍光透視フレームが血管造影図AGであるかどうかを判断することができる。 In step S210, the mask image frame MI and the contrast image frame (angiography frame) AG are taken out from the flow F of the fluoroscopic image. This can be achieved, for example, by using a thresholding method that monitors the gray level intensity at individual pixels within each frame of the fluoroscopic flow. Then, for example, it can be determined whether the currently received fluoroscopic frame is an angiographic view AG.

ステップS220及びS230で、これらの2つ以上の画像フレームAG、MI上で、動き分析が実行される。より具体的には、ステップS220で、2つの画像MI及びAG内で、導入された物体OBの目標物(たとえば、フットプリント又は画像の影)が検出又は識別される。適した目標物の例には、カテーテルの先端部(たとえば、そこを通って塞栓が投与される)、現在関心領域に堆積している塞栓自体の形状及び吸収署名、又は移植されたデバイス、たとえば心臓外科の適用分野に対する心臓弁の形状署名が挙げられる。しかし、肋骨、石灰沈着物、又は他の特定可能な臓器などの自然のままの物体も、適した目標物と見なされる。また、目標物は必ずしも関心領域内に位置しているとは限らないが、場合によってこれが当てはまることに留意されたい。必要とされることは、関心領域の動きと観察される目標物の動きとの間に、先験的に知られた決定的関係が存在することだけである。言い換えれば、いくつかの実施形態では、目標物の動きは、ROIの動きに対する代理と見なされる。目標物の動きが検出された後、それによって、この知られた動的関係によって、関心領域の関連する動きを計算することができる。目標物識別ステップ220は、本質的に、2つの画像MI及びAGにわたる追尾動作である。1つの画像につき複数の目標物が識別された場合、各目標物が別個に追尾又は「追跡」される。2つの画像にわたって目標物が識別された後、流れ制御はステップS230へ進み、2つの画像にわたって識別された目標物から、それぞれの物体OBの動きが推定される。 In steps S220 and S230, motion analysis is performed on these two or more image frames AG, MI. More specifically, in step S220, the target (eg, footprint or shadow of the image) of the introduced object OB is detected or identified within the two image MIs and AGs. Examples of suitable targets are the tip of the catheter (eg, through which the embolus is administered), the shape and absorption signature of the embolus itself currently deposited in the area of interest, or the implanted device, eg. The shape signature of the heart valve for the application of cardiac surgery can be mentioned. However, pristine objects such as ribs, calcifications, or other identifiable organs are also considered suitable targets. Also note that the target is not always within the area of interest, but in some cases this is the case. All that is needed is that there is an a priori known deterministic relationship between the movement of the area of interest and the movement of the observed target. In other words, in some embodiments, the movement of the target is considered a surrogate for the movement of the ROI. After the movement of the target is detected, this known dynamic relationship allows the associated movement of the region of interest to be calculated. The target identification step 220 is essentially a tracking operation across the two images MI and AG. If multiple targets are identified per image, each target is tracked or "tracked" separately. After the target is identified across the two images, flow control proceeds to step S230, from which the movement of each object OB is estimated from the targets identified across the two images.

次いで、流れ制御はステップS240へ進み、本質的に、推定された動きに関する位置合わせが実行される。より具体的には、提案する位置合わせは、考慮される関心領域及び/又は目標物の動きのみに関する。一実施形態によれば、画像の他の動き又は他の部分は考慮されない。これにより、提案する画像プロセッサIPSに特徴的なROIに集中する動き補償が可能になる。ステップS240のROI集中動き補償方式は、2つの画像MI、AGにわたって2つの目標物を互いに位置合わせすることを可能にする反りなどの剛性又は非剛性の位置合わせ方式を含む。次いで、本質的に2つの画像の位置合わせを行い、それによって目標物の動きによる考慮される運動層内の動きを補償するために、考慮される画像MI、AGの1つが修正、たとえばシフト又は他の方法で変形される。一実施形態では、1つのROIに対する複数の目標物は、非剛性の位置合わせを取得すると見なされる。非剛性の場合、所与のマスク画像及び造影画像ペアの互いに対するモーフィングを実際上試行するように、変形(局所的な動き記述子)を構築することができる。しかし、いくつかの剛性の位置合わせの実施形態では、動き記述子は、単一のシフト/変換ベクトル又は簡単な回転と同程度に簡単である。 Flow control then proceeds to step S240, where essentially alignment with respect to the estimated motion is performed. More specifically, the proposed alignment relates only to the area of interest and / or the movement of the target to be considered. According to one embodiment, other movements or other parts of the image are not considered. This enables motion compensation that concentrates on the ROI that is characteristic of the proposed image processor IPS. The ROI concentrated motion compensation scheme of step S240 includes a rigid or non-rigid alignment scheme such as warpage that allows two targets to be aligned with each other over the two image MIs, AGs. Then, in order to essentially align the two images and thereby compensate for the considered movement within the motion layer due to the movement of the target, one of the considered images MI, AG is modified, eg, shifted or It is transformed in other ways. In one embodiment, multiple targets for one ROI are considered to acquire non-rigid alignment. In the case of non-rigidity, deformations (local motion descriptors) can be constructed to effectively attempt morphing of a given mask image and contrast image pair against each other. However, in some stiffness alignment embodiments, the motion descriptor is as simple as a single shift / transformation vector or simple rotation.

代替実施形態では、S240の位置合わせステップは、記録された目標物の動き位相(又は動きが周期的でない場合、目標物の位置)が、現在の造影画像AGによる目標物の動き位相に対応するように、複数の以前に受け取ったマスク画像から対象を定めてマスク画像を選択する選択ステップを含む。たとえば、考慮される関心領域におけるコントラストボーラスの到達前に、1組のマスク画像フレームを獲得することができる。それによって、マスク画像の「備蓄」が獲得され、各マスク画像は、異なる心臓位相で目標物を捕捉する。これらのマスク画像は、心臓周期全体にわたって記録される。次いで、位置合わせステップで、後に獲得した造影画像における目標物の位置/構成を、以前に記録したマスク画像の備蓄内のそれぞれの目標物の位置と比較して、造影画像AGによる現在の目標物の位置に最もよく対応する1つを取り出す。たとえば、この選択は、現在の造影画像をバッファリングされたマスクMIのそれぞれに重ね合わせて、目標物間の最大の重複が生じる場所を確立することによって実現される。たとえば、移植された心臓弁のフットプリントのそれぞれの位置が、この心臓のコンテキストにおいて使用される。しかしこれはまた、ボーラスが硬化する際にかなりゆっくりと形状を変化させることが知られているため、塞栓形成の例でも役立ち、したがって、補償したいと考える関心のある心臓若しくは呼吸又は何らかの他の動きの追尾が、十分に高いフレーム率によって可能になる。 In an alternative embodiment, in the alignment step of S240, the recorded motion phase of the target (or the position of the target if the motion is not periodic) corresponds to the motion phase of the target by the current contrast image AG. As such, it comprises a selection step of targeting and selecting a mask image from a plurality of previously received mask images. For example, a set of mask image frames can be acquired before the arrival of the contrast bolus in the region of interest to be considered. Thereby, a "stockpile" of mask images is acquired, and each mask image captures the target in a different cardiac phase. These mask images are recorded throughout the cardiac cycle. Then, in the alignment step, the position / configuration of the target in the later acquired contrast image is compared with the position of each target in the previously recorded stockpile of mask images to the current target by contrast image AG. Take out the one that best corresponds to the position of. For example, this selection is achieved by overlaying the current contrast image on each of the buffered masks MI to establish where the greatest overlap between targets occurs. For example, each position of the implanted heart valve footprint is used in the context of this heart. However, this is also useful in the case of embolus formation, as it is known to change shape fairly slowly as the bolus hardens, and therefore the heart or breathing or any other movement of interest that one wants to compensate for. Tracking is possible with a sufficiently high frame rate.

言い換えれば、一実施形態では、蛍光透視の流れFから、最新の(すなわち、最近の)マスク画像を取り出すことができ、次いで、このマスク画像は、検出された目標物の動きに基づく変形によって、現在の造影画像上へ位置合わせされる。位置合わせが選択によって行われる他の実施形態では、マスク画像は、捕捉された目標物の位置が現在の造影画像の目標物の位置と本質的に同じになるように選択されるため、選択されるマスク画像は、必ずしも最新のマスク画像でなくてもよく、流れFからのより古いフレームであってもよい。したがって、最もよく合うマスクを見つけるために、数フレーム戻らなくてはならない。しかし、そのように選択されたときでも、2つの画像による目標物の何らかの動きの残留不整合が残っていることがあり、これは、任意選択のステップS245で、適したピクセルシフトアルゴリズムによって補正することができる。しかし、一実施形態では、そのような任意選択のステップが存在しておらず、位置合わせは、以前に記録されたマスク画像から、「適切な画像」、すなわち目標物の位置に関して現在の造影画像による目標物の位置に最もよく対応する画像を選択することによって実現される位置合わせのみに依拠する。任意選択のステップS245は、ピクセルシフトの代わりに、又はピクセルシフトに加えて、目標物の部分をフィルタリングするフィルタ動作を含む。たとえば、差分画像DFI内のアーティファクトをさらに未然に防ぐために、少なくともマスク画像内の目標物のフットプリントを完全に平滑化又は除去することができる。本明細書では、2つの画像内に記録された目標物の動き位相の対応関係を確保するための選択ステップが、完全に画像情報に関して行われることが理解されよう。言い換えれば、本明細書では、ECGなどの外部の機器を用いる必要のあるゲーティング技術を完全になくすことができる。しかし、だからといって、提案する方法をゲーティング信号とともに使用することができないというわけではなく、そのような組合せもまた、本明細書に代替実施形態で想定される。 In other words, in one embodiment, the latest (ie, recent) mask image can be retrieved from the fluoroscopy flow F, which is then obtained by deformation based on the detected movement of the target. It is aligned on the current contrast image. In other embodiments where the alignment is performed by selection, the mask image is selected because the position of the captured target is selected so that it is essentially the same as the position of the target in the current contrast image. The mask image does not necessarily have to be the latest mask image and may be an older frame from the flow F. Therefore, you have to go back a few frames to find the best mask. However, even when so selected, there may still be residual inconsistencies in some movement of the target by the two images, which will be corrected by a suitable pixel shift algorithm in step S245 of arbitrary selection. be able to. However, in one embodiment, there is no such optional step and the alignment is from a previously recorded mask image to the "appropriate image", i.e. the current contrast image with respect to the position of the target. Relies only on the alignment achieved by selecting the image that best corresponds to the position of the target by. Optional step S245 includes, instead of, or in addition to, pixel shifting, a filtering operation that filters a portion of the target. For example, at least the footprint of the target in the mask image can be completely smoothed or removed to further prevent artifacts in the differential image DFI. It will be appreciated that in the present specification, the selection step for ensuring the correspondence of the motion phases of the targets recorded in the two images is performed entirely on the image information. In other words, the present specification can completely eliminate the gating technique that requires the use of an external device such as an ECG. However, that does not mean that the proposed method cannot be used with gating signals, and such combinations are also envisioned herein in alternative embodiments.

次いで、ステップS240でそのように位置合わせされた2つの画像は、ステップS250へ送られ、マスク画像MIから現在の造影画像を減算して、差分画像DF1を取得する。 Then, the two images so aligned in step S240 are sent to step S250, and the current contrast image is subtracted from the mask image MI to acquire the difference image DF1.

次いで、ステップS260で、差分画像は出力され、ステップS270で行われる表示などのさらなる処理に利用可能になる。様々な表示モードについては、図4を参照して以下でより詳細に説明する。 Then, in step S260, the difference image is output and can be used for further processing such as display performed in step S270. The various display modes will be described in more detail below with reference to FIG.

図3の流れ図を次に参照すると、図3は、図2のものに類似のDSAアルゴリズムを示すが、図3の実施形態は、関心領域/目標物に作用する様々な動き又は周期の組合せから生じる動きを取り扱うように適合されている。これらの組み合わせた動きパターンの補償は、二重減算方式によって実現される。 With reference to the flow diagram of FIG. 3 below, FIG. 3 shows a DSA algorithm similar to that of FIG. 2, but the embodiment of FIG. 3 is from a combination of various movements or cycles acting on the region of interest / target. It is adapted to handle the movements that occur. Compensation for these combined motion patterns is realized by a double subtractive method.

簡単に言うと、図3の実施形態では、ステップS350bで第1の減算を実行して、たとえば呼吸の動きを補償し、また第2の流れにおいて第2の減算ステップS350aを実行して、残留する心臓の動きを除去することを提案する。 Simply put, in the embodiment of FIG. 3, the first subtraction is performed in step S350b to compensate for, for example, respiratory movements, and the second subtraction step S350a is performed in the second flow to remain. It is suggested to eliminate the movement of the heart.

より具体的には、図2の方法と同様に、ステップS210で、マスク画像MI及び造影画像AGが受け取られる。上記と同様に、ステップS220及びS230で、動き分析が実行され、ステップS320及びステップS330は、上記のステップS220、S230に対応する。 More specifically, as in the method of FIG. 2, in step S210, the mask image MI and the contrast image AG are received. Similarly to the above, the motion analysis is executed in steps S220 and S230, and steps S320 and S330 correspond to the above steps S220 and S230.

分析された動きに基づいて、ステップS340Bで、上記のステップS240と同様に、選択又は検索動作として、2つの画像が互いに位置合わせされ、受け取られるマスク画像は、複数の以前に記憶(たとえば、バッファリング)されたマスク画像からそのように選択された画像である。しかし、上記の図2の位置合わせステップS240とは異なり、ステップS340bで、選択はここでは、呼吸の動きのみに集中する。これは、動き分析ステップS320、S330で、肋骨などの呼吸の動きによってより顕著に影響される目標物を追跡することによって行うことができる。これらの目標物の場合、心臓の動き成分は無視できるほどである。別法として、時間的分析を実施して、一意の周波数署名を介して2つの動きの周期をそのように識別することもできる。 Based on the analyzed movement, in step S340B, as in step S240 above, as a selection or search operation, the two images are aligned with each other and the received mask image is stored in multiple previously stored (eg, buffered). It is an image so selected from the ringed mask image. However, unlike the alignment step S240 of FIG. 2 above, in step S340b, the selection is here focused only on the respiratory movements. This can be done in motion analysis steps S320, S330 by tracking targets that are more significantly affected by respiratory movements such as ribs. For these targets, the motion components of the heart are negligible. Alternatively, a temporal analysis can be performed to thus identify the two motion cycles via a unique frequency signature.

位置合わせが選択によって試行された場合に残留する動きを除去するための任意選択のフィルタリングステップS345B後、ステップS350Bで、第1の差分画像DF1が形成される。 After the optional filtering step S345B for removing residual motion when alignment is attempted by selection, step S350B forms the first difference image DF1.

これらのステップと並行して、又はこれらのステップに続いて、ステップS340Aで、類似の呼吸位相で目標物をそれぞれ記録する2つの他のマスク画像MI2、MI3が、そのように選択されるが、この動きに加えて、第2の動き周期(特に、心臓の活動)から生じる動きも同様に考慮される。より具体的には、2つのマスク画像基準MI2及びMI3は、ステップS340bで、それらの心臓位相差が、他の2つの画像間の心臓位相差、すなわち現在の造影画像AG及びマスク画像MI1内の位相差(もしあれば)に類似するように選択される。 In parallel with or following these steps, in step S340A, two other mask images MI2, MI3, each recording a target in a similar respiratory phase, are so selected, but In addition to this movement, the movement resulting from the second movement cycle (particularly the activity of the heart) is also considered. More specifically, in step S340b, the two mask image reference MI2 and MI3 have their cardiac phase difference in the cardiac phase difference between the other two images, that is, in the current contrast image AG and the mask image MI1. Selected to resemble the phase difference (if any).

段階S345Bと同様にやはり任意選択のステップS345Aで、図2で前述したように、フィルタ及び/又は残留動き補正が適用される。 As in step S345B, also in optional step S345A, as described above in FIG. 2, the filter and / or residual motion correction is applied.

次いで、ステップS350Aで、2つのマスク基準フレームMI3及びMI2間の第2の差分画像DF2を形成して、第2の差分DF2に到達する。 Next, in step S350A, a second difference image DF2 between the two mask reference frames MI3 and MI2 is formed to reach the second difference DF2.

ステップS360で、2つの差分画像は、たとえば2つの差分画像内の目標物の位置、たとえば移植されたデバイス、たとえば心臓弁の位置を使用することによって、互いに位置合わせされる。次いで、ステップS370で、2つの動き補償/位置合わせされた差分画像DF1、DF2を互いから減算して、「差分の差」又はカスケード差分画像DDFを形成し、ステップS380で、カスケード差分画像DDFは出力され、ステップS390のさらなる画像処理又は表示に利用可能になる。これについては、図4でさらに後述する。 In step S360, the two differential images are aligned with each other, eg, by using the position of the target within the two differential images, eg, the position of the implanted device, eg, the heart valve. Then, in step S370, the two motion-compensated / aligned difference images DF1 and DF2 are subtracted from each other to form a "difference difference" or cascade difference image DDF, and in step S380, the cascade difference image DDF It is output and can be used for further image processing or display in step S390. This will be further described later in FIG.

図2、図3のステップについて、場合によっては周期的な動きを参照して説明したが、これは一実施形態のみによるものであり、提案する方法を周期的でない動きに適用することも、本明細書に同様に想定されることを理解されたい。 Although the steps of FIGS. 2 and 3 have been described with reference to periodic movements in some cases, this is only according to one embodiment, and the proposed method can also be applied to non-periodic movements. It should be understood that the specification also assumes.

図3の実施形態について、2つの動きから形成される(すなわち、それぞれのドライバによって引き起こされる)動きパターンに関して説明したが、これは、図3の実施形態を繰り返し適用することによって、3つ以上の動きに展開することもできる。すなわち、2つの動きから開始し、記載の通り続行する。次いで、たとえば第3の動き成分に注意するために、ステップS340Aで第4及び第5のマスク画像を選択し、それに応じて続行する。 The embodiment of FIG. 3 has been described with respect to a motion pattern formed from two motions (ie, caused by each driver), which can be achieved by repeatedly applying the embodiment of FIG. 3 to three or more. It can also be expanded into movements. That is, it starts with two movements and continues as described. Then, for example, in order to pay attention to the third motion component, the fourth and fifth mask images are selected in step S340A, and the process is continued accordingly.

図3、図4の方法について、1つの目標物及び1つのROIを参照して説明したが、これは、この場合も、複数の目標物を取り扱うように展開することができ、画像は、それぞれの目標物の動きに関して別個に単独で処理される。 The methods of FIGS. 3 and 4 have been described with reference to one target and one ROI, which can also be developed to handle multiple targets, and the images are respectively. The movement of the target is processed separately and independently.

任意選択で、図2又は図3による上記の方法はまた、考慮される関心領域の下位部分における視認性/コントラストをさらに増強させるために、関心領域の3Dセグメント化に基づく追加のマスキングステップを含むこともできる。たとえば、左心室における逆流の評価に関する例示的な実施形態では、左心室の外側に位置するすべてのものがマスキングされるように、3Dセグメント化に基づいて弁の位置を位置合わせすることによって、このさらなるマスキングを実現することができる。明らかに、この二重マスキングはまた、心臓外科以外の適用分野にも適用することができる。 Optionally, the above method according to FIG. 2 or 3 also includes an additional masking step based on 3D segmentation of the region of interest to further enhance visibility / contrast in the lower portion of the region of interest considered. You can also do it. For example, in an exemplary embodiment of the assessment of reflux in the left ventricle, this is done by aligning the valve based on 3D segmentation so that everything outside the left ventricle is masked. Further masking can be realized. Obviously, this double masking can also be applied in applications other than cardiac surgery.

図4を次に参照すると、図4は、1つ又は複数の差分画像に対する様々な表示モードを示す。いくつかの実施形態によれば、差分画像全体がモニタM上に表示される。図4に示す1つの特定の有利な実施形態では、差分画像のうち、真の下位部分又は「クリッピング」のみが、画面上の専用の表示域410AB内に表示されるとともに、現在の蛍光透視フレームが、405内に表示される。言い換えれば、ROI専用の表示域内に、差分画像のROI部分のみが表示されている。 With reference to FIG. 4, FIG. 4 shows various display modes for one or more differential images. According to some embodiments, the entire difference image is displayed on the monitor M. In one particular advantageous embodiment shown in FIG. 4, only the true subordinate portion or "clipping" of the difference image is displayed within the dedicated display area 410AB on the screen and the current fluorescence fluoroscopy frame. Is displayed within 405. In other words, only the ROI portion of the difference image is displayed in the display area dedicated to ROI.

関心領域自体は、現在のフレーム405に重ねられた415a、bに対するそれぞれのグラフィカルオーバーレイが、各ROIに対するそれぞれの画像部分の輪郭を描くことによって示されている。現在のフレーム405は、マスク画像若しくは現在の造影画像AGであり、又はこれは、動き補償のない従来のDSAである。後者の場合、大きい表示域405で広域のDSA表示を与え、1つ又は複数のより小さい表示域410a、bで、それぞれの局所的なROI集中動き補償式DSA表示を与えることを考えることができる。言い換えれば、各表示域内で、それぞれの差分画像DFの一区間が表示され、その区間は、グラフィカルオーバーレイ415a又は415bを表すそれぞれのROIの位置及びサイズによって画定される。 The region of interest itself is indicated by the respective graphical overlays on 415a, b overlaid on the current frame 405, contouring the respective image portion for each ROI. The current frame 405 is a mask image or a current contrast image AG, or this is a conventional DSA without motion compensation. In the latter case, it can be considered that a large display area 405 provides a wide DSA display and one or more smaller display areas 410a, b each provide a local ROI concentrated motion compensation DSA display. .. In other words, within each display area, one section of each difference image DF is displayed, which section is defined by the position and size of each ROI representing the graphical overlay 415a or 415b.

図4Aに示すように、異なる局所的ROIに対するオーバーレイ415a、bによって輪郭が描かれた2つの画像部分は重複する。グラフィカルオーバーレイ415a、bによって表されるそれぞれの個別ROIに対する差分画像は、それぞれの目標物によるそれ自体のそれぞれの動きのみを考慮して、各ROIに対して、別個に、動きに関する限り単独で計算される。理解されるように、オーバーレイ415a、bによって表される各ROIに対して、それぞれのROIの動きを捕捉するために、異なる目標物が使用されている。たとえば、ROIオーバーレイ415aの場合、目標物は、ステントのフットプリントであり、ROIオーバーレイ415bの場合、該当する目標物は、カテーテルの先端部のフットプリントである。 As shown in FIG. 4A, the two image portions contoured by overlays 415a, b for different local ROIs overlap. The differential images for each individual ROI represented by the graphical overlays 415a, b are calculated separately for each ROI, as far as the movement is concerned, taking into account only their own movements by each target. Will be done. As will be appreciated, for each ROI represented by overlays 415a, b, different targets are used to capture the movement of each ROI. For example, in the case of ROI overlay 415a, the target is the footprint of the stent, and in the case of ROI overlay 415b, the target is the footprint of the tip of the catheter.

一実施形態では、局所的に動き補償されたROI画像が、それぞれの表示域410AB内に拡大された形で表示される。 In one embodiment, the locally motion-compensated ROI image is displayed in an enlarged form within each display area 410AB.

他の実施形態では、関心領域のみを示し、したがって現在下にあるフレーム405を示さないことが有利である。 In other embodiments, it is advantageous to show only the region of interest and therefore not the frame 405 currently underneath.

一実施形態では、CT、MRI、又は他の3D画像などの追加の補助画像源を使用して、3Dの目標物の選択を支援することができる。次いで、画像源は、投影画像MI、AG上へ位置合わせされ、次いで、3D目標物が投影画像上へ投影され、したがって3D目標物のフットプリントを画定し、それによって前述した動き補償動作を可能にする。しかし、補助画像は必ずしも3Dでなくてもよく、すべての実施形態において、たとえば目標物の選択を支援するための2D補助画像も想定される。このようにして補助画像が使用されるそのような例では、補助画像からの該当する画像情報が、それぞれの専用のDSA表示域410a、b内に表示された差分画像の下位区間上へ、グラフィックオーバーレイとして重ねられる。加えて、又は代わりに、補助画像は、現在の概要フレーム405内のそれぞれのROI位置にオーバーレイとして表示してもよい。 In one embodiment, additional auxiliary image sources such as CT, MRI, or other 3D images can be used to assist in the selection of 3D targets. The image source is then aligned onto the projected image MI, AG, and then the 3D target is projected onto the projected image, thus defining the footprint of the 3D target, thereby allowing the motion compensation operation described above. To. However, the auxiliary image does not necessarily have to be 3D, and in all embodiments, for example, a 2D auxiliary image to assist in the selection of a target is also envisioned. In such an example in which the auxiliary image is used in this way, the corresponding image information from the auxiliary image is graphically placed on the lower section of the difference image displayed in the respective dedicated DSA display areas 410a and b. Overlaid as an overlay. In addition, or instead, the auxiliary image may be displayed as an overlay at each ROI position within the current overview frame 405.

図4に関して前述した表示モードを、上述した図3及び図2による方法のいずれにも使用することができる。言い換えれば、表示域410a、bは、図2による差分画像又は図3による二重差分画像の一区間を示す。図4は2つの局所的な表示域を示すが、上述した表示モードは、単一の局所的な表示域を含む任意の数の表示域に使用することができることが理解されるであろう。 The display mode described above with respect to FIG. 4 can be used for any of the methods according to FIGS. 3 and 2 described above. In other words, the display areas 410a and 410b indicate a section of the difference image according to FIG. 2 or the double difference image according to FIG. Although FIG. 4 shows two local display areas, it will be appreciated that the display modes described above can be used for any number of display areas, including a single local display area.

ユーザ対話の支援の点から、提案するシステムはまた、適した目標物を自動的に検出する機能を含み、次いで、ユーザは、これらの目標物から選ぶことができる。このようにして、すべての画像にわたって目標物を見ることができ、したがって外部の画像を用いる必要のないことが確実になる。加えて、又は代替として、ユーザは、3DのCT画像ボリューム内などの補助画像内で、所望の目標物を選択すること及び/又はROIオーバーレイの輪郭を描くことが可能であり、次いで、これらは、投影撮像器100によって使用される投影方向に基づいて、投影画像MI、AG上へマッピングされる。 In terms of assisting user interaction, the proposed system also includes the ability to automatically detect suitable targets, which the user can then choose from. In this way, the target can be seen across all images, thus ensuring that no external image needs to be used. In addition, or as an alternative, the user can select the desired target and / or outline the ROI overlay within an auxiliary image, such as within a 3D CT image volume, and then these , Mapped onto projected images MI, AG, based on the projection direction used by the projection imager 100.

一実施形態では、図2又は図3の方法が複数の目標物に適用された場合、ユーザがそこから選ぶために表示される目標物は、最も小さい全体的な位置合わせ誤差を与えるように、システムによって選択される。言い換えれば、目標物が自動的に提案されるこの実施形態では、システムは、所与の造影画像及びマスク画像ペアに対するそれぞれの位置合わせ誤差をバックグラウンドで事前に計算する。より具体的には、独立した動き補償に対する目標物の数(特定の範囲内であり、この数が増大すると特定のペナルティを伴う)、位置、及びサイズの選択は、総位置合わせ誤差が最小になるように自動的に実現される。この総位置合わせ誤差は、ステップ220及び240でそれぞれのROI推定において確立されるそれぞれの個々のベクトル場を使用することによって定量化することができる。一実施形態では、この誤差の量子化は、最適を発見する前に高密度の局所的な動き推定技法(オプティカルフロー又はブロックマッチングアルゴリズムなど)の誤差マップをクラスタ化することによって実現される。しかし、共通の位置合わせが考慮されるこの実施形態でも、それぞれのROIに対する実際の動き補償はなお、そのROIに関連する目標物に対するそれぞれの動きのみを考慮するように制限されることを理解されたい。言い換えれば、各DSA動作に対する動き補償は、互いに別個に単独で実行され、したがって各差分画像は、1つの特有のROI/目標物の動きのみに対して最適化される。 In one embodiment, when the method of FIG. 2 or 3 is applied to a plurality of targets, the target displayed for the user to choose from has the smallest overall alignment error. Selected by the system. In other words, in this embodiment where the target is automatically proposed, the system pre-calculates the respective alignment errors for a given contrast image and mask image pair in the background. More specifically, the selection of the number of targets for independent motion compensation (within a certain range and with a certain penalty when this number increases), position, and size selection should minimize the total alignment error. Is automatically realized. This total alignment error can be quantified by using the respective individual vector fields established in the respective ROI estimates in steps 220 and 240. In one embodiment, this error quantization is achieved by clustering the error maps of a high density local motion estimation technique (such as an optical flow or block matching algorithm) before finding the optimum. However, it is understood that even in this embodiment where common alignment is considered, the actual motion compensation for each ROI is still limited to consider only each motion for the target associated with that ROI. I want to. In other words, motion compensation for each DSA motion is performed independently of each other and thus each differential image is optimized for only one unique ROI / target motion.

さらに、ユーザ対話の点から、提案する方法は、ドラッグアンドドロップ方式を含み、ユーザは、マウスクリック又はタッチスクリーン操作によって、それぞれのROI及び/又は目標物を選択し、次いで、それをスワイプタッチスクリーン操作又はマウスクリックアンドドラッグ動作で画面を横切ってそれぞれの表示域上へドラッグする。次いで、そのように指定された目標物は、目標物送出入力ポートLD−INを通ってIPS内へ送られる。次いで、このユーザ対話は、上記の図2及び図3による計算をトリガする。別の実施形態では、IPSは完全に自動であり、すなわち、目標物は、いかなるユーザ入力もなしで、図2、図3によって自動的に識別及び選択及び処理される。代替として、手動の実施形態も想定され、自動的に選択されるROI/目標物はユーザに提案されず、ユーザはなんでも自由に入力することができる。 Further, in terms of user interaction, the proposed method includes a drag-and-drop method in which the user selects each ROI and / or target by mouse click or touch screen operation and then swipes it on the touch screen. Drag across the screen to each display area by operation or mouse click and drag operation. The target so designated is then sent into the IPS through the target transmit input port LD-IN. This user interaction then triggers the calculations according to FIGS. 2 and 3 above. In another embodiment, the IPS is fully automatic, i.e., the target is automatically identified, selected and processed by FIGS. 2 and 3 without any user input. As an alternative, a manual embodiment is also envisioned, where the automatically selected ROI / target is not proposed to the user and the user is free to enter anything.

一実施形態では、ユーザは、図4に示す円若しくは正方形の点からたとえば適した近傍を描くことによって、又は任意の他の適した幾何形状を描くことによって、関心領域自体を別個に選択することができる。これにより、ROIのサイズ又は「到達距離」が、画像近傍として画定される。場合によっては、輪郭が描かれたROIの内側に目標物が位置する場合、目標物もともに自動的に画定される。目標物がROIの外側に位置する場合、この目標物は、それぞれのROIに対する動き補償式DSA動作を実現するためにその動きを使用すべきそれぞれの目標物を、各ROIと関連付けるために、別個の動作を可能にすることによって、ROIと論理的にリンクさせることができる。たとえば、ROI及び目標物を別個に画定するが、ユーザ対話ステップにおいて事前定義された同期性によって対で画定するために、ダブルクリック方式が使用される。たとえば、ユーザはまず、たとえばROIを画定する正方形を描くことによって、ROIを画定する。次いで、ユーザは、ROIの外側の位置上でクリックし、システムは、代理の動き推定の目的で、この第2の位置を、ちょうど輪郭が描かれたROIと関連付けるべき目標物として解釈する。このROIと目標物との関連付け特徴は、適したカウンタ及びイベントハンドラ方式によって実施することができる。 In one embodiment, the user separately selects the region of interest itself, eg, by drawing a suitable neighborhood from the points of the circle or square shown in FIG. 4, or by drawing any other suitable geometry. Can be done. This defines the size or "reach distance" of the ROI as the image neighborhood. In some cases, if the target is located inside the contoured ROI, the target is also automatically defined. If the target is located outside the ROI, this target is separate to associate each ROI with each target that should use that movement to achieve motion-compensated DSA operation for each ROI. By enabling the operation of, it can be logically linked to the ROI. For example, a double-click method is used to define the ROI and the target separately, but in pairs with predefined synchrony in the user interaction step. For example, the user first defines the ROI, for example by drawing a square that defines the ROI. The user then clicks on a position outside the ROI and the system interprets this second position as a target to be associated with just the contoured ROI for the purpose of surrogate motion estimation. This association feature between the ROI and the target can be implemented by a suitable counter and event handler scheme.

図2及び図3の上述した動作並びに図4の表示動作は、リアルタイムで実行することができ、すなわち蛍光透視の流れの中の画像フレームがそれぞれのポートINで受け取られる間に実行することができることが理解されよう。しかし、オフラインモードも想定され、図2又は図3によるそれぞれの補償動作は、以前に獲得した画像で実行することができ、又はレビューモードで行うことができる。上記の方法について、大動脈弁逆流の評価又は塞栓形成処置などの心臓への介入の点から特有の例で説明したが、本出願は、デジタルサブトラクション動作が求められる任意の介入処置でうまく使用することができることを理解されたい。また、本出願は、介入的な外科処置を支援することだけに制限されない。本明細書では、地質学又はレーダ画像の調査など、他の分野の他の画像に依拠する適用分野も想定される。 The above-mentioned operations of FIGS. 2 and 3 and the display operation of FIG. 4 can be performed in real time, that is, while the image frame in the fluoroscopic flow is received at each port IN. Will be understood. However, an offline mode is also envisioned, and each compensation operation according to FIG. 2 or 3 can be performed on previously acquired images, or can be performed in review mode. Although the above method has been described with specific examples in terms of cardiac interventions such as aortic regurgitation assessment or embolization procedures, the present application should be successfully used in any intervention procedure requiring digital subtraction movement. Please understand that you can. Also, the application is not limited to supporting interventional surgical procedures. Also envisioned herein are applications that rely on other images in other areas, such as geology or radar image research.

図5を参照すると、これは、上述した方法による例示的な画像出力を、従来の手法と比較して示す。これらの画像は、導入後の人工心臓弁のそれぞれのフットプリント/放射の影を示す。ペインAは、従来の血管造影図を示し、ペインBは、最新の利用可能なマスクフレームを使用する血管造影図の従来の減算を示し、ペインCは、人工心臓弁を目標物として使用する図2の方法による結果を示す。特に大動脈弁付近では、アーティファクトがより少ない。このとき、心室(移植された弁の下に見える)内の逆流を、より容易に評価することができる。 With reference to FIG. 5, this shows an exemplary image output by the method described above in comparison to a conventional method. These images show the shadow of each footprint / radiation of the prosthetic heart valve after introduction. Pain A shows a conventional angiographic diagram, Pain B shows a conventional subtraction of an angiographic diagram using the latest available mask frames, and Pain C shows a prosthetic heart valve as a target. The result by the method 2 is shown. There are fewer artifacts, especially near the aortic valve. At this time, regurgitation in the ventricles (visible under the transplanted valve) can be more easily evaluated.

画像処理モジュールIPSは、フルオロ流F内で読み取るために適したインターフェースを有するソフトウェアモジュール又はルーチンとして配置され、汎用の計算ユニット又は専用の計算ユニット上で実行される。たとえば、プロセッサIPSは、撮像システム100のワークステーション又はコンソールCC上で実行される。画像処理モジュールIPSは、その構成要素の一部又は全部とともに、エグゼクティブエージェンシ(汎用コンピュータ、ワークステーション、若しくはコンソールなど)上に存在し、又は分散アーキテクチャ内の適した通信ネットワークを介してエグゼクティブエージェンシによって遠隔/中央でアクセスされる。 The image processing module IPS is arranged as a software module or routine having an interface suitable for reading in the fluoro stream F and is executed on a general purpose computing unit or a dedicated computing unit. For example, the processor IPS runs on the workstation or console CC of the imaging system 100. The image processing module IPS, along with some or all of its components, resides on an executive agency (such as a general purpose computer, workstation, or console) or is remoted by the executive agency via a suitable communication network within a distributed architecture. / Accessed in the center.

別法として、画像処理モジュールIPSの構成要素は、専用のFPGA(フィールドプログラマブルゲートアレイ)又は類似の独立型チップとして配置される。これらの構成要素は、Matlab(登録商標)又はSimulink(登録商標)などの適した科学的計算プラットホーム内でプログラムされ、次いで、ライブラリ内に維持されたC++又はCルーチンに変換され、汎用コンピュータ、ワークステーション、又はコンソールなどのエグゼクティブエージェンシによって求められるとリンクされる。 Alternatively, the components of the image processing module IPS are arranged as a dedicated FPGA (Field Programmable Gate Array) or similar stand-alone chip. These components are programmed within a suitable scientific computing platform such as Matlab® or Simulink® and then converted into C ++ or C routines maintained in the library for general purpose computers, workstations. Linked as required by an executive agency such as a station or console.

本発明の別の例示的な実施形態では、前述の実施形態の1つによる方法の方法ステップを適当なシステム上で実行するように適合されたことを特徴とするコンピュータプログラム又はコンピュータプログラム要素が提供される。 Another exemplary embodiment of the invention provides a computer program or computer program element that is adapted to perform the method steps of the method according to one of the aforementioned embodiments on a suitable system. Will be done.

したがって、コンピュータプログラム要素は、コンピュータユニット上に記憶され、このコンピュータユニットもまた、本発明の一実施形態の一部である。この計算ユニットは、上述した方法のステップを実行し又はその実行を誘起するように適合される。さらに、この計算ユニットは、前述した装置の構成要素を動作するように適合される。計算ユニットは、自動的に動作し且つ/又はユーザの命令を実行するように適合させることができる。コンピュータプログラムが、データプロセッサの作業メモリ内へロードされる。したがって、データプロセッサは、本発明の方法を実施するように装備される。 Therefore, computer program elements are stored on a computer unit, which is also part of an embodiment of the present invention. This computational unit is adapted to perform or induce the steps of the method described above. In addition, this computing unit is adapted to operate the components of the device described above. Computational units can be adapted to operate automatically and / or execute user instructions. The computer program is loaded into the working memory of the data processor. Therefore, the data processor is equipped to implement the methods of the invention.

本発明のこの例示的な実施形態は、最初から本発明を使用するコンピュータプログラムと、更新によって既存のプログラムを本発明を使用するプログラムにするコンピュータプログラムとの両方を包含する。 This exemplary embodiment of the invention includes both a computer program that uses the invention from the beginning and a computer program that updates an existing program into a program that uses the invention.

さらに、コンピュータプログラム要素は、上述した方法の例示的な実施形態の手続きを満たすために必要なすべてのステップを提供することが可能である。 In addition, computer program elements can provide all the steps necessary to meet the procedures of exemplary embodiments of the methods described above.

本発明のさらなる例示的な実施形態によれば、CD−ROMなどのコンピュータ可読媒体が提示され、コンピュータ可読媒体上にコンピュータプログラム要素が記憶され、このコンピュータプログラム要素は、上記で説明したものである。 According to a further exemplary embodiment of the invention, a computer readable medium such as a CD-ROM is presented, the computer program element is stored on the computer readable medium, and the computer program element is as described above. ..

コンピュータプログラムは、他のハードウェアとともに又は他のハードウェアの一部として供給される光記憶媒体又は固体状態媒体などの適した媒体上に記憶及び/又は分散されるが、インターネット又は他の有線若しくは無線の電気通信システムなどを介して、他の形態で分散されてもよい。 Computer programs are stored and / or distributed on suitable media such as optical storage media or solid state media supplied with or as part of other hardware, but on the Internet or other wired or other wired or It may be distributed in other forms via a wireless telecommunication system or the like.

しかし、コンピュータプログラムはまた、ワールドワイドウェブのようなネットワークを介して提示され、そのようなネットワークからデータプロセッサの作業メモリ内へダウンロードすることができる。本発明のさらなる例示的な実施形態によれば、コンピュータプログラム要素をダウンロードに利用可能にする媒体が提供され、このコンピュータプログラム要素は、本発明の前述した実施形態の1つによる方法を実行するように配置される。 However, computer programs are also presented via networks such as the World Wide Web and can be downloaded from such networks into the working memory of the data processor. A further exemplary embodiment of the invention provides a medium that makes a computer program element available for download, such that the computer program element performs a method according to one of the aforementioned embodiments of the present invention. Placed in.

本発明の実施形態について、様々な主題を参照して説明したことに留意されたい。特に、いくつかの実施形態については、方法タイプの請求項を参照して説明し、他の実施形態については、デバイスタイプの請求項を参照して説明した。しかし、上記及び以下の説明から、別段の指示がなければ、1つのタイプの主題に属する特徴の任意の組合せに加えて、異なる主題に関する特徴間の任意の組合せも、本出願により開示されると見なされることが、当業者には理解されよう。しかし、すべての特徴を組み合わせて、特徴の簡単な合計以上の相乗効果を提供することができる。 It should be noted that embodiments of the present invention have been described with reference to various subjects. In particular, some embodiments have been described with reference to method type claims, and other embodiments have been described with reference to device type claims. However, from the above and below description, unless otherwise indicated, any combination of features belonging to one type of subject, as well as any combination of features relating to different subjects, will be disclosed by this application. Those skilled in the art will understand that it is considered. However, all features can be combined to provide more than a simple sum of features.

本発明について、図面及び上記の説明で詳細に図示及び説明したが、そのような図示及び説明は、説明的又は例示的であり、制限的でないと見なされるべきである。本発明は、開示する実施形態に限定されるものではない。開示する実施形態に対する他の変形形態は、請求する本発明を実施する際、図面、本開示、及び従属請求項を読めば、当業者には理解及び実行されよう。 Although the present invention has been illustrated and described in detail in the drawings and the above description, such illustrations and descriptions should be considered descriptive or exemplary and not restrictive. The present invention is not limited to the disclosed embodiments. Other modifications to the disclosed embodiments will be understood and implemented by those skilled in the art by reading the drawings, the present disclosure, and the dependent claims in carrying out the claimed invention.

特許請求の範囲では、「備える、含む(comprising)」という単語は、他の要素又はステップを排除するものではなく、不定冠詞「a」又は「an」は、複数を排除するものではない。単一のプロセッサ又は他のユニットが、特許請求の範囲に記載のいくつかの項目の機能を満たしてもよい。相互に異なる従属請求項に特定の方策が記載されていることだけで、これらの方策の組合せを有利に使用することができないことを示すものではない。特許請求の範囲内のいかなる参照符号も、範囲を限定すると解釈されるべきでない。 In the claims, the word "comprising" does not exclude other elements or steps, and the indefinite article "a" or "an" does not exclude plurals. A single processor or other unit may fulfill the functions of some of the items described in the claims. The fact that specific measures are described in different dependent claims does not indicate that a combination of these measures cannot be used in an advantageous manner. Any reference code within the scope of the claims should not be construed as limiting the scope.

Claims (16)

物体を含む少なくとも一部の試験片の少なくとも1つのマスク画像及び少なくとも1つの造影画像を含む少なくとも2つの投影画像を受け取る入力ポートであって、前記マスク画像及び前記造影画像が異なる獲得時間に獲得され、それぞれ異なるコントラストで関心領域(ROI)を表す、入力ポートと、
前記造影画像及び前記少なくとも1つのマスク画像内で前記物体の少なくとも1つの目標物を識別する目標物識別器と、
前記少なくとも造影画像及び前記少なくとも1つのマスク画像にわたって、識別された前記少なくとも1つの前記目標物の動きによって前記物体の動きを推定する動き推定器であって、前記目標物の動きが前記ROIの動きに関する、動き推定器と、
推定された前記目標物の動きのみに基づいて、前記少なくとも1つのマスク画像を前記少なくとも1つの造影画像と位置合わせする動き補償器と、
前記少なくとも1つの造影画像から位置合わせされた前記少なくとも1つのマスク画像を減算して、前記ROIの差分画像を取得する減算器と、
前記差分画像を出力する出力ポートと
を備える、画像処理システム。
An input port that receives at least one mask image of at least some test pieces containing an object and at least two projected images including at least one contrast image, wherein the mask image and the contrast image are acquired at different acquisition times. , The input port, which represents the region of interest (ROI) with different contrasts,
A target classifier that identifies at least one target of the object in the contrast image and the at least one mask image.
A motion estimator that estimates the movement of an object by the identified movement of the at least one target over the at least contrast image and the at least one mask image, wherein the movement of the target is the movement of the ROI. With regard to motion estimator and
A motion compensator that aligns the at least one mask image with the at least one contrast image based solely on the estimated motion of the target.
A subtractor that obtains a difference image of the ROI by subtracting the aligned at least one mask image from the at least one contrast image.
An image processing system including an output port for outputting the difference image.
前記ROIに対応する前記差分画像の少なくとも一部を表示デバイス上に表示するビジュアライザを備える、請求項1に記載の画像処理システム。 The image processing system according to claim 1, further comprising a visualizer that displays at least a part of the difference image corresponding to the ROI on a display device. 前記目標物の識別は、前記投影画像の少なくとも1つと位置合わせされた補助画像データに基づいている、請求項2に記載の画像処理システム。 The image processing system according to claim 2, wherein the identification of the target object is based on auxiliary image data aligned with at least one of the projected images. 前記目標物は第1の動きを受け、前記動き補償器の位置合わせ動作は、選択されたマスク画像による前記目標物の位置が、前記少なくとも1つの造影画像による前記目標物の位置に対応するように、前記マスク画像を選択することを含む、請求項2に記載の画像処理システム。 The target receives the first movement, and the alignment operation of the motion compensator is such that the position of the target by the selected mask image corresponds to the position of the target by the at least one contrast image. The image processing system according to claim 2, further comprising selecting the mask image. 前記画像処理システムは、目標物指定入力ポートを備え、前記目標物識別器は、前記目標物指定入力ポートで1つ又は複数の前記目標物の指定を受け取ったことに応答して、前記目標物を識別するように動作し、前記指定は、前記マスク画像又は前記造影画像からの選択である、請求項2から4の何れか一項に記載の画像処理システム。 The image processing system includes a target designation input port, and the target identifyr responds to receiving one or more designations of the target at the target designation input port. The image processing system according to any one of claims 2 to 4, wherein the designation is a selection from the mask image or the contrast image. 前記ビジュアライザは、前記マスク画像及び/又は前記造影画像とともに前記差分画像の少なくとも一部の表示を前記表示デバイス上で行う、請求項2に記載の画像処理システム。 The image processing system according to claim 2, wherein the visualizer displays at least a part of the difference image together with the mask image and / or the contrast image on the display device. 前記ビジュアライザは、前記位置合わせされた補助画像データの少なくとも一部を表示する、請求項3に記載の画像処理システム。 The image processing system according to claim 3, wherein the visualizer displays at least a part of the aligned auxiliary image data. 前記画像処理システムは、第2の目標物及び/又は第2のROIに関して少なくとも2つの前記投影画像を処理して、第2の差分画像を取得し、前記ビジュアライザは、前記差分画像の代わりに、又は前記差分画像とともに、前記第2の差分画像の少なくとも一部を表示する、請求項2に記載の画像処理システム。 The image processing system processes at least two of the projected images with respect to the second target and / or the second ROI to obtain a second differential image, and the visualizer replaces the differential image. The image processing system according to claim 2, wherein at least a part of the second difference image is displayed together with the difference image. 前記ビジュアライザは、前記ROI及び/又は前記第2のROIの位置を示すグラフィカルオーバーレイを前記マスク画像内に表示する、請求項8に記載の画像処理システム。 The image processing system according to claim 8, wherein the visualizer displays a graphical overlay indicating the position of the ROI and / or the second ROI in the mask image. 前記目標物は2つの動きの組み合わせを受け、前記動き補償器は、
i)2つの追加のマスク画像による第1の動きによる目標物の位置は、実質上同じになり、ii)第2の動きに関する位置差分は、前記マスク画像による及び前記少なくとも1つの造影画像による前記目標物に対するものと実質上同じになるように、前記2つの追加のマスク画像を選択する、請求項4に記載の画像処理システム。
The target receives a combination of two movements, and the movement compensator
i) The position of the target due to the first movement with the two additional mask images will be substantially the same, and ii) the position difference with respect to the second movement will be with the mask image and with the at least one contrast image. The image processing system of claim 4, wherein the two additional mask images are selected so that they are substantially the same as those for the target.
前記減算器は、
前記2つの追加のマスク画像を減算してマスク差分画像を取得し、
前記第1の動きに関する動き補償後、前記差分画像から前記マスク差分画像を減算して、カスケード差分画像を取得する、請求項10に記載の画像処理システム。
The subtractor
Subtract the two additional mask images to obtain a mask difference image.
The image processing system according to claim 10, wherein after motion compensation for the first motion, the mask difference image is subtracted from the difference image to acquire a cascade difference image.
前記ビジュアライザは、前記カスケード差分画像の少なくとも一部を画面上に表示する、請求項11に記載の画像処理システム。 The image processing system according to claim 11, wherein the visualizer displays at least a part of the cascade difference image on a screen. 前記目標物は、前記マスク画像及び前記造影画像のそれぞれの獲得時間に、前記試験片内に存在する、自然のままの物体又は外的な物体、特に移植された物体に対する投影フットプリントであり、又はそのような投影フットプリントに関する、請求項1から12の何れか一項に記載の画像処理システム。 The target is a projection footprint on a pristine or external object, particularly an implanted object, present in the test piece at each acquisition time of the mask image and the contrast image. Or the image processing system according to any one of claims 1 to 12, relating to such a projection footprint. 入力ポートと、目標物識別器と、動き推定器と、動き補償器と、減算器と、出力ポートとを備えた画像処理システムの作動方法であって、
前記入力ポートが、物体を含む少なくとも一部の試験片の少なくとも1つのマスク投影画像及び少なくとも1つの造影画像を含む少なくとも2つの投影画像を受け取るステップであって、前記マスク投影画像及び前記造影画像が異なる獲得時間に獲得され、それぞれ異なるコントラストで関心領域(ROI)を表す、ステップと、
前記目標物識別器が、前記造影画像及び少なくとも1つのマスク画像で前記物体の少なくとも1つの目標物を識別するステップと、
前記動き推定器が、少なくとも前記造影画像及び前記少なくとも1つのマスク画像にわたって、識別された前記少なくとも1つの目標物の動きによる物体の動きを推定するステップであって、前記目標物の動きが前記ROIの動きに関する、ステップと、
前記動き補償器が、推定された前記目標物の動きのみに基づいて、前記少なくとも1つのマスク投影画像を前記少なくとも1つの造影画像と位置合わせするステップと、
前記減算器が、前記ROIの差分画像を取得するために、前記少なくとも1つの造影画像から位置合わせされた前記少なくとも1つのマスク画像を減算するステップと、
前記出力ポートが、前記差分画像を出力するステップと
を備える、方法。
A method of operating an image processing system including an input port, a target classifier, a motion estimator, a motion compensator, a subtractor, and an output port.
The input port is a step of receiving at least one mask projection image of at least some test pieces including an object and at least two projection images including at least one contrast image, wherein the mask projection image and the contrast image are Steps and steps that are acquired at different acquisition times and represent the region of interest (ROI) with different contrasts.
A step in which the target classifier identifies at least one target object of the object from the contrast image and at least one mask image.
The motion estimator is a step of estimating the motion of an object due to the motion of the identified at least one target over at least the contrast image and the at least one mask image, and the motion of the target is the ROI. Steps and steps related to the movement of
A step in which the motion compensator aligns the at least one mask projection image with the at least one contrast image based solely on the estimated motion of the target.
A step in which the subtractor subtracts the at least one mask image aligned from the at least one contrast image in order to obtain a difference image of the ROI.
A method in which the output port comprises a step of outputting the difference image.
処理ユニットによって実行されるとき、請求項14に記載の方法のステップを実行する、請求項1から13の何れか一項に記載の画像処理システムを制御するためのコンピュータプログラム。 A computer program for controlling an image processing system according to any one of claims 1 to 13, which performs the steps of the method according to claim 14 when executed by a processing unit. 請求項15に記載のコンピュータプログラムを記憶したコンピュータ可読媒体。

A computer-readable medium storing the computer program according to claim 15.

JP2017529069A 2014-12-03 2015-11-25 Device-based motion-compensated digital subtraction angiography Active JP6757727B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14306941 2014-12-03
EP14306941.7 2014-12-03
PCT/EP2015/077576 WO2016087271A1 (en) 2014-12-03 2015-11-25 Device-based motion-compensated digital subtraction angiography

Publications (2)

Publication Number Publication Date
JP2017536191A JP2017536191A (en) 2017-12-07
JP6757727B2 true JP6757727B2 (en) 2020-09-23

Family

ID=52023436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017529069A Active JP6757727B2 (en) 2014-12-03 2015-11-25 Device-based motion-compensated digital subtraction angiography

Country Status (6)

Country Link
US (1) US10410342B2 (en)
EP (1) EP3227857B1 (en)
JP (1) JP6757727B2 (en)
CN (1) CN107004262B (en)
RU (1) RU2710668C2 (en)
WO (1) WO2016087271A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2023812B1 (en) 2006-05-19 2016-01-27 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc Methods, systems, and devices for intra-scan motion correction
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
WO2016110422A1 (en) * 2015-01-07 2016-07-14 Koninklijke Philips N.V. Iterative digital subtraction imaging for embolization procedures
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP7159160B2 (en) * 2016-12-15 2022-10-24 コーニンクレッカ フィリップス エヌ ヴェ Visualization of vascular structures
WO2019053935A1 (en) * 2017-09-14 2019-03-21 株式会社島津製作所 Radiation imaging device
EP3616621B1 (en) * 2018-08-31 2023-03-15 Siemens Healthcare GmbH Method and apparatus for 3d dsa
DE102019202514B4 (en) * 2019-02-25 2021-06-24 Siemens Healthcare Gmbh Process for digital subtraction angiography, X-ray equipment, computer program and electronically readable data carrier

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5822035A (en) * 1981-07-29 1983-02-09 株式会社東芝 X-ray diagnostic apparatus
JPH0657208B2 (en) * 1985-12-27 1994-08-03 株式会社東芝 Digital Fluorographer
JP4060615B2 (en) * 2002-03-05 2008-03-12 株式会社東芝 Image processing apparatus and ultrasonic diagnostic apparatus
DE10210646A1 (en) * 2002-03-11 2003-10-09 Siemens Ag Method for displaying a medical instrument brought into an examination area of a patient
US20070073142A1 (en) * 2003-10-16 2007-03-29 Koninklijke Philips Electronics N.V. Device and method for providing an angiographic image
WO2005087114A1 (en) 2004-03-10 2005-09-22 Philips Intellectual Property & Standards Gmbh Catheter, apparatus and method for therapeutic embolization
JP2006087631A (en) * 2004-09-22 2006-04-06 Sangaku Renkei Kiko Kyushu:Kk Diagnostic imaging apparatus, image processing apparatus, and recording medium with image processing program recorded therein
DE602006018229D1 (en) * 2005-08-24 2010-12-30 Medison Co Ltd Apparatus and method for processing an ultrasound image
JP4745080B2 (en) * 2006-02-20 2011-08-10 猛 中浦 X-ray diagnostic apparatus, image processing apparatus, and program
JP5639764B2 (en) * 2007-03-08 2014-12-10 シンク−アールエックス,リミティド Imaging and tools for use with moving organs
EP2208182B1 (en) * 2007-11-14 2011-06-08 Koninklijke Philips Electronics N.V. System and method for quantitative 3d ceus analysis
DE102009031141B3 (en) 2009-06-30 2010-12-23 Siemens Aktiengesellschaft Determination procedure for a color-coded evaluation image as well as corresponding objects
CN101799935B (en) * 2009-12-31 2011-09-14 华中科技大学 Dynamic three-dimensional reconstruction method of single-arm X-ray angiogram maps
US8655041B2 (en) * 2010-09-23 2014-02-18 Siemens Aktiengesellschaft Automatic detection of contrast injection
DE102011075419A1 (en) 2011-05-06 2012-08-09 Siemens Aktiengesellschaft Method for supporting optimal positioning of location of closure of blood vessel for cutting tumor from blood supply in patient, involves obtaining three-dimensional image data set of patient
US20130190615A1 (en) 2012-01-23 2013-07-25 Kevin Royalty System for 3D Visualization of Radio-Opaque Embolic Materials Using X-ray Imaging
US9872655B2 (en) 2012-03-30 2018-01-23 Siemens Aktiengesellschaft PAE treatment for BPH

Also Published As

Publication number Publication date
US10410342B2 (en) 2019-09-10
EP3227857A1 (en) 2017-10-11
US20170345145A1 (en) 2017-11-30
WO2016087271A1 (en) 2016-06-09
RU2017123026A3 (en) 2019-07-17
CN107004262A (en) 2017-08-01
CN107004262B (en) 2021-05-18
RU2710668C2 (en) 2019-12-30
EP3227857B1 (en) 2020-07-22
JP2017536191A (en) 2017-12-07
RU2017123026A (en) 2019-01-09

Similar Documents

Publication Publication Date Title
JP6757727B2 (en) Device-based motion-compensated digital subtraction angiography
JP6108474B2 (en) Medical imaging device for providing an image representation to assist in positioning an interventional device
JP6353044B2 (en) Medical image display apparatus, X-ray image navigation information providing method, computer program element, and storage medium
JP5965840B2 (en) Vascular road mapping
JP5921132B2 (en) Medical image processing system
EP2863799B1 (en) Temporal anatomical target tagging in angiograms
US10083511B2 (en) Angiographic roadmapping mask
US11850083B2 (en) Device for modifying an imaging of a tee probe in X-ray data
JP6619740B2 (en) Automatic road mapping without device footprint for endovascular intervention
US10559082B2 (en) Iterative digital subtraction imaging fro emoblization procedures
CN114469153B (en) Angiography device and equipment based on CT (computed tomography) image and computer readable medium
KR101638597B1 (en) Method and Apparatus for processing of medical images
US20230172571A1 (en) Providing a result data set

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6757727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250