WO2009147841A1 - 投影画像作成装置、方法およびプログラム - Google Patents

投影画像作成装置、方法およびプログラム Download PDF

Info

Publication number
WO2009147841A1
WO2009147841A1 PCT/JP2009/002479 JP2009002479W WO2009147841A1 WO 2009147841 A1 WO2009147841 A1 WO 2009147841A1 JP 2009002479 W JP2009002479 W JP 2009002479W WO 2009147841 A1 WO2009147841 A1 WO 2009147841A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
image
image data
projection image
dimensional
Prior art date
Application number
PCT/JP2009/002479
Other languages
English (en)
French (fr)
Inventor
守屋禎之
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP09758108.6A priority Critical patent/EP2301432B1/en
Priority to US12/737,022 priority patent/US8547377B2/en
Publication of WO2009147841A1 publication Critical patent/WO2009147841A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to an apparatus and method for tracking and displaying a point of interest in a projection image created from three-dimensional image data. Specifically, by designating a region of interest on the projection image, the region can be changed in the projection direction.
  • the present invention relates to a projection image creation apparatus and method for tracking and displaying a created projection image, and a program therefor.
  • the maximum value projected image loses information on the front and back of the three-dimensional image data with respect to the projection direction, only the first projection image created by projecting from the first projection direction can be used. There are cases where the relationship between the front and back of the organs and tissues displayed on the projection image with respect to the projection direction is unknown. Therefore, the doctor compares the first projection image with the second and third projection images created from the second and third projection directions that are different from the first projection direction, so that the three-dimensional of the region of interest can be obtained. Understand the general context (front and back).
  • Patent Document 1 when creating an image obtained by projecting an object displayed as a three-dimensional image from different viewpoints, there is a user interface for instructing to rotate an object with a sense similar to operating an object in real space. (Here, changing the projection direction and rotating the target object are synonymous). Further, in the case where the projection image is an image obtained by the maximum value projection method, in Patent Document 2, a three-dimensional image data obtained by MRA (Magnetic Resonance Angiography) is projected to the maximum value to obtain a blood vessel projection image.
  • MRA Magnetic Resonance Angiography
  • An object of the present invention is to provide an apparatus, a method, and a program that make it possible to obtain and display a position on a second projection image to be created.
  • first voxel and the second voxel in the three-dimensional image data corresponding to the pixel on the second projection image at the coordinates at which the first voxel is projected onto the second projection image Is a different voxel, it is an object to provide an apparatus, a method, and a program that clearly indicate that the first voxel and the second voxel are different.
  • a projection image creation apparatus is a device that creates 3D image data by processing 3D image data obtained by reconstruction using a number of 2D images.
  • a first projection target determining means for determining three-dimensional image data; and a first projection image is created by projecting the first three-dimensional image data from the first projection direction by a maximum value projection method or a minimum value projection method.
  • First projection image creation means for performing the first coordinate designation means for designating the first coordinates on the first projection image, and determining the second three-dimensional image data to be projected from the three-dimensional image data
  • Second projection target determining means for generating a second projection image by projecting the second three-dimensional image data from a second projection direction different from the first projection direction.
  • Means in a first coordinate on the first projection image A second coordinate obtained by projecting the first voxel on the three-dimensional image data corresponding to the element onto the second projection image from the second projection direction is displayed on the second projection image.
  • the coordinate display means is provided.
  • the projection image creation method is a method for creating a projection image by processing three-dimensional image data obtained by reconstruction using a number of two-dimensional images, and is created from the first projection direction.
  • a region of interest is designated on the first projection image, a corresponding voxel in the three-dimensional image data of the designated region is determined, and created from a second projection direction different from the first projection direction.
  • the coordinates on the second projection image obtained by projecting the corresponding voxel in the determined three-dimensional image data from the second projection direction are displayed on the second projection image. Is. Furthermore, when the attention area designated on the first projection image is not projected on the second projection image, this is displayed.
  • the region of interest indicates a region of interest displayed on the projection image, and may be a single pixel or a certain range including the vicinity thereof.
  • the projection image creation method is a projection target of 3D image data in a method of creating a projection image by processing 3D image data obtained by reconstructing a large number of 2D images.
  • First three-dimensional image data is determined, and a first projection image is created from the first three-dimensional image data by a maximum value projection method or a minimum value projection method based on a first projection direction.
  • a first coordinate is specified on the projected image of the second, and second 3D image data to be projected of the 3D image data is determined. What is the first projection direction from the second 3D image data?
  • a second projection image based on a different second projection direction is created, and the first voxel on the three-dimensional image data corresponding to the pixel at the first coordinate on the first projection image is represented as the second projection image. Obtained by projecting on the basis of the second projection direction It is characterized in that to display the second coordinate on the second projected image.
  • the projection image creation method according to the present invention may be provided as a program that is executed by a computer.
  • a voxel in the 3D image data corresponding to a region designated on the first projection image created from the 3D image data is converted into the first projection.
  • it is possible to display the position where the voxel in the three-dimensional image data corresponding to the designated region is projected on the second projection image Furthermore, since it is possible to present whether or not the voxel in the region designated in the first projection image is displayed on the second projection image, the three-dimensional positional relationship between the target organ or tissue can be easily determined from the projection image. Can know.
  • FIG. 1 is a schematic block diagram showing a configuration of a projection image creation apparatus according to a first embodiment of the present invention, that is, a target point tracking display apparatus on a projection image.
  • the attention point tracking display device performs various controls of input / output of image data, a keyboard 12 and a mouse 13 for accepting operations and inputs from a user, and a keyboard 12.
  • CPU 11 for receiving an input from mouse 13 and executing a program for executing the method of the present invention
  • monitor 14 for displaying an image obtained in the present invention, and three-dimensional image data to be processed in the present invention
  • a hard disk 15 storing a program for executing the method of the present invention.
  • the 3D image data to be processed may be stored on a server connected to the apparatus via a network, and data necessary for processing may be transferred to the apparatus.
  • the input three-dimensional image data is a three-dimensional shape of a cerebral blood vessel using an image projected by a doctor using a maximum value projection method from a plurality of tomographic images in the body axis direction of the brain obtained from MRI. Shall be observed.
  • the projection method includes a central projection method and a parallel projection method.
  • a projection image is created by the parallel projection method.
  • FIG. 2 is a flowchart of processing performed in the method for tracking and displaying a point of interest on a maximum value projection image (hereinafter referred to as MIP image) according to the first embodiment.
  • step S1 three-dimensional image data M1 obtained by stacking a plurality of tomographic images taken by MRI is input.
  • the three-dimensional image data M1 is composed of voxels as shown in FIG.
  • a projection range may be set only in the vicinity of the left brain.
  • step S2 in order to create the first MIP image Im1, as shown in FIG. 4, the first projection direction vector Pv1, the projection plane P1, and the projection target voxel are determined.
  • the y-axis direction is set as a first projection direction vector Pv1.
  • the first projection plane P1 having the vector as a normal is determined.
  • the voxel to be projected is determined from the three-dimensional image data M1.
  • the projection target voxel is the entire 3D image data M1, but the user can manually select only the voxel data in the vicinity of the blood vessel to be observed from the 3D image data M1. You may decide.
  • the first MIP image Im1 is created on the first projection plane P1 in step S3.
  • An example of a specific MIP image creation method will be described in detail below.
  • the size of one pixel on the first projection plane P1 is determined.
  • the smallest one of the actual dimensions of the vertical, horizontal, and height of one voxel of the three-dimensional image data M1 (which can be obtained from the shooting information of the three-dimensional image data M1).
  • pc1 be the intersection of a line extending from the center voxel Vm1 of the three-dimensional image data M1 in the direction of the first projection direction vector Pv1 and the first projection plane P1.
  • Similar processing is performed on each pixel on the first projection plane P1 in order from the pixel adjacent to pc1.
  • the pixel value in each pixel on the first projection plane P1 is determined, and the pixel value on the straight line extending in the direction opposite to the first projection direction vector Pv1 from the pixel on the first projection plane P1 is 3.
  • creation of the MIP image is completed.
  • the first MIP image Im1 (FIG. 7) is created.
  • the pixel value of the voxel having the maximum pixel value among the voxels of the three-dimensional image data M1 on the straight line extending in the opposite direction to the first projection direction vector Pv1 from each pixel on the projection plane P1 is represented by pc1.
  • the voxel with the maximum pixel value may be selected from the voxels through which the extended straight line passes even a little, or the voxels within a predetermined distance from the extended straight line may be selected.
  • the one with the maximum pixel value may be selected.
  • a first Z-Buffer image ImZ1 as shown in FIG. 5 is created together with the creation of the first MIP image Im1.
  • the Z-Buffer image is the same size (number of pixels) as the first MIP image Im1, and the first projection direction vector Pv1 from the voxel in the three-dimensional image data M1 adopted by each pixel of the first MIP image Im1.
  • the straight line is extended in the opposite direction (on the opposite side to the first projection plane P1), the distance until the three-dimensional image data to be projected is output is used as the value of each pixel.
  • step S4 the doctor designates, for example, one point in the region where the blood vessel is inflated, which is noticed on the first MIP image Im1 shown in FIG.
  • the coordinates of the designated point on the first MIP image Im1 are set to Q1.
  • a method of designating an area a method of moving the cursor to the attention area with the mouse 12 on the first MIP image Im1 and clicking is conceivable.
  • the marker 20 is displayed at the coordinate Q1 on the first MIP image Im1 as shown in FIG.
  • step S5 the coordinates of the voxel V1 on the three-dimensional image constituting the pixel at the coordinate Q1 on the first MIP image Im1 determined in step S4 are the same as the coordinates Q1 on the first MIP image Im1 and the first It is obtained by calculation from the projection direction vector Pv1 and the first Z-Buffer image ImZ1.
  • the voxel V1 on the three-dimensional image constituting the pixel of the coordinate Q1 is obtained by using the Z-Buffer image, but it is on a straight line extending from the coordinate Q1 in the first projection direction vector Pv1 direction.
  • the voxel V1 may be obtained by searching again for the voxel having the maximum pixel value among the voxels of the three-dimensional image data M1.
  • step S6 the doctor inputs a second projection direction vector Pv2 in order to observe a region where the blood vessel is expanded from a projection direction different from that of the first MIP image Im1.
  • the vector value itself or the amount of change from the first projection direction vector Pv1 may be numerically input by the keyboard 13, but the mouse is displayed on the first projection image being displayed.
  • the projection direction may be changed by dragging. For example, as shown in FIG. 8, when the mouse is dragged on the first MIP image Im1, as shown in FIG. 9, a fixed distance from the center Vm1 of the three-dimensional image data M1 in the direction opposite to the first projection direction vector Pv1.
  • the separated point E1 moves to the point E2 while maintaining the distance between the point E1 and Vm1, and a vector from the point E2 to Vm1 is set as a second projection direction vector Pv2.
  • a projection plane P2 having the second projection direction vector Pv2 as a normal line is determined.
  • step S6 When a new projection direction vector Pv2 and projection plane P2 are determined in step S6, a second MIP image Im2 and a second Z-Buffer image are created in step S7 in the same manner as step S2. .
  • step S8 the coordinate Q2 on the second MIP image Im2 created by the second projection direction vector Pv2 determined in step S6 is obtained for the voxel V1 that the doctor obtained in step S5 notices.
  • step S9 the coordinates of the voxel V2 in the three-dimensional image data M1 constituting the pixel on the second MIP image Im2 at the coordinate Q2 obtained in step S8 are the second projection direction vector Pv2 and the coordinates in step S7. It is obtained from the created second Z-Buffer image ImZ2.
  • step S10 whether or not the first voxel V1 and the second voxel V2 are voxels having the same coordinates is determined by comparing the coordinates of both voxels. Note that the voxel V1 and the voxel V2 do not have to be completely the same coordinates, and may be regarded as the same as long as they are within a preset distance range.
  • step S11 the second MIP image Im2 created in step S7 is displayed, and further in step S9.
  • a marker is displayed at the coordinate Q2 corresponding to the obtained voxel V1.
  • the marker has the same shape as step S4, but is displayed in a different color from step S4 to indicate that the projection direction is different from that of the first MIP image Im1.
  • the marker may be temporarily deleted by operating the keyboard 12 or the mouse 13 so as not to disturb the image observation.
  • step S12 the second MIP image Im2 created in step S7 is displayed and corresponds to the voxel V2 obtained in step S9.
  • a marker is blinked and displayed at the coordinate Q2 to indicate that they are not the same voxel.
  • the marker blinks in a different color from step S4 in the same shape as step S4.
  • this marker may be temporarily erased by operating the keyboard 12 or the mouse 13 so as not to disturb the image observation.
  • the marker has the same shape and the color is changed. However, the shape may be changed so that the color is not changed, or the shape and the color may be changed.
  • the voxel V1 in the three-dimensional image data M1 corresponding to the coordinate Q1 designated on the first MIP image Im1 is obtained, and the voxel V1 is obtained from the second projection direction vector Pv2 as the second projection plane P2.
  • the coordinate Q2 projected above is obtained, but the projection matrix for projecting the three-dimensional image data M1 on the first projection plane P1 from the coordinate Q1 on the first MIP image Im1 and the first projection direction vector Pv1.
  • the voxel V1 is not obtained from the inverse matrix of, the projection matrix B for projecting the three-dimensional image data M1 onto the second projection plane P2 from the second projection direction vector Pv2, and the first Z-Buffer image ImZ1.
  • the coordinate Q2 on the second MIP image Im2 may be directly obtained.
  • one point of the attention area designated on the first MIP image Im1 created from the first projection direction is created from a projection direction different from that of the first MIP image Im1. Since the region of interest is projected on the second MIP image Im2 and is tracked and displayed, the position of the region of interest on the second MIP image Im2 can be known, and further, the region of interest is displayed on the second MIP image Im2. Since it is possible to know whether or not the point of interest on the first MIP image Im1 is displayed, it is possible to provide information useful for knowing the three-dimensional positional relationship of the organ or tissue of interest.
  • a three-dimensional shape of a cerebral blood vessel is observed from a plurality of tomographic images in the body axis direction of the brain obtained from MRI using images projected by the maximum value projection method by a doctor.
  • the projection method may be changed depending on the projection direction, such as creating a maximum value projection image from the first projection direction and creating a minimum value projection image from the second projection direction.
  • the density of the voxel of the three-dimensional image data that exists on a straight line extending from the pixels on the second projection plane in the direction opposite to the second projection direction vector from the image projected from the second projection direction may be a laysum image obtained by dividing the sum of values by the number of voxels.
  • the voxel corresponding to the pixel of interest in the image created from the first projection direction vector is not displayed in the image created from the second projection direction vector. If the coordinate Q2 is obtained in step S8 of step 2, step S9 and the subsequent steps are not performed, and only the position is displayed.
  • FIG. 1 is a schematic block diagram showing the configuration of an attention point tracking display device according to a first embodiment of the present invention.
  • the flowchart which shows the process performed in the attention point tracking display method by the 1st Embodiment of this invention.
  • the figure explaining the three-dimensional image data used as the object of processing The figure explaining determination of an initial projection direction and a projection plane in the attention point tracking display method by a 1st embodiment of the present invention.
  • Marker displayed when attention area is designated in attention point tracking display method according to first embodiment of the present invention The figure explaining specifying the movement amount of a projection direction using the 1st MIP image in the attention point tracking display method by the 1st Embodiment of this invention.

Abstract

【課題】多数の2次元画像を用いて再構成して得た3次元画像データから視点を変えつつ投影画像を作成して観察する際に、3次元的位置関係の把握を容易にする。 【解決手段】第1の投影画像上で注目領域を指定し、第1の投影画像とは異なる第2の視点位置および/または投影方向から第2の投影画像を作成する際に、指定された注目領域と対応する3次元画像データ内のボクセルを第2の視点位置および/または投影方向から投影して得られる第2の投影画像上の領域を第2の投影画像上に表示する。

Description

投影画像作成装置、方法およびプログラム
本発明は、3次元画像データから作成した投影画像において注目点を追跡表示する装置および方法、詳しくは、その投影画像上で注目する領域を指定することにより、その領域を、投影方向を変えて作成された投影画像上においても追跡表示する投影画像作成装置、方法並びにそのためのプログラムに関するものである。
従来、CT(コンピュータ断層撮影装置;Computed Tomography)やMRI(核磁気共鳴撮像装置)などから得られる複数の医療断層像を観察する際、全ての断層像を1枚ずつ観察するには時間がかかり、また、断層像のみから観察対象となる臓器や組織の3次元形状を理解するには医師の熟練を要するため、注目部位を含む断層像を重ねて得られる3次元画像データから、たとえば最大値投影法などの方法で投影画像を作成して観察することが広く行われている。
しかし、最大値投影画像は投影方向に対して3次元画像データの手前や奥の情報が失われているため、第1の投影方向より投影して作成される第1の投影画像1枚のみでは投影画像上に表示された臓器や組織の投影方向に対する手前や奥の関係がわからない場合がある。そこで医師は、上記第1の投影方向とは異なる第2、第3の投影方向から作成された第2、第3の投影画像と第1の投影画像を比較することで、注目部位の3次元的な前後関係(手前、奥の関係)を把握している。
特許文献1においては、3次元画像として表示された物体を異なる視点から投影した画像を作成する際に、実空間上で物体を操作するのと類似した感覚で物体を回転指示するユーザインタフェイスが提案されている(ここでは、投影方向の変更と対象物体の回転は同義である)。また、投影画像が最大値投影法により得られる画像の場合において、特許文献2においてMRA(磁気共鳴アンジオグラフィ;Magnetic Resonance Angiography)により得られる3次元画像データを最大値投影して血管の投影画像を作成する際に、投影画像上で2以上の血管が交差する場所を検出して交差する血管の前後関係(手前、奥の関係)を検出し、奥側にある血管の輝度値を下げることで、擬似的に三次元の位置関係を表現する方法が提案されている。
特開平5-189541 特開平5-277091
しかしながら、上記従来手法を用いた投影画像の観察でも、なお、最大値投影画像上の投影方向に対する注目臓器や組織の手前か奥かの関係がわかりにくいという問題があった。特に、第2、第3の投影方向から作成した投影画像を観察する際、第1の投影画像上で注目していた領域が、第2、第3の投影画像上において、どの位置に移動したか、さらには、第1の投影画像上で注目していた領域が第2、第3の投影画像上に表示されているか分からないという問題があった。
本発明は、上記事情に鑑み、第1の投影画像上で1点を指定すると、その点と対応する3次元画像データ内の第1のボクセルの、第1の投影画像とは異なる投影方向より作成される第2の投影画像上における位置を求め、表示することを可能にする装置、方法並びにプログラムを提供することを目的とするものである。
さらには、上記第1のボクセルと、上記第1のボクセルが第2の投影画像上に投影される座標における第2の投影画像上の画素が対応する上記3次元画像データ内の第2のボクセルが異なったボクセルである場合には、第1のボクセルと第2のボクセルが異なっていることを明示する装置、方法並びにプログラムを提供することを目的とするものである。
本発明による投影画像作成装置は、多数の2次元画像を用いて再構成して得た3次元画像データを処理して投影画像を作成する装置において、3次元データから投影対象とする第1の3次元画像データを決定する第1の投影対象決定手段と、第1の3次元画像データを第1の投影方向から最大値投影法または最小値投影法により投影して第1の投影画像を作成する第1の投影画像作成手段と、第1の投影画像上で第1の座標を指定する第1の座標指定手段と、3次元画像データから投影対象とする第2の3次元画像データを決定する第2の投影対象決定手段と、第2の3次元画像データを前記第1の投影方向とは異なる第2の投影方向から投影して第2の投影画像を作成する第2の投影画像作成手段と、第1の投影画像上の第1の座標における画素が対応する3次元画像データ上の第1のボクセルを、第2の投影方向から第2の投影画像上に投影して得られる第2の座標を第2の投影画像上に表示する第2の座標表示手段とを備えたことを特徴とするものである。
また、本発明による投影画像作成方法は、多数の2次元画像を用いて再構成して得た3次元画像データを処理して投影画像を作成する方法において、第1の投影方向から作成された第1の投影画像上で注目する領域を指定し、前記指定された領域の前記3次元画像データ中の対応するボクセルを決定し、第1の投影方向とは異なる第2の投影方向から作成された第2の投影画像上に、前記決定された3次元画像データ中の対応するボクセルを第2の投影方向から投影して得られる第2の投影画像上の座標を表示することを特徴とするものである。さらには、第1の投影画像上で指定した注目領域が第2の投影画像上において投影されていない場合、そのことを表示することを特徴とするものである。
ここで、注目領域とは投影画像上に表示される関心領域を示すもので、画素1点であってもその付近を含む一定の範囲内であってもよい。
すなわち、本発明による投影画像作成方法は、多数の2次元画像を用いて再構成して得た3次元画像データを処理して投影画像を作成する方法において、3次元画像データの投影対象となる第1の3次元画像データを決定し、この第1の3次元画像データから第1の投影方向に基づいて最大値投影法または最小値投影法により第1の投影画像を作成し、この第1の投影画像上で第1の座標を指定し、前記3次元画像データの投影対象となる第2の3次元画像データを決定し、この第2の3次元画像データから第1の投影方向とは異なる第2の投影方向に基づく第2の投影画像を作成し、第1の投影画像上の第1の座標における画素が対応する3次元画像データ上の第1のボクセルを、第2の投影画像上に第2の投影方向に基づいて投影して得られる第2の座標を第2の投影画像上に表示することを特徴とするものである。
なお、本発明による投影画像作成方法はコンピュータに実行させるプログラムとして提供してもよい。
本発明の投影画像作成装置、方法およびプログラムによれば、3次元画像データから作成された第1の投影画像上で指定した領域と対応する上記3次元画像データ内のボクセルを、第1の投影画像とは異なる投影方向より第2の投影画像を作成する際に、上記指定した領域と対応する3次元画像データ内のボクセルを第2の投影画像上に投影した位置を表示することができ、さらに、第1の投影画像で指定した領域のボクセルが第2の投影画像上で表示されているか否かを提示することができるため、投影画像から注目臓器や組織の3次元的位置関係を容易に知ることができる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
図1は本発明の第1の実施形態による投影画像作成装置、すなわち投影画像上の注目点追跡表示装置の構成を示す概略ブロック図である。図1に示すように第1の実施形態による注目点追跡表示装置は、ユーザからの操作や入力を受け付けるためのキーボード12とマウス13と、画像データの入出力の各種制御を行うとともに、キーボード12およびマウス13からの入力を受け付け、本発明方法を実施するためのプログラムを実行するためのCPU11と、本発明において得られる画像を表示するモニタ14と、本発明の処理対象となる3次元画像データ及び本発明方法を実行するためのプログラムを保存したハードディスク15とからなる。なお、処理対象となる3次元画像データは本装置とネットワークでつながれたサーバ上に保存しておき、処理に必要なデータを本装置に転送するようにしてもよい。
また、本実施形態では入力される3次元画像データはMRIから得られる脳の体軸方向の複数の断層画像から、医師が最大値投影法にて投影した画像を用いて脳血管の三次元形状を観察するものとする。また、投影法には中心投影法と平行投影法があるが、本実施形態においては平行投影法により投影画像を作成するものとする。
次に、図2は、第1の実施形態による最大値投影画像(以下、MIP画像と呼ぶ)上の注目点の追跡表示方法において行われる処理のフローチャートである。
まずステップS1において、MRIで撮影された複数の断層像を積み重ねて得られる3次元画像データM1が入力される。3次元画像データM1は、図3に示すように各ボクセルから構成されている。ここで、3次元画像データM1は得られたMRIの断層像のスライス間隔が大きい場合には、補間処理を行うことで、より詳細なボクセルデータを取得するようにしてもよい。また、3次元画像データM1において観察する領域が決まっている場合には、本ステップS1において、たとえば左脳付近のみに投影範囲を設定できるようにしてもよい。
次にステップS2において、第1のMIP画像Im1を作成するため、図4に示すように、第1の投影方向ベクトルPv1および投影面P1および投影対象ボクセルを決定する。ここでは、初期MIP画像作成のために、y軸方向を第1の投影方向ベクトルPv1とする。第1の投影方向ベクトルPv1が決定されると、そのベクトルを法線とする第1の投影面P1が決定される。次に、投影対象となるボクセルを3次元画像データM1から決定する。本実施例では、投影対象ボクセルは3次元画像データM1全体とするが、ユーザが3次元画像データM1から、たとえば観察したい血管付近のボクセルデータのみを手動で切り出すような手段により、投影対象ボクセルを決定してもよい。
ステップS2において第1の投影方向ベクトルPv1および第1の投影面P1および投影対象ボクセルが決定されると、ステップS3において、第1の投影面P1上に第1のMIP画像Im1が作成される。具体的なMIP画像作成方法の1例を以下に詳述する。まず、第1の投影面P1上の1画素の大きさを決定する。ここでは、3次元画像データM1の1ボクセルの縦、横、高さの実際の大きさ(これらは、3次元画像データM1の撮影情報から得ることが出来るものとする)のうち最も小さいものを、投影面P1上の1画素の縦および横の大きさとする。次に、3次元画像データM1の中心ボクセルVm1から、第1の投影方向ベクトルPv1方向に延ばした線と第1の投影面P1の交点をpc1とする。次に、pc1から第1の投影方向ベクトルPv1と逆方向(投影面から3次元画像データM1の方向)に延ばした直線上にある3次元画像データM1のボクセルのうち、最大画素値を持つボクセルの画素値をpc1の画素値として採用する。同様の処理を、pc1に隣接する画素から順に第1の投影面P1上の各画素で行う。これにより、第1の投影面P1上の各画素における画素値を決定してゆき、第1の投影面P1上の画素から第1の投影方向ベクトルPv1と前記逆方向に延ばした直線上に3次元画像データM1のボクセルが全くないという画素のみになったら、MIP画像の作成を完了する。このようにして、第1のMIP画像Im1(図7)が作成される。なお、投影面P1上の各画素から第1の投影方向ベクトルPv1と前記逆方向に延ばした直線上にある3次元画像データM1のボクセルのうち、最大画素値を持つボクセルの画素値をpc1の画素値として採用する際には、延ばした直線が少しでも通っている各ボクセルの中から最大画素値のものを選択してもよいし、延ばした直線上から所定の距離内にあるボクセルの中から最大画素値のものを選択してもよい。
さらに、本ステップS3では第1のMIP画像Im1の作成とともに、図5に示すような第1のZ-Buffer画像ImZ1も作成しておく。Z-Buffer画像とは、第1のMIP画像Im1と同じサイズ(ピクセル数)で、第1のMIP画像Im1の各画素が採用した3次元画像データM1内のボクセルから第1の投影方向ベクトルPv1と逆方向(第1の投影面P1と逆側)に直線を延ばしたときに、投影対象となる3次元画像データを出るまでの距離を各画素の値としたものである。例えば図5のZ-Buffer画像上の画素Paは、図6に示すようにMIP画像上の画素Paの画素値の基となった3次元画像データM1内のボクセルVxから、第1の投影方向ベクトルPv1と逆方向に直線を延ばした際に、3次元画像データM1の外に出るまでの距離がd1であったことを示している。
次にステップS4では、医師が図7に示す第1のMIP画像Im1上で注目する、たとえば血管の膨張している領域の1点を指定する。ここで、指定した点の第1のMIP画像Im1上での座標をQ1とする。領域を指定する方法としては、第1のMIP画像Im1上においてマウス12でカーソルを注目領域に移動させ、クリックする方法が考えられる。座標Q1が決定されると第1のMIP画像Im1上で図7のように、座標Q1にマーカ20が表示される。
ステップS5では、ステップS4で決定された第1のMIP画像Im1上の座標Q1における画素を構成する3次元画像上のボクセルV1の座標が、第1のMIP画像Im1上の座標Q1と第1の投影方向ベクトルPv1と第1のZ-Buffer画像ImZ1とから計算により求められる。なお、ここではZ-Buffer画像を用いることで、座標Q1の画素を構成する3次元画像上のボクセルV1を求めたが、座標Q1から第1の投影方向ベクトルPv1方向に延ばした直線上にある3次元画像データM1のボクセルのうち最大画素値を持つボクセルを再度検索することでボクセルV1を求めてもよい。
次にステップS6において、医師が第1のMIP画像Im1とは異なる投影方向から血管の膨張している領域を観察するために、第2の投影方向ベクトルPv2を入力する。ここで、第2の投影方向ベクトルPv2はベクトル値そのものや第1の投影方向ベクトルPv1からの変化量をキーボード13によって数値で入力してもよいが、表示中の第1の投影画像上でマウスをドラッグすることにより投影方向が変更されるようにしてもよい。たとえば、図8に示すように、第1のMIP画像Im1上でマウスをドラッグすると、図9に示すように3次元画像データM1の中心Vm1から第1の投影方向ベクトルPv1と逆方向に一定距離はなれた点E1が、点E1とVm1との距離を保って点E2へ移動し、点E2からVm1へ向かうベクトルを第2の投影方向ベクトルPv2とする。第2の投影方向ベクトルPv2決定されると、第2の投影方向ベクトルPv2を法線とする投影面P2が決定される。
ステップS6にて新たな投影方向ベクトルPv2と投影面P2が決定されると、ステップS7において、第2のMIP画像Im2および第2のZ-Buffer画像をImZ2がステップS2と同じように作成される。
そして、ステップS8において、ステップS5で求められた医師が注目するボクセルV1をステップS6で決定された第2の投影方向ベクトルPv2により作成される第2のMIP画像Im2上の座標Q2を求める。
するとステップS9では、ステップS8で求められた座標Q2における第2のMIP画像Im2上の画素を構成する3次元画像データM1内のボクセルV2の座標が、第2の投影方向ベクトルPv2とステップS7で作成された第2のZ-Buffer画像ImZ2から求められる。
そしてステップS10において、第1のボクセルV1と第2のボクセルV2が同一座標のボクセルであるか否かが、両ボクセルの座標を比較することにより判定される。なお、ボクセルV1とボクセルV2は完全に同じ座標でなくともよく、あらかじめ設定した距離の範囲内であれば同一とみなすようにしてもよい。
ステップS10において、第1のボクセルV1と第2のボクセルV2が同一であると判定されると、ステップS11において、ステップS7において作成された第2のMIP画像Im2を表示し、さらに、ステップS9で求められたボクセルV1と対応する座標Q2にマーカを表示する。ここで、マーカはステップS4と同じ形状であるが、第1のMIP画像Im1とは投影方向が異なっていることを示すために、ステップS4とは異なる色で表示する。なお、このマーカは画像の観察を妨げないように、キーボード12あるいはマウス13の操作により、一時的に消去できるようにしてもよい。
ステップS10において、ボクセルV1とボクセルV2が同一でないと判定されると、ステップS12において、ステップS7において作成された第2のMIP画像Im2を表示するとともに、ステップS9で求められたボクセルV2と対応する座標Q2にマーカを点滅表示して、同一ボクセルでないことを表示する。ここでマーカはステップS11と同じように、ステップS4と同様の形状でステップS4とは異なる色で点滅表示する。なお、ステップS11と同様に、このマーカは画像の観察を妨げないように、キーボード12あるいはマウス13の操作により、一時的に消去できてもよい。なお、上記の例ではマーカは同じ形状で色を変えているが、形状を変えて色を変えないようにしてもよいし、形状も色も変えるようにしてもよい。
なお、本実施例では第1のMIP画像Im1上で指定した座標Q1と対応する3次元画像データM1内のボクセルV1を求め、第2の投影方向ベクトルPv2からボクセルV1を第2の投影面P2上に投影した座標Q2を求めたが、第1のMIP画像Im1上の座標Q1と、第1の投影方向ベクトルPv1から3次元画像データM1を第1の投影面P1に投影するための投影行列の逆行列と、第2の投影方向ベクトルPv2から3次元画像データM1を第2の投影面P2に投影するための投影行列Bと、第1のZ-Buffer画像ImZ1とによってボクセルV1を求めずに、第2のMIP画像Im2上での座標Q2を直接求めるようにしてもよい。
以上のように本実施形態によれば、第1の投影方向から作成した第1のMIP画像Im1上で指定した注目領域の1点を、第1のMIP画像Im1とは異なる投影方向より作成した第2のMIP画像Im2上に投影され、注目領域は追跡表示されるため、注目した領域の第2のMIP画像Im2上での位置を知ることができ、さらに、第2のMIP画像Im2上に第1のMIP画像Im1上で注目していた点が表示されているかどうか知ることができるので、注目臓器や組織の3次元的位置関係を知るのに有用な情報を提供することができる。
上記実施形態では、MRIから得られる脳の体軸方向の複数の断層画像から、医師が最大値投影法にて投影した画像を用いて脳血管の三次元形状を観察する例を説明したが、たとえば、CTから得られる体軸方向の複数の断層画像から気管支の形状観察のために最小値投影画像を作成する場合でも、本発明により同様の効果を得ることができる。さらに、第1の投影方向からは最大値投影画像を作成し、第2の投影方向からは最小値投影画像を作成するというように、投影方向によって投影方法を変えてもよい。さらには、第2の投影方向から投影される画像を、第2の投影面上の各画素から第2の投影方向ベクトルの逆方向に延ばした直線上に存在する3次元画像データのボクセルの濃度値の合計をボクセル数で割ったレイサム画像としてもよい。ただし、この場合は、第1の投影方向ベクトルから作成した画像中で注目していた画素と対応するボクセルが、第2の投影方向ベクトルから作成した画像中に表示されることはないため、図2のステップS8において座標Q2が求められたら、ステップS9以降は行わず、その位置を表示するにとどめることになる。
本発明の第1の実施形態による注目点追跡表示装置の構成を示す概略ブロック図 本発明の第1の実施形態による注目点追跡表示方法において行われる処理を示すフローチャート 処理の対象となる3次元画像データを説明する図 本発明の第1の実施形態による注目点追跡表示方法において初期の投影方向と投影面の決定を説明する図 本発明の第1の実施形態による注目点追跡表示方法においてZ-Buffer画像を説明する図 本発明の第1の実施形態による注目点追跡表示方法においてZ-Buffer画像と3次元画像データのボクセルの関係を説明する図 本発明の第1の実施形態による注目点追跡表示方法において注目領域を指定したときに表示されるマーカ 本発明の第1の実施形態による注目点追跡表示方法において第1のMIP画像を用いて投影方向の移動量を指定することを説明する図 本発明の第1の実施形態による注目点追跡表示方法において図8により指定された撮影方向の移動量から第2の撮影方向を決定する事を説明する図
11 CPU
12 キーボード
13 マウス
14 モニタ
15 ハードディスク
20 注目領域を表示するマーカ
21 マウスドラッグ元のマウスポインタ
22 マウスドラッグ先のマウスポインタ

Claims (10)

  1. 多数の2次元画像を用いて再構成して得た3次元画像データを処理して投影画像を作成する装置において、
    前記3次元データから投影対象とする第1の3次元画像データを決定する第1の投影対象決定手段と
    前記第1の3次元画像データを第1の投影方向から最大値投影法または最小値投影法により投影して第1の投影画像を作成する第1の投影画像作成手段と、
    該第1の投影画像上で第1の座標を指定する第1の座標指定手段と
    前記3次元画像データから投影対象とする第2の3次元画像データを決定する第2の投影対象決定手段と
    前記第2の3次元画像データを前記第1の投影方向とは異なる第2の投影方向から投影して第2の投影画像を作成する第2の投影画像作成手段と、
    前記第1の投影画像上の前記第1の座標における画素が対応する前記3次元画像データ上の第1のボクセルを、前記第2の投影方向に前記第2の投影画像上に投影して得られる第2の座標を前記第2の投影画像上に表示する第2の座標表示手段と、
    を備えたことを特徴とする投影画像作成装置。
  2. 前記第2の座標表示手段が、
    あらかじめ前記第1の投影画像とともにZ-Buffer画像を作成しておき、
    該Z-Buffer画像と前記第1の座標から前記第1のボクセルを決定し、
    該第1のボクセルを前記第2の投影方向から前記第2の投影画像上に投影して求められる第2の座標を表示する
    ものであることを特徴とする請求項1記載の投影画像作成装置。
  3. 前記第2の座標表示手段が、
    あらかじめ前記第1の投影画像とともに作成されたZ-Buffer画像と、
    前記第1の3次元画像データから前記第1の投影画像を作成するための変換行列と、
    前記第2の3次元画像データから前記第2の投影画像を作成するための変換行列と、
    前記指定された第1の座標とから第2の座標を求めて表示する
    ものであることを特徴とする請求項1記載の投影画像作成装置。
  4.  前記第2の投影対象決定手段が、前記第1の投影対象決定手段により決定された第1の3次元データと同じものを第2の3次元画像データとするものであることを特徴とする請求項1記載の投影画像作成装置。
  5.  前記第2の投影画像作成手段が、
     最大値投影法によって投影画像を作成するものであることを特徴とする請求項1記載の投影画像作成装置。
  6.  前記第2の投影画像作成手段が、
     最小値投影法によって投影画像を作成するものであることを特徴とする請求項1記載の投影画像作成装置。
  7.  前記第2の座標表示手段が、
     前記第1のボクセルと、
     前記第2の座標における前記第2の投影画像の画素が対応する前記3次元画像データ上の第2のボクセルとが異なっている場合に、該異なっていることを表示する
    ものであることを特徴とする請求項5または6記載の投影画像作成装置。
  8.  前記第2の投影画像作成手段が、
     前記第2の投影画像が指定した区域の画素値をそれぞれ投影方向に加算し平均したレイサム処理によって投影画像を作成する
    ものであることを特徴とする請求項1記載の投影画像作成装置。
  9. 多数の2次元画像を用いて再構成して得た3次元画像データを処理して投影画像を作成する方法において、
    前記3次元画像データの投影対象となる第1の3次元画像データを決定し、
    該第1の3次元画像データから第1の投影方向に基づいて最大値投影法または最小値投影法により第1の投影画像を作成し、
    該第1の投影画像上で第1の座標を指定し、
    前記3次元画像データの投影対象となる第2の3次元画像データを決定し、
    該第2の3次元画像データから前記第1の投影方向とは異なる第2の投影方向に基づく第2の投影画像を作成し、
    前記第1の投影画像上の前記第1の座標における画素が対応する前記3次元画像データ上の第1のボクセルを前記第2の投影画像上に前記第2の投影方向から投影して得られる第2の座標を前記第2の投影画像上に表示する
    ことを特徴とする投影画像作成方法
  10. 多数の2次元画像を用いて再構成して得た3次元画像データから投影対象となる第1の3次元画像データを決定し、
    該第1の3次元画像データから第1の投影方向に基づいて最大値投影法または最小値投影法により第1の投影画像を作成し、
    該第1の投影画像上で第1の座標を指定し、
    前記3次元画像データから投影対象となる第2の3次元画像データを決定し、
    前記第2の3次元画像データから前記第1の投影画像とは異なる第2の投影方向に基づく第2の投影画像を作成し、
    前記第1の投影画像上の前記第1の座標における画素が対応する前記3次元画像データ上の第1のボクセルを前記第2の投影方向に基づいて前記第2の投影画像上に投影して得られる第2の座標を前記第2の投影画像上に表示する
    ことをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2009/002479 2008-06-03 2009-06-02 投影画像作成装置、方法およびプログラム WO2009147841A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09758108.6A EP2301432B1 (en) 2008-06-03 2009-06-02 Projection image creation device, method, and program
US12/737,022 US8547377B2 (en) 2008-06-03 2009-06-02 Projection image generation apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008145402A JP5224451B2 (ja) 2008-06-03 2008-06-03 投影画像作成装置、方法およびプログラム
JP2008-145402 2008-06-03

Publications (1)

Publication Number Publication Date
WO2009147841A1 true WO2009147841A1 (ja) 2009-12-10

Family

ID=41397924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/002479 WO2009147841A1 (ja) 2008-06-03 2009-06-02 投影画像作成装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US8547377B2 (ja)
EP (1) EP2301432B1 (ja)
JP (1) JP5224451B2 (ja)
WO (1) WO2009147841A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264469A (zh) * 2012-11-23 2019-09-20 Icad公司 用于改进断层合成医学图像数据读取中的工作流效率的系统和方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8571289B2 (en) 2002-11-27 2013-10-29 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US10008184B2 (en) 2005-11-10 2018-06-26 Hologic, Inc. System and method for generating a 2D image using mammography and/or tomosynthesis image data
US8532745B2 (en) 2006-02-15 2013-09-10 Hologic, Inc. Breast biopsy and needle localization using tomosynthesis systems
WO2011043838A1 (en) 2009-10-08 2011-04-14 Hologic, Inc . Needle breast biopsy system and method of use
US8902283B2 (en) 2010-10-07 2014-12-02 Sony Corporation Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image
US9075903B2 (en) 2010-11-26 2015-07-07 Hologic, Inc. User interface for medical image review workstation
AU2012225398B2 (en) 2011-03-08 2017-02-02 Hologic, Inc. System and method for dual energy and/or contrast enhanced breast imaging for screening, diagnosis and biopsy
KR20130026853A (ko) * 2011-09-06 2013-03-14 한국전자통신연구원 복셀 그리드를 이용한 포인트 클라우드의 렌더링 방법 및 장치
EP2782505B1 (en) 2011-11-27 2020-04-22 Hologic, Inc. System and method for generating a 2d image using mammography and/or tomosynthesis image data
US9805507B2 (en) 2012-02-13 2017-10-31 Hologic, Inc System and method for navigating a tomosynthesis stack using synthesized image data
JP6104627B2 (ja) * 2013-02-12 2017-03-29 東芝メディカルシステムズ株式会社 Mri装置
WO2014151646A1 (en) 2013-03-15 2014-09-25 Hologic Inc. Tomosynthesis-guided biopsy in prone
ES2878599T3 (es) 2014-02-28 2021-11-19 Hologic Inc Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
GB201502877D0 (en) * 2015-02-20 2015-04-08 Cydar Ltd Digital image remapping
US11455754B2 (en) 2017-03-30 2022-09-27 Hologic, Inc. System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement
US11399790B2 (en) 2017-03-30 2022-08-02 Hologic, Inc. System and method for hierarchical multi-level feature image synthesis and representation
JP7174710B2 (ja) 2017-03-30 2022-11-17 ホロジック, インコーポレイテッド 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法
US11403483B2 (en) 2017-06-20 2022-08-02 Hologic, Inc. Dynamic self-learning medical image method and system
US11463681B2 (en) * 2018-02-23 2022-10-04 Nokia Technologies Oy Encoding and decoding of volumetric video
US11069125B2 (en) * 2019-04-09 2021-07-20 Intuitive Research And Technology Corporation Geometry buffer slice tool
JP7271277B2 (ja) * 2019-04-10 2023-05-11 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262352A (ja) * 1994-03-25 1995-10-13 Ge Yokogawa Medical Syst Ltd 連続体識別方法および3次元画像表示装置
JPH11203454A (ja) * 1998-01-19 1999-07-30 Ge Yokogawa Medical Systems Ltd 投影像上での3次元位置指定方法、ボリューム指定方法および投影像処理装置
JP2002330958A (ja) * 2000-12-04 2002-11-19 Ge Medical Systems Global Technology Co Llc 医用画像データを選択し表示する方法及び装置
JP2005322257A (ja) * 2005-05-25 2005-11-17 Hitachi Medical Corp 3次元画像処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734384A (en) * 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
JPH05189541A (ja) 1992-01-13 1993-07-30 Hitachi Ltd 画像操作方法
US5644689A (en) 1992-01-13 1997-07-01 Hitachi, Ltd. Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint
JPH05277091A (ja) 1992-03-31 1993-10-26 Toshiba Corp 磁気共鳴診断画像の表示方法
WO1997049237A1 (en) 1996-06-17 1997-12-24 Starsight Telecast, Inc. Television schedule system with enhanced features
US6674894B1 (en) * 1999-04-20 2004-01-06 University Of Utah Research Foundation Method and apparatus for enhancing an image using data optimization and segmentation
JP2001149366A (ja) * 1999-11-25 2001-06-05 Toshiba Corp 三次元画像処理装置
DE10001492A1 (de) * 2000-01-15 2001-07-19 Philips Corp Intellectual Pty Computertomographie-Verfahren zur Erzeugung eines Scannogramms
ATE464623T1 (de) * 2000-06-16 2010-04-15 Imagnosis Inc Punkteingabeeinrichtung und verfahren f r dreidimensionale bilder
DE10345073A1 (de) 2003-09-26 2005-05-04 Siemens Ag Betriebsverfahren für ein tomographiefähiges bildgebendes Untersuchungsgeräts und Röntgen-Computertomographiegerät
US7668285B2 (en) * 2004-02-16 2010-02-23 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus and image processing apparatus
JP2006107093A (ja) * 2004-10-05 2006-04-20 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
JP5078609B2 (ja) * 2005-04-28 2012-11-21 株式会社日立メディコ 画像表示装置及びプログラム
JP4105176B2 (ja) * 2005-05-19 2008-06-25 ザイオソフト株式会社 画像処理方法および画像処理プログラム
DE102005027678A1 (de) * 2005-06-15 2006-12-28 Siemens Ag Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern
FR2897461A1 (fr) * 2006-02-16 2007-08-17 Gen Electric Dispositif de rayonnement x et procede de traitement d'images
JP4327171B2 (ja) * 2006-04-06 2009-09-09 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 最大値投影方法および装置
JP5189541B2 (ja) 2009-03-30 2013-04-24 アルプス電気株式会社 静電容量式モーション入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262352A (ja) * 1994-03-25 1995-10-13 Ge Yokogawa Medical Syst Ltd 連続体識別方法および3次元画像表示装置
JPH11203454A (ja) * 1998-01-19 1999-07-30 Ge Yokogawa Medical Systems Ltd 投影像上での3次元位置指定方法、ボリューム指定方法および投影像処理装置
JP2002330958A (ja) * 2000-12-04 2002-11-19 Ge Medical Systems Global Technology Co Llc 医用画像データを選択し表示する方法及び装置
JP2005322257A (ja) * 2005-05-25 2005-11-17 Hitachi Medical Corp 3次元画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264469A (zh) * 2012-11-23 2019-09-20 Icad公司 用于改进断层合成医学图像数据读取中的工作流效率的系统和方法
CN110264469B (zh) * 2012-11-23 2023-11-03 Icad公司 用于改进断层合成医学图像数据读取中的工作流效率的系统和方法

Also Published As

Publication number Publication date
EP2301432A4 (en) 2013-06-26
JP2009291276A (ja) 2009-12-17
US8547377B2 (en) 2013-10-01
US20110074785A1 (en) 2011-03-31
EP2301432A1 (en) 2011-03-30
JP5224451B2 (ja) 2013-07-03
EP2301432B1 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
JP5224451B2 (ja) 投影画像作成装置、方法およびプログラム
JP6118325B2 (ja) 最適なトモグラフィスライスの自動選択を備えた対話式ライブセグメンテーション
US9053565B2 (en) Interactive selection of a region of interest in an image
EP2420188B1 (en) Diagnosis support apparatus, diagnosis support method, and storage medium storing diagnosis support program
US9449247B2 (en) Contour correction device, method, and program
JP4541434B2 (ja) 画像処理装置及び画像処理プログラム
US20160042537A1 (en) Enhancements for displaying and viewing tomosynthesis images
US10339710B2 (en) Medical image system and method
US8588490B2 (en) Image-based diagnosis assistance apparatus, its operation method and program
EP2724294B1 (en) Image display apparatus
JP5492024B2 (ja) 領域分割結果修正装置、方法、及びプログラム
JP2013150804A (ja) 医用画像処理装置及び医用画像処理プログラム
JP2010528750A (ja) 管状構造の検査
JP2007135843A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP5901930B2 (ja) 画像処理装置
JP6560745B2 (ja) 生体構造のボリュメトリック画像を視覚化すること
JP2023138979A (ja) 解剖学的構造の着目領域をモデリングすること
CN107851337B (zh) 交互式网格编辑
CN113645896A (zh) 手术计划、手术导航和成像用系统
JP6738631B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP5595207B2 (ja) 医用画像表示装置
JP2012085833A (ja) 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
EP3828836A1 (en) Method and data processing system for providing a two-dimensional unfolded image of at least one tubular structure
EP4258216A1 (en) Method for displaying a 3d model of a patient

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758108

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12737022

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2009758108

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009758108

Country of ref document: EP