WO2009107770A1 - 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法 - Google Patents

医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法 Download PDF

Info

Publication number
WO2009107770A1
WO2009107770A1 PCT/JP2009/053663 JP2009053663W WO2009107770A1 WO 2009107770 A1 WO2009107770 A1 WO 2009107770A1 JP 2009053663 W JP2009053663 W JP 2009053663W WO 2009107770 A1 WO2009107770 A1 WO 2009107770A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
medical image
image
dimensional
display device
Prior art date
Application number
PCT/JP2009/053663
Other languages
English (en)
French (fr)
Inventor
博人 國分
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to JP2010500762A priority Critical patent/JP5371949B2/ja
Publication of WO2009107770A1 publication Critical patent/WO2009107770A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Definitions

  • the present invention relates to a technique for displaying medical image information acquired by a medical imaging apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus.
  • a medical imaging apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus.
  • a medical image display device that performs image processing on medical image information of a subject acquired by a medical image photographing device to create and display a three-dimensional image.
  • a typical image processing method for creating a three-dimensional image there is a volume rendering method.
  • Volume rendering method projects a virtual ray (ray) to medical image information recorded as three-dimensional data, calculates the reflected light amount and transmitted light amount for each pixel (voxel) through which the virtual ray passes, and reflects the reflected light.
  • This volume rendering method has the following problems.
  • setting an opacity curve for the purpose of drawing the surface of the living tissue highlights the surface of the living tissue located in front of the virtual light projection direction.
  • the infiltrating tissue below the surface of the living tissue is not displayed.
  • the opacity curve for lowering the opacity of the surface of the living tissue and depicting the infiltrating tissue below the surface of the living tissue is set, the shape of the surface of the living tissue becomes unclear and the diagnosis of the surface of the living tissue becomes difficult.
  • the depth of the infiltrating tissue varies depending on the site to be diagnosed, and depending on the setting of the extraction position of the color information, the infiltrating tissue may not be properly depicted and may cause a misdiagnosis. is there.
  • the adjustment operation of the extraction position of the color information becomes complicated, and it takes time to create an image.
  • the whole structure of a living tissue existing in a wide range under the surface of the living tissue, for example, a blood vessel may not be drawn, which may cause a problem in diagnosis.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a medical image display device that enables accurate and rapid diagnosis of tissues under the surface of a living tissue such as an infiltrating tissue. To do.
  • the present invention for achieving the above-described object creates a plurality of three-dimensional images under a plurality of different conditions using medical image information, extracts image information of shadow information and color information from the plurality of three-dimensional images, A three-dimensional composite image is created by synthesizing the extracted shadow information and color information.
  • the medical image display device of the present invention uses a medical image information storage unit that stores medical image information of a subject and medical image information stored in the medical image information storage unit under a plurality of different conditions.
  • a three-dimensional image creation unit that creates a plurality of three-dimensional images
  • an image information extraction unit that extracts image information of shadow information and color information from the plurality of three-dimensional images created by the three-dimensional image creation unit
  • image information extraction An image combining unit that generates a three-dimensional combined image by combining the shadow information and color information extracted by the unit, an image display unit that displays the three-dimensional combined image generated by the image combining unit on a display device, It is characterized by comprising.
  • the medical image capturing apparatus of the present invention further includes a medical image information acquisition unit that acquires medical image information of a subject, and the medical image information storage unit stores the medical image information acquired by the medical image information acquisition unit. It is memorized.
  • the medical image display method of the present invention includes a medical image information storage step for storing medical image information of a subject, and a tertiary that creates a plurality of three-dimensional images under a plurality of different conditions using the stored medical image information.
  • Original image creation step image information extraction step for extracting image information of shadow information and color information from a plurality of 3D images created by the 3D image creation step, shadow information and color extracted by the image information extraction step
  • An image composition step for creating a three-dimensional composite image by image synthesis of information and an image display step for displaying the three-dimensional composite image created by the image composition step on a display device are provided.
  • the medical image information is image information of a subject imaged by a medical image photographing apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic imaging apparatus.
  • a medical image photographing apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic imaging apparatus.
  • the plurality of different conditions are conditions related to the image processing method and the projection processing method.
  • the medical image display apparatus creates a plurality of three-dimensional images by performing image processing based on a volume rendering method on a plurality of different opacity conditions on medical image information.
  • pixel values in RGB color space in a three-dimensional image are converted into pixel values in HLS color space
  • pixel values related to luminance are extracted as shading information
  • pixel values related to hue and saturation are converted into color information. May be extracted as The medical image display device combines the shadow information extracted through the HLS color space and the color information and converts them into pixel values in the RGB color space to create a three-dimensional composite image.
  • a medical image display device that enables accurate and rapid diagnosis of tissues under the surface of a living tissue such as an infiltrating tissue. It is possible to prevent oversight of a lesion site under the surface of a living tissue. Since efficient diagnosis is possible, the time required for inspection and diagnosis can be shortened.
  • the information on the surface of the living tissue and the information below the surface of the living tissue such as the infiltrating tissue are clearly displayed on the three-dimensional composite image. And can be done quickly.
  • Hardware configuration diagram of the medical image display device 1 Flowchart showing the overall operation of the medical image display device 1 Flow chart showing details of 3D composite image creation processing (S1004 in Fig. 2) The figure which shows the setting and movement of the viewpoint 25 and the projection surface 26 Diagram showing volume rendering method Diagram showing opacity curve Explanatory drawing of shadow information extraction processing (S2003 in FIG. 3) Illustration of color information extraction process (S2004 in FIG. 3) Illustration of image composition processing (S2005 in Fig.
  • Diagram showing depth range Screen showing depth range setting The figure which shows the setting screen 100 of a three-dimensional synthetic image creation process
  • the figure which shows the projection direction in the virtual endoscope display method The figure which shows the projection direction when a shadow information viewpoint and a color information viewpoint differ in a virtual endoscope display method
  • Diagram showing projection direction in unfolded display method The figure which shows the projection direction when the shadow information viewpoint and the color information viewpoint differ in the unfolded display method
  • 1 medical image display device 2 CPU, 3 main memory, 4 storage device, 5 display memory, 6 display device, 7 controller, 8 mouse, 9 keyboard, 10 network adapter, 11 system bus, 12 network, 13 medical imaging device , 21 luminal inner wall, 23 infiltrating tissue, 25 viewpoints, 26 projection plane, 31 virtual rays, 32 reflected light, 33 transmitted light, 35 pixels, 36, 37 opacity curve, 41 3D image (for shadow information extraction), 45 shadow information, 51 3D image (for color information extraction), 55 color information, 61 3D composite image, 62 infiltrated tissue, 63 polyp, 64 inner wall contour, 74 shadow information depth range, 75 color information depth range, 80, 90 screen (depth range setting), 100 setting screen (3D composite image creation processing), 111 lumen internal organ wall, 112, 122, 132 infiltrated tissue, 113, 123, 133 shadow information viewpoint, 114, 124, 134 color information Perspective, 121 131 folds, 135 cores, S11, S12, S21, S22, S
  • FIG. 1 is a hardware configuration diagram of the medical image display apparatus 1.
  • the medical image display device 1 includes a CPU 2, a main memory 3, a storage device 4, a display memory 5, a display device 6, a mouse 8 and a keyboard 9 connected to a controller 7, and a network adapter 10 connected by a system bus 11.
  • the medical image display device 1 is connected to a medical image photographing device 13 and a medical image database 14 via a network 12.
  • the CPU2 is a device that controls the operation of each component.
  • the CPU 2 loads a program stored in the storage device 4 and data necessary for program execution into the main memory 3 for execution.
  • the storage device 4 is a device that acquires and stores medical image information captured by the medical image capturing device 13 via a network 12 such as a LAN (local area network).
  • the storage device 4 stores a program executed by the CPU 2 and data necessary for program execution.
  • the main memory 3 stores programs executed by the CPU 2 and the progress of arithmetic processing.
  • the mouse 8 and the keyboard 9 are operation devices for an operator to give an operation instruction to the medical image display apparatus 1.
  • the display memory 5 stores display data to be displayed on the display device 6 such as a liquid crystal display or a CRT.
  • the controller 7 detects the state of the mouse 8, detects the position of the mouse pointer on the display device 6, and outputs a detection signal to the CPU 2.
  • the network adapter 10 is for connecting the medical image display apparatus 1 to a network 12 such as a LAN, a telephone line, or the Internet.
  • the medical image photographing device 13 is a device for photographing medical image information such as a tomographic image of a subject.
  • the medical image capturing apparatus 13 is, for example, an X-ray CT apparatus, an MRI apparatus, or an ultrasonic imaging apparatus.
  • the medical image database 14 is a database system that stores medical image information captured by the medical image capturing device 13.
  • FIG. 2 is a flowchart showing the overall operation of the medical image display apparatus 1.
  • FIG. 4 is a diagram illustrating setting and movement of the viewpoint 25 and the projection plane 26.
  • the CPU 2 of the medical image display device 1 acquires medical image information captured by the medical image capturing device 13 from the storage device 4 or the medical image database 14, and stores it in the main memory 3.
  • the CPU 2 of the medical image display device 1 sets the viewpoint 25 and the projection plane 26 inside the luminal organ to be diagnosed in the acquired medical image information.
  • the viewpoint 25 is set on the core line 22 which is the center line of the hollow organ.
  • the projection plane 26 is set perpendicular to the core line 22 at a predetermined distance in front of the viewpoint 25.
  • Virtual rays are projected from the viewpoint 25 in the projection direction 27, and a three-dimensional image is created on the projection plane.
  • An infiltrating tissue 23 exists below the surface of the inner wall 21 of the luminal organ, and a polyp 24 exists on the surface of the inner wall 21 of the luminal organ. The imaging of the infiltrating tissue 23 and the polyp 24 will be described later.
  • the CPU 2 of the medical image display apparatus 1 shifts to the process of S1009 and moves the viewpoint 25 and the projection plane 26 along the core line 22.
  • the movement of the viewpoint 25 is performed, for example, when the operator operates a pointing device such as the mouse 8 and inputs position information.
  • the projection plane 26 maintains the initial setting state such as the positional relationship with respect to the viewpoint 25 and the projection direction 27, and moves with the movement of the viewpoint 25.
  • the CPU 2 of the medical image display device 1 sequentially updates and displays the three-dimensional image of the luminal organ displayed on the display device 6 by repeating the processing of S1003 to S1009. As a result, the CPU 2 of the medical image display device 1 virtually displays a three-dimensional image of the luminal organ as if it were captured using an endoscope camera (virtual endoscope display).
  • FIG. 5 is a diagram showing a volume rendering method.
  • FIG. 6 is a diagram showing an opacity curve.
  • the CPU 2 of the medical image display device 1 performs image processing such as volume rendering on the acquired medical image information to create a three-dimensional image and displays it on the display device 6.
  • Volume rendering method projects a virtual ray 31 (ray) from the viewpoint 34 to medical image information recorded as three-dimensional data, and the amount of reflected light 32 for each pixel 35 (voxel) through which the virtual ray 31 passes.
  • This is an image processing method for creating a three-dimensional image by calculating the amount of transmitted light 33 and integrating the amount of reflected light 32.
  • the reflected light 32 and the transmitted light 33 are determined by the opacity corresponding to the value of the pixel 35 constituting the medical image information.
  • a three-dimensional image of the diagnostic site is selectively drawn.
  • a curve indicating the opacity corresponding to the pixel value is called an opacity curve, and a diagnosis target part is selectively displayed by adjusting the opacity curve.
  • opacity is assigned to the CT value.
  • an opacity curve 36 that assigns opacity is set around 50 HU, which is the CT value of the organ, and when creating a 3D image of a bone, An opacity curve 37 for assigning opacity is set around the value 800HU.
  • a color 3D image is created in consideration of the reflected light color.
  • a color three-dimensional image is created by assigning color values in the RGB color space to pixel values and integrating the color values as reflected light.
  • a table indicating color values corresponding to pixel values is called a color table, and the color display of the diagnosis target part is adjusted by adjusting the color table.
  • FIG. 3 is a flowchart showing details of the three-dimensional composite image creation processing (S1004 in FIG. 2).
  • FIG. 7 is an explanatory diagram of the shadow information extraction process (S2003 in FIG. 3).
  • FIG. 8 is an explanatory diagram of the color information extraction process (S2004 in FIG. 3).
  • FIG. 9 is an explanatory diagram of the image composition process (S2005 in FIG. 3).
  • the CPU 2 of the medical image display apparatus 1 sets two different image processing conditions for the acquired medical image information.
  • the image processing conditions are conditions related to the image processing method and the projection method.
  • the image processing method for example, a volume rendering method, a surface rendering method, a maximum value projection method (MIP), a minimum value projection method (MinIP), and a pixel value integration method (RaySum) are used.
  • the projection method for example, a parallel projection method, a perspective projection method, a virtual endoscope display method, and a luminal organ expansion display method are used.
  • the CPU 2 of the medical image display apparatus 1 creates two three-dimensional images by applying two different image processing conditions to the acquired medical image information.
  • the CPU 2 of the medical image display apparatus 1 sets an opacity curve that assigns high opacity to the surface of the inner wall of the luminal organ, and creates the three-dimensional image 41 of FIG.
  • the CPU 2 of the medical image display apparatus 1 sets the opacity curve that assigns high opacity to the tissue below the surface of the inner wall of the luminal organ, and creates the three-dimensional image 51 of FIG.
  • the shape of the polyp 43 and the inner wall contour 44 can be recognized, but the infiltrating tissue 42 is unclear.
  • the infiltrating tissue 52 can be recognized, but the shapes of the polyp 53 and the inner wall contour 54 are unclear. In the three-dimensional image 51, it is difficult to grasp the positional relationship between the infiltrating tissue 52 and the inner wall of the luminal organ.
  • the CPU 2 of the medical image display apparatus 1 extracts the two-dimensional shadow information 45 from the three-dimensional image 41, and extracts the two-dimensional color information 55 from the three-dimensional image 51.
  • the shadow information 45 indicates information about light and dark.
  • the color information 55 indicates information related to the hue.
  • the three-dimensional image 41 and the three-dimensional image 51 are generally three-dimensional images represented in an RGB color space (R: red, G: green, B: blue).
  • the CPU 2 of the medical image display apparatus 1 extracts the shadow information 45 and the color information 55 after converting the RGB color space three-dimensional image 41 and the three-dimensional image 51 into another color space three-dimensional image.
  • the CPU 2 of the medical image display device 1 converts the three-dimensional image 41 and the three-dimensional image 51 in the RGB color space into a three-dimensional image in the HLS color space.
  • the HLS color space is a color space represented by luminance, hue, and saturation.
  • the CPU 2 of the medical image display device 1 extracts luminance information as shadow information, and extracts hue information and saturation information as color information.
  • the three-dimensional image 41 and the three-dimensional image 51 in the RGB color space may be converted into a three-dimensional image in the YCbCr color space.
  • the CPU 2 of the medical image display apparatus 1 extracts the luminance signal (Y) as shadow information, and extracts the blue difference signal (Cb) and the red difference signal (Cr) as color information.
  • the shapes of the polyp 46 and the inner wall contour 47 are clear, and information on the indistinct infiltrating tissue is excluded.
  • the color information 55 the infiltrating tissue 56 is clear, and information on unclear polyps and inner wall contours is excluded.
  • the CPU 2 of the medical image display device 1 combines the two-dimensional shadow information 45 and the color information 55, and again converts it into a three-dimensional image in the RGB color space, thereby creating one three-dimensional composite image 61.
  • the three-dimensional composite image 61 in FIG. 9 includes the shadow information 45 in which the shape of the polyp 46 and the inner wall contour 47 is clear and information on the indistinct infiltrating tissue is excluded, and the invisible tissue 56 in which the infiltrating tissue 56 is clear and unclear.
  • the color information 55 from which information on the inner wall contour is excluded is a three-dimensional image.
  • the shape of the polyp 63 and the inner wall contour 64 is clearly shown by shading, and the presence of the infiltrating tissue 62 is clearly shown by color. That is, a three-dimensional image is obtained as if the region where the infiltrating tissue exists is stained on the inner wall of the luminal organ.
  • the shape of the inner wall of the luminal organ and the infiltrating tissue can be clearly recognized, and the positional relationship between the inner wall of the luminal organ and the infiltrating tissue can be easily grasped.
  • Noise removal processing may be performed on the extracted color information in order to clearly depict the tissue under the surface of the living tissue.
  • a smoothing filter for calculating an average value of adjacent pixels
  • an intermediate value filter for outputting an intermediate value of surrounding pixels, and the like.
  • color information may be adjusted in order to emphasize the tissue below the surface of the living tissue.
  • the color tone can be changed from a red color to a blue color by adjusting the hue.
  • the saturation for example, it is possible to change the tone from a gray gradation to a color gradation.
  • color information region extraction processing may be performed.
  • region expansion method region growing method
  • the medical image display device presents color information to the operator as an image
  • the operator specifies a tissue under the surface of the biological tissue of interest using an input device such as a mouse or a keyboard
  • the medical image display device specifies The extracted tissue is extracted.
  • the operator designates a range of one or a plurality of three-dimensional areas to be synthesized with a geometric figure such as a quadrangle, and the medical image display apparatus uses only the color information of the designated area for image synthesis. May be.
  • the boundary region may be emphasized for the tissue under the surface of the living tissue.
  • the medical image display apparatus performs boundary extraction of color information using an edge filter or the like, which is a general image processing technique, and adjusts the hue and saturation of the color information of the extracted boundary portion to enhance the boundary. I do. Thereby, the tissue under the surface of the living tissue can be easily recognized.
  • a three-dimensional image with an unnatural tone may be created.
  • it is possible to express a natural color tone by extracting color information from each three-dimensional image and combining the color information created by performing weighted addition with the shadow information.
  • the medical image display device 1 creates a plurality of three-dimensional images under two different conditions using the medical image information, and shade information is respectively obtained from these two three-dimensional images. Alternatively, color information is extracted, and the shading information and the color information are combined to create and display a three-dimensional composite image.
  • this three-dimensional composite image information on the surface of the living tissue and information on the surface of the living tissue, such as the infiltrating tissue, are clearly displayed. Can be done.
  • FIG. 10 is a diagram illustrating the depth range.
  • FIG. 11 is a screen diagram showing depth range setting.
  • the medical image display device 1 includes a setting unit that can set a depth range of medical image information used for creating a three-dimensional image for extracting shadow information and color information.
  • the medical image display apparatus 1 sets a depth range of medical image information used for creating a three-dimensional image with respect to the projection direction 71.
  • a depth range of medical image information used for creating a three-dimensional image with respect to the projection direction 71.
  • the depth setting not only the depth from the surface of the living tissue but also an arbitrary depth range may be set without using the surface of the living tissue as a reference. Different depth ranges may be set for shadow information extraction and color information extraction.
  • a shadow information depth range 74 corresponding to the depth of the polyp 72 is set in order to extract the shadow information related to the shape of the polyp 72, and the depth of the blood vessel 73 is corresponding to extract color information related to the blood vessel 73.
  • a color information depth range 75 to be set is set.
  • a shadow information depth range setting unit 81 sets a shadow information depth range 82
  • a color information depth range setting unit 83 sets a color information depth range 84.
  • a polyp 86 on the surface of the living tissue and a blood vessel 87 under the living tissue are displayed.
  • the color information depth range 94 is enlarged and set.
  • the distribution of the blood vessels 97 is enlarged and displayed as compared with the three-dimensional composite image 85 on the setting screen 80.
  • the distribution of the infiltrating tissue around the diagnostic site can be observed from various viewpoints.
  • the distribution of blood vessels around a polyp can be observed from various viewpoints.
  • FIG. 12 is a diagram showing a setting screen 100 for 3D composite image creation processing.
  • a plurality of 3D images are created under a plurality of image processing conditions for a plurality of medical image information, and a 3D image for extracting shadow information and a 3D image for extracting color information are selected.
  • the shadow information extraction process and the color information extraction process are performed above, and a three-dimensional composite image is created through the image composition process.
  • the medical image information 101 indicates a data set of medical images.
  • the part 102 indicates a predetermined region or object such as a diagnostic part in the medical image information 101.
  • a projection processing method 103 and an image processing method 104 indicate a projection processing method and an image processing method as conditions for creating a three-dimensional image from the medical image information 101, respectively.
  • the projection processing method 103 is, for example, a parallel projection method, a perspective projection method, a virtual endoscope display method, or a luminal organ expansion display method.
  • the image processing 104 is, for example, a volume rendering method, a surface rendering method, a maximum value projection method (MIP), a minimum value projection method (MinIP), or a pixel value integration method (RaySum).
  • the combination 105 selects medical image information for extracting shadow information and color information.
  • the setting screen 100 can be operated with a pointing device such as the mouse 8.
  • the operator selects medical image information for shadow information extraction and color information extraction on the setting screen 100 and presses a “composite” button 108 to instruct creation of a three-dimensional composite image.
  • a “composite” button 108 to instruct creation of a three-dimensional composite image.
  • the operator presses the “Add” button 106 to create a new 3D image.
  • the operator presses a “delete” button 107 to delete unnecessary three-dimensional images.
  • the third embodiment As described above, in the third embodiment, as in the first embodiment, the information related to the surface of the living tissue and the information below the surface of the living tissue such as the infiltrating tissue are clearly displayed in the three-dimensional composite image. Therefore, it is possible to accurately and quickly diagnose a tissue under the surface of a living tissue such as an infiltrating tissue.
  • conditions such as a projection processing method and an image processing method for creating a three-dimensional composite image can be specified, and medical image information for extracting shadow information and color information can be selected. Therefore, a desired three-dimensional composite image can be easily created or switched.
  • the shade information that is grayscale and the color information that is color are managed separately, it is possible to easily switch between color display and grayscale display.
  • the operator can obtain a grayscale display three-dimensional image by creating a three-dimensional image using only shadow information on the setting screen 100 of FIG. 12 without operating the color table.
  • FIG. 13 is a diagram illustrating a projection direction in the virtual endoscope display method.
  • the projection directions from the viewpoint 503 are C51 and C52.
  • the distance between the living tissue through which the virtual ray passes from the surface of the inner wall 501 of the luminal organ to the infiltrating tissue 502 is L51 and L52, which is different. For this reason, when a 3D image for extracting shadow information and a 3D image for extracting color information are created under the same image processing conditions, different color information is extracted for each projection direction from the 3D image for extracting color information. And unnatural colors.
  • FIG. 14 is a diagram illustrating a projection direction when the shadow information viewpoint and the color information viewpoint are different in the virtual endoscope display method.
  • the shadow information viewpoint 113 and the color information viewpoint 114 are different.
  • the medical image display device 1 passes through the intersection of S11 and S12, which are projection directions from the shadow information viewpoint 113, and the inner wall 111 of the luminal organ.
  • S11 and S12 which are projection directions from the color information viewpoint 114 are set in the vertical direction.
  • the medical image display device 1 calculates the position and angle of the surface of the inner wall 111 of the luminal organ in order to calculate the amount of reflected light from each pixel when creating a three-dimensional image for extracting shadow information. Based on the position and angle of the surface of the inner wall 111 of the luminal organ, C11 and C12 which are projection directions from the color information viewpoint 114 are set when a three-dimensional image for color information extraction is created.
  • the distance of the biological tissue through which the virtual ray passes from the surface of the inner wall 111 of the luminal organ to the infiltrating tissue 112 is substantially constant as L11 and L12.
  • the projection direction from the color information viewpoint 114 when creating a three-dimensional image for extracting color information may be simply set to a direction orthogonal to the core line of the luminal organ. In this case, the calculation process for calculating the vertical direction with respect to the inner wall of the luminal organ can be omitted.
  • FIG. 15 is a diagram showing a projection direction in the expanded display method.
  • FIG. 16 is a diagram showing the projection direction when the shadow information viewpoint and the color information viewpoint are different in the expanded display method.
  • the expanded display method sets the projection direction (S61 / C61) in the direction orthogonal to the core line 605 of the luminal organ, and rotates the projection direction around the core line 605, as if the lumen organ inner wall 601 was cut open.
  • This is a method for creating a three-dimensional image. Since this method can display the entire inner wall 601 of the luminal organ, it is effective in diagnosing a lesion such as a polyp existing on the inner wall 601 of the luminal organ.
  • the surface of the fold 121 is assumed to be the projection direction when the orthogonal direction of the core line 125 is the projection direction when creating a three-dimensional image for color information extraction.
  • a difference occurs in the distance of the living tissue through which the virtual ray passes from to the infiltrating tissue 122.
  • a 3D image for extracting shadow information and a 3D image for extracting color information are created under the same image processing conditions, different color information is extracted for each projection direction from the 3D image for extracting color information. And unnatural colors.
  • the medical image display apparatus 1 projects the projection direction from the shadow information viewpoint 123 and the projection from the color information viewpoint 124.
  • the direction is set as a different projection direction.
  • the medical image display device 1 passes through the intersection of S21 and S22, which are projection directions from the shadow information viewpoint 123, and the surface of the fold 121, and is perpendicular to the surface of the fold 121.
  • C21 and C22 which are projection directions from the color information viewpoint 124 are set.
  • the medical image display device 1 calculates the position and angle of the surface of the fold 121 in order to calculate the amount of reflected light from each pixel when creating a three-dimensional image for extracting shadow information. Based on the position and angle of the surface, C21 and C22, which are projection directions from the color information viewpoint 124, are set when a three-dimensional image for color information extraction is created.
  • the distance of the living tissue through which the virtual ray passes from the surface of the fold 121 to the infiltrating tissue 122 is substantially constant, so that the shadow information is maintained and natural.
  • a three-dimensional composite image of shades can be created.
  • FIG. 17 is a diagram illustrating a projection direction when the color information viewpoint is moved on the core line of the luminal organ in the unfolded display method.
  • the fold 131, the infiltrating tissue 132, and the shadow information viewpoint 133 in FIG. 17 are the same as the fold 121, the infiltrating tissue 122, and the shadow information viewpoint 123 in FIG.
  • the medical image display device 1 has been described on the assumption that the projection direction from the color information viewpoint 124 is set in a direction perpendicular to the surface of the fold 121, but in FIG.
  • the information viewpoint 134 is moved on the core 135 of the luminal organ.
  • the operator can extract the optimum color information by adjusting the position of the color information viewpoint 134 while confirming the display of the infiltrating tissue in the three-dimensional composite image.
  • the fourth embodiment As described above, in the fourth embodiment, as in the first embodiment, the information related to the surface of the living tissue and the information below the surface of the living tissue such as the infiltrating tissue are clearly displayed in the three-dimensional composite image. Therefore, it is possible to accurately and quickly diagnose a tissue under the surface of a living tissue such as an infiltrating tissue. Further, in the fourth embodiment, by setting different projection direction conditions when creating a 3D image for extracting shadow information and creating a 3D image for extracting color information, the infiltrating tissue can be displayed more appropriately. It can be highlighted.
  • the medical image display apparatus 1 may be configured by appropriately combining them.
  • the drawing of the infiltrating tissue under the surface of the inner wall of the luminal organ such as the large intestine has been described, but the present invention is not limited to this.
  • the medical image display apparatus of the present invention can be applied to depict tissues under the surface of a living tissue. For example, it is possible to apply coloring emphasis of an infarcted region in the myocardium in a three-dimensional image of the heart or coloring emphasis of a breast cancer onset region in a three-dimensional image of the breast.
  • a medical image capturing apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic imaging apparatus may include the medical image display apparatus or the medical image display method of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

 浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことを可能とする医用画像表示装置を提供する。  医用画像表示装置は、取得された医用画像情報について異なる2つの画像処理条件を設定して2つの三次元画像を作成し(S2001及びS2002)、一方の三次元画像から二次元の陰影情報を抽出し、他方の三次元画像から二次元の色情報を抽出する(S2003及びS2004)。陰影情報は、明暗に関する情報を示す。色情報は、色合いに関する情報を示す。医用画像表示装置は、二次元の陰影情報と色情報とを組み合わせて1つの三次元合成画像を作成して表示装置に表示する(S2005)。

Description

医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
 本発明は、X線CT装置、MRI装置、超音波診断装置等の医用画像撮影装置によって取得された医用画像情報を表示する技術に関する。
 医用画像撮影装置によって取得された被検体の医用画像情報に対して画像処理を行い、三次元画像を作成して表示する医用画像表示装置がある。三次元画像を作成する代表的な画像処理手法としてボリュームレンダリング法がある。ボリュームレンダリング法は、三次元データとして記録される医用画像情報に対して仮想光線(レイ)を投影し、仮想光線が通過する画素(ボクセル)毎に反射光量と透過光量を算出し、反射光を積算することで三次元画像を作成する画像処理手法である。
 このボリュームレンダリング法には以下の問題点がある。生体組織の内部に浸潤的に発現する異常部位である浸潤組織を描出する場合、生体組織表面の描出を目的としたオパシティカーブを設定すると仮想光線の投影方向の前面に位置する生体組織表面か強調され、生体組織表面下の浸潤組織が表示されない。また、生体組織表面の不透明度を下げ、生体組織表面下の浸潤組織を描出するオパシティカーブを設定すると生体組織表面の形状が不明瞭になって生体組織表面の診断が困難となる。
 そこで、[特許文献1]には、反射光を積算する際に仮想光線方向の各画素の色情報を順次積算することで、生体組織表面の陰影情報と生体組織表面下の組織の色情報とを有する三次元画像を作成する医用画像生成装置が開示されている。
特開2005-87602号公報
 しかしながら、従来の医用画像表示装置では、不透明度が異なる複数の三次元画像を切り替えながら診断したり、生体組織表面下の浸潤組織が同時に描出されるような最適なオパシティカーブを微調整する必要があり、画像作成や処理条件の設定に時間を要するために効率的な診断ができない。
 また、[特許文献1]が示す技術では、浸潤組織の深度は診断対象部位によって様々であるので、色情報の抽出位置の設定によっては適正に浸潤組織が描出されずに誤診を招く可能性がある。また、色情報の抽出位置の調整作業が煩雑となり画像作成までに時間を要する。また、生体組織表面下において広範囲に存在する生体組織、例えば、血管等の全体構造が描出されない場合があり、診断に問題が生じる可能性がある。
 本発明は、以上の課題に鑑みてなされたものであり、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことを可能とする医用画像表示装置を提供することを目的とする。
 前述した目的を達成するための本発明は、医用画像情報を用いて複数の異なる条件で複数の三次元画像を作成し、複数の三次元画像から陰影情報と色情報の画像情報を抽出し、抽出した陰影情報と色情報とを画像合成して三次元合成画像を作成する。
 具体的には、本発明の医用画像表示装置は、被検体の医用画像情報を記憶する医用画像情報記憶部と、医用画像情報記憶部に記憶された医用画像情報を用いて複数の異なる条件で複数の三次元画像を作成する三次元画像作成部と、三次元画像作成部によって作成された複数の三次元画像から陰影情報と色情報の画像情報を抽出する画像情報抽出部と、画像情報抽出部によって抽出された陰影情報と色情報とを画像合成して三次元合成画像を作成する画像合成部と、画像合成部によって作成された三次元合成画像を表示装置に表示する画像表示部と、を具備することを特徴とする。
 また、本発明の医用画像撮影装置は、さらに、被検体の医用画像情報を取得する医用画像情報取得部を備え、医用画像情報記憶部は、医用画像情報取得部で取得された医用画像情報を記憶することを特徴とする。
 また、本発明の医用画像表示方法は、被検体の医用画像情報を記憶する医用画像情報記憶ステップと、記憶された医用画像情報を用いて複数の異なる条件で複数の三次元画像を作成する三次元画像作成ステップと、三次元画像作成ステップによって作成された複数の三次元画像から陰影情報と色情報の画像情報を抽出する画像情報抽出ステップと、画像情報抽出ステップによって抽出された陰影情報と色情報とを画像合成して三次元合成画像を作成する画像合成ステップと、画像合成ステップによって作成された三次元合成画像を表示装置に表示する画像表示ステップと、を具備することを特徴とする。
 ここで、医用画像情報とは、X線CT装置やMRI装置や超音波撮影装置等の医用画像撮影装置によって撮影された被検体の画像情報である。
 複数の異なる条件とは、画像処理方法や投影処理方法に関する条件である。例えば、医用画像表示装置は、医用画像情報に対して複数の異なる不透明度条件でボリュームレンダリング法による画像処理を行うことにより、複数の三次元画像を作成する。
 画像情報抽出に関しては、例えば、三次元画像におけるRGB色空間の画素値をHLS色空間の画素値に変換し、輝度に関する画素値を陰影情報として抽出し、色相及び彩度に関する画素値を色情報として抽出してもよい。医用画像表示装置は、HLS色空間を介して抽出された陰影情報と色情報とを組み合わせ、RGB色空間の画素値に変換して三次元合成画像を作成する。
 本発明によれば、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことを可能とする医用画像表示装置を提供することができる。生体組織表面下の病変部位の見落としを防止できる。効率的な診断が可能となるために検査や診断に要する時間を短縮することができる。
 具体的には、三次元合成画像に生体組織表面に関する情報と浸潤組織等の生体組織表面下の情報とが共に明瞭に表示されるので、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことができる。
医用画像表示装置1のハードウェア構成図 医用画像表示装置1の全体動作を示すフローチャート 三次元合成画像作成処理(図2のS1004)の詳細を示すフローチャート 視点25及び投影面26の設定及び移動を示す図 ボリュームレンダリング法を示す図 オパシティカーブを示す図 陰影情報抽出処理(図3のS2003)の説明図 色情報抽出処理(図3のS2004)の説明図 画像合成処理(図3のS2005)の説明図 深度範囲を示す図 深度範囲設定を示す画面図 三次元合成画像作成処理の設定画面100を示す図 仮想内視鏡表示法における投影方向を示す図 仮想内視鏡表示法において陰影情報視点と色情報視点とが異なる場合の投影方向を示す図 展開表示法における投影方向を示す図 展開表示法において陰影情報視点と色情報視点とが異なる場合の投影方向を示す図 展開表示法において色情報視点を管腔臓器の芯線上で移動させる場合の投影方向を示す図
符号の説明
 1 医用画像表示装置、2 CPU、3 主メモリ、4 記憶装置、5 表示メモリ、6 表示装置、7 コントローラ、8 マウス、9 キーボード、10 ネットワークアダプタ、11 システムバス、12 ネットワーク、13 医用画像撮影装置、21 管腔臓器内壁、23 浸潤組織、25 視点、26 投影面、31 仮想光線、32 反射光、33 透過光、35 画素、36、37 オパシティカーブ、41 三次元画像(陰影情報抽出用)、45 陰影情報、51 三次元画像(色情報抽出用)、55 色情報、61 三次元合成画像、62 浸潤組織、63 ポリープ、64 内壁輪郭、74 陰影情報深度範囲、75 色情報深度範囲、80、90 画面(深度範囲設定)、100 設定画面(三次元合成画像作成処理)、111 管腔臓器内壁、112、122、132 浸潤組織、113、123、133 陰影情報視点、114、124、134 色情報視点、121、131 ひだ、135 芯線、S11、S12、S21、S22、S31、S32 陰影情報視点からの投影方向、C11、C12、C21、C22、C31、C32 色情報視点からの投影方向、L11、L12 仮想光線の通過距離、
発明を実施するための形態
 以下添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。尚、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。また、以下に説明する実施形態では、主として、管腔臓器を診断対象部位とし、画像処理方法としてボリュームレンダリング法を用い、投影方法として仮想内視鏡表示法を用いるものとして説明する。
 (1.医用画像表示装置1の構成)
 最初に、図1を参照しながら、医用画像表示装置1の構成について説明する。 
 図1は、医用画像表示装置1のハードウェア構成図である。 
 医用画像表示装置1は、CPU2、主メモリ3、記憶装置4、表示メモリ5、表示装置6、コントローラ7に接続されたマウス8やキーボード9、ネットワークアダプタ10がシステムバス11によって接続されて構成される。医用画像表示装置1は、ネットワーク12を介して医用画像撮影装置13や医用画像データベース14に接続される。
 CPU2は、各構成要素の動作を制御する装置である。CPU2は、記憶装置4に格納されるプログラムやプログラム実行に必要なデータを主メモリ3にロードして実行する。記憶装置4は、医用画像撮影装置13により撮影された医用画像情報をLAN(ローカルエリアネットワーク)等のネットワーク12を介して取得して格納する装置である。また、記憶装置4には、CPU2が実行するプログラムやプログラム実行に必要なデータが格納される。主メモリ3は、CPU2が実行するプログラムや演算処理の途中経過を記憶するものである。
 マウス8やキーボード9は、操作者が医用画像表示装置1に対して操作指示を行う操作デバイスである。表示メモリ5は、液晶ディスプレイやCRT等の表示装置6に表示するための表示データを格納するものである。コントローラ7は、マウス8の状態を検出して、表示装置6上のマウスポインタの位置を検出し、検出信号をCPU2へ出力するものである。ネットワークアダプタ10は、医用画像表示装置1をLAN、電話回線、インターネット等のネットワーク12に接続するためのものである。
 医用画像撮影装置13は、被検体の断層画像等の医用画像情報を撮影する装置である。医用画像撮影装置13は、例えば、X線CT装置やMRI装置や超音波撮影装置である。医用画像データベース14は、医用画像撮影装置13によって撮影された医用画像情報を記憶するデータベースシステムである。
 <第1実施形態>
 (2.医用画像表示装置1の動作)
 次に、図2~図9を参照しながら、第1実施形態について説明する。
 (2-1.全体動作)
 図2は、医用画像表示装置1の全体動作を示すフローチャートである。 
 図4は、視点25及び投影面26の設定及び移動を示す図である。 
(S1001)医用画像表示装置1のCPU2は、医用画像撮影装置13によって撮影された医用画像情報を記憶装置4あるいは医用画像データベース14から取得して、主メモリ3に記憶させる。(S1002)医用画像表示装置1のCPU2は、取得された医用画像情報において診断対象の管腔臓器内部に視点25及び投影面26を設定する。図4では、管腔臓器の中心線である芯線22上に視点25が設定される。投影面26は、視点25の前方の所定距離の位置に芯線22に対して垂直に設定される。視点25から投影方向27に仮想光線が投影され、投影面26において三次元画像が作成される。管腔臓器内壁21の表面下には浸潤組織23が存在し、管腔臓器内壁21の表面にはポリープ24が存在する。尚、浸潤組織23及びポリープ24の画像化については後述する。
 (S1003のNO、S1006及びS1007)医用画像表示装置1のCPU2は、三次元合成画像を作成しない場合、S1006の処理に移行して三次元画像を作成して表示装置6に表示する。(S1003のYES、S1004及びS1005)医用画像表示装置1のCPU2は、三次元合成画像を作成する場合、S1004の処理に移行して三次元合成画像を作成して表示装置6に表示する。尚、三次元合成画像作成処理(S1004)については、図3を用いて後述する。
 (S1008及びS1009)医用画像表示装置1のCPU2は、処理を継続する場合には、S1009の処理に移行して視点25及び投影面26を芯線22に沿って移動させる。視点25の移動は、例えば、マウス8等のポインティングデバイスを操作者が操作して位置情報を入力することによって行われる。投影面26は、視点25に対する位置関係や投影方向27等の初期設定状態を維持し、視点25の移動と共に移動する。
 医用画像表示装置1のCPU2は、S1003~S1009の処理を繰り返すことにより、表示装置6に表示される管腔臓器の三次元画像を順次更新して表示する。これにより、医用画像表示装置1のCPU2は、内視鏡カメラを用いて撮影しているかのように、仮想的に管腔臓器の三次元画像を表示する(仮想内視鏡表示)。
 (2-2.三次元画像作成処理(図2のS1006))
 図5は、ボリュームレンダリング法を示す図である。 
 図6は、オパシティカーブを示す図である。 
 医用画像表示装置1のCPU2は、取得された医用画像情報に対してボリュームレンダリング法等の画像処理を行って三次元画像を作成して表示装置6に表示する。
 ボリュームレンダリング法は、三次元データとして記録される医用画像情報に対して視点34から仮想光線31(レイ)を投影し、仮想光線31が通過する画素35(ボクセル)毎に反射光32の光量と透過光33の光量とを算出し、反射光32の光量を積算することで三次元画像を作成する画像処理手法である。
 反射光32及び透過光33は、医用画像情報を構成する画素35の値に対応した不透明度(オパシティ)によって決定される。この不透明度を調整することによって選択的に診断部位の三次元画像が描画される。画素値に対応する不透明度を示す曲線はオパシティカーブと呼ばれ、オパシティカーブを調整することによって診断対象部位が選択的に表示される。
 X線CT装置で撮影した断層像を用いてボリュームレンダリング法によって三次元画像を作成する場合、CT値に対して不透明度が割り当てられる。例えば、臓器の三次元画像を作成する場合には、臓器のCT値である50HU付近に不透明度を割り当てるオパシティカーブ36が設定され、骨部の三次元画像を作成する場合には、骨のCT値である800HU付近に不透明度を割り当てるオパシティカーブ37が設定される。
 ボリュームレンダリング法によって三次元画像を作成する場合、反射光色を考慮してカラー三次元画像が作成される。この場合、不透明度の場合と同様に画素値に対してRGB色空間の色値を割り当て、この色値を反射光として積算することでカラー三次元画像が作成される。画素値に対応する色値を示すテーブルはカラーテーブルと呼ばれ、カラーテーブルを調整することによって診断対象部位の色表示が調整される。
 (2-3.三次元合成画像作成処理(図2:S1004))
 図3は、三次元合成画像作成処理(図2のS1004)の詳細を示すフローチャートである。 
 図7は、陰影情報抽出処理(図3のS2003)の説明図である。 
 図8は、色情報抽出処理(図3のS2004)の説明図である。 
 図9は、画像合成処理(図3のS2005)の説明図である。
 (S2001)医用画像表示装置1のCPU2は、取得された医用画像情報について異なる2つの画像処理条件を設定する。画像処理条件は、画像処理方法や投影方法に関する条件である。画像処理方法としては、例えば、ボリュームレンダリング法、サーフェイスレンダリング法、最大値投影法(MIP)、最小値投影法(MinIP)、画素値積算法(RaySum)が用いられる。投影方法としては、例えば、平行投影法、遠近投影法、仮想内視鏡表示法、管腔臓器展開表示法が用いられる。
 (S2002)医用画像表示装置1のCPU2は、取得された医用画像情報に対して、異なる2つの画像処理条件を適用して2つの三次元画像を作成する。医用画像表示装置1のCPU2は、管腔臓器内壁表面に高い不透明度を割り当てるオパシティカーブを設定して、図7の三次元画像41を作成する。医用画像表示装置1のCPU2は、管腔臓器内壁表面下の組織に高い不透明度を割り当てるオパシティカーブを設定を設定して、図8の三次元画像51を作成する。三次元画像41では、ポリープ43や内壁輪郭44の形状が認識可能であるが、浸潤組織42が不明瞭である。三次元画像51では、浸潤組織52が認識可能であるが、ポリープ53や内壁輪郭54の形状が不明瞭である。また、三次元画像51では、浸潤組織52と管腔臓器内壁との位置関係の把握が困難である。
 (S2003及びS2004)医用画像表示装置1のCPU2は、三次元画像41から二次元の陰影情報45を抽出し、三次元画像51から二次元の色情報55を抽出する。陰影情報45は、明暗に関する情報を示す。色情報55は、色合いに関する情報を示す。三次元画像41及び三次元画像51は、一般にRGB色空間(R:赤、G:緑、B:青)で表される三次元画像である。医用画像表示装置1のCPU2は、これらのRGB色空間の三次元画像41及び三次元画像51を他の色空間の三次元画像に変換した上で、陰影情報45及び色情報55を抽出する。
 例えば、医用画像表示装置1のCPU2は、RGB色空間の三次元画像41及び三次元画像51をHLS色空間の三次元画像に変換する。HLS色空間は、輝度(Luminance)、色相(Hue)、彩度(Saturation)によって表される色空間である。この場合、医用画像表示装置1のCPU2は、輝度情報を陰影情報として抽出し、色相情報及び彩度情報を色情報として抽出する。また、RGB色空間の三次元画像41及び三次元画像51をYCbCr色空間の三次元画像に変換してもよい。この場合、医用画像表示装置1のCPU2は、輝度信号(Y)を陰影情報として抽出し、青の差分信号(Cb)及び赤の差分信号(Cr)を色情報として抽出する。
 陰影情報45では、ポリープ46や内壁輪郭47の形状が明瞭であり、不明瞭な浸潤組織に関する情報は排除されている。色情報55では、浸潤組織56が明瞭であり、不明瞭なポリープや内壁輪郭に関する情報が排除されている。
 (S2005)医用画像表示装置1のCPU2は、二次元の陰影情報45と色情報55とを組み合わせ、再度RGB色空間の三次元画像に変換することにより1つの三次元合成画像61を作成する。図9の三次元合成画像61は、ポリープ46や内壁輪郭47の形状が明瞭であり不明瞭な浸潤組織に関する情報は排除されている陰影情報45と、浸潤組織56が明瞭であり不明瞭なポリープや内壁輪郭に関する情報が排除されている色情報55と、が組み合わされた三次元画像である。三次元合成画像61では、ポリープ63や内壁輪郭64の形状が陰影によって明瞭に示され、浸潤組織62の存在が色により明瞭に示される。すなわち、管腔臓器内壁において、あたかも浸潤組織が存在する領域が染色されたような三次元画像が得られる。管腔臓器内壁の形状や浸潤組織を明瞭に認識可能であると共に、管腔臓器内壁と浸潤組織との位置関係の把握も容易である。
 (2-4.色情報調整)
 抽出された色情報にはノイズが含まれる可能性がある。生体組織表面下の組織を明瞭に描出するために抽出された色情報に対してノイズ除去処理を行ってもよい。ノイズ除去の一般的な画像処理手法としては、隣接画素の平均値を算出するスムージングフィルタや、周辺画素の中間値を出力する中間値フィルタ(メディアンフィルタ)等がある。これらのフィルタリング処理を行った陰影情報と色情報とを画像合成することでノイズが低減された三次元合成画像を作成することができる。
 また、生体組織表面下の組織を強調するために、色情報の調整を行ってもよい。HLS色空間の場合、色相を調整することによって、例えば、赤系色から青系色への色調変更が可能である。また、彩度を調整することによって、例えば、グレー階調からカラー階調への色調変更が可能である。
 また、三次元画像に描出された生体組織表面下の組織から注目する領域のみを描出する場合には、色情報の領域抽出処理を行ってもよい。領域抽出処理の一般的な画像処理手法としては、領域拡張法(リージョングローイング法)がある。この場合、医用画像表示装置は色情報を画像として操作者に提示し、操作者はマウスやキーボード等の入力デバイスを用いて注目する生体組織表面下の組織を指定し、医用画像表示装置は指定された組織の抽出を行う。また、操作者は画像合成を行いたい1つ又は複数の三次元領域を四角形等の幾何学的図形で範囲指定し、医用画像表示装置は範囲指定された領域の色情報のみを画像合成に用いてもよい。
 また、生体組織表面下の組織を強調するために、生体組織表面下の組織について境界領域の強調処理を行ってもよい。この場合、医用画像表示装置は、一般的な画像処理手法であるエッジフィルタ等を用いて色情報の境界抽出を行い、抽出された境界部分の色情報の色相や彩度を調整して境界強調を行う。これにより、生体組織表面下の組織を容易に認識可能となる。
 また、大きく異なる画像処理条件で作成された三次元画像から抽出された陰影情報と色情報とを合成する場合、不自然な色調の三次元画像が作成される場合がある。この場合、各々の三次元画像から色情報を抽出し、重み付け加算を行って作成した色情報を陰影情報と画像合成することによって、自然な色調を表現することが可能となる。
 (2-5.第1実施形態の効果)
 以上述べたように、第1実施形態では、医用画像表示装置1は、医用画像情報を用いて2つの異なる条件で複数の三次元画像を作成し、これらの2つの三次元画像からそれぞれ陰影情報または色情報を抽出し、これらの陰影情報と色情報とを組み合わせて三次元合成画像を作成して表示する。この三次元合成画像には、生体組織表面に関する情報と浸潤組織等の生体組織表面下の情報とが共に明瞭に表示されるので、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことができる。また、生体組織表面下の病変部位の見落としを防止できる。効率的な診断が可能となるために検査や診断に要する時間を短縮することができる。
 <第2実施形態>
 (3.深度範囲設定)
 次に、図10及び図11を参照しながら、第2実施形態について説明する。 
 図10は、深度範囲を示す図である。 
 図11は、深度範囲設定を示す画面図である。 
 第2実施形態では、医用画像表示装置1は、陰影情報や色情報を抽出するための三次元画像の作成に用いる医用画像情報の深度範囲を設定可能とする設定部を備える。
 医用画像表示装置1は、投影方向71について、三次元画像の作成に用いる医用画像情報の深度範囲を設定する。深度設定については、生体組織表面からの深度だけでなく、生体組織表面を基準とすることなく任意の深度範囲を設定するようにしてもよい。また、陰影情報抽出用と色情報抽出用とで異なる深度範囲を設定するようにしてもよい。
 図10では、ポリープ72の形状に関する陰影情報を抽出するために、ポリープ72の深度に対応する陰影情報深度範囲74が設定され、血管73に関する色情報を抽出するために、血管73の深度に対応する色情報深度範囲75が設定される。
 図11の設定画面80では、陰影情報深度範囲設定部81によって陰影情報深度範囲82が設定され、色情報深度範囲設定部83によって色情報深度範囲84が設定される。設定画面80の三次元合成画像85には、生体組織表面のポリープ86と生体組織下の血管87とが表示される。 
 図11の設定画面90では、設定画面80と比較して、色情報深度範囲94が拡大されて設定される。設定画面90の三次元合成画像95では、設定画面80の三次元合成画像85と比較して、血管97の分布が拡大されて表示される。
 (3-2.第2実施形態の効果)
 以上述べたように、第2実施形態では、第1実施形態と同様に、三次元合成画像には、生体組織表面に関する情報と浸潤組織等の生体組織表面下の情報とが共に明瞭に表示されるので、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことができる。 
 また、第2実施形態では、三次元画像の作成に用いる医用画像情報の深度範囲を設定することにより、三次元合成画像に表示させる生体組織や浸潤組織の範囲を制限して診断部位を強調表示することができる。
 また、陰影情報深度範囲と色情報深度範囲とを適宜変更して三次元合成画像を表示させることにより、診断部位周辺の浸潤組織の分布を様々な観点から観察することができる。例えば、ポリープ周辺の血管の分布を様々な観点から観察することができる。
 <第3実施形態>
 (4.三次元合成画像作成処理の設定)
 次に、図12を参照しながら、第3実施形態について説明する。 
 図12は、三次元合成画像作成処理の設定画面100を示す図である。 
 上述の実施形態では、1つの医用画像情報に対して2つの画像処理条件で2つの三次元画像を作成するものとして説明したが、これに限定されない。第3実施形態では、複数の医用画像情報に対して複数の画像処理条件で複数の三次元画像を作成し、陰影情報抽出用の三次元画像と色情報抽出用の三次元画像とを選択した上で陰影情報抽出処理及び色情報抽出処理が行われ、画像合成処理を経て三次元合成画像が作成される。
 設定画面100には、医用画像情報101、部位102、投影処理方法103、画像処理方法104、合成105の各項目が表示される。医用画像情報101は、医用画像のデータセットを示す。部位102は、医用画像情報101における診断部位等の所定の領域やオブジェクトを示す。投影処理方法103及び画像処理方法104は、それぞれ、医用画像情報101から三次元画像を作成するための条件としての投影処理方法及び画像処理方法を示す。投影処理方法103は、例えば、平行投影法、遠近投影法、仮想内視鏡表示法、管腔臓器展開表示法である。画像処理104は、例えば、ボリュームレンダリング法、サーフェイスレンダリング法、最大値投影法(MIP)、最小値投影法(MinIP)、画素値積算法(RaySum)である。合成105は、陰影情報抽出用及び色情報抽出用の医用画像情報を選択するものである。設定画面100の操作は、マウス8等のポインティングデバイスによって行うことができる。
 操作者は、設定画面100において、陰影情報抽出用及び色情報抽出用の医用画像情報を選択して、「合成」ボタン108を押下することによって三次元合成画像の作成を指示する。尚、操作者は、三次元合成画像の作成に用いる三次元画像が設定画面100に表示されていない場合には、「追加」ボタン106を押下して、新たに三次元画像を作成する。また、操作者は、「削除」ボタン107を押下することにより、必要のない三次元画像を削除する。
 (4-1.第3実施形態の効果)
 以上述べたように、第3実施形態では、第1実施形態と同様に、三次元合成画像には、生体組織表面に関する情報と浸潤組織等の生体組織表面下の情報とが共に明瞭に表示されるので、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことができる。 
 また、第3実施形態では、三次元合成画像を作成するための投影処理方法や画像処理方法等の条件を指定し、陰影情報抽出用及び色情報抽出用の医用画像情報を選択することができるので、所望の三次元合成画像を容易に作成したり切り替えたりすることができる。 
 また、グレースケールである陰影情報とカラーである色情報とは個別に管理されるので、カラー表示とグレースケール表示とを容易に切り替え可能である。操作者は、カラーテーブルを操作することなく、図12の設定画面100において、陰影情報のみを使用して三次元画像を作成することによりグレースケール表示の三次元画像を取得することができる。
 <第4実施形態>
 (5.異なる投影方向条件)
 次に、図13~図17を参照しながら、第4実施形態について説明する。 
 上述の実施形態では、陰影情報抽出用の三次元画像を作成するための投影方向と、色情報抽出用の三次元画像を作成するための投影方向とは、同一の投影方向であるものとして説明したが、これに限定されない。第4実施形態では、異なる投影方向条件で陰影情報抽出用の三次元画像と色情報抽出用の三次元画像とが作成される。
 (5-1.仮想内視鏡表示法)
 図13は、仮想内視鏡表示法における投影方向を示す図である。 
 図13では、管腔臓器内壁501の表面下に存在する浸潤組織502の表示を目的として色情報を抽出する場合、視点503からの投影方向がC51及びC52となる。そして、管腔臓器内壁501の表面から浸潤組織502までに仮想光線が通過する生体組織の距離は、L51及びL52となって差異が生じる。このため、同一の画像処理条件で陰影情報抽出用の三次元画像と色情報抽出用の三次元画像を作成すると、色情報抽出用の三次元画像からは投影方向毎に異なる色情報が抽出されて不自然な色合いとなる。
 図14は、仮想内視鏡表示法において陰影情報視点と色情報視点とが異なる場合の投影方向を示す図である。 
 図14では、陰影情報視点113と色情報視点114とは異なる。医用画像表示装置1は、陰影情報抽出用の三次元画像作成時に、陰影情報視点113からの投影方向であるS11及びS12と管腔臓器内壁111との交点を通り、管腔臓器内壁111に対して垂直方向に、色情報視点114からの投影方向であるC11及びC12を設定する。
 医用画像表示装置1は、陰影情報抽出用の三次元画像作成時に、各画素からの反射光の光量を算出するために管腔臓器内壁111の表面の位置や角度を算出するので、この算出された管腔臓器内壁111の表面の位置や角度に基づいて、色情報抽出用の三次元画像作成時に色情報視点114からの投影方向であるC11及びC12を設定する。
 これにより、色情報抽出用の三次元画像作成時において、管腔臓器内壁111の表面から浸潤組織112までに仮想光線が通過する生体組織の距離は、L11及びL12となってほぼ一定となるので、陰影情報を維持しつつ自然な色合いの三次元合成画像を作成することができる。
 尚、色情報抽出用の三次元画像作成時の色情報視点114からの投影方向を、簡易的に管腔臓器の芯線に対して直交する方向に設定してもよい。この場合、管腔臓器内壁に対する垂直方向を算出する演算処理を省略することができる。
 (5-2.展開表示法)
 図15は、展開表示法における投影方向を示す図である。 
 図16は、展開表示法において陰影情報視点と色情報視点とが異なる場合の投影方向を示す図である。 
 展開表示法は、管腔臓器の芯線605の直交方向に投影方向(S61・C61)を設定し、芯線605を中心として投影方向を回転することで、あたかも管腔臓器内壁601を切り開いたような三次元画像を作成する手法である。この手法では管腔臓器内壁601の全体を表示可能であるため、管腔臓器内壁601上に存在するポリープ等の病変の診断に有効である。
 しかしながら、図16に示すように、大腸のひだ121の表面下に浸潤組織122が存在する場合、色情報抽出用の三次元画像作成時に芯線125の直交方向を投影方向とすると、ひだ121の表面から浸潤組織122までに仮想光線が通過する生体組織の距離に差異が生じる。このため、同一の画像処理条件で陰影情報抽出用の三次元画像と色情報抽出用の三次元画像を作成すると、色情報抽出用の三次元画像からは投影方向毎に異なる色情報が抽出されて不自然な色合いとなる。
 そこで、図16に示すように、大腸のひだ121の表面下に浸潤組織122が存在する場合には、医用画像表示装置1は、陰影情報視点123からの投影方向と色情報視点124からの投影方向とを異なる投影方向として設定する。医用画像表示装置1は、陰影情報抽出用の三次元画像作成時に、陰影情報視点123からの投影方向であるS21及びS22とひだ121の表面との交点を通り、ひだ121の表面に対して垂直方向に、色情報視点124からの投影方向であるC21及びC22を設定する。
 医用画像表示装置1は、陰影情報抽出用の三次元画像作成時に、各画素からの反射光の光量を算出するためにひだ121の表面の位置や角度を算出するので、この算出されたひだ121の表面の位置や角度に基づいて、色情報抽出用の三次元画像作成時に色情報視点124からの投影方向であるC21及びC22を設定する。
 これにより、色情報抽出用の三次元画像作成時において、ひだ121の表面から浸潤組織122までに仮想光線が通過する生体組織の距離は、ほぼ一定となるので、陰影情報を維持しつつ自然な色合いの三次元合成画像を作成することができる。
 (5-3.色情報視点の移動)
 図17は、展開表示法において色情報視点を管腔臓器の芯線上で移動させる場合の投影方向を示す図である。 
 図17のひだ131、浸潤組織132、陰影情報視点133は、図16のひだ121、浸潤組織122、陰影情報視点123と同様のものである。
 図16では、医用画像表示装置1は、色情報視点124からの投影方向がひだ121の表面に対して垂直方向に設定するものとして説明したが、図17では、医用画像表示装置1は、色情報視点134を管腔臓器の芯線135上を移動させる。
 このように、操作者が色情報視点134の位置を調整することにより、色情報抽出用の三次元画像作成時において、ひだ131の表面から浸潤組織132までに仮想光線が通過する生体組織の距離が変化する。これにより、操作者は、三次元合成画像における浸潤組織の表示を確認しながら、色情報視点134の位置を調整して最適な色情報を抽出することができる。
 (5-4.第4実施形態の効果)
 以上述べたように、第4実施形態では、第1実施形態と同様に、三次元合成画像には、生体組織表面に関する情報と浸潤組織等の生体組織表面下の情報とが共に明瞭に表示されるので、浸潤組織等の生体組織表面下の組織の診断を正確かつ迅速に行うことができる。 
 また、第4実施形態では、陰影情報抽出用の三次元画像作成時と色情報抽出用の三次元画像作成時とで異なる投影方向条件を設定することにより、浸潤組織をより適正に表示させたり強調表示させることができる。
 <その他>
 以上、第1実施形態~第4実施形態について説明したが、これらを適宜組み合わせて医用画像表示装置1を構成してもよい。 
 また、上述の実施形態では大腸等の管腔臓器内壁の表面下の浸潤組織の描画について説明したが、これに限定されない。本発明の医用画像表示装置は、生体組織表面下の組織の描出に適用することができる。例えば、心臓の三次元画像における心筋内の梗塞部位の色付け強調や、乳房の三次元画像における乳がん発症部位の色付け強調等の応用が可能である。
 また、操作者がマウス8やキーボード9を用いて、取得された医用画像情報において1つまたは複数の三次元領域を選択し、CPU2は、選択された三次元領域の医用画像情報を用いて、複数の異なる条件で複数の三次元画像を作成しても良い。 
 また、X線CT装置やMRI装置や超音波撮影装置等の医用画像撮影装置が本発明の医用画像表示装置または医用画像表示方法を内部に含んだ形態でもよい。
 以上、本発明に係る医用画像表示装置の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1.  被検体の医用画像情報を記憶する医用画像情報記憶部と、
     前記医用画像情報記憶部に記憶された前記医用画像情報を用いて複数の異なる条件で複数の三次元画像を作成する三次元画像作成部と、
     前記三次元画像作成部によって作成された前記複数の三次元画像から陰影情報と色情報の画像情報を抽出する画像情報抽出部と、
     前記画像情報抽出部によって抽出された前記陰影情報と前記色情報とを画像合成して三次元合成画像を作成する画像合成部と、
     前記画像合成部によって作成された前記三次元合成画像を表示装置に表示する画像表示部と、
     を具備することを特徴とする医用画像表示装置。
  2.  前記三次元画像作成部は、複数の異なる画像処理方法または投影処理方法で前記複数の三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  3.  前記三次元画像作成部は、複数の異なる不透明度条件でボリュームレンダリング法による画像処理を行うことにより、前記複数の三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  4.  前記三次元画像作成部は、複数の異なる投影方向で投影処理を行って前記複数の三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  5.  前記三次元画像作成部は、管腔臓器の中心線に沿って視点を移動させることにより前記投影方向を変更することを特徴とする請求項4に記載の医用画像表示装置。
  6.  前記三次元画像作成部は、診断対象部位の表面に対して垂直方向に投影方向を設定して投影処理を行って前記色情報を抽出するための三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  7.  前記画像情報抽出部は、前記三次元画像作成部によって作成された前記複数の三次元画像について、RGB色空間の画素値をHLS色空間の画素値に変換し、輝度に関する画素値を前記陰影情報として抽出し、色相及び彩度に関する画素値を前記色情報として抽出し、
     前記画像合成部は、前記抽出された陰影情報と色情報とを組み合わせ、RGB色空間の画素値に変換して前記三次元合成画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  8.  前記画像情報抽出部によって抽出された色情報の調整を行う色情報調整部を具備することを特徴とする請求項1に記載の医用画像表示装置。
  9.  前記陰影情報を抽出するための三次元画像の作成に用いる前記医用画像情報の深度範囲を設定する陰影情報深度範囲設定部と、
     前記色情報を抽出するための三次元画像の作成に用いる前記医用画像情報の深度範囲を設定する色情報深度範囲設定部と、
     を具備することを特徴とする請求項1に記載の医用画像表示装置。
  10.  前記三次元画像作成部は、複数の異なる条件で複数の三次元画像を予め作成して前記医用画像情報記憶部に記憶させておきし、
     前記画像情報抽出部は、前記予め作成された複数の三次元画像の中から選択された三次元画像について、前記陰影情報または前記色情報を抽出することを特徴とする請求項1に記載の医用画像表示装置。
  11.  前記医用画像情報記憶部は、複数の医用画像情報を取得して記憶し、
     前記三次元画像作成部は、前記複数の医用画像情報を用いて、前記複数の異なる条件で前記複数の三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  12.  前記取得された医用画像情報において1つまたは複数の三次元領域を選択する三次元領域選択部を具備し、
     前記三次元画像作成部は、前記三次元領域選択部によって選択された三次元領域の医用画像情報を用いて、前記複数の異なる条件で前記複数の三次元画像を作成することを特徴とする請求項1に記載の医用画像表示装置。
  13.  請求項1乃至12のいずれか一項に記載の医用画像表示装置と、
     前記被検体の医用画像情報を取得する医用画像情報取得部と、
    を備え、
     前記医用画像情報記憶部は、前記医用画像情報取得部で取得された医用画像情報を記憶することを特徴とする医用画像撮影装置。
  14.  被検体の医用画像情報を記憶する医用画像情報記憶ステップと、
     前記記憶された医用画像情報を用いて複数の異なる条件で複数の三次元画像を作成する三次元画像作成ステップと、
     前記三次元画像作成ステップによって作成された前記複数の三次元画像から陰影情報と色情報の画像情報を抽出する画像情報抽出ステップと、
     前記画像情報抽出ステップによって抽出された前記陰影情報と前記色情報とを画像合成して三次元合成画像を作成する画像合成ステップと、
     前記画像合成ステップによって作成された三次元合成画像を表示装置に表示する画像表示ステップと、
     を具備することを特徴とする医用画像表示方法。
  15.  前記被検体の医用画像情報を取得する医用画像情報取得ステップを備え、
     前記医用画像情報記憶ステップは、前記取得された被検体の医用画像情報を記憶することを特徴とする医用画像表示方法。
PCT/JP2009/053663 2008-02-29 2009-02-27 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法 WO2009107770A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010500762A JP5371949B2 (ja) 2008-02-29 2009-02-27 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008049801 2008-02-29
JP2008-049801 2008-02-29

Publications (1)

Publication Number Publication Date
WO2009107770A1 true WO2009107770A1 (ja) 2009-09-03

Family

ID=41016155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/053663 WO2009107770A1 (ja) 2008-02-29 2009-02-27 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法

Country Status (2)

Country Link
JP (1) JP5371949B2 (ja)
WO (1) WO2009107770A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227870A (ja) * 2010-04-16 2011-11-10 Hitachi Medical Corp 画像処理方法および画像処理装置
JP2012071043A (ja) * 2010-09-29 2012-04-12 Canon Inc 情報処理装置、その表示処理方法及びプログラム
JP2012509133A (ja) * 2009-09-10 2012-04-19 インフィニット ヘルスケア カンパニー リミテッド 仮想内視鏡装置とその駆動方法及び検診装置
WO2014147933A1 (ja) * 2013-03-22 2014-09-25 富士フイルム株式会社 医用画像表示制御装置および方法並びにプログラム
JP2016122325A (ja) * 2014-12-25 2016-07-07 カシオ計算機株式会社 診断支援装置並びに当該診断支援装置における画像処理方法及びそのプログラム
CN105997114A (zh) * 2016-04-29 2016-10-12 中山大学附属第医院 增强Micro CT扫描周围神经图像清晰度的方法
JP2017225819A (ja) * 2016-06-20 2017-12-28 東芝メディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP2019051238A (ja) * 2017-09-19 2019-04-04 キヤノン株式会社 乳房撮影装置、画像処理装置及び画像処理方法
WO2019069522A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020018705A (ja) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置、画像生成方法、及び画像生成プログラム
WO2020183799A1 (ja) * 2019-03-11 2020-09-17 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2020166814A (ja) * 2019-03-11 2020-10-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
JP7489387B2 (ja) 2018-12-06 2024-05-23 コーニンクレッカ フィリップス エヌ ヴェ 3d仮想内視鏡レンダリング

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004215846A (ja) * 2003-01-14 2004-08-05 Ziosoft Inc ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム
JP2005087602A (ja) * 2003-09-19 2005-04-07 Ziosoft Inc 医用画像生成装置および方法、ならびに、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004215846A (ja) * 2003-01-14 2004-08-05 Ziosoft Inc ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム
JP2005087602A (ja) * 2003-09-19 2005-04-07 Ziosoft Inc 医用画像生成装置および方法、ならびに、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAUSER H. ET AL.: "Two-Level Volume Rendering", IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, vol. 7, no. 3, 2001, pages 242 - 252 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509133A (ja) * 2009-09-10 2012-04-19 インフィニット ヘルスケア カンパニー リミテッド 仮想内視鏡装置とその駆動方法及び検診装置
JP2011227870A (ja) * 2010-04-16 2011-11-10 Hitachi Medical Corp 画像処理方法および画像処理装置
JP2012071043A (ja) * 2010-09-29 2012-04-12 Canon Inc 情報処理装置、その表示処理方法及びプログラム
WO2014147933A1 (ja) * 2013-03-22 2014-09-25 富士フイルム株式会社 医用画像表示制御装置および方法並びにプログラム
US10398286B2 (en) 2013-03-22 2019-09-03 Fujifilm Corporation Medical image display control apparatus, method, and program
JP2016122325A (ja) * 2014-12-25 2016-07-07 カシオ計算機株式会社 診断支援装置並びに当該診断支援装置における画像処理方法及びそのプログラム
CN105997114A (zh) * 2016-04-29 2016-10-12 中山大学附属第医院 增强Micro CT扫描周围神经图像清晰度的方法
CN105997114B (zh) * 2016-04-29 2019-06-14 中山大学附属第一医院 增强Micro CT扫描周围神经图像清晰度的方法
JP2017225819A (ja) * 2016-06-20 2017-12-28 東芝メディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP7171168B2 (ja) 2016-06-20 2022-11-15 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
US10888291B2 (en) 2017-09-19 2021-01-12 Canon Kabushiki Kaisha Breast imaging device, image processing device, and image processing method
JP2019051238A (ja) * 2017-09-19 2019-04-04 キヤノン株式会社 乳房撮影装置、画像処理装置及び画像処理方法
JP7054329B2 (ja) 2017-10-06 2022-04-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11826186B2 (en) 2017-10-06 2023-11-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2019068953A (ja) * 2017-10-06 2019-05-09 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2019069522A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7179521B2 (ja) 2018-08-02 2022-11-29 キヤノンメディカルシステムズ株式会社 医用画像処理装置、画像生成方法、及び画像生成プログラム
JP2020018705A (ja) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置、画像生成方法、及び画像生成プログラム
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
JP7489387B2 (ja) 2018-12-06 2024-05-23 コーニンクレッカ フィリップス エヌ ヴェ 3d仮想内視鏡レンダリング
CN113557714A (zh) * 2019-03-11 2021-10-26 佳能株式会社 医学图像处理装置、医学图像处理方法和程序
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7406892B2 (ja) 2019-03-11 2023-12-28 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US11887288B2 (en) 2019-03-11 2024-01-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2020183799A1 (ja) * 2019-03-11 2020-09-17 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2020166814A (ja) * 2019-03-11 2020-10-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2009107770A1 (ja) 2011-07-07
JP5371949B2 (ja) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5371949B2 (ja) 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
JP6779690B2 (ja) 眼科画像処理装置及び眼科撮影装置
US6885886B2 (en) Method and system for visualizing a body volume and computer program product
JP5591440B2 (ja) 医用画像表示装置
CN104644202B (zh) 医用图像数据处理装置、医用图像数据处理方法以及医用图像数据处理程序
US9449387B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP4980723B2 (ja) 画像生成方法及び画像生成装置
JP2007160094A (ja) 断層撮影による一連の画像データセットの可視化方法および装置
US20090174729A1 (en) Image display device and control method thereof
US8107701B2 (en) Medical image display system and medical image display program
JP2004141514A (ja) 画像処理装置及び超音波診断装置
JP2001283191A (ja) 臓器の特定領域抽出表示方法及び装置
US7991207B2 (en) Method and device for extracting region including stratified region held between first and second closed regions
JP4394127B2 (ja) 領域修正方法
JP4653938B2 (ja) ボリュームレンダリング画像処理方法、ボリュームレンダリング画像処理装置及びプログラム
JP5380231B2 (ja) 医用画像表示装置および方法ならびにプログラム
US20170301129A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing system
JP2010000306A (ja) 医用画像診断装置、画像処理装置、及びプログラム
JP4709603B2 (ja) 医用画像処理装置
JP6533687B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JPH1176228A (ja) 三次元画像構成装置
JP2010131315A (ja) 医用画像処理装置及び医用画像処理プログラム
JP2018121857A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2008067992A (ja) 医用画像表示装置及び医用画像表示方法
JP7227740B2 (ja) 画像表示装置、画像表示方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09715112

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010500762

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09715112

Country of ref document: EP

Kind code of ref document: A1