WO2015015777A1 - 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム - Google Patents

医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム Download PDF

Info

Publication number
WO2015015777A1
WO2015015777A1 PCT/JP2014/003914 JP2014003914W WO2015015777A1 WO 2015015777 A1 WO2015015777 A1 WO 2015015777A1 JP 2014003914 W JP2014003914 W JP 2014003914W WO 2015015777 A1 WO2015015777 A1 WO 2015015777A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
intersection
display control
internal tissue
medical image
Prior art date
Application number
PCT/JP2014/003914
Other languages
English (en)
French (fr)
Inventor
太 櫻木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DE112014003537.8T priority Critical patent/DE112014003537T5/de
Publication of WO2015015777A1 publication Critical patent/WO2015015777A1/ja
Priority to US15/008,317 priority patent/US10062184B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a medical image display control apparatus, an operation method thereof, and a medical image display control program for displaying an internal tissue of a subject superimposed on a three-dimensional image of the subject.
  • the head when performing a craniotomy of the head, the head has a layered structure from the surface to the skin region, the bone region, and the brain region.
  • the blood vessel under the skin opens the bone, and when the bone is opened, the cerebral vein and the cerebral artery under the bone become important tissues for the operation.
  • Patent Document 1 in order to display the internal tissue, a predetermined range from the surface of the subject is set as a removal layer, and a three-dimensional image from which the removal layer is removed constitutes a skin tissue, for example. It has been proposed to display a three-dimensional image of the internal tissue excluding the region.
  • the method of adjusting the opacity and attenuation of skin tissue and bone tissue has a problem that information on the skin surface and bone surface necessary for actual surgery becomes unclear.
  • Patent Document 1 it is necessary to set a range to be removed from the surface of the subject.
  • a part of the skin is cut open and the bone is cut. If you want to display an image in a state where the skin is visible, and when both the skin area and the bone area are displayed at the same time, display both the blood vessel under the skin area and the blood vessel under the bone area. Therefore, it is very difficult to set the removal range of the skin region and the bone region because these thicknesses are different from each other.
  • the thickness of the bone region differs from place to place, it is more difficult to set the thickness.
  • the present invention when displaying the internal tissue of a subject, appropriately displays the internal tissue below the currently displayed region without requiring the specification of the removal range as in the prior art. It is an object of the present invention to provide a medical image display control apparatus, an operation method thereof, and a medical image display control program that can be displayed superimposed on each other.
  • the medical image display control apparatus includes a region extraction unit that extracts a plurality of regions overlapping in the line-of-sight direction when a three-dimensional image of a subject is projected on a two-dimensional projection plane, and a plurality of regions.
  • a region where a light ray used when projecting a three-dimensional image onto a two-dimensional projection plane is first set as a crossing region, and when the crossing region is excluded, a point on a region where the light ray first crosses is determined.
  • an internal tissue information acquisition unit that acquires internal tissue information included, and a display control unit that superimposes and displays internal tissue information on a three-dimensional image projected on a two-dimensional projection plane .
  • the internal tissue information acquisition unit detects a specific tissue region from the internal tissue information, and the display control unit applies the specific tissue region to the three-dimensional image. Can be superimposed and displayed.
  • the internal tissue information acquisition unit can detect a specific tissue region by detecting a value within a preset range from the internal tissue information.
  • the internal tissue information acquisition unit acquires the maximum value, minimum value, integrated value, average value, or volume-rendered value of the pixels on the light beam between the first intersection and the second intersection as internal tissue information. it can.
  • the display control unit can be switched between display and non-display of a three-dimensional image of a plurality of regions.
  • the region extraction unit shall extract at least three regions
  • the internal tissue information acquisition unit shall acquire at least two internal tissue information between the regions of the at least three regions
  • the display control unit shall The at least two internal organization information can be displayed in different display modes.
  • the display control unit can display the internal tissue information in different display modes according to the position between the first intersection and the second intersection.
  • the blood vessel region can be included in the internal tissue information.
  • the region extraction unit can extract a skin region, an organ region, or a tumor region.
  • An operation method of the medical image display control device of the present invention is an operation method of a medical image display control device including an area extraction unit, an internal tissue information acquisition unit, and a display control unit.
  • a plurality of regions overlapping in the line-of-sight direction when projecting a three-dimensional image of a specimen onto a two-dimensional projection plane are extracted from the three-dimensional image, and the internal tissue information acquisition unit converts the three-dimensional image of the plurality of regions into a two-dimensional image.
  • the region where the light ray used for projection onto the projection plane first intersects is set as the intersection region, and when the intersection region is excluded, the first point on the region that intersects the ray is set as the first intersection point.
  • Display control unit projects on 2D projection plane Wherein the display by superposing the internal tissue information to the three-dimensional image.
  • the medical image display control program includes a computer, a region extraction unit that extracts a plurality of regions overlapping in the line-of-sight direction when projecting a three-dimensional image of a subject on a two-dimensional projection plane, and a plurality of regions The region where the light beam used when projecting the 3D image onto the 2D projection plane is set as the crossing region, and the crossing region is excluded.
  • an internal tissue information acquisition unit that acquires internal tissue information included between the two and a display control unit that superimposes and displays the internal tissue information on a three-dimensional image projected on a two-dimensional projection plane.
  • a plurality of regions overlapping in the line-of-sight direction when a three-dimensional image of a subject is projected onto a two-dimensional projection plane are displayed as a three-dimensional image.
  • a region where light rays used when a three-dimensional image is projected onto a two-dimensional projection plane is first set as a crossing region, and when the crossing region is excluded, A point on the region that intersects first is set as the first intersection, and a point that intersects the intersection region when the light beam travels in the direction opposite to the traveling direction of the ray from the first intersection is set as the second intersection. Since the internal tissue information included between the intersection and the second intersection is acquired, the internal tissue information can be acquired without requiring the specification of the removal range as in the prior art.
  • the internal tissue information is superimposed and displayed on the 3D image projected on the 2D projection surface, information on the surface of the subject is not lost.
  • the surface condition of the skin and the condition of the bone surface can be appropriately confirmed.
  • FIG. 1 is a block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of a medical image display control device, an operating method thereof, and a medical image display control program of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of the medical image diagnosis support system of the present embodiment.
  • the medical image diagnosis support system of the present embodiment includes a medical image display control device 1, a three-dimensional image storage server 2, a display 3, and an input device 4, as shown in FIG.
  • the medical image display control apparatus 1 is a computer in which the medical image display control program of this embodiment is installed in a computer.
  • the medical image display control apparatus 1 includes one or a plurality of central processing units (CPUs) and semiconductor memories, and one or a plurality of storage devices such as hard disks and SSDs (Solid State Drives).
  • the storage device is installed with the medical image display control program of the present embodiment, and the medical image display control program is executed by the central processing unit, whereby a three-dimensional image acquisition unit 10 as shown in FIG.
  • the region extraction unit 11, the internal tissue information acquisition unit 12, and the display control unit 13 operate.
  • a program recorded on a recording medium such as a CD-ROM may be used, or a program provided by SaaS (Software as a Service) via the Internet may be used. May be.
  • the three-dimensional image acquisition unit 10 acquires a three-dimensional image 5 of a subject imaged in advance before surgery or before examination.
  • the three-dimensional image 5 for example, volume data reconstructed from slice data output from a CT apparatus or an MRI (Magnetic Resonance Imaging) apparatus, an MS (Multi Slice) CT apparatus, or a cone beam CT apparatus is output. There is volume data.
  • the three-dimensional image 5 is stored in advance in the three-dimensional image storage server 2 together with the identification information of the subject, and the three-dimensional image acquisition unit 10 corresponds to the identification information of the subject input in the input device 4.
  • the image 5 is read from the three-dimensional image storage server 2.
  • the three-dimensional image acquisition unit 10 may acquire a large number of slice data and generate volume data.
  • the 3D image storage server 2 may be a so-called single server device, or may be configured to store a 3D image in a server device connected to a so-called cloud.
  • the 3D image acquisition unit 10 acquires a 3D image of the head.
  • the region extraction unit 11 receives the 3D image 5 acquired by the 3D image acquisition unit 10 and extracts a plurality of regions based on the input 3D image 5. Specifically, the three-dimensional image 5 of the head is input to the region extraction unit 11 of the present embodiment, and the region extraction unit 11 determines the head of the head based on the input three-dimensional image 5 of the head. A skin region, a bone region, and a brain region are respectively extracted. The skin region, bone region, and brain region are regions that overlap in the line-of-sight direction when a three-dimensional image of the head is projected onto a two-dimensional projection plane.
  • a known method may be used for automatic extraction based on the pixel data of the three-dimensional image 5 of the head, or the user may input You may make it extract by specifying each area
  • the internal organization information acquisition unit 12 acquires information between regions sandwiched between the regions extracted by the region extraction unit 11 as internal organization information. Specifically, in the present embodiment, information on blood vessels existing between the skin region and the bone region and information on blood vessels existing between the bone region and the brain region are acquired as internal tissue information. It is.
  • the internal tissue information acquisition unit 12 outputs the acquired internal tissue information to the display control unit 13. The method for acquiring the internal organization information will be described in detail later.
  • the display control unit 13 projects a projection image obtained by projecting the three-dimensional image 5 of the head acquired by the three-dimensional image acquisition unit 10 onto a two-dimensional projection surface using, for example, a volume rendering method or a surface rendering method. It is what is displayed.
  • the display control unit 13 of the present embodiment superimposes the internal tissue information on the projection image and displays it.
  • the display control unit 13 of the present embodiment superimposes and displays a blood vessel image between the skin region and the bone region on the projection image of the skin region of the head, or displays the bone region of the head.
  • An image of a blood vessel between a bone region and a brain region is superimposed on the projected image and displayed.
  • the projection image and the internal tissue image may be alpha-blended, or addition display in which the internal tissue image is overlaid on the projection image may be used.
  • the input device 4 is provided with a mouse, a keyboard, etc., and receives an operation input by the user.
  • the input device 4 accepts a setting input of a light beam direction used when projecting the three-dimensional image 5 of the head onto a two-dimensional projection plane, or receives a setting input of a display target displayed on the display 3. It will be accepted.
  • the display target for example, the skin region of the head and the blood vessel between the skin region and the bone region are set and inputted, or the blood vessel between the bone region of the head and the bone region and the brain region is set and inputted. .
  • the identification information of the subject is input by the user using the input device 4, and the three-dimensional image acquisition unit 10 of the medical image display control device 1 performs the three-dimensional image 5 corresponding to the input identification information of the subject. Is read from the three-dimensional image storage server 2 and acquired (S10).
  • the three-dimensional image 5 acquired by the three-dimensional image acquisition unit 10 is input to the region extraction unit 11, and the region extraction unit 11 extracts a plurality of regions based on the input three-dimensional image 5 (S12). .
  • the region extraction unit 11 in the present embodiment extracts a skin region, a bone region, and a brain region of the head as shown in FIG. 3 based on the three-dimensional image 5 of the head.
  • the light direction used when projecting the three-dimensional image 5 of the head onto the two-dimensional projection plane is set and input by the user using the input device 4 (S14).
  • a direction perpendicular to the 2D projection plane is set as the light ray direction.
  • a linear direction from a predetermined start point to each pixel on the two-dimensional projection surface is set as a light ray direction.
  • a broken arrow direction is a light ray direction.
  • FIG. 3 only three light beams are shown, but in reality, a large number of light beams are set for each pixel.
  • the user also inputs information to be displayed using the input device 4.
  • the skin of the head and the blood vessel between the skin and the bone are set and inputted as a display target, assuming a scene in which the skin of the head is incised.
  • the information on the skin region, the bone region, and the brain region extracted by the region extraction unit 11 is input to the internal tissue information acquisition unit 12, and the internal tissue information acquisition unit 12 is set by the user and the information on these regions. Based on the light direction information, information on blood vessels existing between the skin region and the bone region is acquired.
  • a region where each light beam first intersects is detected and set as a crossing region (S16).
  • the skin region shown in FIG. 3 is set as the intersection region.
  • an area where each light ray first intersects may be detected from each light ray and the coordinate value of each area, or the detection method may be determined by a three-dimensional image display method. It may be. Specifically, for example, when a three-dimensional image is displayed by volume rendering, a point at the time when the integrated value of opacity along the ray direction exceeds a predetermined threshold is set as an intersection, and an area including the intersection is defined. You may make it detect as an intersection area
  • an intersection between the ray direction and the surface surface may be used as an intersection, and a region including the intersection may be detected as an intersection region.
  • the point on the region that first intersects with each light ray is detected and set as the first intersection (S18).
  • the point on the bone region that first intersects with each ray shown in FIG. 3 is set as the first intersection.
  • a point that intersects the intersection area when the direction of travel of the light ray is traced from each first intersection is detected and set as a second intersection (S20).
  • the second intersection on the skin region shown in FIG. 3 is set.
  • the internal organization information acquisition part 12 acquires the information contained between the 1st intersection set as mentioned above and a 2nd intersection as internal organization information (S22).
  • a pixel of a blood vessel between a skin region and a bone region is detected by detecting a pixel having a value within a preset range among the pixels in the range indicated by arrow A in FIG. To do.
  • the preset range is set in accordance with the type of blood vessel contrast medium.
  • the detection range of the internal tissue information is not necessarily the entire range between the first intersection and the second intersection, and may be set in advance from the second intersection.
  • the blood vessel information detected by the internal tissue information acquisition unit 12 is input to the display control unit 13. Then, based on the input blood vessel information, the display control unit 13 superimposes the blood vessel image on the projection image obtained by projecting the three-dimensional image 5 onto the two-dimensional projection plane and displays the blood vessel image on the display 3 (S24).
  • the display control unit 13 since the skin and blood vessels between the skin and the bone are set and inputted as display objects, an image as shown in FIG. 4 is displayed on the display 3.
  • the skin of the head and the blood vessel between the skin and the bone are set and input as the display target.
  • the blood of the head and the blood vessel between the bone and the brain as the display target. May be set and input.
  • the internal tissue information acquisition unit 12 acquires the internal tissue information with the skin region excluded.
  • a bone region is detected and set as an intersecting region where each light ray first intersects.
  • the point on the brain region that first intersects with each ray is detected and set as the first intersection.
  • the internal organization information acquisition part 12 acquires the information contained between the 1st intersection set as mentioned above and a 2nd intersection as internal organization information. Specifically, a pixel of a blood vessel between a bone region and a brain region is detected by detecting a pixel having a value within a preset range among the pixels in the range indicated by arrow B in FIG. .
  • the blood vessel information detected by the internal tissue information acquisition unit 12 is input to the display control unit 13, and the display control unit 13 displays an image obtained by superimposing the blood vessel image on the bone image as shown in FIG. To display.
  • the display target may be designated assuming that a part of the skin of the head is incised.
  • an image as shown in FIG. it should be noted that the blood vessel information superimposed on the skin image and the method for obtaining the blood vessel information superimposed on the bone image are the same as described above.
  • FIG. 6 when a plurality of internal organization information between different regions is acquired and displayed, these internal organization information may be displayed in different display modes. Specifically, for example, in FIG. 6, the blood vessel image superimposed on the skin image may be displayed in red, and the blood vessel image superimposed on the bone image may be displayed in blue. This makes it clear that the images are different blood vessels.
  • the images of the skin region and the bone region shown in FIGS. 4 to 6 may be switched between display and non-display by the display control unit 13 according to an instruction from the user using the input device 4, for example.
  • the display control unit 13 may display the blood vessels in different display modes according to the position between the first intersection and the second intersection.
  • the blood vessels between the skin region and the bone region shown in FIG. 3 may be displayed in different colors and brightness depending on the distance from the skin region or the bone region.
  • the blood vessels between the bone region and the brain region shown in FIG. 3 may be displayed in different colors and brightness depending on the distance from the bone region or the brain region.
  • a three-dimensional image of the head is acquired, the skin region, the bone region, and the brain region of the head are extracted, and blood vessel information between these regions is acquired as internal tissue information.
  • the internal organization information is not limited to this.
  • a three-dimensional image of the left ventricle of the heart as shown in FIG. 7 is obtained, and the ventricular surface region of the left ventricle and the spatial region in the ventricle are extracted as regions overlapping in the line-of-sight direction. 7 may be acquired as internal tissue information, and an image in which myocardial information is superimposed on the projected image of the left ventricle may be displayed.
  • a range of depth set in advance from the surface of the ventricle may be set as the ventricular surface region.
  • the method for acquiring internal organization information is the same as described above.
  • the brain surface region and the tumor region are extracted as regions overlapping in the line-of-sight direction.
  • the blood vessel information between these regions may be acquired as internal tissue information, and an image in which the blood vessel image is superimposed on the projected image of the brain may be displayed.
  • a range of a depth set in advance from the surface of the brain may be set as the brain surface region.
  • the method for acquiring internal organization information is the same as described above.
  • a liver is operated by inserting an endoscope into the abdomen
  • a skin region and a liver region are overlapped in the line-of-sight direction from a three-dimensional image of the abdomen including the liver region as shown in FIG. May be extracted
  • bone information between these regions may be acquired as internal tissue information, and an image in which the bone image is superimposed on the projected image of the skin may be displayed.
  • the method for acquiring internal organization information is the same as described above.
  • internal tissue information was acquired by detecting the pixel which has a value within the preset range among the pixels of the range between the 1st intersection and the 2nd intersection.
  • the present invention is not limited to this, and the maximum value, the minimum value, the integrated value, the average value, or the volume-rendered value of the pixels on the light beam between the first intersection and the second intersection may be acquired as the internal tissue information. Good.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】被検体の内部組織を表示させる医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムにおいて、内部組織以外の組織の除去範囲を指定することなく、現在の表示領域下の内部組織を適切に領域上に重畳して表示させる。 【解決手段】被検体の3次元画像から複数の領域を抽出する領域抽出部(11)と、複数の領域のうち、3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、その交差領域を除いた場合に光線と最初に交差する領域上の点を第1交差点として設定し、その第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点を第2交差点として設定し、第1交差点と第2交差点との間に含まれる内部組織情報を取得する内部組織情報取得部(12)と、3次元画像に対して内部組織情報を重畳して表示させる表示制御部(13)とを備える。

Description

医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム
 本発明は、被検体の内部組織を被検体の3次元画像上に重畳して表示させる医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムに関するものである。
 従来、手術前に撮影された3次元画像を用いて、実際の手術のプランニングなどが行われている。このような手術プランニングを行う際、皮膚組織や骨組織の奥にある血管などの内部組織を可視化したい場合がある。
 具体的には、たとえば頭部の開頭手術を行う場合、頭部は、表面から、皮膚領域、骨領域、脳領域という層構造になっており、実際に手術をする際は、表面のものしか見えず、皮膚を切開する際には、皮膚下にある血管が、骨を開頭する場合には、骨の下にある脳静脈や脳動脈が、手術をする上では重要な組織となる。
 このような場合、一般的には、皮膚組織や骨組織を抽出して、それぞれの不透明度や減衰量を調整することで血管などの内部組織を表示することができる。
 また、特許文献1においては、内部組織を表示させるため、被検体の表面から所定の範囲を除去層として設定し、その除去層が除去された3次元画像を構成することによって、たとえば皮膚組織の領域を除いた内部組織の3次元画像を表示させることが提案されている。
特開2007-325629号公報
 しかしながら、上述したように皮膚組織や骨組織の不透明度や減衰量を調整する方法では、実際に手術する際に必要な皮膚表面や骨表面の情報が不鮮明になる問題がある。
 また、特許文献1に記載の方法では、被検体の表面から除去する範囲を設定する必要があるが、上述したような頭部の開頭手術のプランニングにおいては、皮膚の一部が切開されて骨が見えた状態の画像を表示したい場合があり、このように皮膚領域と骨領域の両方が同時に表示されている場合、皮膚領域の下の血管と骨領域の下の血管との両方を表示させるために、皮膚領域と骨領域の除去範囲をそれぞれ設定することは、これらの厚みはそれぞれ異なるため非常に困難である。
 また、骨領域の厚みは場所ごとで異なるため、その厚みを設定することはさらに困難である。
 本発明は、上記事情に鑑み、被検体の内部組織を表示させる際、従来のような除去範囲の指定を必要とすることなく、現在表示されている領域の下の内部組織を適切にその領域上に重畳させて表示させることができる医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムを提供することを目的とするものである。
 本発明の医用画像表示制御装置は、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を3次元画像から抽出する領域抽出部と、複数の領域のうち、3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、その交差領域を除いた場合に光線と最初に交差する領域上の点を第1交差点として設定し、その第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点を第2交差点として設定し、第1交差点と第2交差点との間に含まれる内部組織情報を取得する内部組織情報取得部と、2次元投影面に投影された3次元画像に対して内部組織情報を重畳して表示させる表示制御部とを備えたことを特徴とする。
 また、上記本発明の医用画像表示制御装置においては、内部組織情報取得部を、内部組織情報から特定の組織領域を検出するものとし、表示制御部を、特定の組織領域を3次元画像に対して重畳して表示するものとできる。
 また、内部組織情報取得部を、内部組織情報から予め設定された範囲内の値を検出することによって特定の組織領域を検出するものとできる。
 また、内部組織情報取得部を、第1交差点と第2交差点との間における光線上の画素の最大値、最小値、積算値、平均値またはボリュームレンダリングした値を内部組織情報として取得するものとできる。
 また、表示制御部を、複数の領域の3次元画像の表示と非表示とを切り替えるものとできる。
 また、領域抽出部を、少なくとも3つの領域を抽出するものとし、内部組織情報取得部を、上記少なくとも3つの領域の領域間の少なくとも2つの内部組織情報を取得するものとし、表示制御部を、上記少なくとも2つの内部組織情報を異なる表示態様で表示させるものとできる。
 また、表示制御部を、第1交差点と第2交差点との間の位置に応じて内部組織情報を異なる表示態様で表示させるものとできる。
 また、内部組織情報に血管領域を含めることができる。
 また、領域抽出部を、皮膚領域、臓器領域または腫瘍領域を抽出するものとできる。
 本発明の医用画像表示制御装置の作動方法は、領域抽出部と、内部組織情報取得部と、表示制御部とを備えた医用画像表示制御装置の作動方法であって、領域抽出部が、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を3次元画像から抽出し、内部組織情報取得部が、複数の領域のうち、3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、その交差領域を除いた場合に光線と最初に交差する領域上の点を第1交差点として設定し、その第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点を第2交差点として設定し、第1交差点と第2交差点との間に含まれる内部組織情報を取得し、表示制御部が、2次元投影面に投影された3次元画像に対して内部組織情報を重畳して表示させることを特徴とする。
 本発明の医用画像表示制御プログラムは、コンピュータを、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を3次元画像から抽出する領域抽出部と、複数の領域のうち、3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、その交差領域を除いた場合に光線と最初に交差する領域上の点を第1交差点として設定し、その第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点を第2交差点として設定し、第1交差点と第2交差点との間に含まれる内部組織情報を取得する内部組織情報取得部と、2次元投影面に投影された3次元画像に対して内部組織情報を重畳して表示させる表示制御部として機能させることを特徴とする。
 本発明の医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムによれば、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を3次元画像から抽出し、その複数の領域のうち、3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、その交差領域を除いた場合に光線と最初に交差する領域上の点を第1交差点として設定し、その第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点を第2交差点として設定し、第1交差点と第2交差点との間に含まれる内部組織情報を取得するようにしたので、従来のような除去範囲の指定を必要とすることなく、内部組織情報を取得することができる。
 また、2次元投影面に投影された3次元画像に対して内部組織情報を重畳して表示させるようにしたので、被検体の表面の情報を失うことがなく、たとえば頭部の手術プランニングにおいて、皮膚の表面の状態や骨の表面の状態も適切に確認することができる。
本発明の医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムの一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図 図1に示す医用画像診断支援システムの作用を説明するためのフローチャート 内部組織情報を取得する方法を説明するための図 皮膚領域の画像に対して皮膚領域と骨領域との間に存在する血管の画像を重畳して表示させた例を示す図 骨領域の画像に対して骨領域と脳領域との間に存在する血管の画像を重畳して表示させた例を示す図 骨領域の画像と皮膚領域の画像に対してそれぞれ血管の画像を重畳して表示させた例を示す図 左心室の表面領域と心室内の空間領域との間の心筋情報を内部組織情報として取得する例を説明するための図 脳の表面領域と腫瘍領域との間の血管情報を内部組織情報として取得する例を説明するための図 皮膚領域と肝臓領域との間の骨情報を内部組織情報として取得する例を説明するための図
 以下、本発明の医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の医用画像診断支援システムの概略構成を示すブロック図である。
 本実施形態の医用画像診断支援システムは、図1に示すように、医用画像表示制御装置1と、3次元画像保管サーバ2と、ディスプレイ3と、入力装置4とを備えている。
 医用画像表示制御装置1は、コンピュータに本実施形態の医用画像表示制御プログラムがインストールされたものである。 
 医用画像表示制御装置1は、一つまたは複数の中央処理装置(CPU)および半導体メモリや、一つまたは複数のハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えている。ストレージデバイスには、本実施形態の医用画像表示制御プログラムがインストールされており、この医用画像表示制御プログラムが中央処理装置によって実行されることによって、図1に示すような3次元画像取得部10、領域抽出部11、内部組織情報取得部12および表示制御部13が動作する。なお、医用画像表示制御プログラムは、CD-ROMなどの記録媒体に記録されたものを用いるようにしてもよいし、インターネットを介してSaaS(Software as a Service)によって提供されるものを用いるようにしてもよい。
 3次元画像取得部10は、手術前または検査前などに予め撮影された被検体の3次元画像5を取得するものである。3次元画像5としては、たとえばCT装置やMRI(Magnetic Resonance Imaging)装置などから出力されたスライスデータから再構成されたボリュームデータや、MS(Multi Slice)CT装置やコーンビームCT装置から出力されたボリュームデータなどがある。3次元画像5は、3次元画像保管サーバ2に被検体の識別情報とともに予め保管されており、3次元画像取得部10は、入力装置4において入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出すものである。なお、3次元画像取得部10において多数のスライスデータを取得してボリュームデータを生成するようにしてもよい。
 また、3次元画像保管サーバ2は、いわゆる単体のサーバ装置でも良いし、いわゆるクラウドに接続されるサーバ装置に3次元画像を保管するような形態としてもよい。
 本実施形態においては、3次元画像取得部10は、頭部の3次元画像を取得するものとする。なお、頭部に限らず、心臓領域を含む胸部や、肝臓領域や骨領域を含む腹部などの3次元画像を取得するようにしてもよい。
 領域抽出部11は、3次元画像取得部10によって取得された3次元画像5が入力され、その入力された3次元画像5に基づいて、複数の領域を抽出するものである。具体的には、本実施形態の領域抽出部11には、頭部の3次元画像5が入力され、領域抽出部11は、入力された頭部の3次元画像5に基づいて、頭部の皮膚領域、骨領域および脳領域をそれぞれ抽出するものである。皮膚領域、骨領域および脳領域は、頭部の3次元画像を2次元投影面に投影する際の視線方向に重複した領域である。
 皮膚領域、骨領域および脳領域を抽出する方法としては、頭部の3次元画像5の画素データに基づいて、公知の手法を用いて自動的に抽出するようにしてもよいし、ユーザが入力装置4を用いてそれぞれの領域を手動で指定することによって抽出するようにしてもよい。
 内部組織情報取得部12は、領域抽出部11によって抽出された各領域によって挟まれる領域間の情報を内部組織情報として取得するものである。具体的には、本実施形態においては、皮膚領域と骨領域との間に存在する血管の情報と、骨領域と脳領域との間に存在する血管の情報とを内部組織情報として取得するものである。そして、内部組織情報取得部12は、取得した内部組織情報を表示制御部13に出力するものである。なお、内部組織情報を取得する方法については、後で詳述する。
 表示制御部13は、3次元画像取得部10によって取得された頭部の3次元画像5を、たとえばボリュームレンダリング法やサーフェスレンダリング法などを用いて2次元投影面に投影した投影画像をディスプレイ3に表示させるものである。そして、この際、本実施形態の表示制御部13は、投影画像に対して内部組織情報を重畳して表示させるものである。具体的には、本実施形態の表示制御部13は、頭部の皮膚領域の投影画像上に皮膚領域と骨領域の間の血管の画像を重畳して表示させたり、頭部の骨領域の投影画像上に骨領域と脳領域の間の血管の画像を重畳して表示させたりするものである。重畳して表示させる方法としては、投影画像と内部組織の画像とをアルファブレンディングするようにしてもよいし、投影画像上に内部組織の画像をオーバーレイする加算表示としてもよい。
 入力装置4は、マウスやキーボードなどを備えたものであり、ユーザによる操作入力を受け付けるものである。特に、本実施形態の入力装置4は、頭部の3次元画像5を2次元投影面に投影する際に用いられる光線方向の設定入力を受け付けたり、ディスプレイ3に表示させる表示対象の設定入力を受け付けたりするものである。表示対象としては、たとえば頭部の皮膚領域および皮膚領域と骨領域との間の血管が設定入力されたり、頭部の骨領域および骨領域と脳領域との間の血管が設定入力されたりする。
 次に、本実施形態の医用画像診断支援システムの作用について、図2に示すフローチャートを参照しながら説明する。
 まず、入力装置4を用いてユーザによって被検体の識別情報が入力され、医用画像表示制御装置1の3次元画像取得部10は、その入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出して取得する(S10)。
 3次元画像取得部10によって取得された3次元画像5は、領域抽出部11に入力され、領域抽出部11は、入力された3次元画像5に基づいて、複数の領域を抽出する(S12)。具体的には、本実施形態における領域抽出部11は、頭部の3次元画像5に基づいて、図3に示すような頭部の皮膚領域と、骨領域と、脳領域とを抽出する。
 次に、頭部の3次元画像5を2次元投影面に投影する際に用いられる光線方向がユーザによって入力装置4を用いて設定入力される(S14)。平行投影法によって3次元画像5を2次元投影面に投影する場合には、2次元投影面に対して垂直な方向が光線方向として設定される。また、透視投影法によって3次元画像を2次元投影面に投影する場合には、所定の始点から2次元投影面の各画素への直線方向が光線方向として設定される。
 本実施形態においては、図3において破線の矢印で示される光線方向が設定入力されたものとする。破線の矢印方向が光線方向である。なお、図3においては3本の光線のみ示しているが、実際には、画素単位の多数の光線が設定されるものとする。
 また、このときユーザは、表示対象の情報も入力装置4を用いて入力する。ここでは、頭部の皮膚を切開する場面を想定して、表示対象として頭部の皮膚と、皮膚と骨との間の血管が設定入力されたものとする。
 そして、領域抽出部11において抽出された皮膚領域、骨領域および脳領域の情報が内部組織情報取得部12に入力され、内部組織情報取得部12は、これらの領域の情報とユーザによって設定された光線方向の情報とに基づいて、皮膚領域と骨領域との間に存在する血管の情報を取得する。
 具体的には、まず、各光線が最初に交差する領域が交差領域として検出され設定される(S16)。本実施形態の場合、図3に示す皮膚領域が交差領域として設定される。
 なお、交差領域の検出方法としては、各光線と各領域の座標値とから各光線が最初に交差する領域を検出するようにしてもよいし、3次元画像の表示方法によって検出方法を決めるようにしてもよい。具体的には、たとえば3次元画像をボリュームレンダリングによって表示する場合には、光線方向に沿った不透明度の積算値が所定の閾値を超えた時点での点を交差点とし、その交差点を含む領域を交差領域として検出するようにしてもよい。また、3次元画像をサーフェスレンダリングによって表示する場合には、光線方向とサーフェス面との交点を交差点とし、その交差点を含む領域を交差領域として検出するようにしてもよい。
 次に、皮膚領域(交差領域)を除いた場合に、各光線と最初に交差する領域上の点が第1交差点として検出され設定される(S18)。本実施形態においては、図3に示す各光線と最初に交差する骨領域上の点が第1交差点して設定される。
 次いで、各第1交差点から光線の進行方向とは逆方向にたどった場合に交差領域に交差する点が第2交差点として検出され設定される(S20)。本実施形態の場合、図3に示す皮膚領域上の第2交差点が設定される。
 そして、内部組織情報取得部12は、上述したようにして設定された第1交差点と第2交差点との間に含まれる情報を内部組織情報として取得する(S22)。本実施形態においては、図3において矢印Aで示される範囲の画素のうち、予め設定された範囲内の値を有する画素を検出することによって皮膚領域と骨領域との間の血管の画素を検出する。なお、上記予め設定された範囲は、血管の造影剤の種類に応じて設定されるものである。また、内部組織情報の検出範囲は、必ずしも第1交差点と第2交差点の間の全ての範囲でなくてもよく、第2交差点から予め設定されて距離の範囲内としてもよい。
 内部組織情報取得部12によって検出された血管の情報は、表示制御部13に入力される。そして、表示制御部13は、入力された血管の情報に基づいて、3次元画像5を2次元投影面に投影した投影画像に対して血管画像を重畳してディスプレイ3に表示させる(S24)。なお、ここでは、表示対象として皮膚と、皮膚と骨との間の血管が設定入力されているので、図4に示すような画像がディスプレイ3に表示されることになる。
 また、上記説明では、表示対象として頭部の皮膚と、皮膚と骨との間の血管が設定入力された場合について説明したが、表示対象として頭部の骨と、骨と脳の間の血管を設定入力するようにしてもよい。
 この場合には、内部組織情報取得部12は、皮膚領域を除外した状態で内部組織情報を取得する。
 具体的には、この場合、各光線が最初に交差する交差領域として骨領域が検出されて設定される。次に、骨領域を除いた場合に、各光線と最初に交差する脳領域上の点が第1交差点として検出され設定される。
 次いで、脳領域上の各第1交差点から光線の進行方向とは逆方向にたどった場合に骨領域上に交差する点が第2交差点として検出され設定される。
 そして、内部組織情報取得部12は、上述したようにして設定された第1交差点と第2交差点との間に含まれる情報を内部組織情報として取得する。具体的には、図3において矢印Bで示される範囲の画素のうち、予め設定された範囲内の値を有する画素を検出することによって骨領域と脳領域との間の血管の画素を検出する。
 内部組織情報取得部12によって検出された血管の情報は表示制御部13に入力され、表示制御部13は、図5に示すように、骨の画像に対して血管画像を重畳した画像をディスプレイ3に表示させる。
 また、頭部の皮膚の一部を切開した状態を想定して表示対象を指定するようにしてもよい。この場合、たとえば、図6に示すような画像がディスプレイ3に表示される。なお、皮膚の画像上に重畳される血管の情報と、骨の画像上に重畳される血管の情報の取得方法については、上記と同様である。また、図6に示すように、異なる領域間の複数の内部組織情報を取得して表示する場合には、これらの内部組織情報を異なる表示態様で表示させるようにしてもよい。具体的には、たとえば図6において、皮膚の画像上に重畳される血管画像を赤色で表示し、骨の画像上に重畳される血管画像を青色で表示するようにしてもよい。これにより異なる血管の画像であることを明確にすることができる。
 また、図4から図6に示した皮膚領域や骨領域の画像は、たとえば入力装置4を用いたユーザからの指示によって、表示制御部13が表示と非表示とを切り替えるようにしてもよい。
 また、図4から図6に示す血管の画像については、表示制御部13が、第1交差点と第2交差点との間の位置に応じて血管を異なる表示態様で表示させるようにしてもよい。具体的には、たとえば図3に示す皮膚領域と骨領域との間の血管について、その皮膚領域または骨領域からの距離に応じて異なる色や輝度で表示するようにしてもよい。また、同様に、図3に示す骨領域と脳領域との間の血管について、その骨領域または脳領域からの距離に応じて異なる色や輝度で表示するようにしてもよい。このような表示を行うことによって、血管が皮膚領域や骨領域からどの程度の距離に走行しているかを把握することができ、皮膚や骨を切断する際に役立てることができる。
 また、上記実施形態の説明においては、頭部の3次元画像を取得し、頭部の皮膚領域、骨領域および脳領域を抽出し、これらの領域間の血管情報を内部組織情報として取得するようにしたが、内部組織情報としてはこれに限定されるものではない。
 たとえば、図7に示すような心臓の左心室の3次元画像を取得し、視線方向に重複する領域として左心室の心室表面領域と心室内の空間領域とを抽出し、これらの領域間(図7に示す斜線の範囲)の心筋の情報を内部組織情報として取得し、左心室の投影画像上に心筋の情報を重畳した画像を表示するようにしてもよい。心室表面領域については、心室の表面から予め設定された深さの範囲を心室表面領域として設定するようにすればよい。内部組織情報の取得方法については、上記と同様である。
 また、頭部の脳内に形成された腫瘍を取り除く手術を行う場合などを想定し、図8に示すように、視線方向に重複する領域として脳の表面領域と腫瘍領域とを抽出し、これらの領域間の血管情報を内部組織情報として取得し、脳の投影画像上に血管画像を重畳した画像を表示するようにしてもよい。脳表面領域については、脳の表面から予め設定された深さの範囲を脳表面領域として設定するようにすればよい。内部組織情報の取得方法については、上記と同様である。
 また、内視鏡を腹部に挿入して肝臓の手術を行う場合などを想定し、図9に示すような肝臓領域を含む腹部の3次元画像から視線方向に重複する領域として皮膚領域と肝臓領域とを抽出し、これらの領域間の骨の情報を内部組織情報として取得し、皮膚の投影画像上に骨の画像を重畳した画像を表示するようにしてもよい。内部組織情報の取得方法については、上記と同様である。
 また、上記実施形態においては、第1交差点と第2交差点との間の範囲の画素のうち、予め設定された範囲内の値を有する画素を検出することによって内部組織情報を取得するようにしたが、これに限らず、第1交差点と第2交差点との間の光線上の画素の最大値、最小値、積算値、平均値またはボリュームレンダリングした値を内部組織情報として取得するようにしてもよい。

Claims (11)

  1.  被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を前記3次元画像から抽出する領域抽出部と、
     前記複数の領域のうち、前記3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、該交差領域を除いた場合に前記光線と最初に交差する領域上の点を第1交差点として設定し、該第1交差点から前記光線の進行方向とは逆方向にたどった場合に前記交差領域に交差する点を第2交差点として設定し、前記第1交差点と前記第2交差点との間に含まれる内部組織情報を取得する内部組織情報取得部と、
     前記2次元投影面に投影された前記3次元画像に対して前記内部組織情報を重畳して表示させる表示制御部とを備えたことを特徴とする医用画像表示制御装置。
  2.  前記内部組織情報取得部が、前記内部組織情報から特定の組織領域を検出するものであり、
     前記表示制御部が、前記特定の組織領域を前記3次元画像に対して重畳して表示するものである請求項1記載の医用画像表示制御装置。
  3.  前記内部組織情報取得部が、前記内部組織情報から予め設定された範囲内の値を検出することによって前記特定の組織領域を検出するものである請求項2記載の医用画像表示制御装置。
  4.  前記内部組織情報取得部が、前記第1交差点と前記第2交差点との間における前記光線上の画素の最大値、最小値、積算値、平均値またはボリュームレンダリングした値を前記内部組織情報として取得するものである請求項1記載の医用画像表示制御装置。
  5.  前記表示制御部が、前記複数の領域の3次元画像の表示と非表示とを切り替えるものである請求項1から4いずれか1項記載の医用画像表示制御装置。
  6.  前記領域抽出部が、少なくとも3つの領域を抽出するものであり、
     前記内部組織情報取得部が、前記少なくとも3つの領域の領域間の少なくとも2つの前記内部組織情報を取得するものであり、
     前記表示制御部が、前記少なくとも2つの内部組織情報を異なる表示態様で表示させるものである請求項1から5いずれか1項記載の医用画像表示制御装置。
  7.  前記表示制御部が、前記第1交差点と前記第2交差点との間の位置に応じて前記内部組織情報を異なる表示態様で表示させるものである請求項1から6いずれか1項記載の医用画像表示制御装置。
  8.  前記内部組織情報に血管領域が含まれている請求項1から7いずれか1項記載の医用画像表示制御装置。
  9.  前記領域抽出部が、前記領域として皮膚領域、臓器領域または腫瘍領域を抽出するものであることを特徴とする請求項1から8いずれか1項記載の医用画像表示制御装置。
  10.  領域抽出部と、内部組織情報取得部と、表示制御部とを備えた医用画像表示制御装置の作動方法であって、
     前記領域抽出部が、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を前記3次元画像から抽出し、
     前記内部組織情報取得部が、前記複数の領域のうち、前記3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、該交差領域を除いた場合に前記光線と最初に交差する領域上の点を第1交差点として設定し、該第1交差点から前記光線の進行方向とは逆方向にたどった場合に前記交差領域に交差する点を第2交差点として設定し、前記第1交差点と前記第2交差点との間に含まれる内部組織情報を取得し、
     前記表示制御部が、前記2次元投影面に投影された前記3次元画像に対して前記内部組織情報を重畳して表示させることを特徴とする医用画像表示制御装置の作動方法。
  11.  コンピュータを、被検体の3次元画像を2次元投影面に投影する際の視線方向に重複した複数の領域を前記3次元画像から抽出する領域抽出部と、
     前記複数の領域のうち、前記3次元画像を2次元投影面に投影する際に用いられる光線が最初に交差する領域を交差領域として設定し、該交差領域を除いた場合に前記光線と最初に交差する領域上の点を第1交差点として設定し、該第1交差点から前記光線の進行方向とは逆方向にたどった場合に前記交差領域に交差する点を第2交差点として設定し、前記第1交差点と前記第2交差点との間に含まれる内部組織情報を取得する内部組織情報取得部と、
     前記2次元投影面に投影された前記3次元画像に対して前記内部組織情報を重畳して表示させる表示制御部として機能させることを特徴とする医用画像表示制御プログラム。
PCT/JP2014/003914 2013-07-31 2014-07-24 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム WO2015015777A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112014003537.8T DE112014003537T5 (de) 2013-07-31 2014-07-24 Medizinbild-Anzeigesteuervorrichtung, Verfahren zum Betreiben derselben, und Medizinbild-Anzeigesteuerprogramm
US15/008,317 US10062184B2 (en) 2013-07-31 2016-01-27 Medical image display control device, method of operation for same, and medical image display control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-158591 2013-07-31
JP2013158591A JP6145875B2 (ja) 2013-07-31 2013-07-31 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/008,317 Continuation US10062184B2 (en) 2013-07-31 2016-01-27 Medical image display control device, method of operation for same, and medical image display control program

Publications (1)

Publication Number Publication Date
WO2015015777A1 true WO2015015777A1 (ja) 2015-02-05

Family

ID=52431335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/003914 WO2015015777A1 (ja) 2013-07-31 2014-07-24 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム

Country Status (4)

Country Link
US (1) US10062184B2 (ja)
JP (1) JP6145875B2 (ja)
DE (1) DE112014003537T5 (ja)
WO (1) WO2015015777A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2546978B (en) 2016-02-01 2019-01-23 Siemens Healthcare Gmbh Methods for visualising heart scar tissue
JP6659501B2 (ja) * 2016-09-14 2020-03-04 富士フイルム株式会社 軟骨定量化装置、方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973557A (ja) * 1995-09-04 1997-03-18 Toshiba Corp 画像処理装置
JP2005261440A (ja) * 2004-02-19 2005-09-29 Aze Ltd 医療用画像の被造影領域抽出方法
WO2008050823A1 (fr) * 2006-10-26 2008-05-02 Hitachi Medical Corporation Dispositif d'affichage d'images médicales
JP2012085833A (ja) * 2010-10-20 2012-05-10 Hitachi Medical Corp 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1985236A4 (en) * 2006-02-17 2010-11-17 Hitachi Medical Corp IMAGE DISPLAY DEVICE AND PROGRAM
JP2007325629A (ja) 2006-06-06 2007-12-20 Hitachi Medical Corp 医用画像表示装置
US8995736B2 (en) * 2010-01-22 2015-03-31 The Research Foundation Of The State University Of New York System and method for prostate visualization and cancer detection
JP5551957B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973557A (ja) * 1995-09-04 1997-03-18 Toshiba Corp 画像処理装置
JP2005261440A (ja) * 2004-02-19 2005-09-29 Aze Ltd 医療用画像の被造影領域抽出方法
WO2008050823A1 (fr) * 2006-10-26 2008-05-02 Hitachi Medical Corporation Dispositif d'affichage d'images médicales
JP2012085833A (ja) * 2010-10-20 2012-05-10 Hitachi Medical Corp 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2015029518A (ja) 2015-02-16
US10062184B2 (en) 2018-08-28
DE112014003537T5 (de) 2016-04-28
JP6145875B2 (ja) 2017-06-14
US20160140739A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
US11652971B2 (en) Image-guided surgery with surface reconstruction and augmented reality visualization
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
JP5427179B2 (ja) 解剖学的データの視覚化
RU2654608C2 (ru) Ультразвуковая система визуализации и способ для процедуры наведения по изображению
US20140303491A1 (en) Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy
US20160163105A1 (en) Method of operating a surgical navigation system and a system using the same
JP4786307B2 (ja) 画像処理装置
US9443161B2 (en) Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
Schumann et al. Visualization support for the planning of hepatic needle placement
WO2013012042A1 (ja) 画像処理システム、装置、方法及び医用画像診断装置
US20210353371A1 (en) Surgical planning, surgical navigation and imaging system
Wang et al. Autostereoscopic augmented reality visualization for depth perception in endoscopic surgery
WO2016110463A1 (en) Ultrasound imaging apparatus and method for segmenting anatomical objects
JP6145875B2 (ja) 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム
van Beurden et al. Stereoscopic displays in medical domains: a review of perception and performance effects
JPH1176228A (ja) 三次元画像構成装置
Wang et al. Improved interventional x-ray appearance
JP2020520759A (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
Davey et al. Multimodality interactive stereoscopic image-guided neurosurgery
Hettig et al. Visual Navigation Support for Liver Applicator Placement using Interactive Map Displays.
Agrafiotis et al. Virtual liver biopsy: Image processing and 3d visualization
Hernes et al. Neuronavigation with intraoperative 3D ultrasound; multimodal 2D and 3D display techniques and interactive stereoscopic visualisation for guiding surgical procedures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14832675

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112014003537

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14832675

Country of ref document: EP

Kind code of ref document: A1