WO2014021301A1 - 三次元画像構成装置及び三次元画像構成方法 - Google Patents

三次元画像構成装置及び三次元画像構成方法 Download PDF

Info

Publication number
WO2014021301A1
WO2014021301A1 PCT/JP2013/070572 JP2013070572W WO2014021301A1 WO 2014021301 A1 WO2014021301 A1 WO 2014021301A1 JP 2013070572 W JP2013070572 W JP 2013070572W WO 2014021301 A1 WO2014021301 A1 WO 2014021301A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
dimensional image
interest
depth
Prior art date
Application number
PCT/JP2013/070572
Other languages
English (en)
French (fr)
Inventor
後藤 良洋
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to CN201380032613.7A priority Critical patent/CN104427940B/zh
Priority to US14/413,789 priority patent/US9750473B2/en
Priority to JP2014528160A priority patent/JP6095663B2/ja
Publication of WO2014021301A1 publication Critical patent/WO2014021301A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition

Definitions

  • the present invention relates to a three-dimensional image construction apparatus that displays a three-dimensional image such as a medical image.
  • CT-Urography is a method for evaluating lesions of the urinary tract by CT imaging (see Non-Patent Document 1).
  • imaging is performed immediately after the contrast medium is administered, and imaging is performed again after the contrast medium is excreted in the urinary tract. Accordingly, the time required for imaging is longer than that for normal CT imaging. In this way, administration of a contrast agent or an increase in the time required for imaging is a heavy burden on the subject.
  • Patent Document 1 As an organ extraction process for displaying a specific organ three-dimensionally, a region expansion process (region growing) is known (see Patent Document 1).
  • the technique described in Patent Document 1 realizes highly reliable region extraction using a combination of conditions that take into account local density changes and conditions that take into account global density changes as expansion conditions in area extension processing. is doing.
  • the CT value of the ureter is close to the CT value of the surrounding organs, and thus it is difficult to extract accurately by the region expansion process.
  • the area expansion process if only one pixel of the surrounding organ is erroneously determined as a ureter, the ureter area is expanded to the entire surrounding organ.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to provide a three-dimensional image constructing apparatus that constitutes a three-dimensional image in which a specific region can be easily observed. .
  • a first invention for achieving the above-described object is a display unit that displays a first three-dimensional image on a predetermined starting surface, and a region of interest related to a second three-dimensional image in the first three-dimensional image. And an input unit that receives the input, and the starting point plane as an initial value of the starting point of the projection line for constituting the second three-dimensional image, based on the depth image corresponding to the first three-dimensional image, A calculation unit that corrects a starting point of the projection line with respect to a pixel in a region of interest, and uses the corrected starting point of the projection line for the region of interest, and configures the second three-dimensional image.
  • a three-dimensional image construction apparatus provided.
  • the display unit displays the first three-dimensional image on a predetermined starting surface
  • the input unit includes a region of interest related to the second three-dimensional image in the first three-dimensional image.
  • a step of accepting an input a step in which the calculation unit sets the starting point plane as an initial value of a starting point of a projection line for constituting the second three-dimensional image; and a calculation unit includes the first three-dimensional image and A step of correcting a starting point of the projection line for a pixel in the region of interest based on a corresponding depth image, and a calculation unit using the corrected starting point of the projection line for the region of interest; And a step of constructing the second three-dimensional image.
  • the figure which shows the hardware constitutions of the three-dimensional image formation device The flowchart which shows the flow of the whole process in 1st Embodiment. Flow chart showing the flow of 3D image composition processing
  • the figure explaining the setting process of the starting surface The figure explaining the input reception process of the region of interest
  • the figure explaining the input reception process of the region of interest The figure explaining the composition process of a three-dimensional image
  • the figure explaining the composition process of a three-dimensional image The figure explaining the composition process of a three-dimensional image
  • Example of processing results Example of processing results
  • the figure explaining the 1st modification of the input reception process of a region of interest The figure explaining the 1st modification of the input reception process of a region of interest
  • the figure explaining the 2nd modification of the input reception process of a region of interest The figure explaining the 2nd modification of the input reception process of a region of interest
  • the figure explaining the 3rd modification of the input reception process of a region of interest Flowchart showing the overall processing flow in the second embodiment
  • FIG. 6 is a diagram for explaining a 3D image configuration process according to the third embodiment.
  • FIG. 6 is a diagram for explaining a 3D image configuration process according to the third embodiment.
  • FIG. 6 is a diagram for explaining a 3D image configuration process according to the third embodiment.
  • FIG. 6 is a diagram for explaining a 3D image configuration process according to the third embodiment.
  • the present invention provides a three-dimensional image constructing apparatus and the like for constructing a three-dimensional image in which a specific area can be easily observed.
  • the present invention is based on a region of interest specified by an operator in order to facilitate observation of a thin target organ having pixel values similar to those of surrounding organs for volume data captured without using contrast.
  • the three-dimensional image constructing apparatus 1 includes a calculation unit 2, a storage unit 3, a display unit 4, an input unit 5, and the like.
  • Calculating unit 2 is composed of CPU 11 and the like.
  • the storage unit 3 includes a main memory 15, a magnetic disk 16, and the like.
  • the display unit 4 includes a display memory 17, a display 18, and the like.
  • the input unit 5 includes a controller 12, a mouse 13, a keyboard 14, and the like.
  • the controller 12, the keyboard 14, the main memory 15, the magnetic disk 16, and the display memory 17 are connected to the CPU 11 via the data transfer bus 19 so as to be able to send and receive signals.
  • the CPU 11 is also connected to the medical imaging apparatus 20 via a data transfer bus 19 and a local area network (LAN) 21 so as to be able to send and receive signals.
  • a mouse 13 is connected to the controller 12 so as to be able to send and receive signals.
  • a display 18 is connected to the display memory 17 so that signals can be transmitted and received.
  • “to enable signal transmission / reception” indicates a state in which signals can be transmitted / received to each other or from one to the other, regardless of whether they are electrically or optically wired or wireless.
  • CPU 11 executes a computer program and controls each connected element.
  • the computer program is a command for the CPU 11 combined so that an execution result of processing to be described later can be obtained.
  • the controller 12 transmits various data such as position displacement data obtained by sensors provided in the mouse 13 and input data of button switches provided in the mouse 13 to the CPU 11 via the data transfer bus 19.
  • the mouse 13 supports input of data by the operator. When the operator moves the cursor of the mouse 13 to an image displayed on the display 18 or a switch made by software such as a radio switch and clicks the position of the movement destination, predetermined input data is transmitted to the CPU 11.
  • the keyboard 14 is an input device mainly used when character input is appropriate, such as ID information for specifying a medical image to be read from the magnetic disk 16 and a diagnostic report of a medical image displayed on the display 18.
  • the main memory 15 is used as a work area for the CPU 11 such as loading various computer programs from the magnetic disk 16 and storing medical image data and the progress of computations when the CPU 11 executes the various computer programs.
  • the magnetic disk 16 stores various computer programs. Further, the magnetic disk 16 receives and stores the imaging data of the subject imaged by the medical imaging device 20 via the LAN 21 and the data transfer bus 19.
  • the magnetic disk 16 is an example of an external storage device in a computer system.
  • the external storage device includes all storage media such as a flexible disk, an optical (magnetic) disk, a ZIP memory, and a USB memory.
  • the display memory 17 temporarily stores data to be displayed on the screen among the calculation results of the CPU 11 before signal transfer to the display 18.
  • the display 18 displays the medical image signal transferred from the display memory 17 and various information attached thereto.
  • the data transfer bus 19 performs data transfer between the elements connected to the data transfer bus 19.
  • the medical imaging apparatus 20 can obtain a tomographic image of a subject such as an X-ray CT apparatus, an MRI apparatus, an ultrasonic apparatus, a scintillation camera apparatus, a PET apparatus, and a SPECT apparatus.
  • the LAN 21 connects the medical image capturing apparatus 20 and the 3D image construction apparatus 1 so as to be able to send and receive signals. Instead of the LAN 21, a public line such as the Internet may be used.
  • the display 18 constituting the display unit 4 and the mouse 13 and the keyboard 14 constituting the input unit 5 are separated from each other.
  • the display unit 4 and the input unit 5 are configured as a touch panel display or the like. It may be integrated.
  • the projection method from the viewpoint to the projection plane uses a parallel projection method in which the viewpoint is regarded as a plane and projected by parallel projection lines from this plane to the projection plane.
  • the surface that is the starting point of the projection line is referred to as the “starting surface”.
  • the three-dimensional image may be an image configured by the surface rendering method, an image configured by the volume rendering method, or an image configured by the depth method (hereinafter referred to as ⁇ depth image ''). May be used).
  • the depth method is a method of applying a shadow according to the distance from each pixel on the CT image to a location where the pixel is projected. Usually, the longer the distance, the darker the shadow.
  • Each pixel value of the depth image shown below is a distance from the starting surface to a specific pixel that satisfies the threshold condition.
  • the display unit 4 initially displays an MPR (Multi Planar Reconstruction) image in a cross-section at an angle close to perpendicular to the axial plane of the subject in accordance with control by the calculation unit 2 (S1).
  • MPR Multi Planar Reconstruction
  • FIG. 4 (a) shows a state in which an MPR (Multi Planar Reconstruction) image 30a perpendicular to the axial plane is displayed on the display 18.
  • MPR Multi Planar Reconstruction
  • the display unit 4 displays a slide bar 31, a trace button 32, a two-point designation button 33, a curve designation button 34, and an end button 35 on the display 18 together with the MPR image 30a.
  • the slide bar 31 is a bar for the operator to specify a cross section of the first three-dimensional image displayed on the display 18.
  • the trace button 32, the two-point designation button 33, and the curve designation button 34 are buttons for the operator to input a region of interest (ROIw). Details of the processing of the calculation unit 2 in response to each button being pressed will be described later.
  • the end button 35 is a button for the operator to instruct the end of the process.
  • the image displayed in S1 is an angle close to perpendicular to the axial plane of the subject. It was set as the MPR image in the cross section.
  • the image displayed in S1 is not limited to this.
  • the image displayed in S1 is not limited to the MPR image, but may be a CPR (CurvedurPlanar Reconstruction) image.
  • the calculation unit 2 receives input from the slide bar 31 via the input unit 5, and changes the cross section of the MPR image in the depth direction of the screen according to the amount of movement of the slide bar 31 (S2). For example, the calculation unit 2 changes the cross section to the front side of the screen when the slide bar 31 moves upward, and changes the cross section to the back side of the screen when the slide bar 31 moves downward.
  • the display unit 4 displays the MPR image after the change according to the control by the calculation unit 2.
  • FIG. 4B illustrates a state where the MPR image 30b having a cross section different from the cross section of the MPR image 30a in FIG. In the MPR image 30b, the end 43 on the ventral side of the kidney can be observed.
  • the computing unit 2 configures a first three-dimensional image by using the cross section of the MPR image after the change as the starting plane of the projection line.
  • the display unit 4 displays the configured first three-dimensional image according to control by the calculation unit 2 (S3).
  • the first three-dimensional image 30c configured by projecting the projection line on the back side of the screen with the cross section of the MPR image 30b of FIG. A state of being displayed on the display 18 is illustrated.
  • the ventral end 43 of the kidney is observable, so the first three-dimensional image 30c shows the projected line from the origin plane passing through the ventral end 43 of the kidney. It is comprised by projecting to the back side of.
  • a part of the two kidneys is hidden behind a surrounding organ (an organ on the near side of the screen) and cannot be observed. Further, in the first three-dimensional image 30c, a part of the ureter 44 and the ureter 45 cannot be observed. A part of the ureter 44 cannot be observed because it is hidden behind a surrounding organ (an organ on the near side of the screen). On the other hand, a part of the ureter 45 is located on the near side of the screen with respect to the starting surface and cannot be observed.
  • the calculation unit 2 calculates the origin plane and the kidney based on the region of interest (ROIw) specified by the operator.
  • ROIw region of interest
  • the peripheral organs between the ureter and the ureter are extracted and deleted, or the ureter located in front of the origin plane is extracted and added.
  • the calculation unit 2 sets the starting point surface of the first three-dimensional image currently displayed as a starting point surface that defines the initial value of the starting point of the projection line for constituting the second three-dimensional image. (S4).
  • the calculation unit 2 stores the initial value of the starting point of the projection line in the storage unit 3 for each projection line. Note that the number of projection lines is the same as the number of pixels on the projection surface.
  • the calculation unit 2 receives an input of a region of interest (ROIw) related to the second three-dimensional image via the input unit 5 (S5).
  • ROIw region of interest
  • FIG. 5 (b) the first three-dimensional image 30d in which the regions of interest 51a, 51b, 51c, and 52a are superimposed on the first three-dimensional image 30c in FIG. The state of being done is illustrated.
  • the operator presses the trace button 32 via the input unit 5 and draws the locus of the mouse pointer 40.
  • the regions of interest 51a, 51b, 51c, and 52a are input. ing.
  • the regions of interest 51a, 51b, 51c are regions for extracting and deleting peripheral organs between the origin plane and the kidneys and ureters.
  • the locus of the mouse pointer 40 is drawn while pressing the left click of the mouse 13.
  • the region of interest 52a is a region for extracting and adding a ureter located in front of the starting surface.
  • the locus of the mouse pointer 40 is drawn while pressing the right click of the mouse 13.
  • FIG. 5 (b) the locus of the region of interest is difficult to visually recognize because it is converted to a grayscale image due to restrictions on the patent drawing.
  • FIG. 6 shows only the positional relationship between the locus of the region of interest and the mouse pointer.
  • the display unit 4 displays the locus of the region of interest and the mouse pointer in a color different from the color of the first three-dimensional image according to the control of the calculation unit 2, so that the operator The mouse pointer can be easily visually recognized.
  • the computing unit 2 executes a second 3D image construction process (S6).
  • S6 The details of the construction process of the second three-dimensional image are shown in FIG.
  • the computing unit 2 generates a depth image corresponding to the first three-dimensional image for the region of interest received in S5 (S11). If the displayed first three-dimensional image is a depth image, the calculation unit 2 uses the displayed first three-dimensional image as it is. In addition, when the first three-dimensional image is not a depth image, the calculation unit 2 performs a conversion process from the first three-dimensional image (surface rendering image or volume rendering image) to a depth image by a known technique.
  • the calculation unit 2 extracts pixels whose depth gradient corresponding to the first three-dimensional image has a depth gradient equal to or less than the determination value A among the pixels in the region of interest as the first image region (ROI1). Set (S12).
  • FIG. 7 a region of interest 51c and a corresponding first image region 63 are schematically illustrated.
  • the plane group 60 is all parallel to the XZ plane.
  • the cross section of the first three-dimensional image 30d that is one of the plane groups 60 is also parallel to the XZ plane.
  • the projection line for constructing the second three-dimensional image has one of the plane groups 60 as a starting point and a point on the projection plane 61 as an end point.
  • the region of interest 51c is located on the cross section of the first three-dimensional image 30d.
  • the corresponding first image region 63 is also located on the cross section of the first three-dimensional image 30d at the time of S12.
  • the calculation unit 2 sets the origin of the projection line for constructing the second three-dimensional image as a point in the plane group 60 for the pixels in the first image region 63, and the depth.
  • the peripheral organs between the origin plane and the kidney and ureter can be extracted and deleted, or the ureter located in front of the origin plane can be extracted and added.
  • FIG. 8 is a schematic diagram for explaining the depth gradient of the depth image corresponding to the first three-dimensional image.
  • the depth gradient g (m, n) of the target pixel (m, n) is defined by the following equation.
  • FIG. 8 (a) shows ⁇ x.
  • FIG. 8B shows ⁇ z. Note that FIG. 8 shows an example of the X-Z plane, but the same calculation is possible for other cross sections.
  • the depth gradient g (m, n) calculated by the equation (1) is 0 ⁇ g (m, n) ⁇ 1 from the definition.
  • the depth gradient g (m, n) is a value close to 0, and the target pixel (m, n) If the vicinity of is an uneven region, the depth gradient g (m, n) is close to 1.
  • the pixel that is desired to be extracted as the first image region (ROI1) is a pixel that belongs to a flat region in which peripheral organs are cut. Therefore, it is desirable that the calculation unit 2 extracts pixels having a depth gradient equal to or smaller than the determination value A as the first image region (ROI1), and sets the determination value A in S12 to a value close to zero.
  • the computing unit 2 moves the starting point of the projection line by the movement amount B toward the back side or the near side in the projection line direction for the pixels in the first image region (ROI1) (S13).
  • the calculation unit 2 updates the starting point of the projection line for each pixel stored in the storage unit 3 to the moved position. It should be noted that the pixel whose starting point of the projection line is updated is only the pixel in the first image area (ROI1).
  • the calculation unit 2 confirms whether or not the starting point of the projection line has moved to the limit position (S14).
  • the calculation unit 2 ends the process. In this case, the second three-dimensional image is not constructed.
  • the computing unit 2 configures a depth image based on the starting point of the projected line after movement with respect to the first image region (ROI1) ( S15).
  • the calculation unit 2 extracts pixels whose depth gradient of the depth image based on the origin of the projected line after movement is equal to or less than the determination value C among the pixels in the first image region (ROI1), Set as an area (ROI2) (S16).
  • the calculation unit 2 confirms whether or not the end condition is satisfied (S17).
  • the area (synonymous with the number of pixels) of the first image area (ROI1) is S1
  • the area of the second image area (ROI2) is S2.
  • the first example of the end condition is “100 ⁇ S1 / S2 ⁇ determination value D” (where D is a value of 100 or less). This means that the value obtained by dividing the area S1 of the first image region (ROI1) by the area S2 of the second image region (ROI2) is less than a certain value of 1 or less.
  • the second example of the end condition is “S2 ⁇ judgment value E”. This means that the area of the second image region (ROI2) is less than a certain value.
  • the calculation unit 2 specifies the origin plane 66 by setting the solid line 69a obtained by slightly shifting the dotted line 68a in the projection direction as the origin of the projection line used for the second three-dimensional image. Extracting and deleting the peripheral organ 65a between the organ 64 can be realized.
  • the calculation unit 2 uses, for example, a solid line 69b obtained by shifting the dotted line 68b slightly in the direction opposite to the projection direction as the start point of the projection line used for the second three-dimensional image. It is possible to extract and add the specific organ 64 positioned in front of the surface 66.
  • the calculation unit 2 sets the second image region (ROI2) as the first image region (ROI1) (S18), and repeats the processing from S13. .
  • the calculation unit 2 configures a second three-dimensional image based on the start point of the projected line after movement stored in the storage unit 3 (S19).
  • the process in S19 may use a known three-dimensional image construction method.
  • the display unit 4 displays the second three-dimensional image generated in S6 according to the control by the calculation unit 2 (S7). The operator can easily observe the kidney and the ureter by interpreting the second three-dimensional image.
  • the second three-dimensional image 30e configured based on the regions of interest 51a, 51b, 51c, and 52a input in the first three-dimensional image 30d of FIG.5 (b) is displayed on the display 18. The situation is shown.
  • the kidney and ureter In the region of interest 51a, most of the surrounding organs located on the near side of the kidney and blocking the kidney are deleted, so that the kidney can be easily observed. Further, in the region of interest 51b, a part of the peripheral organ located on the near side of the ureter and blocking the ureter is deleted. Further, in the region of interest 51c, most of the surrounding organs located on the near side of the kidney and blocking the kidney are deleted, so that the kidney can be easily observed. Further, in the region of interest 52a, a ureter located in front of the starting surface is added so that the ureter can be easily observed. In the second three-dimensional image 30e, at least in the regions of interest 51a, 51c, and 52a, the kidney and ureter can be easily observed.
  • FIG. 11 (a) shows a state where the first three-dimensional image 30f using opacity (opacity) is displayed on the display 18.
  • FIG. Regions of interest 51a, 51b, 51c and 52a are superimposed on the first three-dimensional image 30f at the same positions as the first three-dimensional image 30d.
  • the second three-dimensional image 30g configured based on the regions of interest 51a, 51b, 51c, 52a input in the first three-dimensional image 30f of FIG.
  • the second three-dimensional image 30g also uses opacity.
  • the kidney and ureter can be easily observed.
  • FIG. 12 shows a state in which the locus 71 and the depth position 72 of the projection line after correction on an arbitrary axial plane are displayed on the display 18.
  • FIG. 12 is converted to a grayscale image due to limitations of the patent drawing, and thus the locus 71 and the depth position 72 of the projection line after correction are difficult to visually recognize. Therefore, in FIG. 12, the corrected locus 71 of the projected line is traced with a thick white line so that at least the corrected locus 71 of the projected line is easily visible.
  • the locus and depth position of the origin of the corrected projection line are displayed in a color different from the color of the second three-dimensional image, so that the operator can trace the locus and depth position of the origin of the corrected projection line. Can be easily recognized.
  • a first modification of the region of interest input acceptance process will be described with reference to FIGS.
  • the input of the region of interest is accepted by accepting designation of the coordinates of two points.
  • the calculation unit 2 specifies the position of the region of interest based on the coordinates of the two specified points, and specifies the position where the projection line origin should move for the pixels in the region of interest.
  • the coordinates 53a and 53b identify the ureter of the target organ. Between the coordinate 53a and the coordinate 53b, there are peripheral organs on the near side of the ureter, blocking the ureter. In the first modification, the calculation unit 2 deletes the surrounding organs and constructs a second three-dimensional image that allows easy observation of the ureter.
  • the calculation unit 2 sets the rectangle 54 shown in the first three-dimensional image 30i in FIG. 13B based on the input coordinates 53a and coordinates 53b.
  • a rectangle 54 is a region of interest (ROIw). Details of the process of setting the rectangle 54 are shown in FIG.
  • the calculation unit 2 sets the length of the line segment 73 connecting the input coordinates 53a and 53b as the width 74 in the longitudinal direction of the rectangle 54. Next, the calculation unit 2 sets the length of a certain ratio (less than 100%) to the width 74 in the longitudinal direction as the width 75 in the direction orthogonal to the longitudinal direction of the rectangle 54. Then, the calculation unit 2 determines the position of the rectangle 54 so as to be line symmetric with respect to the line segment 73.
  • the computing unit 2 refers to the depth values of the coordinates 53a and 53b, and corrects the starting point of the projection line for the pixels in the rectangle 54 at a position closer to the depth than the coordinates 53a and 53b, Store in the storage unit 3.
  • the calculation unit 2 sets the correction position of the starting point of the projection line to a position that gives a constant value (margin) to the near side with respect to the depth value of the coordinate 53a, and constant to the near side with respect to the depth value of the coordinate 53b On a plane that passes through the position where the value (margin) is given.
  • the depth value of the coordinate 53a and the depth value of the coordinate 53b are different, the starting point of the projection line for the pixel in the rectangle 54 has a different distance from the projection plane for each pixel.
  • the calculation unit 2 for example, the correction position of the starting point of the projection line is a position where a constant value (margin) is given to the near side with respect to the larger value of the depth value of the coordinate 53a and the depth value of the coordinate 53b. To do.
  • the starting points of the projection lines for the pixels in the rectangle 54 are all the same distance from the projection plane.
  • ⁇ Second modification> A second modification of the region of interest input acceptance process will be described with reference to FIGS.
  • the input of the region of interest is accepted by accepting designation of two curves.
  • the calculation unit 2 specifies the position of the region of interest based on the two specified trajectories, and specifies the position where the projection line origin should move for the pixels in the region of interest.
  • the operator presses the curve designation button 34 via the input unit 5 and draws the locus of the mouse pointer 40 four times for the first three-dimensional image 30j.
  • a curve 55a, a curve 55b, a curve 55c, and a curve 55d are input.
  • the curve 55a and the curve 55b are a set of two curves for designating the first region of interest (ROIw1).
  • the curve 55c and the curve 55d are a set of two curves for designating the second region of interest (ROIw2).
  • the curve 55a and the curve 55b specify the outer frame of the surrounding organ that blocks the kidney of the target organ.
  • the calculation unit 2 deletes the surrounding organs and constructs a second three-dimensional image in which the kidney can be easily observed.
  • the curve 55c and the curve 55d specify the outer frame of the surrounding organ that blocks the ureter of the target organ.
  • the calculation unit 2 deletes the surrounding organs and forms a second three-dimensional image that allows easy observation of the ureter.
  • the calculation unit 2 is a limited mode in which the region of interest (ROIw) is limited to a region sandwiched between two curves, or the region of interest (ROIw) is a circular region with a constant radius centered on the center of gravity of the two curves.
  • the region of interest (ROIw) is set according to any one of the extension modes extended to.
  • the hatched area 56a designated by the curves 55a and 55b is the limited mode.
  • the hatched area 56b specified by the curve 55c and the curve 55d is the extension mode.
  • the calculation unit 2 sets a hatched area 56a shown in FIG. 15 (b) based on the input curve 55a and curve 55b.
  • the hatched area 56a is the first region of interest (ROIw1).
  • the calculation unit 2 sets a region between the input curve 55a and the curve 55b in the limited mode as a hatched region 56a.
  • the calculation unit 2 sets a hatched area 56b shown in FIG. 15B based on the input curve 55c and curve 55d.
  • the hatched area 56b is the second region of interest (ROIw2).
  • the calculation unit 2 sets a region extended to a circular region having a constant radius with the center of gravity of the input curves 55a and 55b as a center point by the extension mode as a hatched region 56b.
  • FIG. 15 (b) is converted to a grayscale image due to restrictions on the patent drawing, and therefore, the locus of the curve and the hatched region are difficult to visually recognize. Therefore, FIG. 16 shows only the positional relationship between the locus of the curve and the hatched area. Actually, the display unit 4 displays the curved locus and the shaded area in a color different from the color of the first three-dimensional image according to the control of the computing unit 2, so the operator can display the curved locus and the shaded area. Can be easily recognized.
  • the computing unit 2 refers to the depth values on the curve 55a and the curve 55b, and in the rectangle 54 at the position of the depth value on the curve 55a and the curve 55b or a position where a constant value (margin) is given to the depth value.
  • the starting point of the projection line for the pixel is corrected and stored in the storage unit 3.
  • the constant value (margin) may be a positive value or a negative value.
  • the calculation unit 2 sets the movement position of the starting point of the projection line, the position of the depth value on the curve 55a or a position where a constant value (margin) is given to the depth value, and the position or depth value of the depth value on the curve 55b.
  • a constant value margin
  • the depth value on the curve 55a and the depth value on the curve 55b are different, the starting point of the projection line for the pixel in the hatched area 56a has a different distance from the projection plane for each projection line.
  • the calculation unit 2 sets the movement position of the starting point of the projection line to the position of the depth value on the curve 55c or a position where a constant value (margin) is given to the depth value, and the position of the depth value on the curve 55d.
  • it is on a curved surface passing through a position where a constant value (margin) is given to the depth value.
  • the depth value on the curve 55c is different from the depth value on the curve 55d
  • the starting point of the projection line for the pixel in the hatched area 56b has a different distance from the projection plane for each projection line.
  • the operator first presses the trace button 36, moves the mouse pointer 40 to the coordinate p1, for example, to the coordinate p2 while pressing the left click. Drag the mouse pointer 40.
  • the calculation unit 2 sets a curve 51d having the coordinate p1 as the start point and the coordinate p2 as the end point.
  • the calculation unit 2 sets a curve 51e with the coordinate p3 as the start point and the coordinate p4 as the end point.
  • the calculation unit 2 refers to the depth value of the corresponding depth image for the points on the curve 51d and the curve 51e, and executes the process of correcting the projection line origin. On the other hand, the calculation unit 2 refers to the values interpolated by the depth values of the coordinates p2 and p3 for the points between the coordinates p2 and p3, and executes the process of correcting the starting point of the projection line.
  • the calculation unit 2 receives an input of an initial value, an addition value, and a maximum value of an end condition related to the configuration process of the second 3D image via the input unit 5 (S21).
  • FIG. 19 illustrates a state in which the initial value input box 39a, the addition value input box 39b, and the maximum value input box 39c are displayed on the display 18 together with the first three-dimensional image 30m.
  • the operator inputs a desired initial value, addition value, and maximum value via the input unit 5 to each of the initial value input box 39a, the addition value input box 39b, and the maximum value input box 39c.
  • the computing unit 2 performs subsequent processing using the values input in the initial value input box 39a, the added value input box 39b, and the maximum value input box 39c.
  • the calculation unit 2 sets the initial value input in S21 to the determination value F of the end condition (S22), executes S1 to S5 in FIG. 2 (S23), and performs the second operation shown in FIG. Three-dimensional image construction processing is executed (S24).
  • the determination value F of the end condition is the determination value D or the determination value E in the first embodiment.
  • the computing unit 2 confirms whether or not the end condition is satisfied in the second 3D image construction process (S25). If the end condition is satisfied (Yes in S25), the second three-dimensional image is configured, so the calculation unit 2 displays the second three-dimensional image (S26).
  • the calculation unit 2 adds the addition value input in S21 from the determination value F of the end condition (S27).
  • the calculation unit 2 confirms whether or not the determination value F of the end condition is equal to or less than the maximum value input in S21 (S28).
  • the calculation unit 2 repeats the process from S24.
  • the display unit 4 displays a message “Please increase the maximum value” according to the control by the calculation unit 2 (S29). In this case, the process is repeated from S21.
  • the third embodiment will be described with reference to FIGS.
  • the third embodiment shows the details of the process of correcting the starting point of the projection line.
  • the third embodiment is effective when the surrounding organ to be deleted becomes larger as the distance from the starting surface increases in the process of correcting the starting point of the projection line.
  • the computing unit 2 scans the pixels of a circle 84 having a constant radius R around the point P on the origin line 83 in a radial manner.
  • an intersection line (white thick line) between the starting point surface 81 and the axial surface 82 is a starting point line 83 to be processed on the axial surface 82.
  • the calculation unit 2 executes the correction process of the starting point of the projection line with respect to the point P located on the starting point line 83 that satisfies the threshold condition.
  • the threshold condition here is a condition that can distinguish between an organ and air. If the pixel value belongs to an organ, the threshold condition is satisfied.
  • FIG. 22 shows a case where the calculation unit 2 scans pixels only in the direction orthogonal to the starting line 83.
  • the objective is to set the starting point of the projection line between the target organ 91 and the surrounding organ 92.
  • the thick line 87 is a line of intersection between the region of interest set by the operator and the axial plane. Since the operator traces the periphery of the region of the peripheral organ 92 to be deleted while visually recognizing only the first three-dimensional image displayed by the display unit 4, the region of interest is as shown in FIG. It becomes a position.
  • the computing unit 2 scans pixels in the direction orthogonal to the starting line 83 for each point on the thick line 87 from the point P1 to the point P2, and corrects the starting point of the projection line.
  • Fig. 22 (b) shows the result of correcting the origin of the projection line.
  • the starting point of the projection line is corrected to the position of the thick line 89b.
  • the starting point of the projection line remains the initial value, and is the position of the thick line 89a and the thick line 89c.
  • the target organ 91 remains blocked by the surrounding organ 92 at the positions of the thick line 89a and the thick line 89c.
  • FIG. 23 shows a case where the calculation unit 2 radially scans pixels of a circle 84 with a constant radius R centering on the point P on the origin line 83.
  • the purpose is to set the starting point of the projection line between the target organ 91 and the surrounding organ 92.
  • the thick line 87 is a line of intersection between the region of interest set by the operator and the axial plane.
  • the computing unit 2 scans pixels of a circle 84 having a constant radius R centered on each point on the thick line 87 from the point P1 to the point P2 to correct the starting point of the projection line.
  • Fig. 23 (b) shows the result of correcting the origin of the projection line.
  • the result of correcting the starting point of the projection line based on the points in the region of interest is the position of the thick line 89e.
  • Others are the positions of the thick line 89d and the thick line 89f. In this case, the target organ 91 can be observed without being blocked by the surrounding organ 92.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

 特定領域を容易に観察可能な三次元画像を構成するために、演算部2は、関心領域に対して第1の三次元画像に対応するデプス画像を生成し(S11)、関心領域内において、デプス画像のデプス勾配に基づいて第1画像領域を設定する(S12)。次に、演算部2は、第1画像領域内の画素について、投影線の起点を移動量Bだけ投影線方向に奥側又は手前側に移動し(S13)、第1画像領域において、移動後の投影線の起点に基づくデプス画像を構成し(S15)、第1画像領域内において、移動後の投影線の起点に基づくデプス画像のデプス勾配に基づいて第2画像領域を設定し(S16)、終了条件を満たすまで、第2の画像領域を第1の画像領域として(S18)、S13の処理から繰り返す。終了条件を満たしたら、演算部2は、移動後の投影線の起点に基づいて、第2の三次元画像を構成する(S19)。

Description

三次元画像構成装置及び三次元画像構成方法
 本発明は、医用画像などの三次元画像を表示する三次元画像構成装置等に関するものである。
 従来、腎盂(じんう)・尿管・膀胱といった尿路の病変を評価するためには、X線撮影を用いた排泄性尿路造影という検査を行っていた。しかし、X線撮影の情報量よりもCT(Computer Tomography)撮影の情報量の方が多いことから、近年では、CT撮影による検査を行うことが多くなっている。
 尿路の病変をCT撮影によって評価する方法として、CT Urographyがある(非特許文献1参照)。非特許文献1に記載されているように、CT Urographyでは、造影剤を投与した直後に撮影を行い、更に、造影剤が尿路に排泄されてから再び撮影を行う。従って、通常のCT撮影よりも、撮影に要する時間が長くなる。このように、造影剤が投与されたり、撮影に要する時間が長くなったりすることは、被検者に大きな負担となる。
 そこで、造影剤を使わずに撮影されたデータに対して、画像処理によって尿路の抽出を行い、尿路の三次元画像を表示したい、という要望がある。特定臓器を三次元表示するための臓器抽出処理としては、領域拡張処理(リージョングローイング)が知られている(特許文献1参照)。特許文献1に記載の手法では、領域拡張処理における拡張条件として、局所的濃度変化を考慮した条件と、大域的濃度変化を考慮した条件とを組み合わせて用いて、信頼性が高い領域抽出を実現している。
特許第2845995号公報
http://kompas.hosp.keio.ac.jp/contents/000416.html(2012年4月16日検索)(「慶応義塾大学病院 医療・健康情報サイト」 記事作成日:2009年2月1日、最終更新日:2011年12月28日)
 しかしながら、造影剤を使わずに撮影されたデータでは、尿管のCT値が周辺の臓器のCT値と近いため、領域拡張処理によって正確に抽出することが困難であった。例えば、領域拡張処理では、周辺の臓器の1画素分だけでも尿管と誤判定してしまうと、周辺の臓器全体にまで尿管の領域を拡張してしまう。
 本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、特定領域を容易に観察可能な三次元画像を構成する三次元画像構成装置等を提供することである。
 前述した目的を達成するための第1の発明は、所定の起点面における第1の三次元画像を表示する表示部と、前記第1の三次元画像において、第2の三次元画像に関する関心領域の入力を受け付ける入力部と、前記起点面を、第2の三次元画像を構成するための投影線の起点の初期値とし、前記第1の三次元画像と対応するデプス画像に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正し、前記関心領域に対しては、修正後の前記投影線の起点を用いて、前記第2の三次元画像を構成する演算部と、を具備する三次元画像構成装置である。
 第2の発明は、表示部が、所定の起点面における第1の三次元画像を表示するステップと、入力部が、前記第1の三次元画像において、第2の三次元画像に関する関心領域の入力を受け付けるステップと、演算部が、前記起点面を、第2の三次元画像を構成するための投影線の起点の初期値とするステップと、演算部が、前記第1の三次元画像と対応するデプス画像に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正するステップと、演算部が、前記関心領域に対しては、修正後の前記投影線の起点を用いて、前記第2の三次元画像を構成するステップと、を実行する三次元画像構成方法である。
 本発明により、特定領域を容易に観察可能な三次元画像を構成する三次元画像構成装置等を提供することができる。
三次元画像構成装置のハードウエア構成を示す図 第1の実施形態における全体の処理の流れを示すフローチャート 三次元画像の構成処理の流れを示すフローチャート 起点面の設定処理を説明する図 関心領域の入力受付処理を説明する図 関心領域の入力受付処理を説明する図 三次元画像の構成処理を説明する図 三次元画像の構成処理を説明する図 三次元画像の構成処理を説明する図 処理結果の一例 処理結果の一例 処理結果の一例 関心領域の入力受付処理の第1の変形例を説明する図 関心領域の入力受付処理の第1の変形例を説明する図 関心領域の入力受付処理の第2の変形例を説明する図 関心領域の入力受付処理の第2の変形例を説明する図 関心領域の入力受付処理の第3の変形例を説明する図 第2の実施形態における全体の処理の流れを示すフローチャート 終了条件のパラメータの入力受付処理を説明する図 第3の実施形態における三次元画像の構成処理を説明する図 第3の実施形態における三次元画像の構成処理を説明する図 第3の実施形態における三次元画像の構成処理を説明する図 第3の実施形態における三次元画像の構成処理を説明する図
 本発明は、特定領域を容易に観察可能な三次元画像を構成する三次元画像構成装置等を提供する。特に、本発明は、造影を使わずに撮影されたボリュームデータに対して、周辺臓器と類似の画素値を有する細い対象臓器の観察を容易にするため、操作者によって指定される関心領域に基づいて、視点と対象臓器との間にある周辺臓器を抽出して削除したり、視点より手前に位置する対象臓器を抽出して追加したりすることが可能な三次元画像構成装置等を提供する。以下図面に基づいて、本発明の実施形態を詳細に説明する。
 最初に、全ての実施形態について共通する三次元画像構成装置のハードウエア構成を説明する。図1に示すように、三次元画像構成装置1は、演算部2、記憶部3、表示部4及び入力部5等から構成される。
 演算部2は、CPU11等によって構成される。記憶部3は、主メモリ15及び磁気ディスク16等によって構成される。表示部4は、表示メモリ17及びディスプレイ18等によって構成される。入力部5は、コントローラ12、マウス13及びキーボード14等によって構成される。
 コントローラ12、キーボード14、主メモリ15、磁気ディスク16、表示メモリ17のそれぞれは、データ転送バス19を介してCPU11と信号送受可能に接続される。
 CPU11は、データ転送バス19とローカルエリアネットワーク(LAN)21を介して医用画像撮影装置20とも信号送受可能に接続される。コントローラ12にはマウス13が信号送受可能に接続される。表示メモリ17には、ディスプレイ18が信号送受可能に接続される。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
 CPU11は、コンピュータプログラムを実行し、接続される各要素を制御する。コンピュータプログラムは、後述する処理の実行結果を得ることができるように組み合わされたCPU11に対する指令である。
 コントローラ12は、マウス13に設けられるセンサにより得られる位置の変位量データ、マウス13に設けられるボタンスイッチの入力データ等の各種データをCPU11にデータ転送バス19を介して伝達する。マウス13は、操作者によるデータの入力を支援する。操作者がディスプレイ18に表示される画像やラジオスイッチ等のソフトウエアによって作られたスイッチ等にマウス13のカーソルを移動し、その移動先の位置をクリックすると、CPU11に所定の入力データが伝達される。キーボード14は、磁気ディスク16から読み出したい医用画像を特定するためのID情報や、ディスプレイ18に表示される医用画像の診断レポート等、主に文字入力が適当な場合における入力装置である。
 主メモリ15は、各種のコンピュータプログラムを磁気ディスク16からロードしたり、CPU11が各種のコンピュータプログラムを実行する時に医用画像データや演算の途中経過を記憶したりする等、CPU11の作業領域として使用される。磁気ディスク16は、各種のコンピュータプログラムを記憶する。また、磁気ディスク16は、医用画像撮影装置20によって撮影された被検体の撮影データを、LAN21及びデータ転送バス19を介して受信し、記憶する。磁気ディスク16は、コンピュータシステムにおける外部記憶装置の一例である。外部記憶装置としては、フレキシブルディスク、光(磁気)ディスク、ZIPメモリ、USBメモリ等、記憶媒体であればあらゆるものを含む。
 表示メモリ17は、CPU11の演算結果のうち画面表示するデータを、ディスプレイ18へ信号転送する前に一時記憶する。ディスプレイ18は、表示メモリ17から信号転送された医用画像とそれに付帯する各種情報を表示する。
 データ転送バス19は、データ転送バス19に接続される各要素同士間のデータ転送を行う。医用画像撮影装置20は、X線CT装置、MRI装置、超音波装置、シンチレーションカメラ装置、PET装置、SPECT装置等、被検体の断層像を得ることができるものである。LAN21は、医用画像撮影装置20と三次元画像構成装置1とを信号送受可能に接続するものである。尚、LAN21の代わりに、インターネット等公衆回線であってもよい。
 前述の説明では、表示部4を構成するディスプレイ18、及び、入力部5を構成するマウス13やキーボード14は、別体としたが、表示部4及び入力部5は、タッチパネル式ディスプレイ等のように一体であっても良い。
 <第1の実施形態>
 図2~図17を参照しながら、第1の実施形態について説明する。以下では、造影剤を使わずに撮影されたデータに対して、腎臓や尿管の観察を容易にするための三次元画像を構成する例を説明する。特に、元のボリュームデータが、X線CT装置によって撮影される場合を例にして説明する。
 視点から投影面への投影法は、視点を面として捉えて、この面から投影面への平行な投影線によって投影する平行投影法を用いる。以下、投影線の起点となる面を「起点面」という。
 三次元画像は、サーフェイスレンダリング法によって構成される画像であっても良いし、ボリュームレンダリング法によって構成される画像であっても良いし、デプス法によって構成される画像(以下、「デプス画像」と称する。)であっても良い。デプス法とは、CT画像上の各画素からそれを投影する箇所までの距離に応じて陰影を付ける方法であり、通常はその距離が長い程、陰影を濃く(暗く)する。以下に示すデプス画像の各画素値は、起点面から、閾値条件を満たす特定画素までの距離とする。
 また、以下では、目的の画像(=腎臓や尿管の観察が容易な画像)を構成するための前処理に用いる三次元画像を「第1の三次元画像」とし、目的の画像を「第2の三次元画像」と称する。
 図2に示すように、表示部4は、演算部2による制御に従い、被検体のアキシャル面に対して垂直に近い角度の断面におけるMPR(Multi Planar Reconstruction)画像を初期表示する(S1)。
 図4(a)では、アキシャル面に垂直なMPR(Multi Planar Reconstruction)画像30aが、ディスプレイ18に表示されている様子を図示している。MPR画像30aでは、腎臓41の断面及び腎臓42の断面が観察可能である。
 表示部4は、MPR画像30aとともに、スライドバー31、トレースボタン32、二点指定ボタン33、曲線指定ボタン34、終了ボタン35を、ディスプレイ18に表示する。スライドバー31は、操作者がディスプレイ18に表示される第1の三次元画像の断面を指定するためのバーである。トレースボタン32、二点指定ボタン33及び曲線指定ボタン34は、操作者が関心領域(ROIw)を入力するためのボタンである。各ボタンが押下されたことに対する演算部2の処理の詳細は後述する。終了ボタン35は、操作者が処理の終了を指示するためのボタンである。
 前述の説明では、特定臓器の1つが尿管であり、尿管は被検体の体軸方向に沿って伸びる為、S1において表示される画像は、被検体のアキシャル面に対して垂直に近い角度の断面におけるMPR画像とした。特定臓器が尿管でない場合などは、S1において表示される画像は、これに限定されるものではない。また、S1において表示される画像は、MPR画像に限らず、CPR(Curved Planar Reconstruction)画像であっても良い。
 図2の説明に戻る。次に、演算部2は、入力部5を介して、スライドバー31による入力を受け付けて、スライドバー31の移動量に応じて、画面の奥行き方向にMPR画像の断面を変更する(S2)。例えば、演算部2は、スライドバー31が上方に移動した場合には画面の手前側に断面を変更し、スライドバー31が下方に移動した場合には画面の奥側に断面を変更する。表示部4は、演算部2による制御に従い、変更後のMPR画像を表示する。
 図4(b)では、図4(a)のMPR画像30aの断面と異なる断面におけるMPR画像30bが、ディスプレイ18に表示されている様子を図示している。MPR画像30bでは、腎臓の腹側の端部43が観察可能である。
 図2の説明に戻る。次に、演算部2は、変更後のMPR画像の断面を投影線の起点面とし、第1の三次元画像を構成する。表示部4は、演算部2による制御に従い、構成される第1の三次元画像を表示する(S3)。
 図5(a)では、図4(b)のMPR画像30bの断面を投影線の起点面とし、画面の奥側に投影線を投影することによって構成された第1の三次元画像30cが、ディスプレイ18に表示されている様子を図示している。前述の通り、MPR画像30bでは、腎臓の腹側の端部43が観察可能なので、第1の三次元画像30cは、投影線を、腎臓の腹側の端部43を通る起点面から、画面の奥側に投影することによって構成されていることになる。
 第1の三次元画像30cでは、2つの腎臓の一部が、周辺の臓器(画面の手前側の臓器)に隠れているため、観察できない。また、第1の三次元画像30cでは、尿管44及び尿管45の一部が観察できない。尿管44の一部は、周辺の臓器(画面の手前側の臓器)に隠れているため、観察できない。一方、尿管45の一部は、起点面よりも画面の手前側に位置するため、観察できない。
 以下の処理では、腎臓及び尿管を容易に観察可能な第2の三次元画像を構成するため、演算部2は、操作者によって指定される関心領域(ROIw)に基づいて、起点面と腎臓及び尿管との間にある周辺臓器を抽出して削除したり、起点面より手前に位置する尿管を抽出して追加したりする。
 図2の説明に戻る。次に、演算部2は、現在表示されている第1の三次元画像の起点面を、第2の三次元画像を構成するための投影線の起点の初期値を定義する起点面として設定する(S4)。演算部2は、投影線ごとに、投影線の起点の初期値を記憶部3に記憶しておく。尚、投影線の数は、投影面の画素数と同一である。
 次に、演算部2は、入力部5を介して、第2の三次元画像に関する関心領域(ROIw)の入力を受け付ける(S5)。
 図5(b)では、図5(a)の第1の三次元画像30cに対して、関心領域51a、51b、51c、52aが重畳された第1の三次元画像30dが、ディスプレイ18に表示されている様子を図示している。
 図5(b)に示す例では、操作者が、入力部5を介して、トレースボタン32を押下し、マウスポインタ40の軌跡を描いた結果、関心領域51a、51b、51c、52aが入力されている。
 関心領域51a、51b、51cは、起点面と腎臓及び尿管との間にある周辺臓器を抽出して削除するための領域である。関心領域51a、51b、51cは、例えば、マウス13の左クリックを押しながら、マウスポインタ40の軌跡が描かれている。
 関心領域52aは、起点面より手前に位置する尿管を抽出して追加するための領域である。関心領域52aは、例えば、マウス13の右クリックを押しながら、マウスポインタ40の軌跡が描かれている。
 尚、図5(b)は、特許図面の制約上、グレースケール画像に変換しているため、関心領域の軌跡が視認し難い。そこで、図6には、関心領域の軌跡とマウスポインタの位置関係のみを図示している。実際には、表示部4は、演算部2の制御に従い、第1の三次元画像の色と異なる色によって、関心領域の軌跡やマウスポインタを表示するので、操作者は、関心領域の軌跡やマウスポインタを容易に視認することができる。
 図2の説明に戻る。次に、演算部2は、第2の三次元画像の構成処理を実行する(S6)。第2の三次元画像の構成処理の詳細は、図3に図示されている。
 図3に示すように、演算部2は、S5において受け付けられた関心領域に対して、第1の三次元画像に対応するデプス画像を生成する(S11)。演算部2は、表示されている第1の三次元画像がデプス画像であれば、表示されている第1の三次元画像をそのまま用いる。また、演算部2は、第1の三次元画像がデプス画像でなければ、公知の技術によって、第1の三次元画像(サーフェイスレンダリング画像やボリュームレンダリング画像)からデプス画像への変換処理を行う。
 次に、演算部2は、関心領域内の画素の中で、第1の三次元画像に対応するデプス画像のデプス勾配が判定値A以下の画素を抽出し、第1画像領域(ROI1)として設定する(S12)。
 図7には、関心領域51cと、対応する第1画像領域63が模式的に図示されている。
 平面群60は、全てXZ平面と平行である。平面群60の1つである第1の三次元画像30dの断面も、XZ平面と平行である。第2の三次元画像を構成するための投影線は、平面群60のいずれかを起点とし、投影面61上の点を終点とする。関心領域51cは、第1の三次元画像30dの断面上に位置する。対応する第1画像領域63も、S12の時点では、第1の三次元画像30dの断面上に位置する。演算部2は、後述する処理において、第1画像領域63内の画素に対して、第2の三次元画像を構成するための投影線の起点を、平面群60のいずれかの点として、奥行き方向の手前側又は奥側に修正することによって、起点面と腎臓及び尿管との間にある周辺臓器を抽出して削除したり、起点面より手前に位置する尿管を抽出して追加したりすることを実現する。
 図8は、第1の三次元画像に対応するデプス画像のデプス勾配を説明するための模式図である。対象画素(m、n)のデプス勾配g(m、n)は、例えば、以下の式によって定義される。
Figure JPOXMLDOC01-appb-M000001
 (m-1、n):対象画素の左隣接画素、(m+1、n):対象画素の右隣接画素、(m、n-1):対象画素の上隣接画素、(m、n+1):対象画素の下隣接画素、f(x、z):起点面から画素(x、z)までの距離、d0:隣接画素間の距離、である。
 図8(a)には、θxが図示されている。図8(b)には、θzが図示されている。尚、図8では、X-Z平面の例を示しているが、他の断面でも同様に計算可能である。
 式(1)によって算出されるデプス勾配g(m、n)は、定義から、0≦g(m、n)<1である。また、投影面と起点面が平行な場合、対象画素(m、n)の近傍が平坦領域であれば、デプス勾配g(m、n)は0に近い値となり、対象画素(m、n)の近傍が凹凸領域であれば、デプス勾配g(m、n)は1に近い値となる。
 前述のS12において、第1画像領域(ROI1)として抽出したい画素は、周辺臓器が切断された平坦な領域に属する画素である。従って、演算部2は、デプス勾配が判定値A以下の画素を、第1画像領域(ROI1)として抽出するものとし、S12における判定値Aを0に近い値とすることが望ましい。
 図3の説明に戻る。次に、演算部2は、第1画像領域(ROI1)内の画素について、投影線の起点を移動量Bだけ投影線方向に奥側又は手前側に移動する(S13)。演算部2は、記憶部3に記憶されている画素ごとの投影線の起点を、移動後の位置に更新する。
 尚、投影線の起点が更新される画素は、第1画像領域(ROI1)内の画素のみである。
 次に、演算部2は、投影線の起点が限界位置まで移動したか否かを確認する(S14)。限界位置は、例えば、元のボリュームデータが存在しない位置や、予め設定される限界移動量=移動量B×限界移動回数、を超える位置等である。
 投影線の起点が限界位置まで移動した場合(S14のYes)、演算部2は、処理を終了する。この場合、第2の三次元画像は構成されない。
 投影線の起点が限界位置まで移動していない場合(S14のNo)、演算部2は、第1画像領域(ROI1)に対して、移動後の投影線の起点に基づくデプス画像を構成する(S15)。
 次に、演算部2は、第1画像領域(ROI1)内の画素の中で、移動後の投影線の起点に基づくデプス画像のデプス勾配が判定値C以下の画素を抽出し、第2画像領域(ROI2)として設定する(S16)。
 次に、演算部2は、終了条件を満たすか否かを確認する(S17)。第1画像領域(ROI1)の面積(画素数と同義)をS1、第2画像領域(ROI2)の面積をS2とする。終了条件の1つ目の例は、「100×S1/S2<判定値D」(但し、Dは100以下の値)である。これは、第1画像領域(ROI1)の面積S1を第2画像領域(ROI2)の面積S2で除した値が、1以下の一定値未満となることを意味する。
 また、終了条件の2つ目の例は、「S2<判定値E」である。これは、第2画像領域(ROI2)の面積が一定値未満となることを意味する。
 2つ目の例の終了条件によれば、例えば、図9(a)に示すように、関心領域67aにおいて、特定臓器64の手前側に周辺臓器65aが位置する場合、図9(b)に示す点線68aの位置において、投影線の起点の移動が終了する。そして、関心領域67aにおいては、演算部2は、例えば、点線68aを少し投影方向にずらした実線69aを、第2の三次元画像に用いる投影線の起点とすることによって、起点面66と特定臓器64との間にある周辺臓器65aを抽出して削除することを実現できる。
 また、例えば、図9(a)に示すように、関心領域67bにおいて、特定臓器64が起点面66の手前に位置する場合、図9(b)に示す点線68bの位置において、投影線の起点の移動が終了する。そして、関心領域67bにおいては、演算部2は、例えば、点線68bを少し投影方向と反対の方向にずらした実線69bを、第2の三次元画像に用いる投影線の起点とすることによって、起点面66より手前に位置する特定臓器64を抽出して追加することを実現できる。
 図3の説明に戻る。S17において、終了条件を満たさない場合(S17のNo)、演算部2は、第2の画像領域(ROI2)を、第1の画像領域(ROI1)として設定し(S18)、S13の処理から繰り返す。終了条件を満たす場合(S17のYes)、演算部2は、記憶部3に記憶されている移動後の投影線の起点に基づいて、第2の三次元画像を構成する(S19)。S19での処理は、公知の三次元画像構成手法を用いれば良い。
 前述の処理によって、投影線の起点は投影線毎に適切な位置に設定されているため、演算部2は、目的の画像(=腎臓や尿管の観察が容易になる画像)を構成することができる。
 図2の説明に戻る。表示部4は、演算部2による制御に従い、S6において生成される第2の三次元画像を表示する(S7)。操作者は、第2の三次元画像を読影することによって、腎臓や尿管を容易に観察することができる。
 図10では、図5(b)の第1の三次元画像30dにおいて入力された関心領域51a、51b、51c、52aに基づいて構成された第2の三次元画像30eが、ディスプレイ18に表示されている様子を図示している。
 関心領域51aでは、腎臓の手前側に位置し、腎臓を遮っていた周辺臓器のほとんどが削除され、腎臓を容易に観察することができるようになっている。また、関心領域51bでは、尿管の手前側に位置し、尿管を遮っていた周辺臓器の一部が削除されている。また、関心領域51cでは、腎臓の手前側に位置し、腎臓を遮っていた周辺臓器のほとんどが削除され、腎臓を容易に観察することができるようになっている。また、関心領域52aでは、起点面より手前に位置していた尿管が追加され、尿管を容易に観察することができるようになっている。第2の三次元画像30eは、少なくとも、関心領域51a、51c、52aでは、腎臓や尿管を容易に観察することができる。
 図11(a)では、オパシティ(不透明度)を使用した第1の三次元画像30fが、ディスプレイ18に表示されている様子を図示している。第1の三次元画像30fには、第1の三次元画像30dと同様の位置に、関心領域51a、51b、51c、52aが重畳されている。
 図11(b)では、図11(a)の第1の三次元画像30fにおいて入力された関心領域51a、51b、51c、52aに基づいて構成された第2の三次元画像30gが、ディスプレイ18に表示されている様子を図示している。第2の三次元画像30gも、オパシティ(不透明度)を使用している。第2の三次元画像30gも、少なくとも、関心領域51a、51c、52aでは、腎臓や尿管を容易に観察することができる。
 図12には、任意のアキシャル面における修正後の投影線の起点の軌跡71とデプス位置72が、ディスプレイ18に表示されている様子を図示している。尚、図12は、特許図面の制約上、グレースケール画像に変換しているため、修正後の投影線の起点の軌跡71やデプス位置72が視認し難い。そこで、図12では、少なくとも、修正後の投影線の起点の軌跡71を視認し易いように、修正後の投影線の起点の軌跡71を白の太線によってトレースしている。実際には、第2の三次元画像の色と異なる色によって、修正後の投影線の起点の軌跡やデプス位置を表示するので、操作者は、修正後の投影線の起点の軌跡やデプス位置を容易に視認することができる。
 <第1の変形例>
 図13、図14を参照しながら、関心領域の入力受付処理の第1の変形例を説明する。
 第1の変形例では、2点の座標の指定を受け付けることによって、関心領域の入力を受け付ける。演算部2は、指定される2点の座標に基づいて、関心領域の位置を特定するとともに、関心領域内の画素について、投影線の起点が移動すべき位置を特定する。
 図13(a)に示す例では、第1の三次元画像30hに対して、操作者が、入力部5を介して、二点指定ボタン33を押下し、マウスポインタ40を所望の位置で2回クリックした結果、座標53a及び座標53bが入力されている。
 図13(a)に示す例では、座標53a及び座標53bは、対象臓器の尿管を特定している。座標53aと座標53bの間には、尿管の手前側に周辺臓器が存在し、尿管を遮っている。第1の変形例では、演算部2は、この周辺臓器を削除し、尿管の観察が容易な第2の三次元画像を構成する。
 演算部2は、入力された座標53a及び座標53bに基づいて、図13(b)の第1の三次元画像30iに示されている矩形54を設定する。矩形54が、関心領域(ROIw)である。矩形54の設定処理の詳細は、図14に図示されている。
 図14に示すように、演算部2は、入力された座標53aと座標53bとを結ぶ線分73の長さを、矩形54の長手方向の幅74とする。次に、演算部2は、長手方向の幅74に対する一定の割合(100%未満)の長さを、矩形54の長手方向と直交する方向の幅75とする。そして、演算部2は、線分73に対して線対称となるように、矩形54の位置を決定する。
 次に、演算部2は、座標53a及び座標53bのデプス値を参照し、座標53a及び座標53bのデプス値よりも手前側の位置に、矩形54内の画素に対する投影線の起点を修正し、記憶部3に記憶する。
 演算部2は、例えば、投影線の起点の修正位置を、座標53aのデプス値に対して手前側に一定値(マージン)を与えた位置と、座標53bのデプス値に対して手前側に一定値(マージン)を与えた位置とを通る平面上とする。この場合、座標53aのデプス値と座標53bのデプス値が異なれば、矩形54内の画素に対する投影線の起点は、画素毎に投影面からの距離が異なる。
 また、演算部2は、例えば、投影線の起点の修正位置を、座標53aのデプス値と座標53bのデプス値の大きい方の値に対して手前側に一定値(マージン)を与えた位置とする。この場合、矩形54内の画素に対する投影線の起点は、全て投影面から等しい距離となる。
 以上の処理によって、投影線の起点は投影線毎に適切な位置に設定されているため、演算部2は、尿管を遮る周辺臓器を削除し、目的の画像(=尿管の観察が容易になる画像)を構成することができる。
 <第2の変形例>
 図15、図16を参照しながら、関心領域の入力受付処理の第2の変形例を説明する。
第2の変形例では、2本の曲線の指定を受け付けることによって、関心領域の入力を受け付ける。演算部2は、指定される2本の軌跡に基づいて、関心領域の位置を特定するとともに、関心領域内の画素について、投影線の起点が移動すべき位置を特定する。
 図15(a)に示す例では、第1の三次元画像30jに対して、操作者が、入力部5を介して、曲線指定ボタン34を押下し、マウスポインタ40の軌跡を4回描いた結果、曲線55a、曲線55b、曲線55c及び曲線55dが入力されている。ここで、曲線55a及び曲線55bが、第1の関心領域(ROIw1)を指定するための2本の曲線の組である。同様に、曲線55c及び曲線55dが、第2の関心領域(ROIw2)を指定するための2本の曲線の組である。
 図53(a)に示す例では、曲線55a及び曲線55bは、対象臓器の腎臓を遮る周辺臓器の外枠を特定している。第2の変形例では、演算部2は、この周辺臓器を削除し、腎臓の観察が容易な第2の三次元画像を構成する。
 また、図53(a)に示す例では、曲線55c及び曲線55dは、対象臓器の尿管を遮る周辺臓器の外枠を特定している。第2の変形例では、演算部2は、この周辺臓器を削除し、尿管の観察が容易な第2の三次元画像を構成する。
 演算部2は、関心領域(ROIw)を2本の曲線に挟まれる領域に限定する限定モード、又は、関心領域(ROIw)を2本の曲線の重心を中心点とする一定半径の円領域にまで延長した延長モード、のいずれかのモードによって、関心領域(ROIw)を設定する。曲線55a及び曲線55bによって指定される斜線領域56aは、限定モードである。
曲線55c及び曲線55dによって指定される斜線領域56bは、延長モードである。
 演算部2は、入力された曲線55a及び曲線55bに基づいて、図15(b)に示す斜線領域56aを設定する。斜線領域56aが、第1の関心領域(ROIw1)である。演算部2は、限定モードによって、入力された曲線55a及び曲線55bに挟まれる領域を、斜線領域56aとする。
 また、演算部2は、入力された曲線55c及び曲線55dに基づいて、図15(b)に示す斜線領域56bを設定する。斜線領域56bが、第2の関心領域(ROIw2)である。演算部2は、延長モードによって、入力された曲線55a及び曲線55bの重心を中心点とする一定半径の円領域にまで延長した領域を、斜線領域56bとする。
 尚、図15(b)は、特許図面の制約上、グレースケール画像に変換しているため、曲線の軌跡や斜線領域が視認し難い。そこで、図16には、曲線の軌跡や斜線領域の位置関係のみを図示している。実際には、表示部4は、演算部2の制御に従い、第1の三次元画像の色と異なる色によって、曲線の軌跡や斜線領域を表示するので、操作者は、曲線の軌跡や斜線領域を容易に視認することができる。
 次に、演算部2は、曲線55a及び曲線55b上のデプス値を参照し、曲線55a及び曲線55b上のデプス値の位置又はデプス値に一定値(マージン)を与えた位置に、矩形54内の画素に対する投影線の起点を修正し、記憶部3に記憶する。尚、一定値(マージン)は、プラスの値でも良いし、マイナスの値でも良い。
 演算部2は、例えば、投影線の起点の移動位置を、曲線55a上のデプス値の位置又はデプス値に一定値(マージン)を与えた位置と、曲線55b上のデプス値の位置又はデプス値に一定値(マージン)を与えた位置とを通る曲面上とする。この場合、曲線55a上のデプス値と曲線55b上のデプス値が異なれば、斜線領域56a内の画素に対する投影線の起点は、投影線毎に投影面からの距離が異なる。
 同様に、演算部2は、例えば、投影線の起点の移動位置を、曲線55c上のデプス値の位置又はデプス値に一定値(マージン)を与えた位置と、曲線55d上のデプス値の位置又はデプス値に一定値(マージン)を与えた位置とを通る曲面上とする。この場合、曲線55c上のデプス値と曲線55d上のデプス値が異なれば、斜線領域56b内の画素に対する投影線の起点は、投影線毎に投影面からの距離が異なる。
 以上の処理によって、投影線の起点は投影線毎に適切な位置に設定されているため、演算部2は、腎臓や尿管を遮る周辺臓器を削除し、目的の画像(=腎臓や尿管の観察が容易になる画像)を構成することができる。
 尚、前述の説明では、2本の曲線が入力されるものとしたが、1本の閉曲線が入力されるものとしても良い。これは、演算部2は、入力される1本の閉曲線を2分することによって、2本の曲線を特定できるからである。つまり、演算部2が、2本の曲線に基づいて関心領域の入力を受け付ける場合、操作者は、2本の曲線を入力しても良いし、1本の閉曲線を入力しても良い。
 <第3の変形例>
 図17を参照しながら、関心領域の入力受付処理の第3の変形例を説明する。第3の変形例では、操作者が、入力部5を介して、マウスポインタ40の軌跡を描く際、デプス値が不連続な箇所では軌跡の入力を中断可能とする。
 図17の第1の三次元画像30lに示すように、操作者は、最初に、トレースボタン36を押下し、マウスポインタ40を座標p1に移動し、例えば、左クリックを押しながら、座標p2までマウスポインタ40をドラッグする。これに対して、演算部2は、座標p1を始点、座標p2を終点とする曲線51dを設定する。
 次に、操作者は、ジャンプボタン47を押下し、マウスポインタ40を座標p3に移動し、例えば、左クリックを押しながら、座標p4までマウスポインタ40をドラッグする。これに対して、演算部2は、座標p3を始点、座標p4を終点とする曲線51eを設定する。
 演算部2は、曲線51d及び曲線51e上の点については、対応するデプス画像のデプス値を参照し、投影線の起点の修正処理を実行する。一方、演算部2は、座標p2から座標p3までの間の点については、座標p2及び座標p3のデプス値によって補間された値を参照し、投影線の起点の修正処理を実行する。
 第3の変形例を、第2の変形例に適用すれば、操作者は、削除したい周辺臓器のデプス値を参照しないように指示することができるので、演算部2は、投影線の起点を投影線毎に適切な位置に設定することができる。ひいては、演算部2は、腎臓を遮る周辺臓器を削除し、目的の画像(=腎臓の観察が容易になる画像)を構成することができる。
 <第2の実施形態>
 図18、図19を参照しながら、第2の実施形態について説明する。第2の実施形態では、第1の実施形態において第2の三次元画像が構成されないケースを極力回避することができる。つまり、第2の実施形態では、図3のS14において、投影線の起点が限界位置まで移動した場合(S14のYes)には、演算部2は、終了条件を変更して第2の三次元画像の構成処理を繰り返す。
 図18に示すように、演算部2は、入力部5を介して、第2の三次元画像の構成処理に関する終了条件の初期値、加算値及び最高値の入力を受け付ける(S21)。
 図19には、第1の三次元画像30mとともに、初期値入力ボックス39a、加算値入力ボックス39b及び最高値入力ボックス39cが、ディスプレイ18に表示されている様子を図示している。
 操作者は、初期値入力ボックス39a、加算値入力ボックス39b及び最高値入力ボックス39cのそれぞれに対して、入力部5を介して、所望の初期値、加算値及び最高値を入力する。演算部2は、初期値入力ボックス39a、加算値入力ボックス39b及び最高値入力ボックス39cのそれぞれに入力された値を用いて、後続の処理を実行する。
 図18の説明に戻る。次に、演算部2は、終了条件の判定値Fに、S21において入力される初期値を設定し(S22)、図2のS1~S5を実行し(S23)、図3に示す第2の三次元画像の構成処理を実行する(S24)。ここで、終了条件の判定値Fは、第1の実施形態における判定値D又は判定値Eである。
 次に、演算部2は、第2の三次元画像の構成処理において、終了条件を満たしたか否かを確認する(S25)。終了条件を満たした場合(S25のYes)、第2の三次元画像が構成されていることになるので、演算部2は、第2の三次元画像を表示する(S26)。
 終了条件を満たしていない場合(S25のNo)、演算部2は、終了条件の判定値Fから、S21において入力される加算値を加算する(S27)。
 次に、演算部2は、終了条件の判定値Fが、S21において入力される最高値以下か否かを確認する(S28)。終了条件の判定値Fが、最高値以下の場合(S28のYes)、演算部2は、S24から処理を繰り返す。終了条件の判定値Fが、最高値より大きい場合(S28のNo)、表示部4は、演算部2による制御に従い、“最高値を引き上げて下さい。”のメッセージを表示する(S29)。この場合、S21から処理を繰り返すことになる。
 以上、第2の実施形態によれば、第1の実施形態において第2の三次元画像が構成されないケースを極力回避することができる。
 <第3の実施形態>
 図20~図23を参照しながら、第3の実施形態について説明する。第3の実施形態は、投影線の起点の修正処理の詳細を示している。第3の実施形態では、投影線の起点を修正していく過程において、削除したい周辺臓器が、起点面から離れるにつれて大きくなる場合に有効である。第2の実施形態では、演算部2は、起点線83上の点Pを中心とし、一定の半径Rの円84の画素を放射状に走査していく。
 以下では、アキシャル面毎に、演算部2の処理を考える。図20に示すように、起点面81とアキシャル面82との交線(白の太線)が、このアキシャル面82において処理対象となる起点線83である。演算部2は、起点線83上に位置する閾値条件を満たす点Pに対して、投影線の起点の修正処理を実行する。ここでの閾値条件は、臓器と空気とを区別できる程度の条件であり、臓器に属する画素値であれば、閾値条件を満たすものとする。
 具体的には、図21に示すように、演算部2は、点Pを通って起点線83と直交する基準線85を中心とし、特定角度範囲86内の方向に放射状に画素を走査していく。そして、演算部2は、前述の閾値条件を満たさない画素(=臓器に属さない画素)があれば、その位置を、投影線の起点とする。演算部2は、この処理を、起点線83上に位置する閾値条件を満たす点Pの全てに対して実行することによって、削除したい周辺臓器と対象臓器との間に、投影線の起点を設定することができる。
 図22では、演算部2が、起点線83と直交する方向にのみ画素を走査した場合を示している。図22(a)の例では、対象臓器91と周辺臓器92との間に、投影線の起点を設定することが目的である。
 太線87は、操作者によって設定される関心領域とアキシャル面との交線である。操作者は、表示部4によって表示されている第1の三次元画像のみを視認しながら、削除したい周辺臓器92の領域の周辺をトレースするので、関心領域は、図22(a)に示すような位置になる。演算部2は、点P1から点P2までの太線87上の各点に対して、起点線83と直交する方向に画素を走査し、投影線の起点を修正する。
 図22(b)には、投影線の起点の修正結果が示されている。関心領域内は、投影線の起点が修正され、太線89bの位置となる。一方、関心領域外は、投影線の起点が修正されないことから、投影線の起点は初期値のままであり、太線89a及び太線89cの位置となる。これでは、太線89a及び太線89cの位置において、対象臓器91が周辺臓器92に遮られたままである。
 一方、図23では、演算部2が、起点線83上の点Pを中心とする一定の半径Rの円84の画素を放射状に走査した場合を示している。図23(a)の例でも、図22(a)の例と同様に、対象臓器91と周辺臓器92との間に、投影線の起点を設定することが目的である。
 図22(a)と同様、太線87は、操作者によって設定される関心領域とアキシャル面との交線である。演算部2は、点P1から点P2までの太線87上の各点を中心とする一定の半径Rの円84の画素を放射状に走査し、投影線の起点を修正する。
 図23(b)には、投影線の起点の修正結果が示されている。関心領域内の点に基づいて投影線の起点が修正された結果は、太線89eの位置である。それ以外は、太線89d及び太線89fの位置である。この場合であれば、対象臓器91は、周辺臓器92に遮られず、観察が可能となる。
 以上、添付図面を参照しながら、本発明に係る三次元画像構成装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 1 三次元画像構成装置、2 演算部、3 記憶部、4 表示部、5 入力部

Claims (13)

  1.  所定の起点面における第1の三次元画像を表示する表示部と、
     前記第1の三次元画像において、第2の三次元画像に関する関心領域の入力を受け付ける入力部と、
     前記起点面を、第2の三次元画像を構成するための投影線の起点の初期値とし、前記第1の三次元画像と対応するデプス画像に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正し、前記関心領域に対しては、修正後の前記投影線の起点を用いて、前記第2の三次元画像を構成する演算部と、
    を具備する三次元画像構成装置。
  2.  前記演算部は、
     前記関心領域内において、前記デプス画像のデプス勾配に基づいて第1画像領域を抽出し、
     繰り返し処理の第1ステップとして、前記第1画像領域の画素に対する前記投影線の起点を、一定の距離だけ投影方向又は前記投影方向と反対の方向に修正して、修正後の前記投影線の起点を記憶部に記憶し、
     繰り返し処理の第2ステップとして、前記第1画像領域において、修正後の前記投影線の起点に基づく前記デプス画像のデプス勾配に基づいて第2画像領域を抽出し、
     繰り返し処理の第3ステップとして、前記第2画像領域が終了条件を満たすか否かを判定し、
     前記終了条件を満たさなければ、前記第2画像領域を新たな前記第1画像領域とし、前記終了条件を満たすまで前記第1ステップから前記第3ステップを繰り返し、
     前記終了条件を満たしたら、前記関心領域に対しては、前記記憶部に記憶されている修正後の前記投影線の起点を用いて、前記第2の三次元画像を構成する
     請求項1に記載の三次元画像構成装置。
  3.  前記終了条件は、前記第1画像領域の面積及び前記第2画像領域の面積に基づくものである
     請求項2に記載の三次元画像構成装置。
  4.  前記終了条件は、前記第2画像領域の面積のみに基づくものである
     請求項2に記載の三次元画像構成装置。
  5.  前記演算部は、修正後の前記投影線の起点が限界位置を超える場合には、前記終了条件の判定値を変更する
     請求項2に記載の三次元画像構成装置。
  6.  前記入力部は、前記表示部に表示される前記第1の三次元画像における2点の座標の入力を受け付け、
     前記演算部は、前記2点の座標の位置に基づいて前記関心領域を決定し、前記2点の座標における前記デプス画像の画素値に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正する
     請求項1に記載の三次元画像構成装置。
  7.  前記入力部は、前記表示部に表示される前記第1の三次元画像における2本の曲線の入力を受け付け、
     前記演算部は、前記2本の曲線の位置に基づいて前記関心領域を決定し、前記2本の曲線における前記デプス画像の画素値に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正する
     請求項1に記載の三次元画像構成装置。
  8.  前記演算部は、前記関心領域を、前記2本の曲線によって挟まれる領域に限定する限定モードと、前記関心領域を、前記2本の曲線によって挟まれる領域の外まで延長する延長モードと、のいずれかによって、前記関心領域を決定する
     請求項7に記載の三次元画像構成装置。
  9.  前記入力部は、前記曲線のトレース入力を受け付けている間、前記トレース入力の中断及び再開を受け付け、
     前記演算部は、前記トレース入力の中断位置から再開位置までの間の画素に関する前記デプス画像の画素値については、前記中断位置における前記デプス画像の画素値及び前記再開位置における前記デプス画像の画素値によって補間する
     請求項7に記載の三次元画像構成装置。
  10.  前記演算部は、前記関心領域における画素から、投影方向を中心として一定の角度範囲で放射状に閾値処理を行うことによって、前記関心領域内の画素に対する前記投影線の起点を修正する
     請求項1に記載の三次元画像構成装置。
  11.  前記表示部は、断層像に重ねて修正後の前記投影線の起点の位置を表示する
     請求項1に記載の三次元画像構成装置。
  12.  前記表示部は、断層像に重ねて前記デプス画像のデプス位置を表示する
     請求項1に記載の三次元画像構成装置。
  13.  表示部が、所定の起点面における第1の三次元画像を表示するステップと、
     入力部が、前記第1の三次元画像において、第2の三次元画像に関する関心領域の入力を受け付けるステップと、
     演算部が、前記起点面を、第2の三次元画像を構成するための投影線の起点の初期値とするステップと、
     演算部が、前記第1の三次元画像と対応するデプス画像に基づいて、前記関心領域内の画素に対する前記投影線の起点を修正するステップと、
     演算部が、前記関心領域に対しては、修正後の前記投影線の起点を用いて、前記第2の三次元画像を構成するステップと、
     を実行する三次元画像構成方法。
PCT/JP2013/070572 2012-08-02 2013-07-30 三次元画像構成装置及び三次元画像構成方法 WO2014021301A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380032613.7A CN104427940B (zh) 2012-08-02 2013-07-30 三维图像构成装置及三维图像构成方法
US14/413,789 US9750473B2 (en) 2012-08-02 2013-07-30 Three-dimensional image construction apparatus and three-dimensional image construction method
JP2014528160A JP6095663B2 (ja) 2012-08-02 2013-07-30 三次元画像構成装置及び三次元画像構成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-171810 2012-08-02
JP2012171810 2012-08-02

Publications (1)

Publication Number Publication Date
WO2014021301A1 true WO2014021301A1 (ja) 2014-02-06

Family

ID=50027975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/070572 WO2014021301A1 (ja) 2012-08-02 2013-07-30 三次元画像構成装置及び三次元画像構成方法

Country Status (4)

Country Link
US (1) US9750473B2 (ja)
JP (1) JP6095663B2 (ja)
CN (1) CN104427940B (ja)
WO (1) WO2014021301A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015124388A1 (en) * 2014-02-19 2015-08-27 Koninklijke Philips N.V. Motion adaptive visualization in medical 4d imaging
JP2017161439A (ja) * 2016-03-11 2017-09-14 日本メジフィジックス株式会社 画像処理システム
JP6711715B2 (ja) * 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
CN109345629A (zh) * 2018-08-08 2019-02-15 安徽慧软科技有限公司 一种三维医学图像模糊凸显显示方法
JP7102480B2 (ja) * 2020-09-29 2022-07-19 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示装置及びその制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145631A (ja) * 1999-11-22 2001-05-29 Aloka Co Ltd 超音波診断装置
JP2005157664A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Ind Co Ltd 3次元画像生成装置および3次元画像生成方法
JP2007175271A (ja) * 2005-12-28 2007-07-12 Toshiba Corp 医用画像処理装置
JP2008083973A (ja) * 2006-09-27 2008-04-10 Ziosoft Inc 画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2881255B1 (fr) * 2005-01-25 2007-03-30 Gen Electric Procede d'elaboration d'une image renale
CN102172330B (zh) * 2007-07-10 2013-03-27 株式会社东芝 X射线摄影装置以及图像处理显示装置
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
KR101117913B1 (ko) * 2009-05-11 2012-02-24 삼성메디슨 주식회사 볼륨 데이터를 렌더링하는 초음파 시스템 및 방법
DE102009035441B4 (de) * 2009-07-31 2016-11-24 Siemens Healthcare Gmbh Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
US8817076B2 (en) * 2011-08-03 2014-08-26 General Electric Company Method and system for cropping a 3-dimensional medical dataset

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145631A (ja) * 1999-11-22 2001-05-29 Aloka Co Ltd 超音波診断装置
JP2005157664A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Ind Co Ltd 3次元画像生成装置および3次元画像生成方法
JP2007175271A (ja) * 2005-12-28 2007-07-12 Toshiba Corp 医用画像処理装置
JP2008083973A (ja) * 2006-09-27 2008-04-10 Ziosoft Inc 画像処理方法

Also Published As

Publication number Publication date
CN104427940B (zh) 2017-03-08
JP6095663B2 (ja) 2017-03-15
US9750473B2 (en) 2017-09-05
US20150138187A1 (en) 2015-05-21
CN104427940A (zh) 2015-03-18
JPWO2014021301A1 (ja) 2016-07-21

Similar Documents

Publication Publication Date Title
JP6095663B2 (ja) 三次元画像構成装置及び三次元画像構成方法
US9892566B2 (en) Image processing apparatus, method and program
US10222954B2 (en) Image display apparatus, display control apparatus and display control method using thumbnail images
JP4820680B2 (ja) 医用画像表示装置
US7773786B2 (en) Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
JP2010534500A (ja) 画像位置合わせに対するインタラクティブアトラス
JPWO2012063653A1 (ja) 医用画像表示装置及び医用画像表示方法
JP5492024B2 (ja) 領域分割結果修正装置、方法、及びプログラム
US9412047B2 (en) Medical information processing apparatus
JP5194138B2 (ja) 画像診断支援装置およびその動作方法、並びに画像診断支援プログラム
JP2015016067A (ja) 画像表示方法および装置並びにプログラム
CN111142753A (zh) 交互方法、信息处理方法及存储介质
US8447082B2 (en) Medical image displaying apparatus, medical image displaying method, and medical image displaying program
JP6440386B2 (ja) 情報処理装置及びプログラム
US9390497B2 (en) Medical image processing apparatus, method and program
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2005185405A (ja) 医用画像処理装置、関心領域抽出方法、ならびに、プログラム
JP6327966B2 (ja) 医用画像表示装置、表示制御装置および表示制御方法、プログラム
JP5534580B2 (ja) 医用画像表示装置及び医用画像表示方法
JP2007144056A (ja) モデリング装置、領域抽出装置、モデリング方法及びプログラム
EP3342347B1 (en) Method and apparatus for displaying medical image
JP6790274B2 (ja) 画像上に配置された点のシーケンスを含む輪郭を修正する方法及び装置
JP6204891B2 (ja) 画像表示装置、方法、及びプログラム
JP2018110944A (ja) 医用画像表示装置、表示制御装置および表示制御方法、プログラム
JP5672183B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13826419

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014528160

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14413789

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13826419

Country of ref document: EP

Kind code of ref document: A1