WO2012176854A1 - 医用画像処理装置及び医用画像診断装置 - Google Patents

医用画像処理装置及び医用画像診断装置 Download PDF

Info

Publication number
WO2012176854A1
WO2012176854A1 PCT/JP2012/065917 JP2012065917W WO2012176854A1 WO 2012176854 A1 WO2012176854 A1 WO 2012176854A1 JP 2012065917 W JP2012065917 W JP 2012065917W WO 2012176854 A1 WO2012176854 A1 WO 2012176854A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
image
region
tubular body
medical image
Prior art date
Application number
PCT/JP2012/065917
Other languages
English (en)
French (fr)
Inventor
小林 秀明
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to US13/989,916 priority Critical patent/US9375132B2/en
Priority to CN201280004894.0A priority patent/CN103298407B/zh
Publication of WO2012176854A1 publication Critical patent/WO2012176854A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging

Definitions

  • Embodiments described herein relate generally to a medical image processing apparatus and a medical image diagnostic apparatus.
  • 3D data is collected using an X-ray computed tomography apparatus (hereinafter referred to as CT (Computed Tomography)) and other modalities.
  • CT computed Tomography
  • a three-dimensional image may include three-dimensional data.
  • CTC CT colonography
  • a display method using a virtual endoscope that can perform endoscopic observation based on a viewpoint position placed in a tube of a tubular body is used.
  • VE virtual endoscope
  • an image displayed by a virtual endoscope may be referred to as a virtual endoscopic image.
  • the viewpoint position can be arbitrarily set in the virtual endoscope (VE).
  • VE virtual endoscope
  • a blind spot non-observation area
  • an observable area observation area
  • CTC uses a display method based on multi-planar reconstruction (MPR: Multi Planar Reconstruction) that can extract and display an arbitrary cross-section using a three-dimensional image.
  • MPR Multi Planar Reconstruction
  • an image displayed by multi-section reconstruction may be referred to as an MPR image.
  • the viewpoint position in the virtual endoscope is displayed on the MPR image, so that the viewpoint position in the virtual endoscope and the presence or absence of a lesion candidate can be grasped.
  • the MPR image is a cross-sectional image, it may be difficult to determine what is the region being observed by the virtual endoscope only by displaying the viewpoint position on the MPR image.
  • This embodiment solves the above-described problem, and provides a medical image processing apparatus and a medical image diagnostic apparatus capable of easily distinguishing an observation area and a non-observation area on an MPR image. Objective.
  • the medical image processing apparatus includes a storage unit, a virtual endoscope image generation unit, a region specifying unit, and an image generation unit.
  • the storage unit stores a three-dimensional image of the tubular body.
  • the virtual endoscope image generation unit generates a virtual endoscope image when the inside of the tube is observed based on the viewpoint position and the line-of-sight direction placed in the tube of the tubular body, using the three-dimensional image of the tubular body.
  • the region specifying unit obtains an observation region and / or a non-observation region based on the viewpoint position and the line-of-sight direction using the three-dimensional image.
  • An image generation part produces
  • FIG. 1 is a configuration block diagram of a medical image processing apparatus according to a first embodiment.
  • the flowchart which shows a series of operation
  • FIG. 9 is a flowchart showing a series of operations of the medical image processing apparatus according to the second embodiment.
  • inspection is stopped.
  • inspection is restarted.
  • CT is used as an example of modality.
  • a three-dimensional image of the tubular body is collected by CT.
  • the modality is connected to a PACS (Medical Image Management System), which is a system capable of transferring and displaying digital images via a network compliant with DICOM (Digital Imaging and Communications in Medicine).
  • PACS Medical Image Management System
  • DICOM Digital Imaging and Communications in Medicine
  • the three-dimensional image of the tubular body collected by the modality is transferred to the PACS via the network.
  • Storage device An example of the storage device 1 that stores a three-dimensional image of a tubular body is the PACS and modality storage unit described above.
  • a medical image processing apparatus is connected to the storage device 1. Note that the storage device 1 may be provided in a medical image processing apparatus.
  • FIG. 1 is a configuration block diagram of a medical image processing apparatus.
  • the medical image processing apparatus includes a virtual endoscope image generation unit 11, an MPR image generation unit 12, an observation region calculation unit 13, a non-observation region calculation unit 14, an observation information setting unit 15, and a GUI (graphical user interface) 20.
  • the MPR image generation unit may be simply referred to as an image generation unit.
  • the observation region calculation unit 13 and the non-observation region calculation unit 14 may be referred to as region specifying means.
  • the image display processing program may be installed in advance in the computer device. Further, the image display processing program may be recorded on a storage medium (magnetic disk, magneto-optical disk, optical disk, semiconductor memory, etc.) and may be appropriately installed in the computer apparatus. Furthermore, the image display processing program may be distributed via a network and may be appropriately installed in a computer device.
  • FIG. 2 is a perspective view showing a tubular body.
  • the tubular body, the viewpoint position, the line of sight, and the line-of-sight direction are indicated by T, V, LV, and D, respectively.
  • the virtual endoscopic image generation unit 11 similarly includes the viewpoint position V, the line-of-sight direction D, and the viewing angle VA placed in the tube of the tubular body using the three-dimensional image of the tubular body stored in the storage device 1. Based on the observation information, a virtual endoscopic image when the inside of the tube is observed is generated.
  • the observation inside the tube means observation inside the tube when the virtual endoscope image generated by the virtual endoscope image generating unit 11 is displayed. Therefore, it is not said that an area such as a blind spot that is not drawn in the virtual endoscopic image is observed.
  • the virtual endoscopic image generation unit 11 is, for example, at a viewpoint position placed at a predetermined interval along the core line of the tubular body after collecting the three-dimensional data and before shifting to generation of an MPR image described later. Based on this, a virtual endoscopic image when the inside of the tube is observed is generated.
  • a storage unit (for example, an internal memory of the medical image processing apparatus) stores the generated virtual endoscopic image in association with observation information. Further, based on a viewpoint position different from these viewpoint positions, the virtual endoscopic image generation unit 11 generates a virtual endoscopic image even after shifting to generation of an MPR image. Also at this time, the storage unit stores the generated virtual endoscopic image in association with the observation information.
  • observation area calculator Next, the observation area calculation unit 13 will be described.
  • the observation region calculation unit 13 obtains an observation region based on the line-of-sight position as the virtual endoscope image generation unit 11 generates a virtual endoscope image based on the viewpoint position.
  • the observation region in the virtual endoscopic image refers to a region inside the tubular body T as an emission source of light incident on the viewpoint position when the viewpoint position is placed inside the tubular body T.
  • the non-observation region refers to a region obtained by subtracting the observation region from the entire region inside the tubular body T.
  • the observation region calculation unit 13 first obtains the three-dimensional image of the tubular body T as a region having a pixel value corresponding to air and the largest among the closed regions. Next, using the three-dimensional image of the tubular body T, an observation region (three-dimensional data) is obtained based on observation information (viewpoint position, line-of-sight direction, viewing angle) in the virtual endoscopic image. Furthermore, as will be described later, an MPR image (including an observation region as two-dimensional data (cross-sectional image)) is obtained based on observation information using the observation region as an observation region (three-dimensional data).
  • the observation area includes an area observed in the currently displayed virtual endoscopic image (an area under observation) and an area observed in the previously displayed virtual endoscopic image. (Observed area) is included.
  • the observation region (three-dimensional data) is obtained based on the observation information using the three-dimensional image of the tubular body T, and then the MPR image is obtained using the observation region.
  • the MPR image is obtained by using the three-dimensional image of the tubular body T, and the MPR image (observation as two-dimensional data (cross-sectional image) based on the observation information using the MPR image is obtained. (Including region) may be required.
  • FIG. 3 is a diagram showing an observation region and a non-observation region in the virtual endoscope when viewed from a specific viewpoint position on the three-dimensional image.
  • the viewing angle is indicated by VA.
  • the observation region calculation unit 13 obtains an observation region A1 on the inner wall of the tubular body T based on the three-dimensional image corresponding to the inner wall of the tubular body T and the observation information.
  • the storage unit (for example, the internal memory of the medical image processing apparatus) stores the obtained observation area A1 in association with the observation information.
  • the non-observation region calculation unit 14 obtains a non-observation region at the same timing as the observation region calculation unit 13.
  • the non-observation region calculation unit 14 obtains a non-observation region based on the observation region A1 obtained by the observation region calculation unit 13.
  • the non-observation region includes a region that is not observed in the currently displayed virtual endoscopic image and a region that is not yet displayed as a virtual endoscopic image (region before observation).
  • the non-observation region calculation unit 14 obtains a non-observation region A2 on the inner wall of the tubular body T based on the three-dimensional image corresponding to the inner wall of the tubular body T and the observation region A1.
  • the entire area of the inner wall of the tubular body T is A0
  • the storage unit stores the obtained non-observation area A2 in association with the observation information.
  • the non-observation region calculation unit 14 calculates the non-observation region based on the observation information in the three-dimensional image and the virtual endoscope image of the tubular body T. You may make it ask.
  • the MPR image generation unit 12 generates an MPR image obtained by cutting a tubular body with a predetermined cross section.
  • Examples of the predetermined cross section include an axial cross section (AP shown in FIG. 2), a sagittal cross section (SP shown in FIG. 2), and a coronal cross section (CP shown in FIG. 2).
  • MPR images in an axial section, a coronal section, and a sagittal section may be referred to as an axial image, a coronal image, and a sagittal image.
  • the MPR image generation unit 12 generates an MPR image based on the three-dimensional image stored in the storage device 1 and incidental information associated with the virtual endoscopic image obtained by the virtual endoscopic image generation unit 11. .
  • the supplementary information include a viewpoint position, a line-of-sight direction, and a viewing angle in the virtual endoscopic image.
  • the incidental information may be referred to as observation information.
  • the MPR image refers to an MPR image of an observation region and / or a non-observation region, an MPR image combining these regions and a tubular body, or an MPR image of a tubular body. is there.
  • the viewpoint position V is an intersection of the axial section AP, the sagittal section SP, and the coronal section CP. Thereby, the viewpoint position V in the virtual endoscope can be displayed on an arbitrary cross section.
  • a cross section perpendicular to the line-of-sight direction D is referred to as an axial cross section AP.
  • a cross section that includes the line of sight LV and is orthogonal to each other is a sagittal section SP and a coronal section CP.
  • the inside of the tubular body being observed in the virtual endoscope can be observed in the depth direction.
  • Information including the intersection of the axial section AP, the sagittal section SP, and the coronal section CP, the line-of-sight direction D, the axial section AP, the sagittal section SP, and the coronal section CP may be referred to as image information of the MPR image.
  • the MPR image generation unit 12 generates an MPR image of the tubular body in each of the axial section AP, the sagittal section SP, and the coronal section CP based on the intersection point of the axial section AP, the sagittal section SP, and the coronal section CP and the line-of-sight direction D. It becomes possible to do. Note that the viewpoint position V is included in the MPR image of any tubular body.
  • FIG. 4 is a diagram showing an observation region and a non-observation region in the sagittal section SP.
  • FIG. 4 shows a region PA1 corresponding to the observation region A1 and a region PA2 corresponding to the non-observation region A2 in the sagittal section SP.
  • the observation area A1 and the non-observation area A2 in the coronal section CP are also shown in the same manner as in FIG.
  • FIG. 5 is a diagram showing an axial image in a cross section (axial cross section AP) indicated by a line X1-X1 in FIG.
  • FIG. 5 shows a region PA1 corresponding to the observation region and a region PA2 corresponding to the non-observation region in the axial section AP.
  • the MPR image generation unit 12 uses the observation region A1 read from the storage unit, and the observation region A1 in each cross section of the axial section AP, the sagittal section SP, and the coronal section CP. MPR images (images of the area PA1) are generated.
  • the storage unit stores the generated MPR image of the observation area A1.
  • the MPR image generation unit 12 may generate the MPR image of the non-observation region A2.
  • the MPR image generation unit 12 generates an MPR image (region PA2) of the non-observation region A2 in each of the axial section AP, the sagittal section SP, and the coronal section CP based on the non-observation region A2 read from the storage unit. Image).
  • the storage unit stores the generated MPR image of the non-observation area A2.
  • the image generated by the image generation unit may be an image created using a curved MPR (curved planar reconstruction: CPR), which is a method of reconstructing along a meandering surface or curved surface.
  • CPR curved planar reconstruction
  • the GUI 20 includes an input unit 21, a display control unit 22, and a display unit 23.
  • An example of the input unit 21 includes a pointing device such as a mouse, a joystick, or a touch panel.
  • the display control unit 22 causes the display unit 23 to display the observation area A1 and / or the non-observation area A2 in the virtual endoscopic image as an MPR image.
  • FIG. 6 is a flowchart showing a series of operations of the medical image processing apparatus.
  • S101 in order to clearly depict the lesion candidate of the subject, a contrast agent is administered to the blood vessel in CT, and the CT value between tissues is changed and examined, and carbon dioxide gas is applied to the large intestine. The test is performed with the intestine expanded and the colon expanded. Three-dimensional images collected in CT are stored in the storage device 1.
  • the virtual endoscopic image generation unit 11 performs virtual processing when observing the inside of the tube based on observation information including a three-dimensional image of the tubular body, a viewpoint position placed in the tube of the tubular body, a viewing direction, and a viewing angle. An endoscopic image is generated. A three-dimensional image of the tubular body is stored in the storage device 1.
  • the MPR image generation unit 12 generates an MPR image obtained by cutting the tubular body along each of an axial section AP, a sagittal section SP, and a coronal section CP. Thereby, MPR images of each cross section of the axial cross section AP, the sagittal cross section SP, and the coronal cross section CP can be obtained.
  • the observation region calculation unit 13 determines the tubular body T based on the image information of the three-dimensional image of the inner wall of the tubular body T and the observation information (viewpoint position V, line-of-sight direction D, viewing angle) in the virtual endoscopic image. An observation area A1 on the inner wall is obtained.
  • the non-observation region calculation unit 14 may obtain a non-observation region.
  • the non-observation region calculation unit 14 obtains the non-observation region A2 on the inner wall of the tubular body T based on the image information on the inner wall of the tubular body T and the observation region A1.
  • the entire area of the inner wall of the tubular body T is A0
  • the MPR image generation unit 12 obtains the observation area A1 and the area PA1 included in the axial section AP, the sagittal section SP, and the coronal section CP.
  • the MPR image generation unit 12 colors the areas PA1 and PA2 obtained in S104.
  • the display control unit 22 displays the colored areas A1 and A2 as MPR images.
  • the MPR image generation unit 12 moves and / or rotates the line-of-sight direction D in the MPR image based on the observation information of the virtual endoscopic image and the image information of the MPR image, so that the line-of-sight direction in the virtual endoscopic image D is aligned with D, and the viewpoint position V in the MPR image corresponding to the viewpoint position V in the virtual endoscopic image is obtained.
  • the display control unit 22 displays the viewpoint position V on the MPR image.
  • the display of the areas A1 and A2 and the viewpoint position V is performed for each of the axial section AP, the sagittal section SP, and the coronal section CP.
  • FIG. 7A to FIG. 7C are diagrams showing display examples of a region that is being observed and a region that cannot be observed with a virtual endoscope.
  • 7A shows a virtual endoscopic image
  • FIG. 7B shows an MPR image
  • FIG. 7C shows an MPR image.
  • the viewpoint position V and the coronal section CP are displayed at the center of the virtual endoscopic image.
  • the viewpoint position V is displayed in the MPR image.
  • FIG. 7C the viewpoint position V and the area PA1 corresponding to the observation area A1 observed in the virtual endoscopic image are displayed in the MPR image.
  • the user is based on the viewpoint position V displayed in the MPR image, and an area PA1 corresponding to the observation area A1 observed in the virtual endoscopic image; Since the area PA2 corresponding to the non-observation area A2 that is not observed in the virtual endoscopic image due to the blind spot or the like is predicted, and the both are determined, it is difficult to determine the both. Furthermore, since the outside of the observation area is displayed, it becomes more difficult to determine both.
  • FIG. 8A and 8B are diagrams showing an example in which a region currently being observed is displayed as an MPR image.
  • FIG. 8A shows a set of a virtual endoscopic image and a coronal section MPR image.
  • a viewpoint position V is displayed at the end of the virtual endoscopic image, and a coronal section CP that does not cover (does not intersect) the virtual endoscopic image is displayed.
  • a coronal section CP that does not cover (does not intersect) the virtual endoscopic image is displayed.
  • the viewpoint position V is displayed in the MPR image, and the area PA1 corresponding to the observation area A1 is not displayed. Therefore, it is difficult to determine the region currently being observed only by displaying the viewpoint position V.
  • FIG. 8B shows a set of virtual endoscopic images and coronal cross-sectional MPR images.
  • the viewpoint position V is displayed at the end of the virtual endoscopic image
  • the coronal section CP is displayed so as to cover (intersect) the virtual endoscopic image.
  • the viewpoint position V is displayed at the end of the virtual endoscopic image
  • the coronal section CP is displayed so as to cover (intersect) the virtual endoscopic image.
  • the area PA1 corresponding to the observation area A1 is displayed in the MPR image.
  • the display control unit 22 displays the observation area A1 generated as a cross-sectional image by the cross-sectional image generation unit 12 based on the observation information. For example, as shown in FIG. 8A, by changing the line-of-sight direction (the position of the coronal section CP), the observation area A1 being observed is displayed as an MPR image, so it is easy to determine whether the area is currently being observed. Can be determined.
  • observation area A1 linked to the observation information including the line-of-sight direction is displayed as an MPR image, it is possible to perform an efficient preoperative diagnosis (including a screening test).
  • an observation information setting unit 15 that sets observation information including a viewpoint position V, a line-of-sight direction, and a viewing angle is provided so that a non-observation region can be observed. Different points.
  • the observation information setting unit 15 sets one of the viewpoint position V, the line-of-sight direction, and the viewing angle, or a combination of two or more so that the non-observation region can be observed.
  • the set observation information is stored in a storage unit (for example, an internal memory of the medical image processing apparatus).
  • FIG. 9 is a flowchart showing a series of operations of the medical image processing apparatus.
  • FIG. 10A is a diagram in which screening is stopped
  • FIG. 10B is a diagram during observation of a non-observation region
  • FIG. 10C is a diagram in which screening is resumed.
  • 10A to 10C as an example of the GUI 20, a forward button, a return button, and a button for returning to the current position are indicated by “20a”, “20b”, and “20c”.
  • the display control unit 22 performs the next viewpoint position, the previous viewpoint position, and the current viewpoint position in a predetermined order.
  • the non-observation area A2 at (viewpoint position before movement) is displayed.
  • the non-observation area A2 can be confirmed using the buttons 20a, 20b, and 20c.
  • the observation region calculation unit 13 is a tube under observation displayed on the MPR image from the observation information (viewpoint position V, line-of-sight direction D, viewing angle VA) which is supplementary information of the virtual endoscopic image and the image information of the MPR image.
  • the body (whole) A0 is calculated.
  • the MPR image generation unit 12 obtains a region PA1 that is the observation region A1 and is included in the cross section of the MPR image from the observation region A1 obtained by the observation region calculation unit 13 and the image information of the MPR image. Further, a region PA0 that is a tubular body (entire) A0 and is included in the cross section of the MPR image is obtained.
  • the cross section of the MPR image needs to be specified in advance by the GUI 20 when calculating the non-observation region A2.
  • the observation information setting unit 15 obtains observation information (viewpoint position, line-of-sight direction, and viewing angle) that can observe the non-observation region A2 obtained by the non-observation region calculation unit 14, and obtains the observation information.
  • Setting for example, storing in the internal memory of the medical image processing apparatus.
  • the GUI 20 moves the viewpoint position V to a position where the non-observation area A2 can be observed based on the set observation information.
  • the GUI 20 when there are a plurality of non-observation areas A2, the GUI 20 has predetermined viewpoint positions V at the respective positions where the non-observation areas A2 can be observed. Move in order. At this time, when there are a plurality of non-observation areas A2, the GUI 20 selects the viewpoint position V closest to the viewpoint position V under observation from among the viewpoint positions V where the non-observation areas A2 can be observed. Is the viewpoint position V.
  • the display control unit 22 is observing on the MPR image.
  • the observation area A1 is kept displayed.
  • the viewpoint position V is returned to the position before the movement, as shown in FIG. 10C.
  • the non-observation region A2 due to blind spots or the like can be confirmed while considering the viewpoint position V on the virtual endoscope. An oversight of A2 can be prevented.
  • the observation area under observation is described as an example of displaying on the MPR image.
  • the area observed so far is also displayed on the MPR image. You may make it display.
  • the display method is the same as that for the region currently being observed.
  • the region specifying means including the observation region calculation unit 13 and the non-observation region calculation unit 14 accumulates the observation region and the non-observation region as the viewpoint position or the viewpoint direction moves.
  • the addition of the observation area refers to adding a newly observed area to an already observed area.
  • accumulation of the non-observation area means adding a newly confirmed area to a non-observation area that has not yet been confirmed. For example, if the non-observed areas that have not been confirmed are “PA21”, “PA22”, and “PA23”, and the non-observed area PA21 is a newly confirmed area ( ⁇ PA21), an addition formula Becomes PA21 + PA22 + PA23 + ( ⁇ PA21), and the result of addition is PA22 + PA23. Thereby, it is possible to prevent the occurrence of an oversight area.
  • FIG. 11 is a diagram showing a display example for preventing oversight. As shown in FIG. 11, in order to distinguish the area PA11 being observed from the area PA12 that has been observed, the displayed colors are different. In FIG. 11, the difference in color is shown with different hatching.
  • the display control unit 22 causes the display unit 23 to display the area PA11 being observed and the area PA12 that has been observed. In addition, you may make it display both area
  • a CT chronograph using CT is described as an example, but recently, the usefulness of an MR chronograph using MRI has been reported, and its MR A chronograph may be used.
  • the MR chronograph has been reported as a diagnostic method that improves the problems of CT chronographs (such as pain and X-ray exposure that patients are forced to undergo during pretreatment and examination). In the future, MR chronographs with higher image quality will be used. Is expected to be obtained.
  • the embodiment of the medical image processing apparatus has been described above, but a CT or other modality (medical image diagnostic apparatus) having the medical image processing apparatus may be used.
  • the observation area and / or the non-observation area is displayed on the MPR image, but may be displayed on a three-dimensional image.
  • volume rendering is used in which various colors are added according to the CT value of each CT image and a large number of consecutive CT images are displayed in a superimposed manner. .
  • the observation area and the non-observation area may be displayed in an identifiable manner on the image. For example, when displaying a non-observation area on a three-dimensional image, the presence of the non-observation area is identified by marking the center position of the non-observation area, for example, instead of displaying the entire non-observation area. You may make it display as possible. This is because if the entire non-observation area is displayed on the three-dimensional image, the non-observation areas overlap each other, making it difficult to understand the position and size of each non-observation area.
  • the observation area and / or the non-observation area is obtained based on the observation information (viewpoint position, line-of-sight direction, viewing angle) of the virtual endoscopic image.
  • these areas are set to the viewpoint position and the line-of-sight direction. You may make it ask

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

仮想内視鏡において、観察領域と非観察領域とを容易に判別し、また、見落とし領域の発生を防止することが可能な医用画像処理装置及び医用画像診断装置を提供する。実施形態に係る医用画像処理装置は、記憶部、仮想内視鏡画像生成部、領域特定手段、及び、画像生成部を有する。記憶部は管状体の3次元画像を記憶する。仮想内視鏡画像生成部は、管状体の3次元画像を用いて、管状体の管内に置かれた視点位置及び視線方向に基づき管内を観察したときの仮想内視鏡画像を生成する。領域特定手段は、3次元画像を用いて、視点位置及び視線方向に基づき観察領域、及び/または非観察領域を求める。画像生成部は、観察領域、及び/または非観察領域を、3次元画像から求めた画像上に識別可能に表示した画像を生成する。

Description

医用画像処理装置及び医用画像診断装置
 本発明の実施形態は、医用画像処理装置及び医用画像診断装置に関する。
 X線コンピュータ断層撮影装置(以下、CT(Computed Tomography)と記す)、その他のモダリティを用いて3次元データが収集される。
 例えば、CTにより収集された3次元データ(ボリュームデータ)を基に、消化管や気管、血管などの管状体の管内に視点を置いた3次元画像を作成することができる。なお、3次元画像というときは、3次元データを含む場合がある。
 CTによる大腸解析(CTC:CT colonography)を一例とするスクリーニング検査(screening test)を含む術前診断を行うための大腸解析システムがある。
 CTCでは、一例として、管状体の管内に置かれた視点位置に基づいて内視鏡的観察を行うことができる仮想内視鏡(VE:Virtual Endoscopy)による表示方法が用いられている。なお、仮想内視鏡により表示された画像を仮想内視鏡画像という場合がある。
 一般的に、大腸の管内を観察する内視鏡においては、管の内部に向って半月状の襞(ひだ)が死角となって観察できない領域ができる。これは、内視鏡における視点位置を任意に設定できないためである。
 これに対し、仮想内視鏡(VE)では視点位置を任意に設定することが可能である。仮想内視鏡においては、視点位置によっては死角となって観察できない領域(非観察領域)を生じさせるが、視点位置を移動することにより、観察できる領域(観察領域)にすることができる。
 また、CTCでは、3次元画像を用いて任意断面を抽出して表示することができる多断面再構成(MPR:Multi Planar Reconstruction)による表示方法が用いられている。なお、多断面再構成により表示された画像をMPR画像という場合がある。
 多断面再構成では、MPR画像上に仮想内視鏡における視点位置を表示することで、仮想内視鏡における視点位置や病変候補の有無を把握することができる。
特開2010-167032号公報
 しかしながら、MPR画像は断面像であるため、MPR画像上に視点位置を表示するだけでは、何が仮想内視鏡で観察中の領域か否かを判別することが困難となる場合がある。
 この実施形態は、上記の問題を解決するものであり、MPR画像上で観察領域と非観察領域との判別を容易にすることが可能な医用画像処理装置及び医用画像診断装置を提供することを目的とする。
 上記課題を解決するために、実施形態の医用画像処理装置は、記憶部、仮想内視鏡画像生成部、領域特定手段、及び、画像生成部を有する。記憶部は管状体の3次元画像を記憶する。仮想内視鏡画像生成部は、管状体の3次元画像を用いて、管状体の管内に置かれた視点位置及び視線方向に基づき管内を観察したときの仮想内視鏡画像を生成する。領域特定手段は、3次元画像を用いて、視点位置及び視線方向に基づき観察領域、及び/または非観察領域を求める。画像生成部は、観察領域、及び/または非観察領域を、3次元画像から求めた画像上に識別可能に表示した画像を生成する。
第1の実施形態に係る医用画像処理装置の構成ブロック図。 管状体を示す斜視図。 観察領域及び非観察領域を示す図。 コロナル断面における観察領域及び非観察領域を示す図。 アキシャル断面における観察領域及び非観察領域を示す図。 医用画像処理装置の一連の動作を示すフローチャート。 仮想内視鏡画像を示す図。 MPR画像を示す図。 MPR画像を示す図。 仮想内視鏡画像及びMPR画像の組を示す図。 仮想内視鏡画像及びMPR画像の組を示す図。 第2の実施形態に係る医用画像処理装置の一連の動作を示すフローチャート。 スクリーニング検査を停止したときのMPR画像を示す図。 非観察領域を確認するときのMPR画像を示す図。 スクリーニング検査を再開したときのMPR画像を示す図。 見落とし防止の表示例を示す図。
 次に、医用画像処理装置の実施形態について各図を参照して説明する。
[第1の実施形態]
 第1の実施形態に係る医用画像処理装置について説明する。
 モダリティの一例としてはCTが用いられる。CTにより管状体の3次元画像が収集される。
 一般にモダリティは、DICOM(Digital Imaging and Communications in Medicine)に準拠したネットワークを介して、ディジタル画像を転送、表示することが可能なシステムであるPACS(医用画像管理システム)に接続されている。モダリティにより収集された管状体の3次元画像は、ネットワークを介してPACSに転送される。なお、管状体の3次元画像をモダリティの記憶部(図示省略)に記憶させてもよい。
(記憶装置)
 管状体の3次元画像を記憶する記憶装置1の一例としては、前述したPACS及びモダリティの記憶部である。記憶装置1には医用画像処理装置が接続されている。なお、記憶装置1は医用画像処理装置に設けられてもよい。
 次に、医用画像処理装置について図1を参照して説明する。図1は医用画像処理装置の構成ブロック図である。
 医用画像処理装置は、仮想内視鏡画像生成部11、MPR画像生成部12、観察領域算出部13、非観察領域算出部14、観察情報設定部15、及びGUI(graphical user interface)20を含む。なお、MPR画像生成部を単に画像生成部という場合がある。また、観察領域算出部13及び非観察領域算出部14を領域特定手段という場合がある。
 これらの構成は、コンピュータ装置に搭載されたマイクロプロセッサに画像処理プログラムを実行させることにより実現することができる。なお、画像表示処理プログラムはコンピュータ装置に予めインストールされてもよい。さらに、画像表示処理プログラムは記憶媒体(磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなど)に記録され、コンピュータ装置に適宜インストールされてもよい。さらに、画像表示処理プログラムはネットワークを介して配布されるようにしておき、コンピュータ装置に適宜インストールされてもよい。
 なお、これらの構成は、その一部または全部をロジック回路などのハードウェアにより、また、ハードウェアとソフトウェア制御との組み合わせにより実現することも可能である。
(仮想内視鏡画像生成部)
 図2は管状体を示す斜視図である。図2では、管状体、視点位置、視線、及び視線方向をT、V、LV、及びDでそれぞれ示す。
 仮想内視鏡画像生成部11は、記憶装置1に記憶された管状体の3次元画像を用いて、同じく、管状体の管内に置かれた視点位置V、視線方向D及び視野角VAを含む観察情報に基づき管内の観察をしたときの仮想内視鏡画像を生成する。ここで、管内の観察とは、仮想内視鏡画像生成部11により生成された仮想内視鏡画像が表示されたときの管内の観察をいう。したがって、死角等の領域であって仮想内視鏡画像に描画されない領域は観察されたとはいわない。
 仮想内視鏡画像生成部11は、3次元データの収集後であって、後述するMPR画像の生成に移行する前に、例えば、管状体の芯線に沿って所定間隔で置かれた視点位置に基づき管内を観察したときの仮想内視鏡画像を生成する。記憶部(例えば医用画像処理装置の内部メモリ)は、生成された仮想内視鏡画像を観察情報と関連付けて記憶する。また、これらの視点位置とは異なる視点位置に基づいて、仮想内視鏡画像生成部11は、MPR画像の生成に移行した後でも仮想内視鏡画像を生成する。このときも、記憶部は、生成された仮想内視鏡画像を観察情報と関連付けて記憶する。
(観察領域算出部)
 次に、観察領域算出部13について説明する。
 観察領域算出部13は、仮想内視鏡画像生成部11が視点位置に基づき仮想内視鏡画像を生成するのに伴い、その視線位置に基づく観察領域を求める。ここで、仮想内視鏡画像における観察領域とは、管状体Tの内部に視点位置が置かれるとき、その視点位置に入射される光の出射元としての管状体Tの内部の領域をいう。また、非観察領域とは、管状体Tの内部の全体領域から観察領域を差し引いた領域をいう。
 観察領域算出部13は、先ず、管状体Tの3次元画像は、画素値が空気に相当する値の領域であって、かつ、閉じられた領域のうちで一番大きなものとして求められる。次に、管状体Tの3次元画像を用いて、仮想内視鏡画像における観察情報(視点位置、視線方向、視野角)に基づき、観察領域(3次元データ)を求める。さらに、後述するように、観察領域(3次元データ)としての観察領域を用いて、観察情報に基づき、MPR画像(2次元データ(断面画像)としての観察領域を含む)が求められる。ここで、観察領域には、現在表示されている仮想内視鏡画像の中で観察される領域(観察中の領域)、及び以前に表示された仮想内視鏡画像の中で観察された領域(観察済みの領域)が含まれる。
 以上のように、管状体Tの3次元画像を用いて、観察情報に基づき、観察領域(3次元データ)が求められ、その後に、観察領域を用いて、MPR画像が求められるようにしたが、これに限らない、管状体Tの3次元画像を用いて、MPR画像が求められ、その後に、MPR画像を用いて、観察情報に基づき、MPR画像(2次元データ(断面画像)としての観察領域を含む)が求められるようにしてもよい。
 図3は、3次元画像上で特定の視点位置から見たときの仮想内視鏡における観察領域及び非観察領域を示す図である。図3では、視野角をVAで示す。
 図3に示すように、視点位置Vから視線方向Dに所定の視野角VAで光線を照射したと仮定したとき、管状体Tの内壁において光があたる領域と、光が当たらない領域とができる。前者を観察領域A1で表す。後者を非観察領域A2で表す。
 観察領域算出部13は、管状体Tの内壁に相当する3次元画像及び観察情報に基づき、管状体Tの内壁における観察領域A1を求める。記憶部(例えば医用画像処理装置の内部メモリ)は、求められた観察領域A1を観察情報と関連付けて記憶する。
(非観察領域算出部)
 次に、非観察領域算出部14について説明する。
 非観察領域算出部14は、観察領域算出部13と同様なタイミングで非観察領域を求める。
 非観察領域算出部14は、観察領域算出部13により求められた観察領域A1に基づき非観察領域を求める。ここで、非観察領域には、現在表示されている仮想内視鏡画像の中で観察されない領域、及び仮想内視鏡画像として未だ表示されていない領域(観察前の領域)が含まれる。
 非観察領域算出部14は、管状体Tの内壁に相当する3次元画像及び観察領域A1に基づき、管状体Tの内壁における非観察領域A2を求める。ここで、管状体Tの内壁の全体領域をA0とすると、全体領域A0から観察領域A1を差し引いた領域が非観察領域A2となる(A2=A0-A1)。記憶部は、求められた非観察領域A2を観察情報と関連付けて記憶する。
 なお、非観察領域算出部14は、観察領域算出部13と同様に、非観察領域算出部14は、管状体Tの3次元画像及び仮想内視鏡画像における観察情報に基づき、非観察領域を求めるようにしてもよい。
(MPR画像生成部)
 MPR画像生成部12は、管状体を所定の断面で切ったMPR画像を生成する。
 所定の断面の例として、アキシャル(Axial)断面(図2で示すAP)、サジタル(Saittal)断面(図2で示すSP)、及びコロナル(Coronal)断面(図2で示すCP)がある。また、アキシャル断面、コロナル断面、及びサジタル断面におけるMPR画像をアキシャル画像、コロナル画像、サジタル画像という場合がある。
 MPR画像生成部12は、記憶装置1に記憶された3次元画像、及び仮想内視鏡画像生成部11によって得られた仮想内視鏡画像に関連付けられた付帯情報に基づいてMPR画像を生成する。付帯情報の一例として仮想内視鏡画像における視点位置、視線方向、及び視野角が含まれる。付帯情報を観察情報という場合がある。なお、ここで、MPR画像とは、観察領域及び/または非観察領域のMPR画像をいう場合、これらの領域と管状体とを組み合わせたMPR画像をいう場合、管状体のMPR画像をいう場合がある。
 図2に示すように、視点位置Vをアキシャル断面AP、サジタル断面SP及びコロナル断面CPの交点とする。これにより、任意の断面上で仮想内視鏡における視点位置Vを表示することができるようになる。
 また、図2に示すように、視線方向Dに垂直な断面をアキシャル断面APとする。さらに、視線LVを含み、互いに直交する断面をサジタル断面SP及びコロナル断面CPとする。これにより、仮想内視鏡において観察中の管状体の管内を奥行き方向に観察することができるようになる。なお、アキシャル断面AP、サジタル断面SP及びコロナル断面CPの交点、視線方向D、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPを含む情報をMPR画像の画像情報という場合がある。
 MPR画像生成部12は、アキシャル断面AP、サジタル断面SP及びコロナル断面CPの交点及び視線方向Dに基づき、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPの各断面における管状体のMPR画像を生成することが可能となる。なお、いずれの管状体のMPR画像にも視点位置Vが含まれることとなる。
 図4は、サジタル断面SPにおける観察領域及び非観察領域を示す図である。図4では、サジタル断面SPにおいて観察領域A1に相当する領域PA1、及び、非観察領域A2に相当する領域PA2を示す。なお、コロナル断面CPにおける観察領域A1及び非観察領域A2も図4と同様に示される。
 図5は、図3のX1-X1線で示す断面(アキシャル断面AP)におけるアキシャル画像を表す図である。図5では、アキシャル断面APにおいて観察領域に相当する領域PA1、及び、非観察領域に相当する領域PA2を示す。
 図4及び図5に示すように、MPR画像生成部12は、記憶部から読み出された観察領域A1を基に、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPの各断面における観察領域A1のMPR画像(領域PA1の画像)を生成する。記憶部は、生成された観察領域A1のMPR画像を記憶する。
 なお、MPR画像生成部12が観察領域A1のMPR画像を生成するものを述べたが、MPR画像生成部12が非観察領域A2のMPR画像を生成するようにしてもよい。すなわち、MPR画像生成部12は、記憶部から読み出された非観察領域A2を基に、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPの各断面における非観察領域A2のMPR画像(領域PA2の画像)を生成する。記憶部は、生成された非観察領域A2のMPR画像を記憶する。また、例えば、サジタル断面SPにおける非観察領域PA2のMPR画像は、MPR画像における全体の領域PA0から領域PA1を差し引いた領域としても生成される(PA2=PA0-PA1)。
 以上、画像生成部として、観察領域及び/または非観察領域と管状体とを組み合わせたMPR画像、並びに、管状体のMPR画像を生成するMPR画像生成部12を示したが、これに限らない。画像生成部により生成される画像として、蛇行した面や曲面に沿って再構成をする方法であるカーブドMPR(curved planar reconstruction:CPR)を用いて作成された画像であってもよい。CPRの画像は、大腸、血管などの管状体の曲面に沿って観察する場合に用いられる。
(GUI)
 GUI20は、入力部21、表示制御部22、及び表示部23を有している。
 入力部21の一例としては、マウス、ジョイスティック、タッチパネルなどのポインティングデバイスを含む。
 表示制御部22は、仮想内視鏡画像中の観察領域A1、及び/または非観察領域A2をMPR画像として表示部23に表示させる。
〔動作〕
 次に、医用画像処理装置の一連の動作について図6を参照して説明する。図6は、医用画像処理装置の一連の動作を示すフローチャートである。
(S101)
 S101では、被検体の病変候補が明瞭に描出されるようにするために、CTにおいて造影剤を血管に投与して、組織間のCT値を変化させて検査し、また、炭酸ガスを大腸に注入して大腸を拡張させた状態で検査する。CTにおいて収集された3次元画像は記憶装置1に記憶される。
(S102)
 S102では、仮想内視鏡画像生成部11は、管状体の3次元画像、管状体の管内に置かれた視点位置、視線方向、及び視野角を含む観察情報に基づき管内を観察したときの仮想内視鏡画像を生成する。管状体の3次元画像は記憶装置1に記憶されている。
(S103)
 S103では、MPR画像生成部12は、管状体をアキシャル断面AP、サジタル断面SP、及びコロナル断面CPの各断面で切ったMPR画像を生成する。それにより、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPの各断面のMPR画像を得ることができる。
(S104)
 S104において、観察領域算出部13は、管状体Tの内壁の3次元画像の画像情報及び仮想内視鏡画像における観察情報(視点位置V、視線方向D、視野角)に基づき、管状体Tの内壁における観察領域A1を求める。
 なお、非観察領域算出部14が非観察領域を求めるようにしてもよい。この場合、非観察領域算出部14は、管状体Tの内壁の画像情報及び観察領域A1に基づき、管状体Tの内壁における非観察領域A2を求める。ここで、管状体Tの内壁の全体領域をA0とすると、全体領域A0から観察領域A1を差し引いた領域が非観察領域A2となる(A2=A0-A1)。
 さらに、MPR画像生成部12は、観察領域A1で、かつ、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPに含まれる領域PA1をそれぞれ求める。
 なお、非観察領域A2において、アキシャル断面AP、サジタル断面SP、及びコロナル断面CPに含まれる領域PA2をそれぞれ求めてもよい。MPR画像においても、MPR画像における全体の領域PA0から領域PA1を差し引いた領域が領域PA2となる(PA2=PA0-PA1)。
(S105)
 S105では、MPR画像生成部12は、S104で求めた領域PA1、PA2に色付けをする。表示制御部22は、色付けされた領域A1、A2の画像をMPR画像として表示させる。
 また、MPR画像生成部12は、仮想内視鏡画像の観察情報及びMPR画像の画像情報に基づき、MPR画像における視線方向Dを移動及び/または回転させることにより、仮想内視鏡画像における視線方向Dと位置合わせし、さらに、仮想内視鏡画像における視点位置Vに相当するMPR画像における視点位置Vを求める。表示制御部22は、MPR画像上に視点位置Vを表示させる。
 領域A1、A2及び視点位置Vの表示は、アキシャル断面AP、サジタル断面SP、コロナル断面CPのそれぞれについて行われる。
 以上に説明した医用画像処理装置の一連の動作により得られた効果について図7A~図8Bを参照して説明する。
 図7A~図7Cは仮想内視鏡で観察中の領域と観察できない領域との表示例を示す図である。図7Aは仮想内視鏡画像を示す図、図7BはMPR画像を示す図、図7CはMPR画像を示す図である。図7Aでは、仮想内視鏡画像の中央部に視点位置V及びコロナル断面CPが表示されている。また、図7Bでは、MPR画像の中に視点位置Vが表示されている。さらに、図7Cでは、MPR画像の中に視点位置V、及び仮想内視鏡画像の中で観察されている観察領域A1に相当する領域PA1が表示されている。
 図7BのMPR画像に示すように、ユーザは、MPR画像の中に表示されている視点位置Vに基づき、仮想内視鏡画像の中で観察されている観察領域A1に相当する領域PA1と、死角等により仮想内視鏡画像の中で観察されない非観察領域A2に相当する領域PA2とをそれぞれ予想した上で、両者を判別するため、両者の判別が困難となる。さらに、観察領域外が表示されていることもあり、両者の判断が一層困難となる。
 これに対し、図7CのMPR画像に示すように、観察領域A1に相当する領域PA1をMPR画像として表示させたので、ユーザが観察領域A1と非観察領域A2とを容易に判別することができる。
 図8A、Bは現在観察中の領域をMPR画像として表示させた例を示す図である。図8Aでは、仮想内視鏡画像及びコロナル断面のMPR画像の組を示す。仮想内視鏡画像の端には視点位置Vが表示され、仮想内視鏡画像にかからない(交差しない)コロナル断面CPが表示されている。それにより、MPR画像には視点位置Vだけが表示され、観察領域A1に相当する領域PA1が表示されていない。そのため、視点位置Vの表示だけでは、現在観察中の領域を判別することが困難となる。
 図8Bでは、仮想内視鏡画像及びコロナル断面のMPR画像の組を示す。仮想内視鏡画像の端に視点位置Vが表示されているものの、コロナル断面CPが仮想内視鏡画像にかかるように(交差するように)表示されている。それにより、MPR画像には視点位置Vだけでなく、観察領域A1に相当する領域PA1が表示されている。
 表示制御部22は、観察情報に基づき断面画像生成部12により断面画像として生成された観察領域A1を表示させる。例えば、図8Aに示すように、視線方向(コロナル断面CPの位置)を変更することで、観察中の観察領域A1をMPR画像として表示させたので、現在観察中の領域であるかどうかを容易に判別することが可能となる。
 このように、視線方向を含む観察情報に連動する観察領域A1をMPR画像として表示させたので、効率的な術前診断(スクリーニング検査を含む)を行うことが可能となる。
[第2の実施形態]
 次に、第2の実施形態に係る医用画像処理装置について説明する。なお、医用画像処理装置の構成において、第2の実施形態が第1の実施形態と異なる構成について主に説明し、同じものについては同一番号を付してその説明を省略する。
 図1に示すように、第2の実施形態では、非観察領域を観察することが可能なように、視点位置V、視線方向、視野角を含む観察情報を設定する観察情報設定部15を設けた点が異なる。
(観察情報設定部)
 観察情報設定部15は、非観察領域を観察することが可能なように、視点位置V、視線方向、視野角のいずれか1つ、または、2つ以上の組み合わせを設定する。設定された観察情報は記憶部(例えば医用画像処理装置の内部メモリ)に記憶される。
 次に、医用画像処理装置の一連の動作について図9を参照して説明する。図9は医用画像処理装置の一連の動作を示すフローチャートである。
(S101)~(S105)
 図9を図6と比較すればわかるように、S101~S105までの動作において、第2実施形態は第1の実施形態と同じであるため、それらの動作の説明を省略する。
 図10Aはスクリーニングを停止した図、図10Bは、非観察領域観察中の図、図10Cは、スクリーニングを再開する図である。図10A~図10Cで、GUI20の一例として、進むボタン、戻るボタン、現在位置に戻るボタンを、“20a”、“20b”、“20c”で示す。マウスのクリック操作による各ボタン20a、20b、及び、20cの指定を受けて、表示制御部22は、予め定められた順番で次の視点位置、一つ前の視点位置、及び、現在の視点位置(移動前の視点位置)における非観察領域A2を表示させる。各ボタン20a、20b、及び、20cを用いて、非観察領域A2を確認することができる。
 スクリーニング検査を一旦停止し、病変候補や死角等によって現在の視点位置Vから観察できない非観察領域A2を確認するときは次のようにする。
(S106)
 S106では、病変候補や死角等によって現在の視点位置Vから観察できない非観察領域A2を算出する。
 観察領域算出部13は、仮想内視鏡画像の付帯情報である観察情報(視点位置V、視線方向D、視野角VA)とMPR画像の画像情報からMPR画像上に表示された観察中の管状体(全体)A0を算出する。
 次に、MPR画像生成部12は、観察領域算出部13により求められた観察領域A1とMPR画像の画像情報から、観察領域A1で、かつ、MPR画像の断面に含まれる領域PA1を求める。また、管状体(全体)A0で、かつ、MPR画像の断面に含まれる領域PA0を求める。
 次に、非観察領域算出部14は、求められた管状体(全体)PA0から、MPR画像の断面に含まれる領域PA1を差し引くことで、非観察領域PA2を算出する(PA2=PA0-PA1)。
 なお、MPR画像の断面によって非観察領域A2が異なるため、非観察領域A2を算出する際には、予めGUI20によってMPR画像の断面が特定されている必要がある。
(S107)
 S107では、観察情報設定部15は、非観察領域算出部14によって得られた非観察領域A2を観察することができる観察情報(視点位置、視線方向、及び視野角)を求め、その観察情報を設定(例えば、医用画像処理装置の内部メモリに記憶)する。
 GUI20は、設定された観察情報に基づいて、非観察領域A2を観察できる位置へ視点位置Vを移動させる。このように視点位置Vを移動させることにより、非観察領域A2をもれなく観察することができるので、非観察領域A2の見落としを確実に防止することが可能となる。
 なお、図10BのMPR画像に示すように、非観察領域A2が複数個存在する場合には、GUI20は、非観察領域A2を観察することができるそれぞれの位置に視点位置Vを予め定められた順番で移動させる。このとき、GUI20は、非観察領域A2が複数個存在する場合において、それらの非観察領域A2を観察可能な視点位置Vの中から、観察中における視点位置Vに対し最も近い視点位置Vを次の視点位置Vとする。
 視点位置Vを移動させていくなかで、移動させられた視点位置Vと観察中の視点位置Vとの相対関係が把握できるようにするため、表示制御部22は、MPR画像上に観察中の観察領域A1を表示させたままにする。
 視点位置Vを順番に移動することにより、全ての非観察領域A2を確認した後は、図10Cに示すように、視点位置Vを移動前の位置に戻すようにする。
 それにより、図10A及び図10Cからわかるように、スクリーニング検査の途中で非観察領域A2を観察するために、視点位置Vを移動させた場合であっても、引き続き、移動前の位置からスクリーニング検査が再開できるようになる。
 図10のBに示すMPR画像からわかるように、仮想内視鏡での視点位置Vを考慮しながら死角等による非観察領域A2を確認することができるようになり、スクリーニング検査において、非観察領域A2の見落としを防止できる。
[変形例]
 次に、見落とし防止の表示例について図11を参照して説明する。
 上記実施形態では、観察中の観察領域をMPR画像上に表示する例として記載しているが、スクリーニング検査において観察すべき領域の見落としを防止するために、これまで観察した領域もMPR画像上に表示するようにしてもよい。表示方法は、現在観察中の領域と同様の方法とする。
 観察領域算出部13及び非観察領域算出部14を含む領域特定手段は、視点位置または視点方向の移動に伴って、観察領域及び非観察領域を累積する。例えば、観察領域の加算は、新たに観察される領域を、既に観察済みの領域に加算することをいう。
 また、例えば、非観察領域の累積は、新たに確認される領域を、未だ確認されていない非観察領域に加算することをいう。例えば、未だ確認されていない非観察領域を“PA21”、“PA22”、“PA23”とし、それらの中で、非観察領域PA21が新たに確認された領域(-PA21)とすると、加算の式は、PA21+PA22+PA23+(-PA21)となり、加算した結果は、PA22+PA23となる。それにより、見落とし領域の発生を防止することが可能となる。
 図11は見落とし防止の表示例を示す図である。図11に示すように、観察中の領域PA11と観察済みの領域PA12とを区別できるようにするため、表示する色を異ならせる。なお、図11では、色の違いをハッチングを異ならせて示す。
 すなわち、MPR画像生成部12は、観察中における視点位置V及び所定の断面に含まれる領域PA1に基づき、観察中の領域PA11を生成する。領域PA1から観察中の領域PA11を差し引いた領域が観察済みの領域PA12となる(PA12=PA1-PA11)。
 表示制御部22は、表示部23に観察中の領域PA11と観察済みの領域PA12とを表示させる。なお、両領域PA11、PA12を異なる表示パターン(柄)により表示させるようにしてもよい。
 以上説明した実施形態によれば、CTを用いたCTクロノグラフ(CT Colonography)を例にとって記載しているが、最近では、MRIを用いたMRクロノグラフの有用性が報告されており、そのMRクロノグラフを用いてもよい。MRクロノグラフは、CTクロノグラフの問題点(前処置や検査時に患者が強いられる苦痛やX線被ばくなど)を改善する診断方法としても報告されており、今後は、より高画質なMRクロノグラフが得られることが期待されている。
 以上に、医用画像処理装置の実施形態を説明したが、この医用画像処理装置を有するCTその他のモダリティ(医用画像診断装置)であってもよい。
 また、実施形態では、観察領域及び/または非観察領域をMPR画像上に表示させたが、3次元画像上に表示させてもよい。ここで、3次元画像の一例としては、各CT画像のCT値に応じて様々な色付けをし、連続した多数のCT画像を重ね合わせて表示したものであるボリュームレンダリング(volume rendering)が用いられる。
 観察領域及び非観察領域は画像上に識別可能に表示されてもよい。例えば、3次元画像上に非観察領域を表示させる場合、非観察領域の全部を表示させるのではなく、例えば非観察領域の中央部の位置にマークを付することにより非観察領域の存在を識別可能に表示させるようにしてもよい。3次元画像上に非観察領域の全部を表示させると、非観察領域が互いに重なり合って、各非観察領域の位置や大きさがわかり難くなるためである。
 さらに、実施形態では、仮想内視鏡画像の観察情報(視点位置、視線方向、視野角)に基づき、観察領域及び/または非観察領域を求めたが、これらの領域を視点位置及び視線方向に基づいて求めるようにしてもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、書き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるととともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 記憶装置
11 仮想内視鏡画像生成部
12 MPR画像生成部
13 観察領域算出部
14 非観察領域算出部
15 観察情報設定部
20 GUI
21 入力部
22 表示制御部
23 表示部

Claims (12)

  1.  管状体の3次元画像を記憶する記憶部と、
     管状体の3次元画像を用いて、管状体の管内に置かれた視点位置及び視線方向に基づき前記管内を観察したときの仮想内視鏡画像を生成する仮想内視鏡画像生成部と、
     前記3次元画像を用いて、前記視点位置及び視線方向に基づき観察領域、及び/または非観察領域を求める領域特定手段と、
     前記観察領域、及び/または非観察領域を、前記3次元画像から求めた画像上に識別可能に表示した画像を生成する画像生成部と、
     を有することを特徴とする医用画像処理装置。
  2.  前記領域特定手段は、さらに、前記視点位置及び視線方向に加え、視野角に基づいて、前記観察領域、及び/または非観察領域を求めるものであることを特徴とする請求項1記載の医用画像処理装置。
  3.  前記領域特定手段は、前記管状体の管内における前記観察領域、及び/または非観察領域を求めるものであることを特徴とする請求項1記載の医用画像処理装置。
  4.  前記領域特定手段は、前記視点位置及び/または前記視線方向の移動に伴って累積された前記観察領域、及び/または非観察領域を求めるものであることを特徴とする請求項1記載の医用画像処理装置。
  5.  管状体の3次元画像を記憶する記憶部と、
     管状体の3次元画像を用いて、管状体の管内に置かれた視点位置及び視線方向を含む観察情報に基づき前記管内を観察したときの仮想内視鏡画像を生成する仮想内視鏡画像生成部と、
     前記観察情報に基づき前記管状体の断面画像を生成する断面画像生成部と、
     前記仮想内視鏡画像における観察領域、及び/または非観察領域を、前記断面画像上に表示させる表示制御部と、
     を有する
     ことを特徴とする医用画像処理装置。
  6.  前記表示制御部は、前記観察情報に基づき前記断面画像生成部により前記断面画像として生成された前記観察領域を表示させることを特徴とする請求項5に記載の医用画像処理装置。
  7.  前記表示制御部は、前記記憶部から既に観察された前記観察領域を読み出して表示させることを特徴とする請求項5または請求項6に記載の医用画像処理装置。
  8.  前記観察情報に基づき、前記仮想内視鏡画像における観察領域を算出する観察領域算出部をさらに有する
     ことを特徴とする請求項5から請求項7のいずれかに記載の医用画像処理装置。
  9.  前記観察領域に基づき、前記仮想内視鏡画像における非観察領域を算出する非観察位置算出部をさらに有する
     ことを特徴とする請求項5に記載の医用画像処理装置。
  10.  前記仮想内視鏡画像における非観察領域を観察することが可能な視点位置、視線方向及び視野角のいずれか1つ以上の前記観察情報を設定する観察情報設定部をさらに有する
     ことを特徴とする請求項9に記載の医用画像処理装置。
  11.  前記表示制御部は、前記設定された前記観察情報を、前記断面画像に重ねて表示させることを特徴とする請求項10に記載の医用画像処理装置。
  12.  前記請求項5から請求項11のいずれかに記載の医用画像処理装置を有することを特徴とする医用画像診断装置。
PCT/JP2012/065917 2011-06-23 2012-06-21 医用画像処理装置及び医用画像診断装置 WO2012176854A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/989,916 US9375132B2 (en) 2011-06-23 2012-06-21 Medical image processing apparatus and medical image diagnosis apparatus
CN201280004894.0A CN103298407B (zh) 2011-06-23 2012-06-21 医用图像处理装置以及医用图像诊断装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011139005 2011-06-23
JP2011-139005 2011-06-23

Publications (1)

Publication Number Publication Date
WO2012176854A1 true WO2012176854A1 (ja) 2012-12-27

Family

ID=47422683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/065917 WO2012176854A1 (ja) 2011-06-23 2012-06-21 医用画像処理装置及び医用画像診断装置

Country Status (4)

Country Link
US (1) US9375132B2 (ja)
JP (1) JP6013037B2 (ja)
CN (1) CN103298407B (ja)
WO (1) WO2012176854A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190186A1 (ja) * 2014-06-10 2015-12-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
US9824445B2 (en) 2014-06-18 2017-11-21 Olympus Corporation Endoscope system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105491936B (zh) * 2013-08-28 2017-08-22 奥林巴斯株式会社 胶囊型内窥镜系统
WO2016009701A1 (ja) * 2014-07-15 2016-01-21 オリンパス株式会社 ナビゲーションシステム、ナビゲーションシステムの作動方法
JP6825857B2 (ja) * 2016-09-08 2021-02-03 ザイオソフト株式会社 医用画像処理装置及び医用画像処理プログラム
US10856825B2 (en) * 2018-03-16 2020-12-08 Shimadzu Corporation Radiographic imaging apparatus
CN112584738B (zh) * 2018-08-30 2024-04-23 奥林巴斯株式会社 记录装置、图像观察装置、观察系统、观察系统的控制方法及存储介质
US20220198742A1 (en) * 2019-09-20 2022-06-23 Hoya Corporation Processor for endoscope, program, information processing method, and information processing device
CN114782470B (zh) * 2022-06-22 2022-09-13 浙江鸿禾医疗科技有限责任公司 消化道的三维全景识别定位方法、存储介质和设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219448A (ja) * 1998-01-30 1999-08-10 Hitachi Medical Corp 画像表示方法
JPH11318884A (ja) * 1998-03-09 1999-11-24 Hitachi Medical Corp 画像表示装置
JP2001143098A (ja) * 1999-11-11 2001-05-25 Hitachi Medical Corp 画像処理方法及び装置
JP2004522464A (ja) * 2000-10-02 2004-07-29 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 向上した視覚化、ナビゲーション及び検査
JP2004529715A (ja) * 2001-05-15 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多次元データ・セットの分析
JP2007195971A (ja) * 2006-01-23 2007-08-09 Siemens Ag 中空管を仮想内視鏡検査するための方法および装置
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2010082374A (ja) * 2008-10-02 2010-04-15 Toshiba Corp 画像表示装置及び画像表示方法
WO2010074058A1 (ja) * 2008-12-25 2010-07-01 株式会社 日立メディコ 医用画像表示装置及び方法
JP2010284405A (ja) * 2009-06-15 2010-12-24 Toshiba Corp 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
JP2011030839A (ja) * 2009-08-03 2011-02-17 Nagoya Univ 医用画像観察支援装置
JP2011036600A (ja) * 2009-08-18 2011-02-24 Toshiba Corp 画像処理装置、画像処理プログラムおよび医用診断システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044121A (ja) * 2005-08-08 2007-02-22 Hitachi Medical Corp 医用画像表示方法及び装置
JP5433240B2 (ja) 2009-01-21 2014-03-05 株式会社東芝 超音波診断装置及び画像表示装置
JP2010274405A (ja) 2009-06-01 2010-12-09 Jtekt Corp 回転体の表面粗さの測定方法、砥石における砥粒の突き出し量の測定方法、及び研削盤

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219448A (ja) * 1998-01-30 1999-08-10 Hitachi Medical Corp 画像表示方法
JPH11318884A (ja) * 1998-03-09 1999-11-24 Hitachi Medical Corp 画像表示装置
JP2001143098A (ja) * 1999-11-11 2001-05-25 Hitachi Medical Corp 画像処理方法及び装置
JP2004522464A (ja) * 2000-10-02 2004-07-29 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 向上した視覚化、ナビゲーション及び検査
JP2004529715A (ja) * 2001-05-15 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多次元データ・セットの分析
JP2007195971A (ja) * 2006-01-23 2007-08-09 Siemens Ag 中空管を仮想内視鏡検査するための方法および装置
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2010082374A (ja) * 2008-10-02 2010-04-15 Toshiba Corp 画像表示装置及び画像表示方法
WO2010074058A1 (ja) * 2008-12-25 2010-07-01 株式会社 日立メディコ 医用画像表示装置及び方法
JP2010284405A (ja) * 2009-06-15 2010-12-24 Toshiba Corp 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
JP2011030839A (ja) * 2009-08-03 2011-02-17 Nagoya Univ 医用画像観察支援装置
JP2011036600A (ja) * 2009-08-18 2011-02-24 Toshiba Corp 画像処理装置、画像処理プログラムおよび医用診断システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUICHIRO HAYASHI ET AL.: "Kaso Naishikyo System ni Okeru Jido Navigation Kino no Kaihatsu", PROCEEDINGS OF THE 2000 IEICE GENERAL CONFERENCE, vol. 2, 7 March 2000 (2000-03-07), pages 411 - 412 *
YUICHIRO HAYASHI ET AL.: "Quantitative Evaluation of Fly-through Methods Based on Undisplayed Regions in Virtual Colonoscopy", TRANSACTIONS OF JAPANESE SOCIETY FOR MEDICAL AND BIOLOGICAL ENGINEERING, vol. 16, no. 12, 10 December 2002 (2002-12-10), pages 247 - 252 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190186A1 (ja) * 2014-06-10 2015-12-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
JP5945643B2 (ja) * 2014-06-10 2016-07-05 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
JPWO2015190186A1 (ja) * 2014-06-10 2017-04-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
US9918614B2 (en) 2014-06-10 2018-03-20 Olympus Corporation Endoscope system with angle-of-view display information overlapped on three-dimensional image information
US9824445B2 (en) 2014-06-18 2017-11-21 Olympus Corporation Endoscope system

Also Published As

Publication number Publication date
US20130257865A1 (en) 2013-10-03
JP6013037B2 (ja) 2016-10-25
CN103298407B (zh) 2016-05-18
CN103298407A (zh) 2013-09-11
JP2013027697A (ja) 2013-02-07
US9375132B2 (en) 2016-06-28

Similar Documents

Publication Publication Date Title
JP6013037B2 (ja) 医用画像処理装置
US11051902B2 (en) System and method for planning and performing a repeat interventional procedure
Luo et al. Advanced endoscopic navigation: surgical big data, methodology, and applications
US9036882B2 (en) Diagnosis assisting apparatus, diagnosis assisting method, and recording medium having a diagnosis assisting program stored therein
JP5551960B2 (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
CN108475436A (zh) 使用轮廓标志的外科手术图像采集设备的配准
JP5865361B2 (ja) リアルタイム内視鏡較正に関するシステム及び方法
JP2010517632A (ja) 内視鏡の継続的案内のためのシステム
JP2005169116A (ja) 融合画像表示方法
WO2012165572A1 (ja) 医用画像表示装置及び医用画像診断装置
WO2004081873A2 (en) System and method for performing a virtual endoscopy
CN111588464A (zh) 一种手术导航方法及系统
JP4686279B2 (ja) 医用診断装置及び診断支援装置
JP4323288B2 (ja) 挿入支援システム
Tang et al. Choledochoscopic examination of a 3-dimensional printing model using augmented reality techniques: a preliminary proof of concept study
JP2009022411A (ja) 医用画像処理装置
Leira et al. A novel research platform for electromagnetic navigated bronchoscopy using cone beam CT imaging and an animal model
JP2010075549A (ja) 画像処理装置
Asano Practical application of virtual bronchoscopic navigation
Reynisson et al. A new visualization method for navigated bronchoscopy
JP5631584B2 (ja) 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置
Assimos et al. Virtual endoscopy
WO2014192275A1 (ja) 投影画像生成装置、方法およびプログラム
JP2005304937A (ja) 挿入支援システム
JP4160487B2 (ja) 挿入支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12803371

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13989916

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12803371

Country of ref document: EP

Kind code of ref document: A1