WO2013132820A1 - 医用画像処理装置および方法、並びにプログラム - Google Patents

医用画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2013132820A1
WO2013132820A1 PCT/JP2013/001309 JP2013001309W WO2013132820A1 WO 2013132820 A1 WO2013132820 A1 WO 2013132820A1 JP 2013001309 W JP2013001309 W JP 2013001309W WO 2013132820 A1 WO2013132820 A1 WO 2013132820A1
Authority
WO
WIPO (PCT)
Prior art keywords
interest
image
virtual endoscopic
degree
dimensional image
Prior art date
Application number
PCT/JP2013/001309
Other languages
English (en)
French (fr)
Inventor
善則 板井
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP13757250.9A priority Critical patent/EP2823764B1/en
Publication of WO2013132820A1 publication Critical patent/WO2013132820A1/ja
Priority to US14/477,738 priority patent/US9390497B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a technique for supporting image diagnosis using a plurality of virtual endoscopic images generated from a three-dimensional image.
  • diagnosis is performed by observing a three-dimensional image obtained by photographing a patient.
  • an image hereinafter referred to as a virtual endoscopic image
  • Attention has been focused on a method of observing a region of interest such as a lesion by generating a plurality of endoscope images) along a tubular structure and displaying them one after another at a plurality of positions and a plurality of angles.
  • Patent Document 1 a virtual endoscopic image of a duct such as a bronchus is created, and a route to a target point along the duct is obtained in advance on the virtual endoscopic image.
  • a method of using a virtual endoscopic image as a guide image during actual endoscopic observation is proposed.
  • a trigger is set for a region of interest of the user in association with a trigger, and a virtual endoscopic image is continuously displayed like a moving image along a route.
  • a technique that can highlight a different part with different resolution, display rate, display time, image magnification, view angle, and the like based on a set viewing protocol.
  • the present invention has been made in view of the above circumstances, and is a virtual endoscopic image so that only a virtual endoscopic image representing a portion necessary for image diagnosis such as a region of interest can be intensively observed from a three-dimensional image. It is an object of the present invention to provide an apparatus, method, and program for realizing a reduction in work load and work time by selecting and setting a position and a display method for generating an image.
  • the medical image processing apparatus has a relative interest at each position on an image acquisition unit that acquires a three-dimensional image obtained by imaging a patient and a path connecting a plurality of positions in the three-dimensional image.
  • the degree-of-interest setting unit for setting the degree
  • the determination condition acquisition unit for acquiring the determination condition for specifying the virtual endoscope image generated from the three-dimensional image according to the set degree of interest, and the determination based on the three-dimensional image
  • an image generation unit that generates only a virtual endoscopic image specified by a condition.
  • the medical image processing method is the medical image processing method executed by the medical image diagnostic apparatus, wherein a step of acquiring a three-dimensional image obtained by imaging a patient and a plurality of positions in the three-dimensional image A step of setting a relative interest level at each position in a route connecting the two, a step of acquiring a determination condition for specifying a virtual endoscopic image generated from a three-dimensional image according to the set interest level, and 3 A step of generating only a virtual endoscopic image specified by a determination condition based on a three-dimensional image is executed.
  • the medical image processing program according to the first invention is for causing a computer to function as each of the above-described units.
  • the medical image processing apparatus has a relative interest at each position on an image acquisition unit that acquires a three-dimensional image obtained by imaging a patient and a path connecting a plurality of positions in the three-dimensional image.
  • An interest level setting unit that sets a degree
  • an image generation unit that generates a plurality of virtual endoscopic images from a three-dimensional image
  • a virtual endoscopic image generated according to the set interest level are displayed
  • a determination condition acquisition unit that acquires a determination condition for specifying a virtual endoscopic image, and a display control unit that displays only the virtual endoscopic image specified by the determination condition among the generated virtual endoscopic images, It is characterized by having.
  • the “route” in the first and second inventions can be set by any method.
  • the route setting unit can set a core line connecting the centers of the tubular structures as a route.
  • the display control device receives a movement direction or movement amount input from the user in a state where a display image is displayed by a predetermined display method at a predetermined position, and the received movement is received.
  • the display image of the position moved from the current display position by the amount of movement received in the direction is displayed, and the route setting unit may set a route obtained by connecting the display positions in the order of display. .
  • the route setting method may be a method of automatically setting using a well-known technique, or a route connecting positions input from the input device based on a user operation. It may be a method of setting, or the automatically set route is corrected by the operation of the user's input device, or automatically by interpolation calculation or the like based on the partial route set by the user's input device operation The entire route may be set with.
  • the interest level setting unit acquires the interest position in the three-dimensional image and the interest level corresponding to the interest position, and the interest corresponding to the interest position increases as the distance from the acquired designated position increases. It is preferable that the degree of interest is set by weighting so that the degree of interest becomes smaller than the degree. In this case, the interest level setting unit may set the interest level so as to be inversely proportional to the distance from the position of interest.
  • the “degree of interest” indicates the degree of strength of the request for generation or display of the virtual endoscopic image. Setting “relative degree of interest at each position in the route” This means that the degree of interest is set according to the relative degree of strength between the above positions.
  • the “interesting position” represents a position where a request for generation or display of a virtual endoscopic image is locally large.
  • the position of interest may be set at an arbitrary position by an arbitrary method, may be positioned on the route, or may be positioned at a position other than the route. Further, for example, the position may be a position included in a region of interest such as the center of gravity of a lesion extracted by a computer diagnosis support technique (CAD technique), or may be a position input from an input device based on a user operation. May be.
  • CAD technique computer diagnosis support technique
  • the route is a route that connects a plurality of positions inside the tubular structure included in the three-dimensional image
  • the interest degree setting unit increases the degree of interest as the curvature increases according to the curvature of the route. It is preferable to set the interest level so as to increase.
  • the phrase “so that the degree of interest is reduced” means weighting so that the degree of request for generation or display of a virtual endoscopic image is reduced. “Large” means weighting so as to increase the degree of request for generation or display of a virtual endoscopic image. As long as the value representing the degree of interest decreases, for example, the degree of interest may be set so as to increase, or as the value indicating the degree of interest increases, the degree of interest may be set to increase. Good.
  • the determination condition may be a threshold condition for specifying a virtual endoscopic image.
  • the discrimination condition acquisition unit acquires the number of virtual endoscopic images that can be displayed at a predetermined display speed within a predetermined display time, and the virtual condition corresponding to the acquired number of images
  • a threshold value may be set so as to specify an endoscopic image.
  • the virtual endoscopic image may be a virtual bronchial endoscopic image, and the position of interest may be a bronchial bifurcation part included in the three-dimensional image.
  • the virtual endoscopic image may be a virtual laparoscopic endoscopic image.
  • the medical image processing apparatus sets a relative interest level at each position in a path connecting a plurality of positions in a 3D image, and generates the 3D image according to the set interest level. Since the determination condition for specifying the virtual endoscopic image is acquired and only the virtual endoscopic image specified by the determination condition is generated based on the three-dimensional image, it is relatively set to the path only by setting the determination condition. The virtual endoscopic image generated from the three-dimensional image can be easily specified in accordance with the interest level that is set automatically. For this reason, the work time and work load for selectively generating a virtual endoscopic image are reduced, and the improvement of the interpretation efficiency can be supported.
  • the medical image processing apparatus sets a relative interest level at each position on a path connecting a plurality of positions in the three-dimensional image, and the virtual endoscopic image is set according to the set interest level.
  • the discrimination condition for specifying the virtual endoscopic image to be displayed and to display only the virtual endoscopic image specified by the discrimination condition among the virtual endoscopic images, just by setting the discrimination condition,
  • the virtual endoscopic image to be displayed from the three-dimensional image can be easily specified according to the degree of interest set relative to the route. For this reason, the work time and work load for selectively displaying the virtual endoscopic image are reduced, and the improvement of the interpretation efficiency can be supported.
  • achieve the medical image processing function in 1st Embodiment The figure which represented typically the path
  • the figure showing typically the example of the route of the large intestine and the degree of interest in a 1st embodiment The flowchart showing the flow of medical image processing in the first embodiment
  • the figure which represented typically the example of the route of a bronchus and the degree of interest in a 3rd embodiment The figure explaining the modification of the setting of a route
  • FIG. 1 shows a schematic configuration of a medical image processing system 1 including a medical image processing apparatus 6 according to an embodiment of the present invention.
  • the medical image processing system 1 includes an examination room system 3, a data server 4, and a diagnostic workstation (WS) 6 connected to each other via a local area network (LAN) 2.
  • LAN local area network
  • the laboratory system 3 includes various modalities 32 for imaging a subject, and a laboratory workstation (WS) 31 that performs confirmation and adjustment of images output from the modalities.
  • a CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus which are modalities capable of acquiring a three-dimensional image V, are further provided with an ultrasonic diagnostic apparatus and the like.
  • the CT (Computed Tomography) apparatus and the MRI (Magnetic Resonance Imaging) apparatus are both compliant with the DICOM (Digital Imaging and Communication Communication in Medicine) standard, and supplementary information is attached to the acquired volume data. And output as a DICOM file.
  • DICOM Digital Imaging and Communication Communication in Medicine
  • the file output from the modality 32 is transferred to the data server 4 by the examination room WS31.
  • the data server 4 is obtained by mounting a software program that provides a function of a database management server (DBMS) on a computer having a high-performance processor and a large capacity memory and having a relatively high processing capability.
  • the program is stored in the storage, loaded into the memory at startup, and executed by the processor.
  • the data server 4 stores the file transferred from the examination room WS31 in the mass storage 5. Further, the data server 4 selects a file that meets the search condition from a plurality of files stored in the large-capacity storage 5 in response to a search request from the diagnostic WS 6 and transmits the selected file to the diagnostic WS 6.
  • the CT apparatus is used to scan the human body as the subject in the body axis direction, thereby generating three-dimensional image data representing the abdomen including the large intestine of the human body and storing it in the data server 4. .
  • the WS6 for diagnosis is a general-purpose workstation equipped with a standard processor, memory, and storage and mounted with an image processing program for supporting diagnosis.
  • the image processing program is installed in the diagnostic WS 6 by downloading from a recording medium such as a DVD or from a server computer on the network.
  • the diagnosis WS 6 is connected to a display 7 and an input device 8 such as a mouse or a keyboard.
  • the image processing program mounted on the diagnostic WS 6 is composed of a group of program modules that realize various functions, and includes a group of program modules for realizing the image processing function. These programs are stored in the storage, loaded into the memory at startup, and executed by the processor.
  • the diagnostic WS 6 includes an image acquisition unit 61 that acquires the three-dimensional image V, a route setting unit 62 that sets a route connecting a plurality of positions in the acquired three-dimensional image V, and each position on the route.
  • a degree-of-interest setting unit 63 that sets a relative degree of interest in the computer, a determination condition acquisition unit 64 that acquires a determination condition for specifying a virtual endoscopic image generated from the three-dimensional image V according to the degree of interest, and a determination condition
  • the image generation unit 65 that generates only the virtual endoscopic image specified based on the above and the display control unit 66 that displays the virtual endoscopic image come to operate.
  • the abdomen of the subject is photographed using a CT device or the like, and the photographed three-dimensional image V (volume data) is attached with additional information and a DICOM file. Is transferred to the data server 4 and stored in the mass storage 5.
  • the image acquisition unit 61 transmits the input information to the data server 4. Then, the search and transfer of the file stored in the mass storage 5 is requested. Upon receiving the request, the data server 4 searches for a file in the large-capacity storage 5 and transfers the requested file to the image acquisition unit 61. The image acquisition unit 61 acquires the three-dimensional image V included in the file transferred from the data server 4 and stores it in the memory.
  • the route setting unit 62 sets a route connecting a plurality of positions in the acquired three-dimensional image V.
  • a large intestine region is extracted from the three-dimensional image V, and a core line extraction process is performed on the extracted large intestine region.
  • the large intestine region and the core line extracted from the three-dimensional image V are displayed on the display 7 and the designation of the end point that is the starting point of the path among the end points of the large intestine core line by the operation of the user's mouse or the like is accepted.
  • the path P along the core line of the large intestine extending from the end point P 0 of the specified start point to the other end point P N is set.
  • Figure 2 is set for the three-dimensional image V, is the path P of the colon leading to end point P N from the start point P 0 that represents schematically.
  • the large intestine extraction processing first, for each axially disconnected image obtained from a three-dimensional medical image by a cross section perpendicular to the body axis (axial), based on the body surface by a known method. A process to separate the body from the body region is performed. As a specific example, there is a method of performing binarization processing on the input axial sectional image, extracting a contour by contour extraction processing, and extracting the inside of the extracted contour as a body (human body) region, etc. . Next, binarization processing is performed on the in-vivo region with a threshold value, and a large intestine region candidate in each axial dislocation image is extracted.
  • binarization is performed by setting a threshold value corresponding to the CT value of the air, and the air region in the body of each axial dislocation image is extracted. Finally, only a portion where the extracted internal air regions are connected between the axial dislocation images is extracted as a large intestine region.
  • a core line that passes through the central part of the colon tube is extracted from the extracted large intestine region by a known method.
  • a method of performing a three-dimensional thinning process on a binarized image representing a large intestine region obtained by extracting only a portion to which a body air region is connected, which is obtained at the time of extraction of the large intestine Japanese Patent Laid-Open No. 2004-2006 No. 283373
  • Japanese Patent Laid-Open No. 2004-2006 No. 283373 Japanese Patent Laid-Open No. 2004-2006 No. 283373
  • a user interface for manually correcting the extraction result of the large intestine and the core wire may be further provided.
  • the extracted large intestine region or core line is highlighted for each axial discontinuity image, and the user displays the large intestine region or core line whose extraction result is incorrect for each axial discontinuity image (represents the core line on the image)
  • the degree-of-interest setting unit 63 in the present embodiment sets the relative degree of interest at each position on the route P connecting a plurality of positions in the three-dimensional image set by the route setting unit 62.
  • the degree-of-interest setting unit 63 sets one or more positions of interest P q in the three-dimensional image.
  • l, m, and n are natural numbers of N or less.
  • the large intestine region and the path P colon core
  • the interest level corresponding to each position of interest input from the keyboard or the like by the user is acquired.
  • the interest level setting unit 63 stores the acquired coordinates of the interest position and the interest level in association with each other.
  • the interest level setting unit 63 obtains the interest positions (here, P 0 , P l , P m , P n , P N ) and the interest degrees a0, al, am, an, aN corresponding to the positions of interest.
  • the degree of interest is set by weighting so that the degree of interest becomes smaller than the degree of interest corresponding to the position of interest as the distance from the acquired designated position increases.
  • the degree-of-interest setting unit 63 in the present embodiment sets the degree of interest so as to be inversely proportional to the distance from the position of interest based on the following equation (1).
  • p represents an arbitrary point on the route.
  • P q and aq (0 ⁇ q ⁇ N) represent the position of interest and the degree of interest corresponding to the position of interest.
  • the relative degree of interest F (p) for the entire route is calculated by the following equation (1).
  • Q is a set of interest positions.
  • the present invention is not limited to this embodiment, and even when the position of interest is not a position on the route, if the coordinates of the position of interest and the degree of interest corresponding to the position of interest can be acquired, A relative interest level can be calculated.
  • P q and aq indicate the position of interest having the smallest distance from the position p and the degree of interest, respectively.
  • F (p) aq / [1+ (p ⁇ P q ) 2 ] (1)
  • the degree-of-interest setting unit 63 in the present embodiment sets the degree of interest further weighted to the position on the route according to the curvature of the route, so that the degree of interest increases as the curvature of the route increases. Specifically, the curvature at each position on the route P is calculated, and the interest degree Fc (p) based on the curvature is set so that the interest degree increases as the curvature increases at each position on the route P. Then, the degree-of-interest setting unit 63 adds a weighted addition of the degree of interest Fc (p) based on the curvature to the above-mentioned degree of interest F (p), and calculates the relative degree of interest F (p) ′ for the entire route.
  • is a predetermined weighting coefficient.
  • the maximum value of the degree of interest Fc (p) based on the curvature is smaller than the maximum value of the degree of interest F (p) associated with the position of interest.
  • the weighting coefficient ⁇ is set so that the integrated value of the maximum value and ⁇ is 0.5 or less.
  • FIG. 3A is an image diagram representing the degree of interest in shades so that the degree of interest F (p) ′ obtained in this way becomes darker as the degree of interest increases.
  • the degree of interest is set such that the degree of interest decreases as the distance from the positions of interest P 0 , P 1 , P m , P n , P N increases, and P i , P A relatively high degree of interest is set at a position included in the range indicated by j and Pk .
  • the determination condition acquisition unit 64 acquires a determination condition for specifying a virtual endoscopic image generated from a three-dimensional image according to the degree of interest.
  • the discrimination condition in the present embodiment is a threshold condition for specifying a virtual endoscopic image to be generated.
  • the threshold value defined in the threshold condition may be, for example, a preset value or a value set by the user or the like via the input device 8.
  • the determination condition here, the threshold value
  • the determination condition can be changed according to the input by the input device 8 such as a user, and the determination is performed according to the change of the determination condition.
  • the condition acquisition unit 64 acquires the changed determination condition.
  • the image generation unit 65 in the present embodiment generates only the virtual endoscopic image specified by the determination condition based on the three-dimensional image V. Specifically, the image generation unit 65 generates only a virtual endoscopic image having a viewpoint corresponding to a position corresponding to the degree of interest greater than the threshold based on the threshold defined in the determination condition. As a result, a virtual endoscopic image I viewed from a position where the degree of interest is greater than the threshold value is generated from the three-dimensional image V.
  • a specific method of central projection for example, a known volume rendering method can be used.
  • the angle of view (the range of the line of sight) and the center of the visual field (center of the projection direction) of the virtual endoscope can be given in advance by a setting file, a program start parameter, user input, and the like.
  • FIGS. 3 b and 3 c among the positions of interest along the route of FIG. 3 a, specific positions of interest based on different discrimination conditions are colored.
  • the threshold value T when the user wants to generate a minimum necessary virtual endoscopic image, when the threshold value T is set to 0.75, for example, as shown in FIG. 3C, the degree of interest F (p) ′ is 0. Only a virtual endoscopic image at each position included in the black range near P 0 , P m , and P N that satisfies the discrimination condition of .75 or more can be generated. Further, when it is desired to observe a virtual endoscope image in a wide range to some extent, as shown in FIG. 3c, when the threshold value T is set to 0.45, for example, P 0 , P l , P m , P n, it is possible to generate a virtual endoscopic image at each location in the range of black near P n.
  • the display control unit 66 displays the generated virtual endoscopic image on the display of the image processing workstation 3.
  • FIG. 4 is a flowchart showing the flow of medical image processing according to the first embodiment of the present invention. The flow of medical image processing according to the first embodiment will be described below with reference to FIG.
  • the image acquisition unit 61 acquires the three-dimensional image V included in the file transferred from the data server 4 and stores it in the memory (S01).
  • the route setting unit 62 sets a route P along the large intestine in each three-dimensional image.
  • the degree-of-interest setting unit 63 sets the positions of interest P 0 , P 1 , P m , P n , P N and the corresponding degrees of interest in the path P, and based on the equation (1)
  • the degree of interest F (p) at each position above is calculated, and the degree of interest Fc (p) at each position on the route based on the curvature of the route is calculated. In this way, the degree of interest F (p) ′ at each position is set (S03).
  • the determination condition acquisition unit 64 acquires the determination condition (S04).
  • the display control unit 66 displays the generated virtual endoscopic image I. It is displayed on the display (S06).
  • the relative interest level at each position is set in the path connecting a plurality of positions in the 3D image, and the 3D is set according to the set interest level. Since the determination condition for identifying the virtual endoscopic image generated from the image is acquired, and only the virtual endoscopic image specified by the determination condition is generated based on the three-dimensional image, the determination condition is set and the route is set. On the other hand, a virtual endoscopic image generated from a three-dimensional image can be easily specified according to the degree of interest set relatively. For this reason, the work time and work load for selectively generating a virtual endoscopic image are reduced, and the improvement of the interpretation efficiency can be supported.
  • the determination condition is for specifying the “virtual endoscopic image to be generated”.
  • the determination condition is It may be for specifying a “virtual endoscopic image to be displayed”.
  • the virtual endoscopic image to be displayed is specified according to the degree of interest for which the determination condition is set, and the entire tubular structure or the image generation unit 65 is based on the three-dimensional image. Only a point for generating a virtual endoscopic image for a part and a virtual endoscopic image specified by a discrimination condition among the generated virtual endoscopic images are displayed. Only the point differs from the first embodiment.
  • FIG. 4 the flow of processing of the second embodiment will be described focusing on differences from the first embodiment. Of the functions and processes of the functional blocks, the same as those in the first embodiment will not be described.
  • the flow of medical image processing in the second embodiment is the same as that in the first embodiment for S01 to S04.
  • the image generation unit 65 in the second embodiment generates a virtual endoscopic image I from the three-dimensional image V at a predetermined number and interval along the path (core line) instead of the process of S05 (S05). ').
  • the display control part 66 in 2nd Embodiment displays on a display only the virtual endoscopic image specified by the discrimination conditions among each produced
  • the virtual endoscopic image to be displayed is set according to the set degree of interest, by setting the relative degree of interest at each position on the route connecting a plurality of positions in the three-dimensional image. Since only the virtual endoscopic image specified by the determination condition is displayed among the generated virtual endoscopic images, the determination condition is specified and the relative condition with respect to the route is set.
  • the virtual endoscopic image to be displayed from the three-dimensional image can be easily specified according to the set interest level. For this reason, the work time and work load for selectively displaying the virtual endoscopic image are reduced, and the improvement of the interpretation efficiency can be supported.
  • the interest level setting unit 63 acquires the interest position and the interest level corresponding to the interest position, and the interest corresponding to the position of interest increases as the distance from the acquired specified position increases. Since the degree of interest is weighted so that the degree of interest becomes smaller than the degree of interest, it is possible to suitably set the degree of interest according to the degree of interest of the interest position corresponding not only to the position of interest but also to the vicinity thereof. it can. Therefore, a large number of virtual endoscopic images can be generated or displayed around the position of interest according to the degree of interest, and generation or display of a virtual endoscopic image can be omitted at a portion away from the position of interest. .
  • the work time and work load for selectively generating or displaying the virtual endoscopic image can be suitably reduced.
  • the interest level setting unit weights and sets the interest level so as to be inversely proportional to the distance from the interest position.
  • the degree can be set.
  • the determination condition is a threshold condition
  • the number of virtual endoscopic images generated or displayed can be adjusted simply by changing the threshold.
  • the work time and work load for selectively generating or displaying a virtual endoscopic image can be reduced very favorably.
  • the route is a route connecting a plurality of positions inside the tubular structure included in the three-dimensional image
  • the degree of interest setting unit determines the curvature according to the curvature of the route. Since the interest level is weighted and set so that the greater the value is, the interest level can be set appropriately in response to the request to focus on the part with a large curvature. And the virtual endoscopic image in the position according to a curvature suitably can be generated or displayed. In particular, when the virtual endoscopic image is a virtual laparoscopic endoscopic image, the degree of interest can be set appropriately in response to a request from the medical site to observe the refractive part of the large intestine. The virtual endoscopic image of the part can be generated or displayed easily and suitably.
  • the display control unit 66 displays only the virtual endoscopic image based on the changed determination condition. In addition, it is possible to meet the user's request and easily adjust the generation amount or display amount of the virtual endoscopic image.
  • the first embodiment and the second embodiment are combined to generate only the virtual endoscopic image specified by the determination condition by the image generation unit 65, and the display control unit 66 determines the determination condition. Only the virtual endoscopic image specified by the above may be displayed.
  • the determination condition may include a condition for specifying a virtual endoscopic image for generation and a condition for specifying a virtual endoscopic image for display.
  • the degree-of-interest setting unit 63 in the third embodiment sets the branching unit as the position of interest when the tubular structure has a branching unit, and other than the degree-of-interest setting processing by the degree-of-interest setting unit 63
  • the functions and processes of these units are the same as those in the first embodiment. The following description will focus on the differences between the first embodiment and the third embodiment, and the same parts will be omitted.
  • FIG. 5 is a diagram showing an example in which the branch positions of the branch portion automatically acquired by a known method are the positions of interest P 1 , P m , and P n for the bronchi, which is a tubular structure having a branch portion.
  • FIG. 6 is an image diagram in which the interest level corresponding to FIG. 5 is represented by shading so that it becomes darker as the interest level increases.
  • the interest level setting unit 63 includes a position of interest (here, P 1 , P m , P n ) representing a branching unit and an interest level of the corresponding position of interest.
  • the degree of interest is weighted and set so that the degree of interest becomes smaller than the degree of interest corresponding to the position of interest as the distance from the acquired designated position increases.
  • the start point P 0 and the end point P N of the route are automatically set as positions of interest as in the first embodiment.
  • the degree-of-interest setting unit 63 calculates and sets the degree of interest corresponding to the position of interest as shown in FIG. 6 based on the following equation (2).
  • Equation (2) Q is a set of interest positions on the route (here, a set of tracheal bifurcations on the route).
  • F (p) 1 / [1 + min Pq ⁇ Q (p ⁇ P q ) 2 ] (2)
  • the virtual endoscopic image is a virtual bronchial endoscopic image
  • the position of interest is a bronchial bifurcation included in the three-dimensional image.
  • a virtual endoscopic image can be generated or displayed appropriately and easily in response to a user request for confirmation.
  • a manually input position may be acquired as the position of interest, and the position determined as the branching section by a known method is automatically selected. It is good also as a position of interest.
  • the interest level setting unit may use only one of the interest level based on the position of interest, the interest level based on the curvature, and the interest level based on the branching unit as the relative interest level. Any of two or more of the interest level based on the position of interest, the interest level based on the curvature, and the interest level based on the bifurcation may be combined in any combination and used as the relative interest level.
  • the relative interest level in each embodiment may be further weighted using a further interest level.
  • a relative degree of interest can be set. Moreover, it can replace with Formula (1) and can use arbitrary formulas that an interest degree becomes small, so that it is far from a position of interest. Moreover, it can replace with Formula (2) and can use arbitrary formulas that an interest degree becomes small, so that it is far from a branch part.
  • the route in each of the above embodiments may not be a route set along the tubular structure by manual or automatic extraction processing as described above.
  • the above-described medical image processing apparatus is vertically, horizontally, and horizontally on the screen. Displays the movement buttons in the front and back directions, and a new movement position at the position where the predetermined movement amount is clicked in the input movement direction according to the type of the movement button and the number of clicks by the user's mouse.
  • the route setting unit 62 stores information for specifying the position (display position) of the display image, and sets the display position connected in the order of display as a route. Good.
  • the route setting unit 62 stores information for specifying the position (display position) of the display image, and sets the display position connected in the order of display as a route. Good.
  • a region of interest such as a lesion region is extracted using a well-known computer diagnosis support technology (CAD technology) or the like, and a position (such as a point included in the extracted region of interest) representing the region of interest (
  • CAD technology computer diagnosis support technology
  • the position of interest may be the position of interest.
  • the determination condition acquisition unit 64 acquires the number of generated or displayed virtual endoscopic images, and determines according to the generated number of generated or displayed virtual endoscopic images. Conditions may be set automatically. As long as the number of generated and displayed virtual endoscopic images can be acquired, only the virtual endoscopic images with a high degree of interest can be identified appropriately and easily within the range of the acquired number of generated or displayed images. An endoscopic image can be generated or displayed.
  • the determination condition acquisition unit 64 acquires the number of virtual endoscopic images that can be displayed at a predetermined display speed within a predetermined display time, and specifies a virtual endoscopic image corresponding to the acquired number of images. Thus, a threshold value may be set. In this case, the labor for setting the determination condition can be further reduced, and a virtual endoscopic image that can be displayed at a predetermined display speed within a predetermined display time can be easily specified.
  • the determination condition acquisition process may be performed any time before the image generation process.
  • the determination condition acquisition process may be performed any time before the display control process.
  • each said embodiment can be combined by arbitrary combinations.
  • a plurality of image processing workstations 3 may be configured, and processing may be shared by each workstation.

Abstract

【課題】3次元画像から関心度の高い仮想内視鏡画像のみを容易に生成または表示する。 【解決手段】3次元画像を取得し、3次元画像中の複数の位置を結ぶ経路に、該各位置における相対的な関心度を設定し、設定された関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得し、判別条件により特定された仮想内視鏡画像のみを生成する。

Description

医用画像処理装置および方法、並びにプログラム
 本発明は、3次元画像から生成した複数の仮想内視鏡画像を用いた画像診断を支援する技術に関するものである。
 近年、臨床の様々なシーンにおいて、患者の撮影で得られた3次元画像を観察して診断を行うことが行われている。特に、大腸や気管支など管状構造物の内視鏡による観察を行う臓器に対して、CT画像から、仮想的に管状構造物を内部から撮影した内視鏡画像を摸した画像(以下、仮想内視鏡画像と呼ぶ。)を管状構造物に沿って複数生成して、複数の位置及び複数の角度で次々表示することにより病変などの関心領域を観察する方法が着目されている。このような仮想内視鏡画像を用いた画像診断は、患者に実際に内視鏡を挿入する必要がないため患者の検査時の負担が小さく、また管状構造物内に内視鏡が入り込めないような閉塞した部分が存在しても、CT画像に基づいて閉塞部分より奥の構造物部分の様子を表示できるため、大きな期待が寄せられている。
 特許文献1には、気管支等の管路についての仮想内視鏡画像を作成し、仮想内視鏡画像上において管路に沿って目的点までの経路を事前に求めておき、この経路の沿った仮想内視鏡画像を実際の内視鏡観察時における案内画像として使用する手法が提案されている。さらに、特許文献2には、ユーザの関心のある部位に対して、トリガを関連付けて記憶し、経路に沿って仮想内視鏡画像を動画像のように続けて表示する際に、トリガが設定された部位については設定されたビューイングプロトコルに基づいて、解像度、表示レート、表示時間、画像の倍率、ビュー角度などを異ならせて強調表示を行うことができる手法が提案されている。
特開2000-135215号公報 特表2008-529578号公報
 ここで、管状構造物を観察する際に、複数の位置における各仮想内視鏡画像を生成または表示するために必要な表示時間や計算コストを低減して、読影効率を向上したいという要求がある。しかしながら、特許文献1および2に記載の方法では、3次元画像から関心部位や関心部位付近の仮想内視鏡画像を選択的に生成または表示を行う場合、生成する仮想内視鏡画像の位置や表示する仮想内視鏡画像の位置を選択して設定するために多大な作業負荷と作業時間が必要となる。
 本発明は上記事情に鑑みてなされたものであり、3次元画像から関心部位などの画像診断に必要な部分を表す仮想内視鏡画像のみを重点的に観察できるように、仮想内視鏡画像を生成する位置や表示方法を選択して設定する作業負荷と作業時間の軽減を実現する装置および方法、並びにプログラムを提供することを目的とするものである。
 本第1発明の医用画像処理装置は、患者を撮影して得られた3次元画像を取得する画像取得部と、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定する関心度設定部と、設定された関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部と、3次元画像に基づいて判別条件により特定された仮想内視鏡画像のみを生成する画像生成部とを備えたことを特徴とする。
 本第1発明の医用画像処理方法は、上記医用画像診断装置に実行させる医用画像処理方法において、患者を撮影して得られた3次元画像を取得する工程と、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定する工程と、設定された関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する工程と、3次元画像に基づいて判別条件により特定された仮想内視鏡画像のみを生成する工程を実行させることを特徴とする。
 本第1発明の医用画像処理プログラムは、コンピュータを上記各部として機能させるためのものである。
 本第2発明による医用画像処理装置は、患者を撮影して得られた3次元画像を取得する画像取得部と、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定する関心度設定部と、3次元画像から複数の仮想内視鏡画像を生成する画像生成部と、設定された関心度に応じて生成された仮想内視鏡画像のうちの表示する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部と、生成された仮想内視鏡画像のうち判別条件により特定された仮想内視鏡画像のみを表示させる表示制御部と、を備えたことを特徴とするものである。
 なお、上記第1および第2発明における「経路」は、任意の方法により設定することができる。例えば、観察対象が管状構造の場合、経路設定部は管状構造の中心を結ぶ芯線を経路として設定することができる。あるいは、第1および第2発明において、表示制御装置は所定の位置における所定の表示方法による表示画像を表示した状態で、ユーザから入力された移動方向や移動量の指示を受け付けて、受け付けた移動方向に受け付けた移動量だけ現在の表示位置から移動した位置の表示画像を表示するものであり、経路設定部は各表示位置を表示した順に結んだものを経路として設定するものであってもよい。また、第1および第2発明において、経路の設定方法は、周知技術を用いて自動的に設定する方法でもよいし、ユーザ操作に基づいて入力装置から入力された位置を結んだものを経路として設定する方法であってもよいし、自動設定された経路をユーザの入力装置の操作により修正したり、ユーザの入力装置の操作で設定された部分的な経路に基づいて、補間計算等によって自動で経路全体を設定したりしてもよい。
 本第1および第2発明において、関心度設定部は、3次元画像中の関心位置および関心位置に対応する関心度を取得し、取得した指定位置からの距離が遠くなるほど関心位置に対応する関心度より関心度が小さくなるように関心度を重み付けて設定するものことが好ましい。また、この場合に、関心度設定部が、関心位置からの距離に逆比例するように関心度を設定するものであってもよい。
 また、上記「関心度」は、仮想内視鏡画像の生成または表示の要求の強さの度合いを表すものであり、「経路に、各位置における相対的な関心度」を設定するとは、経路上の各位置間の相対的な上記強さの度合いに応じて関心度を設定すること意味する。また、上記「関心位置」は、仮想内視鏡画像の生成または表示の要求が局所的に大きい位置を表すものである。関心位置は任意の方法により任意の位置に設定されたものであってよく、上記経路上に位置してもよく、経路以外の位置に位置してもよい。また、例えば、コンピュータ診断支援技術(CAD技術)などにより抽出された病変部の重心などの関心領域に含まれる位置であってもよいし、ユーザ操作に基づいて入力装置から入力された位置であってもよい。
 本第1および第2発明において、経路が3次元画像に含まれる管状構造の内側の複数の位置を結ぶ経路であり、関心度設定部が、経路の曲率に応じて、曲率が大きいほど関心度が大きくなるように関心度を重み付けて設定することが好適である。
 第1および第2発明において、上記「関心度が小さくなるように」は、仮想内視鏡画像の生成または表示の要求の度合いが小さくなるように重み付けをすることを意味し、「関心度が大きく」は、仮想内視鏡画像の生成または表示の要求の度合いが大きくなるように重み付けをすることを意味する。この意味を維持する範囲で、例えば、関心度を表す値が小さくなるほど関心度が大きくなるように設定してもよく、関心度を表す値が大きくなるほど関心度が大きくなるように設定してもよい。
 本第1および第2発明において、判別条件が仮想内視鏡画像を特定するためのしきい値条件であってもよい。
 本第1および第2発明において、判別条件取得部が、所定の表示時間内に所定の表示速度で表示可能な仮想内視鏡画像の画像枚数を取得し、取得した画像枚数に応じた仮想内視鏡画像を特定するように、しきい値を設定するものであってもよい。
 本第1および第2発明において、仮想内視鏡画像が、仮想気管支内視鏡画像であり、関心位置が3次元画像に含まれる気管支の分岐部であってもよい。また、仮想内視鏡画像が仮想腹腔鏡内視鏡画像であってもよい。
 本第1発明の医用画像処理装置は、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定し、設定された関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得し、3次元画像に基づいて判別条件により特定された仮想内視鏡画像のみを生成するため、判別条件を設定するだけで、経路に対して相対的に設定された関心度に応じて、3次元画像から生成する仮想内視鏡画像を容易に特定することができる。このため、仮想内視鏡画像を選択的に生成するための作業時間と作業負荷が軽減され、読影効率の向上を支援できる。
 本第2発明の医用画像処理装置は、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定し、設定された関心度に応じて仮想内視鏡画像のうちの表示する仮想内視鏡画像を特定する判別条件を取得し、仮想内視鏡画像のうち判別条件により特定された仮想内視鏡画像のみを表示させるため、判別条件を設定するだけで、経路に対して相対的に設定された関心度に応じて、3次元画像から表示する仮想内視鏡画像を容易に特定することができる。このため、仮想内視鏡画像を選択的に表示させるための作業時間と作業負荷が軽減され、読影効率の向上を支援できる。
第1の実施形態における医用画像処理機能を実現する構成および処理の流れを模式的に示したブロック図 第1の実施形態における3次元医用画像に対して設定された大腸の経路と関心位置を模式的に表した図 第1の実施形態における大腸の経路と関心度の例を模式的に表した図 第1の実施形態における医用画像処理の流れを表したフローチャート 第3の実施形態における3次元医用画像に対して設定された気管支の経路と関心位置を模式的に表した図 第3の実施形態における気管支の経路と関心度の例を模式的に表した図 経路の設定の変形例を説明する図
 以下、人体の大腸を表す医用画像の画像診断を行う場合を例として、本発明の実施形態の説明を行う。
 図1に、本発明の一実施形態における医用画像処理装置6を含む医用画像処理システム1の概略構成を示す。医用画像処理システム1は、ローカルエリアネットワーク(LAN)2を介して互いに接続された検査室システム3、データサーバ4、および診断用ワークステーション(WS)6により構成される。
 検査室システム3は、被検体を撮影する各種のモダリティ32と、各モダリティから出力された画像の確認や調整を行う検査室ワークステーション(WS)31により構成される。モダリティ32としては、3次元画像Vを取得可能なモダリティであるCT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置が備えられ、さらに超音波診断装置などが備えられているものとする。これらのモダリティ32のうちCT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置は、いずれもDICOM(Digital Imaging and Communication in Medicine)規格に準拠した装置であり、取得したボリュームデータに付帯情報を付し、DICOMファイルとして出力する。
 モダリティ32から出力されたファイルは、検査室WS31により、データサーバ4に転送される。データサーバ4は、高性能プロセッサと大容量メモリを備えた比較的処理能力の高いコンピュータに、データベースマネージメントサーバ(DBMS:Database Management Server)の機能を提供するソフトウェアプログラムを実装したものである。プログラムはストレージに記憶され、起動時にメモリにロードされ、プロセッサにより実行される。データサーバ4は、検査室WS31から転送されたファイルを、大容量ストレージ5に記憶させる。また、データサーバ4は、診断用WS6からの検索要求に応じて、大容量ストレージ5に記憶されている複数のファイルの中から、検索条件に適ったファイルを選出し、診断用WS6に送信する。本実施形態では、CT装置を用いて、被検体である人体を体軸方向にスキャンすることによって、人体の大腸を含む腹部を表す3次元画像データが生成され、データサーバ4に保存されている。
 診断用WS6は、標準的なプロセッサ、メモリおよびストレージを備えた汎用のワークステーションに、診断支援するための画像処理プログラムを実装したものである。画像処理プログラムは、DVD等の記録媒体から、またはネットワーク上のサーバコンピュータからのダウンロードにより、診断用WS6にインストールされる。また、診断用WS6には、ディスプレイ7と、マウス、キーボード等の入力装置8が接続されている。
 診断用WS6に実装される画像処理プログラムは、各種機能を実現するプログラムモジュール群により構成され、その中には、画像処理機能を実現するためのプログラムモジュール群が含まれている。これらのプログラムはストレージに記憶され、起動時にメモリにロードされ、プロセッサにより実行される。これにより、診断用WS6は、3次元画像Vを取得する画像取得部61と、取得された3次元画像V中の複数の位置を結ぶ経路を設定する経路設定部62と、経路上の各位置における相対的な関心度を設定する関心度設定部63と、関心度に応じて3次元画像Vから生成する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部64と、判別条件に基づいて特定された仮想内視鏡画像のみを生成する画像生成部65と、仮想内視鏡画像を表示する表示制御部66として動作するようになる。
 診断用WS6の各部について以下詳細に説明する。
 なお、本実施形態の処理に先立って、大腸の検査では、CT装置等を用いて被写体の腹部の撮影が行われ、撮影された3次元画像V(ボリュームデータ)が付帯情報を付されDICOMファイルとしてデータサーバ4に転送され、大容量ストレージ5に記憶される。
 まず、初期画面において大腸の画像処理機能が選択され、所定の入力画面において患者の識別番号や検査番号などが入力されると、画像取得部61は、入力された情報をデータサーバ4へと送信し、大容量ストレージ5に保存されているファイルの検索および転送を要求する。上記要求を受けたデータサーバ4は、大容量ストレージ5内のファイルを検索し、画像取得部61に対し、要求されたファイルを転送する。画像取得部61は、データサーバ4から転送されたファイルに含まれる3次元画像Vを取得し、メモリに保存する。
 経路設定部62は、取得された3次元画像V中の複数の位置を結ぶ経路を設定する。ここでは、3次元画像Vから大腸の領域を抽出し、抽出された大腸の領域に対して芯線抽出処理を行う。そして、3次元画像Vから抽出された大腸領域と芯線とをディスプレイ7に表示し、ユーザのマウス等の操作による、大腸の芯線の端点のうち経路の開始点となる方の端点の指定を受け付ける。これにより、指定された開始点となる端点Pから他方の端点Pに至る大腸の芯線に沿った経路Pが設定される。図2は、3次元画像Vに対して設定された、開始点Pから終了点Pに至る大腸の経路Pを模式的に表したものである。
 なお、大腸の抽出処理では、まず、3次元医用画像から得られる、体軸に垂直な断面(軸位断;axial)による軸位断画像の各々について、公知の手法により、体表を基準に体外と体内領域を分離する処理を行う。具体例としては、入力された軸位断面像に対して二値化処理を施し、輪郭抽出処理により輪郭を抽出し、その抽出した輪郭内部を体内(人体)領域として抽出する方法等が挙げられる。次に、体内領域を対象に閾値による二値化処理を行い、各軸位断画像における大腸の領域の候補を抽出する。具体的には、大腸の管内には空気が入っているため、空気のCT値に対応する閾値を設定して二値化を行い、各軸位断画像の体内の空気領域を抽出する。最後に、各軸位断画像間で、抽出された体内の空気領域がつながる部分のみを大腸領域として抽出する。
 また、芯線抽出処理は、公知の手法により、抽出された大腸領域から大腸の管の中心部を通る芯線を抽出する。具体例としては、大腸の抽出の際に得られる、体内の空気領域がつながる部分のみを抽出した大腸領域を表す2値化画像に対して3次元の細線化処理を行う方法(特開2004-283373号公報等参照)等が挙げられる。
 ここで、大腸や芯線の抽出結果を手作業で修正するためのユーザインターフェースをさらに提供してもよい。具体例としては、軸位断画像毎に、抽出された大腸領域や芯線を強調表示し、ユーザが、軸位断画像毎に抽出結果が誤っている大腸領域や芯線(画像上では芯線を表す点)を、ユーザがマウス等を操作して修正を行うインターフェースが挙げられる。
 本実施形態における関心度設定部63は、上記経路設定部62により設定された、3次元画像中の複数の位置を結ぶ経路Pに、各位置における相対的な関心度を設定する。
 まず、関心度設定部63は、3次元画像内に1つ以上の関心位置Pを設定する。図2では、q=l、m、nとなる位置が関心位置として設定された例を示す。なお、図2において、l、m、nはN以下の自然数である。本実施形態においては、図2に示すように、大腸領域および経路P(大腸の芯線)をディスプレイに表示させ、経路P上の所望の点をユーザがマウス等を用いて指定することにより指定された関心位置を取得するとともに、ユーザによりキーボード等から入力された各関心位置に対応する関心度を取得する。そして、関心度設定部63は、取得した関心位置の座標とその関心度を対応付けて記憶する。ここでは、P、P、Pにおけるそれぞれの関心度をal=0.7、am=0.9、an=0.6と設定したものとする。なお、本実施形態では、経路Pの開始点Pおよび終了点Pが関心位置として自動的に設定され、それぞれの関心度として所定の値であるa0=0.8、aN=0.8が対応付けられる。
 そして、関心度設定部63は、関心位置(ここでは、P、P、P、P、P)および関心位置に対応する関心度a0、al、am、an、aNを取得し、取得した指定位置からの距離が遠くなるほど関心位置に対応する関心度より関心度が小さくなるように関心度を重み付けて設定する。
 なお、本実施形態における関心度設定部63は、以下の式(1)に基づいて、関心位置からの距離に逆比例するように関心度を設定する。なお、pは経路上の任意の点を表す。なお、P、aq(0≦q≦N)は関心位置およびこの関心位置に対応する関心度を表す。ここでは、以下の式(1)により、経路全体に対する相対的な関心度F(p)をそれぞれ算出する。なお、式(1)において、Qを関心位置の集合とする。また、本実施形態に限定されず関心位置が経路上の位置でない場合にも、関心位置の座標及び関心位置に対応する関心度が取得できれば、下記式(1)により、経路上の各位置の相対的な関心度を算出することができる。ただし、下記式(1)において、P、aqは位置pからの距離が最小の関心位置およびその関心度をそれぞれ示す。
F(p)=aq/[1+(p-P]      (1)
 さらに、本実施形態における関心度設定部63は、経路の曲率に応じて、経路の曲率が大きいほど関心度が大きくなるように経路上の位置に関心度をさらに重み付けて設定する。具体的には、経路Pの各位置における曲率を計算し、経路Pの各位置に曲率が大きくなるほど関心度が大きくなるように曲率に基づく関心度Fc(p)を設定する。そして、関心度設定部63は、先述の関心度F(p)に、曲率に基づく関心度Fc(p)をさらに重み付け加算したものを、経路全体についての相対的な関心度F(p)’(=F(p)+αFc(p)、αは所定の重み付け係数)とする。なお、ここでは、曲率に基づく関心度Fc(p)の最大値が、関心位置に対応付けられた関心度F(p)の最大値よりも小さい関心度となるように、Fc(p)の最大値とαの積算値が0.5以下になるように重み付け係数αが設定されているものとする。
 図3のaは、このようにして得られた関心度F(p)’を、関心度が大きくなるほど暗くなるように関心度を濃淡で表したイメージ図である。図3のaの例では、関心位置P、P、P、P、Pから遠ざかるほど関心度が小さくなるように関心度が設定されており、曲率に基づいてP、P、Pに示す範囲に含まれる位置に比較的大きい関心度が設定されている。
 判別条件取得部64は、関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する。本実施形態における判別条件は、生成すべき仮想内視鏡画像を特定するためのしきい値条件である。このしきい値条件に規定されたしきい値は、例えば、予め初期設定された値であってもよく、ユーザ等が入力装置8を介して設定した値でもよい。また、本実施形態の医用画像処理装置において、ユーザ等の入力装置8による入力に応じて判別条件(ここではしきい値)を変更することが可能であり、判別条件の変更に応じて、判別条件取得部64は変更後の判別条件を取得する。
 本実施形態における画像生成部65は、3次元画像Vに基づいて判別条件により特定された仮想内視鏡画像のみを生成する。具体的には、画像生成部65が判別条件に規定されたしきい値に基づいて、しきい値より大きい関心度に対応する位置を視点とする仮想内視鏡画像のみを生成する。これにより、関心度がしきい値より大きい位置から見た仮想内視鏡画像Iが3次元画像Vから生成される。なお、中心投影の具体的な方法としては、例えば、公知のボリュームレンダリング手法等を用いることができる。また、仮想内視鏡の画角(視線の範囲)や視野の中心(投影方向の中心)は、設定ファイルやプログラムの起動パラメータ、ユーザ入力等により、予め与えることができる。
 なお、図3のb、cに、図3のaの経路にそった関心位置のうち、それぞれ異なる判別条件に基づく特定関心位置を着色して示す。例えば、ユーザが必要最小限の仮想内視鏡画像を生成したい場合など、図3のcに示すように、しきい値Tを例えば0.75と設定すると、関心度F(p)’が0.75以上という判別条件を満たす、P、P、Pの付近の黒色の範囲に含まれる各位置の仮想内視鏡画像のみを生成することができる。また、ある程度広い範囲の仮想内視鏡画像を観察したい場合などは、図3のcに示すように、しきい値Tを例えば0.45と設定すると、P、P、P、P、P付近の黒色の範囲に含まれる各位置の仮想内視鏡画像を生成することができる。
 表示制御部66は、生成された仮想内視鏡画像を、画像処理ワークステーション3のディスプレイに表示させる。
 図4は、本発明の第1の実施形態となる医用画像処理の流れを示したフローチャートである。以下、図4に沿って、第1の実施形態にかかる医用画像処理の流れについて説明する。
 まず、画像取得部61は、データサーバ4から転送されたファイルに含まれる3次元画像Vを取得し、メモリに保存する(S01)。次に、経路設定部62が、各3次元画像中の大腸に沿って経路Pを設定する。(S02)。次に、関心度設定部63は、経路P内に関心位置P、P、P、P、Pとこれに対応する関心度を設定するとともに、式(1)に基づいて経路上の各位置の関心度F(p)を算出し、さらに経路の曲率に基づく経路上の各位置の関心度Fc(p)を算出し、これらを重み付け加算して、図3のaに示すように各位置の関心度F(p)’を設定する(S03)。
 次に、判別条件取得部64は、判別条件を取得する(S04)。次いで、画像生成部65は、判別条件により特定される仮想内視鏡画像Iを3次元画像Vからそれぞれ生成すると(S05)、表示制御部66は、生成された各仮想内視鏡画像Iをディスプレイに表示させる(S06)。
 以上のように、本発明の第1の実施形態では、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定し、設定された関心度に応じて3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得し、3次元画像に基づいて判別条件により特定された仮想内視鏡画像のみを生成したため、判別条件を設定するだけで、経路に対して相対的に設定された関心度に応じて、3次元画像から生成する仮想内視鏡画像を容易に特定することができる。このため、仮想内視鏡画像を選択的に生成するための作業時間と作業負荷が軽減され、読影効率の向上を支援できる。
 上記第1の実施形態では、判別条件が、「生成する仮想内視鏡画像」を特定するためのものであったが、これに換えて、第2の実施形態のように、判別条件を、「表示する仮想内視鏡画像」を特定するためのものとしてもよい。第2の実施形態は、判別条件が設定された関心度に応じて表示する仮想内視鏡画像を特定するものである点と、画像生成部65が3次元画像に基づいて管状構造の全体または一部について仮想内視鏡画像を生成するものである点と、表示制御部66が生成された仮想内視鏡画像のうち判別条件により特定された仮想内視鏡画像のみを表示するものである点のみが第1の実施形態と異なる。以下、図4のフローチャートに沿って、第2の実施形態の処理の流れを、第1の実施形態との相違点を中心に説明する。各機能ブロックの各機能や処理のうち第1の実施形態と同じものは説明を省略する。
 第2の実施形態における医用画像処理の流れは、S01~S04については、第1の実施形態と同じである。次いで、第2の実施形態における画像生成部65は、S05の処理に換えて、経路(芯線)に沿って所定の枚数および間隔で仮想内視鏡画像Iを3次元画像Vから生成する(S05’)。そして、第2の実施形態における表示制御部66は、S06の処理に換えて、生成された各仮想内視鏡画像Iのうち判別条件により特定された仮想内視鏡画像のみをディスプレイに表示させる(S06’)。
 第2の実施形態によれば、3次元画像中の複数の位置を結ぶ経路に、各位置における相対的な関心度を設定し、設定された関心度に応じて、表示する仮想内視鏡画像を特定する判別条件を取得し、生成された仮想内視鏡画像のうち判別条件により特定された仮想内視鏡画像のみを表示したため、判別条件を設定するだけで、経路に対して相対的に設定された関心度に応じて、3次元画像から表示する仮想内視鏡画像を容易に特定することができる。このため、仮想内視鏡画像を選択的に表示させるための作業時間と作業負荷が軽減され、読影効率の向上を支援できる。
 上記第1および第2の実施形態によれば、関心度設定部63が、関心位置および関心位置に対応する関心度を取得し、取得した指定位置からの距離が遠くなるほど関心位置に対応する関心度より関心度が小さくなるように関心度を重み付けて設定しているため、関心位置だけでなく、その付近にも対応する関心位置の関心の度合いに応じて関心度を好適に設定することができる。このため、関心の度合いに応じて関心位置周辺には多数の仮想内視鏡画像を生成または表示でき、関心位置から遠ざかった部分には仮想内視鏡画像の生成または表示を省略することができる。つまり、関心位置を関心位置周辺の複数の位置から重点的に観察したいというユーザの要求に好適に応えつつ、さらには、関心位置とその関心度が取得できれば、その周辺部については関心度を自動的に設定することができ、仮想内視鏡画像を選択的に生成または表示させるための作業時間と作業負荷が好適に軽減できる。
 また、第1および第2の実施形態によれば、関心度設定部が、関心位置からの距離に逆比例するように関心度を重み付けて設定するものであるため、簡易に関心位置に基づく関心度を設定することができる。
 また、第1および第2の実施形態によれば、判別条件をしきい値条件としているため、しきい値を変更するだけで仮想内視鏡画像の生成枚数または表示枚数を調整することができ、仮想内視鏡画像を選択的に生成または表示させるための作業時間と作業負荷が非常に好適に軽減できる。
 また、第1および第2の実施形態によれば、経路が3次元画像に含まれる管状構造の内側の複数の位置を結ぶ経路であり、関心度設定部が、経路の曲率に応じて、曲率が大きいほど関心度が大きくなるように関心度を重み付けて設定するものであるため、曲率が大きい部分を重点的に観察したいという要求に応えて、好適に関心度を設定することができ、容易かつ好適に曲率に応じた位置における仮想内視鏡画像を生成または表示できる。特に、仮想内視鏡画像が仮想腹腔鏡内視鏡画像である場合には、大腸の屈折部分を観察したいという医療現場の要求に適切に応えて関心度を設定することができ、大腸の屈折部分の仮想内視鏡画像を容易かつ好適に生成または表示することができる。
 また、第1および第2の実施形態によれば、表示制御部66は、判別条件の変更があった場合には、変更後の判別条件に基づく仮想内視鏡画像のみを表示させるため、柔軟にユーザの要求に応えることができるとともに、容易に仮想内視鏡画像の生成量または表示量を調節できる。
 なお、第1の実施形態と第2の実施形態を組み合わせて、画像生成部65が判別条件により特定された仮想内視鏡画像のみを生成するものであり、かつ、表示制御部66が判別条件により特定された仮想内視鏡画像のみを表示するものとしてもよい。また、この場合に、判別条件が、生成するための仮想内視鏡画像を特定するための条件と、表示するための仮想内視鏡画像を特定する条件を個々に備えたものもよい。
 第3の実施形態として、図5、図6を用いて第1の実施形態の関心度設定部63の応用例を示す。第3の実施形態における関心度設定部63は、管状構造物が分岐部を有するものである場合に、分岐部を関心位置として設定するものであり、関心度設定部63による関心度設定処理以外の各部の機能および処理は第1の実施形態と同じである。以下、第1の実施形態と第3の実施形態の相違部分を中心に説明し、同じ部分は省略する。
 図5は、分岐部を有する管状構造物である気管支に対して、周知の方法により自動的に取得された分岐部の分岐位置を関心位置P、P、Pとした例を示す図であり、図6は、関心度が大きくなるほど暗くなるように図5に対応する関心度を濃淡で表したイメージ図である。
 第3の実施形態における関心度設定部63は、図5および図6に示すように、分岐部を表す関心位置(ここでは、P、P、P)および対応する関心位置の関心度を取得し、取得した指定位置からの距離が遠くなるほど関心位置に対応する関心度より関心度が小さくなるように関心度を重み付けて設定する。なお、経路の開始点Pおよび終了点Pについては、第1の実施形態と同様に、自動的に関心位置として設定される。ここでは、関心度設定部63は、下記式(2)に基づいて、図6に示すように関心位置に対応する関心度を算出して設定する。なお、式(2)において、Q:経路上の関心位置の集合(ここでは、経路上の気管分岐部の集合)とする。
F(p)=1/[1+minPq∈Q(p-Pq]   (2)
 上記第3の実施形態においては、仮想内視鏡画像が、仮想気管支内視鏡画像であり、関心位置が3次元画像に含まれる気管支の分岐部であるため、気管支内視鏡の分岐位置を確認したいというユーザの要求に応えて適切かつ容易仮想内視鏡画像を生成または表示することができる。
 なお、第3の実施形態において分岐部の位置を関心位置として取得する方法として、手動入力された位置を取得して関心位置としてもよく、周知の方法により分岐部として判断された位置を自動的に取得して関心位置としてもよい。
 なお、上記各実施形態において、関心度設定部は、関心位置に基づく関心度および曲率に基づく関心度および分岐部に基づく関心度のいずれか一つのみを相対的な関心度として用いてもよく、関心位置に基づく関心度および曲率に基づく関心度および分岐部に基づく関心度のいずれか2つ以上を任意の組合せで組み合わせて相対的な関心度として用いてもよい。また、各実施形態における相対的な関心度を、さらなる関心度を用いてさらに重み付けしてもよい。また、経路に対して相対的な関心度を設定できるものであれば、関心位置に基づく関心度や曲率に基づく関心度や分岐部に基づく関心度など複数の関心度を任意の手法により組合せて相対的な関心度を設定することができる。また、式(1)に替えて、関心位置より遠くなるほど関心度が小さくなるような任意の式を用いることができる。また、式(2)に換えて、分岐部から遠くなるほど関心度が小さくなるような任意の式を用いることができる。
 また、上記各実施形態における経路は、上記のように手動または自動抽出処理により管状構造に沿って設定された経路でなくてもよい。例えば、図7のように、上記の医用画像処理装置を、表示制御部66が、任意の所定の初期位置における所定の表示方法による表示画像を生成して表示した状態で、画面上に上下左右前後の各方向の移動ボタンを表示し、ユーザのマウス等による移動ボタンの種類とクリックの回数に応じて、入力された移動方向にクリックされた回数分の所定の移動量移動した位置における新たな表示画像を表示するものとし、経路設定部62が表示画像の位置(表示位置)を特定する情報を記憶しておいて、これらの表示位置を表示した順に結んだものを経路として設定してもよい。このように3次元画像Vに含まれる構造物とは関わりなく任意の経路を設定した場合であっても、図7の矢印で示したような関心位置および対応する関心度を取得できれば、式(1)等に基づいて関心位置から遠くなるほど関心度が小さくなるように関心度を設定することにより、上記各実施形態と同様の効果が得られる。
 また、上記各実施形態において、周知のコンピュータ診断支援技術(CAD技術)等を用いて病変領域などの関心領域を抽出し、抽出された関心領域に含まれる点など、関心領域を代表する位置(例えば、関心領域の重心など)を関心位置としてもよい。
 また、上記各実施形態において、判別条件取得部64が、仮想内視鏡画像の生成枚数または表示枚数を取得するものであり、取得した仮想内視鏡画像の生成枚数または表示枚数に応じて判別条件を自動的に設定するものであってもよい。仮想内視鏡画像の生成枚数や表示枚数さえ取得できれば、取得した生成枚数または表示枚数の範囲内で、関心度の高い仮想内視鏡画像のみを適切かつ容易に特定して、特定された仮想内視鏡画像を生成または表示することができる。例えば、判別条件取得部64が、所定の表示時間内に所定の表示速度で表示可能な仮想内視鏡画像の画像枚数を取得し、取得した画像枚数に応じた仮想内視鏡画像を特定するように、しきい値を設定するものであってもよい。この場合には、判別条件を設定する労力を更に低減することができ、所定の表示時間内に所定の表示速度で表示可能な仮想内視鏡画像を容易に特定することができる。
 上記第1の実施形態において、判別条件取得処理は、画像生成処理の前であればいつ行ってもよい。また、第2の実施形態において、判別条件取得処理は、表示制御処理の前であればいつ行ってもよい。また、上記各実施形態は任意の組合せで組合せ可能である。
 上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。また、上記の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。
 また、図1の構成において、画像処理ワークステーション3を複数台で構成し、各ワークステーションで処理を分担してもよい。

Claims (11)

  1.  患者を撮影して得られた3次元画像を取得する画像取得部と、
     前記3次元画像中の複数の位置を結ぶ経路に、該各位置における相対的な関心度を設定する関心度設定部と、
     前記設定された関心度に応じて前記3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部と、
     前記3次元画像に基づいて前記判別条件により特定された仮想内視鏡画像のみを生成する画像生成部とを備えたことを特徴とする医用画像処理装置。
  2.  患者を撮影して得られた3次元画像を取得する画像取得部と、
     前記3次元画像中の複数の位置を結ぶ経路に、該各位置における相対的な関心度を設定する関心度設定部と、
     前記3次元画像から複数の仮想内視鏡画像を生成する画像生成部と、
     前記設定された関心度に応じて前記生成された仮想内視鏡画像のうちの表示する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部と、
     前記生成された仮想内視鏡画像のうち前記判別条件により特定された仮想内視鏡画像のみを表示させる表示制御部と、
     を備えたことを特徴とする医用画像処理装置。
  3.  前記関心度設定部が、前記3次元画像中の関心位置および該関心位置に対応する関心度を取得し、取得した前記指定位置からの距離が遠くなるほど該関心位置に対応する関心度より関心度が小さくなるように関心度を重み付けて設定するものであることを特徴とする請求項1または2のいずれか1項記載の医用画像処理装置。
  4.  前記関心度設定部が、前記関心位置からの距離に逆比例するように前記関心度を設定するものであることを特徴とする請求項3記載の医用画像処理装置。
  5.  前記経路が3次元画像に含まれる管状構造の内側の複数の位置を結ぶ経路であり、前記関心度設定部が、前記経路の曲率に応じて、曲率が大きいほど関心度が大きくなるように関心度を重み付けて設定することを特徴とする請求項1から4のいずれか1項記載の医用画像処理装置。
  6.  前記判別条件が前記仮想内視鏡画像を特定するためのしきい値条件であることを特徴とする請求項1から5のいずれか1項記載の医用画像処理装置。
  7.  前記判別条件取得部が、所定の表示時間内に所定の表示速度で表示可能な仮想内視鏡画像の画像枚数を取得し、該取得した画像枚数に応じた仮想内視鏡画像を特定するように、前記しきい値条件のしきい値を設定するものであることを特徴とする請求項1から6のいずれか1項記載の医用画像処理装置。
  8.  前記仮想内視鏡画像が仮想気管支内視鏡画像であり、前記関心位置が前記3次元画像に含まれる気管支の分岐部であることを特徴とする請求項1から7のいずれか1項記載の医用画像処理装置。
  9.  前記仮想内視鏡画像が仮想腹腔鏡内視鏡画像であることを特徴とする請求項1から8のいずれか1項記載の医用画像処理装置。
  10.  画像取得部と関心度設定部と判別条件取得部と画像生成部とを備えた医用画像診断装置に実行させる医用画像処理方法において、
     患者を撮影して得られた3次元画像を取得する工程と、
     前記3次元画像中の複数の位置を結ぶ経路に、該各位置における相対的な関心度を設定する工程と、
     前記設定された関心度に応じて前記3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する工程と、
     前記3次元画像に基づいて前記判別条件により特定された仮想内視鏡画像のみを生成する工程を実行させることを特徴とする医用画像処理方法。
  11.  コンピュータを、
     患者を撮影して得られた3次元画像を取得する画像取得部と、
     前記3次元画像中の複数の位置を結ぶ経路に、該各位置における相対的な関心度を設定する関心度設定部と、
     前記設定された関心度に応じて前記3次元画像から生成する仮想内視鏡画像を特定する判別条件を取得する判別条件取得部と、
     前記3次元画像に基づいて前記判別条件により特定された仮想内視鏡画像のみを生成する画像生成部として機能させることを特徴とする医用画像処理プログラム。
PCT/JP2013/001309 2012-03-09 2013-03-04 医用画像処理装置および方法、並びにプログラム WO2013132820A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13757250.9A EP2823764B1 (en) 2012-03-09 2013-03-04 Medical image processing device, method, and program
US14/477,738 US9390497B2 (en) 2012-03-09 2014-09-04 Medical image processing apparatus, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-052413 2012-03-09
JP2012052413A JP5932406B2 (ja) 2012-03-09 2012-03-09 医用画像処理装置および方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/477,738 Continuation US9390497B2 (en) 2012-03-09 2014-09-04 Medical image processing apparatus, method and program

Publications (1)

Publication Number Publication Date
WO2013132820A1 true WO2013132820A1 (ja) 2013-09-12

Family

ID=49116316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001309 WO2013132820A1 (ja) 2012-03-09 2013-03-04 医用画像処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US9390497B2 (ja)
EP (1) EP2823764B1 (ja)
JP (1) JP5932406B2 (ja)
WO (1) WO2013132820A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140253544A1 (en) * 2012-01-27 2014-09-11 Kabushiki Kaisha Toshiba Medical image processing apparatus
US10025479B2 (en) * 2013-09-25 2018-07-17 Terarecon, Inc. Advanced medical image processing wizard
KR20170068944A (ko) 2015-12-10 2017-06-20 삼성메디슨 주식회사 초음파 영상을 디스플레이하는 방법 및 이를 위한 초음파 장치
JP6608111B2 (ja) * 2016-09-28 2019-11-20 富士フイルム株式会社 医用画像保存再生装置および方法並びにプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135215A (ja) 1998-10-30 2000-05-16 Ge Yokogawa Medical Systems Ltd 管路案内方法および装置並びに放射線断層撮影装置
JP2004180940A (ja) * 2002-12-03 2004-07-02 Olympus Corp 内視鏡装置
JP2004283373A (ja) 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2006020874A (ja) * 2004-07-08 2006-01-26 Olympus Corp 内視鏡挿入支援装置
WO2007129616A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 内視鏡挿入支援システム及び内視鏡挿入支援方法
JP2008529578A (ja) 2005-02-08 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医用画像ビューイングプロトコル

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167180B1 (en) * 1998-02-23 2007-01-23 Algotec Systems Ltd. Automatic path planning system and method
AU2003215836A1 (en) * 2002-03-29 2003-10-13 Koninklijke Philips Electronics N.V. Method, system and computer program for stereoscopic viewing of 3d medical images
EP1709589B1 (en) * 2004-01-15 2013-01-16 Algotec Systems Ltd. Vessel centerline determination
US9037215B2 (en) * 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US20090226057A1 (en) * 2008-03-04 2009-09-10 Adi Mashiach Segmentation device and method
JP5554028B2 (ja) * 2009-07-28 2014-07-23 株式会社東芝 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP5551955B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置、方法、及びプログラム
JP5675227B2 (ja) * 2010-08-31 2015-02-25 富士フイルム株式会社 内視鏡画像処理装置および作動方法、並びに、プログラム
JP2012187161A (ja) * 2011-03-09 2012-10-04 Fujifilm Corp 画像処理装置、方法、及びプログラム
US9330490B2 (en) * 2011-04-29 2016-05-03 University Health Network Methods and systems for visualization of 3D parametric data during 2D imaging
US20130250081A1 (en) * 2012-03-21 2013-09-26 Covidien Lp System and method for determining camera angles by using virtual planes derived from actual images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135215A (ja) 1998-10-30 2000-05-16 Ge Yokogawa Medical Systems Ltd 管路案内方法および装置並びに放射線断層撮影装置
JP2004180940A (ja) * 2002-12-03 2004-07-02 Olympus Corp 内視鏡装置
JP2004283373A (ja) 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2006020874A (ja) * 2004-07-08 2006-01-26 Olympus Corp 内視鏡挿入支援装置
JP2008529578A (ja) 2005-02-08 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医用画像ビューイングプロトコル
WO2007129616A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 内視鏡挿入支援システム及び内視鏡挿入支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2823764A4

Also Published As

Publication number Publication date
JP2013183958A (ja) 2013-09-19
JP5932406B2 (ja) 2016-06-08
EP2823764A4 (en) 2015-11-11
EP2823764B1 (en) 2019-07-17
US20140369578A1 (en) 2014-12-18
EP2823764A1 (en) 2015-01-14
US9390497B2 (en) 2016-07-12

Similar Documents

Publication Publication Date Title
JP5384473B2 (ja) 画像表示装置及び画像表示方法
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
JP5675227B2 (ja) 内視鏡画像処理装置および作動方法、並びに、プログラム
JP6030435B2 (ja) 画像処理装置および画像処理方法、並びに画像処理プログラム
JP4653542B2 (ja) 画像処理装置
JP5369078B2 (ja) 医用画像処理装置および方法、並びにプログラム
JP5377153B2 (ja) 画像処理装置、画像処理プログラムおよび医用診断システム
JP5932406B2 (ja) 医用画像処理装置および方法、並びにプログラム
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5980776B2 (ja) 医用画像表示装置、医用画像表示方法
JP5976293B2 (ja) 画像処理装置及び画像処理方法
JP2012045256A (ja) 領域分割結果修正装置、方法、及びプログラム
JP6022133B2 (ja) 医療装置
JP2012016575A (ja) 画像処理装置及び医用画像診断装置
JP2004230086A (ja) 画像処理装置、画像データ処理方法、及びプログラム
JP2013192741A (ja) 医用画像診断支援装置および方法並びにプログラム
JP4686279B2 (ja) 医用診断装置及び診断支援装置
JP2014064722A (ja) 仮想内視鏡画像生成装置および方法並びにプログラム
JP4909792B2 (ja) 画像読影支援装置、方法、およびプログラム
JP2010284405A (ja) 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
JP4445792B2 (ja) 挿入支援システム
US9905004B2 (en) Image processing device, method, and recording medium having stored therein program
JP2011212099A (ja) 解剖図生成方法、装置及びプログラム
JP5523784B2 (ja) 画像処理装置および医用画像診断装置
WO2022053049A1 (zh) C形臂设备的动态透视方法、装置及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13757250

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013757250

Country of ref document: EP