WO2010024331A1 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
WO2010024331A1
WO2010024331A1 PCT/JP2009/064958 JP2009064958W WO2010024331A1 WO 2010024331 A1 WO2010024331 A1 WO 2010024331A1 JP 2009064958 W JP2009064958 W JP 2009064958W WO 2010024331 A1 WO2010024331 A1 WO 2010024331A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
lesion candidate
image
image processing
pixel
Prior art date
Application number
PCT/JP2009/064958
Other languages
English (en)
French (fr)
Inventor
詩乃 田中
白旗 崇
角村 卓是
國分 博人
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to US13/060,506 priority Critical patent/US8538113B2/en
Priority to JP2010526757A priority patent/JP5346938B2/ja
Publication of WO2010024331A1 publication Critical patent/WO2010024331A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/566Details of data transmission or power supply, e.g. use of slip rings involving communication between diagnostic systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures

Definitions

  • the present invention relates to an image processing apparatus for processing an image used for medical diagnosis.
  • CAD Computer-aided detection
  • a curvature value typified by Shape Index is calculated as a feature amount representing a shape characteristic, and abnormal shadow candidate regions are narrowed down from the shape of a curved surface indicating the density distribution of an image.
  • Patent Document 2 as a CAD user interface, features indicating abnormalities in a scanned image are highlighted or displayed so that they can be compared with the original scanned image to improve the convenience of the operator. ing.
  • Patent Document 3 As an image display method for efficiently diagnosing the inside of a luminal organ such as the large intestine, a method has been developed to generate an image in which the inside of the organ is displayed centered on the core line of the luminal organ (hereinafter referred to as a developed image).
  • the developed image has an advantage that a doctor or the like can easily find a lesion candidate because the entire surface inside the hollow organ can be viewed.
  • Patent Document 4 a technique for generating a virtual endoscopic image from volume image data obtained by stacking a plurality of tomographic images obtained by the above-described X-ray CT apparatus or the like has been developed.
  • a virtual endoscopic image is a voxel on the line of sight that emits a virtual ray (ray) from a virtual viewpoint provided inside a luminal organ, and has a luminance equal to or higher than a predetermined threshold.
  • This is a display method in which an object having a value is extracted and projected onto a projection plane, and the inside of an organ can be observed like an image obtained by an endoscope (Patent Document 4).
  • a lesion candidate area is extracted based on the curvature value as in conventional CAD, the lesion is not a lesion, such as a fold on the organ surface, or the lesion is too small (polyp diameter, etc.)
  • the size of the lesion (polyp diameter, etc.) to be detected by CAD differs depending on the purpose of diagnosis, such as the purpose of early detection of lesions and the purpose of detection of advanced lesions.
  • Various algorithms for extracting candidate lesions have been developed according to the characteristics of the lesion tissue and polyps, etc., but they are specialized for each target, but lacked versatility.
  • the present invention has been made in view of the above problems, and provides an image processing apparatus and the like that allows an operator to easily change a detection target and detect a lesion area according to a diagnostic purpose. With the goal.
  • the first invention is an image processing apparatus for detecting a lesion candidate region from a medical image, the parameter setting means for setting a parameter used for detection of the lesion candidate region,
  • An image processing apparatus comprising: a lesion candidate area detecting unit that evaluates the medical image using a parameter set by a parameter setting unit and detects a lesion candidate area based on the evaluation result.
  • a data table in which the value of the parameter is predetermined for each mode is provided, and the parameter setting means includes first input means for reading and inputting the parameter value corresponding to the selected mode from the data table. Is desirable.
  • the apparatus further comprises second input means for inputting a numerical value of the parameter value, and the parameter setting means sets the numerical value input by the second input means as the parameter value.
  • the parameter setting means includes a parameter input means for inputting a first parameter, and a second parameter calculation means for calculating a second parameter from the first parameter input by the parameter input means,
  • the lesion candidate detection unit calculates a feature amount representing the shape of the organ surface using the second parameter calculated by the second parameter calculation unit for the medical image, and based on the calculated feature amount
  • a lesion candidate region extracting unit that extracts a candidate region and a lesion candidate region extracted by the lesion candidate region extracting unit determine a false positive region by evaluating a predetermined feature amount, and are determined as a false positive region False positive deletion means for deleting a lesion candidate area.
  • the second parameter is a distance between differential reference points used when calculating a curvature value as a feature value representing the shape of the organ surface.
  • the parameter setting means includes: parameter input means for inputting a first parameter; and third parameter calculation means for calculating a third parameter from the first parameter input by the parameter input means.
  • the lesion candidate detection means calculates a feature amount representing the shape of the organ surface for the medical image, and extracts a lesion candidate region based on the calculated feature amount; and the lesion candidate region For the lesion candidate area extracted by the extracting means, a predetermined feature amount is evaluated using the third parameter calculated by the third parameter calculating means to determine a false positive area, and determined as a false positive area And false positive deletion means for deleting the lesion candidate area.
  • the third parameter includes at least one of a size indicating the size of the lesion candidate region and a shape indicating the shape of the lesion candidate region.
  • the image processing apparatus further includes a parameter correction unit that corrects the parameter set by the parameter setting unit according to the distortion of the medical image, and the lesion candidate area detection unit uses the parameter corrected by the parameter correction unit. It is desirable to evaluate the medical image and detect a lesion candidate region based on the evaluation result.
  • the medical image is a developed image in which the internal surface of the organ is displayed so as to be developed around the core line of the luminal organ.
  • the medical image is preferably a virtual endoscopic image obtained by projecting the inside of the organ onto a predetermined projection plane from a virtual viewpoint provided inside the luminal organ.
  • a second invention is an image processing method for detecting a lesion candidate area from a medical image, the parameter setting step for setting a parameter used for detection of the lesion candidate area, and the parameter set by the parameter setting step And a lesion candidate area detecting step of detecting a lesion candidate area based on an evaluation result by evaluating the medical image using the image processing method.
  • an image processing apparatus or the like that allows an operator to easily change a detection target according to a diagnosis purpose and detect a lesion area.
  • Hardware configuration diagram showing the overall configuration of the image processing system 1 A flowchart showing the overall flow of image processing in the image processing system 1 The flowchart explaining the flow of the process regarding the lesion candidate detection which the medical image processing apparatus 100 performs
  • Data configuration diagram of main memory 102 (first embodiment)
  • Diagram explaining Shape Index Diagram explaining the distance between differential reference points The figure explaining the direction of the pixel on a developed image and a developed image
  • FIG. 1 is a hardware configuration diagram showing the overall configuration of the image processing system 1.
  • the image processing system 1 includes a display device 107, a medical image processing device 100 including an input device 109, and an image database 111 connected to the medical image processing device 100 via a network 110. .
  • the medical image processing apparatus 100 is a computer for image diagnosis installed in a hospital or the like, and as a computer detection support apparatus (CAD) that analyzes medical images, detects lesion candidates from the shadows, and presents them to the doctor It functions.
  • CAD computer detection support apparatus
  • the medical image processing apparatus 100 includes a CPU 101 (Central Processing Unit) 101, a main memory 102, a storage device 103, a communication interface (communication I / F) 104, a display memory 105, an interface with an external device such as a mouse 108 (I / F). ) 106, and each unit is connected via a bus 107.
  • CPU 101 Central Processing Unit
  • main memory 102 main memory
  • storage device 103 main memory
  • communication interface communication I / F
  • display memory 105 a display memory 105
  • an interface with an external device such as a mouse 108 (I / F). )
  • the CPU 101 calls a program stored in the main memory 102 or the storage device 103 to the work memory area on the RAM of the main memory 102 and executes it, and drives and controls each unit connected via the bus 107 to perform medical image processing. Various processes performed by the apparatus 100 are realized.
  • the CPU 101 executes processing to be described later regarding lesion candidate detection (see FIGS. 2 and 3).
  • the main memory 102 is composed of ROM (Read Only Memory), RAM (Random Access Memory), and the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the ROM permanently holds a computer boot program, a BIOS program, data, and the like.
  • the RAM temporarily holds programs, data, and the like loaded from the ROM, the storage device 103, and the like, and includes a work area that the CPU 101 uses for performing various processes.
  • the storage device 103 is a storage device that reads / writes data to / from an HDD (hard disk drive) or other recording medium, and stores programs executed by the CPU 101, data necessary for program execution, an OS (operating system), and the like. .
  • As for the program a control program corresponding to the OS and an application program are stored. Each of these program codes is read by the CPU 101 as necessary, transferred to the RAM of the main memory 102, and executed as various means.
  • the communication I / F 104 includes a communication control device, a communication port, and the like, and mediates communication between the medical image processing apparatus 100 and the network 110.
  • the communication I / F 104 controls communication with the image database 111, another computer, an X-ray CT apparatus, an MRI apparatus, or the like via the network 110.
  • the I / F 106 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device.
  • an input device such as a mouse 108 may be connected via the I / F 106.
  • the display memory 105 is a buffer that temporarily stores display data input from the CPU 101.
  • the accumulated display data is output to the display device 107 at a predetermined timing.
  • the display device 107 includes a display device such as a liquid crystal panel and a CRT monitor, and a logic circuit for executing display processing in cooperation with the display device, and is connected to the CPU 101 via the display memory 105.
  • the display device 107 displays the display data stored in the display memory 105 under the control of the CPU 101 on the display device.
  • the input device 109 is an input device such as a keyboard, for example, and outputs various instructions and information input by the operator to the CPU 101.
  • the operator interactively operates the medical image processing apparatus 100 using external devices such as the display device 107, the input device 109, and the mouse 108.
  • the network 110 includes various communication networks such as a LAN (Local Area Network), a WAN (Wide Area Network), an intranet, the Internet, and the like, and is connected to the medical image processing apparatus 100 with the image database 111, a server, other information devices, and the like. Mediate.
  • LAN Local Area Network
  • WAN Wide Area Network
  • intranet the Internet
  • the image database 111 stores and stores medical images taken by devices that take images used for medical diagnosis, such as an X-ray CT apparatus and an MRI apparatus.
  • a server such as a hospital or a medical center Is provided.
  • the image database 111 is configured to be connected to the medical image processing apparatus 100 via the network 110, but the image database 111 is provided in, for example, the storage device 103 in the medical image processing apparatus 100. You may do it.
  • the medical image handled by the image processing system 1 of the present invention includes a tomographic image of a subject, a developed image of a luminal organ, and a virtual endoscopic image.
  • the developed image displays the inside of the organ so as to develop around the core line (path line) of the luminal organ (see FIG. 6), and the virtual endoscopic image is a virtual image provided inside the luminal organ.
  • the inside of the luminal organ is displayed from a simple viewpoint by a display method based on the central projection method (see FIG. 20 (b)).
  • FIG. 2 is a flowchart showing the overall flow of image processing in the image processing system 1.
  • FIG. 3 is a flowchart for explaining a flow of processing relating to lesion candidate detection executed by the medical image processing apparatus 100.
  • FIG. 4 is a diagram showing data held in the RAM of the main memory 102 when image processing and lesion candidate detection processing are executed.
  • FIG. 5 is a diagram illustrating an example of the data table 2 in which the value of the parameter P1 is set in advance for each mode according to the present embodiment.
  • FIG. 6 is a display example of the developed image 71 and the parameter setting window 72.
  • FIG. 7 is a diagram for explaining the Shape Index.
  • FIG. 8 is a diagram for explaining the distance between the differential reference points.
  • the CPU 101 of the medical image processing apparatus 100 reads a program and data related to image processing and lesion candidate detection processing from the main memory 102, and executes image processing and lesion candidate detection processing based on the program and data.
  • the image data is fetched from the image database 111 or the like via the network 110 and the communication I / F 104 and stored in the storage device 103 of the medical image processing apparatus 100.
  • the CPU 101 of the medical image processing apparatus 100 performs a process of reading image data.
  • the CPU 101 displays an image selection window displaying a plurality of selected images in a list or thumbnail display on the display device 107, and accepts selection of an image from the operator.
  • the CPU 101 reads the selected image data from the storage device 103 and stores it in the main memory 102 (step S101, 102a in FIG. 4).
  • image data of a lumen region is selected.
  • the image data 102a read at this stage is volume image data obtained by stacking a plurality of tomographic images.
  • the CPU 101 creates a display image from the image data 102a read in step S101.
  • a developed image is created as a display image.
  • the CPU 101 acquires lumen wall coordinate data 102b from the image data 102a.
  • the lumen wall coordinate data 102b includes coordinates (x, y) in the real space of each point (each pixel) on the lumen wall displayed as a developed image, and the vicinity of the center of the lumen from the lumen surface at that coordinate.
  • a distance f (x, y) on a three-dimensional coordinate to a passing line hereinafter referred to as a route line).
  • the distance f (x, y) is called depth data, and is created by the CPU 101 when creating a developed image.
  • the CPU 101 holds the acquired lumen wall coordinate data 102b in the main memory 102 (step S102, 102b in FIG. 4).
  • Patent Document 3 Japanese Patent No. 3627066
  • the CPU 101 detects a lesion candidate based on the lumen wall coordinate data 102b acquired in step S102 (step S103; to the lesion candidate detection process in FIG. 3).
  • the CPU 101 sets parameters used for the lesion candidate detection process (step S201).
  • the parameter set in step S201 is referred to as parameter P1.
  • parameter P1 a value indicating the length of the lesion (polyp diameter), area, volume, etc. can be considered, but in the present embodiment, as an example, the lesion to be detected (polyp, etc.)
  • the length (polyp diameter) is shown.
  • Parameter P1 is used to calculate parameter P2 (distance between differential reference points) used in curvature calculation in step S202, and parameters P3 (area diameter threshold) and P4 (circularity threshold) used in false positive deletion processing in step S204. Is also used.
  • the parameter P2 described above represents the distance between the differential reference points, and is given by the following equation (1).
  • the parameter P3 described above represents a threshold value of the diameter (region diameter) of the extracted lesion candidate region, and is expressed by the following equation (2).
  • the parameter P4 described above represents the circularity threshold value of the extracted lesion candidate region, and is expressed by the following equation (3).
  • A, B, and C are constants.
  • the CPU 101 may read and set a predetermined value for each mode from the data table 2 of FIG. 5, or an operator inputs an arbitrary numerical value from the input device 109. It is good.
  • an object for example, a polyp image
  • the size or shape of the object is determined by an input operation from a pointing device such as the mouse 108 or the input device 109.
  • the magnitude of the parameter P1 may be input.
  • the CPU 101 sets a value corresponding to the size (diameter) or shape indicated by the object as the parameter P1, and holds the parameter P1 in the main memory parameter P1 (102c in FIG. 4).
  • the default value of the parameter P1 is “6”, “10”, “8” for each mode such as “early detection” mode, “normal” mode, and “manual” mode.
  • “Display ON / OFF” in the data table 2 indicates “ON / OFF” of the mode switch, “1” indicates the “ON” state, and “0” indicates the “OFF” state.
  • FIG. 6 shows a state where a developed image 71 is displayed at the top of the display screen of the display device 107 and a parameter setting window 72 is displayed at the bottom.
  • the developed image 71 is actually the shade of the organ surface expressed in gray scale (shading information), but in order to clearly show the figure, it is assumed to be represented by a solid line in FIG. That is, the region sandwiched between the upper and lower two lines 711 corresponds to the inner surface of the luminal organ, and a plurality of vertical lines 712 drawn in the region represent folds on the organ surface.
  • a selectable mode list 721 is displayed together with a check button, and a numerical value input frame 722 for the parameter P1 is displayed.
  • the “display” button 723 is pressed by the mouse 108 or the like after the parameter P1 is set.
  • the CPU 101 performs lesion candidate detection processing. (Steps S202 to S204) are executed, and lesion candidate areas are identified and displayed on the developed image 71.
  • the parameters P2, P3, and P4 are calculated based on the parameter P1 by the above formulas (1), (2), and (3), and the main memory 102 (FIG. 4d, 102d, 102e, 102f).
  • the CPU 101 uses the depth data f (x, y) (102b in FIG. 4) of the developed image 71 to each pixel of the developed image 71.
  • the first feature amount of p is calculated.
  • the first feature amount is, for example, a curvature value.
  • the curvature value is represented by, for example, ShapeShaIndex (step S202).
  • the CPU 101 holds the calculated curvature value in the main memory 102 (102g in FIG. 4).
  • Shape Index takes a value that continuously changes from 0 to 1, and each value corresponds to a different curved surface state.
  • the concave hemisphere corresponds to the Shape Index value “0”, and as the Shape Index value increases from “0”, the concave half cylinder, the saddle-shaped surface / plane, the convex half cylinder, the convex shape Represents the hemisphere. In the convex hemisphere, this corresponds to a Shape Index value of “1”.
  • the Shape Index is calculated by the following equation (4).
  • ⁇ max and ⁇ min are the maximum value and the minimum value of the principal curvature for each point on the curved surface.
  • the maximum value ⁇ max and the minimum value ⁇ min of the main curvature are calculated by the following equation (5).
  • fxx, fyy, and fxy are the second partial derivatives of f (x, y) at the target pixel p, and the coordinates (x, y) of the target pixel p and the depth data f (x, y) at the pixel p y) and the following equation (6).
  • P2 is the distance between the differential reference points calculated by the above equation (1).
  • the distance between the differential reference points represents the distance between the pixel referred to when calculating the second partial derivative of Equation (6) and the pixel of interest p.
  • FIG. 8 is a diagram for explaining the distance between the differential reference points.
  • the value of the curvature depends on the distance between the differential reference points.
  • the curvature value takes the maximum value when the distance between the differential reference points is about the same as the width of the curved surface (unevenness).
  • the curvature of the substantially flat surface is obtained, and the Shape Index takes a value in the vicinity of 0.5.
  • the slope of the convex surface can be captured when calculating the second-order partial derivative. Indicates a shape close to a convex hemisphere.
  • the CPU 101 performs threshold processing based on the calculated Shape Index (curvature value 102g) for each pixel p, and extracts a lesion candidate region (step S203).
  • the CPU 101 holds the extracted lesion candidate area in the main memory (lesion candidate area 102h in FIG. 4).
  • a lower limit value of Shape Index is set, and the CPU 101 sets a pixel having a curvature value equal to or higher than the lower limit value as a lesion candidate area.
  • the lower limit value is, for example, 0.5.
  • the calculated curvature value is small, so it is excluded from the lesion candidate and is not extracted.
  • the CPU 101 obtains the second and third feature amounts for each extracted lesion candidate region (target region), and stores them in the main memory 102 (the feature amount (region diameter) 102i in FIG. Degrees) 102j).
  • the second feature amount is, for example, the region diameter d of the lesion candidate region
  • the third feature amount is the circularity k of the lesion candidate region.
  • the CPU 101 performs the following evaluation on the second and third feature amounts for the attention area, and when it is determined that the determination result is false positive, from the lesion candidate area listed in step S203, The attention area is deleted (step S204).
  • the CPU 101 when evaluating the area diameter d that is the second feature amount, refers to the coordinate data of the three-dimensional real space for each point on the surface of the lumen, and determines each lesion candidate area.
  • the area diameter d is calculated.
  • the CPU 101 compares the calculated region diameter d (102i in FIG. 4) with the parameter P3 (Equation (2); 102e in FIG. 4) set in step S201, and determines that d ⁇ P3 is false positive, The attention area is deleted from the lesion candidate area 102h.
  • the CPU 101 when evaluating the circularity k that is the third feature amount, refers to the coordinate data of the three-dimensional real space for each point on the surface of the lumen, and determines each lesion candidate area. Calculate circularity k.
  • the CPU 101 compares the calculated circularity k (102j in FIG. 4) with the parameter P4 (Equation (3); 102f in FIG. 4) set in step S201, and determines that it is false positive if k ⁇ P4 holds ( The false positive region 102k in FIG. 4 is deleted from the lesion candidate region 102h.
  • the area diameter d and the circularity k are evaluated as feature quantities.
  • the present invention is not limited to this. You may make it determine a false positive area
  • Curvedness may be used as a feature amount used in the false positive deletion process in step S204.
  • Curvedness indicates the size of the curved surface. Among the same convex surfaces, those having a large Curvedness value indicate small convex surfaces, and those having a small Curvedness value indicate large convex surfaces. Therefore, Curvedness can be used as a measure of the polyp diameter to be evaluated. Curvedness is given by the following equation (7).
  • the average value of the Curvedness of the entire lesion candidate region of interest is compared with a predetermined value (a value proportional to the reciprocal of the parameter P1) to determine whether it is a false positive.
  • a predetermined value a value proportional to the reciprocal of the parameter P1
  • step S204 When the false positive deletion process in step S204 is completed and the false positive is deleted, the process proceeds to step S104 in FIG.
  • the CPU 101 identifies and displays the lesion candidate area on the developed image 71 using the mark 713 or the like (step S104; see FIG. 6), and ends the image processing.
  • the medical image processing apparatus 100 executes a process of detecting a lesion candidate region from an image of an organ surface.
  • the lesion candidate detection process parameters used for detection of a lesion candidate region are set for each mode, or an operator can input a numerical value or set it using a GUI.
  • the parameter handles four types of parameters, P1, P2, P3, and P4.
  • P1 is a polyp diameter
  • P2 is a distance between differential reference points
  • P3 is a region diameter threshold
  • P4 is a circularity.
  • the threshold is used.
  • the CPU 101 calculates the feature amount (curvature value) of the shape for each point on the organ surface using the set parameter (P2), and sets a point corresponding to the predetermined shape as a lesion candidate region.
  • the CPU 101 calculates feature amounts such as a region diameter and a circularity for the detected lesion candidate region, determines whether these feature amounts correspond to a lesion candidate using parameters (P3, P4), Delete those that are positive. Then, the CPU 101 identifies and displays the lesion candidate areas excluding the false positive areas on the image.
  • parameters related to the detection of lesion candidate areas are set by mode or by the operator, so that it is possible to easily detect the lesion candidate areas by changing the target according to the purpose of diagnosis. Can be improved.
  • the parameter (P1) initially set by the operator from the parameter (P1) initially set by the operator, the parameter (distance between the differential reference points of P2) used for calculating the curvature value, and the feature in the false positive deletion process Parameters (P3 region diameter, P4 circularity) used for quantity evaluation are calculated, and one parameter P1 is used secondarily.
  • the parameters (P2, P3, P4) used to determine other feature values are calculated from the set one parameter (P1), it is not necessary to input many parameters, and the parameter setting is complicated. Can be reduced. Further, if the parameter to be set by the operator is high visibility indicating the size and shape of the lesion, such as a polyp diameter, the operator can easily operate the CAD sensuously. Furthermore, since GUI is used to input parameters, operability is improved.
  • the parameter P1 is the length of the lesion
  • the parameter P2 is the distance between the differential reference points, and they are set in association with each other.
  • the medical image illustrated in the first embodiment is a developed image of a luminal organ, but is not limited thereto, and various medical images such as a tomographic image and a three-dimensional volume image of a subject are used. May be used. Even in such a case, the medical image processing apparatus 100 can set parameters related to lesion candidate detection, and detects lesion candidates using the set parameters.
  • P1 is input as a parameter
  • the present invention is not limited to this, and other parameters (P2, P3, P4) can also be set to predetermined values for each mode or values desired by the operator. You may make it input.
  • the parameter is corrected based on the distortion of the developed image when setting the parameter used to detect the lesion candidate.
  • the pixel size (dy in FIG. 9) in the direction perpendicular to the longitudinal direction of the luminal organ (y direction; hereinafter referred to as “short direction”) is the longitudinal direction (x direction) of the developed image.
  • the curve of the lumen is assigned to the pixels in the short direction in increments of a predetermined angle. Since the circumference of the cross section differs depending on the direction, the pixel size dy varies and this becomes distortion.
  • the distance to the adjacent x position (dx in FIG. 9) differs between the inside and outside of the curve, resulting in image distortion.
  • the pixel distortion calculation process shown in FIG. Pixel distortion is calculated, and distortion adjustment parameters (P2_x, P2_y) obtained by correcting the parameter P2 based on the calculated pixel distortion are calculated.
  • FIG. 9 is a diagram for explaining the developed image 71 of the luminal organ and the orientation of the pixels on the developed image 71.
  • the path line in the longitudinal direction of the luminal organ is the x direction
  • the direction perpendicular to the path line (short direction) is the y direction.
  • An actual organ surface length corresponding to one side of the pixel 715 is referred to as a pixel size
  • a pixel size in the x direction is represented as dx
  • a pixel size in the y direction is represented as dy.
  • the pixel distortion is obtained as a ratio (dx / dy) of each pixel size in the x direction and the y direction of the target pixel.
  • FIG. 10 is a flowchart for explaining the flow of pixel distortion calculation processing.
  • FIG. 11 is a diagram illustrating data held in the RAM of the main memory 102 when the pixel distortion calculation process is executed.
  • FIG. 12 is a diagram illustrating the path radius R.
  • FIG. 13 is a diagram for explaining the distance between the cross section of interest (lumen surface S n ) and the adjacent cross section (lumen surface S n + 1 ).
  • FIG. 14 is a diagram illustrating the relationship between the position of the lumen surface and the pixel size in the longitudinal direction.
  • the CPU 101 of the medical image processing apparatus 100 reads a program and data related to the pixel distortion calculation process illustrated in FIG. 10 from the main memory 102, and executes the pixel distortion calculation process based on the program and data. It is assumed that the image data is taken in from the image database 111 or the like via the network 110 and stored in the storage device 103 of the medical image processing apparatus 100 at the start of execution of the following processing.
  • the CPU 101 of the medical image processing apparatus 100 stores, from the storage device 103, expanded image data 102l, 3D real space coordinate data 102m storing 3D real space coordinates of corresponding points of the expanded image,
  • the coordinate data 102n of a point on the route line (hereinafter referred to as a route point) is read and stored in the main memory 102 (step S301; 102l, 102m, 102n in FIG. 11).
  • the coordinate data 102n of path points, the cross section of the pixel rows arranged in the lateral direction of the expanded image 71 and the luminal surface (hereinafter, referred to as target tube luminal surface S n.) And is the path line perpendicular 3D real space coordinate data of a point.
  • the path points to a route point in the target tube luminal surface S n is called a target path points Q n (see FIG. 12).
  • the CPU 101 sequentially scans each pixel on the developed image 71 to calculate pixel distortion (dx / dy) at each point (pixel).
  • the flowchart of FIG. 10 shows an example in which scanning is performed from the short direction on the developed image 71 and then scanning is performed in the longitudinal direction.
  • the CPU 101 Since the pixel distortion generated in the developed image 71 differs depending on the curve of the path line, that is, the size of the curve of the lumen, the CPU 101 first determines the size of the curve.
  • the CPU 101 obtains the route radius R using the coordinate data 102n of the route point for the curved region of the lumen, and holds it in the main memory 102 (step S302, 102o in FIG. 11).
  • the path radius R will be described with reference to FIG. FIG. 12 shows a curved region of the luminal organ 8.
  • a line passing near the center of the luminal organ 8 is a route line 82.
  • the route radius R is a radius R of a circle passing through the three points of the route point of interest Q n and route points Q n ⁇ N and Q n + N separated by a predetermined number N.
  • the CPU 101 determines the degree of bending of the luminal organ 82 (step S303). For example, when the route radius R is greater than or equal to a predetermined threshold value Rt, it is determined that the route point of interest Q n is on a gentle curve, and when the route radius R is less than the predetermined threshold value Rt, the route point of interest Q n is abrupt. It is determined that it is on the curve.
  • step S303 gentle curve
  • the distortion due to the curve is small and not considered, and the CPU 101 considers the pixel distortion in the short direction.
  • step S304 the pixel size dx in the x direction at the target pixel p is obtained and stored in the main memory 102 (102p in FIG. 11).
  • the pixel size dx is expressed by the following equation (8).
  • step S305 the pixel size dy in the lateral direction at the target pixel p is obtained and stored in the main memory 102 (102q in FIG. 11).
  • the pixel size dy is expressed by the following equation (9).
  • the CPU 101 calculates pixel distortion dx / dy based on the pixel sizes dx and dy calculated in steps S304 and S305 (step S306) and stores them in the array (102r in FIG. 11).
  • step S303 when it is determined that the target route point Q n is on a steep curve (step S303; steep curve), pixel distortion is caused in the route line direction (longitudinal direction) on the developed image 71 due to the influence of the curve. Arise. The degree of pixel distortion due to the curve is determined by whether the pixel is inside or outside the path line curve.
  • the luminal surface S n represents the path line direction in the vertical direction to the paper surface, the projection plane t each point B n of the edge of the lumen area at the luminal surface S n (luminal surface 83)
  • a state of projection to 0 is shown.
  • a point Q n shown in FIG. 14 is a route point of interest, a point B n is a point on the lumen surface 83, and a point O corresponds to the point O (center of a circle fitted to the route line 82) in FIG.
  • That distance between the projected coordinates of the corresponding angle of the target tube luminal surface S n and the adjacent luminal surface S n + 1 corresponds to the pixel size dx of the expanded image corresponding to the point B n.
  • the CPU 101 first calculates the distance l 0 between the target route point Q n and the adjacent route point Q n + 1 and stores it in the main memory 102 (102s in FIG. 11).
  • the distance l 0 is obtained from the three-dimensional real space coordinate data 102n of the route point read in step S301 (step S307).
  • the CPU 101 calculates an average diameter r of a cross section (lumen surface S n ) orthogonal to the target route point Q n . That is, the CPU 101 refers to the three-dimensional real space coordinates for each pixel on the developed image having the same longitudinal direction (x direction) coordinates as the target pixel, and calculates the distance from the target route point Q n . Then, the average of the calculated distances is obtained and set as the average radius r of the lumen (step S308). The CPU 101 holds the calculated average radius r in the main memory 102 (102t in FIG. 11). This distance (average radius r) can also be obtained from depth data.
  • step S309 the CPU 101 obtains the projection coordinate q of the target pixel p.
  • the projected coordinates are calculated by the following equation (10).
  • the value of the angle ⁇ is obtained from the center coordinates of the path radius R (the coordinates of the point O), the coordinates of the path line (the coordinates of the point Q n ), and the coordinates of the lumen surface (the point B). (102u in FIG. 11).
  • the CPU 101 calculates a pixel size dy in the y direction at the target pixel p (step S310; 102q in FIG. 11).
  • the pixel size dy is calculated by the following equation (12) as in step S305.
  • the CPU 101 calculates pixel distortion dx / dy based on the pixel sizes dx and dy calculated in steps S309 and S310 (step S311) and stores them in the array (step S312; 102r in FIG. 11).
  • the CPU 101 repeats the processing from step S302 to step S312 for each pixel of the developed image, and calculates the pixel distortion dx / dy for all the pixels, and ends the pixel distortion calculation process.
  • the pixel distortion dx / dy of each pixel calculated by the pixel distortion calculation process is referred to when performing curvature calculation in step S202 of the lesion candidate area detection process of FIG.
  • the CPU 101 calculates strain adjustment parameters P2_x and P2_y by the following equation (13).
  • P2_x is a distance between differential reference points in the longitudinal direction
  • P2_y is a distance between differential reference points in a direction perpendicular to the longitudinal direction.
  • the following equation (14) is calculated using the strain adjustment parameters P2_x and P2_y, and the curvature index is obtained by calculating the shape index using the above equations (4), (5), and (6).
  • strain adjustment parameters P2_x and P2_y can also be calculated by the following equation (15).
  • FIG. 15 is a diagram illustrating a display example of a lesion candidate area obtained when a lesion candidate detection process is performed using the strain adjustment parameters P2_x and P2_y.
  • lesion candidate areas 713a, 713b, and 713c are identified and displayed.
  • a mark 713a indicates a lesion candidate area in an area with little distortion
  • a mark 713b indicates a lesion candidate area distorted in the horizontal direction
  • a mark 713c indicates a lesion candidate area distorted in the vertical direction.
  • a region that is laterally distorted due to the influence of a curve in the real space of the luminal organ is a circular polyp in the real space, but if the lesion candidate is not detected using the strain adjustment parameter, the lesion candidate Not detected.
  • the shape in the real space is correctly evaluated by performing curvature calculation using the strain adjustment parameters P2_x and P2_y as in the present embodiment.
  • the shape in the real space is correctly evaluated for the region distorted in the vertical direction, such as the mark 713c.
  • the CPU 101 executes pixel distortion calculation processing to perform the longitudinal direction and the short direction of each pixel.
  • the distortion amount (dx / dy) is calculated, the parameter is corrected using the distortion amount, and the strain adjustment parameters (P2_x, P2_y) are calculated.
  • the CPU 101 performs curvature calculation using the distortion adjustment parameter, and detects a lesion candidate area.
  • the organ surface shape in the real space can be correctly evaluated, and the detection accuracy of the lesion candidate region is improved.
  • processing is performed in consideration of distortion of the developed image when setting parameters.
  • the image distortion due to the curve is adjusted.
  • a process for distortion of the developed image in a steeper curve area will be described.
  • FIG. 16 is a diagram for explaining cross-sectional correction in a sharp curve region.
  • an arbitrary cross-section concentration point O ′ is given to a position outside the lumen region 81 and inside the curve of the route line 82, and the cross section so as to pass through the line segment O'Q n connecting the centralized point O 'and target path points Q n, taking the method of selecting the target tube luminal surface S n.
  • the target tube luminal surface S n may be the tangent of the path lines in the target path points Q n not orthogonal, thus greatly inclined. Therefore, the distance between the projected coordinates of the corresponding angle of the target tube luminal surface S n and the adjacent luminal surface S n + 1 may not be able to linearly approximated as technique according to the second embodiment.
  • the pixel of interest and the pixel in contact with the longitudinal direction of the pixel of interest p on the developed image (hereinafter referred to as the adjacent pixel p).
  • the adjacent pixel p the pixel of interest and the pixel in contact with the longitudinal direction of the pixel of interest p on the developed image
  • FIG. 17 is a diagram for explaining the positional relationship of each point in the original luminal organ 8 of the developed image that is a lesion detection target in the third embodiment.
  • the luminal surface and S the target pixel in n p the pixel p next corresponding to the pixel of interest p in the adjacent luminal surface S n + 1, the three-dimensional
  • the corresponding points in the real space are referred to as target pixel corresponding points p ′ and p next ′.
  • the pixel distortion calculation process shown in FIG. Pixel distortion (dx / dy) is calculated, and distortion adjustment parameters (P2_x, P2_y) obtained by correcting the parameter P2 based on the calculated pixel distortion (dx / dy) are calculated.
  • FIG. 18 is a flowchart for explaining the flow of pixel distortion calculation processing in the third embodiment.
  • FIG. 19 is a diagram illustrating data held in the RAM of the main memory 102 when the pixel distortion calculation process is executed.
  • the CPU 101 of the medical image processing apparatus 100 reads a program and data related to the pixel distortion calculation process shown in FIG. 18 from the main memory 102, and executes the pixel distortion calculation process based on the program and data. It is assumed that the image data is taken in from the image database 111 or the like via the network 110 and stored in the storage device 103 of the medical image processing apparatus 100 at the start of execution of the following processing.
  • step S301 of the pixel distortion calculation process shown in FIG. 18 the CPU 101 of the medical image processing apparatus 100, as in step S301 of the pixel distortion calculation process shown in FIG.
  • the three-dimensional real space coordinate data storing the three-dimensional real space coordinates and the coordinate data of the route point are read and stored in the main memory 102 (step S401, 102l in FIG. 19; 102m, 102n).
  • the CPU 101 sequentially scans each pixel on the developed image 71 to calculate pixel distortion (dx / dy) at each point (pixel).
  • the flowchart of FIG. 18 shows an example in which scanning is performed from the short direction on the developed image and then scanning is performed in the longitudinal direction.
  • the pixel distortion generated in the developed image 71 differs depending on the curve of the path line 82, that is, the curve size of the luminal organ 8, so the CPU 101 first determines the curve size. To do.
  • the CPU 101 calculates the distance between the cross-section concentration point O ′ and the target route point Q n ′ as the route radius R and stores it in the main memory 102 (102o ′ in FIG. 19). Then, the CPU 101 determines the size of the curve based on the size of the route radius R (step S402). When the route radius R is large, the region is a gentle curve, and when the route radius R is small, the region is a sharp curve.
  • the CPU 101 determines the degree of bending based on the calculated path radius R (step S403). For example, when the route radius R is greater than or equal to a predetermined threshold value Rt, it is determined that the route point of interest Q n is on a gentle curve, and when the route radius R is less than the predetermined threshold value Rt, the route point of interest Q n is abrupt. It is determined that it is on the curve.
  • step S403 gentle curve
  • steps S304, S305, and S306 in steps S304, S305, and S306 in FIG.
  • step S404 step S405, 102p and 102q in FIG. 19
  • step S406 step S410; 102r in FIG. 19
  • step S407 the CPU 101 obtains the arc length (pixel size dx) between the two points of interest pixel corresponding points p ′ and p next ′ shown in FIG.
  • the CPU 101 obtains the distance p′O ′ based on the three-dimensional real space coordinate data of the target pixel corresponding point p ′ and the cross-sectional concentration point O ′, and sets this as the radius R ′.
  • the CPU 101 holds the calculated radius R ′ in the main memory 102 (102x in FIG. 19).
  • the CPU 101 obtains an angle ⁇ formed by three points of the target pixel corresponding point p ′, the cross-sectional concentration point O ′, and the adjacent pixel corresponding point p next ′, and stores it in the main memory 102 (102y in FIG. 19).
  • the CPU 101 obtains the arc length from the following equation (17) and holds it in the main memory 102 (step S407; 102p in FIG. 19).
  • the CPU 101 calculates the pixel size dy in the short side direction of the target pixel p from the following equation (18) and holds it in the main memory 102 (step S408; 102q in FIG. 19).
  • the CPU 101 calculates pixel distortion dx / dy based on the pixel sizes dx and dy calculated in steps S407 and S408 (step S409) and stores them in the array (step S410; 102r in FIG. 19).
  • the CPU 101 repeats the processing from step S402 to step S410 for each pixel of the developed image, and after calculating the pixel distortion dx / dy for all the pixels, the pixel distortion calculation process ends.
  • the pixel distortion dx / dy of each pixel calculated by the pixel distortion calculation process is referred to when performing curvature calculation in step S202 of the lesion candidate area detection process of FIG. Since the calculation of the strain adjustment parameters (P2_x, P2_y) is the same as the second embodiment, description thereof is omitted.
  • the lesion candidate area can be accurately identified and displayed regardless of the distortion of the developed image, as in the display example shown in FIG. 15 (the lesion candidate area 713a in FIG. 15). 713b, 713c).
  • the pixel size dx in the longitudinal direction of the luminal organ is between the adjacent pixel corresponding points. Calculated as arc length. Therefore, even in a developed image that has been subjected to cross-sectional correction due to a sharp curve, the shape in the real space can be correctly evaluated, and the detection accuracy of the lesion candidate area is improved.
  • the method for obtaining the pixel size dx with an arc is a method of drawing a relatively gentle curve that is not subjected to cross-sectional correction as in the developed image of the second embodiment. You may make it apply about an expansion
  • the example of correcting the parameter P2 representing the distance between the differential reference points has been shown, but the distortion correction may be similarly performed for the parameter P3 and the parameter P4. .
  • FIG. 20 is a diagram for explaining a virtual endoscopic image.
  • FIG. 20 (a) is a diagram showing the longitudinal direction of the luminal organ in the vertical direction
  • FIG. 20 (b) is an example of a virtual endoscopic image for the luminal organ of FIG. 20 (a).
  • a virtual endoscopic image is a planar view of a view from a given range of directions ( ⁇ view ) as a viewing angle from an arbitrary viewpoint p 0 set inside the lumen region v shown in FIG. image 75 projected on the projection plane s 0 is a (FIG. 20 (b)).
  • the pixel value of each point (hereinafter referred to as “target pixel p”) of the virtual endoscopic image 75 is a shadow value given based on the distance between the viewpoint p 0 and the target pixel corresponding point p ′. .
  • the target pixel corresponding point p ′ is, for example, a voxel that reaches a ray when a virtual ray called a ray is irradiated from the viewpoint p 0 to the target pixel p on the three-dimensional real space coordinates.
  • the voxel corresponding to the target pixel corresponding point p ′ has a pixel value within a predetermined threshold range.
  • FIG. 21 is a diagram for explaining the distortion caused by the distance from the viewpoint of the projection object
  • FIG. 22 is a diagram for explaining the distortion generated at the end of the virtual endoscopic image.
  • the size of the projected image varies depending on the distance from the viewpoint p 0 .
  • the two objects T1, T2 of the same size, arranged at different locations distances be the same direction with respect to the projection plane s 0 from the viewpoint p 0.
  • the distance from the view point p 0 to the object T1 and L 1 the distance from the view point p 0 to the object T2 and L 2.
  • the sizes of the images projected on the projection plane s 0 are denoted by ⁇ 1 and ⁇ 2 , respectively.
  • the object T1 closer to the viewpoint p 0 is a larger image on the projection plane s 0 ( ⁇ 1 > ⁇ 2 ). This is a distortion of the image. Therefore, when calculating the curvature, it is necessary to set the differential reference point distance (parameter P2) at the target pixel p so that the distance between the differential reference points becomes equal at the target pixel corresponding point p ′.
  • the angle formed by each normal line is defined as ⁇ .
  • the sizes of the images projected on the projection plane s 0 are denoted by ⁇ 3 and ⁇ 4 , respectively. Comparing ⁇ 3 and ⁇ 4 , the larger the angle ⁇ , the larger the image on the projection plane s 0 ( ⁇ 4 > ⁇ 3 ). This is a distortion of the image. Therefore, at the end of the virtual endoscopic image 75, the value of the distance between the differential reference points (parameter P2) needs to be corrected to a value larger than that at the center of the image.
  • FIG. 23 is a diagram for explaining the central projection method.
  • FIG. 24 is a flowchart showing a flow of differential reference point distance calculation processing in the virtual endoscopic image 75.
  • FIG. 25 is a diagram illustrating data held in the RAM of the main memory 102 when the differential reference point distance calculation processing is executed.
  • p 0 is the viewpoint
  • s 0 is the projection plane
  • is the length of one side (pixel size) of a pixel located at the center of the projection plane s 0 (hereinafter referred to as “center pixel”)
  • L 0 is the distance between the viewpoint p 0 and the center pixel
  • theta 0 is centered viewpoint p 0, it is the angle of the ends and the viewpoint p 0 of the center pixel.
  • p is the target pixel
  • ⁇ ′ is the length of the projection target T1 at the target pixel corresponding point p ′
  • L ′ is the distance between the viewpoint p 0 and the target pixel corresponding point p ′
  • is centered on the viewpoint p 0 . Is an angle formed by both ends of the target pixel p and the viewpoint p 0 .
  • the CPU 101 sets the coordinates of the viewpoint p 0 and the position and orientation of the projection plane s 0 and holds them in the main memory 102 (step S501; 102A and 102B in FIG. 25).
  • Projection surface s 0 can be set to the distance L 0 from the viewpoint p 0, and the vector connecting the view point p 0 and the center pixel, from.
  • the CPU 101 calculates the length (pixel size ⁇ ) of one side of the central pixel of the projection plane s 0 and stores it in the main memory 102 (step S502; 102C in FIG. 25).
  • the pixel size ⁇ is obtained from the following equation (19).
  • step S506 for each point on the projection plane s 0 (pixel of interest p), and repeats the processing from step S503 ⁇ step S506 follows.
  • the CPU 101 acquires the coordinates of the target pixel corresponding point p ′ projected onto the target pixel p (step S503). That is, the CPU 101 irradiates the target pixel p with the ray from the viewpoint p 0 and acquires the coordinates of the irradiation-target voxel having the luminance value within the threshold range as the coordinates of the target pixel corresponding point p ′.
  • the CPU 101 obtains the length ⁇ ′ at the position of the target pixel corresponding point p ′ for the target pixel p and stores it in the main memory 102E (step S504; 102E in FIG. 25).
  • ⁇ ′ indicates the distance L ′ between the target pixel corresponding point p ′ and the viewpoint p 0, and the points and viewpoints at both ends of the pixel p ′ when the target pixel p is viewed from the viewpoint p 0. It can be calculated from the angle ⁇ formed by p 0 . That is, ⁇ ′ is expressed by the following equation (20).
  • the angle theta, the coordinates of the pixel p of interest, the distance L between the target pixel p and the viewpoint p 0, the distance L 0 between the center pixel and the viewpoint p 0, be obtained from the length of one side of the center pixel ⁇ Can do.
  • the CPU 101 calculates the differential reference point distance P2 at the target pixel p (step S505).
  • the distance P2 between the differential reference points of the pixel of interest p is expressed by the following formula (21) Can be expressed as:
  • the CPU 101 stores the differential reference point distance P2 for the target pixel p calculated in step S505 in the array (step S506; 102F in FIG. 25).
  • the CPU 101 repeats the processing from step S503 to step S506 for each pixel of the virtual endoscopic image, and calculates the distance P2 between the differential reference points for all the pixels p.
  • the distance calculation process ends. Thereafter, in the lesion candidate area detection process shown in FIG. 3, the CPU 101 calculates a curvature value (Shape Index) using the differential reference point distance P2 of each pixel calculated by the above-described process, and detects a lesion candidate.
  • a curvature value Shape Index
  • the distance P2 between the differential reference points is corrected in consideration of image distortion. To do.
  • the lesion candidate is detected using the corrected differential reference point distance P2.
  • correction of the distance between the differential reference points in the virtual endoscopic image using the center projection method has been described.
  • distortion that occurs at the edge of the image is shown.
  • Some have been subjected to a process of correcting (distortion according to the angle of the projection surface from the viewpoint to the projection surface) for example, JP-A-7-296184.
  • the distance between the differential reference points may be corrected depending only on the distance from the viewpoint.
  • the distance between the differential reference points is expressed by the following equation (22).
  • 1 image processing system 100 medical image processing device, 101 CPU, 102 main memory, 103 storage device, 104 communication I / F, 105 display memory, 106 I / F, 107 display device, 108 mouse (external device), 109 input Device, 110 network, 111 image database, 71 unfolded image, 713 lesion candidate area, 72 parameter setting window, 721 mode list, 722 numeric input frame, 8 lumen organ, 81 lumen area, 82 route line, 83 lumen surface , Q n path points, S n tube luminal surface, p the pixel of interest, dx longitudinal pixel size, dy widthwise direction pixel size of the circle that fits O path point center, O 'sectional concentration point

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 診断目的に応じて操作者が容易に検出対象を変更して病変領域を検出することが可能な画像処理装置を提供するために、医用画像処理装置100は、臓器表面の画像から病変候補領域を検出する処理を実行する際に、病変候補領域の検出に使用するパラメータを設定可能とする。設定するパラメータP1は例えばポリープ径であり、モード別または操作者の所望値を入力可能とする。CPU101は設定されたパラメータP1から更に微分参照点間距離等のパラメータP2を算出し、このパラメータP2を用いて臓器表面の各点について形状(曲率値)を算出し、所定の形状に該当する点を病変候補領域として抽出する。CPU101は抽出した病変候補領域について、更に領域径や円形度といった特徴量を算出し、これらの特徴量に基づいて病変候補に該当するかを判定し、偽陽性のものについては削除する。

Description

画像処理装置、及び画像処理方法
 本発明は、医用診断に利用される画像を処理する画像処理装置等に関する。
 従来から医用診断に利用される画像としては、例えばX線CT(computed tomography)装置やMRI(magnetic resonance imaging)装置等によって撮影される被検体の断層像等が知られている。また、このような医用画像をコンピュータを用いて解析し、その陰影の中から病変候補を検出して医師に提示するコンピュータ検出支援装置(Computer-Aided Detection;以下、CADという)が開発されている。CADは、病変部の形状特性や濃度特性に基づいて、病変部と推測される画像領域(以下、病変候補領域という)を自動的に検出するものであり、医師の負担を軽減させている。
 例えば、大腸領域におけるポリープ等の病変候補は球形をしているものが多く、特徴的な形状特性を有する。形状特性を表す特徴量として、例えば特許文献1では、Shape Index等に代表される曲率値を算出し、画像の濃度分布を示す曲面の形状から異常陰影候補領域を絞り込んでいる。また、特許文献2では、CADのユーザインタフェースとして、スキャン画像中の異常を示す特徴を強調表示したり、原スキャン画像と比較可能に表示させるようにしたりして、操作者の利便性向上を図っている。
 一方、大腸等の管腔臓器内部を能率的に診断するための画像表示方法として、管腔臓器の芯線を中心に臓器内部を展開表示した画像(以下、展開画像という)を生成する手法が開発されている(特許文献3)。展開画像では管腔臓器内部の表面全体を一望できるため、医師等が病変候補を見つけやすいといった利点がある。また上述のX線CT装置等で得られる複数枚の断層像を積み上げたボリューム画像データから、仮想内視鏡画像を生成する手法も開発されている(特許文献4)。仮想内視鏡画像は、管腔臓器内部に設けた仮想的な視点から、投影対象物に対して仮想的な光線(レイ)を照射し、視線上のボクセルであって所定の閾値以上の輝度値を有するものを抽出して投影面に投影させる表示方法であり、内視鏡で得られる画像のように臓器内部を観察できる(特許文献4)。
特開2006-230910号公報 特表2008-512161号公報 特許3627066号公報 特開平07-296184号公報
 しかしながら、従来のCADのように曲率値に基づいて病変候補領域を抽出すると、臓器表面のひだの部分のように病変部ではないものや、病変部の大きさ(ポリープ径等)が小さすぎるものまで抽出してしまい、病変候補を絞りきれないという不具合が生じていた。また、病変の早期発見という目的や、進行した病変の検出という目的など、診断目的に応じてCADで検出させたい病変部の大きさ(ポリープ径等)は異なるものであった。病変候補領域の抽出アルゴリズムには病変組織やポリープの特徴等に応じて種々のものが開発されているが、それぞれの対象に特化している反面、汎用性には欠けるものであった。
 本発明は、以上の問題点に鑑みてなされたものであり、診断目的に応じて操作者が容易に検出対象を変更して病変領域を検出することが可能な画像処理装置等を提供することを目的とする。
 前述した目的を達成するため、第1の発明は、医用画像から病変候補領域を検出する画像処理装置であって、前記病変候補領域の検出に利用されるパラメータを設定するパラメータ設定手段と、前記パラメータ設定手段により設定されたパラメータを用いて前記医用画像を評価し、評価結果に基づいて病変候補領域を検出する病変候補領域検出手段と、を備えることを特徴とする画像処理装置である。
 また、モード別に前記パラメータの値を予め定めたデータテーブルを備え、前記パラメータ設定手段は、選択されたモードに対応するパラメータの値を前記データテーブルから読み出して入力する第1の入力手段を備えることが望ましい。
 また、前記パラメータの値を数値入力する第2の入力手段を備え、前記パラメータ設定手段は、前記第2の入力手段によって入力された数値をパラメータの値として設定することが望ましい。
 前記医用画像が表示される表示画面上に、前記パラメータの値の大きさに応じて大きさまたは形状が変化するオブジェクトを表示させ、該オブジェクトに対する操作によって前記パラメータの値を入力する第3の入力手段を備え、前記パラメータ設定手段は、前記第3の入力手段によって入力された前記オブジェクトの大きさまたは形状に応じた値を前記パラメータの値として設定することが望ましい。
 前記パラメータ設定手段は、第1のパラメータを入力するパラメータ入力手段と、前記パラメータ入力手段によって入力された第1のパラメータから、第2のパラメータを算出する第2のパラメータ算出手段と、を備え、前記病変候補検出手段は、前記医用画像について前記第2のパラメータ算出手段により算出された第2のパラメータを用いて臓器表面の形状を表す特徴量を算出し、算出された特徴量に基づいて病変候補領域を抽出する病変候補領域抽出手段と、前記病変候補領域抽出手段によって抽出された病変候補領域について、所定の特徴量を評価することにより偽陽性領域を判定し、偽陽性領域と判定された病変候補領域を削除する偽陽性削除手段と、を備える。
 前記第2のパラメータは、前記臓器表面の形状を表す特徴量として曲率値を算出する際に利用される微分参照点間距離である。
 また、前記パラメータ設定手段は、第1のパラメータを入力するパラメータ入力手段と、前記パラメータ入力手段によって入力された第1のパラメータから、第3のパラメータを算出する第3のパラメータ算出手段と、を備え、前記病変候補検出手段は、前記医用画像について臓器表面の形状を表す特徴量を算出し、算出された特徴量に基づいて病変候補領域を抽出する病変候補領域抽出手段と、前記病変候補領域抽出手段によって抽出された病変候補領域について、所定の特徴量を前記第3のパラメータ算出手段により算出された第3のパラメータを用いて評価することにより偽陽性領域を判定し、偽陽性領域と判定された病変候補領域を削除する偽陽性削除手段と、を備える。
 前記第3のパラメータは、前記病変候補領域の大きさを示すもの、または前記病変候補領域の形状を示すもののうち、少なくともいずれか一方を含む。
 また、前記パラメータ設定手段によって設定されたパラメータを、前記医用画像の歪みに応じて補正するパラメータ補正手段を更に備え、前記病変候補領域検出手段は、前記パラメータ補正手段によって補正されたパラメータを用いて、前記医用画像を評価し、評価結果に基づいて病変候補領域を検出することが望ましい。
 前記医用画像は、管腔臓器の芯線を中心に展開するように臓器内部表面を表示した展開画像であることが望ましい。
 前記医用画像は、管腔臓器内部に設けた仮想的な視点から臓器内部を所定の投影面に投影した仮想内視鏡画像であることが望ましい。
 第2の発明は、医用画像から病変候補領域を検出する画像処理方法であって、前記病変候補領域の検出に利用されるパラメータを設定するパラメータ設定ステップと、前記パラメータ設定ステップにより設定されたパラメータを用いて前記医用画像を評価し、評価結果に基づいて病変候補領域を検出する病変候補領域検出ステップと、を備えることを特徴とする画像処理方法である。
 本発明によれば、診断目的に応じて操作者が容易に検出対象を変更して病変領域を検出することが可能な画像処理装置等を提供できる。
画像処理システム1の全体構成を示すハードウエア構成図 画像処理システム1における画像処理全体の流れを示すフローチャート 医用画像処理装置100が実行する病変候補検出に関する処理の流れを説明するフローチャート 主メモリ102のデータ構成図(第1の実施の形態) モード別にパラメータP1の値が予め設定されるデータテーブル2の一例 展開画像71及びパラメータ設定ウィンドウ72の表示例 Shape Indexについて説明する図 微分参照点間距離を説明する図 展開画像と展開画像上の画素の向きを説明する図 画素ひずみ算出処理の流れを説明するフローチャート 主メモリ102のデータ構成図(第2の実施の形態) 経路半径について説明する図 隣の断面との距離について説明する図 管腔表面の位置と、長手方向の画素サイズの関係を説明する図 画素ひずみを補正したひずみ調整パラメータに基づいて、病変候補検出処理を行った際に得られる病変候補領域の表示例を示す図 急カーブ領域での断面補正を説明する図 第3の実施の形態の画素ひずみ算出時における各点の位置関係を説明する図 第3の実施の形態における画素ひずみ算出処理の流れを説明するフローチャート 主メモリ102のデータ構成図(第3の実施の形態) 仮想内視鏡画像について説明する図 被投影対象物の視点からの距離に起因するひずみを説明する図 仮想内視鏡画像の端部に生じるひずみを説明する図 中心投影法について説明する図 仮想内視鏡画像における、微分参照点間距離算出処理の流れを示すフローチャート 主メモリ102のデータ構成図(第4の実施の形態)
 以下、添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
 (第1の実施の形態)
 まず、本発明の画像処理装置を適用した画像処理システム1の構成について説明する。 
 図1は、画像処理システム1の全体構成を示すハードウエア構成図である。 
 図1に示すように、画像処理システム1は、表示装置107、入力装置109を備えた医用画像処理装置100、及び医用画像処理装置100とネットワーク110を介して接続される画像データベース111とを備える。
 医用画像処理装置100は、病院等に設置される画像診断用のコンピュータであり、医用画像を解析し、その陰影の中から病変候補を検出して医師に提示するコンピュータ検出支援装置(CAD)として機能するものである。
 医用画像処理装置100は、CPU101(Central Processing Unit)101、主メモリ102、記憶装置103、通信インタフェース(通信I/F)104、表示メモリ105、マウス108等の外部機器とのインタフェース(I/F)106を備え、各部はバス107を介して接続されている。
 CPU101は、主メモリ102または記憶装置103等に格納されるプログラムを主メモリ102のRAM上のワークメモリ領域に呼び出して実行し、バス107を介して接続された各部を駆動制御し、医用画像処理装置100が行う各種処理を実現する。
 また、CPU101は、第1の実施の形態において、病変候補検出に関する後述する処理を実行する(図2、図3参照)。
 主メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。また、RAMは、ROM、記憶装置103等からロードしたプログラム、データ等を一時的に保持するとともに、CPU101が各種処理を行う為に使用するワークエリアを備える。
 記憶装置103は、HDD(ハードディスクドライブ)や他の記録媒体へのデータの読み書きを行う記憶装置であり、CPU101が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラムが格納されている。これらの各プログラムコードは、CPU101により必要に応じて読み出されて主メモリ102のRAMに移され、各種の手段として実行される。
 通信I/F104は、通信制御装置、通信ポート等を有し、医用画像処理装置100とネットワーク110との通信を媒介する。また通信I/F104は、ネットワーク110を介して、画像データベース111や、他のコンピュータ、或いは、X線CT装置、MRI装置等との通信制御を行う。 
 I/F106は、周辺機器を接続させるためのポートであり、周辺機器とのデータの送受信を行う。例えば、マウス108等の入力装置等をI/F106を介して接続させるようにしてもよい。
 表示メモリ105は、CPU101から入力される表示データを一時的に蓄積するバッファである。蓄積された表示データは所定のタイミングで表示装置107に出力される。
 表示装置107は、液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、表示メモリ105を介してCPU101に接続される。表示装置107はCPU101の制御により表示メモリ105に蓄積された表示データをディスプレイ装置に表示する。
 入力装置109は、例えば、キーボード等の入力装置であり、操作者によって入力される各種の指示や情報をCPU101に出力する。操作者は、表示装置107、入力装置109、及びマウス108等の外部機器を使用して対話的に医用画像処理装置100を操作する。
 ネットワーク110は、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット、インターネット等の各種通信網を含み、画像データベース111やサーバ、他の情報機器等と医用画像処理装置100との通信接続を媒介する。
 画像データベース111は、X線CT装置やMRI装置等、医用診断に利用される画像を撮影する機器によって撮影された医用画像を蓄積して記憶するものであり、例えば病院や医療センター等のサーバ等に設けられる。図1に示す画像処理システム1では、画像データベース111はネットワーク110を介して医用画像処理装置100に接続される構成であるが、医用画像処理装置100内の例えば記憶装置103に画像データベース111を設けるようにしてもよい。
 なお、本発明の画像処理システム1で扱う医用画像には、被検体の断層像や、管腔臓器の展開画像、仮想内視鏡画像が含まれる。展開画像は、管腔臓器の芯線(経路線)を中心に展開するように臓器内部を表示したものであり(図6参照)、仮想内視鏡画像は、管腔臓器内部に設けた仮想的な視点から中心投影法に基づく表示方法で管腔臓器内部を表示したもの(図20(b)参照)である。
 第1から第3の実施の形態では、展開画像における病変候補の検出について説明し、第4の実施の形態では仮想内視鏡画像における病変候補の検出について説明する。
 次に、図2~図8を参照しながら、画像処理システム1の動作について説明する。 
 図2は、画像処理システム1における画像処理全体の流れを示すフローチャートである。 
 図3は、医用画像処理装置100が実行する病変候補検出に関する処理の流れを説明するフローチャートである。 
 図4は、画像処理及び病変候補検出処理実行時に主メモリ102のRAMに保持されるデータを示す図である。 
 図5は、本実施の形態のモード別にパラメータP1の値が予め設定されるデータテーブル2の一例を示す図である。 
 図6は、展開画像71及びパラメータ設定ウィンドウ72の表示例である。 
 図7は、Shape Indexについて説明する図である。 
 図8は、微分参照点間距離を説明する図である。
 医用画像処理装置100のCPU101は、主メモリ102から画像処理や病変候補検出処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて画像処理、病変候補検出処理を実行する。
 なお、以下の画像処理の実行開始に際して、画像データは画像データベース111等からネットワーク110及び通信I/F104を介して取り込まれ、医用画像処理装置100の記憶装置103に記憶されているものとする。
 図2の画像処理において、まず医用画像処理装置100のCPU101は、画像データを読み込む処理を行う。CPU101は、複数の被選択画像をリスト表示またはサムネイル表示した画像選択ウィンドウを表示装置107に表示させ、操作者からの画像の選択を受け付ける。操作者が所望の画像を選択すると、CPU101は記憶装置103から選択された画像データを読み出して主メモリ102に保持する(ステップS101、図4の102a)。 
 本実施の形態では、管腔領域の画像データが選択されるものとする。また、この段階で読み込む画像データ102aは複数の断層像を積み上げたボリューム画像データであるものとする。
 次にCPU101は、ステップS101で読み込んだ画像データ102aから、表示画像を作成する。ここでは表示画像として展開画像を作成するものとする。CPU101は画像データ102aから管腔壁座標データ102bを取得する。管腔壁座標データ102bは、展開画像として表示される管腔壁の各点(各画素)の実空間での座標(x,y)と、その座標における管腔表面から管腔の中心付近を通る線(以下、経路線という)までの3次元座標上での距離f(x,y)と、から構成される。距離f(x,y)は、デプスデータとよばれ、展開画像作成時にCPU101によって作成される。CPU101は取得した管腔壁座標データ102bを主メモリ102に保持する(ステップS102、図4の102b)。
 なお、展開画像の作成については、上述の特許文献3(特許3627066号公報)等に開示されるものであるので、説明を省略する。
 次にCPU101は、ステップS102において取得した管腔壁座標データ102bに基づいて、病変候補を検出する(ステップS103;図3の病変候補検出処理へ)。
 図3の病変候補検出処理において、まずCPU101は病変候補の検出処理に用いるパラメータを設定する(ステップS201)。ステップS201において設定するパラメータをパラメータP1と呼ぶ。
 パラメータP1としては、病変部の長さ(ポリープ径)、面積、体積等の大きさを示すような値が考えられるが、本実施の形態では、一例として検出対象とする病変部(ポリープ等)の長さ(ポリープ径)を示すものとする。 
 パラメータP1は、ステップS202の曲率計算で用いるパラメータP2(微分参照点間距離)や、ステップS204の偽陽性削除処理で用いるパラメータP3(領域径の閾値)、P4(円形度の閾値)の算出にも利用される。
 上述のパラメータP2は、微分参照点間距離を表すものであり、次式(1)で与えられる。
Figure JPOXMLDOC01-appb-I000001
 また、上述のパラメータP3は、抽出された病変候補領域の径(領域径)の閾値を表すものであり、次式(2)で表される。
Figure JPOXMLDOC01-appb-I000002
 また、上述のパラメータP4は、抽出された病変候補領域の円形度の閾値を表すものであり、次式(3)で表される。
Figure JPOXMLDOC01-appb-I000003
 ここで、A,B,Cは定数である。
 ステップS201のパラメータの設定において、CPU101はモード別に予め定められた値を、図5のデータテーブル2から読み出して設定するものとしてもよいし、操作者が入力装置109から任意の数値を入力するものとしてもよい。
 また、上述のステップS102において作成された展開画像上に、オブジェクト(例えば、ポリープのイメージ画像など)を表示させ、マウス108等のポインティングデバイスや入力装置109からの入力操作によってオブジェクトの大きさまたは形状を操作し、パラメータP1の大きさを入力するようにしてもよい。この場合、CPU101はオブジェクトの示す大きさ(径)または形状に応じた値をパラメータP1として設定し、主メモリのパラメータP1(図4の102c)に保持する。
 図5に示すデータテーブル2には、例えば「早期発見」モード、「通常」モード、「マニュアル」モード等の各モード別にパラメータP1のデフォルト値が、「6」、「10」、「8」のように与えられているものとする。データテーブル2の「表示ON/OFF」は、モード切り替えスイッチの「ON/OFF」を示すものであり、「1」は「ON」状態を表し、「0」は「OFF」状態を表す。
 図6において、表示装置107の表示画面上部には展開画像71が表示され、下部にはパラメータ設定ウィンドウ72が表示されている様子を示している。展開画像71は実際には臓器表面の陰影をグレースケール(濃淡情報)で表したものであるが、図を明瞭に示すために図6では実線を用いて表すこととする。すなわち、上下2本の線711で挟まれた領域は管腔臓器の内部表面に相当し、その領域内に描かれている複数の縦線712は臓器表面のひだを表している。
 図6のパラメータ設定ウィンドウ72には、選択可能なモード一覧721がチェックボタンとともに表示され、パラメータP1の数値入力枠722が表示される。また、「表示」ボタン723はパラメータP1の設定後、マウス108等によって押下操作されるものであり、操作者がマウス108等により「表示」ボタン723を押下操作すると、CPU101によって病変候補の検出処理(ステップS202~S204)が実行され、展開画像71上に病変候補領域が識別表示される。
 図6の例では、モード一覧721で「早期発見」モードが選択されたが、数値入力枠722で「10」mmが入力されているものとする。このようにデータテーブル2で「早期発見」モードの値として予め与えられる値「6」がデフォルト値として入力される場合にも、操作者により数値入力枠722に値が入力された際は、数値入力された値を優先的に設定するようにしてもよい。その後、表示ボタン723の押下操作により、ポリープ径(パラメータP1)が「10」mm程度の病変候補が、後述するステップS202以降の処理によって検出されて、マーク713のように識別表示される。
 以上のようにしてCPU101は、パラメータP1を設定すると、パラメータP1に基づいて、上述の式(1)、(2)、(3)によりパラメータP2、P3、P4を算出し、主メモリ102(図4の102d、102e、102f)に保持する。
 ステップS201においてパラメータP1、P2、P3、P4の設定が行われると、CPU101は、展開画像71のデプスデータf(x,y)(図4の102b)を使用して、展開画像71の各画素pの第1の特徴量を算出する。第1の特徴量は、例えば曲率値とする。曲率値とは、例えば、Shape Indexに代表されるものである(ステップS202)。CPU101は算出した曲率値を主メモリ102に保持する(図4の102g)。
 図7に示すように、Shape Indexは、0から1まで連続的に変化する値をとり、各値にはそれぞれ異なる曲面状態が対応している。すなわち、凹型の半球はShape Indexの値「0」に対応し、Shape Indexの値が「0」から大きくなるに従って、凹型の半円柱、鞍型の面・平面、凸型の半円柱、凸型の半球を表す。凸型の半球ではShape Indexの値「1」に対応する。
 Shape Indexは、以下の式(4)により算出される。
Figure JPOXMLDOC01-appb-I000004
 ここで、λmax、λminは、曲面上の各点についての主曲率の最大値、最小値である。
 主曲率の最大値λmax、最小値λminは、以下の式(5)により算出される。
Figure JPOXMLDOC01-appb-I000005
 ここで、fxx、fyy、fxyは、注目画素pにおけるf(x,y)の第2次偏導関数であり、注目画素pの座標(x,y)と画素pにおけるデプスデータf(x,y)とを用いて、以下の式(6)により算出される。
Figure JPOXMLDOC01-appb-I000006
 ここで、P2は、上述の式(1)により算出された微分参照点間距離である。微分参照点間距離とは、式(6)の第2次偏導関数を算出するときに参照する画素と、注目画素pと、の距離を表す。
 図8は、微分参照点間距離を説明する図である。 
 一例として微分参照点間距離P2を、パラメータP1(ポリープ径)の1/2とする。すなわち、上述の式(1)において、A=1/2とする。
 図8に示す凸面601の曲率を求める場合、曲率の値は微分参照点間距離に依存する。曲率値は、微分参照点間距離が曲面(凹凸)の幅と同程度のときに最大値をとる。図8の矢印602のように、凹凸の幅よりも微分参照点間距離が小さいときはほぼ平らな面の曲率を求めることとなり、Shape Indexは0.5付近の値をとる。一方、図8の矢印603のように、凹凸の幅と微分参照点間距離とが同程度のときは、第2次偏導関数算出の際に凸面の傾きを捉えることができるので、Shape Indexは1付近の値をとり、凸型の半球に近い形状であることを示す。
 なお、微分参照点間距離を算出する際に用いる定数A(式(1))は、上述の例では1/2としているが、これに限定されるものではない。
 次に、CPU101は算出した各画素pについてのShape Index(曲率値102g)に基づいて閾値処理を行い、病変候補領域を抽出する(ステップS203)。CPU101は、抽出した病変候補領域を主メモリに保持する(図4の病変候補領域102h)。
 病変部(ポリープ)は、凸状の曲面であるので、Shape Indexの下限値を設定しておき、CPU101は下限値以上の曲率値をとる画素を病変候補領域とする。下限値は例えば、0.5とする。
 ここで、曲面の幅が微分参照点間距離をはるかに越える大きさの凸面では、算出される曲率値は小さくなるので、病変候補の対象外となり、抽出されない。
 次にCPU101は抽出された各病変候補領域(注目領域)について、第2、第3の特徴量を求め、主メモリ102に保持する(図4の特徴量(領域径)102i、特徴量(円形度)102j)。ここで第2の特徴量は、例えば病変候補領域の領域径dであり、第3の特徴量は病変候補領域の円形度kとする。そして、CPU101は注目領域について、第2、第3の特徴量について次の評価を行い、判定結果から偽陽性であると判定される場合は、ステップS203にて挙げられた病変候補領域から、その注目領域を削除する(ステップS204)。
 ステップS204の偽陽性削除処理において、第2の特徴量である領域径dを評価する際、CPU101は管腔表面の各点について、3次元実空間の座標データを参照して各病変候補領域の領域径dを算出する。CPU101は、算出した領域径d(図4の102i)をステップS201において設定したパラメータP3(式(2);図4の102e)と比較し、d<P3が成り立てば、偽陽性と判断し、注目領域を病変候補領域102hから削除する。
 ステップS204の偽陽性削除処理において、第3の特徴量である円形度kを評価する場合、CPU101は管腔表面の各点について、3次元実空間の座標データを参照して各病変候補領域の円形度kを算出する。CPU101は、算出した円形度k(図4の102j)をステップS201において設定したパラメータP4(式(3);図4の102f)と比較し、k<P4が成り立てば、偽陽性と判断し(図4の偽陽性領域102k)、この偽陽性領域102kを病変候補領域102hから削除する。
 なお、ステップS204の偽陽性削除処理では、特徴量として領域径dや円形度kを評価したが、これに限定されるものではなく注目領域の縦横比やCT値等を特徴量とし、これらの特徴量に基づいて偽陽性領域を判定するようにしてもよい。
 また、ステップS204の偽陽性削除処理等で用いる特徴量として、Curvednessを使用してもよい。Curvednessとは、曲面の大きさを示すものである。同じ凸面でも、Curvednessの値が大きいものは小さな凸面を示し、Curvednessの値が小さいものは大きな凸面を示す。したがってCurvednessは評価対象とするポリープ径の目安として利用できる。Curvednessは次式(7)により与えられる。
Figure JPOXMLDOC01-appb-I000007
 なお、Curvednessを特徴量とする場合は、注目する病変候補領域全体のCurvednessの平均値を所定の値(パラメータP1の逆数に比例する値)と比較して偽陽性であるか否かを判定する。また、ステップS203の閾値処理において、Shape IndexとCurvednessとのAND条件判定を行うようにしてもよい。
 ステップS204の偽陽性削除処理が終了し、偽陽性が削除された段階で、図2のステップS104へ移行する。CPU101は、展開画像71に病変候補領域をマーク713等を用いて識別表示し(ステップS104;図6参照)、画像処理を終了する。
 以上説明したように、第1の実施の形態の画像処理システム1において、医用画像処理装置100は、臓器表面の画像から病変候補領域を検出する処理を実行する。病変候補検出処理では、病変候補領域の検出に使用するパラメータをモード別に設定したり、或いは操作者が数値入力、或いはGUIを利用して設定可能としたりする。パラメータは本実施の形態では、P1、P2、P3、P4の4種類のパラメータを取り扱い、例えば、P1はポリープ径、P2は微分参照点間距離、P3は領域径の閾値、P4は円形度の閾値としている。CPU101は設定されたパラメータ(P2)を用いて、臓器表面の各点について形状の特徴量(曲率値)を算出し、所定の形状に該当する点を病変候補領域とする。
 またCPU101は、検出された病変候補領域について、領域径や円形度といった特徴量を算出し、これらの特徴量について、パラメータ(P3、P4)を用いて病変候補に該当するかを判定し、偽陽性のものについては削除する。そして、CPU101は偽陽性の領域を除く病変候補領域を、画像上に識別表示する。
 従って、病変候補領域の検出に関するパラメータを、モード別に、または操作者が設定するので、診断目的に応じて容易にターゲットを変更して病変候補領域を検出することが可能となり、CADの汎用性を向上させることができる。
 また、本実施の形態の画像処理システム1では、操作者によってはじめに設定されたパラメータ(P1)から、曲率値の算出に用いるパラメータ(P2の微分参照点間距離)や、偽陽性削除処理における特徴量の評価に用いるパラメータ(P3の領域径、P4の円形度)を算出し、一つのパラメータP1を2次的に利用する。
 設定した一つのパラメータ(P1)から、他の特徴量の判定に用いるパラメータ(P2、P3、P4)を算出しているので、多くのパラメータを夫々入力する必要もなくなり、パラメータ設定の煩雑さを軽減できる。また操作者に設定させるパラメータを、ポリープ径等、病変部の大きさや形状を示す視認性の高いものとすれば、操作者はCADを感覚的に操作しやすくなる。更に、パラメータを入力するため、GUIを用いれば、操作性が向上する。
 本実施の形態では、パラメータP1を病変部の長さ、パラメータP2を微分参照点間距離とし、両者を関連付けて設定するようにした。これによって、抽出したい病変候補の長さに応じた微分参照間距離の値を用いて病変候補領域抽出処理を実行することができ、ターゲットとしていない病変候補は抽出されないようにすることができる。
 なお、第1の実施の形態において例示した医用画像は、管腔臓器の展開画像としたが、これに限定されるものではなく、被検体の断層像や3次元ボリューム画像等、様々な医用画像を用いるようにしてもよい。その場合であっても、医用画像処理装置100は病変候補検出に関するパラメータの設定を可能とし、設定されたパラメータを用いて病変候補を検出する。
 また、パラメータは、P1のみ入力するものとしたがこれに限定されるものではなく、他のパラメータ(P2、P3、P4)についてもモード別に予め定められた値や、操作者の所望の値を入力するようにしてもよい。
 (第2の実施の形態)
 次に、第2の実施の形態の画像処理システム1について説明する。第2の実施の形態の画像処理システム1のハードウエア構成は、図1の第1の実施の形態の画像処理システム1と同一であるので説明を省略し、同一の各部については同一の符号を付して説明する。
 一般に展開画像では、画像にひずみが生じてしまう。そのため、病変候補を検出する際に臓器表面の形状をより正確に評価するためには、画像のひずみを考慮した処理を行う必要がある。 
 第2の実施の形態では、病変候補の検出に利用されるパラメータの設定の際に、展開画像のひずみに基づいてパラメータを補正する。
 展開画像のひずみの原因として、管腔臓器の長手方向に垂直な方向(y方向;以下、「短手方向」という)の画素サイズ(図9のdy)が、展開画像の長手方向(x方向)毎に異なることや、管腔のカーブ等が挙げられる。すなわち、展開画像を生成する際、短手方向の画素に、管腔臓器のそのx位置(長手方向位置)における断面の円周を所定角度刻みに割り当てているが、実際の管腔臓器は長手方向で断面の円周が異なるので画素サイズdyにばらつきが生じ、これが歪みとなってしまう。
 また、管腔のカーブする領域では、隣のx位置までの距離(図9のdx)がカーブの内側と外側とで異なってしまい、画像のひずみとなる。
 そこで、第2の実施の形態では、第1の実施の形態の病変候補検出処理(図3参照)において、ステップS201のパラメータ設定処理の際に、図10に示す画素ひずみ算出処理によって各画素の画素ひずみを算出し、算出した画素ひずみに基づいてパラメータP2を補正したひずみ調整パラメータ(P2_x、P2_y)を算出する。
 図9は、管腔臓器の展開画像71と展開画像71上の画素の向きについて説明する図である。 
 図9の展開画像71は、管腔臓器の長手方向の経路線をx方向とし、経路線に垂直な方向(短手方向)をy方向としている。そして、画素715の1辺に相当する実際の臓器表面の長さを画素サイズとよび、x方向の画素サイズをdx、y方向の画素サイズをdyとして表すこととする。画素ひずみは、注目画素のx方向とy方向の各画素サイズの比(dx/dy)として求められる。
 図10は、画素ひずみ算出処理の流れを説明するフローチャートである。 
 図11は、画素ひずみ算出処理実行時に主メモリ102のRAMに保持されるデータを示す図である。 
 図12は、経路半径Rについて説明する図である。 
 図13は、注目断面(管腔面Sn)と隣の断面(管腔面Sn+1)との距離について説明する図である。 
 図14は、管腔表面の位置と、長手方向の画素サイズの関係を説明する図である。
 第2の実施の形態の医用画像処理装置100のCPU101は、主メモリ102から図10に示す画素ひずみ算出処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて画素ひずみ算出処理を実行する。 
 なお、以下の処理の実行開始に際して、画像データは画像データベース111等からネットワーク110を介して取り込まれ、医用画像処理装置100の記憶装置103に記憶されているものとする。
 画素ひずみ算出処理において、まず医用画像処理装置100のCPU101は、記憶装置103から、展開画像データ102lと、展開画像の対応点の3次元実空間座標を格納した3次元実空間座標データ102mと、経路線上の点(以下、経路点という。)の座標データ102nと、を読み込み、主メモリ102に保持する(ステップS301;図11の102l、102m、102n)。
 ここで、経路点の座標データ102nとは、展開画像71上の短手方向に並ぶ画素列を管腔表面とする断面(以下、注目管腔面Snという。)と経路線とが直交する点の3次元実空間座標データである。以下、この経路点を注目管腔面Snにおける経路点とし、注目経路点Qnと呼ぶ(図12参照)。
 次に、CPU101は展開画像71上の各画素を順番に走査して、各点(画素)の画素ひずみ(dx/dy)を算出する。図10のフローチャートでは、展開画像71上の短手方向から走査し、次に長手方向について走査する例を示す。
 展開画像71に生じる画素ひずみは、経路線の曲がり具合、すなわち管腔のカーブの大きさによって異なるので、まずCPU101は、カーブの大きさを判別する。
 CPU101は、管腔のカーブする領域について、経路点の座標データ102nを用いて経路半径Rを求め、主メモリ102に保持する(ステップS302、図11の102o)。ここで経路半径Rについて図12を参照して説明する。図12は管腔臓器8のカーブする領域を示している。管腔臓器8の中心付近を通る線が経路線82である。経路線82上のn番目の点をQnで表す。経路半径Rは、注目経路点Qnと、所定点数Nだけ離れた経路点Qn-N、Qn+Nと、の3点を通る円の半径Rである。経路点Qn、Qn-N、Qn+Nを通る円の中心をOとする。経路半径Rが大きい場合は、緩やかなカーブの領域であり、経路半径Rが小さい場合は、急なカーブの領域である。
 CPU101は、算出した経路半径Rに基づいて、管腔臓器82の曲がり具合を判別する(ステップS303)。例えば、経路半径Rの大きさが所定の閾値Rt以上の場合は、注目経路点Qnが緩やかなカーブ上にあると判別し、所定の閾値Rt未満の場合は注目経路点Qnが急なカーブ上にあると判別する。
 注目経路点Qnが緩やかなカーブ上にあると判別した場合は(ステップS303;緩やかなカーブ)、カーブによるひずみは小さいので考慮せず、CPU101は短手方向の画素ひずみについて考慮する。
 まず、ステップS304において、注目画素pにおけるx方向の画素サイズdxを求め、主メモリ102に保持する(図11の102p)。画素サイズdxは次式(8)で表される。
Figure JPOXMLDOC01-appb-I000008
 次に、ステップS305において、注目画素pにおける短手方向の画素サイズdyを求め、主メモリ102に保持する(図11の102q)。画素サイズdyは次式(9)で表される。
Figure JPOXMLDOC01-appb-I000009
 CPU101は、ステップS304、S305で算出した画素サイズdx、dyに基づいて、画素ひずみdx/dyを算出し(ステップS306)、配列に格納する(図11の102r)。
 一方、注目経路点Qnが急なカーブ上にあると判別される場合は(ステップS303;急なカーブ)、カーブによる影響で展開画像71上の経路線方向(長手方向)に画素の歪みが生じる。カーブによる画素の歪みの度合いは、その画素が経路線のカーブの内側にあるか外側にあるかで決まる。
 図13、図14を参照して、カーブによる画素の歪みについて説明する。図13に示すように、管腔臓器8の隣り合う管腔面Sn、Sn+1において、カーブの内側にある画素は隣の面の対応画素までの距離が短く、カーブの外側にある画素は隣の面の対応画素までの距離が長くなる。
 図14において、管腔面Snは、経路線方向を紙面に鉛直な方向に表し、その管腔面Snにおける管腔領域の淵(管腔表面83)の各点Bnを投影面t0に投影する様子を示している。図14に示す点Qnは注目経路点、点Bnは管腔表面83の点であり、点Oは図12の点O(経路線82にフィットした円の中心)に対応している。
 すなわち、図14に示すように、管腔面Snの管腔表面83では、注目経路点Qnから管腔表面の点Bnに向かうベクトルQnBnと、点Qnから点Oに向かうベクトルQnOと、のなす角度θの大きさによって、注目画素pがカーブの内側にあるか外側にあるかが決定される。より正確には、点Qnを中心として、ベクトルQnBnをベクトルQnOに投影した点Bn’の投影座標qによって、注目画素pがカーブの内側にあるか外側にあるかが決定される。
 つまり注目管腔面Snと隣の管腔面Sn+1の対応する角度の投影座標間の距離が、点Bnに対応する展開画像上の画素サイズdxに相当する。
 CPU101は、まず注目経路点Qnとその隣の経路点Qn+1との距離l0を算出し、主メモリ102に保持する(図11の102s)。距離l0は、ステップS301で読み込んだ経路点の3次元実空間座標データ102nから求められる(ステップS307)。
 次にCPU101は、注目経路点Qnに直交する断面(管腔面Sn)の平均径rを算出する。すなわち、CPU101は注目画素と同じ長手方向(x方向)の座標を持つ展開画像上の画素について、それぞれ3次元実空間座標を参照し、注目経路点Qnとの距離を算出する。そして、算出された距離の平均を求めて、管腔の平均半径rとする(ステップS308)。CPU101は算出した平均半径rを主メモリ102に保持する(図11の102t)。なお、この距離(平均半径r)はデプスデータから求めることも可能である。
 次にCPU101は、注目画素pにおける長手方向の画素サイズdxを算出する(ステップS309)。 
 ステップS309において、まずCPU101は、注目画素pの投影座標qを求める。投影座標は次式(10)により算出される。
Figure JPOXMLDOC01-appb-I000010
 ここで、角度θの値は、経路半径Rの中心座標(点Oの座標)と、経路線の座標(点Qnの座標)と、管腔表面(点B)の座標と、から求められる(図11の102u)。
 CPU101は、経路半径Rと管腔の平均半径rを用いて、投影座標qにおける経路線方向の画素サイズdxの値を算出する(ステップS309;図11の102p)。注目管腔面Snと隣の管腔面Sn+1とが近接している場合は、二つの面の対応する角度間の距離は投影座標q=rcosθに線形に比例すると考えられる。従って、dxは次式(11)により算出される。
Figure JPOXMLDOC01-appb-I000011
 次にCPU101は注目画素pにおけるy方向の画素サイズdyを算出する(ステップS310;図11の102q)。 
 画素サイズdyはステップS305と同様に次式(12)によって算出する。
Figure JPOXMLDOC01-appb-I000012
 CPU101は、ステップS309、S310で算出した画素サイズdx、dyに基づいて、画素ひずみdx/dyを算出し(ステップS311)、配列に格納する(ステップS312;図11の102r)。
 以上のように、CPU101は展開画像の各画素についてステップS302からステップS312の処理を繰り返し、全ての画素についての画素ひずみdx/dyを算出すると、画素ひずみ算出処理を終了する。
 画素ひずみ算出処理によって算出した各画素の画素ひずみdx/dyは、図3の病変候補領域検出処理のステップS202における曲率計算を行う際に参照される。
 例えば、CPU101はパラメータP2について、次式(13)によりひずみ調整パラメータP2_x、P2_yを算出する。
Figure JPOXMLDOC01-appb-I000013
 ここで、P2_xは、長手方向の微分参照点間距離であり、P2_yは長手方向に垂直な方向の微分参照点間距離である。ひずみ調整パラメータP2_x、P2_yを用いて次式(14)を算出し、上述の式(4)、式(5)、式(6)を用いてShape Indexを算出することにより、曲率値を求める。
Figure JPOXMLDOC01-appb-I000014
 このように曲率計算時に画素ひずみdx/dyを用いてパラメータP2を補正することにより、展開画像のような歪みのある画像でも、実空間での長さに基づく曲率計算を行なうことが可能となる。
 なお、ひずみ調整パラメータP2_x、P2_yは、次式(15)により算出することも可能である。
Figure JPOXMLDOC01-appb-I000015
 図15は、ひずみ調整パラメータP2_x、P2_yを用いて病変候補検出処理を行った際に得られる病変候補領域の表示例を示す図である。 
 図15に示すように展開画像71には、病変候補領域713a、713b、713cが識別表示される。 
 図15中、マーク713aは歪みの少ない領域における病変候補領域を示し、マーク713bは横方向に歪んだ病変候補領域を示し、マーク713cは縦方向に歪んだ病変候補領域を示している。すなわち、管腔臓器の実空間でのカーブによる影響で横方向に歪んだ領域は、実空間では円形のポリープであっても、ひずみ調整パラメータを用いた病変候補の検出を行なわない場合は病変候補として検出されない。しかしながら、本実施の形態のように、ひずみ調整パラメータP2_x、P2_yを用いて、曲率計算を行なうことにより、実空間での形状が正しく評価されることとなる。同様に、マーク713cのように、縦方向に歪んだ領域についても、実空間での形状が正しく評価されることとなる。
 以上説明したように、第2の実施の形態の画像処理システム1では、展開画像について病変候補検出処理を行う場合に、CPU101は画素ひずみ算出処理を実行して各画素の長手方向と短手方向とのひずみ量(dx/dy)を算出し、そのひずみ量を用いてパラメータを補正し、ひずみ調整パラメータ(P2_x、P2_y)を算出する。そしてCPU101はひずみ調整パラメータを用いて曲率計算等を行ない、病変候補領域の検出を行なう。
 そのため、展開画像のように、長手方向、短手方向でひずみの生じた画像であっても、実空間での臓器表面形状を正しく評価でき、病変候補領域の検出精度が向上する。
 なお、第2の実施の形態では、微分参照点間距離を表すパラメータP2についての補正を行なう例を示したが、パラメータP3、パラメータP4についても同様にひずみの補正を行なうようにしてもよい。
 (第3の実施の形態)
 次に、第3の実施の形態の画像処理システム1について説明する。第3の実施の形態の画像処理システム1のハードウエア構成は、図1の第1の実施の形態の画像処理システム1と同一であるので説明を省略し、同一の各部については同一の符号を付して説明する。
 第3の実施の形態では、第2の実施の形態と同様に、パラメータ設定の際に、展開画像のひずみを考慮した処理を行う。第2の実施の形態ではカーブによる画像のゆがみについての調整を行なったが、第3の実施の形態では、より急なカーブ領域での展開画像のゆがみについての処理を説明する。
 展開画像を生成する際、急なカーブを描く管腔臓器8については管腔断面の交差を防ぐために、断面の向きを補正している。 
 図16は、急カーブ領域での断面補正を説明する図である。 
 図16に示すように、管腔臓器8の急カーブ領域では、管腔領域81の外側であって経路線82のカーブの内側に存在する位置に、任意の断面集中点O’を与え、断面集中点O’と注目経路点Qnとを結ぶ線分O’Qnを通るように、注目管腔面Snを選択する手法をとっている。
 このような断面補正を行なう場合、注目管腔面Snは注目経路点Qnにおける経路線の接線とは直交せず、大きく傾いてしまうことがある。そのため、注目管腔面Snと隣の管腔面Sn+1の対応する角度の投影座標間の距離が、第2の実施の形態の手法のように線形近似できないことがある。
 そこで、本第3の実施の形態では、注目画素pにおける長手方向の画素サイズdxを求める際に、注目画素pと、展開画像上の注目画素pの長手方向に接する画素(以下、隣接画素pnext)について、それぞれ対応する3次元実空間座標上の2点間の距離をdxとして求める。
 図17は、第3の実施の形態で病変検出対象とする展開画像の、元となる管腔臓器8における各点の位置関係を説明する図である。 
 図17に示すような管腔臓器8の急カーブ領域において、管腔面Snにおける注目画素pと、隣接する管腔面Sn+1における注目画素pに対応する画素pnextとの、各3次元実空間における対応点を注目画素対応点p’、pnext’と呼ぶ。 
 そして注目画素対応点p’、pnext’の3次元実空間座標での距離dxを経路線82に沿った曲線の長さに近づけるため、2点p’、pnext’を結ぶ円弧の長さを求めて、円弧の長さを距離dxとする。
 そこで、第3の実施の形態では、第1の実施の形態の病変候補検出処理(図3参照)において、ステップS201のパラメータ設定処理の際に、図18に示す画素ひずみ算出処理によって各画素の画素ひずみ(dx/dy)を算出し、算出した画素ひずみ(dx/dy)に基づいてパラメータP2を補正したひずみ調整パラメータ(P2_x、P2_y)を算出する。
 図18は、第3の実施の形態における画素ひずみ算出処理の流れを説明するフローチャートである。 
 図19は、画素ひずみ算出処理実行時に主メモリ102のRAMに保持されるデータを示す図である。
 第3の実施の形態の医用画像処理装置100のCPU101は、主メモリ102から図18に示す画素ひずみ算出処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて画素ひずみ算出処理を実行する。 
 なお、以下の処理の実行開始に際して、画像データは画像データベース111等からネットワーク110を介して取り込まれ、医用画像処理装置100の記憶装置103に記憶されているものとする。
 図18に示す画素ひずみ算出処理において、まず医用画像処理装置100のCPU101は、図10に示す画素ひずみ算出処理のステップS301と同様に、記憶装置103から、展開画像データと、展開画像の対応点の3次元実空間座標を格納した3次元実空間座標データと、経路点の座標データと、を読み込み、主メモリ102に保持する(ステップS401、図19の102l。102m、102n)。
 次に、CPU101は展開画像71上の各画素を順番に走査して、各点(画素)の画素ひずみ(dx/dy)を算出する。図18のフローチャートでは、展開画像上の短手方向から走査し、次に長手方向について走査する例を示す。
 第2の実施の形態と同様に、展開画像71に生じる画素ひずみは、経路線82の曲がり具合、すなわち管腔臓器8のカーブの大きさによって異なるので、まずCPU101は、カーブの大きさを判別する。
 CPU101は、まず、断面集中点O’と注目経路点Qn’との距離を経路半径Rとして算出し、主メモリ102に保持する(図19の102o’)。そしてCPU101は、経路半径Rの大きさに基づいてカーブの大きさを判別する(ステップS402)。 
 経路半径Rが大きい場合は、緩やかなカーブの領域であり、経路半径Rが小さい場合は、急なカーブの領域である。
 CPU101は、図10のステップS303と同様に、算出した経路半径Rに基づいて、曲がり具合を判別する(ステップS403)。例えば、経路半径Rの大きさが所定の閾値Rt以上の場合は、注目経路点Qnが緩やかなカーブ上にあると判別し、所定の閾値Rt未満の場合は注目経路点Qnが急なカーブ上にあると判別する。
 注目経路点Qnが緩やかなカーブ上にあると判別した場合は(ステップS403;緩やかなカーブ)、図9のステップS304、ステップS305、ステップS306と同様に、CPU101は上述の式(8)、(9)を用いて注目画素pにおけるx方向の画素サイズdx、注目画素pにおけるy方向の画素サイズdyを求め、主メモリ102に保持する(ステップS404、ステップS405、図19の102p、102q)。そしてCPU101は画素ひずみdx/dyを算出し、配列に格納する(ステップS406→ステップS410;図19の102r)。
 一方、注目経路点Qnが急なカーブ上にあると判別される場合は(ステップS403;急なカーブ)、ステップS407へ移行する。ステップS407においてCPU101は、図17に示す注目画素対応点p’、pnext’の二点間の円弧の長さ(画素サイズdx)を求める。
 すなわち、まずCPU101は、注目画素対応点p’と断面集中点O’との3次元実空間座標データに基づいて、距離p’O’を求め、これを半径R’とする。CPU101は求めた半径R’を主メモリ102に保持する(図19の102x)。
 次にCPU101は、注目画素対応点p’と、断面集中点O’と、隣接画素対応点pnext’の3点のなす角度δを求め、主メモリ102に保持する(図19の102y)。
 点O’から点p’に向かうベクトルをO’p’、点O’から点pnext’に向かうベクトルをO’pnext’とすると、角度δは次式(16)で求められる。
Figure JPOXMLDOC01-appb-I000016
 そして、CPU101は円弧の長さを次式(17)から求め、主メモリ102に保持する(ステップS407;図19の102p)。
Figure JPOXMLDOC01-appb-I000017
 次に、CPU101は、注目画素pにおける、短手方向の画素サイズdyを次式(18)から算出し、主メモリ102に保持する(ステップS408;図19の102q)。
Figure JPOXMLDOC01-appb-I000018
 CPU101は、ステップS407、S408で算出した画素サイズdx、dyに基づいて、画素ひずみdx/dyを算出し(ステップS409)、配列に格納する(ステップS410;図19の102r)。
 以上のように、CPU101は展開画像の各画素についてステップS402からステップS410の処理を繰り返し、全ての画素についての画素ひずみdx/dyを算出すると、画素ひずみ算出処理を終了する。
 画素ひずみ算出処理によって算出した各画素の画素ひずみdx/dyは、図3の病変候補領域検出処理のステップS202における曲率計算を行う際に参照される。ひずみ調整パラメータ(P2_x、P2_y)の算出については第2に実施の形態と同様であるので、説明を省略する。
 以上のように、管腔臓器の急カーブ領域において、管腔面Snを断面集中点O’を中心に設定して生成される展開画像(断面補正された展開画像)においても、ひずみ調整パラメータP2_x、P2_yを用いて病変候補検出処理を行えば、図15に示す表示例と同様に、展開画像のゆがみに左右されずに正確に病変候補領域を識別表示できる(図15の病変候補領域713a、713b、713c参照)。
 以上説明したように、第3の実施の形態の画像処理システム1では、カーブ領域で断面補正された展開画像について、管腔臓器の長手方向の画素サイズdxについては、隣り合う画素対応点間の円弧の長さとして算出する。そのため、急カーブのために断面補正の行なわれた展開画像であっても、実空間での形状を正しく評価でき、病変候補領域の検出精度が向上する。
 なお、第3の実施の形態のように、画素サイズdxを円弧で求める手法を、第2の実施の形態の展開画像のように断面補正の行なわれていない比較的緩やかなカーブを描く領域の展開画像について適用するようにしてもよい。 
 また、第3の実施の形態についても、微分参照点間距離を表すパラメータP2についての補正を行なう例を示したが、パラメータP3、パラメータP4についても同様にひずみの補正を行なうようにしてもよい。
 (第4の実施の形態)
 第1から第3の実施の形態では管腔臓器の展開画像についての病変候補検出についての例を示したが、本発明の画像処理装置は、その他の画像表示方法において適用することとしてもよい。第4の実施の形態では、仮想内視鏡画像について本発明を適用する例について説明する。
 図20は仮想内視鏡画像について説明する図である。図20(a)は管腔臓器の長手方向を上下方向に表した図であり、図20(b)は図20(a)の管腔臓器についての仮想内視鏡画像の一例である。
 仮想内視鏡画像とは、図20(a)に示す管腔領域v内部に設定される任意の視点p0から、ある範囲の方向(θview)を視野角として眺めた様子を平面状の投影面s0に投影した画像75(図20(b))である。 
 仮想内視鏡画像75の各点(以下、「注目画素p」と呼ぶ。)の持つ画素値は、視点p0と注目画素対応点p’との距離に基づいて与えられた陰影値である。注目画素対応点p’とは、例えば3次元実空間座標上において、視点p0から注目画素pに対してレイと呼ばれる仮想的な光線を照射したときに、レイの達するボクセルである。注目画素対応点p’であるボクセルは、所定の閾値範囲内の画素値を持つ。
 仮想内視鏡画像75について、曲率を計算する方法の一例として、仮想内視鏡画像75の各点における濃度勾配に基づいて曲率を求める方法が挙げられる。 
 しかしながら、一般的に用いられる中心投影法により生成される仮想内視鏡画像75には、以下の2種類のひずみが表れる。
 2種類のひずみとは、投影対象物の視点p0からの距離に応じたひずみと、視点p0から投影対象物への投影面に対する角度に応じたひずみである。 
 そのため仮想内視鏡画像75について病変候補領域検出処理を行う際は、前述の方法で求めた画素値に基づく曲率計算に用いる微分参照点間距離(パラメータP2)を補正する必要がある。
 図21は、投影対象物の視点からの距離に起因するひずみを説明する図であり、図22は、仮想内視鏡画像の端部に生じるひずみを説明する図である。
 図21に示すように、投影対象物を投影面s0に投影すると、視点p0からの距離に応じて、投影される像の大きさは異なる。同じ大きさの2つの物体T1、T2を、視点p0から投影面s0に対して同一方向であって距離の異なる位置に配置する。このとき視点p0から物体T1までの距離をL1とし、視点p0から物体T2までの距離をL2とする。また、投影面s0に投影される像の大きさをそれぞれΔ1、Δ2とする。Δ1とΔ2とを比較すると、視点p0に近い物体T1の方が、投影面s0上では大きな像となっている(Δ1>Δ2)。これが画像のゆがみとなる。したがって、曲率計算を行なう場合には、注目画素対応点p’において微分参照点間距離が等しくなるように、注目画素pにおける微分参照点距離(パラメータP2)を設定する必要がある。
 また、図22に示すように、投影面s0に対して投影対象となる物体T3、T4に向かって、視点p0から法線を延ばしたとき、各法線のなす角度をΘとする。また、投影面s0に投影される像の大きさをそれぞれΔ3、Δ4とする。Δ3とΔ4とを比較すると、角度Θが大きくなるほど投影面s0上では大きな像となる(Δ4>Δ3)。これが画像のゆがみとなる。したがって、仮想内視鏡画像75の端部では、微分参照点間距離(パラメータP2)の値を、画像中央部よりも大きな値に補正する必要がある。
 以下、中心投影法を用いて生成された仮想内視鏡画像75におけるパラメータP2(微分参照点間距離)の補正について、図23、図24、図25を参照して説明する。 
 図23は、中心投影法について説明する図である。 
 図24は、仮想内視鏡画像75における、微分参照点間距離算出処理の流れを示すフローチャートである。 
 図25は、微分参照点間距離算出処理実行時に主メモリ102のRAMに保持されるデータを示す図である。
 図23において、p0は視点、s0は投影面、Δは投影面s0の中心に位置する画素(以下、「中心画素」と呼ぶ。)の1辺の長さ(画素サイズ)、L0は視点p0と中心画素との距離、θ0は、視点p0を中心とする、中心画素の両端と視点p0のなす角度である。 
 また、pは注目画素、Δ’は注目画素対応点p’における投影対象物T1の長さ、L’は視点p0と注目画素対応点p’との距離、θは、視点p0を中心とする、注目画素pの両端と視点p0のなす角度である。
 図24に示す微分参照点間距離算出処理において、CPU101は視点p0の座標と投影面s0の位置及び向きを設定し、主メモリ102に保持する(ステップS501;図25の102A、102B)。投影面s0は、視点p0からの距離L0と、視点p0と中心画素とを結ぶベクトルと、から設定することができる。
 次に、CPU101は、投影面s0の中心画素の1辺の長さ(画素サイズΔ)を算出し、主メモリ102に保持する(ステップS502;図25の102C)。画素サイズΔは、以下の式(19)から求められる。
Figure JPOXMLDOC01-appb-I000019
 CPU101は、投影面s0上の各点(注目画素p)について、以下のステップS503~ステップS506までの処理を繰り返す。
 まず、CPU101は、注目画素pに投影する注目画素対応点p’の座標を取得する(ステップS503)。すなわち、CPU101は、視点p0から注目画素pに対してレイを照射し、閾値範囲内の輝度値を持つ照射先のボクセルの座標を、注目画素対応点p’の座標として取得する。
 次にCPU101は、注目画素pについて、注目画素対応点p’の位置における長さΔ’を求め、主メモリ102Eに保持する(ステップS504;図25の102E)。
 図23に示すように、Δ’は、注目画素対応点p’と視点p0との距離L’と、視点p0から注目画素pを見たときに、画素p’の両端の点と視点p0とのなす角度θとから算出できる。すなわちΔ’は以下の式(20)で表される。
Figure JPOXMLDOC01-appb-I000020
 ここで、角度θは、注目画素pの座標、注目画素pと視点p0間の距離L、中心画素と視点p0間の距離L0と、中心画素の1辺の長さΔより求めることができる。
 CPU101は、注目画素pにおける微分参照点間距離P2を計算する(ステップS505)。中心画素における微分参照点間距離P2が、P2=A×P1の関係である場合(上述の式(1))には、注目画素pの微分参照点間距離P2は、以下の式(21)ように表すことができる。
Figure JPOXMLDOC01-appb-I000021
 CPU101はステップS505で算出した注目画素pについての微分参照点間距離P2を配列に格納する(ステップS506;図25の102F)。
 以上のように、CPU101は仮想内視鏡画像の各画素について、ステップS503からステップS506の処理を繰り返し、全ての画素pについて微分参照点間距離P2を算出すると、図24に示す微分参照点間距離の算出処理を終了する。 
 その後CPU101は、図3に示す病変候補領域検出処理において、上述の処理によって算出した各画素の微分参照点間距離P2を用いて曲率値(Shape Index)を算出し、病変候補の検出を行なう。
 以上説明したように、第4の実施の形態の画像処理システム1では、中心投影法を用いて生成される仮想内視鏡画像について、微分参照点間距離P2を画像のひずみを考慮して補正する。そして補正した微分参照点間距離P2を用いて病変候補の検出を行なう。 
 その結果、仮想内視鏡画像について病変候補検出処理を行う場合にも、臓器表面の形状を正しく評価でき、病変候補領域の検出精度が向上する。
 なお、第4の実施の形態では、中心投影法を用いた仮想内視鏡画像における微分参照点間距離の補正について示したが、仮想内視鏡画像の中には、画像の端に生じるひずみ(視点から投影対象物への投影面に対する角度に応じたひずみ)を補正する処理を施したものもある(例えば、特開平7-296184号公報)。この場合、画像のひずみは視点からの距離だけに依存するので、微分参照点間距離(パラメータP2)についても、視点からの距離だけに依存する補正を行なえばよい。微分参照点間距離は以下の式(22)で表される。
Figure JPOXMLDOC01-appb-I000022
 以上、本発明に係る画像処理装置の好適な実施形態について説明したが、本発明は、上述の実施形態に限定されるものではない。例えば、第1から第4の実施の形態において説明した手法を適宜組み合わせるようにしてもよい。また、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 1 画像処理システム、100 医用画像処理装置、101 CPU、102 主メモリ、103 記憶装置、104 通信I/F、105 表示メモリ、106 I/F、107 表示装置、108 マウス(外部機器)、109 入力装置、110 ネットワーク、111 画像データベース、71 展開画像、713 病変候補領域、72 パラメータ設定ウィンドウ、721 モード一覧、722 数値入力枠、8 管腔臓器、81 管腔領域、82 経路線、83 管腔表面、Qn 経路点、Sn 管腔面、p 注目画素、dx 長手方向画素サイズ、dy 短手方向画素サイズ、O 経路点にフィットする円の中心、O’ 断面集中点

Claims (12)

  1.  医用画像から病変候補領域を検出する画像処理装置であって、
     前記病変候補領域の検出に利用されるパラメータを設定するパラメータ設定手段と、
     前記パラメータ設定手段により設定されたパラメータを用いて前記医用画像を評価し、評価結果に基づいて病変候補領域を検出する病変候補領域検出手段と、
     を備えることを特徴とする画像処理装置。
  2.  前記パラメータ設定手段は、
     第1のパラメータを入力するパラメータ入力手段と、
     前記パラメータ入力手段によって入力された第1のパラメータから、第2のパラメータを算出する第2のパラメータ算出手段と、を備え、
     前記病変候補検出手段は、
     前記医用画像について前記第2のパラメータ算出手段により算出された第2のパラメータを用いて臓器表面の形状を表す特徴量を算出し、算出された特徴量に基づいて病変候補領域を抽出する病変候補領域抽出手段と、
     前記病変候補領域抽出手段によって抽出された病変候補領域について、所定の特徴量を評価することにより偽陽性領域を判定し、偽陽性領域と判定された病変候補領域を削除する偽陽性削除手段と、
     を備えることを特徴とする請求項1に記載の画像処理装置。
  3.  前記第2のパラメータは、前記臓器表面の形状を表す特徴量として曲率値を算出する際に利用される微分参照点間距離であることを特徴とする請求項2に記載の画像処理装置。
  4.  前記パラメータ設定手段は、
     第1のパラメータを入力するパラメータ入力手段と、
     前記パラメータ入力手段によって入力された第1のパラメータから、第3のパラメータを算出する第3のパラメータ算出手段と、を備え、
     前記病変候補検出手段は、
     前記医用画像について臓器表面の形状を表す特徴量を算出し、算出された特徴量に基づいて病変候補領域を抽出する病変候補領域抽出手段と、
     前記病変候補領域抽出手段によって抽出された病変候補領域について、所定の特徴量を前記第3のパラメータ算出手段により算出された第3のパラメータを用いて評価することにより偽陽性領域を判定し、偽陽性領域と判定された病変候補領域を削除する偽陽性削除手段と、
     を備えることを特徴とする請求項1に記載の画像処理装置。
  5.  前記第3のパラメータは、前記病変候補領域の大きさを示すもの、または前記病変候補領域の形状を示すもののうち、少なくともいずれか一方を含むことを特徴とする請求項4に記載の画像処理装置。
  6.  前記パラメータ設定手段によって設定されたパラメータを、前記医用画像の歪みに応じて補正するパラメータ補正手段を更に備え、
     前記病変候補領域検出手段は、前記パラメータ補正手段によって補正されたパラメータを用いて、前記医用画像を評価し、評価結果に基づいて病変候補領域を検出することを特徴とする請求項1に記載の画像処理装置。
  7.  前記医用画像は、管腔臓器の芯線を中心に展開するように臓器内部表面を表示した展開画像であることを特徴とする請求項6に記載の画像処理装置。
  8.  前記医用画像は、管腔臓器内部に設けた仮想的な視点から臓器内部を所定の投影面に投影した仮想内視鏡画像であることを特徴とする請求項6に記載の画像処理装置。
  9.  モード別に前記パラメータの値を予め定めたデータテーブルを備え、
     前記パラメータ設定手段は、選択されたモードに対応するパラメータの値を前記データテーブルから読み出して入力する第1の入力手段を備えることを特徴とする請求項1に記載の画像処理装置。
  10.  前記パラメータの値を数値入力する第2の入力手段を備え、
     前記パラメータ設定手段は、前記第2の入力手段によって入力された数値をパラメータの値として設定することを特徴とする請求項1に記載の画像処理装置。
  11.  前記医用画像が表示される表示画面上に、前記パラメータの値の大きさに応じて大きさまたは形状が変化するオブジェクトを表示させ、該オブジェクトに対する操作によって前記パラメータの値を入力する第3の入力手段を備え、
     前記パラメータ設定手段は、前記第3の入力手段によって入力された前記オブジェクトの大きさまたは形状に応じた値を前記パラメータの値として設定することを特徴とする請求項1に記載の画像処理装置。
  12.  医用画像から病変候補領域を検出する画像処理方法であって、
     前記病変候補領域の検出に利用されるパラメータを設定するパラメータ設定ステップと、
     前記パラメータ設定ステップにより設定されたパラメータを用いて前記医用画像を評価し、評価結果に基づいて病変候補領域を検出する病変候補領域検出ステップと、
     を備えることを特徴とする画像処理方法。
PCT/JP2009/064958 2008-09-01 2009-08-27 画像処理装置、及び画像処理方法 WO2010024331A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/060,506 US8538113B2 (en) 2008-09-01 2009-08-27 Image processing device and method for processing image to detect lesion candidate region
JP2010526757A JP5346938B2 (ja) 2008-09-01 2009-08-27 画像処理装置、及び画像処理装置の作動方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008222978 2008-09-01
JP2008-222978 2008-09-01

Publications (1)

Publication Number Publication Date
WO2010024331A1 true WO2010024331A1 (ja) 2010-03-04

Family

ID=41721497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/064958 WO2010024331A1 (ja) 2008-09-01 2009-08-27 画像処理装置、及び画像処理方法

Country Status (3)

Country Link
US (1) US8538113B2 (ja)
JP (1) JP5346938B2 (ja)
WO (1) WO2010024331A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
US20110261072A1 (en) * 2008-12-05 2011-10-27 Takayuki Kadomura Medical image display device and method of medical image display
JP2016521165A (ja) * 2013-04-18 2016-07-21 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 2d平面投影及び部分的展開表面マッピングプロセスを利用して不整脈を視覚化し分析するためのシステム及び方法
JP2016158916A (ja) * 2015-03-03 2016-09-05 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2019118447A (ja) * 2017-12-28 2019-07-22 株式会社Aze 医用画像処理装置、その制御方法、及びプログラム
CN111986137A (zh) * 2019-05-21 2020-11-24 梁红霞 生物器官病变检测方法、装置、设备及可读存储介质

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4676021B2 (ja) * 2009-04-16 2011-04-27 富士フイルム株式会社 診断支援装置、診断支援プログラムおよび診断支援方法
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
WO2013051045A1 (ja) * 2011-10-03 2013-04-11 株式会社日立製作所 画像処理装置および画像処理方法
US20140003655A1 (en) * 2012-06-29 2014-01-02 Praveen Gopalakrishnan Method, apparatus and system for providing image data to represent inventory
JP6045417B2 (ja) * 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6150555B2 (ja) * 2013-02-26 2017-06-21 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
JP6150554B2 (ja) * 2013-02-26 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
US10117563B2 (en) * 2014-01-09 2018-11-06 Gyrus Acmi, Inc. Polyp detection from an image
JP2015156937A (ja) * 2014-02-24 2015-09-03 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
DE102014007908A1 (de) * 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Chirurgie-System
US20180064342A1 (en) * 2015-03-18 2018-03-08 Imricor Medical Systems, Inc. System and method for enhanced magnetic resonance imaging of tissue
US9536054B1 (en) 2016-01-07 2017-01-03 ClearView Diagnostics Inc. Method and means of CAD system personalization to provide a confidence level indicator for CAD system recommendations
US10339650B2 (en) 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
US10346982B2 (en) 2016-08-22 2019-07-09 Koios Medical, Inc. Method and system of computer-aided detection using multiple images from different views of a region of interest to improve detection accuracy
WO2018235246A1 (ja) * 2017-06-22 2018-12-27 オリンパス株式会社 画像処理装置、画像処理プログラム及び画像処理方法
WO2019023909A1 (zh) * 2017-07-31 2019-02-07 深圳联影医疗科技有限公司 一种肝段分割方法与设备
US12029385B2 (en) * 2018-09-27 2024-07-09 Hoya Corporation Electronic endoscope system
KR20210083725A (ko) * 2019-12-27 2021-07-07 주식회사 이우소프트 치근관의 만곡도를 3차원적으로 시각화하는 방법 및 장치
JP7376674B2 (ja) * 2020-02-10 2023-11-08 富士フイルム株式会社 文書作成支援装置、文書作成支援方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351056A (ja) * 2003-05-30 2004-12-16 Konica Minolta Medical & Graphic Inc 医用画像処理装置
WO2006056798A1 (en) * 2004-11-29 2006-06-01 Medicsight Plc Digital medical image analysis
JP2006230910A (ja) * 2005-02-28 2006-09-07 Konica Minolta Medical & Graphic Inc 画像処理装置及び画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050152588A1 (en) * 2003-10-28 2005-07-14 University Of Chicago Method for virtual endoscopic visualization of the colon by shape-scale signatures, centerlining, and computerized detection of masses
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351056A (ja) * 2003-05-30 2004-12-16 Konica Minolta Medical & Graphic Inc 医用画像処理装置
WO2006056798A1 (en) * 2004-11-29 2006-06-01 Medicsight Plc Digital medical image analysis
JP2006230910A (ja) * 2005-02-28 2006-09-07 Konica Minolta Medical & Graphic Inc 画像処理装置及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TETSUO NAKAZAWA ET AL.: "CT Colonoscopy no Kaihatsu", INNERVISION, vol. 23, no. 4, 25 March 2008 (2008-03-25), pages 14 - 15 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110261072A1 (en) * 2008-12-05 2011-10-27 Takayuki Kadomura Medical image display device and method of medical image display
US8791957B2 (en) * 2008-12-05 2014-07-29 Hitachi Medical Corporation Medical image display device and method of medical image display
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2011212245A (ja) * 2010-03-31 2011-10-27 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
CN102821670A (zh) * 2010-03-31 2012-12-12 富士胶片株式会社 内窥镜观察辅助系统、方法、装置和程序
US9220468B2 (en) 2010-03-31 2015-12-29 Fujifilm Corporation Endoscope observation assistance system, method, apparatus and program
EP2554104A4 (en) * 2010-03-31 2016-01-06 Fujifilm Corp SYSTEM AND METHOD FOR SUPPORTING AN ENDOSCOPE OBSERVATION AND DEVICE AND PROGRAM THEREFOR
JP2016521165A (ja) * 2013-04-18 2016-07-21 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 2d平面投影及び部分的展開表面マッピングプロセスを利用して不整脈を視覚化し分析するためのシステム及び方法
JP2016158916A (ja) * 2015-03-03 2016-09-05 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2019118447A (ja) * 2017-12-28 2019-07-22 株式会社Aze 医用画像処理装置、その制御方法、及びプログラム
JP7114252B2 (ja) 2017-12-28 2022-08-08 キヤノンメディカルシステムズ株式会社 医用画像処理装置、その制御方法、及びプログラム
CN111986137A (zh) * 2019-05-21 2020-11-24 梁红霞 生物器官病变检测方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
US20110164064A1 (en) 2011-07-07
US8538113B2 (en) 2013-09-17
JP5346938B2 (ja) 2013-11-20
JPWO2010024331A1 (ja) 2012-01-26

Similar Documents

Publication Publication Date Title
JP5346938B2 (ja) 画像処理装置、及び画像処理装置の作動方法
US8423124B2 (en) Method and system for spine visualization in 3D medical images
US20190355174A1 (en) Information processing apparatus, information processing system, information processing method, and computer-readable recording medium
EP2420188B1 (en) Diagnosis support apparatus, diagnosis support method, and storage medium storing diagnosis support program
US8542896B2 (en) Medical image processing device and medical image processing method
CN107405126B (zh) 检索成对的医学图像的对应结构
US7304644B2 (en) System and method for performing a virtual endoscopy
US8290231B2 (en) Method and apparatus for providing measurement data of an anomaly in a medical image
US7620229B2 (en) Method and apparatus for aiding image interpretation and computer-readable recording medium storing program therefor
JP6353827B2 (ja) 画像処理装置
JP5492024B2 (ja) 領域分割結果修正装置、方法、及びプログラム
US9019272B2 (en) Curved planar reformation
JPWO2007013300A1 (ja) 異常陰影候補検出方法及び異常陰影候補検出装置
JPWO2010064687A1 (ja) 医用画像表示装置及び医用画像表示方法
WO2016104082A1 (ja) 画像処理装置及び画像処理方法
JP4497951B2 (ja) 医用画像診断装置
JPWO2005009242A1 (ja) 医用画像処理装置及び方法
JP2007267979A (ja) 生物の臓器形態解析方法と生物の臓器形態解析システム
JP2011172692A (ja) 医用画像処理装置、及び医用画像処理プログラム
JP5701208B2 (ja) 医用画像表示装置及び医用画像表示方法
US20220172367A1 (en) Visualization of sub-pleural regions
US8165375B2 (en) Method and system for registering CT data sets
JP2006055402A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2010075334A (ja) 医用画像処理装置及びプログラム
JP2021122677A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09809981

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010526757

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13060506

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09809981

Country of ref document: EP

Kind code of ref document: A1