WO2007111050A1 - 医療用画像処理装置及び医療用画像処理方法 - Google Patents

医療用画像処理装置及び医療用画像処理方法 Download PDF

Info

Publication number
WO2007111050A1
WO2007111050A1 PCT/JP2007/052348 JP2007052348W WO2007111050A1 WO 2007111050 A1 WO2007111050 A1 WO 2007111050A1 JP 2007052348 W JP2007052348 W JP 2007052348W WO 2007111050 A1 WO2007111050 A1 WO 2007111050A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
medical image
dimensional model
predetermined
vector
Prior art date
Application number
PCT/JP2007/052348
Other languages
English (en)
French (fr)
Inventor
Ryoko Inoue
Hirokazu Nishimura
Hideki Tanaka
Kenji Nakamura
Miho Sawa
Original Assignee
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp. filed Critical Olympus Medical Systems Corp.
Priority to CN2007800098633A priority Critical patent/CN101404924B/zh
Priority to EP07714004A priority patent/EP2000075A4/en
Publication of WO2007111050A1 publication Critical patent/WO2007111050A1/ja
Priority to US12/238,603 priority patent/US7830378B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp

Definitions

  • the present invention relates to a medical image processing apparatus and a medical image processing method, and more particularly to a medical image processing apparatus and a medical image processing method capable of detecting a raised shape in a three-dimensional model of a living tissue in a body cavity. Is.
  • An endoscope system configured to include an endoscope, a medical image processing apparatus, and the like is widely used in the medical field and the like.
  • the endoscope system is formed by, for example, an insertion portion that is inserted into a body cavity as a living body, an objective optical system that is disposed at a distal end portion of the insertion portion, and an image formed by the objective optical system.
  • An endoscope including an imaging unit that captures an image of a body cavity and outputs it as an imaging signal, and displays the image of the body cavity on a monitor as a display unit based on the imaging signal
  • a medical image processing apparatus for performing processing for the purpose. Then, based on the image in the body cavity displayed on the monitor or the like as the display unit, the user observes the organ or the like as the subject in the body cavity, for example.
  • an endoscope system having the above-described configuration can also take an image of a digestive tract mucous membrane such as a large intestine as a subject in a body cavity. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.
  • a two-dimensional image including an image of a biological tissue such as a fold of the large intestine or a polyp as an image of a biological tissue having a raised shape imaged by an endoscope is a field of view of the endoscope.
  • the invisible region in the above-described two-dimensional image is generally called occlusion and is a region where it is difficult to estimate an accurate three-dimensional model. Therefore, in the part where the occlusion of the two-dimensional image occurs, for example, there is no estimation result at the corresponding position of the three-dimensional model based on the two-dimensional image, or the three-dimensional image based on the two-dimensional image. An unreliable estimation result may be calculated at the corresponding position in the model.
  • US Patent Application No. 20030223627 A method for detecting a lesion such as a polyp is obtained by observation using, for example, CT (Computed Tomog rapy). This method is assumed to be applied to a 3D model that does not generate occlusion. Therefore, the method for detecting a lesion site such as a polyp proposed in US Patent Application No. 20030223627 is, for example, a two-dimensional image having an occlusion portion obtained by observation using an endoscope. When applied to a 3D model estimated on the basis of this, the detection accuracy of a lesion site such as a polyp is lowered. As a result, when an object is observed while using an endoscope system that adopts the method power proposed in US Patent Application No. 20030223627, the burden on the user to find a diseased site such as a polyp There is a problem that becomes large.
  • CT Computer Tomog rapy
  • the present invention has been made in view of the above points, and in the observation using a three-dimensional model of a subject, it is possible to prevent a user from overlooking a lesion site such as a polyp, thereby reducing the burden on the user.
  • the first medical image processing apparatus is a tertiary that estimates a three-dimensional model of a living tissue based on a two-dimensional image of the living tissue image in the body cavity input from the medical imaging device.
  • An original model estimation unit a button cell detection unit that detects one of the three closest to the visual field direction of the medical imaging apparatus, and the one button cell.
  • a curved plane is acquired, a position where a gradient variation occurs in the curved plane is detected, and a biological tissue having a local raised shape exists at the position in the three-dimensional model.
  • a raised shape detection unit for determining whether or not.
  • the second medical image processing apparatus is the first medical image processing apparatus, wherein the raised shape detecting unit is a plurality of trace lines set in parallel to a predetermined axial direction.
  • the one curved plane is traced along a predetermined axial direction, and at one position in the predetermined axial direction, the number of trace lines in which a change in luminance gradient occurs is one or more and a predetermined value among the plurality of trace lines.
  • the threshold value it is determined that the living tissue having the local raised shape is present at the one position.
  • a third medical image processing apparatus is characterized in that, in the second medical image processing apparatus, the predetermined axial direction is a central axial direction of a lumen in the body cavity. To do.
  • a fourth medical image processing apparatus includes an edge extraction unit that extracts an edge of a two-dimensional image based on a two-dimensional image of a living tissue image in a body cavity, and the two-dimensional image A three-dimensional model estimator for estimating a three-dimensional model of the living tissue based on an image; and detecting one botasel group having the edge estimated as a part of the three-dimensional model; A vector calculation unit that calculates a normal vector and an inverse normal vector that is a vector obtained by inverting the direction of the normal vector by 180 ° in each of the botasels existing at predetermined intervals in the group; Based on the intersection state of each of the line vectors and the intersection state of each of the reverse normal vectors, the first box And whether or not the biological tissue estimated as the one botacel group is a biological tissue having a local raised shape is detected The distance between the raised shape determination unit and the first and second bocells is calculated, and when the distance is equal to or less than a predetermined distance
  • the raised shape determining unit intersects normal vectors within a predetermined vector size.
  • the first voxel in which the number of intersections of the inverse normal vectors is equal to or more than the first threshold within the predetermined vector size is defined as the first voxel.
  • the raised shape determining unit intersects normal vectors within a predetermined vector size.
  • the first one that has a number of inverse normal vectors crossing less than the second threshold within the predetermined vector size is the second one.
  • a seventh medical image processing apparatus is characterized in that, in the sixth medical image processing apparatus, the first threshold value is equal to the second threshold value.
  • a first medical image processing method is based on a three-dimensional model that estimates a three-dimensional model of a living tissue based on a two-dimensional image of a living tissue image in a body cavity input from a medical imaging device.
  • An original model estimation step, a botasel detection step for detecting one of the botasels included in the three-dimensional model, the one closest to the visual field direction of the medical imaging apparatus, and the one A curved plane is acquired, a position where the gradient of the curved plane is generated is detected, and whether or not a living tissue having a local raised shape exists at the position in the three-dimensional model.
  • a raised shape detecting step for determining whether or not.
  • a second medical image processing method is the first medical image processing method, wherein the raised shape detecting step is set in parallel to a predetermined axial direction.
  • the one curved plane is traced along a plurality of trace lines, and at one position in the predetermined axial direction, the number of trace lines in which a change in luminance gradient occurs is one or more of the plurality of trace lines. It is characterized in that it is determined that the living tissue having the local raised shape is present at the one position when it is detected that it is below a predetermined threshold value.
  • a third medical image processing method is characterized in that, in the second medical image processing method, the predetermined axial direction is a central axial direction of a lumen in the body cavity. To do.
  • a fourth medical image processing method includes an edge extraction step of extracting an edge of a two-dimensional image based on a two-dimensional image of an input image of a living tissue in a body cavity.
  • a three-dimensional model estimation step for estimating a three-dimensional model of the living tissue based on a three-dimensional image, and detecting one bocell cell group having the edge estimated as part of the three-dimensional model;
  • a vector calculation step of calculating a normal vector and an inverse normal vector which is a vector obtained by inverting the direction of the normal vector by 180 ° in each of the botasels existing at a predetermined interval in Based on the intersecting state of each of the normal vectors and the intersecting state of each of the inverse normal vectors, the first and second botasels that are the bulge start position and the bulge end position are By detecting, the raised shape determining step for determining whether or not the biological tissue estimated as the above-described one botacell group is a living tissue having a local raised shape, the first
  • the raised shape determination step does not cause normal vectors to intersect with each other within a predetermined vector size.
  • the first one that has the number of crossings of the inverse normal vectors within a predetermined vector size and that is equal to or greater than a first threshold is defined as the first one.
  • a sixth medical image processing method according to the present invention is the fifth medical image processing method according to the fifth aspect, wherein the raised shape determining step starts to intersect normal vectors within a predetermined vector size.
  • the first botacell in which the number of intersections of the inverse normal vectors is smaller than the second threshold value within the predetermined vector size is set as the second one.
  • a seventh medical image processing method is characterized in that, in the sixth medical image processing method, the first threshold value is equal to the second threshold value.
  • FIG. 1 is a diagram showing an example of the overall configuration of an endoscope system in which a medical image processing apparatus according to an embodiment of the present invention is used.
  • FIG. 2 is a schematic diagram showing a state where the endoscope of FIG. 1 is inserted into a tubular organ.
  • FIG. 3 is a flowchart showing a procedure of processing performed by the medical image processing apparatus of FIG. 1 in the first embodiment.
  • FIG. 4 is a diagram showing an example of a three-dimensional model of a biological tissue estimated by the medical image processing apparatus of FIG.
  • FIG. 5 is a diagram showing an example different from FIG. 4 of the three-dimensional model of biological tissue estimated by the medical image processing apparatus of FIG.
  • FIG. 6 is a diagram showing the gradient variation of each trace line in the three-dimensional model of FIG.
  • FIG. 7 is a diagram showing the gradient variation of each trace line in the three-dimensional model of FIG.
  • FIG. 8 is a flowchart showing a procedure of processing performed by the medical image processing apparatus of FIG. 1 in the second embodiment.
  • FIG. 9 is a cross-sectional view schematically showing a three-dimensional model of one biological tissue estimated by the medical image processing apparatus of FIG. 1.
  • FIG. 10 is a diagram showing a normal vector and an inverse normal vector in FIG.
  • FIG. 1 is a diagram showing an example of the overall configuration of an endoscope system in which a medical image processing apparatus according to an embodiment of the present invention is used.
  • FIG. 2 is a schematic diagram showing a state when the endoscope of FIG. 1 is inserted into a tubular organ.
  • FIG. 3 is a flowchart showing a procedure of processing performed by the medical image processing apparatus of FIG. 1 in the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a three-dimensional model of a biological tissue estimated by the medical image processing apparatus of FIG.
  • FIG. 5 is a diagram showing an example different from FIG. 4 of the three-dimensional model of biological tissue estimated by the medical image processing apparatus of FIG.
  • FIG. 6 is a diagram showing the variation of the gradient of each trace line in the three-dimensional model of FIG.
  • FIG. 7 is a diagram showing the gradient variation of each trace line in the three-dimensional model of FIG.
  • the endoscope system 1 includes a medical observation apparatus 2 that captures an image of a subject and outputs a two-dimensional image of the image of the subject, a personal computer, and the like.
  • a medical image processing device 3 that performs image processing on the video signal of the two-dimensional image output from the observation device 2 and outputs the video signal after the image processing as an image signal, and medical image processing And a monitor 4 for displaying an image based on the image signal output from the device 3.
  • the medical observation apparatus 2 is inserted into a body cavity, images the subject in the body cavity and outputs it as an imaging signal, and the subject imaged by the endoscope 6
  • the signal processing is performed on the imaging signal output from the endoscope 6 to generate a two-dimensional image.
  • a camera control unit (hereinafter abbreviated as CCU) 8 that outputs as a video signal, and a monitor that displays the image of the subject imaged by the endoscope 6 based on the video signal of the two-dimensional image that also outputs CCU 8 power 9
  • the principal part is comprised.
  • the endoscope 6 includes an insertion portion 11 that is inserted into a body cavity, and an operation portion 12 that is provided on the proximal end side of the insertion portion 11. Further, a light guide 13 for transmitting illumination light supplied from the light source device 7 is passed through a portion from the proximal end side in the insertion portion 11 to the distal end portion 14 on the distal end side in the insertion portion 11. ing.
  • the light guide 13 has a distal end side disposed at the distal end portion 14 of the endoscope 6 and a rear end side connected to the light source device 7.
  • the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and then provided on the distal end surface of the distal end portion 14 of the insertion portion 11. Not illuminating window force is also emitted. Then, illumination light is emitted from an illumination window (not shown) to illuminate a living tissue or the like as a subject.
  • an objective optical system 15 attached to an observation window (not shown) adjacent to an illumination window (not shown) and an imaging position of the objective optical system 15 are arranged.
  • An imaging unit 17 having an imaging device 16 constituted by a CCD (charge coupled device) or the like is provided. With such a configuration, the subject image formed by the objective optical system 15 is captured by the imaging element 16 and then output as an imaging signal.
  • the image sensor 16 is connected to the CCU 8 via a signal line.
  • the image sensor 16 is driven based on the drive signal output from the CCU 8, and outputs an image signal to the CCU 8.
  • the imaging signal input to the CCU 8 is converted and output as a video signal of a two-dimensional image by performing signal processing in a signal processing circuit (not shown) provided in the CCU 8.
  • the video signal of the two-dimensional image output from the CCU 8 is output to the monitor 9 and the medical image processing device 3.
  • an image of the subject based on the video signal output from the CCU 8 is displayed on the monitor 9 as a two-dimensional image.
  • the medical image processing device 3 performs an AZD conversion on the video signal of the two-dimensional image output from the medical observation device 2, and outputs the image input unit 21 from the image input unit 21.
  • CPU 22 as a central processing unit that performs image processing on a video signal to be processed, a processing program storage unit 23 in which a processing program related to the image processing is written, a video signal output from the image input unit 21, and the like
  • an information storage unit 25 for storing image data as an image processing result of the CPU 22 and the like.
  • the medical image processing apparatus 3 includes a storage device interface 26, a hard disk 27 as a storage device that stores image data and the like as image processing results of the CPU 22 via the storage device interface 26, Image data as the result of CPU22 image processing Display processing for displaying the image data on the monitor 4 on the basis of the display processing, and the display processing unit 28 for outputting the image data after the display processing as an image signal, and the image processing performed by the CPU 22 And an input operation unit 29 configured by a keyboard or the like that allows a user to input parameters and operation instructions to the medical image processing apparatus 3.
  • the monitor 4 displays an image based on the image signal output from the display processing unit 28.
  • the image input unit 21, the CPU 22, the processing program storage unit 23, the image storage unit 24, the information storage unit 25, the storage device interface 26, the display processing unit 28, and the input operation unit 29 of the medical image processing apparatus 3 are used. are connected to each other via a data bus 30.
  • the user inserts the insertion portion 11 of the endoscope 6 into a tubular organ 31 such as the large intestine, for example.
  • a tubular organ 31 such as the large intestine
  • images of the living tissues 31A and 31B existing on the inner wall of the tubular organ 31 are captured by the imaging unit 17 provided at the distal end portion 14.
  • the images of the living tissues 31A and 31B captured by the imaging unit 17 are output to the CCU 8 as imaging signals.
  • the CCU 8 performs signal processing on the imaging signal output from the imaging element 16 of the imaging unit 17 in a signal processing circuit (not shown), thereby converting the imaging signal as a video signal of a two-dimensional image. Output.
  • the monitor 9 displays the images of the living tissues 31A and 31B as a two-dimensional image based on the video signal output from the CCU 8. Further, the CCU 8 outputs a video signal of a two-dimensional image obtained by performing signal processing on the imaging signal output from the imaging device 16 of the imaging unit 17 to the medical image processing apparatus 3. .
  • the video signal of the two-dimensional image output to the medical image processing device 3 is AZD converted by the image input unit 21 and then input to the CPU 22.
  • the CPU 22 as the three-dimensional model estimation unit for example, based on the luminance information of the video signal of the two-dimensional image output from the image input unit 21 by processing such as geometric conversion, A three-dimensional model of the tubular organ 31 having the biological tissues 31 A and 31B is estimated.
  • the CPU 22 performs the processes described below based on the three-dimensional model of the tubular organ 31 having the biological tissues 31A and 31B, thereby raising the biological tissues 31A and 31B. While detecting the shape, it is determined what kind of living tissue the detected raised shape is.
  • the CPU 22 acquires the central axis Lc of the lumen in the three-dimensional model of the tubular organ 31 based on the estimated three-dimensional model (step S 1 in FIG. 3).
  • the CPU 22 serving as the button cell detection unit and the raised shape detection unit is one of the button cells existing in the foremost side with respect to the visual field direction of the endoscope 6 among the button cells existing in the estimated three-dimensional model.
  • one zeta coordinate Ps whose z-axis coordinate, which is an axis substantially parallel to the visual field direction of the endoscope 6, has a minimum value Minz is detected, and the z-axis coordinate Minz included in the one bocellel Ps is detected.
  • the reference line L of the one curved plane are acquired (step S2 in FIG. 3).
  • the CPU 22 divides the reference line L into N equal parts, sets each of the N coordinates as a reference point (step S3 in FIG. 3), and determines whether or not the acquired reference line L is a closed curve. judge.
  • the CPU 22 for example, from each of the N reference points of the reference line L set as shown in FIG. A straight line parallel to the central axis Lc of the cavity is set as a trace line in one curved plane including one bocellel Ps (step S5 in FIG. 3).
  • step S4 in FIG. 3 When the acquired reference line L is not a closed curve (step S4 in FIG. 3), for example, from each of N reference points of the reference line L set as shown in FIG. A straight line extending radially (or parallel to the central axis Lc of the lumen) is set as a trace line in one curved plane including one botasel Ps (step S6 in FIG. 3).
  • the CPU 22 as the raised shape detection unit includes the one botell cell Ps in one curved plane. While tracing each of the botasels existing on each trace line, based on the luminance information possessed by each of the botasels, the darended (luminance gradient) in the trace direction is sequentially calculated (step S7 in FIG. 3).
  • the CPU 22 detects the variation of the gradient in the V-axis direction of each trace line in one curved plane including one botasel Ps as a variation as shown in FIG.
  • the CPU 22 determines a position where a living tissue having a local raised shape exists on the inner wall of the tubular organ 31 such as the living tissue 31A shown in FIG. 4 or FIG. Control is performed on the display processing unit 28 so as to superimpose a character string or coloring for display on the three-dimensional model.
  • the monitor 4 shows the lesion site as a living tissue having a locally raised shape on the inner wall of the tubular organ 31 such as the living tissue 31A, and the entire inner wall of the tubular organ 31 such as the living tissue 31B.
  • a three-dimensional model of the tubular organ 31 having the biological tissues 31A and 31B that can be easily found by a user without being confused with a fold such as the large intestine as a biological tissue having a protruding shape around the circumference is displayed. .
  • the CPU 22 determines each pixel on the two-dimensional image that exists at a position corresponding to the position of each of the botasels based on the position of each of the botasels determined that there is a living tissue having a local raised shape.
  • the display processing unit 28 is controlled to superimpose a character string or coloring to indicate that the living tissue 31A has a raised shape on the two-dimensional image having the pixels. It may be what you do.
  • the medical image processing apparatus 3 of the present embodiment performs a series of processes described above, so that when a user observes a subject using a three-dimensional model, a lesion such as a polyp is obtained.
  • the burden on the user can be reduced by preventing oversight of the part.
  • (Second Embodiment) 8 to 10 relate to the second embodiment of the present invention. Note that detailed description of portions having the same configuration as in the first embodiment is omitted. In addition, the same components as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted. Furthermore, the configuration of the endoscope system 1 used in the present embodiment is the same as that in the first embodiment.
  • FIG. 8 is a flowchart showing a processing procedure performed by the medical image processing apparatus of FIG. 1 in the second embodiment.
  • FIG. 9 is a cross-sectional view schematically showing a three-dimensional model of one biological tissue estimated by the medical image processing apparatus of FIG.
  • FIG. 10 is a diagram showing the normal vector and the inverse normal vector in FIG.
  • the CPU 22 as the edge extraction unit is based on the video signal of the two-dimensional image obtained by imaging the tubular organ 31 output from the image input unit 21, for example, for the red component of the two-dimensional image.
  • the CPU 22 temporarily stores edge information, which is information on the position of the pixel group from which the edge portion is extracted, in the information storage unit 25.
  • the CPU 22 as the three-dimensional model estimation unit for example, based on luminance information of the video signal of the two-dimensional image output from the image input unit 21 by processing such as geometric conversion, A three-dimensional model of the tubular organ 31 is estimated and, based on the edge information stored in the information storage unit 25, one botacell group having an edge portion is detected based on the three-dimensional model. Further, the CPU 22 performs processing as described below on the one button cell group, so that one living tissue three-dimensionally modeled by the one button cell group has a raised shape caused by a lesion. Judgment of force is performed.
  • the CPU 22 serving as a vector calculation unit detects one botacell group having an edge portion in the three-dimensional model of the tubular organ 31, and each of the voxel groups present at predetermined intervals.
  • a normal vector and an inverse normal vector that is a vector obtained by inverting the direction of the normal vector by 180 ° are calculated (step S21 in FIG. 8). More specifically, for example, when a three-dimensional model of a living tissue 31C having a cross-sectional shape as shown in FIG. 9 is detected, the normal vector and the inverse method are used for each botacell existing at a predetermined interval.
  • the line vector is calculated as shown in FIG.
  • the CPU 22 as the raised shape determination unit determines whether the normal vector of each of the botasels is a normal vector. Based on the inverse normal vector, the normal vector no longer intersects within a predetermined vector size, and the number of inverse normal vector intersections exceeds the threshold thvl within the predetermined vector size.
  • the button cell S shown in FIG. 10 as the first button cell is detected as the button cell that is the bulging start position (step S22 in FIG. 8).
  • the CPU 22 as the raised shape determination unit starts to intersect the normal vectors within the size of a predetermined vector based on the normal vector and the inverse normal vector of each of the botasels.
  • a bottom cell T as shown in FIG. 10 is detected as the top end of the uplift position (step S23 in FIG. 8). .
  • the threshold value thvl and the threshold value thv2 may be different values or may be equal values.
  • the CPU 22 as the raised shape determination unit determines whether or not the two botasels S, B, and T can be detected in the three-dimensional model of the living tissue 31C. Then, when the CPU 22 can detect both of the two botasels S and B (step S24 in FIG. 8), the CPU 22 calculates a distance La between the botasels S and T (see FIG. 8). Step S25). In addition, when the CPU 22 is unable to detect one or both of the two botasels S and T (step S24 in FIG. 8), the CPU 22 recognizes the three-dimensional model group as one group of botasels having an edge portion.
  • a portion having a shape such as a step existing in the tubular organ 31 or the entire circumference of the inner wall of the tubular organ 31 is not used. It is determined that the body thread is a living body such as a fold having a raised shape (step S28 in FIG. 8), and the series of processing ends.
  • the CPU 22 as a lesion determination unit compares the calculated distance La between Boxenore S and Boxenore T with a threshold thLa. Then, when the CPU 22 as the lesion determination unit detects that the distance La between the botagels S and the botasels T is equal to or less than the threshold thLa, the biological tissue that is three-dimensionally modeled as one botasel group having an edge portion. It is determined that 31C is a living body and weaving having a local raised shape caused by a lesion (step S27 in FIG. 8), and a series of processing ends. In addition, the CPU 22 determines that the distance La between the botacels S and T is the threshold value.
  • the living tissue 31C that is three-dimensionally modeled as one botacell group having an edge portion is not replaced by a living tissue having a local raised shape caused by a lesion. 8 is determined to be a part of the body having a shape such as a step or a living tissue such as a fold having a raised shape over the entire inner wall of the tubular organ 31 (step S28 in FIG. 8). The process ends.
  • the CPU 22 superimposes, for example, a character string or coloring to indicate the position where the living tissue 31C having a raised shape caused by a lesion is present on the three-dimensional model.
  • a character string or coloring to indicate the position where the living tissue 31C having a raised shape caused by a lesion is present on the three-dimensional model.
  • Such control is performed on the display processing unit 28.
  • the monitor 4 is provided with a living tissue 31C that can be easily found by a user who does not confuse the raised shape caused by the lesion with a part having a shape such as a step or a living tissue such as a fold.
  • a three-dimensional model of the existing tubular organ 31 is displayed as an image.
  • the CPU 22 determines each pixel on the two-dimensional image that exists at a position corresponding to the position of each botacell based on the position of each botacell determined that there is a living tissue having a local raised shape.
  • the display processing unit 28 is controlled to superimpose a character string or coloring to indicate that the living tissue 31A has a raised shape on the two-dimensional image having the pixels. It may be what you do.
  • the medical image processing device 3 of the present embodiment performs a series of processes described above, so that when a user observes a subject using a three-dimensional model, a lesion such as a polyp is obtained.
  • the burden on the user can be reduced by preventing oversight of the part.
  • the series of processing performed by the CPU 22 in the present embodiment is not limited to the one applied to the three-dimensional model of the tubular organ 31.
  • a two-dimensional image of the tubular organ 31 It may be applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Analysis (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Algebra (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 本発明の医療用画像処理装置は、医療用撮像装置から入力される体腔内の生体組織の像の二次元画像に基づき、該生体組織の三次元モデルを推定する三次元モデル推定部と、前記三次元モデルが有するボクセルのうち、前記医療用撮像装置の視野方向に対して最も手前側に存在する一のボクセルを検出するボクセル検出部と、前記一のボクセルを含む一の曲平面を取得し、該一の曲平面において勾配の変動が生じている位置を検出するとともに、前記三次元モデルにおける該位置に局所的な隆起形状を有する生体組織が存在するか否かを判定する隆起形状検出部と、を有する。

Description

明 細 書
医療用画像処理装置及び医療用画像処理方法
技術分野
[0001] 本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、体腔内 の生体組織の三次元モデルにおける隆起形状を検出可能な医療用画像処理装置 及び医療用画像処理方法に関するものである。
背景技術
[0002] 内視鏡及び医療用画像処理装置等を具備して構成される内視鏡システムは、医療 分野等において広く用いられている。具体的には、内視鏡システムは、例えば、生体 としての体腔内に挿入される挿入部と、該揷入部の先端部に配置された対物光学系 と、該対物光学系により結像された体腔内の像を撮像して撮像信号として出力する 撮像部とを有して構成される内視鏡と、該撮像信号に基づき、表示部としてのモニタ 等に該体腔内の像を画像表示させるための処理を行う医療用画像処理装置とを具 備して構成されている。そして、ユーザは、表示部としてのモニタ等に画像表示され た体腔内の像に基づき、例えば、体腔内における被写体としての臓器等の観察を行
[0003] また、前述した構成を具備する内視鏡システムは、体腔内における被写体として、 例えば、大腸等の消化管粘膜の像を撮像することもまた可能である。そのため、ユー ザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所 見を総合的に観察することができる。
[0004] さらに、近年においては、内視鏡により撮像された被写体の像の撮像信号に応じた 二次元画像のデータに基づき、該被写体の三次元モデルを生成することが可能であ る、例えば、日本国特開平 11— 337845号公報に記載されているような内視鏡装置 が提案されている。
[0005] 一方、三次元モデルにおいてポリープ等の病変部位を検出するための方法として 、例えば、 Shapelndex及び Curvednessといった、曲率に基づく形状特徴量を用い つつ該三次元モデルの形状の評価を行うことにより、該三次元モデルにおける病変 部位を検出可能である、 US Patent Application No. 20030223627に記載 されて ヽる方法が提案されて 、る。
[0006] 特に、内視鏡により撮像された隆起形状を有する生体組織の像としての、例えば、 大腸のひだまたはポリープ等の生体組織の像を含む二次元画像は、該内視鏡の視 野方向に対して不可視領域を含む場合が多い。そして、前述した二次元画像におけ る不可視領域は、一般的にォクルージョンと呼ばれており、正確な三次元モデルの 推定が困難な領域である。そのため、二次元画像のォクルージョンが発生している部 分においては、例えば、該二次元画像に基づく三次元モデルの対応する位置に推 定結果が存在しない、または、該二次元画像に基づく三次元モデルの対応する位置 に信頼性の低い推定結果が算出されるといったことが起こり得る。
[0007] その結果、従来の画像処理としての、例えば、日本国特開平 11— 337845号公報 の内視鏡装置において行われている画像処理により推定された被写体の三次元モ デルが用いられつつ該被写体の観察が行われた場合、ユーザがポリープ等の病変 部位を見つける際の負担が大きくなつてしまうと 、う課題が生じて 、る。
[0008] また、 US Patent Application No. 20030223627【こお!ヽて提案されて!ヽる ポリープ等の病変部位を検出するための方法は、例えば、 CT (Computed Tomog rapy)を用いた観察により得られる、ォクルージョンとなる部分が発生しない三次元モ デルに対する適用を想定した方法である。そのため、 US Patent Application No. 20030223627において提案されているポリープ等の病変部位を検出するた めの方法は、例えば、内視鏡を用いた観察により得られる、ォクルージョンとなる部分 を有する二次元画像に基づいて推定された三次元モデルに対して適用された場合 に、ポリープ等の病変部位の検出精度が低下してしまう。その結果、 US Patent A pplication No. 20030223627において提案されている方法力採用された内視 鏡システムが用いられつつ被写体の観察が行われた場合、ユーザがポリープ等の病 変部位を見つける際の負担が大きくなつてしまうという課題が生じている。
[0009] 本発明は、前述した点に鑑みてなされたものであり、被写体の三次元モデルを用い た観察において、ユーザによるポリープ等の病変部位の見落としを防止可能であるこ とにより、ユーザの負担を軽減させることのできる医療用画像処理装置及び医療用画 像処理方法を提供することを目的として!ヽる。
発明の開示
課題を解決するための手段
[0010] 本発明における第 1の医療用画像処理装置は、医療用撮像装置から入力される体 腔内の生体組織の像の二次元画像に基づき、該生体組織の三次元モデルを推定 する三次元モデル推定部と、前記三次元モデルが有するボタセルのうち、前記医療 用撮像装置の視野方向に対して最も手前側に存在する一のボタセルを検出するボタ セル検出部と、前記一のボタセルを含む一の曲平面を取得し、該一の曲平面におい て勾配の変動が生じている位置を検出するとともに、前記三次元モデルにおける該 位置に局所的な隆起形状を有する生体組織が存在するか否かを判定する隆起形状 検出部と、を有することを特徴とする。
[0011] 本発明における第 2の医療用画像処理装置は、前記第 1の医療用画像処理装置 において、前記隆起形状検出部は、所定の軸方向に対して平行に設定される複数 のトレースラインに沿って前記一の曲平面をトレースし、前記所定の軸方向の一の位 置において、前記複数のトレースラインのうち、輝度勾配の変動が生じたトレースライ ンの数が 1以上かつ所定の閾値以下であることを検出した場合に、前記局所的な隆 起形状を有する生体組織が前記一の位置に存在すると判定することを特徴とする。
[0012] 本発明における第 3の医療用画像処理装置は、前記第 2の医療用画像処理装置 において、前記所定の軸方向は、前記体腔内における管腔の中心軸方向であること を特徴とする。
[0013] 本発明における第 4の医療用画像処理装置は、入力される体腔内の生体組織の像 の二次元画像に基づき、該二次元画像のエッジを抽出するエッジ抽出部と、前記二 次元画像に基づき、前記生体組織の三次元モデルを推定する三次元モデル推定部 と、前記三次元モデルの一部として推定された、前記エッジを有する一のボタセル群 を検出するとともに、該一のボタセル群のうち、所定の間隔毎に存在する各ボタセル において、法線ベクトルと、該法線ベクトルの向きを 180° 反転させたベクトルである 逆法線ベクトルとを算出するベクトル算出部と、前記法線ベクトル各々の交差状態と 、前記逆法線ベクトル各々の交差状態とに基づき、隆起開始位置となる第 1のボクセ ルと、隆起終了位置となる第 2のボタセルとを検出することにより、前記一のボタセル 群として推定された生体組織が、局所的な隆起形状を有する生体組織であるカゝ否か を判定する隆起形状判定部と、前記第 1のボタセルと前記第 2のボタセルとの間の距 離を算出するとともに、該距離が所定の距離以下である場合に、前記一のボタセル 群として推定された生体組織を、病変に起因する局所的な隆起形状を有する生体組 織であると判定する病変判定部と、を有することを特徴とする。
[0014] 本発明における第 5の医療用画像処理装置は、前記第 4の医療用画像処理装置 において、前記隆起形状判定部は、所定のベクトルの大きさ以内において法線べク トル同士が交差しなくなり始めるとともに、該所定のベクトルの大きさ以内において逆 法線べクトルの交差本数が第 1の閾値以上となる最初のボタセルを前記第 1のボクセ ルとすることを特徴とする。
[0015] 本発明における第 6の医療用画像処理装置は、前記第 5の医療用画像処理装置 において、前記隆起形状判定部は、所定のベクトルの大きさ以内において法線べク トル同士が交差し始めるとともに、該所定のベクトルの大きさ以内において逆法線べ タトルの交差本数が第 2の閾値より小さくなる最初のボタセルを前記第 2のボタセルと することを特徴とする。
[0016] 本発明における第 7の医療用画像処理装置は、前記第 6の医療用画像処理装置 において、前記第 1の閾値は、前記第 2の閾値と等しい値であることを特徴とする。
[0017] 本発明における第 1の医療用画像処理方法は、医療用撮像装置から入力される体 腔内の生体組織の像の二次元画像に基づき、該生体組織の三次元モデルを推定 する三次元モデル推定ステップと、前記三次元モデルが有するボタセルのうち、前記 医療用撮像装置の視野方向に対して最も手前側に存在する一のボタセルを検出す るボタセル検出ステップと、前記一のボタセルを含む一の曲平面を取得し、該一の曲 平面において勾配の変動が生じている位置を検出するとともに、前記三次元モデル における該位置に局所的な隆起形状を有する生体組織が存在するか否かを判定す る隆起形状検出ステップと、を有することを特徴とする。
[0018] 本発明における第 2の医療用画像処理方法は、前記第 1の医療用画像処理方法 において、前記隆起形状検出ステップは、所定の軸方向に対して平行に設定される 複数のトレースラインに沿って前記一の曲平面をトレースし、前記所定の軸方向の一 の位置において、前記複数のトレースラインのうち、輝度勾配の変動が生じたトレー スラインの数が 1以上かつ所定の閾値以下であることを検出した場合に、前記局所的 な隆起形状を有する生体組織が前記一の位置に存在すると判定することを特徴とす る。
[0019] 本発明における第 3の医療用画像処理方法は、前記第 2の医療用画像処理方法 において、前記所定の軸方向は、前記体腔内における管腔の中心軸方向であること を特徴とする。
[0020] 本発明における第 4の医療用画像処理方法は、入力される体腔内の生体組織の像 の二次元画像に基づき、該二次元画像のエッジを抽出するエッジ抽出ステップと、前 記二次元画像に基づき、前記生体組織の三次元モデルを推定する三次元モデル推 定ステップと、前記三次元モデルの一部として推定された、前記エッジを有する一の ボタセル群を検出するとともに、該一のボタセル群のうち、所定の間隔毎に存在する 各ボタセルにおいて、法線ベクトルと、該法線ベクトルの向きを 180° 反転させたベタ トルである逆法線ベクトルとを算出するベクトル算出ステップと、前記法線ベクトル各 々の交差状態と、前記逆法線ベクトル各々の交差状態とに基づき、隆起開始位置と なる第 1のボタセルと、隆起終了位置となる第 2のボタセルとを検出することにより、前 記一のボタセル群として推定された生体組織が、局所的な隆起形状を有する生体組 織であるか否かを判定する隆起形状判定ステップと、前記第 1のボタセルと前記第 2 のボタセルとの間の距離を算出するとともに、該距離が所定の距離以下である場合 に、前記一のボタセル群として推定された生体組織を、病変に起因する局所的な隆 起形状を有する生体糸且織であると判定する病変判定ステップと、 を有することを特 徴とする。
[0021] 本発明における第 5の医療用画像処理方法は、前記第 4の医療用画像処理方法 において、前記隆起形状判定ステップは、所定のベクトルの大きさ以内において法 線ベクトル同士が交差しなくなり始めるとともに、該所定のベクトルの大きさ以内にお いて逆法線ベクトルの交差本数が第 1の閾値以上となる最初のボタセルを前記第 1 のボタセルとすることを特徴とする。 [0022] 本発明における第 6の医療用画像処理方法は、前記第 5の医療用画像処理方法 において、前記隆起形状判定ステップは、所定のベクトルの大きさ以内において法 線ベクトル同士が交差し始めるとともに、該所定のベクトルの大きさ以内において逆 法線ベクトルの交差本数が第 2の閾値より小さくなる最初のボタセルを前記第 2のボタ セルとすることを特徴とする。
[0023] 本発明における第 7の医療用画像処理方法は、前記第 6の医療用画像処理方法 において、前記第 1の閾値は、前記第 2の閾値と等しい値であることを特徴とする。 図面の簡単な説明
[0024] [図 1]本発明の実施形態に係る医療用画像処理装置が用いられる内視鏡システムの 全体構成の一例を示す図。
[図 2]図 1の内視鏡が管状器官内に挿入された場合の状態を示す模式図。
[図 3]図 1の医療用画像処理装置が第 1の実施形態において行う処理の手順を示す フローチャート。
[図 4]図 1の医療用画像処理装置により推定された生体組織の三次元モデルの一例 を示す図。
[図 5]図 1の医療用画像処理装置により推定された生体組織の三次元モデルの、図 4 とは異なる例を示す図。
[図 6]図 4の三次元モデルにおける、各トレースラインのグラディエントの変動を示す 図。
[図 7]図 5の三次元モデルにおける、各トレースラインのグラディエントの変動を示す 図。
[図 8]図 1の医療用画像処理装置が第 2の実施形態において行う処理の手順を示す フローチャート。
[図 9]図 1の医療用画像処理装置により推定された一の生体組織の三次元モデルを 模式化した断面図。
[図 10]図 9における法線ベクトル及び逆法線ベクトルを示す図。
発明を実施するための最良の形態
[0025] 以下、図面を参照して本発明の実施形態を説明する。 [0026] (第 1の実施形態)
図 1から図 7は、本発明の第 1の実施形態に係るものである。図 1は、本発明の実施 形態に係る医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を 示す図である。図 2は、図 1の内視鏡が管状器官内に挿入された場合の状態を示す 模式図である。図 3は、図 1の医療用画像処理装置が第 1の実施形態において行う 処理の手順を示すフローチャートである。図 4は、図 1の医療用画像処理装置により 推定された生体組織の三次元モデルの一例を示す図である。図 5は、図 1の医療用 画像処理装置により推定された生体組織の三次元モデルの、図 4とは異なる例を示 す図である。図 6は、図 4の三次元モデルにおける、各トレースラインのグラディエント の変動を示す図である。図 7は、図 5の三次元モデルにおける、各トレースラインのグ ラデイエントの変動を示す図である。
[0027] 内視鏡システム 1は、図 1に示すように、被写体を撮像するとともに、該被写体の像 の二次元画像を出力する医療用観察装置 2と、パーソナルコンピュータ等により構成 され、医療用観察装置 2から出力される二次元画像の映像信号に対して画像処理を 行うとともに、該画像処理を行った後の映像信号を画像信号として出力する医療用 画像処理装置 3と、医療用画像処理装置 3から出力される画像信号に基づく画像を 表示するモニタ 4とを有して要部が構成されて 、る。
[0028] また、医療用観察装置 2は、体腔内に挿入されるとともに、該体腔内の被写体を撮 像して撮像信号として出力する内視鏡 6と、内視鏡 6により撮像される被写体を照明 するための照明光を供給する光源装置 7と、内視鏡 6に対する各種制御を行うととも に、内視鏡 6から出力される撮像信号に対して信号処理を行い、二次元画像の映像 信号として出力するカメラコントロールユニット(以降、 CCUと略記する) 8と、 CCU8 力も出力される二次元画像の映像信号に基づき、内視鏡 6により撮像された被写体 の像を画像表示するモニタ 9とを有して要部が構成されている。
[0029] 内視鏡 6は、体腔内に挿入される挿入部 11と、挿入部 11の基端側に設けられた操 作部 12とを有して構成されている。また、挿入部 11内の基端側から、挿入部 11内の 先端側の先端部 14にかけての部分には、光源装置 7から供給される照明光を伝送 するためのライトガイド 13が揷通されている。 [0030] ライトガイド 13は、先端側が内視鏡 6の先端部 14に配置されるとともに、後端側が 光源装置 7に接続される。ライトガイド 13がこのような構成を有することにより、光源装 置 7から供給される照明光は、ライトガイド 13により伝送された後、挿入部 11の先端 部 14の先端面に設けられた、図示しない照明窓力も出射される。そして、図示しない 照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される
[0031] 内視鏡 6の先端部 14には、図示しない照明窓に隣接する図示しない観察窓に取り 付けられた対物光学系 15と、対物光学系 15の結像位置に配置され、例えば、 CCD (電荷結合素子)等により構成される撮像素子 16とを有する撮像部 17が設けられて いる。このような構成により、対物光学系 15により結像された被写体の像は、撮像素 子 16により撮像された後、撮像信号として出力される。
[0032] 撮像素子 16は、信号線を介して CCU8に接続されている。そして、撮像素子 16は 、 CCU8から出力される駆動信号に基づいて駆動するとともに、 CCU8に対して撮像 信号を出力する。
[0033] また、 CCU8に入力された撮像信号は、 CCU8の内部に設けられた図示しない信 号処理回路において信号処理されることにより、二次元画像の映像信号として変換さ れて出力される。 CCU8から出力された二次元画像の映像信号は、モニタ 9及び医 療用画像処理装置 3に対して出力される。これにより、モニタ 9には、 CCU8から出力 される映像信号に基づく被写体の像が二次元の画像として表示される。
[0034] 医療用画像処理装置 3は、医療用観察装置 2から出力される二次元画像の映像信 号に対し、 AZD変換を行って出力する画像入力部 21と、画像入力部 21から出力さ れる映像信号に対して画像処理を行う、中央演算処理装置としての CPU22と、該画 像処理に関する処理プログラムが書き込まれた処理プログラム記憶部 23と、画像入 力部 21から出力される映像信号等を記憶する画像記憶部 24と、 CPU22の画像処 理結果としての画像データ等を記憶する情報記憶部 25とを有する。
[0035] また、医療用画像処理装置 3は、記憶装置インターフェース 26と、記憶装置インタ 一フェース 26を介して CPU22の画像処理結果としての画像データ等を記憶する、 記憶装置としてのハードディスク 27と、 CPU22の画像処理結果としての画像データ に基づき、該画像データをモニタ 4に画像表示するための表示処理を行うとともに、 該表示処理を行った後の画像データを画像信号として出力する表示処理部 28と、 C PU22が行う画像処理におけるパラメータ及び医療用画像処理装置 3に対する操作 指示をユーザが入力可能な、キーボード等により構成される入力操作部 29とを有す る。そして、モニタ 4は、表示処理部 28から出力される画像信号に基づく画像を表示 する。
[0036] なお、医療用画像処理装置 3の画像入力部 21、 CPU22、処理プログラム記憶部 2 3、画像記憶部 24、情報記憶部 25、記憶装置インターフェース 26、表示処理部 28 及び入力操作部 29は、データバス 30を介して相互に接続されている。
[0037] 次に、内視鏡システム 1の作用について説明を行う。
[0038] まず、ユーザは、図 2に示すように、例えば、大腸等である管状器官 31内に内視鏡 6の挿入部 11を挿入する。そして、ユーザにより挿入部 11が管状器官 31に挿入され ると、例えば、管状器官 31の内壁に存在する生体組織 31A及び 31Bの像が、先端 部 14に設けられた撮像部 17により撮像される。そして、撮像部 17により撮像された、 生体組織 31 A及び 31Bの像は、撮像信号として CCU8に対して出力される。
[0039] CCU8は、図示しない信号処理回路において、撮像部 17の撮像素子 16から出力 される撮像信号に対して信号処理を行うことにより、該撮像信号を二次元画像の映像 信号として変換して出力する。そして、モニタ 9は、 CCU8から出力される映像信号に 基づき、生体組織 31 A及び 31Bの像を二次元の画像として表示する。また、 CCU8 は、撮像部 17の撮像素子 16から出力される撮像信号に対して信号処理を行うことに より得られた二次元画像の映像信号を、医療用画像処理装置 3に対して出力する。
[0040] 医療用画像処理装置 3に対して出力された二次元画像の映像信号は、画像入力 部 21において AZD変換された後、 CPU22に入力される。
[0041] そして、三次元モデル推定部としての CPU22は、例えば、幾何学的な変換等の処 理により、画像入力部 21から出力された二次元画像の映像信号の輝度情報等に基 づき、生体組織 31 A及び 31Bを有する管状器官 31の三次元モデルを推定する。
[0042] さらに、 CPU22は、生体組織 31A及び 31Bを有する管状器官 31の三次元モデル に基づき、以降に述べるような処理を行うことにより、生体組織 31 A及び 31Bの隆起 形状を検出するとともに、検出した該隆起形状がどのような種類の生体組織によるも のであるかの判定を行う。
[0043] まず、 CPU22は、推定した三次元モデルに基づき、管状器官 31の三次元モデル における管腔の中心軸 Lcを取得する(図 3のステップ S 1 )。
[0044] 次に、ボタセル検出部及び隆起形状検出部としての CPU22は、推定した三次元 モデルに存在するボタセルのうち、内視鏡 6の視野方向に対して最も手前側に存在 する一のボタセルとしての、内視鏡 6の視野方向と略平行な軸である z軸座標が最小 値 Minzとなる一のボタセル Psを検出するとともに、該一のボタセル Psが有する z軸座 標 Minzを含む一の曲平面及び該一の曲平面の基準線 Lを取得する(図 3のステップ S2)。
[0045] その後、 CPU22は、基準線 Lを N等分した、 N個の座標各々を基準点として設定 する(図 3のステップ S3)とともに、取得した基準線 Lが閉曲線であるか否かを判定す る。
[0046] そして、 CPU22は、取得した基準線 Lが閉曲線である場合(図 3のステップ S4)、 例えば、図 4に示すように設定された基準線 Lの N個の基準点各々から、管腔の中心 軸 Lcに対して平行な直線を、一のボタセル Psを含む一の曲平面におけるトレースラ インとして設定する(図 3のステップ S5)。
[0047] また、 CPU22は、取得した基準線 Lが閉曲線ではな 、場合(図 3のステップ S4)、 例えば、図 5に示すように設定された基準線 Lの N個の基準点各々から、放射線状( または管腔の中心軸 Lcに対して平行)に伸びる直線を、一のボタセル Psを含む一の 曲平面におけるトレースラインとして設定する(図 3のステップ S6)。
[0048] 隆起形状検出部としての CPU22は、前述した、図 3のステップ S5またはステップ S 6の処理を行うことにより設定した各トレースラインに基づき、一のボタセル Psを含む 一の曲平面における該各トレースライン上に存在する各ボタセルをトレースしてゆくと ともに、該各ボタセルが有する輝度情報に基づき、トレース方向におけるダラディエン ト (輝度勾配)を順次算出する(図 3のステップ S7)。
[0049] そして、管腔の中心軸 Lcを V軸とした場合、 CPU22は、管腔の中心軸 Lc方向の座 標である v=kにおいてグラディエントの変動が生じているトレースラインの本数 M (k) (0≤M (k)≤Nである整数値)を取得する(図 3のステップ S8)。換言すると、このよう な処理を行うことにより、 CPU22は、一のボタセル Psを含む一の曲平面において、 勾配の変動が生じている位置を検出する。
[0050] 例えば、図 4に示すような 8個の基準点各々に対してトレースラインが設定される(図 4において N = 8である)とともに、トレース方向を視野方向手前側から奥側の方向と した場合、 CPU22は、一のボタセル Psを含む一の曲平面における該トレースライン 各々の V軸方向におけるグラディエントの変動を、図 6に示すような変動として検出す る。また、異なる例として、図 5に示すような 8個の基準点各々に対してトレースライン が設定される(図 5において N = 8である)とともに、トレース方向を視野方向手前側か ら奥側の方向とした場合、 CPU22は、一のボタセル Psを含む一の曲平面における 該トレースライン各々の V軸方向におけるグラディエントの変動を、図 7に示すような変 動として検出する。
[0051] そして、 CPU22は、 M (k)の値が 0である v=kの位置には隆起形状が存在しない と判定する(図 3のステップ S9及びステップ S 10)。
[0052] さらに、 CPU22は、 M (k)の値が 1以上である v=kの位置各々において、該 M (k) の値と、閾値 thpとの比較を行う(図 3のステップ S9及びステップ S 11)。
[0053] その後、隆起形状検出部としての CPU22は、 M (k)の値が閾値 thp以下であること を検出する(図 3のステップ S11)と、管状器官 31の内壁において局所的な隆起形状 を有する生体組織としての病変部位力 該 M (k)の値を与える v=kの位置に存在す ると判定する(図 3のステップ S 12)。
[0054] 一例として図 4及び図 6を用いつつ具体的に換言すると、 CPU22は、図 4に示す生 体組織 31Aのような、管状器官 31の内壁において局所的な隆起形状を有する生体 組織としての病変部位力 M (c) = 2である v=cの位置に存在すると判定する。また 、異なる例として図 5及び図 7を用いつつ具体的に換言すると、 CPU22は、図 5に示 す生体組織 31Aのような、管状器官 31の内壁において局所的な隆起形状を有する 生体組織としての病変部位力 M (d) = 2である v= dの位置に存在すると判定する。
[0055] また、 CPU22は、 M (k)の値が閾値 thpより大きいことを検出する(図 3のステップ S 11)と、管状器官 31の内壁の全周にわたって隆起形状を有する生体組織としての大 腸等のひだが、該 M (k)の値を与える v=kの位置に存在すると判定する(図 3のステ ップ S13)。
[0056] 一例として図 4及び図 6を用いつつ具体的に換言すると、 CPU22は、図 4に示す生 体組織 31Bのような、管状器官 31の内壁の全周にわたって隆起形状を有する生体 組織としての大腸等のひだ力 M (a) =8である v=a及び M (b) =8である v = bの位 置に存在すると判定する。また、異なる例として図 5及び図 7を用いつつ具体的に換 言すると、 CPU22は、図 5に示す生体組織 31Bのような、管状器官 31の内壁の全周 にわたつて隆起形状を有する生体組織としての大腸等のひだ力 M (e) =8である V =eの位置に存在すると判定する。
[0057] そして、 CPU22は、前述した処理に加え、例えば、図 4または図 5に示す生体組織 31Aのような、管状器官 31の内壁において局所的な隆起形状を有する生体組織が 存在する位置を示すための文字列または着色等を該三次元モデルに重畳させるよう な制御を表示処理部 28に対して行う。これにより、モニタ 4には、生体組織 31Aのよう な、管状器官 31の内壁において局所的な隆起形状を有する生体組織としての病変 部位を、生体組織 31Bのような、管状器官 31の内壁の全周にわたって隆起形状を有 する生体組織としての大腸等のひだと混同することなぐユーザが容易に発見可能で あるような、生体組織 31A及び 31Bを有する管状器官 31の三次元モデルが画像表 示される。
[0058] また、 CPU22は、局所的な隆起形状を有する生体組織が存在すると判定された各 ボタセルの位置に基づき、該各ボタセルの位置に対応する位置に存在する二次元画 像上の各ピクセルを検出するとともに、生体組織 31 Aが隆起形状であることを示すた めの文字列または着色等を、該各ピクセルを有する該二次元画像に重畳させるよう な制御を表示処理部 28に対して行うものであっても良い。
[0059] 本実施形態の医療用画像処理装置 3は、以上に述べた一連の処理を行うことによ り、ユーザにより被写体の三次元モデルを用いた観察が行われる場合に、ポリープ等 の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させること ができる。
[0060] (第 2の実施形態) 図 8から図 10は、本発明の第 2の実施形態に係るものである。なお、第 1の実施形 態と同様の構成を持つ部分については、詳細説明は省略する。また、第 1の実施形 態と同様の構成要素については、同一の符号を用いて説明は省略する。さらに、本 実施形態に用いる内視鏡システム 1の構成は、第 1の実施形態と同様である。
[0061] 図 8は、図 1の医療用画像処理装置が第 2の実施形態において行う処理の手順を 示すフローチャートである。図 9は、図 1の医療用画像処理装置により推定された一 の生体組織の三次元モデルを模式ィ匕した断面図である。図 10は、図 9における法線 ベクトル及び逆法線ベクトルを示す図である。
[0062] まず、エッジ抽出部としての CPU22は、画像入力部 21から出力される、管状器官 31が撮像された二次元画像の映像信号に基づき、例えば、該二次元画像の赤色成 分に対してバンドパスフィルタを適用することにより、該二次元画像に含まれる全ての エッジ部を抽出する。また、 CPU22は、エッジ部が抽出されたピクセル群の位置に 関する情報であるエッジ情報を情報記憶部 25に一時的に記憶させる。
[0063] そして、三次元モデル推定部としての CPU22は、例えば、幾何学的な変換等の処 理により、画像入力部 21から出力された二次元画像の映像信号の輝度情報等に基 づき、管状器官 31の三次元モデルを推定するとともに、情報記憶部 25に記憶された エッジ情報に基づき、該三次元モデルにぉ 、てエッジ部を有する一のボタセル群を 検出する。さらに、 CPU22は、前記一のボタセル群に対して以降に述べるような処理 を行うことにより、前記一のボタセル群により三次元モデルィ匕された一の生体組織が 、病変に起因する隆起形状を有する力否かの判定を行う。
[0064] まず、ベクトル算出部としての CPU22は、管状器官 31の三次元モデルにおいてェ ッジ部を有する一のボタセル群を検出するとともに、該ボクセル群のうち、所定の間隔 毎に存在する各ボタセルにおいて、法線ベクトルと、該法線ベクトルの向きを 180° 反転させたベクトルである、逆法線ベクトルとを算出する(図 8のステップ S21)。より具 体的には、例えば、図 9に示すような断面形状を有する生体組織 31Cの三次元モデ ルが検出された場合、所定の間隔毎に存在する各ボタセルにおいて、法線ベクトル と逆法線ベクトルとが図 10に示すように算出される。
[0065] 次に、隆起形状判定部としての CPU22は、前記各ボタセルが有する法線ベクトル 及び逆法線ベクトルに基づき、所定のベクトルの大きさ以内において法線ベクトル同 士が交差しなくなり始めるとともに、該所定のベクトルの大きさ以内において逆法線べ タトルの交差本数が閾値 thvl以上となる最初のボタセルとしての、例えば、図 10に 示すボタセル Sを、隆起開始位置となるボタセルとして検出する(図 8のステップ S22) 。さらに、隆起形状判定部としての CPU22は、前記各ボタセルが有する法線ベクトル 及び逆法線ベクトルに基づき、所定のベクトルの大きさ以内において法線ベクトル同 士が交差し始めるとともに、該所定のベクトルの大きさ以内において逆法線ベクトル の交差本数が閾値 thv2より小さくなる最初のボタセルとしての、例えば、図 10に示す ボタセル Tを、隆起終了位置となるボタセルとして検出する(図 8のステップ S23)。
[0066] なお、本実施形態にぉ 、て、閾値 thvl及び閾値 thv2は、各々異なる値であっても 良いし、または、等しい値であっても良い。
[0067] その後、隆起形状判定部としての CPU22は、生体組織 31Cの三次元モデルにお V、て、ボタセル S及びボタセル Tの 2つのボタセルを検出できたか否かの判定を行う。 そして、 CPU22は、ボタセル S及びボタセル Tの 2つのボタセルを両方とも検出でき た場合(図 8のステップ S 24)、さらに、ボタセル Sとボタセル Tとの間の距離 Laを算出 する(図 8のステップ S25)。また、 CPU22は、ボタセル S及びボタセル Tの 2つのボタ セルのいずれか一方または両方を検出できな力つた場合(図 8のステップ S24)、エツ ジ部を有する一のボタセル群として三次元モデルィ匕された生体組織 31Cを、病変に 起因する局所的な隆起形状を有する生体組織ではなぐ例えば、管状器官 31内に 存在する段差等の形状を有する部位、または、管状器官 31の内壁の全周にわたつ て隆起形状を有するひだ等の生体糸且織であると判定し(図 8のステップ S28)、一連 の処理を終了する。
[0068] さらに、病変判定部としての CPU22は、算出したボクセノレ Sとボクセノレ Tとの間の距 離 Laと、閾値 thLaとの比較を行う。そして、病変判定部としての CPU22は、ボタセル Sとボタセル Tとの間の距離 Laが閾値 thLa以下であることを検出した場合、エッジ部 を有する一のボタセル群として三次元モデルィ匕された生体組織 31Cを、病変に起因 する局所的な隆起形状を有する生体糸且織であると判定し(図 8のステップ S27)、一 連の処理を終了する。また、 CPU22は、ボタセル Sとボタセル Tとの間の距離 Laが閾 値 thLaより大きいことを検出した場合、エッジ部を有する一のボタセル群として三次 元モデル化された生体組織 31Cを、病変に起因する局所的な隆起形状を有する生 体組織ではなぐ例えば、管状器官 31内に存在する段差等の形状を有する部位、ま たは、管状器官 31の内壁の全周にわたって隆起形状を有するひだ等の生体組織で あると判定し(図 8のステップ S28)、一連の処理を終了する。
[0069] そして、 CPU22は、前述した処理に加え、例えば、病変に起因する隆起形状を有 する生体組織 31Cが存在する位置を示すための文字列または着色等を該三次元モ デルに重畳させるような制御を表示処理部 28に対して行う。これにより、モニタ 4には 、病変に起因する隆起形状を、段差等の形状を有する部位またはひだ等の生体組 織と混同することなぐユーザが容易に発見可能であるような、生体組織 31Cを有す る管状器官 31の三次元モデルが画像表示される。
[0070] また、 CPU22は、局所的な隆起形状を有する生体組織が存在すると判定された各 ボタセルの位置に基づき、該各ボタセルの位置に対応する位置に存在する二次元画 像上の各ピクセルを検出するとともに、生体組織 31 Aが隆起形状であることを示すた めの文字列または着色等を、該各ピクセルを有する該二次元画像に重畳させるよう な制御を表示処理部 28に対して行うものであっても良い。
[0071] 本実施形態の医療用画像処理装置 3は、以上に述べた一連の処理を行うことによ り、ユーザにより被写体の三次元モデルを用いた観察が行われる場合に、ポリープ等 の病変部位の見落としを防止可能であることにより、ユーザの負担を軽減させること ができる。
[0072] なお、本実施形態において CPU22が行う一連の処理は、管状器官 31の三次元モ デルに対して適用されるものに限るものではなぐ例えば、管状器官 31の二次元画 像に対して適用されるものであっても良い。
[0073] なお、本発明は、上述した各実施形態に限定されるものではなぐ発明の趣旨を逸 脱しな 、範囲内にお 、て種々の変更や応用が可能であることは勿論である。
[0074] 本出願は、 2006年 3月 28日に日本国に出願された特願 2006— 89118号を優先 権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の 範囲、図面に引用されたものとする。

Claims

請求の範囲
[1] 医療用撮像装置力も入力される体腔内の生体組織の像の二次元画像に基づき、 該生体組織の三次元モデルを推定する三次元モデル推定部と、
前記三次元モデルが有するボタセルのうち、前記医療用撮像装置の視野方向に対 して最も手前側に存在する一のボタセルを検出するボタセル検出部と、
前記一のボタセルを含む一の曲平面を取得し、該一の曲平面において勾配の変 動が生じている位置を検出するとともに、前記三次元モデルにおける該位置に局所 的な隆起形状を有する生体組織が存在するか否かを判定する隆起形状検出部と、 を有することを特徴とする医療用画像処理装置。
[2] 前記隆起形状検出部は、所定の軸方向に対して平行に設定される複数のトレース ラインに沿って前記一の曲平面をトレースし、前記所定の軸方向の一の位置におい て、前記複数のトレースラインのうち、輝度勾配の変動が生じたトレースラインの数が 1以上かつ所定の閾値以下であることを検出した場合に、前記局所的な隆起形状を 有する生体組織が前記一の位置に存在すると判定することを特徴とする請求項 1〖こ 記載の医療用画像処理装置。
[3] 前記所定の軸方向は、前記体腔内における管腔の中心軸方向であることを特徴と する請求項 2に記載の医療用画像処理装置。
[4] 入力される体腔内の生体組織の像の二次元画像に基づき、該二次元画像のエツ ジを抽出するエッジ抽出部と、
前記二次元画像に基づき、前記生体組織の三次元モデルを推定する三次元モデ ル推定部と、
前記三次元モデルの一部として推定された、前記エッジを有する一のボタセル群を 検出するとともに、該一のボタセル群のうち、所定の間隔毎に存在する各ボタセルに おいて、法線ベクトルと、該法線ベクトルの向きを 180° 反転させたベクトルである逆 法線ベクトルとを算出するベクトル算出部と、
前記法線ベクトル各々の交差状態と、前記逆法線ベクトル各々の交差状態とに基 づき、隆起開始位置となる第 1のボタセルと、隆起終了位置となる第 2のボタセルとを 検出することにより、前記一のボタセル群として推定された生体組織が、局所的な隆 起形状を有する生体組織である力否かを判定する隆起形状判定部と、 前記第 1のボタセルと前記第 2のボタセルとの間の距離を算出するとともに、該距離 が所定の距離以下である場合に、前記一のボタセル群として推定された生体組織を 、病変に起因する局所的な隆起形状を有する生体組織であると判定する病変判定 部と、
を有することを特徴とする医療用画像処理装置。
[5] 前記隆起形状判定部は、所定のベクトルの大きさ以内において法線ベクトル同士 が交差しなくなり始めるとともに、該所定のベクトルの大きさ以内において逆法線べク トルの交差本数が第 1の閾値以上となる最初のボタセルを前記第 1のボタセルとする ことを特徴とする請求項 4に記載の医療用画像処理装置。
[6] 前記隆起形状判定部は、所定のベクトルの大きさ以内において法線ベクトル同士 が交差し始めるとともに、該所定のベクトルの大きさ以内において逆法線ベクトルの 交差本数が第 2の閾値より小さくなる最初のボタセルを前記第 2のボタセルとすること を特徴とする請求項 5に記載の医療用画像処理装置。
[7] 前記第 1の閾値は、前記第 2の閾値と等しい値であることを特徴とする請求項 6に記 載の医療用画像処理装置。
[8] 医療用撮像装置力 入力される体腔内の生体組織の像の二次元画像に基づき、 該生体組織の三次元モデルを推定する三次元モデル推定ステップと、
前記三次元モデルが有するボタセルのうち、前記医療用撮像装置の視野方向に対 して最も手前側に存在する一のボタセルを検出するボタセル検出ステップと、 前記一のボタセルを含む一の曲平面を取得し、該一の曲平面において勾配の変 動が生じている位置を検出するとともに、前記三次元モデルにおける該位置に局所 的な隆起形状を有する生体組織が存在するか否かを判定する隆起形状検出ステツ プと、
を有することを特徴とする医療用画像処理方法。
[9] 前記隆起形状検出ステップは、所定の軸方向に対して平行に設定される複数のト レースラインに沿って前記一の曲平面をトレースし、前記所定の軸方向の一の位置 において、前記複数のトレースラインのうち、輝度勾配の変動が生じたトレースライン の数が 1以上かつ所定の閾値以下であることを検出した場合に、前記局所的な隆起 形状を有する生体組織が前記一の位置に存在すると判定することを特徴とする請求 項 8に記載の医療用画像処理方法。
[10] 前記所定の軸方向は、前記体腔内における管腔の中心軸方向であることを特徴と する請求項 9に記載の医療用画像処理方法。
[11] 入力される体腔内の生体組織の像の二次元画像に基づき、該二次元画像のエツ ジを抽出するエッジ抽出ステップと、
前記二次元画像に基づき、前記生体組織の三次元モデルを推定する三次元モデ ル推定ステップと、
前記三次元モデルの一部として推定された、前記エッジを有する一のボタセル群を 検出するとともに、該一のボタセル群のうち、所定の間隔毎に存在する各ボタセルに おいて、法線ベクトルと、該法線ベクトルの向きを 180° 反転させたベクトルである逆 法線ベクトルとを算出するベクトル算出ステップと、
前記法線ベクトル各々の交差状態と、前記逆法線ベクトル各々の交差状態とに基 づき、隆起開始位置となる第 1のボタセルと、隆起終了位置となる第 2のボタセルとを 検出することにより、前記一のボタセル群として推定された生体組織が、局所的な隆 起形状を有する生体組織であるカゝ否かを判定する隆起形状判定ステップと、 前記第 1のボタセルと前記第 2のボタセルとの間の距離を算出するとともに、該距離 が所定の距離以下である場合に、前記一のボタセル群として推定された生体組織を 、病変に起因する局所的な隆起形状を有する生体組織であると判定する病変判定ス テツプと、
を有することを特徴とする医療用画像処理方法。
[12] 前記隆起形状判定ステップは、所定のベクトルの大きさ以内において法線ベクトル 同士が交差しなくなり始めるとともに、該所定のベクトルの大きさ以内において逆法線 ベタトルの交差本数が第 1の閾値以上となる最初のボタセルを前記第 1のボタセルと することを特徴とする請求項 11に記載の医療用画像処理方法。
[13] 前記隆起形状判定ステップは、所定のベクトルの大きさ以内において法線ベクトル 同士が交差し始めるとともに、該所定のベクトルの大きさ以内において逆法線べタト ルの交差本数が第 2の閾値より小さくなる最初のボタセルを前記第 2のボタセルとす ることを特徴とする請求項 12に記載の医療用画像処理方法。
前記第 1の閾値は、前記第 2の閾値と等しい値であることを特徴とする請求項 13に 記載の医療用画像処理方法。
PCT/JP2007/052348 2006-03-28 2007-02-09 医療用画像処理装置及び医療用画像処理方法 WO2007111050A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2007800098633A CN101404924B (zh) 2006-03-28 2007-02-09 医疗用图像处理装置
EP07714004A EP2000075A4 (en) 2006-03-28 2007-02-09 MEDICAL PICTURE PROCESSING DEVICE AND MEDICAL PICTURE PROCESSING METHOD
US12/238,603 US7830378B2 (en) 2006-03-28 2008-09-26 Medical image processing apparatus and medical image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-089118 2006-03-28
JP2006089118A JP2007260144A (ja) 2006-03-28 2006-03-28 医療用画像処理装置及び医療用画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/238,603 Continuation US7830378B2 (en) 2006-03-28 2008-09-26 Medical image processing apparatus and medical image processing method

Publications (1)

Publication Number Publication Date
WO2007111050A1 true WO2007111050A1 (ja) 2007-10-04

Family

ID=38540983

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/052348 WO2007111050A1 (ja) 2006-03-28 2007-02-09 医療用画像処理装置及び医療用画像処理方法

Country Status (5)

Country Link
US (1) US7830378B2 (ja)
EP (1) EP2000075A4 (ja)
JP (1) JP2007260144A (ja)
CN (1) CN101404924B (ja)
WO (1) WO2007111050A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311359B2 (en) * 2006-06-28 2012-11-13 Agency For Science, Technology And Research Registering brain images by aligning reference ellipses
US8041141B2 (en) * 2006-06-30 2011-10-18 The University Of Louisville Research Foundation, Inc. Method and software for shape representation with curve skeletons
JP4855868B2 (ja) * 2006-08-24 2012-01-18 オリンパスメディカルシステムズ株式会社 医療用画像処理装置
JP5078486B2 (ja) * 2007-07-26 2012-11-21 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理装置の作動方法
US8102371B2 (en) * 2008-11-21 2012-01-24 Chung-Shan Institute Of Science And Technology, Armaments Bureau, Ministry Of National Defense Calibration method of projection effect
EP2253287B1 (en) * 2009-05-14 2018-08-15 Covidien LP Automatic registration technique
JP5800468B2 (ja) * 2010-05-11 2015-10-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2012035923A1 (ja) * 2010-09-14 2012-03-22 オリンパスメディカルシステムズ株式会社 内視鏡システム及び視界不良判定方法
JP6128792B2 (ja) * 2012-10-16 2017-05-17 オリンパス株式会社 観察装置、観察支援装置、観察装置の作動方法及びプログラム
CN103198521A (zh) * 2013-04-16 2013-07-10 大连理工大学 一种面向个性化设计的股骨头表面三维模型重构方法
EP3721941A3 (en) 2014-12-11 2020-12-09 Elekta, Inc. Motion management in mri-guided linac
CN108135453B (zh) * 2015-09-28 2021-03-23 奥林巴斯株式会社 内窥镜系统和图像处理方法
WO2018230098A1 (ja) * 2017-06-15 2018-12-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
CN111212591B (zh) * 2017-10-17 2022-08-02 富士胶片株式会社 医疗图像处理装置及内窥镜装置
US11006852B2 (en) 2017-12-11 2021-05-18 Covidien Lp Systems, methods, and computer-readable media of estimating thoracic cavity movement during respiration
CN116862930B (zh) * 2023-09-04 2023-11-28 首都医科大学附属北京天坛医院 适用于多模态的脑血管分割方法、装置、设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337845A (ja) 1998-05-25 1999-12-10 Mitsubishi Electric Corp 内視鏡装置
US20030223627A1 (en) 2001-10-16 2003-12-04 University Of Chicago Method for computer-aided detection of three-dimensional lesions
JP2005177477A (ja) * 2003-12-15 2005-07-07 Siemens Ag カテーテル装置
JP2006089118A (ja) 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 雨樋の通い箱の梱包構造

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US6016439A (en) * 1996-10-15 2000-01-18 Biosense, Inc. Method and apparatus for synthetic viewpoint imaging
EP1565865A2 (en) * 2002-11-20 2005-08-24 Koninklijke Philips Electronics N.V. Computer-aided detection of lung nodules
US7369638B2 (en) * 2003-07-11 2008-05-06 Siemens Medical Solutions Usa, Inc. System and method for detecting a protrusion in a medical image
EP1716535A2 (en) * 2003-10-10 2006-11-02 Viatronix Incorporated Virtual endoscopy methods and systems
EP1680767A2 (en) * 2003-11-03 2006-07-19 Bracco Imaging, S.P.A. DYNAMIC CROP BOX DETERMINATION FOR OPTIMIZED DISPLAY OF A TUBE-LIKE STRUCTURE IN ENDOSCOPIC VIEW ( CROP BOX”)
GB2461199B (en) * 2004-06-23 2010-04-28 Medicsight Plc Lesion extent determination in a CT scan image
JP4130428B2 (ja) * 2004-09-02 2008-08-06 ザイオソフト株式会社 画像処理方法及び画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337845A (ja) 1998-05-25 1999-12-10 Mitsubishi Electric Corp 内視鏡装置
US20030223627A1 (en) 2001-10-16 2003-12-04 University Of Chicago Method for computer-aided detection of three-dimensional lesions
JP2005506140A (ja) * 2001-10-16 2005-03-03 ザ・ユニバーシティー・オブ・シカゴ コンピュータ支援の3次元病変検出方法
JP2005177477A (ja) * 2003-12-15 2005-07-07 Siemens Ag カテーテル装置
JP2006089118A (ja) 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 雨樋の通い箱の梱包構造

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PENG YAN-JUN ET AL.: "A new tissue segmentation algorithm in 3d data based on boundary model and local character structure", PROCEEDINGS. SPIE-THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING, vol. 6044, 2005, pages 60441J.1 - 60441J.6, XP003017616 *

Also Published As

Publication number Publication date
EP2000075A4 (en) 2010-12-22
US20090079737A1 (en) 2009-03-26
US7830378B2 (en) 2010-11-09
CN101404924A (zh) 2009-04-08
CN101404924B (zh) 2010-12-22
JP2007260144A (ja) 2007-10-11
EP2000075A1 (en) 2008-12-10

Similar Documents

Publication Publication Date Title
WO2007111050A1 (ja) 医療用画像処理装置及び医療用画像処理方法
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
JP4902735B2 (ja) 医療用画像処理装置及び医療用画像処理方法
US8086005B2 (en) Medical image processing apparatus and medical image processing method
EP1994876B1 (en) Medical image processing apparatus and medical image processing method
US8515141B2 (en) Medical image processing apparatus and method for detecting locally protruding lesion
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
JP2008301968A (ja) 内視鏡画像処理装置
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
WO2008012968A1 (fr) dispositif de traitement d'image médicale et procédé de traitement d'image médicale
CN114980793A (zh) 内窥镜检查辅助装置、内窥镜检查辅助装置的工作方法以及程序
JP4981335B2 (ja) 医療用画像処理装置及び医療用画像処理方法
CN115209783A (zh) 处理装置、内窥镜系统以及摄像图像的处理方法
EP1992274B1 (en) Medical image processing device and medical image processing method
JP2008136628A (ja) 内視鏡挿入形状解析システム
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法
JP5148096B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP2008023266A (ja) 医療用画像処理装置及び医療用画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07714004

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 200780009863.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2007714004

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE