WO2004075742A1 - Hollow organ blood vessel extracting method, hollow organ blood vessel extraction processing program and image processing device - Google Patents

Hollow organ blood vessel extracting method, hollow organ blood vessel extraction processing program and image processing device Download PDF

Info

Publication number
WO2004075742A1
WO2004075742A1 PCT/JP2004/002369 JP2004002369W WO2004075742A1 WO 2004075742 A1 WO2004075742 A1 WO 2004075742A1 JP 2004002369 W JP2004002369 W JP 2004002369W WO 2004075742 A1 WO2004075742 A1 WO 2004075742A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
blood vessel
frame
pixel
hollow organ
Prior art date
Application number
PCT/JP2004/002369
Other languages
French (fr)
Japanese (ja)
Inventor
Hideo Yokota
Satoko Takemoto
Taketoshi Mishima
Akitake Makinouchi
Ryutaro Himeno
Original Assignee
Riken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Riken filed Critical Riken
Publication of WO2004075742A1 publication Critical patent/WO2004075742A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes

Definitions

  • Hollow organ blood vessel extraction method hollow organ blood vessel extraction processing program and image processing apparatus
  • the present invention relates to, for example, a hollow organ blood vessel extraction method, a hollow organ blood vessel extraction processing program, and an image processing apparatus.
  • a fundus panoramic image obtained by developing the three-dimensional structure of the eyeball in a two-dimensional space is used as a criterion for physicians to determine a disease.
  • the panoramic photograph of the fundus obtained by joining is a two-dimensional projection of the three-dimensional information inside the eyeball, there is no continuity between adjacent images, and joining is difficult. there were.
  • the above fundus panoramic photograph has a shape in which the fundus is opened, images cannot be discriminated unless a doctor is proficient in the structure of the eyeball. It was difficult for patients to understand the images.
  • An object of the present invention is to provide a hollow organ blood vessel extraction method and a hollow organ blood vessel extraction processing program capable of quantitatively measuring a measurement target with respect to a hollow organ such as an eyeball and automating a mouth-fast blood vessel extraction. And an image processing apparatus. Disclosure of the invention
  • An object of the present invention is to solve at least the above-mentioned problems.
  • the hollow organ blood vessel extraction method of the present invention is a method for extracting a blood vessel region from a continuous frame of a cross-sectional image of a living body of a hollow organ, which is used to extract a blood vessel region from a three-dimensional model of a hollow organ prepared in advance.
  • the region belonging to the blood vessel region is determined based on the pixel value of the measured region of the first frame according to the determination criteria for each pixel, and the determination is performed for the blood vessel region.
  • a determination criterion in a second frame that is continuous with the first frame is set based on a pixel value of an area including the selected area. .
  • the hollow organ blood vessel extraction method of the present invention is a method of extracting a blood vessel region from a continuous frame of a cross-sectional image of a living body of a hollow organ, wherein the blood vessel region is extracted from a prepared hollow organ stereo model.
  • a framed region for each frame to be extracted is provided, and a region belonging to the blood vessel region and a region not belonging to the blood vessel region are determined based on the pixel value of the framed region of the first frame according to a determination criterion for each pixel,
  • a criterion in the vascular region in the second frame that is continuous with the first frame is set based on the pixel value of the region including the region belonging to the vascular region, and the categorization is not performed outside the vascular region.
  • a criterion for setting a determination outside the blood vessel region in a second frame continuous with the first frame is set based on a pixel value of a region including the region.
  • a hollow organ blood vessel extraction program is a program for causing a computer to execute a process for extracting a blood vessel from a continuous frame of a biological organ cross-sectional image of a hollow organ.
  • the first step of inputting the quality region of each frame for extracting the blood vessel region from the three-dimensional model of the organ, and based on the pixel value of the quality region of the first frame according to the criterion for each pixel A second step of determining a region belonging to the blood vessel region, and a determination criterion in a second frame continuous with the first frame based on a pixel value of a region including the determined region in the blood vessel region.
  • the third step of setting and executing are performed.
  • a hollow organ blood vessel extraction program is a program for causing a computer to execute a process for extracting a blood vessel from a continuous frame of a biological organ cross-sectional image of a hollow organ.
  • the first step of inputting the quality region of each frame for extracting the blood vessel region from the three-dimensional model of the organ, and based on the pixel value of the quality region of the first frame according to the criterion for each pixel A second step of determining a region belonging to the blood vessel region and a region not belonging to the blood vessel region, and a second step which is continuous to the first frame based on a pixel value of the region including the belonging region in the blood vessel region.
  • a determination criterion in the vascular region in two frames is set, and the determination is continuously performed in the first frame based on a pixel value of a region including the non-attributed region outside the vascular region. That a third step of setting a criterion extravascular region in the second frame, is characterized in that for the execution.
  • the image processing device is an image processing device, comprising: a storage unit that stores a three-dimensional model of a hollow organ; and a quality region for each frame for extracting a blood vessel region from the three-dimensional model.
  • An input unit for inputting, a determination unit that determines a region belonging to the blood vessel region based on a pixel value of the quality region of the first frame according to a determination criterion for each pixel, and a determination unit that determines the region determined as the blood vessel region.
  • a setting unit for setting a criterion in a second frame that is continuous with the first frame.
  • the image processing device is an image processing device, comprising: a storage unit that stores a three-dimensional model of a hollow organ; and a quality region for each frame for extracting a blood vessel region from the three-dimensional model.
  • An input unit for inputting, a determining unit for determining a region belonging to the blood vessel region and a region not belonging to the blood vessel region based on a pixel value of the quality region of the first frame according to a determination criterion for each pixel;
  • the determination criteria in the blood vessel region in the second frame that is continuous with the first frame are set based on the pixel values of the region including the region belonging to the region, and the region not belonging to the blood vessel region is included outside the blood vessel region.
  • a setting unit for setting a criterion outside the blood vessel region in a second frame that is continuous with the first frame based on a pixel value of the region.
  • FIG. 1 is a diagram showing a fundus photograph
  • FIG. 2 is a sectional view illustrating an optical system of an eyeball
  • FIG. 3 is a diagram illustrating coordinates of a fundus
  • FIG. 5 is a diagram for explaining a case where the fundus is projected from a planar image
  • FIG. 5 is a diagram for explaining a template change in a projected image
  • FIG. 6 is a diagram for a case where a fundus is photographed from different angles.
  • FIG. 7 is a cross-sectional view illustrating an optical system
  • FIG. 7 is a cross-sectional view illustrating an optical system when the fundus is photographed from different angles
  • FIG. 8 is a diagram illustrating a case in which a crystalline lens is considered.
  • FIG. 8 is a diagram illustrating a case in which a crystalline lens is considered.
  • FIG. 9 is a diagram for explaining the construction of a fundus shape stereo model.
  • FIG. 10 is a diagram showing a display example of a fundus shape stereo model.
  • FIG. 11 is a diagram showing a fundus shape stereo model.
  • FIG. 12 is a diagram illustrating the HSV color space
  • FIG. 13 is a diagram illustrating the HSV color space.
  • FIG. 14 is a diagram illustrating polar coordinates applied to the present invention.
  • FIG. 14 is a diagram illustrating a region extracting method applied to the present invention.
  • FIG. 15 is a diagram illustrating an area extracting method applied to the present invention.
  • FIG. 16 shows a region extraction method applied to the present invention.
  • FIG. 17 is a diagram illustrating a region extraction method applied to the present invention.
  • FIG. 18 is a diagram illustrating a region of a blood vessel region in a three-dimensional space applied to the present invention.
  • FIG. 19 is a diagram illustrating a glowing method.
  • FIG. 19 is a drawing illustrating a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. FIG. 21 is a block diagram showing functions
  • FIG. 21 is a diagram showing an example of a display transition according to the first embodiment
  • FIG. 22 is a flowchart for explaining an operation according to the first embodiment.
  • FIG. 23 is a diagram for explaining the management of flag information according to the first embodiment.
  • FIG. 24 is a diagram for explaining the local region of the second embodiment.
  • FIG. FIG. 9 is a diagram illustrating extended region growing according to a second embodiment.
  • the fundus is spherical, as shown in the photograph shown in Fig. 1. Therefore, a method is needed that can reproduce fundus images placed in a three-dimensional space as three-dimensional information.
  • the fundus can be improved by adopting the “3D display and coordinate measuring method and apparatus of the fundus” of Japanese Patent Application No. 2002-18925 already proposed by the present inventors. It can be reproduced as a three-dimensional shape.
  • a stereoscopic model of the fundus based on the coordinate data is constructed.
  • this method is adopted as an example.
  • the invention also covers methods that have timed out in the case of full color.
  • the plane that touches the site at the point with the optic disc of the fundus as the reference is the two-dimensional reference plane that extends that plane.
  • the moving direction of the cross section in the stereoscopic model of the fundus moves toward the center of the eyeball.
  • the cross section refers to a layer composed of an arbitrary number of frames when the three-dimensional model is composed of a plurality of frames.
  • the local area for obtaining the criterion for extracting blood vessels is a three-dimensional space of, for example, 7 ⁇ 7 ⁇ 4 (pixels). This local region is a part of a plurality of frames forming a three-dimensional model.
  • the thickness direction of 4 in the local region 7 X 7 X 4 is set as the axis of the cutting direction, and this 4 is the thickness in the moving direction from the target pixel to be determined as the blood vessel region.
  • 4 corresponds to the number of frames “4” because the cross section is 4 pixels.
  • the extended region glowing is performed by moving the local region in a plane.
  • FIG. 2 is a cross-sectional view illustrating the optical system of the eyeball
  • FIG. 3 is a view illustrating the coordinates of the fundus
  • Fig. 4 illustrates the case of projecting from the planar image to the fundus
  • Fig. 5 illustrates the change of template in the projected image
  • Figs. 6 and 7 show the fundus from different angles.
  • FIG. 8 is a cross-sectional view illustrating an optical system in the case where the above-described operation is performed
  • FIG. 8 is a diagram illustrating a case where a crystalline lens is considered.
  • the three-dimensional fundus model is, for example,,
  • Is obtained by The three-dimensional model obtained in this way can be displayed or saved as a file.
  • the size L of the eyeball 1 and the shape R of the fundus 2 are measured by a measuring device (not shown) according to the imaging position ⁇ (see FIG. 2). .
  • the size L of the fundus 1 includes at least the depth from the corneal surface to the fundus 2.
  • the shape R of the fundus 2 includes at least the curvature of the fundus.
  • the measuring device for example, an ultrasonic sensor can be applied.
  • a fundus template is set based on the measured size L and shape R.
  • a plurality of fundus 2 including the overlapping part are photographed by shifting the photographing position of the fundus 2 by a predetermined amount, as shown in the relationship of FIG. 6 and FIG.
  • a plurality of images are shot from slightly shifted positions such as shooting positions Om and On.
  • the eyeball parameter indicating the positional relationship between the fundus 2 and the photographed image from the position of the overlapping portion on the photographed image based on the shift amount of the plurality of photographed images Is required.
  • a captured image obtained in fundus photography and a positional relationship between the eyeball 1 corresponding to the image and an imaging device are stored.
  • the position of the fundus image in the plane of the fundus 2 based on the corresponding point 7 in the overlapping portion described above (see FIG. 7), that is, the optic disc, blood vessels, nerves, etc. of the fundus 2 is determined.
  • a three-dimensional fundus image on the eyeball template 3 is displayed on a display device (not shown).
  • FIG. 9 is a diagram for explaining the construction of a three-dimensional fundus shape model
  • FIG. 10 is a diagram showing a display example of a three-dimensional fundus shape model
  • FIG. 11 is a display example of a three-dimensional fundus model.
  • the three-dimensional fundus shape model forms a vertical circular arc and a horizontal circular arc with a radius R on the XY Z axis, with the axial length on the X axis.
  • the stereoscopic model of the fundus shape is displayed, for example, as shown in FIG. 10, and the stereoscopic model of the fundus is displayed only with an actual fundus image, for example, as shown in FIG. Therefore, this three-dimensional fundus model has the minimum necessary coordinate information for extracting blood vessels, that is, information on the measurement area.
  • FIG. 12 is a diagram illustrating the HSV color space
  • FIG. 13 is a diagram illustrating polar coordinates applied to the present invention
  • Fig. 18 is a diagram for explaining a region extracting method applied to the present invention
  • Fig. 18 is a diagram for explaining a region growing method for a blood vessel region in a three-dimensional space applied to the present invention.
  • a full color image has three color vector values for each pixel in the RGB color system.
  • in order to extract a blood vessel region it is necessary to determine a boundary of a blood vessel fibrous tissue. To do so, we must recognize the slight color differences that occur at the boundaries between vascular tissues. In other words, attention is paid to minute color changes between neighboring pixels.
  • a method of applying a threshold value to the pixel value can be used.However, there is little obvious color change near the tissue boundary in a living body, and a complex color distribution Therefore, it is difficult to extract a blood vessel region with a unique threshold.
  • HSV Hue, S: Color, V: Lightness
  • the ability to perform segmentation using pixel values represented by the HSV colorimetric method is performed using H and S values.
  • the H, S, and V vector values represented by the HSV colorimetric method are not equivalent to each other and create a special space as shown in Fig. 12, the density difference between pixels is calculated. The correct value at normal Euclidean distance! / ,.
  • the distance on polar coordinates by H and S was calculated.
  • the present invention is to apply the above-described method of obtaining the density difference between pixels to a three-dimensional local region to determine whether or not a force is attributed to a blood vessel region. Therefore, a brief description will be given with reference to FIGS. 14 to 18.
  • This slice direction corresponds to the axial direction of the eye so as to pass through the center of the eyeball.
  • FIG. 14 shows a three-dimensional model similar to that of FIG.
  • a slice plane is shown as an example.
  • the number of frames between the cross sections formed by the slices is in accordance with the above-described rule, and is constituted by a part of a plurality of frames, and matches the thickness of the local region in the slice direction.
  • an initial image (frame N-1) is selected from a series of images of a living body (a continuous frame in a stereoscopic model of the fundus), for example, the optic disc S in a blood vessel region having a size that can be visually recognized to some extent is captured.
  • FIG. 15 (B) shows an instrumental region T and a blood vessel U in the fundus V of each frame.
  • the blood vessel U to be extracted is included in the quality region T.
  • the extraction of the blood vessel region may be performed by reciprocating in a uniaxial direction with respect to the stereoscopic model of the fundus.
  • the blood vessel region is extracted from the three-dimensional model, and the blood vessel extending in the slice direction is branched. Understand. Therefore, the accuracy of blood vessel extraction can be improved by reciprocating the blood vessel region extraction work.
  • the extended region growing method is a blood vessel region R O I extracted from the image of frame N-1.
  • the blood vessel region RO to be extracted is extracted from the image of frame N using the density values based on the !! value and S value, and the next successive I / one N + 1, N + 2, N + 3 ⁇ ⁇ ⁇ ⁇ is a method to extract at least from the density values inside and outside the blood vessel region in the past frame.
  • each frame a region at the same position as the blood vessel region extracted in the previous frame is first given as a temporary region, and each boundary pixel of the temporary region is focused on one by one. A process is performed to determine whether the change has occurred inside or outside of the area.
  • FIG. 18 attention is first focused on a local region of 7 ⁇ 7 ⁇ 4 pixels centered on a blood vessel boundary pixel Px.
  • the Z direction is indicated by N, N-1, N-2, and N-3, but the processing direction of blood vessel region extraction is downward in the figure.
  • H values of the pixels that are determined to vascular region up to this point the concentration median S value (median value) to calculate the M in.
  • the median value M of the H value and S value of the pixel determined to be outside the blood vessel region up to this point. ut is also calculated. ... (Four )
  • Pixel value of the pixel P x determines whether studied vascular region or outside close to either aspect of the blood vessel region and outside in the local region.
  • H values of the inner and outer vessels regions respectively calculated the density difference d between the concentration representative value M and the pixel P x by S value is regarded as characteristic of the person and the pixel P x difference was small similar .
  • d in ( ⁇ ( ⁇ 0? ⁇ ⁇ ))
  • the above processing is performed on all the boundary pixels of the blood vessel region. This process is automatically repeated until the capture into and out of the blood vessel region is completed. Completion of the capture at this time means that the setting of the correct blood vessel region boundary is completed by repeating the capture or the removal of the pixel into the blood vessel region.
  • FIG. 19 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus in FIG. 19 constitutes the image processing apparatus according to the present invention, and is connected to the image processing apparatus in FIG. 19 through a recording medium such as a floppy (registered trademark) disk, a CD, a DVD, or a communication line.
  • the supplied program shall include the hollow H organ blood vessel extraction program according to the present invention.
  • the image processing apparatus has an internal path as shown in FIG. 19, for example. Connect the communication interface 12, the CPU 13, the ROM 14, the RAMI 5, the display 16, the keyboard mouse 17, the drive 18, and the hard disk 19 to the interface 11 to transmit address signals, control signals, data, etc.
  • the configuration for realizing the blood vessel extraction according to the embodiment is provided.
  • the communication interface 12 has a function of connecting to a communication network such as the Internet, for example, and the hollow organ blood vessel extraction program according to the present invention can be downloaded.
  • the CPU 13 controls the entire apparatus by using 0 S stored in 10; 14, and has a function of executing processing based on various application programs stored in the hard disk 19.
  • the ROM 14 stores programs for controlling the entire apparatus, such as OS, etc., and has a function of supplying these to the CPU 13.
  • the RAMI 5 has a memory function used as a work area when the CPU 13 executes various programs. In the RAMI 5, for example, stacks A and B are set at the time of region extraction.
  • the display 16 has a function of displaying menus, statuses, display transitions, and the like associated with various processes of the CPU 13.
  • the keyboard / mouse 17 includes keys for inputting data such as characters, numbers, and symbols, cursor keys for operating point positions on the screen, and function keys. A mouse is provided to control the point position.
  • the drive 18 is a drive unit for executing installation work from a recording medium such as a CD or a DVD in which various programs and data are recorded. Note that a floppy (registered trademark) disk drive function may be added.
  • the hard disk 19 is an external storage device that stores a program 19A, a memory 19B, a three-dimensional fundus model 19C, flag information 19D, and the like.
  • the program 19A is equivalent to a program stored from the communication interface 12, the drive 18, and the like described above in an executable form.
  • the memory 19B is a storage unit for storing files such as execution results of various programs.
  • the fundus three-dimensional model 19C is information constructed by the method described above, and is a data file read through the communication interface 12, the drive 18 and the like.
  • the flag information 19D represents, for example, RGB with one flag in correspondence with each frame of the fundus stereoscopic model 19C by coordinates.
  • FIG. 20 is a block diagram illustrating functions according to the present embodiment
  • FIG. 21 is a diagram illustrating an example of display transition according to the present embodiment.
  • the functions of the present invention include an extension condition setting unit 100, an initial blood vessel region setting unit 101, a temporary region setting unit 102, a median density value calculation unit 103, a pixel value acquisition unit 104 near the boundary, It is composed of a region inside / outside determination unit 105, a blood vessel region extraction unit 106, a display image formation unit 107, and the like.
  • the condition of the extended region growing is set by the extension condition setting unit 100 so as to expand each section.
  • the image of the frame N-1 is extracted from the fundus three-dimensional model 19C by the initial blood vessel region setting unit 101, and the initial blood vessel region (optic nerve head) is set by manual or computer processing.
  • the median density calculating unit 103 calculates the median density from the density values of each pixel in the area set by the blood vessel area setting unit 101.
  • the temporary area setting unit 102 sets a temporary area at the same position as the blood vessel area set by the initial blood vessel area setting unit 101 with respect to the next frame N following the frame N-1. Then, the pixel value of the pixel near the boundary inside and outside the temporary area is obtained by the pixel value obtaining unit 104 near the boundary.
  • the processing shifts to the next successive frame after the extension region growing on the same cross section is completed. Therefore, in the same cross section, the blood vessel region is determined while shifting the local region sideways.
  • the measurement area is the target of blood vessel extraction, and the area outside that area is excluded as a processing target.
  • the region inside / outside determination unit 105 determines the inside / outside of the blood vessel region by the extended region gliding method based on the pixel near the boundary, the pixel value, and the density center calculated by the density median value calculation unit 103 as described above. Is performed. Note that the local area of 7 X 7 X 4 The setting is started after the extraction of blood vessels for 4 frames in the past is completed. Therefore, if the extraction start frame is N, a local region from frame N + 3 to 7 ⁇ 7 ⁇ 4 is adopted.
  • the vascular region extracting unit 106 performs extraction by expanding or expanding / contracting the vascular region based on the inside / outside determination of the vascular region, and the result of the extraction is reflected in the flag information 19D.
  • the three-dimensional local region by frames N-2, N-1 and N is a target when the median density calculation unit 103 calculates the median density.
  • the temporary area setting unit 102 captures the blood vessel area of the frame N from the flag information 19D, and sets the temporary area according to the blood vessel area. Thereafter, similarly, blood vessel extraction is performed by the extended region glowing method.
  • display data is generated by the display image forming unit 107 based on the flag information 19D and the biological color image information 19C. As shown in (A) to (F), the display transition of the vascular region ROI can be observed.
  • FIG. 22 is a flowchart illustrating the operation according to the present embodiment
  • FIG. 23 is a diagram illustrating management of flag information according to the present embodiment.
  • the processing shown in FIG. 22 corresponds to the hollow organ blood vessel extraction program according to the present invention in the program 19A.
  • the display follows the functional blocks shown in FIG.
  • the extended region growing performed in the following process shall be performed, for example, in units of four frames corresponding to the thickness between the cross sections.
  • the first frame image is input (step S I), and the HSV conversion process is executed (step S 2). Then, the starting point of the blood vessel region to be extracted (optical nipple, etc.) is specified (step S3).
  • step S4 since the next frame image exists (step S4), a continuous next frame image is input (step S5). At this time, the input frame The flag information corresponding to the camera image is reset (step S6).
  • an extraction start region is specified as a temporary region at the same position as the blood vessel region specified in the previous frame image (step S7).
  • One pixel near the boundary of the extraction start area is selected (step S8) and stored in the stack A (see FIG. 19) (step S9).
  • step S10 since the stack A is not empty (step S10), one pixel of interest P is extracted from the power of the stack A (step S11), and the above-described extended region glowing processing using the local region is executed. (Step S12).
  • a flag is set for the target image P (step S14), and pixels outside the extraction start region near the target pixel P are set. Is selected (step S15). Thereafter, the selected pixel is stored in the stack A (step S9), and the same processing is repeated.
  • the flag information is managed by coordinates for each pixel for each frame, as shown in FIG. For example, when the coordinates of frame No. 100 (X / YX is determined to be inside the blood vessel region, the flag is set to “1.” The coordinates of frame No. 101 ( ⁇ 2 , ⁇ 2 , 2 ) Is determined to be within the blood vessel region because of the flag "1".
  • step S16 If the pixel of interest ⁇ is outside the region in step S13, one pixel in the blood vessel region is selected near the pixel of interest ⁇ (step S16), and the selected pixel is stored in the stack ⁇ (step S13). 17). Then, the empty state of the stack ⁇ is confirmed (step S18).
  • the processing related to the stack A targets the inside of the blood vessel region.
  • step S18 If the stack A is not empty (NO in step S18), the process returns to step S11, and the same process is repeated. On the other hand, if the stack A is empty (YES route in step S18), the empty state of the stack B is further confirmed (step S19).
  • step S19 If the stack B is not empty (NO route in step S19), the processing is stopped. If the stack B is empty (YES route in step S19), the processing returns to step S4 because the processing for one input frame image is completed. It is determined whether there is a next frame image.
  • step S20 one pixel is taken out of the stack B as the pixel of interest P, and the above-mentioned extended region glowing process is performed on the pixel of interest P (step S21). If the pixel of interest P is outside the blood vessel region (step S22), one pixel in the blood vessel region is selected near the pixel of interest P to ask for further judgment (step S22). 3) The selected pixel is stored in the stack B (step S17), and the same processing is repeated thereafter. Since the processing relating to the stack B is processing outside the blood vessel region, if it is determined in step S22 that the pixel of interest is within the blood vessel region, the processing returns to step S19.
  • the extended region glowing uses the three-dimensional local space around the pixel of interest, and uses the median density inside and outside the blood vessel region in the three-dimensional local space around the pixel of interest to extract the area.
  • the starting point of the cut plane is the circumscribed surface of the optic disc (where the optic nerve and vascular force S enters the eyeball from outside the eyeball) where the blood vessels are the thickest and all blood vessels are connected. High effects can be obtained. This makes it possible to reduce the number of inversions in one axis direction of the blood vessel extraction operation.
  • the criterion for determining the blood vessel region of the hollow organ is a three-dimensional space, and the characteristics of the hollow organ, that is, the eyeball is transparent at the fundus, can specify the blood vessel extraction range.
  • the extraction range in this way, it is possible to realize robustness and high-speed blood vessel extraction.
  • the region can be accurately extracted in response to a change in the color of the same organ, and the region can be accurately extracted without being affected even if foreign substances are mixed in the same organ.
  • the present invention is a method for automatically extracting blood vessels in a three-dimensional fundus model. According to this method, it is possible to accurately extract a fundus blood vessel with high accuracy, and to reduce the calculation cost. It becomes possible to reduce. This makes it possible to extract the blood vessels from the patient-specific fundus model from fundus photographs and ultrasound images currently taken in ophthalmology.
  • the three-dimensional coordinates of the extracted blood vessels can be obtained from the three-dimensional fundus model, it can be obtained as digital data.
  • this blood vessel extraction region as a criterion, it becomes possible to provide a diagnostic assistance system that detects abnormalities in the blood vessels of the fundus oculi and informs a doctor.
  • the number of times of repetition of extraction may be set arbitrarily, or the amount of extension or the amount of extension (operation in one axis direction) may be set. Until the end).
  • the target blood vessel is in contact with the fundus oculi, the target area does not exist at the center or outside of the fundus oculi model. Therefore, by defining the extended range from the fundus model, the amount of calculation can be drastically reduced.
  • the center line of the blood vessel is calculated, the cross section orthogonal to the axis is obtained, and the thickness of the blood vessel is determined by the size of the cross section.
  • the memory space can be reduced.
  • the median density is adopted as the data of the criterion.
  • the present invention is not limited to this, and the same effect is obtained from the power density average value where the median density is more preferable. It is possible to obtain
  • the three-dimensional local region is described as having a size of 7 ⁇ 7 ⁇ 4, but the present invention is not limited to this, and for example, 3 ⁇ 3 ⁇ 2 It may be smaller or larger than the above size. By having multiple sizes such as large, medium and small, it is also possible to weight each one. Furthermore, in the first embodiment described above, a color image is taken as an example, but application to a black-and-white image is also possible.
  • the blood vessel region is manually extracted from the frame N-1 corresponding to the initial image.
  • the present invention is not limited to this. May be extracted.
  • Embodiment 1 described above, and various modifications are possible. Therefore, a second embodiment of the present invention will be described below. Note that the principle is the same as that of the above-described first embodiment, and since there is a common function, only the differences will be described below.
  • the optic disc is the most effective as the starting point.
  • a plurality of optic discs are designated, and the overlapping thereof is used to improve the mouth-paste property. It becomes possible. It is possible to improve the certainty by having the data of the extension area for each start point and then judging the data for each junction point by a statistical method (such as and).
  • the work of extracting the blood vessel region from the stereoscopic model of the fundus is not performed on a cross-sectional unit basis with respect to the incision cross-section, and the size of the local region is also arbitrarily determined.
  • An example of the local region is shown in FIG.
  • the local area W shown in FIG. 24 has a size of, for example, 7 ⁇ 7 ⁇ 7 pixels.
  • the extended region growing according to the present invention can be performed in an arbitrary direction in the poxel space assigned to each pixel.
  • the extended region growing is performed in units of cross sections in the processing of FIG. 22.
  • the second embodiment there is no unit between the cross sections, and the extended region growing is performed. Will cover the entire data of the solid model ⁇ .
  • the local area W can move the determination place while expanding the blood vessel area. Therefore, the extended region growing helps the blood vessel extraction to travel along the blood vessel according to the given local region W of any size.
  • the target region is a target of blood vessel extraction, and the outside of the target region is excluded as a target to be processed.
  • the starting point for extracting the blood vessel region may be any one or a plurality of points.
  • the extraction processing for each pixel is separated by flag management, so that even if the tracking of the blood vessel region is divided into a plurality of branches, the processing can proceed simultaneously. Become.
  • the extended region may be a three-dimensional space in which the size in one axis direction is removed from the force or extended region glowing method which is a three-dimensional space.
  • the local area is held in a three-dimensional area taking 7 ⁇ 7 ⁇ 4 as an example, but the local area is not limited to 7 ⁇ 7 ⁇ 4 and may be of any size.
  • the fundus blood vessel area is obtained in advance from the three-dimensional fundus model.
  • the thickness may be defined by the thickness from the fundus, or the portion exceeding the thickness range may not be calculated. By not calculating the part that exceeds the thickness range, the amount of calculation can be drastically reduced.
  • a potential can be given to each starting point, and a blood vessel portion can be determined from information of a plurality of extended starting points.
  • the search area when extracting the blood vessel area as a three-dimensional space.
  • the target region is 100 billion voxels, and the computation cost is enormous. Therefore, it is possible to greatly reduce the calculation cost by limiting the calculation area from the shape of the fundus model to the bowl-shaped fundus shape and its thickness in advance.
  • the fundus has been described as an example, but the present invention is not limited to this, and can be applied to hollow organs such as the stomach. In addition, it can be applied not only to the fundus blood vessels, but also to a method for extracting unique parts (blood vessels, tumors) by combining images with shape information and images from an endoscope. In addition, the present invention is not limited to extraction of blood vessels of hollow organs, but is also applicable to extraction, detection, and diagnosis of tumors and the like on the front surface (back surface) of hollow organs.
  • the present invention is not limited to the stack described above, and it goes without saying that a queue may be applied as a data holding method.
  • the data structure is a fast-in first-out data structure, and the region can be extended along the flow of blood vessels. Optimization of data management such as prevention of data volume swelling Both stacks and queues have the effect.
  • a hollow organ blood vessel extraction method capable of quantitatively measuring a measurement target with respect to a hollow organ such as an eyeball and automating mouth-bust blood vessel extraction, It is possible to provide a blood vessel extraction processing program and an image processing device.
  • the criterion of the blood vessel region of the hollow organ is determined in a three-dimensional space, and the extraction range of the blood vessel is specified based on the characteristics of the hollow organ. It is possible to provide a hollow organ blood vessel extraction method, a hollow organ blood vessel extraction processing program, and an image processing device capable of realizing the characteristics.
  • the hollow organ blood vessel extraction method, the hollow organ blood vessel extraction processing program, and the image processing apparatus according to the present invention are useful for quantitatively measuring a hollow organ measurement target. Suitable for extraction, robust extraction, detection, and diagnosis of tumors on the surface (back side) of hollow organs.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

A frame-based characteristic region for extracting a blood vessel region is given to a hollow organ stereomodel prepared in advance, a region belonging to the above blood vessel region is judged according to a pixel-based judging criterion based on a pixel value in the characteristic region of a fist frame, and a judging criterion in a second frame continuing from the first frame is set in the above blood vessel region based on a pixel value in a region including the above judged region.

Description

中空臓器血管抽出方法、 中空臓器血管抽出処理プログラムおよび画像処理装置 Hollow organ blood vessel extraction method, hollow organ blood vessel extraction processing program and image processing apparatus
技術分野 Technical field
本発明は、 例えば、 中空臓器血管抽出方法、 中空臓器血管抽出処理プログラム およぴ画像処理装置に関するものである。  The present invention relates to, for example, a hollow organ blood vessel extraction method, a hollow organ blood vessel extraction processing program, and an image processing apparatus.
明 田  Akita
背景技術 Background art
従来、 中空臓器のうちたとえば眼球においては、 3次元構造をもつ眼底の血管 抽出を平面に投影した 2次元空間で行うことが一般的に行われている。  Conventionally, in the case of hollow organs, for example, the eyeball, it is common practice to extract blood vessels of the fundus oculi having a three-dimensional structure in a two-dimensional space projected onto a plane.
眼底カメラの撮影範囲は狭いので、 中心、 上下、 左右の複数の方向から撮影し た画像を 1枚につなぎ合わせることにより、眼底のパノラマ写真を得ることが可能 となる。 この眼球の 3次元構造を 2次元空間で展開した眼底パノラマ画像は、 医 師の疾患の判断基準に用いられている。  Because the imaging range of the fundus camera is small, it is possible to obtain a panoramic photograph of the fundus by connecting the images taken from multiple directions from the center, up, down, left, and right. A fundus panoramic image obtained by developing the three-dimensional structure of the eyeball in a two-dimensional space is used as a criterion for physicians to determine a disease.
また、 その判断基準となる眼底パノラマ画像から眼底血管を自動抽出して、 病 変検出などの診断に用いることが行われている。 この眼底パノラマ画像のつなぎ 合わせや 2次元空間での血管抽出においては、 いくつかの製品が販売されたり、 自動抽出についての研究が行われたりしている。 例えば、 「眼底写真における血 管形状分布の自動解析」 第 2 1回日本医用画像工学会大会抄録集 (第 5 1 5— 5 1 6頁) 、 乾成里著 「カラー画像を利用した眼底写真からの病変検出」 (情報処 理学会論文詰、 1 9 9 3年 5月、 λ o 1 . 3 4、 N o . 5、 第 8 7 3— 8 8 3頁 ) などが挙げられる。  In addition, it has been practiced to automatically extract a fundus blood vessel from a fundus panoramic image serving as a criterion for the diagnosis and use it for diagnosis such as disease detection. Several products have been sold or research has been conducted on automatic extraction for joining the fundus panoramic images and extracting blood vessels in a two-dimensional space. For example, "Automatic analysis of blood vessel shape distribution in fundus photographs", Abstracts of the 21st Annual Meeting of the Japanese Society of Medical Imaging Technology (pp. 515-516), Nari Inui, "Fundus photography using color images" Detection of Lesions from ”(Information Processing Society of Japan, May 1993, λo 1.34, No. 5, pp. 873-8883).
しカゝしながら、 つなぎ合わせで得られた眼底パノラマ写真は眼球の内側の 3次 元情報を 2次元に投影した画像なので、 隣接する画像同士の連続性はなく、 つな ぎ合わせは難儀であった。 また、 上述の眼底パノラマ写真は眼底を開いた形にな つていることから、 眼球の構造を習熟している医師でなければ画像を判別するこ とは困難であり、 患者がその画像を理解することは困難であった。 However, since the panoramic photograph of the fundus obtained by joining is a two-dimensional projection of the three-dimensional information inside the eyeball, there is no continuity between adjacent images, and joining is difficult. there were. In addition, since the above fundus panoramic photograph has a shape in which the fundus is opened, images cannot be discriminated unless a doctor is proficient in the structure of the eyeball. It was difficult for patients to understand the images.
さらに、 3次元空間の撮像画像を 2次元に投影していることから、 撮影画像間 の連続'!生がなく、 個々の撮像画像にはゆがみや中心。周辺でのひずみがあった。 それゆえ、 眼底の血管、 剥離領域などの測定対象を定量的に測定することはでき なかった。  Furthermore, since the captured images in the three-dimensional space are projected two-dimensionally, there is no continuity between the captured images, and each captured image is distorted or centered. There was distortion around. Therefore, it was not possible to quantitatively measure a measurement object such as a blood vessel in the fundus and an ablated area.
以上のような理由により、 眼底パノラマ画像から画像処理により血管を抽出す ることは困難であり、 定量化は望めなかった。  For these reasons, it was difficult to extract blood vessels from the fundus panoramic image by image processing, and quantification could not be expected.
本発明の目的は、 眼球などの中空臓器に対して測定対象を定量的に測定し、 か つ口パストな血管抽出を自動化することが可能な中空臓器血管抽出方法、 中空臓 器血管抽出処理プログラムおよび画像処理装置を提供することにある。 発明の開示  An object of the present invention is to provide a hollow organ blood vessel extraction method and a hollow organ blood vessel extraction processing program capable of quantitatively measuring a measurement target with respect to a hollow organ such as an eyeball and automating a mouth-fast blood vessel extraction. And an image processing apparatus. Disclosure of the invention
本発明の目的は、 少なくとも上述の課題を解決するものである。  An object of the present invention is to solve at least the above-mentioned problems.
本発明の中空臓器血管抽出方法は、 中空臓器の生体断面画像の連続フレームか ら血管領域を抽出する方法であって、 あらかじめ用意された中空臓器の立体モデ ルに対して血管領域を抽出するためのフレーム毎の計質領域を与え、 画素毎の判 定基準にしたがつて第 1フレームの計質領域の画素値に基づいて前記血管領域に 帰属する領域を判定し、 前記血管領域に前記判定された領域を含めた領域の画素 値に基づいて前記第 1フレームに連続する第 2フレームにおける判定基準を設定 することを特徴とするものである。 .  The hollow organ blood vessel extraction method of the present invention is a method for extracting a blood vessel region from a continuous frame of a cross-sectional image of a living body of a hollow organ, which is used to extract a blood vessel region from a three-dimensional model of a hollow organ prepared in advance. The region belonging to the blood vessel region is determined based on the pixel value of the measured region of the first frame according to the determination criteria for each pixel, and the determination is performed for the blood vessel region. A determination criterion in a second frame that is continuous with the first frame is set based on a pixel value of an area including the selected area. .
また、 本発明の中空臓器血管抽出方法は、 中空臓器の生体断面画像の連続フレ ームから血管領域を抽出する方法であって、 あらかじめ用意された中空臓器の立 体モデルに対して血管領域を抽出するためのフレーム毎の計質領域を与え、 画素 毎の判定基準にしたがって第 1フレームの計質領域の画素値に基づいて前記血管 領域内に帰属する領域と帰属しない領域とを判定し、 前記血管領域内に前記帰属 する領域を含めた領域の画素値に基づいて前記第 1フレームに連続する第 2フレ ームにおける血管領域内の判定基準を設定し、 前記血管領域外に前記帰属しない 領域を含めた領域の画素値に基づいて前記第 1フレームに連続する第 2フレーム における血管領域外の判定基準を設定することを特徴とするものである。 Further, the hollow organ blood vessel extraction method of the present invention is a method of extracting a blood vessel region from a continuous frame of a cross-sectional image of a living body of a hollow organ, wherein the blood vessel region is extracted from a prepared hollow organ stereo model. A framed region for each frame to be extracted is provided, and a region belonging to the blood vessel region and a region not belonging to the blood vessel region are determined based on the pixel value of the framed region of the first frame according to a determination criterion for each pixel, A criterion in the vascular region in the second frame that is continuous with the first frame is set based on the pixel value of the region including the region belonging to the vascular region, and the categorization is not performed outside the vascular region. A criterion for setting a determination outside the blood vessel region in a second frame continuous with the first frame is set based on a pixel value of a region including the region.
また、 本発明に係る中空臓器血管抽出プログラムは、 中空臓器の生体断面画像 の連続フレームから血管を抽出するための処理をコンピュータに実行させるプロ グラムであって、 前記コンピュータに、 あらかじめ用意された中空臓器の立体モ デルに対して血管領域を抽出するためのフレーム毎の計質領域を入力する第 1ス テツプと、 画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基 づいて前記血管領域に帰属する領域を判定する第 2ステップと、 前記血管領域に 前記判定された領域を含めた領域の画素値に基づいて前記第 1フレームに連続す る第 2フレームにおける判定基準を設定する第 3ステップと、 を実行させること を特徴とするものである。  Further, a hollow organ blood vessel extraction program according to the present invention is a program for causing a computer to execute a process for extracting a blood vessel from a continuous frame of a biological organ cross-sectional image of a hollow organ. The first step of inputting the quality region of each frame for extracting the blood vessel region from the three-dimensional model of the organ, and based on the pixel value of the quality region of the first frame according to the criterion for each pixel A second step of determining a region belonging to the blood vessel region, and a determination criterion in a second frame continuous with the first frame based on a pixel value of a region including the determined region in the blood vessel region. The third step of setting and executing are performed.
また、 本発明に係る中空臓器血管抽出プログラムは、 中空臓器の生体断面画像 の連続フレームから血管を抽出するための処理をコンピュータに実行させるプロ グラムであって、 前記コンピュータに、 あらかじめ用意された中空臓器の立体モ デルに対して血管領域を抽出するためのフレーム毎の計質領域を入力する第 1ス テツプと、 画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基 づいて前記血管領域内に帰属する領域と帰属しない領域とを判定する第 2ステツ プと、 前記血管領域内に前記帰属する領域を含めた領域の画素値に基づいて前記 第 1フレームに連続する第 2フレームにおける血管領域内の判定基準を設定し、 前記血管領域外に前記帰属しない領域を含めた領域の画素値に基づいて前記第 1 フレームに連続する第 2フレームにおける血管領域外の判定基準を設定する第 3 ステップと、 を実行させることを特徴とするものである。  Further, a hollow organ blood vessel extraction program according to the present invention is a program for causing a computer to execute a process for extracting a blood vessel from a continuous frame of a biological organ cross-sectional image of a hollow organ. The first step of inputting the quality region of each frame for extracting the blood vessel region from the three-dimensional model of the organ, and based on the pixel value of the quality region of the first frame according to the criterion for each pixel A second step of determining a region belonging to the blood vessel region and a region not belonging to the blood vessel region, and a second step which is continuous to the first frame based on a pixel value of the region including the belonging region in the blood vessel region. A determination criterion in the vascular region in two frames is set, and the determination is continuously performed in the first frame based on a pixel value of a region including the non-attributed region outside the vascular region. That a third step of setting a criterion extravascular region in the second frame, is characterized in that for the execution.
また、 本発明に係る画像処理装置は、 画像処理装置であって、 中空臓器の立体 モデルを記憶する記憶部と、 前記立体モデルに対して血管領域を抽出するための フレーム毎の計質領域を入力する入力部と、 画素毎の判定基準にしたがって第 1 フレームの計質領域の画素値に基づいて前記血管領域に帰属する領域を判定する 判定部と、 前記血管領域に前記判定された領域を含めた領域の画素値に基づいて 前記第 1フレームに連続する第 2フレームにおける判定基準を設定する設定部と、 を備えることを特徴とするものである。 The image processing device according to the present invention is an image processing device, comprising: a storage unit that stores a three-dimensional model of a hollow organ; and a quality region for each frame for extracting a blood vessel region from the three-dimensional model. An input unit for inputting, a determination unit that determines a region belonging to the blood vessel region based on a pixel value of the quality region of the first frame according to a determination criterion for each pixel, and a determination unit that determines the region determined as the blood vessel region. Based on the pixel values of the included area And a setting unit for setting a criterion in a second frame that is continuous with the first frame.
また、 本発明に係る画像処理装置は、 画像処理装置であって、 中空臓器の立体 モデルを記憶する記憶部と、 前記立体モデルに対して血管領域を抽出するための フレーム毎の計質領域を入力する入力部と、 画素毎の判定基準にしたがって第 1 フレームの計質領域の画素値に基づいて前記血管領域内に帰属する領域と帰属し ない領域とを判定する判定部と、 前記血管領域内に前記帰属する領域を含めた領 域の画素値に基づいて前記第 1フレームに連続する第 2フレームにおける血管領 域内の判定基準を設定し、 前記血管領域外に前記帰属しない領域を含めた領域の 画素値に基づいて前記第 1フレームに連続する第 2フレームにおける血管領域外 の判定基準を設定する設定部と、 を備えることを特徴とするものである。  The image processing device according to the present invention is an image processing device, comprising: a storage unit that stores a three-dimensional model of a hollow organ; and a quality region for each frame for extracting a blood vessel region from the three-dimensional model. An input unit for inputting, a determining unit for determining a region belonging to the blood vessel region and a region not belonging to the blood vessel region based on a pixel value of the quality region of the first frame according to a determination criterion for each pixel; The determination criteria in the blood vessel region in the second frame that is continuous with the first frame are set based on the pixel values of the region including the region belonging to the region, and the region not belonging to the blood vessel region is included outside the blood vessel region. And a setting unit for setting a criterion outside the blood vessel region in a second frame that is continuous with the first frame based on a pixel value of the region.
以上述べたことと、 本発明のその他の目的、 特徴、 利点を、 以下の発明の詳細 な説明から明らかにする。 図面の簡単な説明  The foregoing and other objects, features, and advantages of the present invention will be apparent from the following detailed description of the invention. BRIEF DESCRIPTION OF THE FIGURES
第 1図は、 眼底写真を示す図であり、 第 2図は、 眼球の光学系を説明する断面 図であり、 第 3図は、 眼底の座標を説明する図であり、 第 4図は、 平面画像から 眼底に投影する場合を説明する図であり、 第 5図は、 投影画像内でのテンプレー トの変更を説明する図であり、 第 6図は、 眼底を異なる角度から撮影した場合の 光学系を説明する断面図であり、 第 7図は、 眼底を異なる角度から撮影した場合 の光学系を説明する断面図であり、 第 8図は、 水晶体を考慮した場合を説明する 図であり、 第 9図は、 眼底形状の立体モデルの構築を説明する図であり、 第 1 0 図は、 眼底形状の立体モデルの表示例を示す図であり、 第 1 1図は、 眼底の立体 モデルの表示例を示す図であり、 図 1 2は、 H S Vカラ一空間を説明する図であ り、 図 1 3は、 本発明に適用される極座標を説明する図であり、 図 1 4は、 本発 明に適用される領域抽出方法を説明する図であり、 図 1 5は、 本発明に適用され る領域抽出方法を説明する図であり、 図 1 6は、 本発明に適用される領域抽出方 9 FIG. 1 is a diagram showing a fundus photograph, FIG. 2 is a sectional view illustrating an optical system of an eyeball, FIG. 3 is a diagram illustrating coordinates of a fundus, and FIG. FIG. 5 is a diagram for explaining a case where the fundus is projected from a planar image, FIG. 5 is a diagram for explaining a template change in a projected image, and FIG. 6 is a diagram for a case where a fundus is photographed from different angles. FIG. 7 is a cross-sectional view illustrating an optical system, FIG. 7 is a cross-sectional view illustrating an optical system when the fundus is photographed from different angles, and FIG. 8 is a diagram illustrating a case in which a crystalline lens is considered. FIG. 9 is a diagram for explaining the construction of a fundus shape stereo model. FIG. 10 is a diagram showing a display example of a fundus shape stereo model. FIG. 11 is a diagram showing a fundus shape stereo model. FIG. 12 is a diagram illustrating the HSV color space, and FIG. 13 is a diagram illustrating the HSV color space. FIG. 14 is a diagram illustrating polar coordinates applied to the present invention. FIG. 14 is a diagram illustrating a region extracting method applied to the present invention. FIG. 15 is a diagram illustrating an area extracting method applied to the present invention. FIG. 16 shows a region extraction method applied to the present invention. 9
5 Five
法を説明する図であり、 図 1 7は、 本発明に適用される領域抽出方法を説明する 図であり、 図 1 8は、 本発明に適用される 3次元空間における血管領域のリージ ョングローイング方法を説明する図であり、 図 1 9は、 本発明の実施の形態 1に よる画像処理装置の一構成を示すプ口 Vク図であり、 図 2 0は、 本実施の形態 1 による機能を示すプロック図であり、 図 2 1は、 本実施の形態 1による表示遷移 の一例を示す図であり、 図 2 2は、 本実施の形態 1による動作を説明するフロー チヤ一トであり、 図 2 3は、 本実施の形態 1によるフラグ情報の管理について説 明する図であり、 図 2 4は、 本実施の形態 2の局所領域を説明する図であり、 図 2 5は、本実施の形態 2による拡張リージヨングローイングを説明する図である。 発明を実施するための最良の形態 FIG. 17 is a diagram illustrating a region extraction method applied to the present invention. FIG. 18 is a diagram illustrating a region of a blood vessel region in a three-dimensional space applied to the present invention. FIG. 19 is a diagram illustrating a glowing method. FIG. 19 is a drawing illustrating a configuration of an image processing apparatus according to Embodiment 1 of the present invention. FIG. FIG. 21 is a block diagram showing functions, FIG. 21 is a diagram showing an example of a display transition according to the first embodiment, and FIG. 22 is a flowchart for explaining an operation according to the first embodiment. FIG. 23 is a diagram for explaining the management of flag information according to the first embodiment. FIG. 24 is a diagram for explaining the local region of the second embodiment. FIG. FIG. 9 is a diagram illustrating extended region growing according to a second embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
以下に、 本発明にかかる実施の形態を図面に基づいて詳細に説明する。 なお、 この実施の形態により本発明が限定されるものではない。  Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited by the embodiment.
実施の形態 1  Embodiment 1
まず、 本発明の原理について説明する。 中空臓器として眼底を例に挙げる。 眼 底は、 第 1図に示した写真のように、 球形をしている。 そこで、 3次元空間に配 置する眼底画像を 3次元情報として再現できる手法が必要となる。 その一例とし て、 本件発明者等がすでに提案している特願 2 0 0 2— 1 8 9 2 6 5号の 「眼底 の立体表示および座標計測方法と装置」 を採用することにより、 眼底を 3次元形 状として再現することが可能である。 これにより、 座標データに基づく眼底の立 体モデノレが構築される。 本実施の形態 1では、 この手法を一例として採用する。 特に、 本発明は、 フルカラーの場合に時間切れになった方法も包括されるもので fcる。  First, the principle of the present invention will be described. An example of the hollow organ is the fundus. The fundus is spherical, as shown in the photograph shown in Fig. 1. Therefore, a method is needed that can reproduce fundus images placed in a three-dimensional space as three-dimensional information. As an example, the fundus can be improved by adopting the “3D display and coordinate measuring method and apparatus of the fundus” of Japanese Patent Application No. 2002-18925 already proposed by the present inventors. It can be reproduced as a three-dimensional shape. Thus, a stereoscopic model of the fundus based on the coordinate data is constructed. In the first embodiment, this method is adopted as an example. In particular, the invention also covers methods that have timed out in the case of full color.
この立体モデルからの眼底血管抽出には、 3次元空間での抽出を行う必要があ る。 そこで、 この抽出に適した手法として、 3次元空間からの画像抽出手法があ る。 眼底の存在する空間をポクセル空間に配置すると、 その抽出手法として、 本 件発明者等がすでに提案している特願 2 0 0 3— 2 5 2 7 7の 「関心組織領域抽 出方法、 関心組織領域抽出プログラム及び画像処理装置」 を用いることが可能と なる。 この手法により、 眼底血管の抽出を行うことが可能である。 本実施の形態 1では、 この手法を一例として採用する。 To extract the fundus blood vessels from this three-dimensional model, it is necessary to perform extraction in a three-dimensional space. Therefore, there is an image extraction method from a three-dimensional space as a method suitable for this extraction. When the space in which the fundus is located is placed in the poxel space, the extraction technique is described in Japanese Patent Application No. 2003-255720, which is already proposed by the present inventors. Output method, tissue of interest region extraction program, and image processing device ”can be used. With this method, it is possible to extract the fundus blood vessels. In the first embodiment, this method is adopted as an example.
ただし、 上述した 2つの手法を採用しただけでは、 眼底血管に適応する場合、 抽出時の領域拡張の方向を定めないと、 膨大な数の切断方向の繰り返しが必要に なる。 このため、 本発明においては、 中空臓器の血管抽出の実現ならぴに処理効 率化の実現を図るものである。  However, if only the above two methods are adopted, and if the direction of region expansion at the time of extraction is not determined when adapting to fundus blood vessels, an enormous number of repetitions of cutting directions will be required. Therefore, in the present invention, it is intended to realize the processing efficiency as well as the extraction of the blood vessel of the hollow organ.
与えられる眼底の立体モデルに対しては、 拡張リージョングロ一イング法の断 層とその領域を以下のように規定する必要がある。 すなわち、  For a given fundus stereo model, it is necessary to define the section and its area of the extended region growing method as follows. That is,
①眼底の立体モデルにおける 3次元座標軸とは別に、 眼底の視神経乳頭を基準と して、 その部位に点で接する面をその面を拡張する 2次元基準面とする。 ②眼底の立体モデルにおける断面の移動方向は眼球の中心方向に移動する。 ここ で、 断面とは、 立体モデルを複数フレームで構成した場合に、 任意のフレーム 数で構成される層を指す。 (1) Apart from the three-dimensional coordinate axes of the three-dimensional model of the fundus, the plane that touches the site at the point with the optic disc of the fundus as the reference is the two-dimensional reference plane that extends that plane. (2) The moving direction of the cross section in the stereoscopic model of the fundus moves toward the center of the eyeball. Here, the cross section refers to a layer composed of an arbitrary number of frames when the three-dimensional model is composed of a plurality of frames.
③血管抽出の判定基準を得るための局所領域はたとえば 7 X 7 X 4 (画素) の 3 次元空間とする。 この局所領域は、 立体モデルを構成する複数フレームの一部 である。 (3) The local area for obtaining the criterion for extracting blood vessels is a three-dimensional space of, for example, 7 × 7 × 4 (pixels). This local region is a part of a plurality of frames forming a three-dimensional model.
④局所領域 7 X 7 X 4における 4の厚さ方向を切断方向の軸として、 この 4を血 管領域の判定対象となる注目画素からの移動方向の厚さとする。 この場合、 4 は断面が 4画素分ということでフレーム数 " 4 " に相当する。 眼底の立体モデ ルにおける断面 (4フレーム) 毎に実施される血管抽出では、 局所領域の平面 的な移動により拡張リージヨングローリングが実施されることになる。  (4) The thickness direction of 4 in the local region 7 X 7 X 4 is set as the axis of the cutting direction, and this 4 is the thickness in the moving direction from the target pixel to be determined as the blood vessel region. In this case, 4 corresponds to the number of frames “4” because the cross section is 4 pixels. In the blood vessel extraction performed for each cross section (four frames) in the fundus three-dimensional model, the extended region glowing is performed by moving the local region in a plane.
⑤眼底の立体モデルに対する 1軸方向の抽出作業が終了した後 (視神経乳頭から モデルの終末まで) に、 その 1軸方向にしたがって反対方向にも同一の抽出作 業を繰り返し、 精度を高める。  (4) After the extraction of the three-dimensional model of the fundus in one axis direction is completed (from the optic papilla to the end of the model), the same extraction operation is repeated in the opposite direction according to the one axis direction to increase the accuracy.
まず、 眼底の血管抽出前に準備される眼底の立体モデノレについて簡単に説明す る。第 2図は眼球の光学系を説明する断面図、第 3図は眼底の座標を説明する図、 第 4図は平面画像から眼底に投影する場合を説明する図、 第 5図は投影画像内で のテンプレートの変更を説明する図、 第 6図、 第 7図はそれぞれ眼底を異なる角 度から撮影した場合の光学系を説明する断面図、 そして、 第 8図は水晶体を考慮 した場合を説明する図である。 First, a three-dimensional model of the fundus oculi prepared before extraction of the blood vessels of the fundus will be briefly described. FIG. 2 is a cross-sectional view illustrating the optical system of the eyeball, FIG. 3 is a view illustrating the coordinates of the fundus, Fig. 4 illustrates the case of projecting from the planar image to the fundus, Fig. 5 illustrates the change of template in the projected image, and Figs. 6 and 7 show the fundus from different angles. FIG. 8 is a cross-sectional view illustrating an optical system in the case where the above-described operation is performed, and FIG. 8 is a diagram illustrating a case where a crystalline lens is considered.
眼底の立体モデルは、 例えば、 ,  The three-dimensional fundus model is, for example,,
①眼球形状測定  ① Eyeball shape measurement
②眼球設定  ② Eyeball setting
③眼底撮影  ③ fundus photography
④眼球パラメータの設定  ④Setting eyeball parameters
⑤画像 ·位置の記録 ⑤Image and position recording
⑥画像貼付け  ⑥Paste image
⑦画像位置合わせ  ⑦ Image alignment
により取得される。 このようにして取得された立体モデルは表示したり、 フアイ ルとして保存することができる。 Is obtained by The three-dimensional model obtained in this way can be displayed or saved as a file.
上記①〜⑦を簡単に説明すると、 まず眼球形状測定では、 図示せぬ測定装置に よって撮影位置〇にしたがって眼球 1の大きさ L、 眼底 2の形状 Rが測定される (第 2図参照) 。 眼底 1の大きさ Lは、 少なくとも角膜表面から眼底 2までの奥 行きを含んでいる。 また、 眼底 2の形状 Rは、 少なくとも眼底部の曲率を含む。 測定装置としては、 例えば超音波センサが適用可能である。  To briefly explain the above (1) to (4), first, in the eyeball shape measurement, the size L of the eyeball 1 and the shape R of the fundus 2 are measured by a measuring device (not shown) according to the imaging position 〇 (see FIG. 2). . The size L of the fundus 1 includes at least the depth from the corneal surface to the fundus 2. The shape R of the fundus 2 includes at least the curvature of the fundus. As the measuring device, for example, an ultrasonic sensor can be applied.
眼球設定では、 測定した大きさ Lと形状 Rとに基づいて眼底テンプレートが設 定される。 この設定では、 第 3図に示したように、 網膜を含む眼底 2の座標図が In the eyeball setting, a fundus template is set based on the measured size L and shape R. In this setting, as shown in Fig. 3, the coordinate map of the fundus 2 including the retina
3次元的に作成される。 眼底撮影では、 第 6図、 第 7図の関係のように、 眼底 2 の撮影位置を所定量ずらして重複する部分を含む眼底 2が複数枚撮影される。 こ の撮影では、 撮影位置 Om, O nのようにわずかにずらした位置からの複数の画 像が撮影される。 Created three-dimensionally. In the fundus photography, a plurality of fundus 2 including the overlapping part are photographed by shifting the photographing position of the fundus 2 by a predetermined amount, as shown in the relationship of FIG. 6 and FIG. In this shooting, a plurality of images are shot from slightly shifted positions such as shooting positions Om and On.
眼球パラメータの設定では、 撮影された複数の画像のずれ量から、 重複する部 分の撮影画像上の位置から眼底 2と撮影画像との位置関係を示す眼球パラメータ が求められる。 画像'位置の記録では、 眼底撮影において得られた撮像画像とそ の画像に対応する眼球 1と図示せぬ撮影装置との位置関係とが記憶される。 In the setting of the eyeball parameter, the eyeball parameter indicating the positional relationship between the fundus 2 and the photographed image from the position of the overlapping portion on the photographed image based on the shift amount of the plurality of photographed images Is required. In the recording of the image 'position, a captured image obtained in fundus photography and a positional relationship between the eyeball 1 corresponding to the image and an imaging device (not shown) are stored.
画像貼付では、 第 4図に示したように、 複数の撮影画像が眼球パラメータに基 づいて眼球テンプレートに貼付けられる。 この際、 第 5図に示したように、 投影 画像内のテンプレートは眼球設定において設定された眼球テンプレート 3に変更 することが好ましい。  In image pasting, as shown in FIG. 4, a plurality of photographed images are pasted on an eyeball template based on eyeball parameters. At this time, as shown in FIG. 5, it is preferable to change the template in the projected image to the eyeball template 3 set in the eyeball setting.
画像位置合わせでは、上述した重複する部分内の対応する点 7 (第 7図参照)す なわち眼底 2の視神経乳頭、 血管、 神経等に基づいて眼底 2の面内において眼底 画像の位置合わせが行われる。 3次元画像表示では、 目艮球テンプレート 3上の眼 底 3次元画像が図示せぬ表示装置に表示される。  In the image registration, the position of the fundus image in the plane of the fundus 2 based on the corresponding point 7 in the overlapping portion described above (see FIG. 7), that is, the optic disc, blood vessels, nerves, etc. of the fundus 2 is determined. Done. In the three-dimensional image display, a three-dimensional fundus image on the eyeball template 3 is displayed on a display device (not shown).
なお、 上述した①〜⑦において、 第 8図に示したように、 水晶体を考慮する際 には、 レンズの形状を考慮する必要がある。  In addition, in the above ① to ⑦, as shown in FIG. 8, when considering the crystalline lens, it is necessary to consider the shape of the lens.
ここで、 眼底の立体モデルについて説明する。 第 9図は 3次元眼底形状モデル の構築を説明する図、 第 1 0図は眼底形状の立体モデルの表示例を示す図、 そし て、 第 1 1図は眼底の立体モデルの表示例を示す図である。  Here, the stereoscopic model of the fundus will be described. FIG. 9 is a diagram for explaining the construction of a three-dimensional fundus shape model, FIG. 10 is a diagram showing a display example of a three-dimensional fundus shape model, and FIG. 11 is a display example of a three-dimensional fundus model. FIG.
3次元眼底形状モデルは、 第 9図に示したように、 XY Z軸において、 眼軸長 を X軸にとり、 半径 Rで縦円弧、 横円弧を形成している。 眼底形状の立体モデル は、 例えば第 1 0図に示したように表示され、 眼底の立体モデ^^は、 例えば第 1 1図に示したように実際の眼底画像のみで表示される。 したがって、 この眼底の 立体モデルは、 血管抽出のための必要最小限の座標情報すなわち計質領域の情報 を有することになる。  As shown in FIG. 9, the three-dimensional fundus shape model forms a vertical circular arc and a horizontal circular arc with a radius R on the XY Z axis, with the axial length on the X axis. The stereoscopic model of the fundus shape is displayed, for example, as shown in FIG. 10, and the stereoscopic model of the fundus is displayed only with an actual fundus image, for example, as shown in FIG. Therefore, this three-dimensional fundus model has the minimum necessary coordinate information for extracting blood vessels, that is, information on the measurement area.
つづいて、 眼底の血管抽出について説明する。 まずフルカラー連続断面画像か らの自動領域抽出についての原理を説明する。 第 1 2図は H S Vカラー空間を説 明する図、 第 1 3図は本発明に適用される極座標を説明する図、 第 1 4図、 第 1 5図、第 1 6図および第 1 7図は本発明に適用される領域抽出方法を説明する図、 そして、 第 1 8図は本発明に適用される 3次元空間における血管領域のリージョ ングローイング方法を説明する図である。 フルカラー画像は各ピクセルに R G B表色系による 3つの力ラーベクトル値を もっている。 各 2次元画像において、 血管領域を抽出するために、 血管糸且織の境 界を判別する必要がある。 そのためには、 血管組織間の境界で生じるわずかな色 の差を認識しなくてはならない。 つまり、 近隣画素間での微小な色変化に注目を する。 Next, extraction of blood vessels from the fundus will be described. First, the principle of automatic region extraction from full-color continuous cross-sectional images will be described. FIG. 12 is a diagram illustrating the HSV color space, FIG. 13 is a diagram illustrating polar coordinates applied to the present invention, FIGS. 14, 15, 16, and 17. Fig. 18 is a diagram for explaining a region extracting method applied to the present invention, and Fig. 18 is a diagram for explaining a region growing method for a blood vessel region in a three-dimensional space applied to the present invention. A full color image has three color vector values for each pixel in the RGB color system. In each two-dimensional image, in order to extract a blood vessel region, it is necessary to determine a boundary of a blood vessel fibrous tissue. To do so, we must recognize the slight color differences that occur at the boundaries between vascular tissues. In other words, attention is paid to minute color changes between neighboring pixels.
血管領域を抽出する際には、 画素値に閾値を適用する方法を用いることもでき るが、 生体内では組織境界付近に明らかな色変化があることが少なく、 また場所 ごとに複雑な色分布をしているため、 一意的な閾値では血管領域を抽出すること は困難である。  When extracting a blood vessel region, a method of applying a threshold value to the pixel value can be used.However, there is little obvious color change near the tissue boundary in a living body, and a complex color distribution Therefore, it is difficult to extract a blood vessel region with a unique threshold.
そこで本発明では、 以下の 2点を抽出手法に取り入れる。  Therefore, in the present invention, the following two points are taken into the extraction method.
( 1 ) H S V (H:色相、 S :色彩、 V:明度) 表色法で表現した画素値を利用 した画素間濃度差の算出  (1) HSV (H: Hue, S: Color, V: Lightness) Calculation of density difference between pixels using pixel values expressed by the color specification method
( 2 ) 画像全体に同一閾値を適用するのではなく、 局所領域に注目した血管領域 の内外判別 (拡張リージヨングローイング法)  (2) Rather than applying the same threshold value to the entire image, the inside / outside discrimination of the vascular region focusing on the local region (extended region growing method)
H S V表色法を用いた理由は以下の 2点となる。  There are two reasons for using the HSV colorimetric method.
( 1 ) R G B表色法よりも血管組織の境界を判別しやすい点  (1) Points that make it easier to distinguish the boundaries of vascular tissue than the RGB colorimetric method
( 2 ) 血管組織内では特に H値、 S値に大きな色変化がおこらず値がまとまって いる点  (2) In the vascular tissue, the H value and S value do not show a large color change, and the values are unified.
さて、 H S V表色法で表された画素値を用いてセグメンテーションを行う力 特に H値、 S値を用いてセグメンテーションを行う。 し力 し、 H S V表色法で表 される H, S, Vの各ベクトル値は互いに等価ではなく、 第 1 2図のような特殊 な空間を生成しているため、 画素間濃度差を計算する際、 通常のユークリッド距 離では正しい値が得られな!/、。  Now, the ability to perform segmentation using pixel values represented by the HSV colorimetric method, in particular, segmentation is performed using H and S values. However, since the H, S, and V vector values represented by the HSV colorimetric method are not equivalent to each other and create a special space as shown in Fig. 12, the density difference between pixels is calculated. The correct value at normal Euclidean distance! / ,.
そこで、 ある 2点の画素間濃度差を算出する際は、 H S V空間の特徴を損なわ ない計算方法として (第 1 3図参照) 、 H, Sによる極座標上での距離を計算し た。 例として画素 P 1 , P 2の画素値をそれぞれ  Therefore, when calculating the pixel-to-pixel density difference between two points, as a calculation method that does not impair the features of the HSV space (see FIG. 13), the distance on polar coordinates by H and S was calculated. As an example, the pixel values of pixels P 1 and P 2
fp, = ( , , vPl ), fP2 = (hP2SP,, VP2 j としたとき、 画素 P l, P 2 間の濃度差《5は以下の式 (1 ) , (2 ) , で訐算する。 fp, = (,, v Pl ), f P 2 = (h P 2, S P ,, V P 2 j Then, the density difference << 5 between the pixels P l and P 2 is calculated by the following equations (1), (2),.
= cos(2TT.hPi )— sn cos(2jrfip2 ·■· ( 1 ) y2 = (sPi 3Ϊη(2 ΗΡι )- sPz sin(27ihp2 f ■■■ ( 2 ) δ(Ρい
Figure imgf000012_0001
… (3 ) 本発明は、 以上の画素間の濃度差を求める手法を 3次元の局所領域に適用して 血管領域に帰属する力否かを判断するものである。 そこで、 第 1 4図〜第 1 8図 を用いて簡単に説明する。
= Cos (2TT.h Pi) - s n cos (2jrfip 2 · ■ · (1) y 2 = (s Pi 3Ϊη (2 Η Ρι) - s Pz sin (27ihp 2 f ■■■ (2) δ (Ρ I
Figure imgf000012_0001
(3) The present invention is to apply the above-described method of obtaining the density difference between pixels to a three-dimensional local region to determine whether or not a force is attributed to a blood vessel region. Therefore, a brief description will be given with reference to FIGS. 14 to 18.
まず眼底の立体モデルに対して切断座標の設定が必要となる。 これは、 眼底の 立体モデルに対するスライス方向 (切断方向) を設定することである。 このスラ イス方向は、 眼球に対してその中心を通るようにして眼軸長方向に相当するもの である。  First, it is necessary to set the cutting coordinates for the three-dimensional fundus model. This is to set the slice direction (cutting direction) for the three-dimensional fundus model. This slice direction corresponds to the axial direction of the eye so as to pass through the center of the eyeball.
第 1 4図には、 第 1 1図と同様の立体モデルが示されている。 この眼底の立体 モデルには、 一例としてスライス面が示されている。 スライスにより形成される 断面間のフレーム数は、 すでに前述した規定に従うものであり、 複数のフレーム の一部により構成され、 スライス方向における局所領域の厚さに合致している。 連続する生体断面画像 (眼底の立体モデルにおける連続フレーム) から初期画 像 (フレーム N— 1 ) を選択する際は、 例えばある程度視認できる程度のサイズ を有した血管領域のうち視神経乳頭 Sが写っていることが好ましい (第 1 5図 ( A) 参照) 。 この場合には、 手作業による抽出としても、 あるいは、 コンビユー タ処理により抽出としてもよい。 なお、 第 1 5図 (B) には、 各フレームの眼底 Vにおける計質領域 Tと血管 Uとが示されている。 ここで、 計質領域 Tに抽出対 象の血管 Uは含まれる。  FIG. 14 shows a three-dimensional model similar to that of FIG. In the three-dimensional fundus model, a slice plane is shown as an example. The number of frames between the cross sections formed by the slices is in accordance with the above-described rule, and is constituted by a part of a plurality of frames, and matches the thickness of the local region in the slice direction. When an initial image (frame N-1) is selected from a series of images of a living body (a continuous frame in a stereoscopic model of the fundus), for example, the optic disc S in a blood vessel region having a size that can be visually recognized to some extent is captured. (See Figure 15 (A)). In this case, the extraction may be performed manually or may be performed by computer processing. FIG. 15 (B) shows an instrumental region T and a blood vessel U in the fundus V of each frame. Here, the blood vessel U to be extracted is included in the quality region T.
なお、 血管領域の抽出は、 眼底の立体モデルに対して 1軸方向に往復させても よい。 この場合、 第 1 6図に示したように、 立体モデルのうち血管領域だけを抜 き出して説明すると、 スライス方向に対して延びる血管が枝分力れていることが わかる。 そこで、 血管領域の抽出作業を往復させることにより血管抽出の精度を 高めることができる。 The extraction of the blood vessel region may be performed by reciprocating in a uniaxial direction with respect to the stereoscopic model of the fundus. In this case, as shown in FIG. 16, only the blood vessel region is extracted from the three-dimensional model, and the blood vessel extending in the slice direction is branched. Understand. Therefore, the accuracy of blood vessel extraction can be improved by reciprocating the blood vessel region extraction work.
フレーム N— 1の画像に視神経乳頭が設定されると、 その領域は血管領域 R O I。として抽出される (第 1 7図 (A) ) 。 そして、 連続する生体断面画像では、 連続する次のフレーム Nの画像に対して上フレーム N— 1の画像で抽出された領 域とまったく同じ位置の領域をまずは仮領域 Sとして選択される (第 1 7図 ( B When the optic disc is set in the image of frame N-1, the region is the vascular region R O I. (Fig. 17 (A)). Then, in the continuous cross-sectional image of the living body, an area at the exact same position as the area extracted in the image of the upper frame N-1 with respect to the image of the next continuous frame N is first selected as the temporary area S (No. 1 7 Figure (B
) 参照) )
その後、 後述する本発明の拡張リージヨングローイング法により、 正しい領域 すなわち実際の血管領域 R〇 が仮の状態から再抽出される (第 1 7図 (C ) 参 照) 。 このようにして血管領域 R O の抽出が完了する (第 1 7図 (D) 参照) 拡張リージョングローイング法とは、 フレーム N— 1の画像から抽出された血 管領域 R O I。と全く同じ抽出対象の血管領域 R O を!!値、 S値に基づく濃度 値を用いてフレーム Nの画像から抽出し、 さらに連続する次のフ I /一ム N + 1、 N + 2、 N + 3 · · ·については少なくとも過去フレームの血管領域内外の濃度 値から抽出する手法である。  Then, the correct region, that is, the actual blood vessel region R〇 is re-extracted from the tentative state by the extended region growing method of the present invention described later (see FIG. 17 (C)). Thus, the extraction of the blood vessel region R O is completed (see FIG. 17 (D)). The extended region growing method is a blood vessel region R O I extracted from the image of frame N-1. The blood vessel region RO to be extracted is extracted from the image of frame N using the density values based on the !! value and S value, and the next successive I / one N + 1, N + 2, N + 3 · · · · is a method to extract at least from the density values inside and outside the blood vessel region in the past frame.
すなわち、 各フレームにおいては、 1つ前のフレームで抽出された血管領域と 同じ位置の領域をまずは仮領域として与え、 その仮領域の境界画素にひとつひと つ注目し、 断面 (たとえば連続する 4フレーム) 間で領域内と領域外のどちらか に変化したかを判定する処理が施される。  That is, in each frame, a region at the same position as the blood vessel region extracted in the previous frame is first given as a temporary region, and each boundary pixel of the temporary region is focused on one by one. A process is performed to determine whether the change has occurred inside or outside of the area.
第 1 8図において、まず血管の境界画素 P xを中心とした 7 X 7 X 4画素の局所 領域に注目する。 この場合、 Z方向は N, N— 1, N— 2, N— 3で示すが、 血 管領域抽出の処理方向は図中下方向となる。 その局所領域中、 この時点までに血 管領域内と判定されている画素の H値, S値の濃度中央値 (メディアン値) Min を計算する。 同時にこの時点までに血管領域外と判定されている画素の H値、 S 値の中央値 M。utも計算する。 … (4 )
Figure imgf000014_0001
In FIG. 18, attention is first focused on a local region of 7 × 7 × 4 pixels centered on a blood vessel boundary pixel Px. In this case, the Z direction is indicated by N, N-1, N-2, and N-3, but the processing direction of blood vessel region extraction is downward in the figure. During its local region, H values of the pixels that are determined to vascular region up to this point, the concentration median S value (median value) to calculate the M in. At the same time, the median value M of the H value and S value of the pixel determined to be outside the blood vessel region up to this point. ut is also calculated. … (Four )
Figure imgf000014_0001
画素 Pxの画素値が、この局所領域において血管領域内外のどちらの特徴に近い かを検討し血管領域内か外かを決定する。 実際には、 血管領域内外の H値、 S値 による濃度代表値 Mと画素 P xとの濃度差 dをそれぞれ計算し、差が小さかった方 と画素 Pxの特徴が類似しているとみなす。 これにより、 Pxを血管領域內、 血管 領域外のどちらかに取り込む。 これを計算式で表したものが以下の式 (5 ) 〜 ( 6 ) である。 din (= δ(Ρ0 ?Μίη )) Pixel value of the pixel P x determines whether studied vascular region or outside close to either aspect of the blood vessel region and outside in the local region. In fact, H values of the inner and outer vessels regions, respectively calculated the density difference d between the concentration representative value M and the pixel P x by S value is regarded as characteristic of the person and the pixel P x difference was small similar . Thus, taking a P x vascular region內, either extravascular region. The following expressions (5) to (6) express this by a calculation expression. d in (= δ (Ρ 0? Μ ίη ))
… (5 ) dout (= 5(P0,Mout)) … (5) d out (= 5 (P 0 , M out ))
… (6 )
Figure imgf000014_0002
… (6)
Figure imgf000014_0002
以上の処理を血管領域のすべての境界画素に対して行う。 この処理は血管領域 内外への取り込みが終了するまで自動的に繰り返す。 このときの取り込みが終了 するとは、 画素の血管領域内への取り込み、 または除外を繰り返すことで正しい 血管領域境界の設定が完了したことを意味する。  The above processing is performed on all the boundary pixels of the blood vessel region. This process is automatically repeated until the capture into and out of the blood vessel region is completed. Completion of the capture at this time means that the setting of the correct blood vessel region boundary is completed by repeating the capture or the removal of the pixel into the blood vessel region.
このようにして、 フレーム Nの画像に対する血管抽出処理が終了した後、 さら に下に連続するフレーム N+ 1 , N+ 2 , · · 'の画像においても同様の処理を 行い、 血管領域の連続自動抽出を実行する。  In this manner, after the blood vessel extraction processing for the image of frame N is completed, the same processing is performed on the images of frames N + 1, N + 2,. Execute
以上の原理に基づいて以下に構成、 動作を説明する。 まず、 構成について説明 する。 第 1 9図は本発明の一実施の形態による画像処理装置の一構成を示すプロ ック図である。 第 1 9図の画像処理装置は本発明に係る画像処理装置を構成して おり、 フロッピー (登録商標) ディスク、 C D、 D VD等の記録媒体や通信回線 を通じて第 1 9図の画像処理装置に供給されるプログラムは本発明に係る中空 H 器血管抽出プログラムを含むものとする。  The configuration and operation will be described below based on the above principle. First, the configuration will be described. FIG. 19 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus in FIG. 19 constitutes the image processing apparatus according to the present invention, and is connected to the image processing apparatus in FIG. 19 through a recording medium such as a floppy (registered trademark) disk, a CD, a DVD, or a communication line. The supplied program shall include the hollow H organ blood vessel extraction program according to the present invention.
本実施の形態による画像処理装置は、 例えば第 1 9図に示したように、 内部パ ス 11に、 通信インタフェース 12、 CPU 13, ROM14、 RAMI 5、 デ イスプレイ 16、 キ一ボードノマウス 17、 ドライブ 18、 ハードディスク 19 を接続させ、 アドレス信号、 制御信号、 データ等を伝送させ、 本実施の形態によ る血管抽出を実現する構成を備えている。 The image processing apparatus according to the present embodiment has an internal path as shown in FIG. 19, for example. Connect the communication interface 12, the CPU 13, the ROM 14, the RAMI 5, the display 16, the keyboard mouse 17, the drive 18, and the hard disk 19 to the interface 11 to transmit address signals, control signals, data, etc. The configuration for realizing the blood vessel extraction according to the embodiment is provided.
第 19図において、 通信インタフェース 12は、 例えばインターネット等の通 信網に接続する機能を有しており、 本発明に係る中空臓器血管抽出プログラムを ダウンロードすることも可能である。 CPU 13は、 1 0;^14に格納された0 Sにより装置全体の制御を行うとともにハードディスク 19に格納された各種の アプリケーションプログラムに基づいて処理を実行する機能を司る。  In FIG. 19, the communication interface 12 has a function of connecting to a communication network such as the Internet, for example, and the hollow organ blood vessel extraction program according to the present invention can be downloaded. The CPU 13 controls the entire apparatus by using 0 S stored in 10; 14, and has a function of executing processing based on various application programs stored in the hard disk 19.
ROM 14は、 O S等のように装置全体の制御を行うためのプログラムを格納 しており、 これらを CPU 13に供給する機能を有している。 RAMI 5は、 C P U 13による各種プログラムの実行時にワークエリアとして利用されるメモリ 機能を有している。 この RAMI 5は、 領域抽出の際に例えばスタック A, Bを 設定するものとする。  The ROM 14 stores programs for controlling the entire apparatus, such as OS, etc., and has a function of supplying these to the CPU 13. The RAMI 5 has a memory function used as a work area when the CPU 13 executes various programs. In the RAMI 5, for example, stacks A and B are set at the time of region extraction.
ディスプレイ 16は、 CPU 13の各種の処理に伴うメニュー、 ステータス、 表示遷移等を表示する機能を有している。 キーボード/マウス 17は、 文字、 数 字、 記号等のデータを入力するためのキー、 画面上のポイント位置を操作するた めのカーソルキー、 ファンクションキー等を備えている。 なお、 ポイント位置を 操作するために、 マウスが備わっている。  The display 16 has a function of displaying menus, statuses, display transitions, and the like associated with various processes of the CPU 13. The keyboard / mouse 17 includes keys for inputting data such as characters, numbers, and symbols, cursor keys for operating point positions on the screen, and function keys. A mouse is provided to control the point position.
ドライブ 18は、 各種のプログラム、 データを記録した CD、 DVD等の記録 媒体からインストール作業を実行するための駆動ユエットである。 なお、 フロッ ピー (登録商標) ディスクのドライブ機能を付加してもよい。  The drive 18 is a drive unit for executing installation work from a recording medium such as a CD or a DVD in which various programs and data are recorded. Note that a floppy (registered trademark) disk drive function may be added.
ハードディスク 19は、 プログラム 19 A、 メモリ 19 B、 眼底立体モデノレ 1 9 C、フラグ情報 19 D等を記憶する外部記憶装置である。プログラム 19 Aは、 前述した通信インタフェース 12、 ドライブ 18等からインストールされたプロ グラムを実行形式で記憶したものに相当する。 メモリ 19Bは、 各種プログラム の実行結果等のファィルを保存する記憶部である。 眼底立体モデル 1 9 Cは、 前述した手法で構築された情報であり、 通信インタ フェース 1 2、 ドライブ 1 8等を介して読み込んだデータファイルである。 フラ グ情報 1 9 Dは、 例えば眼底立体モデル 1 9 Cの各フレームに座標で対応させて R G Bをひとつのフラグで表すものである。 The hard disk 19 is an external storage device that stores a program 19A, a memory 19B, a three-dimensional fundus model 19C, flag information 19D, and the like. The program 19A is equivalent to a program stored from the communication interface 12, the drive 18, and the like described above in an executable form. The memory 19B is a storage unit for storing files such as execution results of various programs. The fundus three-dimensional model 19C is information constructed by the method described above, and is a data file read through the communication interface 12, the drive 18 and the like. The flag information 19D represents, for example, RGB with one flag in correspondence with each frame of the fundus stereoscopic model 19C by coordinates.
つづいて、 本実施の形態を機能的に説明する。 第 2 0図は本実施の形態による 機能を示すプロック図であり、 第 2 1図は本実施の形態による表示遷移の一例を 示す図である。 本発明の機能は、 拡張条件設定部 1 0 0、 初期血管領域設定部 1 0 1、 仮領域設定部 1 0 2、 濃度中央値算出部 1 0 3、 境界近傍画素値取得部 1 0 4、 領域内外判定部 1 0 5、 血管領域抽出部 1 0 6、 表示画像形成部 1 0 7等 により構成される。  Subsequently, the present embodiment will be functionally described. FIG. 20 is a block diagram illustrating functions according to the present embodiment, and FIG. 21 is a diagram illustrating an example of display transition according to the present embodiment. The functions of the present invention include an extension condition setting unit 100, an initial blood vessel region setting unit 101, a temporary region setting unit 102, a median density value calculation unit 103, a pixel value acquisition unit 104 near the boundary, It is composed of a region inside / outside determination unit 105, a blood vessel region extraction unit 106, a display image formation unit 107, and the like.
以上の構成によれば、 拡張条件設定部 1 0 0により断面毎に拡張するという拡 張リージョングローイングの条件が設定される。 初期血管領域設定部 1 0 1によ り眼底立体モデル 1 9 Cからフレーム N—1の画像が取り出され、 手作業かコン ピュータ処理により初期の血管領域 (視神経乳頭) が設定される。 濃度中央値算 出部 1 0 3では、 この血管領域設定部 1 0 1で設定された領域内の各画素の濃度 値から濃度中央値が算出される。  According to the above configuration, the condition of the extended region growing is set by the extension condition setting unit 100 so as to expand each section. The image of the frame N-1 is extracted from the fundus three-dimensional model 19C by the initial blood vessel region setting unit 101, and the initial blood vessel region (optic nerve head) is set by manual or computer processing. The median density calculating unit 103 calculates the median density from the density values of each pixel in the area set by the blood vessel area setting unit 101.
仮領域設定部 1 0 2により、 フレーム N—1に連続する次のフレーム Nに対し て初期血管領域設定部 1 0 1で設定された血管領域と同じ領域の位置に仮領域が 設定される。 そして、 境界近傍画素値取得部 1 0 4により仮領域内外の境界近傍 画素の画素値が取得される。 ただし、 拡張条件設定部 1 0 0の制御により、 同一 断面における拡張リージヨングローイングが終了してから連続するつぎのフレー ムに処理が移行するものとする。 したがって、 同一断面内では、 局所領域を横に ずらしながら血管領域の判定が行われる。 ただし、 計質領域が血管抽出の対象と なり、 その領域外は処理対象外として排除される。  The temporary area setting unit 102 sets a temporary area at the same position as the blood vessel area set by the initial blood vessel area setting unit 101 with respect to the next frame N following the frame N-1. Then, the pixel value of the pixel near the boundary inside and outside the temporary area is obtained by the pixel value obtaining unit 104 near the boundary. However, under the control of the extension condition setting unit 100, the processing shifts to the next successive frame after the extension region growing on the same cross section is completed. Therefore, in the same cross section, the blood vessel region is determined while shifting the local region sideways. However, the measurement area is the target of blood vessel extraction, and the area outside that area is excluded as a processing target.
領域内外判定部 1 0 5では、 境界近傍画素と画素値と濃度中央値算出部 1 0 3 で算出された濃度中央 とに基づいて前述したように拡張リージヨングローリン グ法による血管領域内外の判定が行われる。 なお、 7 X 7 X 4の局所領域での判 定が開始されるのは、 過去に 4フレーム分の血管抽出が完了してからとなる。 よ つて、 抽出開始のレームを Nとした場合には、 フレーム N+ 3から 7 X 7 X 4の 局所領域が採用される。 The region inside / outside determination unit 105 determines the inside / outside of the blood vessel region by the extended region gliding method based on the pixel near the boundary, the pixel value, and the density center calculated by the density median value calculation unit 103 as described above. Is performed. Note that the local area of 7 X 7 X 4 The setting is started after the extraction of blood vessels for 4 frames in the past is completed. Therefore, if the extraction start frame is N, a local region from frame N + 3 to 7 × 7 × 4 is adopted.
そして、 血管領域抽出部 1 0 6により、 血管領域の内外判定に基づいて血管領 域の拡張又は伸縮による抽出が行われ、 その抽出結果がフラグ情報 1 9 Dに反映 される。  Then, the vascular region extracting unit 106 performs extraction by expanding or expanding / contracting the vascular region based on the inside / outside determination of the vascular region, and the result of the extraction is reflected in the flag information 19D.
違続する次のフレーム N+ 1においては、 フレーム N— 2 , N—1および Nに よる 3次元の局所領域が濃度中央値算出部 1 0 3で濃度中央値を算出する際の対 象となる。 このとき、 仮領域設定部 1 0 2では、 フラグ情報 1 9 Dよりフレーム Nの血管領域を取り込み、その血管領域にしたがって仮領域が設定される。以降、 同様に、 拡張リージョングローリング法により血管抽出が実施される。  In the next frame N + 1 which is interrupted, the three-dimensional local region by frames N-2, N-1 and N is a target when the median density calculation unit 103 calculates the median density. . At this time, the temporary area setting unit 102 captures the blood vessel area of the frame N from the flag information 19D, and sets the temporary area according to the blood vessel area. Thereafter, similarly, blood vessel extraction is performed by the extended region glowing method.
そして、 抽出済みの血管領域を表示させる場合には、 表示画像形成部 1 0 7に よりフラグ情報 1 9 Dおよび生体フノレカラー画像情報 1 9 Cに基づいて表示デー タが生成され、 第 2 1図 (A) 〜 (F) の如く血管領域 R O Iの表示遷移を観察 することができる。  When the extracted blood vessel region is displayed, display data is generated by the display image forming unit 107 based on the flag information 19D and the biological color image information 19C. As shown in (A) to (F), the display transition of the vascular region ROI can be observed.
つぎに、 動作について簡単に説明する。 第 2 2図は本実施の形態による動作を 説明するフローチャートであり、 第 2 3図は本実施の形態によるフラグ情報の管 理について説明する図である。 なお、 この第 2 2図による処理は、 プログラム 1 9 Aのうち本発明に係る中空臓器血管抽出プログラムに相当するものである。 た だし、 表示については、 第 2 0図の機能ブロックに従うものである。 以下の処理 で実行される拡張リージョングローイングは、 断面間の厚さに相当する例えば 4 フレームの単位で実行されるものとする。  Next, the operation will be briefly described. FIG. 22 is a flowchart illustrating the operation according to the present embodiment, and FIG. 23 is a diagram illustrating management of flag information according to the present embodiment. The processing shown in FIG. 22 corresponds to the hollow organ blood vessel extraction program according to the present invention in the program 19A. However, the display follows the functional blocks shown in FIG. The extended region growing performed in the following process shall be performed, for example, in units of four frames corresponding to the thickness between the cross sections.
まず、 1枚目のフレーム画像が入力され (ステップ S I ) 、 H S V変換処理が 実行される (ステップ S 2 ) 。 そして、 抽出対象である血管領域の開始点 (視神 経乳頭等) が指定される (ステップ S 3 ) 。  First, the first frame image is input (step S I), and the HSV conversion process is executed (step S 2). Then, the starting point of the blood vessel region to be extracted (optical nipple, etc.) is specified (step S3).
この段階では次のフレーム画像が存在することから (ステップ S 4 ) 、 連続す る次のフレーム画像が入力される (ステップ S 5 ) 。 このとき、 入力されたフレ ーム画像に対応するフラグ情報がリセットされる (ステップ S 6) 。 At this stage, since the next frame image exists (step S4), a continuous next frame image is input (step S5). At this time, the input frame The flag information corresponding to the camera image is reset (step S6).
入力フレーム画像に対しては、 1つ前のフレーム画像に指定した血管領域と同 じ領域の位置に仮領域として抽出開始領域が指定される (ステップ S 7) 。 この 抽出開始領域境界の近傍画素が 1つ選択され (ステップ S 8) 、 スタック A (図 19参照) に格納される (ステップ S 9) 。  For the input frame image, an extraction start region is specified as a temporary region at the same position as the blood vessel region specified in the previous frame image (step S7). One pixel near the boundary of the extraction start area is selected (step S8) and stored in the stack A (see FIG. 19) (step S9).
この段階では、 スタック Aは空ではないので (ステップ S 10) 、 スタック A 力 ら注目画素 Pを 1つ取り出し (ステップ S 1 1) 、 局所領域による前述した拡 張リージョングローリング処理が実行される (ステップ S 12) 。  At this stage, since the stack A is not empty (step S10), one pixel of interest P is extracted from the power of the stack A (step S11), and the above-described extended region glowing processing using the local region is executed. (Step S12).
そして、 注目画素 Pが血管領域内の場合には (ステップ S 13) 、 注目画 Pに 対してフラグがセットされ (ステップ S 14) 、 その注目画素 P近傍で抽出開始 領域に対して外側の画素が 1つ選択される (ステップ S 15) 。 この後、 選択画 素はスタック Aに格納され (ステップ S 9) 、 同様の処理が繰り返される。 フラグ情報は、 第 23図に示したように、 各フレームに対して画素毎に座標で 管理される。 例えば、 フレーム No. 100の座標 (Xい Y Ζ が血管領域 内と判断された場合には、 フラグ "1 " にセットされる。 フレーム No. 101 の座標 (Χ2, Υ2, Ζ2) はフラグ "1" のため、 血管領域内と判断されたことに なる。 If the target pixel P is in the blood vessel region (step S13), a flag is set for the target image P (step S14), and pixels outside the extraction start region near the target pixel P are set. Is selected (step S15). Thereafter, the selected pixel is stored in the stack A (step S9), and the same processing is repeated. The flag information is managed by coordinates for each pixel for each frame, as shown in FIG. For example, when the coordinates of frame No. 100 (X / YX is determined to be inside the blood vessel region, the flag is set to “1.” The coordinates of frame No. 101 (Χ 2 , Υ 2 , 2 ) Is determined to be within the blood vessel region because of the flag "1".
ステップ S 13において注目画素 Ρが領域外の場合には、 注目画素 Ρの近傍で 血管領域内の画素が 1つ選択され (ステップ S 16) 、 その選択画素はスタック Βに格納される (ステップ S 17) 。 そして、 スタック Αの空状態が確認される (ステップ S 18) 。 このスタック Aに関する処理は血管領域内を処理対象とて いる。  If the pixel of interest 外 is outside the region in step S13, one pixel in the blood vessel region is selected near the pixel of interest Ρ (step S16), and the selected pixel is stored in the stack Β (step S13). 17). Then, the empty state of the stack Α is confirmed (step S18). The processing related to the stack A targets the inside of the blood vessel region.
スタック Aが空でないときには (ステップ S 18の NOル一ト) 、 処理はステ ップ S 1 1に戻り、 同様の処理が繰り返される。 一方、 スタック Aが空の場合に は (ステップ S 18の YESルート) 、 さらにスタック Bの空の状態が確認され る (ステップ S 19) 。  If the stack A is not empty (NO in step S18), the process returns to step S11, and the same process is repeated. On the other hand, if the stack A is empty (YES route in step S18), the empty state of the stack B is further confirmed (step S19).
スタック Bが空でないときには (ステップ S 19の NOルート) 、 処理はステ ップ S 2 0に進み、 一方、 スタック Bが空の場合には (ステップ S 1 9の Y E S ルート) 、 入力フレーム画像 1枚分の処理が完了したので、 処理はステップ S 4 に戻り、 連続する次のフレーム画像の有無が判断される。 If the stack B is not empty (NO route in step S19), the processing is stopped. If the stack B is empty (YES route in step S19), the processing returns to step S4 because the processing for one input frame image is completed. It is determined whether there is a next frame image.
ステップ S 2 0においては、 スタック Bから注目画素 Pとして画素が 1つ取り 出され、 その注目画素 Pに対して前述した拡張リ一ジヨングローリング処理が施 される (ステップ S 2 1 ) 。 そして、 その注目画素 Pが血管領域外であれば (ス テツプ S 2 2 ) 、 さらに内側の判断を仰ぐため、 注目画素 Pの近傍で血管領域内 の画素が 1つ選択される (ステップ S 2 3 ) その選択画素はスタック Bに格納 され (ステップ S 1 7 ) 、 以下は同様の処理が繰り返される。 このスタック Bに 関する処理は血管領域外を処理対象とているので、 ステップ S 2 2で注目画素が 血管領域内と判断された場合には処理はステップ S 1 9に戻る。  In step S20, one pixel is taken out of the stack B as the pixel of interest P, and the above-mentioned extended region glowing process is performed on the pixel of interest P (step S21). If the pixel of interest P is outside the blood vessel region (step S22), one pixel in the blood vessel region is selected near the pixel of interest P to ask for further judgment (step S22). 3) The selected pixel is stored in the stack B (step S17), and the same processing is repeated thereafter. Since the processing relating to the stack B is processing outside the blood vessel region, if it is determined in step S22 that the pixel of interest is within the blood vessel region, the processing returns to step S19.
以上説明したように、 本実施の形態 1によれば、 眼球などの中空臓器に対して 測定対象を定量的に測定し、 かつ口パストな血管抽出を自動化することが可能で ある。 とくに、 拡張リージヨングローリングにより、 注目画素周囲の 3次元局所 空間を使用し、 注目画素周辺の 3次元局所空間での血管領域内外の濃度中央値を 判定基準とした領域抽出を行うようにしたので、 抽出対象のフレームよりも前の 連続する数フレーム分の判定結果を加味することができる。 その結果、 拡張リー ジョングローリングによる自動的なセグメンテーションを実現することが可能で ある。  As described above, according to the first embodiment, it is possible to quantitatively measure a measurement target with respect to a hollow organ such as an eyeball and to automate mouth-past blood vessel extraction. In particular, the extended region glowing uses the three-dimensional local space around the pixel of interest, and uses the median density inside and outside the blood vessel region in the three-dimensional local space around the pixel of interest to extract the area. In addition, it is possible to take into account the determination results of several consecutive frames before the frame to be extracted. As a result, it is possible to realize automatic segmentation by extended region glowing.
とくに、 切断面の開始点は視神経乳頭 (視神経と血管力 S眼球の外から眼球に入 り込むところ) に外接する面が最も血管が太く、 すべての血管がつながつている ところなので、 顕著な、 高い効果が得られる。 このことから、 血管抽出作業の 1 軸方向に対して反転回数を少なくすることができる。  In particular, the starting point of the cut plane is the circumscribed surface of the optic disc (where the optic nerve and vascular force S enters the eyeball from outside the eyeball) where the blood vessels are the thickest and all blood vessels are connected. High effects can be obtained. This makes it possible to reduce the number of inversions in one axis direction of the blood vessel extraction operation.
その際、 中空臓器の血管領域の判定基準を 3次元の空間で行う前提で、 中空臓 器の特徴すなわち眼底においては眼球が透明なことから血管の抽出範囲を特定す ることができる。 このように、 抽出範囲が特定されたことで、 血管抽出の堅牢性 および高速性を実現することが可能である。 このようにすれば、 例えば同一臓器の色の変化にも対応して正確に領域抽出を 行い、 また、 同一臓器内に異物が混在しても影響されずに正確に領域抽出を行う ことができる。 また、 従来法のリージョングローイングで問題とされた恣意的な パラメータゃ拡張の停止条件をなくし、判定基準の固定化を避けることができる。 また、 本発明は 3次元眼底モデル内の血管抽出を自動的に行うための手法であ り、 この手法によれば、 眼底血管の自動抽出を精度良く行うことが可能となり、 また、 計算コストを低減することが可能となる。 このことにより、 現在、 眼科で 撮影している眼底写真と超音波画像から、 患者個別の眼底モデルからその血管を 抽出することが可能となる。 At this time, it is assumed that the criterion for determining the blood vessel region of the hollow organ is a three-dimensional space, and the characteristics of the hollow organ, that is, the eyeball is transparent at the fundus, can specify the blood vessel extraction range. By specifying the extraction range in this way, it is possible to realize robustness and high-speed blood vessel extraction. In this way, for example, the region can be accurately extracted in response to a change in the color of the same organ, and the region can be accurately extracted without being affected even if foreign substances are mixed in the same organ. . In addition, it is possible to eliminate the condition for stopping the arbitrary parameter と expansion, which was a problem in the conventional region growing, and to avoid fixing the criterion. Further, the present invention is a method for automatically extracting blood vessels in a three-dimensional fundus model. According to this method, it is possible to accurately extract a fundus blood vessel with high accuracy, and to reduce the calculation cost. It becomes possible to reduce. This makes it possible to extract the blood vessels from the patient-specific fundus model from fundus photographs and ultrasound images currently taken in ophthalmology.
そして、 抽出した血管の 3次元座標は 3次元眼底モデルから求めることができ るので、 ディジタルデータとして求めることが可能である。 この血管抽出領域を 判断基準として、 眼底血管の異常を検出して、 医師に知らせる診断補助システム とすることが可能となる。  Since the three-dimensional coordinates of the extracted blood vessels can be obtained from the three-dimensional fundus model, it can be obtained as digital data. Using this blood vessel extraction region as a criterion, it becomes possible to provide a diagnostic assistance system that detects abnormalities in the blood vessels of the fundus oculi and informs a doctor.
また、 同一患者の経時変化を記録することにより、 その患者の異常値を数値デ ータとして提示することが可能となる。 その応用範囲は、 眼底血管は人体で唯一 見ることが可能な血管であることから、 眼科領域での疾患にとどまらず、 血管に 関係する循環器、 内科領域、 さらには公衆衛生範囲にも及ぶ。 さらに、 近年、 研 究が進められているシミュレーション技術を用いた診断、 治療システムへの解析 もとデータを提示することも可能である。  Also, by recording the change over time of the same patient, it becomes possible to present abnormal values of the patient as numerical data. Its application scope is not limited to diseases in the ophthalmology field, but also extends to the circulatory and medical fields related to blood vessels, as well as public health, because the fundus blood vessels are the only blood vessels that can be seen in the human body. Furthermore, it is also possible to present data based on analysis to diagnosis and treatment systems using simulation technology that has been studied in recent years.
また、 上述した実施の形態 1において、 抽出の繰り返しの回数 (1軸方向にお ける往復) は、 任意に設定しても良いし、 拡張量の増加量または拡張量 (1軸方 向の作業終了までの) で規定しても良い。  In Embodiment 1 described above, the number of times of repetition of extraction (reciprocation in one axis direction) may be set arbitrarily, or the amount of extension or the amount of extension (operation in one axis direction) may be set. Until the end).
また、 局所領域の拡張量を判断基準として、 少ない領域をあえて抽出しないよ うにすることも可能である。 このことにより、 血管系により微細な血管の抽出を コントロールすることが可能である。 これを発展させて、 拡張量によりフラグの 種類を複数設定することにより、 太い血管と細い血管を識別したフラグとするこ とも可肯 となる。 また、 本実施の形態 1によれば、 拡張範囲であるが、 対象となる血管は眼底に 接していることから、 眼底モデルの中心や外側には対象領域は存在しない。 そこ で、 拡張範囲を眼底モデルから規定することにより、 計算量を激減することが可 肯 gとなる。 It is also possible to prevent a small area from being extracted by using the expansion amount of the local area as a criterion. This makes it possible to control the extraction of fine blood vessels by the vascular system. By developing this and setting multiple types of flags according to the amount of expansion, it is also possible to use a flag that identifies thick blood vessels and thin blood vessels. Further, according to the first embodiment, although the target blood vessel is in contact with the fundus oculi, the target area does not exist at the center or outside of the fundus oculi model. Therefore, by defining the extended range from the fundus model, the amount of calculation can be drastically reduced.
この実施の形態 1によれば、 血管領域について細部まで抽出した後に、 血管の 中心線を算出して、 その軸に直行する断面を求めてから、 その断面の大きさによ り血管の太さを分別する方法も可能である。 この方法では、 切断面を基準とした 抽出のため (たとえば 2 . 5次元)、メモリ空間を少なくすることが可能である。 さて、 上述した実施の形態 1では、 判定基準のデータとして濃度中央値を採用 したが、 本発明はこれに限定されるものではなく、 濃度中央値のほうが好ましい 力 濃度平均値からも同様の効果を得ることが可能である。  According to the first embodiment, after extracting the details of the blood vessel region, the center line of the blood vessel is calculated, the cross section orthogonal to the axis is obtained, and the thickness of the blood vessel is determined by the size of the cross section. Is also possible. In this method, since the extraction is performed based on the cut plane (for example, 2.5 dimensions), the memory space can be reduced. By the way, in Embodiment 1 described above, the median density is adopted as the data of the criterion. However, the present invention is not limited to this, and the same effect is obtained from the power density average value where the median density is more preferable. It is possible to obtain
また'、 上述した実施の形態 1では、 3次元局所領域を 7 X 7 X 4のサイズとし て説明したが、 本発明はこれに限定されるものではなく、 例えば 3 X 3 X 2のよ うに上記サイズよりも小さくてもよく、 あるいは、 大きくてもよい。 また、 大中 小等の複数のサイズをもつことで、それぞれに重み付けをすることも可能である。 さらに、 上述した実施の形態 1では、 カラー画像を例に挙げているが、 白黒画 像への適用も可能である。  Also, in Embodiment 1 described above, the three-dimensional local region is described as having a size of 7 × 7 × 4, but the present invention is not limited to this, and for example, 3 × 3 × 2 It may be smaller or larger than the above size. By having multiple sizes such as large, medium and small, it is also possible to weight each one. Furthermore, in the first embodiment described above, a color image is taken as an example, but application to a black-and-white image is also possible.
また、 上述した実施の形態 1では、 初期画像にあたるフレーム N— 1に対して 手作業で血管領域を抽出していたが、 本発明はこれに限定されるものではなく、 画像処理技術により自動的に抽出するようにしてもよい。  In Embodiment 1 described above, the blood vessel region is manually extracted from the frame N-1 corresponding to the initial image. However, the present invention is not limited to this. May be extracted.
実施の形態 2  Embodiment 2
さて、 本発明は、 上述した実施の形態 1に限らず、 種々の変形が可能である。 そこで、 以下に本発明の実施の形態 2について述べる。 なお、 前述の実施の形態 1と原理は同様であり、 共通機能があることから、 以下に相違する部分について のみ説明する。  Now, the present invention is not limited to Embodiment 1 described above, and various modifications are possible. Therefore, a second embodiment of the present invention will be described below. Note that the principle is the same as that of the above-described first embodiment, and since there is a common function, only the differences will be described below.
本実施の形態 2においては、 開始点として視神経乳頭が最も効果が高いところ であるが、 複数個指定して、 その重なり合いを利用して口パスト性を向上させる ことが可能となる。 各開始点毎に拡張領域のデータをもち、 その後、 各開 ί合点毎 のデータを統計手法で判定 ( a n dをとる等) することにより、 確実性を向上さ せることが可能である。 In the second embodiment, the optic disc is the most effective as the starting point. However, a plurality of optic discs are designated, and the overlapping thereof is used to improve the mouth-paste property. It becomes possible. It is possible to improve the certainty by having the data of the extension area for each start point and then judging the data for each junction point by a statistical method (such as and).
この実施の形態 2では、 眼底の立体モデルに対して血管領域の抽出作業は、 切 断面を基準とした断面単位に行うのではなく、 また局所領域のサイズも任意とす るものである。 局所領域の一例を第 2 4図に示す。 第 2 4図に示した局所領域 W は、 例えば 7 X 7 X 7画素のサイズを有している。 このように、 画素毎に割り当 てるポクセル空間内で任意の方向に本発明の拡張リージョングローイングを実施 することが可能となる。  In the second embodiment, the work of extracting the blood vessel region from the stereoscopic model of the fundus is not performed on a cross-sectional unit basis with respect to the incision cross-section, and the size of the local region is also arbitrarily determined. An example of the local region is shown in FIG. The local area W shown in FIG. 24 has a size of, for example, 7 × 7 × 7 pixels. As described above, the extended region growing according to the present invention can be performed in an arbitrary direction in the poxel space assigned to each pixel.
前述した実施の形態 1において、 第 2 2図の処理では断面間の単位で拡張リー ジョングローイングが実施されるが、 本実施の形態 2ではその断面間の単位はな く、 拡張リージョングローイングのための処理対象が立体モデ^^のデータ全体に わたることになる。  In the first embodiment described above, the extended region growing is performed in units of cross sections in the processing of FIG. 22. However, in the second embodiment, there is no unit between the cross sections, and the extended region growing is performed. Will cover the entire data of the solid model ^^.
局所領域 Wは、 第 2 5図に示したように、 血管領域を拡張させながら判定場所 を移動させることができる。 したがって、 拡張リージヨングローイングは、 与え られた任意のサイズの局所領域 Wにしたがって血管を伝うように血管抽出を助け てくれる。 なお、 本実施の形態 2においても前述の実施の形態と同様に、 計質領 域が血管抽出の対象となり、 その領域外は処理対象外として排除される。  As shown in FIG. 25, the local area W can move the determination place while expanding the blood vessel area. Therefore, the extended region growing helps the blood vessel extraction to travel along the blood vessel according to the given local region W of any size. Note that, also in the second embodiment, similarly to the above-described embodiment, the target region is a target of blood vessel extraction, and the outside of the target region is excluded as a target to be processed.
以上において、 血管領域を抽出するための出発点は任意の 1または複数点であ つてもよい。 この場合には、 前述したように、 画素毎に抽出処理を施したものに はフラグ管理によりすみわけするので、 血管領域の追跡が複数の枝に分かれても 同時に処理を進行させることが可能となる。  In the above, the starting point for extracting the blood vessel region may be any one or a plurality of points. In this case, as described above, the extraction processing for each pixel is separated by flag management, so that even if the tracking of the blood vessel region is divided into a plurality of branches, the processing can proceed simultaneously. Become.
また、拡張領域は 3次元空間である力、拡張リージョングローリング法のうち、 1軸方向の大きさの限定をはずした 3次元空間としてもよい。 すなわち、 局所領 域の持ち方は 7 X 7 X 4を例にとる 3次元領域であつたが、 7 7 X 4に限定さ れず、 任意のサイズとしてもよい。  Further, the extended region may be a three-dimensional space in which the size in one axis direction is removed from the force or extended region glowing method which is a three-dimensional space. In other words, the local area is held in a three-dimensional area taking 7 × 7 × 4 as an example, but the local area is not limited to 7 × 7 × 4 and may be of any size.
また、 拡張領域はあらかじめ眼底の立体モデルから眼底血管領域を求め、 その 際、 眼底からの厚さで規定するようにしてもよいし、 その厚さの範囲を超える部 分は計算しないようにしてもよい。 厚さの範囲を超える部分を計算しないように すれば、 計算量を激減することが可能である。 For the extended area, the fundus blood vessel area is obtained in advance from the three-dimensional fundus model. At this time, the thickness may be defined by the thickness from the fundus, or the portion exceeding the thickness range may not be calculated. By not calculating the part that exceeds the thickness range, the amount of calculation can be drastically reduced.
また、 血管領域の抽出を完了させた領域については、 画像データのセット (画 像ファイル) とは別にフラグをたてることが可能である。 この場合には、 画像領 域に規定した値を持ってフラグとすることも可能である。  In addition, it is possible to set a flag separately from the image data set (image file) for the region where the extraction of the blood vessel region is completed. In this case, it is possible to set a flag with a value specified in the image area.
また、 複数の出発点とする場合、 出発点ごとにポテンシャルを持たせて、 複数 の拡張始点の情報から血管部分を判断することもできる。  When a plurality of starting points are set, a potential can be given to each starting point, and a blood vessel portion can be determined from information of a plurality of extended starting points.
そして、 血管領域を抽出する際の探索領域を 3次元空間として考えるこどが可 能である。 通常、 眼底領域として想定される 1 0 0 0 X 1 0 0 0 X 1 0 0 0のボ クセル空間ではその対象領域は 1 0億ボクセルとなり、 その計算コストは膨大で ある。 そのため、 あらかじめ計算領域を眼底モデルの形状からお椀状の眼底形状 とその厚さに限定することにより、 大幅に計算コストを削減することが可能であ る。  Then, it is possible to consider the search area when extracting the blood vessel area as a three-dimensional space. In the voxel space of 100 × 100 × 100 × which is usually assumed as a fundus region, the target region is 100 billion voxels, and the computation cost is enormous. Therefore, it is possible to greatly reduce the calculation cost by limiting the calculation area from the shape of the fundus model to the bowl-shaped fundus shape and its thickness in advance.
そして、 上述した変形例のように、 拡張の方向を規定しない場合には、 立体モ デルに対する切断面を移動することが不要となり、 U字型に戻るなどの血管形状 に左右されないことから、 移動回数を考慮しないで済むというメリットがある。 さて、 上述においては、 眼底を例に挙げて説明していたが、 本発明はこれに限 定されず、胃等の中空臓器への適用も可能である。また、眼底血管にとどまらず、 形状情報が分かるものと内視鏡などの画像を組み合わせてその特異部 (血管、 腫 瘍) を抽出するときの手法にも応用することが可能である。 また、 本発明は、 中 空臓器の血管抽出に限定されず、 中空臓器表面 (裏面) の腫瘍等の抽出、 検出、 診断にも適用可能である。  If the direction of expansion is not specified as in the above-described modification, it is not necessary to move the cut surface with respect to the three-dimensional model, and it is not affected by the blood vessel shape such as returning to a U-shape. There is an advantage that it is not necessary to consider the number of times. In the above description, the fundus has been described as an example, but the present invention is not limited to this, and can be applied to hollow organs such as the stomach. In addition, it can be applied not only to the fundus blood vessels, but also to a method for extracting unique parts (blood vessels, tumors) by combining images with shape information and images from an endoscope. In addition, the present invention is not limited to extraction of blood vessels of hollow organs, but is also applicable to extraction, detection, and diagnosis of tumors and the like on the front surface (back surface) of hollow organs.
また、 本発明は、 前述したスタックに限定されるものではなく、データの持ち 方としてキューを適用させてもよいことはいうまでもない。 この場合には、 ファ 一ストイン .ファーストアゥト型のデータ構造となり、 血管の流れに沿った領域 拡張が可能である。 なお、 データ量の膨らみの防止等のデータ管理の最適化は、 スタック、 キューともにその効果がある。 Further, the present invention is not limited to the stack described above, and it goes without saying that a queue may be applied as a data holding method. In this case, the data structure is a fast-in first-out data structure, and the region can be extended along the flow of blood vessels. Optimization of data management such as prevention of data volume swelling Both stacks and queues have the effect.
以上説明したように本発明によれば、 眼球などの中空臓器に対して測定対象を 定量的に測定し、 かつ口バストな血管抽出を自動化することが可能な中空臓器血 管抽出方法、 中空臓器血管抽出処理プログラムおよび画像処理装置を提供できる という効果を奏する。  INDUSTRIAL APPLICABILITY As described above, according to the present invention, a hollow organ blood vessel extraction method capable of quantitatively measuring a measurement target with respect to a hollow organ such as an eyeball and automating mouth-bust blood vessel extraction, It is possible to provide a blood vessel extraction processing program and an image processing device.
また、本発明によれば、中空臓器の血管領域の判定基準を 3次元の空間で行い、 かつ、 中空臓器の特徴から血管の抽出範囲を特定するようにしたので、 血管抽出 の堅牢性および高速性を実現することが可能な中空臓器血管抽出方法、 中空臓器 血管抽出処理プログラムおよび画像処理装置を提供できるという効果を奏する。 産業上の利用可能性  Further, according to the present invention, the criterion of the blood vessel region of the hollow organ is determined in a three-dimensional space, and the extraction range of the blood vessel is specified based on the characteristics of the hollow organ. It is possible to provide a hollow organ blood vessel extraction method, a hollow organ blood vessel extraction processing program, and an image processing device capable of realizing the characteristics. Industrial applicability
以上のように、 本発明にかかる中空臓器血管抽出方法、 中空臓器血管抽出処理 プログラムおよび画像処理装置は、 中空臓器の測定対象を定量的に測定するのに 有用であり、 特に、 中空藤の血管抽出、 中空臓器表面 (裏面) の腫瘍等のロバ ストな抽出、 検出、 診断に適している。  INDUSTRIAL APPLICABILITY As described above, the hollow organ blood vessel extraction method, the hollow organ blood vessel extraction processing program, and the image processing apparatus according to the present invention are useful for quantitatively measuring a hollow organ measurement target. Suitable for extraction, robust extraction, detection, and diagnosis of tumors on the surface (back side) of hollow organs.

Claims

請 求 の 範 囲 The scope of the claims
1 . 中空臓器の生体断面画像の連続フレームから血管領域を抽出する方法であ つて、 1. A method for extracting a blood vessel region from a continuous frame of a biological organ cross-sectional image of a hollow organ,
あらかじめ用意された中空臓器の立体モデルに対して血管領域を抽出するため のフレーム毎の計質領域を与え、 画素毎の判定基準にしたがって第 1フレームの 計質領域の画素値に基づいて前記血管領域に帰属する領域を判定し、 前記血管領 域に前記判定された領域を含めた領域の画素値に基づいて前記第 1フレームに連 続する第 2フレームにおける判定基準を設定することを特徴とする中空臓器血管 抽出方法。  An instrument region for each frame for extracting a blood vessel region is provided to a previously prepared three-dimensional model of a hollow organ, and the blood vessel is extracted based on a pixel value of the instrument region of the first frame in accordance with a criterion for each pixel. Determining a region belonging to a region, and setting a determination criterion in a second frame connected to the first frame based on a pixel value of a region including the determined region in the blood vessel region. Hollow organ blood vessel extraction method.
2 . 中空臓器の生体断面画像の連続フレームから血管領域を抽出する方法であ つて、 2. A method for extracting a blood vessel region from a continuous frame of a biological organ cross-sectional image of a hollow organ,
あらかじめ用意された中空臓器の立体モデルに対して血管領域を抽出するため のフレーム毎の計質領域を与え、 画素毎の判定基準にしたがって第 1フレームの 計質領域の画素値に基づレ、て前記血管領域内に帰属する領域と帰属しな!、領域と を判定し、 前記血管領域内に前記帰属する領域を含めた領域の画素値に基づいて 前記第 1フレームに連続する第 2フレームにおける血管領域内の判定基準を設定 し、 前記血管領域外に前記帰属しない領域を含めた領域の画素値に基づいて前記 第 1フレームに連続する第 2フレームにおける血管領域外の判定基準を設定する ことを特徴とする中空臓器血管抽出方法。  Given a stereoscopic model of a hollow organ prepared in advance, an instrumental area for each frame for extracting a blood vessel area is given, and based on the pixel value of the instrumental area of the first frame according to the criterion for each pixel, Do not belong to the region belonging to the blood vessel region! And determining a criterion in a vascular region in a second frame that is continuous with the first frame based on pixel values of a region including the belonging region in the vascular region. A method for extracting hollow organ blood vessels, comprising: setting a criterion for determining whether a blood vessel region is outside a blood vessel region in a second frame that is continuous with the first frame, based on pixel values of a region including the non-attributed region.
3 . 血管領域の抽出を開始する第 1枚目のフレームの計質領域に対して少なく とも 1点の血管領域を与え、当該血管領域の画素値に基づいて初期の判定基準を設 定することを特徴とする請求の範囲第 1項又は 2項に記載の中空臓器血管抽出方 法。 3. At least one vascular region is given to the quality region of the first frame from which the extraction of the vascular region is started, and an initial determination criterion is set based on the pixel value of the vascular region. The hollow organ blood vessel extraction method according to claim 1 or 2, wherein the method is characterized in that:
4 . 血管領域を抽出する対象の現フレームにおいて前フレームまでに判定され た血管領域と同じ位置に仮領域を設け、 当該仮領域の境界に沿って画素単位に帰 属の判断を行うことを特徴とする請求の範囲第 1項又は 2項に記载の中空臓器血 管抽出方法。 4. In the current frame from which the blood vessel region is extracted, a temporary region is provided at the same position as the blood vessel region determined up to the previous frame, and the attribution is determined in pixel units along the boundary of the temporary region. 3. The method for extracting hollow organ blood vessels according to claim 1 or 2, wherein:
5 . 前記仮領域において、 前記血管領域に帰属させる画素が前記仮領域外にあ る場合には、 当該画素を前記現フレームの血管領域の画素として当該血管領域を 前記前フレームの血管領域に対して拡張し、 前記血管領域に帰属させない画素が 前記仮領域内にある場合には、 当該画素を前記現フレームの血管領域外の画素と して当該血管領域を前記前フレームの血管領域に対して縮小することを特徴とす る請求の範囲第 4項に記載の中空臓器血管抽出方法。 5. In the temporary region, when a pixel belonging to the blood vessel region is outside the temporary region, the pixel is regarded as a pixel of the blood vessel region of the current frame, and the blood vessel region is determined with respect to the blood vessel region of the previous frame. If a pixel that does not belong to the blood vessel region is within the temporary region, the pixel is regarded as a pixel outside the blood vessel region of the current frame, and the blood vessel region is compared with the blood vessel region of the previous frame. The hollow organ blood vessel extraction method according to claim 4, wherein the method is characterized by reducing the size.
6 . 前記血管領域の判定では、 血管領域を抽出する対象の現フレーム以前の連 続する複数枚のフレームから画素単位に対応させて前記現フレームの各画素を含 む立体的な所定サイズの局所領域を取り出しながら、 前記各局所領域に含まれる 前記血管領域の一部に対応する前記設定された判定基準を使用することを特徴と する請求の範囲第 1項又は 2項に記載の中空臓器血管抽出方法。 6. In the determination of the blood vessel region, a three-dimensional local region of a predetermined size including each pixel of the current frame is set in correspondence with a pixel unit from a plurality of continuous frames before the current frame from which the blood vessel region is extracted. The hollow organ blood vessel according to claim 1 or 2, wherein the set criterion corresponding to a part of the blood vessel region included in each of the local regions is used while extracting the region. Extraction method.
7 . 生体断面の厚さを前記所定サイズの局所領域に合致させ、 生体断面毎に前 記血管領域に該当する領域を拡張させながら血管領域の判定を行うことを特徴と する請求の範囲第 6に記載の中空臓器血管抽出方法。 7. The blood vessel region is determined while matching the thickness of the cross section of the living body with the local region having the predetermined size and expanding the region corresponding to the blood vessel region for each of the living body cross sections. 2. The method for extracting a hollow organ blood vessel according to item 1.
8 . 前記立体モデル全体に対して前記血管領域をボタセル空間内で拡張させな がら血管領域の判定を行うことを特徴とする請求の範囲第 1項又は 2項に記載の 中空臓器血管抽出方法。 8. The hollow organ blood vessel extraction method according to claim 1, wherein the blood vessel region is determined while expanding the blood vessel region in the entire volume of the three-dimensional model in the Vota cell space.
9 . 前記血管領域の画素のみ表示対象として記憶することを特徴とする請求の 範囲第 1項又は 2項に記載の中空臓器血管抽出方法。 9. Only the pixels in the blood vessel region are stored as display targets. 3. The hollow organ blood vessel extraction method according to item 1 or 2.
1 0 . 前記連続フレームに対する血管領域の抽出をフレームの連続する方向に 対して少なくとも往復で実施することを特徴とする請求の範囲第 1項又は 2項に 記載の中空臓器血管抽出方法。 10. The hollow organ blood vessel extraction method according to claim 1, wherein extraction of a blood vessel region from the continuous frame is performed at least reciprocally with respect to a continuous direction of the frame.
1 1 . 前記中空臓器は眼底であることを特徴とする請求の範囲第 1項又は 2項 に記載の中空臓器血管抽出方法。 11. The method according to claim 1 or 2, wherein the hollow organ is a fundus.
1 2 . 血管領域の抽出を開始する第 1枚目のフレームの計質領域に対して眼底 の視神経乳頭を指定し、 当該指定された視神経乳頭の画素値に基づいて初期の判 定基準を設定することを特徴とする請求の範囲第 1 1項に記載の中空臓器血管抽 出方法。 1 2. Specify the optic papilla of the fundus for the instrumented area of the first frame from which the extraction of the blood vessel area is started, and set the initial judgment criteria based on the pixel value of the specified optic papilla. 12. The method for extracting a hollow organ blood vessel according to claim 11, wherein the method is performed.
1 3 . 複数のフレームは前記生体断面画像を前記眼底の中心方向に 1軸で並べ てなることを特徴とする請求の範囲第 1 1項に記載の中空臓器血管抽出方法。 13. The hollow organ blood vessel extraction method according to claim 11, wherein the plurality of frames are configured by arranging the biological cross-sectional images on one axis in a central direction of the fundus.
1 4 . 前記あらかじめ用意された中空臓器の立体モデルは、 座標計測によって 得られた情報であることを特徴とする請求の範囲第 1項又は 2項に記載の中空臓 器血管抽出方法。 14. The hollow organ blood vessel extraction method according to claim 1, wherein the previously prepared three-dimensional model of the hollow organ is information obtained by coordinate measurement.
1 5 . 中空臓器の生体断面画像の連続フレームから血管を抽出するための処理 をコンピュータに実行させるプログラムであって、 15. A program for causing a computer to execute a process for extracting blood vessels from continuous frames of a biological organ cross-sectional image of a hollow organ,
前記コンピュータに、  To the computer,
あらかじめ用意された中空臓器の立体モデノレに対して血管領域を抽出するため のフレーム毎の計質領域を入力する第 1ステップと、  A first step of inputting a quality region for each frame for extracting a blood vessel region with respect to a three-dimensional model of a hollow organ prepared in advance;
画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基づいて前 記血管領域に帰属する領域を判定する第 2ステップと、 Based on the pixel value of the quality area of the first frame according to the judgment criteria for each pixel, A second step of determining a region belonging to the blood vessel region;
前記血管領域に前記判定された領域を含めた領域の画素値に基づいて前記第 1 フレームに連続する第 2フレームにおける判定基準を設定する第 3ステップと、 を実行させることを特徴とする中空臓器血管抽出プログラム。  Setting a criterion in a second frame that is continuous with the first frame based on a pixel value of a region including the determined region in the blood vessel region. Blood vessel extraction program.
1 6 . 中空臓器の生体断面画像の連続フレームから血管を抽出するための処理 をコンピュータに実行させるプログラムであって、 16. A program for causing a computer to execute a process for extracting blood vessels from a continuous frame of a biological organ cross-sectional image of a hollow organ,
前記コンピュータに、  To the computer,
あらかじめ用意された中空臓器の立体モデルに対して血管領域を抽出するため のフレーム毎の計質領域を入力する第 1ステップと、  A first step of inputting a quality region for each frame for extracting a blood vessel region with respect to a three-dimensional model of a hollow organ prepared in advance;
画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基づいて前 記血管領域内に帰属する領域と帰属しない領域とを判定する第 2ステップと、 前記血管領域内に前記帰属する領域を含めた領域の画素値に基づいて前記第 1 フレームに連続する第 2フレームにおける血管領域内の判定基準を設定し、 前記 血管領域外に前記帰属しない領域を含めた領域の画素値に基づいて前記第 1フレ ームに連続する第 2フレームにおける血管領域外の判定基準を設定する第 3ステ ップと、  A second step of judging a region belonging to the blood vessel region and a region not belonging to the blood vessel region based on a pixel value of the quality region of the first frame in accordance with a determination criterion for each pixel; A determination criterion in a blood vessel region in a second frame continuous with the first frame is set based on a pixel value of a region including the region, and based on a pixel value of a region including the non-attributed region outside the blood vessel region. A third step of setting a criterion outside the blood vessel region in a second frame following the first frame,
を実行させることを特徴とする中空臓器血管抽出プログラム。  A hollow organ blood vessel extraction program characterized by executing
1 7 . 前記コンピュータに、 さらに、 血管領域の抽出を開始する第 1枚目のフ レームの計質領域に対して少なくとも 1点の血管領域を設定し、 当該少なくとも 1 点の血管領域の画素値に基づいて初期の判定基準を設定する第 4ステップを実行 させることを特徴とする請求の範囲第 1 5項又は 1 6項に記載の中空臓器血管抽 出プログラム。 17. The computer further sets at least one vascular region with respect to the quality region of the first frame from which vascular region extraction is started, and sets the pixel value of the at least one vascular region. 17. The hollow organ blood vessel extraction program according to claim 15, wherein a fourth step of setting an initial determination criterion based on the program is executed.
1 8 . 前記第 2ステップは、 血管領域を抽出する対象の現フレームにおいて前 フレームまでに判定された血管領域と同じ位置に仮領域を設け、 当該仮領域の境 界に沿って画素単位に帰属の判断を行うことを含むことを特徴とする請求の範囲 第 1 5項又は 1 6項に記載の中空臓器血管抽出プログラム。 18. In the second step, a temporary area is provided at the same position as the blood vessel area determined up to the previous frame in the current frame from which the blood vessel area is to be extracted. The hollow organ blood vessel extraction program according to claim 15 or 16, further comprising determining belonging to each pixel along a field.
1 9 . 前記第 2ステツプは、 前記仮領域において、 前記血管領域に帰属させる 画素が前記仮領域外にある場合には、 当該画素を前記現フレームの血管領域の画 素として当該血管領域を前記前フレームの血管領域に対して拡張し、 前記血管領 域に帰属させない画素が前記仮領域内にある場合には、 当該画素を前記現フレー ムの血管領域外の画素として当該血管領域を前記前フレームの血管領域に対して 縮小することを含むことを特徴とする請求の範囲第 1 8項に記載の中空臓器血管 抽出プログラム。 19. In the second step, in the temporary area, when a pixel belonging to the blood vessel area is outside the temporary area, the pixel is regarded as a pixel of the blood vessel area of the current frame, and the blood vessel area is set as the pixel. If a pixel that does not belong to the vascular region and extends to the vascular region of the previous frame is present in the temporary region, the pixel is regarded as a pixel outside the vascular region of the current frame, and the vascular region is set to the previous pixel. 19. The hollow organ blood vessel extraction program according to claim 18, wherein the program includes reducing a blood vessel region of the frame.
2 0 . 前記第 2ステップは、 血管領域を抽出する対象の現フレーム以前の連続 する複数枚のフレームから画素単位に対応させて前記現フレームの各画素を含む 立体的な所定サイズの局所領域を取り出しながら、 前記各局所領域に含まれる前 記血管領域の一部に対応する前記設定された判定基準を使用することを含むこと を特徴とする請求の範囲第 1 5項又は 1 6項に記載の中空臓器血管抽出プロダラ ム。 20. In the second step, a three-dimensional local region of a predetermined size including each pixel of the current frame corresponding to a pixel unit from a plurality of continuous frames before the current frame from which a blood vessel region is to be extracted is included. The method according to claim 15, further comprising using the set determination criterion corresponding to a part of the blood vessel region included in each of the local regions while extracting. Hollow organ blood vessel extraction program.
2 1 . 生体断面の厚さは前記所定サイズの局所領域に合致させており、 前記第 2ステップは生体断面毎に前記血管領域に該当する領域を拡張させながら血管領 域の判定を行うことを特徴とする請求の範囲第 2 0項に記載の中空臓器血管抽出 プログラム。 21. The thickness of the cross section of the living body matches the local region of the predetermined size, and the second step performs the determination of the blood vessel region while expanding the region corresponding to the blood vessel region for each cross section of the living body. 21. The hollow organ blood vessel extraction program according to claim 20.
2 2 . 前記第 2ステツプは、 前記立体モデル全体に対して前記血管領域をボク セル空間内で拡張させながら血管領域の判定を行うことを特徴とする請求の範囲 第 1 5項又は 1 6項に記載の中空臓器血管抽出プログラム。 22. The second step is to determine a blood vessel region while expanding the blood vessel region in the voxel space with respect to the entire three-dimensional model. 2. A hollow organ blood vessel extraction program according to item 1.
2 3 . 前記コンピュータに、 さらに、 前記血管領域の画素のみ表示対象として 記憶する第 5ステップを実行させることを特徴とする請求の範囲第 1 5項又は 123. The computer according to claim 15, further comprising: causing the computer to execute a fifth step of storing only pixels of the blood vessel region as display targets.
6項に記載の中空臓器血管抽出プログラム。 Item 7. The hollow organ blood vessel extraction program according to Item 6.
2 4 . 前記コンピュータに、 さらに、 前記連続フレームに対する血管領域の抽 出をフレームの連続する方向に対して少なくとも往復で実施する第 6ステップを 実行させることを特徴とする請求の範囲第 1 5項又は 1 6項に記載の中空臓器血 管抽出プログラム。 24. The computer according to claim 15, further comprising causing the computer to execute a sixth step of extracting a blood vessel region from the continuous frame at least reciprocally in a continuous direction of the frame. Or the hollow organ blood vessel extraction program according to item 16.
2 5 . 前記中空臓器は眼底であることを特徴とする請求の範囲第 1 5項又は 1 6項に記載の中空臓器血管抽出プログラム。 25. The computer program according to claim 15, wherein the hollow organ is a fundus.
2 6 . 前記コンピュータに、 さらに、 血管領域の抽出を開始する第 1枚目のフ レームの計質領域に対して眼底の視神経乳頭を指定し、 当該指定された視神経乳 頭の画素値に基づいて初期の判定基準を設定する第 7ステップを実行させること を特徴とする請求の範囲第 2 5項に記載の中空臓器血管抽出プログラム。 26. The computer further specifies the optic disc of the fundus for the instrumental area of the first frame from which the extraction of the blood vessel area is started, and based on the pixel value of the designated optic disc. 26. The hollow organ blood vessel extraction program according to claim 25, wherein a seventh step of setting an initial determination criterion is performed by executing the seventh step.
2 7 . 複数のフレームは前記生体断面画像を前記眼底の中心方向に 1軸で並べ てなることを特徴とする請求の範囲第 2 5項に記載の中空臓器血管抽出プロダラ ム。 27. The hollow organ blood vessel extraction program according to claim 25, wherein the plurality of frames are configured by arranging the cross-sectional images of the living body in a single axis in the center direction of the fundus.
2 8 . 前記あらかじめ用意された中空臓器の立体モデルは、 座標計測によって 得られた情報であることを特徴とする請求の範囲第 1 5項又は 1 6項に記載の中 空臓器血管抽出プログラム。 28. The hollow organ blood vessel extraction program according to claim 15, wherein the previously prepared three-dimensional model of the hollow organ is information obtained by coordinate measurement.
2 9 . 画像処理装置であって、 2 9. An image processing apparatus,
中空臓器の立体モデノレを記憶する記憶部と、 前記立体モデルに対して血管領域を抽出するためのフレーム毎の計質領域を入 力する入力部と、 A storage unit for storing a three-dimensional model of the hollow organ, An input unit for inputting a quality region for each frame for extracting a blood vessel region with respect to the three-dimensional model,
画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基づいて前 記血管領域に帰属する領域を判定する判定部と、  A determining unit that determines a region belonging to the blood vessel region based on a pixel value of an aggravated region of the first frame according to a determination criterion for each pixel;
前記血管領域に前記判定された領域を含めた領域の画素値に基づいて前記第 1 フレームに連続する第 2フレームにおける判定基準を設定する設定部と、  A setting unit that sets a criterion in a second frame that is continuous with the first frame based on a pixel value of a region including the determined region in the blood vessel region;
を備えることを特徴とする画像処理装置。  An image processing apparatus comprising:
3 0 . 画像処理装置であって、 30. An image processing apparatus,
中空臓器の立体モデルを記憶する記憶部と、  A storage unit for storing a three-dimensional model of the hollow organ,
前記立体モデルに対して血管領域を抽出するためのフレーム毎の計質領域を入 力する入力部と、  An input unit for inputting a quality region for each frame for extracting a blood vessel region with respect to the three-dimensional model,
画素毎の判定基準にしたがって第 1フレームの計質領域の画素値に基づいて前 記血管領域内に帰属する領域と帰属しなレ、領域とを判定する判定部と、  A determination unit that determines a region belonging to the blood vessel region and a region not belonging to the blood vessel region based on a pixel value of the quality region of the first frame according to a determination criterion for each pixel;
前記血管領域内に前記帰属する領域を含めた領域の画素値に基づいて前記第 1 フレームに連続する第 2フレームにおける血管領域内の判定基準を設定し、 前記 血管領域外に前記帰属しない領域を含めた領域の画素値に基づいて前記第 1フレ 一ムに連続する第 2フレームにおける血管領域外の判定基準を設定する設定部と、 を備えることを特徴とする画像処理装置。  A criterion in the vascular region in the second frame that is continuous with the first frame is set based on the pixel value of the region including the region belonging to the blood vessel region, and the non-belonging region outside the blood vessel region is set. An image processing device comprising: a setting unit that sets a determination criterion outside a blood vessel region in a second frame that is continuous with the first frame based on a pixel value of a region included.
3 1 . さらに、 血管領域の抽出を開始する第 1枚目のフレームの計質領域に対 して少なくとも 1点の血管領域を設定し、 当該少なくとも 1点の血管領域の画素値 に基づいて初期の判定基準を設定する部を有することを特徴とする請求の範囲第3 1. Further, at least one vascular region is set for the instrumented region of the first frame from which the extraction of the vascular region is started, and the initial value is set based on the pixel value of the at least one vascular region. Claims characterized in that it has a unit for setting the criterion of
2 9項又は 3 0項に記載の画像処理装置。 29. The image processing apparatus according to item 29 or 30.
3 2 . 前記判定部は、 血管領域を抽出する対象の現フレームにおいて前フレー ムまでに判定された血管領域と同じ位置に仮領域を設け、 当該仮領域の境界に沿 つて画素単位に帰属の判断を行うことを特徴とする請求の範囲第 2 9項又は 3 0 項に記載の画像処理装置。 3 2. The determination unit sets a temporary area at the same position as the blood vessel area determined up to the previous frame in the current frame from which the blood vessel area is to be extracted, and along the boundary of the temporary area. 31. The image processing apparatus according to claim 29, wherein the determination of belonging is performed on a pixel-by-pixel basis.
3 3 . 前記判定部は、 前記仮領域において、 前記血管領域に帰属させる画素が 5 前記仮領域外にある場合には、 当該画素を前記現フレームの血管領域の画素とし • て当該血管領域を前記前フレームの血管領域に対して拡張し、 前記血管領域に帰 属させない画素が前記仮領域内にある場合には、 当該画素を前記現フレームの血 管領域外の画素として当該血管領域を前記前フレームの血管領域に対して縮小す ることを特徴とする請求の範囲第 3 2項に記載の画像処理装置。3. In the temporary region, when the pixel to be attributed to the blood vessel region is out of the temporary region, the determination unit determines the pixel as a pixel of the blood vessel region of the current frame. If a pixel that does not belong to the vascular region and extends to the vascular region of the previous frame is present in the temporary region, the pixel is regarded as a pixel outside the vascular region of the current frame, and the vascular region is set to the 33. The image processing device according to claim 32, wherein the image processing apparatus reduces a blood vessel region of a previous frame.
0 0
3 4 . 前記判定部は、 血管領域を抽出する対象の現フレーム以前の連続する複 数枚のフレームから画素単位に対応させて前記現フレームの各画素を含む立体的 な所定サイズの局所領域を取り出しながら、 前記各局所領域に含まれる前記血管 領域の一部に対応する前記設定された判定基準を使用することを特徴とする請求5 の範囲第 2 9項又は 3 0項に記載の画像処理装置。  34. The determination unit determines a three-dimensional local area of a predetermined size including each pixel of the current frame from a plurality of consecutive frames before the current frame from which a blood vessel area is to be extracted, in correspondence with each pixel. The image processing according to claim 29, wherein the set determination criterion corresponding to a part of the blood vessel region included in each of the local regions is used during the extraction. apparatus.
3 5 . 生体断面の厚さは前記所定サイズの局所領域に合致させており、 前記判 定部は生体断面毎に前記血管領域に該当する領域を拡張させながら血管領域の判 定を行うことを特徴とする請求の範囲第 3 4項に記載の画像処理装置。35. The thickness of the cross section of the living body is matched with the local region of the predetermined size, and the determination unit determines the vascular region while expanding the region corresponding to the vascular region for each cross section of the living body. The image processing apparatus according to claim 34, wherein the image processing apparatus is characterized in that:
0 0
3 6 . 前記判定部は、 前記立体モデル全体に対して前記血管領域をポクセル空 間内で拡張させながら血管領域の判定を行うことを特徴とする請求の範囲第 2 9 項又は 3 0項に記載の画像処理装置。 5 3 7 . さらに、 前記血管領域の画素のみ表示対象として記憶する部を有するこ とを特徴とする請求の範囲第 2 9項又は 3 0項に記載の画像処理装置。 36. The method according to claim 29, wherein the determination unit determines the blood vessel region while expanding the blood vessel region in a poxel space for the entire three-dimensional model. The image processing apparatus according to claim 1. 53. The image processing apparatus according to claim 29, further comprising a unit that stores only pixels in the blood vessel region as display targets.
3 8 . さらに、 前記連続フレームに対する血管領域の抽出をフレームの連続す る方向に対して少なくとも往復で実施する部を有することを特徴とする請求の範 囲第 2 9項又は 3 0項に記載の画像処理装置。 3 9 . 前記中空臓器は眼底であることを特徴とする請求の範囲第 2 9項又は 338. The apparatus according to claim 29, further comprising: a unit that extracts a blood vessel region from the continuous frame at least reciprocally in a continuous direction of the frame. Image processing device. 39. The claim 29, wherein the hollow organ is a fundus.
0項に記載の画像処理装置。 Item 7. The image processing device according to item 0.
4 0 . さらに、 血管領域の抽出を開始する第 1枚目のフレームの計質領域に対 して眼底の視神経乳頭を指定し、 当該指定された視神経乳頭の画素値に基づいて 初期の判定基準を設定する部を有することを特徴とする請求の範囲第 3 9項に記 載の画像処理装置。 40. Further, the optic disc of the fundus is designated for the instrumented area of the first frame from which the extraction of the blood vessel area is started, and the initial criterion is determined based on the pixel value of the designated optic disc. 30. The image processing apparatus according to claim 39, further comprising: a unit for setting a value.
4 1 . 複数のフレームは前記生体断面画像を前記眼底の中心方向に 1軸で並べ てなることを特徴とする請求の範囲第 3 9項記載の画像処理装置。 41. The image processing apparatus according to claim 39, wherein the plurality of frames are configured by arranging the cross-sectional images of the living body along one axis in a center direction of the fundus.
4 2 . 前記記憶部に記憶された中空臓器の立体モデルは、 座標計測によって得 られた情報であることを特徴とする請求の範囲第 2 9項又は 3 0項に記載の画像 処理装置。 42. The image processing device according to claim 29, wherein the three-dimensional model of the hollow organ stored in the storage unit is information obtained by coordinate measurement.
PCT/JP2004/002369 2003-02-28 2004-02-27 Hollow organ blood vessel extracting method, hollow organ blood vessel extraction processing program and image processing device WO2004075742A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-054799 2003-02-28
JP2003054799A JP4017157B2 (en) 2003-02-28 2003-02-28 Hollow organ blood vessel extraction method, hollow organ blood vessel extraction processing program, and image processing apparatus

Publications (1)

Publication Number Publication Date
WO2004075742A1 true WO2004075742A1 (en) 2004-09-10

Family

ID=32923476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/002369 WO2004075742A1 (en) 2003-02-28 2004-02-27 Hollow organ blood vessel extracting method, hollow organ blood vessel extraction processing program and image processing device

Country Status (2)

Country Link
JP (1) JP4017157B2 (en)
WO (1) WO2004075742A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0622325D0 (en) * 2006-11-09 2006-12-20 Optos Plc Improvements in or relating to retinal scanning
JP5192250B2 (en) * 2008-02-04 2013-05-08 株式会社トプコン Fundus observation device
JP5762712B2 (en) * 2010-09-30 2015-08-12 株式会社ニデック Ophthalmic observation system
JP5484425B2 (en) * 2011-10-20 2014-05-07 キヤノン株式会社 Ophthalmic apparatus, control method therefor, and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654833A (en) * 1992-08-11 1994-03-01 Hitachi Ltd Three dimensional blood vessel display processing method
JPH11337845A (en) * 1998-05-25 1999-12-10 Mitsubishi Electric Corp Endoscope device
JP2001076184A (en) * 1999-09-03 2001-03-23 Ge Yokogawa Medical Systems Ltd Method and device for three-dimensional display
JP2003024300A (en) * 2001-07-17 2003-01-28 Communication Research Laboratory Cerebral blood vessel extraction program in mra image and apparatus therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654833A (en) * 1992-08-11 1994-03-01 Hitachi Ltd Three dimensional blood vessel display processing method
JPH11337845A (en) * 1998-05-25 1999-12-10 Mitsubishi Electric Corp Endoscope device
JP2001076184A (en) * 1999-09-03 2001-03-23 Ge Yokogawa Medical Systems Ltd Method and device for three-dimensional display
JP2003024300A (en) * 2001-07-17 2003-01-28 Communication Research Laboratory Cerebral blood vessel extraction program in mra image and apparatus therefor

Also Published As

Publication number Publication date
JP4017157B2 (en) 2007-12-05
JP2004261377A (en) 2004-09-24

Similar Documents

Publication Publication Date Title
KR102507711B1 (en) Medical image processing apparatus, medical image processing method, and computer readable medium
CN110010249B (en) Augmented reality operation navigation method and system based on video superposition and electronic equipment
Giancardo et al. Textureless macula swelling detection with multiple retinal fundus images
CN108369736B (en) Method and apparatus for calculating the volume of resected tissue from an intra-operative image stream
JP2021531885A (en) Ultrasound system with artificial neural network for guided liver imaging
US8175348B2 (en) Segmenting colon wall via level set techniques
CN111214255B (en) Medical ultrasonic image computer-aided method
US8958621B2 (en) Corneal graft evaluation based on optical coherence tomography image
CN112150524B (en) Two-dimensional and three-dimensional medical image registration method and system based on deep learning
KR20120024847A (en) Image processing apparatus, control method thereof, and computer program
JP2014161734A (en) Method and apparatus for matching medical images
JP5007420B2 (en) Image analysis system and image analysis program
JP2006246941A (en) Image processing apparatus and vessel tracking method
JP2004057804A (en) Method and apparatus for evaluating joint and program therefor
US8718344B2 (en) Image processing apparatus and medical image diagnosis apparatus
US9357981B2 (en) Ultrasound diagnostic device for extracting organ contour in target ultrasound image based on manually corrected contour image in manual correction target ultrasound image, and method for same
JP4373682B2 (en) Interesting tissue region extraction method, interested tissue region extraction program, and image processing apparatus
JP3678378B2 (en) Abnormal shadow candidate detection method and apparatus
JP2005349199A (en) Medical three-dimensional image display, three-dimensional image processing method, computer tomographic apparatus, work station and computer program product
CN111563876A (en) Medical image acquisition method and display method
KR102182357B1 (en) Surgical assist device and method for 3D analysis based on liver cancer area in CT image
JP2008237839A (en) Image analysis system, and image analysis program
WO2004075742A1 (en) Hollow organ blood vessel extracting method, hollow organ blood vessel extraction processing program and image processing device
CN111462314B (en) Organ three-dimensional image reconstruction method, operation navigation method and operation auxiliary system
JP2007097635A (en) Image analysis system and image analysis program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase