WO2006080239A1 - 画像処理装置、顕微鏡システム、及び領域特定プログラム - Google Patents

画像処理装置、顕微鏡システム、及び領域特定プログラム Download PDF

Info

Publication number
WO2006080239A1
WO2006080239A1 PCT/JP2006/300770 JP2006300770W WO2006080239A1 WO 2006080239 A1 WO2006080239 A1 WO 2006080239A1 JP 2006300770 W JP2006300770 W JP 2006300770W WO 2006080239 A1 WO2006080239 A1 WO 2006080239A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
region
pixels
extreme
Prior art date
Application number
PCT/JP2006/300770
Other languages
English (en)
French (fr)
Inventor
Yamato Kanda
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to US11/883,406 priority Critical patent/US8073233B2/en
Priority to JP2007500480A priority patent/JP4504417B2/ja
Priority to EP06712016.2A priority patent/EP1847955A4/en
Publication of WO2006080239A1 publication Critical patent/WO2006080239A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/008Details of detection or image processing, including general computer control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Definitions

  • Image processing apparatus microscope system, and region specifying program
  • the present invention relates to an image processing device for performing region segmentation processing in a gray scale image, in particular, processing for recognizing each cell region based on an image obtained by capturing cells, and a microscope system including the image processing device. And an area specifying program for performing the process.
  • Patent Document 1 a cell center position is extracted by applying a cell shape to an image obtained by imaging a cell, and a luminance gradient direction at each pixel around the cell center position is extracted. Then, a pixel candidate that forms a cell contour is selected based on the degree of coincidence with the direction from each pixel toward the cell center position, and dynamic contour extraction is performed using information on the magnitude of the luminance gradient at the selected pixel candidate position. The method of obtaining the detailed outline of the cell is shown.
  • the brightness gradient vector at the target pixel around the cell center and the cell center position from the target pixel are selected.
  • Contour pixel candidates are selected based on the sign of the inner product with the directional force displacement vector.
  • a circular closed curve with a specified radius centered on the cell center position is set, and when this closed curve overlaps with a contour candidate pixel, the magnitude of the luminance gradient at that pixel position is set.
  • the evaluation value is obtained by performing the recoil process over a closed curve.
  • This evaluation value indicates that the closed curve is a contour Since it is the smallest when it overlaps with the complementary pixel, the evaluation value is repeatedly calculated in the same way while locally changing the shape of the closed curve, and the closed curve when the obtained evaluation value is the smallest is obtained.
  • the final cell contour is a contour Since it is the smallest when it overlaps with the complementary pixel, the evaluation value is repeatedly calculated in the same way while locally changing the shape of the closed curve, and the closed curve when the obtained evaluation value is the smallest is obtained. The final cell contour.
  • the watershed algorithm divides an image so that a boundary is formed between water accumulated in different depressions when water is filled in terrain where grayscale information (for example, luminance) of the image is regarded as altitude. It is a method.
  • Figs. 33-1 to 33-4 are explanatory diagrams of the principle showing the processing procedure of the watershed algorithm in order.
  • Fig.33-1 to Fig.33-4 show the one-dimensional appearance for simplicity.
  • the pixel with the minimum value is detected from the luminance data in the image.
  • the minimum value pixel means a pixel having the smallest luminance value in the P-contact pixel.
  • Figure 33-2 when water is poured, the area is expanded from the minimum value so that water accumulates in the recess of the brightness value.
  • a boundary line watershed
  • the image is divided by the boundary line when water is accumulated above the maximum luminance value.
  • the image is divided into regions A, B, C, and D by the above processing.
  • the concept of adjacent pixels is that there are four adjacent neighbors that consider four pixels that are adjacent in the vertical and horizontal directions with respect to the center pixel of interest (see Fig. 34-1). There are 8 neighboring areas (see Fig. 34-2) that consider 8 pixels adjacent to the center pixel of interest in the up, down, left, and right diagonal directions. Treat it according to the way of thinking.
  • Patent Document 1 Japanese Patent No. 3314759
  • Non-Patent ⁇ ffl ⁇ l Luc vmcent and Pierre Soille.Watersheds m digital spaces: Anefticien t algorithm based on immersion simulations.Transactionson PatternAnalysis and Machine Intelligence, Vol.13, No.6, pp.583-598June 1991.
  • the object located in the center as shown by the white line in Fig. 36-2 in the part where multiple objects are gathered, the object located in the center as shown by the white line in Fig. 36-2. Since the brightness gradient vector is directed to the center, not only the contour portion but also the surrounding subject contour portion is selected as a contour pixel candidate. Then, when dynamic contour extraction is performed from a circular closed curve (see the broken line shown in Fig. 36-3) based on the information on the selection result of the contour candidate pixels, the extraction result as shown by the white line in Fig. 36-3 is obtained. Thus, a shape different from the shape to be recognized is recognized.
  • the recognition process according to Patent Document 1 using a shape model is unsuitable for recognition of a region to be recognized such as a recognition target image, for example, a cell image, which is not limited to a circular shape.
  • the watershed algorithm method as shown in Non-Patent Document 1 can be said to be suitable for recognizing a region such as a cell image.
  • the luminance information is inverted or the edge extraction is performed on the image whose luminance value increases toward the inside of the cell like a fluorescent image.
  • a method may be considered in which the cell portion is applied as a depression of luminance value.
  • FIG. 37-1 an image obtained by inverting the luminance value of the recognition target image shown in Fig. 35-1 is shown in Fig. 37-1.
  • the results of applying the watershed algorithm to this image are shown in Figure 37-2 and Figure 37-3.
  • Fig. 37_2 shows the result of processing near P-contact 4
  • Fig. 37_3 shows the result of processing near P-contact 8.
  • the present invention has been made in view of the above, and provides an image processing apparatus, a microscope system, and a region specifying program that can satisfactorily specify a predetermined region with respect to a grayscale image. For the purpose. Means for solving the problem
  • an image processing apparatus is a gray scale expressed based on pixel values of a plurality of pixels arranged on a predetermined coordinate system.
  • An image processing apparatus that performs processing for specifying an area to which the pixel belongs to an image, and includes gradient information calculation means for calculating gradient information indicating a tendency of a change in pixel value between the pixels, and a plurality of pixels.
  • the selected pixel is set as a pixel of interest, the pixel is scanned from the pixel of interest according to the gradient information, and the coordinates of the position where the pixel value of the scanned pixel shows the extreme value are the extreme pixels corresponding to the pixel of interest
  • Extreme value coordinate acquisition means for acquiring the coordinates of the pixel, and area specifying means for providing a region identification mark for specifying the area to which the pixel belongs to the pixel of interest
  • the extreme value coordinate acquisition means The pixels of the plurality of pixels are sequentially set as the target pixel, the coordinates of the extreme pixels corresponding to the pixels of the plurality of pixels are acquired, and the region specifying unit is configured to acquire the extreme values corresponding to different pixels.
  • a region identification mark indicating the identity of the region to which the pixel belongs is assigned to each of the different pixels.
  • the gradient information calculation unit responds to a difference between pixel values of adjacent pixels according to a distance between the adjacent pixels.
  • the gradient information is calculated by multiplying by a coefficient.
  • the image processing device is the image processing device according to claim 1 or 2, wherein the pixel to be processed by the gradient information calculation unit, the extreme value coordinate acquisition unit, and the region specifying unit. It is further characterized by further comprising a processing range selection means for selecting.
  • the image processing device is the image processing device according to claim 3, wherein the pixels to be processed by the gradient information calculation unit, the extreme value coordinate acquisition unit, and the region specifying unit are the same.
  • An input unit that accepts an input of a processing range designation parameter for determining a range to be positioned; and the processing range selection unit is configured to calculate the gradient information calculation unit based on the processing range designation parameter received by the input unit. A range in which a pixel to be processed by the extreme value coordinate acquisition unit and the region specifying unit is located is selected.
  • the image processing device is the image processing device according to any one of claims:! To 4, wherein the extreme value coordinate acquisition means uses the gradient information for the pixel of interest.
  • the coordinates of the extreme pixel corresponding to the pixel of interest are acquired by referring to the coordinates of the extreme pixel corresponding to the pixel adjacent in the direction.
  • An image processing device is the image processing device according to any one of claims:! To 5, wherein the pixel value of the pixel of interest and the extreme pixel corresponding to the pixel of interest are The image processing apparatus further includes an identification provision control unit that controls the provision of the region identification mark by the region identification unit based on at least one of the pixel values.
  • An image processing apparatus is an image processing apparatus according to claim 6, in which an input of an identification provision parameter for controlling the provision of an area identification mark by the area identification unit is input from an external unit.
  • the information processing apparatus further includes an input unit that receives the information, and the identification provision control unit controls the provision of the region identification mark by the region specifying unit based on the identification provision parameter received by the input unit.
  • the image processing device is compared with the image processing device according to any one of claims:! To 7, and the coordinates of the extreme pixel corresponding to each of the plurality of pixels are included. Is within a predetermined coordinate range, the coordinates of the new extreme pixel obtained by integrating the coordinates of the plurality of extreme pixels are calculated, and the coordinates of the new extreme pixel are converted to the extreme pixel before the integration.
  • Extreme value coordinate integration means for acquiring the coordinates as the coordinates corresponding to the region, and the area specifying means is configured to display the area identification mark based on the coordinates of the new extreme value pixels acquired by the extreme value coordinate integration means. It assigns with respect to the said attention pixel.
  • An image processing apparatus is the same as the image processing apparatus according to claim 8, An input unit that accepts an input of an extreme value coordinate integration parameter for determining a fixed coordinate range from the outside, and the extreme value coordinate integration unit is based on the extreme value coordinate integration parameter received by the input unit. It is characterized by calculating the coordinates of a new extreme pixel.
  • An image processing device is the image processing device according to any one of claims:! To 9, wherein the image processing device belongs to adjacent regions specified by different region identification signs, and the boundary between the regions. It is determined whether or not the pixel value of a pixel located in the vicinity of the boundary satisfies a predetermined condition, and if the predetermined condition is satisfied, an area identification indicating identity to the adjacent area It is further characterized by further comprising a region integration means for giving a sign.
  • An image processing apparatus is an input that accepts an input of an area integration parameter for determining whether or not the predetermined condition is satisfied from the outside in the image processing apparatus according to claim 10.
  • the area integration means determines whether or not the predetermined condition is satisfied based on the area integration parameter received by the input means.
  • An image processing device is compared with the image processing device according to any one of claims:! To 11, and contour enhancement that enhances the contour of the region on the grayscale image.
  • the apparatus further comprises means.
  • the image processing device is the image processing device according to claim 12, further comprising an input unit that receives an input of an edge enhancement parameter for enhancing an outline of the region on the grayscale image from the outside.
  • the contour emphasizing unit emphasizes the contour of the region on the gray scale image based on the edge emphasis parameter received by the input unit.
  • An image processing device is compared to the image processing device according to any one of claims:! To 13, and a shading correction unit for correcting shading of the grayscale image is performed. Is further provided.
  • An image processing apparatus is the image processing apparatus according to claim 14, wherein input means for receiving an input of a shading correction parameter for correcting shading of the grayscale image from the outside is provided.
  • the shading correction hand The stage is characterized in that the shading of the gray scale image is corrected based on the shading correction parameter received by the input means.
  • An image processing apparatus is the image processing apparatus according to any one of claims:! To 15, wherein a smoothing process is performed to smooth the shading on the grayscale image. Further, smoothing means for performing is provided.
  • An image processing apparatus is the image processing apparatus according to claim 16, further comprising an input unit that receives an input of a smoothing parameter for performing the smoothing process from the outside, and the smoothing unit Performs the smoothing process according to the smoothing parameter received by the input means.
  • An image processing device is the image processing device according to any one of claims:! To 17, wherein the grayscale image is an image of a cell or tissue. To do.
  • the image processing device is the image processing device according to any one of claims:! To 18, and parameters used for processing until the region is specified, and processing until the region. It further comprises display means for displaying at least one of the images of the process.
  • the image processing device is the image processing device according to any one of claims:! To 18, further comprising display means for displaying a process until the region is specified, The display means displays at least an image for distinguishing a region specified by the region identification mark.
  • the image processing device is the image processing device according to claim 3 or 4, further comprising display means for displaying a process until the region is specified, wherein the display means includes at least: An image for distinguishing a range of pixels selected by the processing range selection means is displayed.
  • the image processing device is a region parameter indicating the nature of the region specified by the region identification mark by comparing with the image processing device according to any one of claims:! To 18 And a region parameter display unit for displaying the region parameter.
  • An image processing device is the image processing device according to any one of claims:! To 22, further comprising an imaging means for acquiring image data of the grayscale image.
  • a microscope system according to claim 24 is a microscope system including the image processing device according to claim 23, and includes an imaging optical system that magnifies and projects an object, and the image processing device includes:
  • the imaging means is characterized in that it captures the object enlarged and projected on the imaging surface of the imaging optical system and acquires image data.
  • the area specifying program according to claim 25 is a process of specifying an area to which the pixel belongs to a grayscale image expressed based on pixel values of a plurality of pixels arranged on a predetermined coordinate system.
  • a pixel is set as a pixel of interest, the plurality of pixels are scanned from the pixel of interest according to the gradient information, and the coordinates of the position at which the pixel value of the scanned pixel shows an extreme value are set to the extreme pixel corresponding to the pixel of interest.
  • the value coordinate acquisition procedure is a procedure of sequentially setting each pixel of the plurality of pixels as the pixel of interest, and acquiring the coordinates of the extreme pixel corresponding to each pixel of the plurality of pixels
  • the region specifying procedure is A procedure for providing an area identification mark indicating the identity of the area to which the pixel belongs to each of the different pixels when the coordinates of the extreme pixels corresponding to the different pixels are close to each other within a predetermined range. It is characterized by being.
  • the image processing apparatus performs pixel staggering from a pixel of interest according to gradient information indicating a tendency of change in pixel value between pixels, and at a position where the pixel value of the scanned pixel shows an extreme value.
  • the coordinates are acquired as the coordinates of the extreme pixel corresponding to the target pixel, while the region identification mark for specifying the region to which each pixel belongs is assigned to each target pixel, and is acquired for each different pixel.
  • the extreme pixel coordinates are close to each other within a predetermined range, an area indicating the identity of the region to which the pixel belongs to these pixels. Since the area identification mark is assigned, it is possible to satisfactorily specify a predetermined area by specifying the area to which each pixel belongs according to the assigned area identification mark.
  • FIG. 1 is a schematic block diagram showing a configuration example of an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a schematic flowchart showing a flow of processing executed by the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic flowchart showing an example of processing in step S12.
  • FIG. 4 is a diagram illustrating an example of a luminance gradient direction with respect to a target pixel.
  • FIG. 5 is a schematic flowchart showing an example of processing in step S13.
  • FIG. 6 is a schematic diagram showing an example of a scanning path from a certain target pixel to an extreme value pixel.
  • FIG. 7 is a schematic diagram showing how the coordinate data in the memory changes when scanning processing is repeated for a certain pixel of interest T.
  • FIG. 8-1 is a diagram showing an example of an image input to the image processing apparatus according to the first embodiment.
  • FIG. 8-2 is a diagram illustrating an example of a label image that is processed and output by the image processing apparatus according to the first embodiment.
  • FIG. 9 is a schematic block diagram showing a configuration example of an image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 10 is a schematic flowchart showing a flow of processing executed by the image processing apparatus according to the second embodiment.
  • FIG. 11 is a schematic flowchart showing an example of processing of step S24.
  • FIG. 12 is a schematic diagram showing a processing example in a one-dimensional array example.
  • FIG. 13 is a schematic flow chart showing a processing example of step S 24 in a two-dimensional array example.
  • FIG. 14 is a diagram showing an XY two-dimensional coordinate system.
  • FIG. 15 is a schematic diagram showing an example of processing in a two-dimensional pixel array.
  • FIG. 16-1 is a diagram showing an example of an image input to the image processing apparatus of the second embodiment.
  • FIG. 16-2 is a diagram showing an example of a label image that is processed and output by the image processing apparatus of the second embodiment.
  • FIG. 17 is a schematic block diagram showing a configuration example of an image processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 18 is a schematic flowchart showing a flow of processing executed by the image processing apparatus according to the third embodiment.
  • FIG. 19 is an explanatory diagram regarding the definition of the distance between extreme pixels.
  • FIG. 20 is a diagram showing an example of region recognition result by labeling based on the result before and after the extreme pixel integration.
  • FIG. 21_1 is a diagram showing an image example as a target example of the region integration processing.
  • Fig. 21-2 is a diagram showing a label image of an example of region division before performing region integration processing.
  • Fig. 21-3 is a characteristic diagram showing an example of luminance change in the direction perpendicular to the boundary A in Fig. 21-2.
  • Fig. 21-4 is a characteristic diagram showing an example of luminance change in the direction perpendicular to boundary B in Fig. 21-2.
  • Fig. 22-1 is an explanatory diagram of a pixel example used to calculate an index value during label area integration.
  • FIG. 22-2 is an explanatory diagram regarding an example of an integrated index value at the time of label area integration.
  • FIG. 23 is an explanatory diagram regarding an example of similarity at the time of label area integration.
  • Fig. 24-1 is a diagram showing an example of an image input to the image processing apparatus according to the third embodiment.
  • FIG. 24-2 is a diagram illustrating an example of a label image that is processed and output by the image processing apparatus according to the third embodiment.
  • FIG. 25 is a schematic block diagram showing a configuration example of an image processing apparatus according to Embodiment 4 of the present invention.
  • FIG. 26 is a schematic flowchart showing a flow of processing executed by the image processing apparatus according to the fourth embodiment.
  • FIG. 27 is a diagram showing an example of shading correction by top hat processing.
  • FIG. 28 is a diagram showing a clarification example of the cell region by the contour enhancement process and the smoothing process.
  • FIG. 29 is a schematic block diagram showing a configuration example of an image processing apparatus according to the fifth embodiment of the present invention.
  • FIG. 30 is a diagram showing an example of cells imaged through a microscope.
  • FIG. 31 is a diagram showing an example of an image obtained as a result of dividing the cell region and the background region based on the image of FIG.
  • FIG. 32 is a diagram showing an example of an image obtained as a result of recognizing a cell region based on the image of FIG.
  • Fig. 33-1 is a diagram for explaining an example of detection of local minimum values in the watershed algorithm
  • Fig. 33-2 is a diagram illustrating an example of expansion from the minimum value in the watershed algorithm.
  • Fig. 33-3 is a diagram for explaining an example of creating a boundary line in the watershed algorithm.
  • Sono 33-4 is a diagram for explaining an example of the end of split processing by the watershed algorithm. is there.
  • Fig. 34-1 shows an example of neighboring 4 neighborhoods as a way of thinking about neighboring pixels.
  • Fig. 34-2 shows an example of neighboring 8 neighborhoods as a concept of neighboring pixels.
  • FIG. 35-1 is a diagram showing an example of a recognition target image to which the circular model fitting method is applied.
  • Figure 35-2 shows an example of the result of center extraction by circular model fitting.
  • Fig. 35-3 shows an example of failure in contour extraction using the circular model fitting method.
  • Figure 36-1 shows an example of recognition target image applied to the circular model fitting method.
  • Fig. 36-2 shows an example of the selection result of contour candidate pixels by circular model fitting.
  • Fig. 36-3 shows an example of failure in contour extraction using the circular model fitting method.
  • Fig. 37-1 is a diagram showing an example of the recognition target image in Fig. 35-1, with the luminance inverted to apply the watershed algorithm method.
  • Figure 37-2 shows an example of the result of the watershed algorithm using four neighboring neighbors.
  • a luminance value is used as the pixel value of the present invention.
  • the pixel value in the present invention is not limited to the luminance value, and is referred to as a gray value, a gradation value, or an intensity value depending on its property. Such things are also included.
  • the first embodiment is a grayscale image expressed based on luminance values as pixel values of a plurality of pixels arranged on an XY two-dimensional coordinate system that realizes a predetermined coordinate system, for example,
  • An example of application to an image processing apparatus that performs processing for specifying each cell region to which a pixel belongs to a cell image is shown.
  • a gray scale image in which the luminance value increases toward the inside of the cell is assumed as the cell image.
  • the gradient direction and the extreme value described later are reversed. By doing so, it is shown that it can also be applied to region segmentation processing with minute luminance edges.
  • FIG. 1 is a schematic block diagram showing a configuration example of the image processing apparatus according to the first embodiment.
  • the image processing apparatus 100 according to the first embodiment includes a gradient information calculation unit 101 that calculates a luminance gradient direction as gradient information indicating a tendency of a change in luminance value between pixels, and a pixel selected from a plurality of pixels as a target pixel.
  • the pixel is scanned from the target pixel according to the direction of the luminance gradient, and the coordinates of the position where the luminance value of the scanned pixel shows the extreme value are acquired as the coordinates of the extreme pixel corresponding to the target pixel.
  • a control unit 104 having a microcomputer configuration including a unit 102, and a region specifying unit 103 that assigns a label as a region identification mark for identifying a region to which the pixel belongs to a target pixel, an input image, and each unit And a memory 105 for holding data used in the.
  • the extreme value coordinate acquisition unit 102 sequentially sets each pixel of the plurality of pixels as a target pixel, and acquires the coordinates of the extreme value pixel corresponding to each pixel of the plurality of pixels.
  • the region specifying unit 103 is, for example, a region identification mark indicating the identity of the region to which the pixel belongs for each different pixel. Give the same label.
  • the input configuration of the cell image to be processed and the processing configuration of the output label image are not particularly limited in the first embodiment.
  • FIG. 2 is a schematic flowchart showing a flow of processing executed by the control unit 104 of the image processing apparatus 100 according to the first embodiment.
  • step Sl l a process of acquiring the cell image input to the image processing apparatus 100 and storing it in the memory 105 is executed.
  • the gradient information calculation unit 101 calculates a luminance gradient direction between each pixel in the cell image, and executes a process of storing the calculated luminance gradient direction data in the memory 105 (step S12).
  • FIG. 3 is a schematic flowchart showing a processing example of a subroutine of step S12 executed by the gradient information calculation unit 101.
  • the gradient information calculation unit 101 calculates the luminance difference between each adjacent pixel in the vicinity of the adjacent 8 pixels (see FIG. 34-2) adjacent to the target pixel in the cell image in the upper, lower, left, and right diagonal directions (step 34-2). S121). If the luminance value of the P-contact pixel is greater than the luminance value of this pixel of interest, the luminance difference is a positive value, and vice versa.
  • the distance between the center of the pixel adjacent in the diagonal direction and the center of the pixel of interest is twice the distance between the pixel adjacent in the vertical direction or the horizontal direction and the center of the pixel of interest. . Therefore, the luminance difference is corrected by multiplying the luminance difference with the adjacent pixel in the diagonal direction by 2 as a coefficient considering the distance difference (step S 122).
  • step S123 After correcting the brightness difference, the brightness differences are compared to obtain the maximum value (step S123). If this maximum value is larger than 0 (step S124, Yes), the direction of the adjacent pixel from which the luminance difference is calculated is stored in the memory 105 as the luminance gradient direction at the target pixel (step S125). . On the other hand, if the maximum value is 0 or less (step S124, No), it is stored in the memory 105 that this pixel of interest is an extreme pixel (step S126). With the above processing, the processing for one pixel of interest is completed.
  • step S127 After the processing for one pixel of interest is completed, it is determined whether or not processing has been performed for all the pixels in the cell image (step S127). The processes in steps S121 to S126 are repeated, and if there is no unprocessed pixel, all processes in the gradient information calculation unit 101 are terminated. As a result of such processing, a code indicating one of the eight directions shown in FIG. 4 or a code indicating an extreme pixel is stored in the memory 105 for each pixel in the cell image, and this is a luminance between pixels. It becomes the data of the luminance gradient direction indicating the tendency of the value change. Next, the extreme value coordinate acquisition unit 102 acquires the coordinates of the extreme value pixel reached by scanning when each pixel is sequentially set as the target pixel, and executes a process of storing in the memory 105 (step S1
  • FIG. 5 is a schematic flowchart showing a processing example of a subroutine of this step S13 executed by the extreme value coordinate acquisition unit 102.
  • the extreme value coordinate acquisition unit 102 stores the coordinates of the target pixel itself in a reaching extreme value coordinate memory (existing in the memory 105) for storing the coordinates of the extreme pixel to which the target pixel is sequentially set. Is written (step S 131). Then, based on the data in the luminance gradient direction obtained by the gradient information calculation unit 101, it is determined whether the coordinate position in the ultimate extreme coordinate memory is an extreme pixel (step S132).
  • step S133 the determination in step S132 is performed again. If the result of determination in step S132 is that the coordinate position in the ultimate extreme value coordinate memory is an extreme pixel, the processing for this pixel of interest is terminated.
  • FIG. 6 is a schematic diagram showing an example of a scanning path from a certain target pixel T indicated by coordinates (xl, yl) to an extreme pixel M indicated by coordinates (x4, y4)
  • FIG. FIG. 9 is a schematic diagram showing how the coordinate data in the ultimate extreme value coordinate memory changes when such a process is repeated for a certain pixel of interest T.
  • the coordinates (xl, yl) of the target pixel T itself as an initial value are stored in the ultimate extreme value coordinate memory, and thereafter, a plurality of pixels are determined according to the data of the luminance gradient direction. Are sequentially overwritten with the coordinates of the extremum extreme coordinate memory at the coordinates of the pixel being scanned, and finally the coordinates of the extreme pixel M (x4, y)
  • step S134 After the processing on one pixel of interest is completed, it is determined whether or not all the pixels in the cell image have been processed as pixels of interest (step S134).
  • the target pixel is set sequentially, and the processing of steps S131 to S133 is repeated. If there is no unprocessed pixel, all processing in the extreme pixel acquisition unit 102 is terminated. As a result of such processing, the coordinates of the extreme pixel that arrives are stored in the memory 105 for each pixel in the cell image.
  • the region specifying unit 103 determines the identity of the cell region to which a pixel having the same extreme pixel coordinate belongs based on the coordinate data of the extreme pixel reached by each pixel. Indication The same label is assigned as a region identification mark, and a process for creating a label image is executed (step S14). That is, the area specifying unit 103 assigns a label as an area identification mark for specifying the area to which each pixel belongs to each pixel.
  • the same label is assigned to a pixel whose extremum pixel coordinates are exactly the same, but the same label is not necessarily applied to a pixel whose extremum pixel coordinates are exactly the same.
  • a label that can indicate the identity of the cell region to which the pixel value belongs when the coordinates of the extreme pixel are close to each other within a predetermined range. For example, if the top of the luminance distribution is flat such that only one pixel does not show an extreme value, and if a plurality of adjacent pixels are each an extreme pixel with the same luminance value, the extreme pixel that is reached However, the pixels that have reached the coordinates of a plurality of extreme pixels having the same luminance value may be given a label indicating the identity.
  • FIG. 8-1 shows an example of an image input to the image processing apparatus according to the first embodiment, and shows the same image example as the image shown in FIG. 35-1.
  • FIG. 8-2 shows an example of a label image output by processing such an input image example by the image processing apparatus according to the first embodiment. From this figure, it can be seen that the shape of the non-circular object is well recognized.
  • the maximum direction of luminance difference is processed as the luminance gradient direction, and the maximum luminance value is processed as the extreme value.
  • region division is performed by the luminance edge of the grayscale image.
  • the output resulting from inputting the image of Fig. 37_1, which is the image with the luminance value of Fig. 35-1 inverted, is the same as in Fig. 8_2.
  • Fig. 8_2 confirming the recognition shapes of part A and part B shown in Fig. 37-2, Fig. 37-3, and Fig. 8-2, in Fig. 8_2, good segmentation results were obtained at both parts A and B. It can be confirmed that This is because correction is performed in consideration of the distance difference between the target pixel and adjacent pixels, and information on the luminance gradient direction is calculated.
  • the acquisition of the coordinates of the extreme pixel reached by the extreme value coordinate acquisition unit 102 by the pixel's input may be performed by the following method.
  • the pixel T adjacent to the pixel M and the gradient direction at this pixel ⁇ are obtained.
  • the coordinates of the extreme pixel ⁇ are stored in the memory storing the coordinates of the extreme pixel reached by this pixel ⁇ .
  • the pixel ⁇ ′′ adjacent in the direction away from the extreme pixel ⁇ force and the gradient direction at this pixel ⁇ ⁇ ⁇ are obtained. If the gradient direction at this pixel ⁇ is toward the pixel T ′, the coordinates of the extreme pixel ⁇ are stored in the memory that stores the coordinates of the extreme pixel reached by this pixel T ′ ′. To do. Such a process is repeated until there is no adjacent pixel T ′ that has acquired the coordinates of the extreme pixel ⁇ . By performing these processes for all the extreme pixels on the target image, the coordinates of the extreme pixels reached by each pixel can be obtained.
  • the image processing apparatus can recognize individual cell regions in a cell image.
  • each region can be divided well by the minute luminance edge of the gray scale image.
  • the second embodiment also realizes a predetermined coordinate system.
  • a gray scale image expressed based on luminance values as pixel values of a plurality of pixels arranged on a two-dimensional coordinate system, for example, a cell image Shows an application example to an image processing apparatus that performs processing for specifying each cell region to which a pixel belongs.
  • a cell image as shown in FIG. 35-1, a gray scale image in which the luminance value increases toward the inside of the cell is assumed.
  • it can also be applied to region segmentation processing with minute luminance edges by reversing the gradient direction and extreme values.
  • FIG. 9 is a schematic block diagram showing a configuration example of the image processing apparatus according to the second embodiment.
  • the image processing apparatus 200 according to the second embodiment includes a processing range selection unit 201 that selects pixels to be processed in each unit (hereinafter, referred to as “effective pixels” as appropriate), and changes in luminance values between effective pixels.
  • a gradient information calculation unit 202 that calculates a luminance gradient direction as gradient information indicating a trend, and a pixel selected from a plurality of effective pixels is set as a pixel of interest, and the pixel is determined according to the luminance gradient direction from the pixel of interest.
  • Extremity coordinates to acquire the coordinates of the position where the brightness value of the scanned pixel shows the extreme value as the coordinates of the extreme pixel corresponding to the target pixel Acquisition unit 203, region specifying unit 204 for assigning a label as a region identification mark for specifying a region to which an effective pixel belongs to a target pixel, a luminance value of the target pixel, and an extreme value corresponding to the target pixel
  • a control unit 206 having a microcomputer configuration including an identification addition control unit 205 that controls label application by the region specifying unit 204, and an input image and each unit are used.
  • a memory 207 for holding data.
  • the extreme value coordinate acquisition unit 203 sequentially sets each pixel in the plurality of effective pixels as the target pixel, and acquires the coordinates of the extreme value pixel corresponding to each pixel in the plurality of effective pixels.
  • the area specifying unit 204 determines the identity of the area to which the effective pixel belongs for each of the different effective pixels when the coordinates of the extreme pixels corresponding to the different effective pixels are close to each other within a predetermined range.
  • the region identification mark shown is given.
  • the input configuration of the cell image to be processed and the processing configuration of the label image after output are not particularly limited in the second embodiment.
  • FIG. 10 is a schematic flowchart showing a flow of processing executed by the image processing apparatus 200 according to the second embodiment.
  • a process of acquiring a cell image input to the image processing apparatus 200 and storing it in the memory 207 is executed (step S21).
  • the processing range selection unit 201 executes processing for selecting effective pixels to be processed from the cell image (step S22).
  • a background area with a sufficiently small luminance value is an unnecessary area. By omitting this area, only the cell area to be recognized can be processed in each part thereafter, so that the processing speed can be increased. . Therefore, by setting a threshold value for separating the background region and the cell region, and comparing the threshold value with the luminance value of each pixel, only the pixel in the cell region is selected as an effective pixel.
  • the threshold value may be changed according to the position in the image, or may be common in the image. In addition, it may be set statically in advance or dynamically based on images ((Reference): University of Tokyo Press: Image Analysis Handbook: Mikio Takagi, Yoshihisa Shimoda, Supervision: 502P, Binarization). Also, it can be configured to be given from outside. For this purpose, for example, input of a processing range specification parameter for determining a range where a pixel to be processed by the gradient information calculation unit 202, the extreme value coordinate acquisition unit 203, and the region specifying unit 204 is located from the outside.
  • the processing range selection unit 201 includes an input unit 208 that accepts data, and the processing range specification parameter received by the input unit 208 is used as a target of processing by the gradient information calculation unit 202, the extreme value coordinate acquisition unit 203, and the region specification unit 204.
  • the range in which the pixel is located may be selected.
  • the gradient information calculation unit 202 calculates a luminance gradient direction between the effective pixels in the cell image, and stores the calculated luminance gradient direction data in the memory 207. Is executed (step S23).
  • the flow of processing in the gradient information calculation unit 202 in this case is basically the same as in the case of FIG. 3 shown in the first embodiment. However, in step S127, it is determined whether all the effective pixels other than all the pixels in the image have been processed.
  • FIG. 11 is a schematic flowchart showing an example of processing of the subroutine in step S24 executed by the extreme value coordinate acquisition unit 203.
  • the extreme value coordinate acquisition unit 203 stores each effective extreme value in a reaching extreme value coordinate memory (existing in the memory 207) for storing the coordinates of the extreme pixel reaching the target pixel that is sequentially set in each effective pixel.
  • write the coordinates of the pixel itself step S241.
  • the pixel with the smallest X coordinate among the effective pixels is set as the target pixel T to be processed (step S242).
  • step S243 it is determined whether the coordinate position in the reached extreme value coordinate memory of the target pixel T is an extreme value pixel. If the result of semi-IJ is not an extreme pixel, the luminance gradient direction at the coordinate position in the ultimate extreme coordinate memory of the target pixel T is obtained from the data of the luminance gradient direction, and the pixels adjacent to this gradient direction are obtained. The coordinates in the ultimate extreme value coordinate memory are referred to, and the coordinates in the ultimate extreme value coordinate memory of the pixel of interest are overwritten with the referenced coordinates (step S244).
  • step S243 After overwriting and when the result of determination in step S243 is an extreme pixel, it is determined whether the pixel of interest T is the pixel with the largest X coordinate among the effective pixels (step S245). If the result of step S245 is No, the target pixel T to be processed is the effective pixel in the forward direction of the X coordinate. Set it by one step (Step S246), and repeat Step S243 and subsequent steps.
  • step S245 If the resultant power of step S245 is Yes, that is, if the target pixel T is the pixel having the largest X coordinate among the effective pixels, the brightness gradient direction data obtained by the gradient information calculation unit 202 is used. Then, it is determined whether the coordinate position of the target pixel T in the ultimate extreme value coordinate memory is an extreme value pixel (step S247).
  • the luminance gradient direction at the coordinate position in the arrival extreme coordinate memory of the target pixel T is obtained from the data of the luminance gradient direction, and the ultimate extreme value of the pixel that is in P contact with this gradient direction
  • the coordinates in the coordinate memory are referenced, and the coordinates in the ultimate extreme value coordinate memory of the target pixel T are overwritten with the referenced coordinates (step S248).
  • step S247 After overwriting and when the result of determination in step S247 is an extreme pixel, it is determined whether the pixel of interest T is the pixel with the smallest X coordinate among the effective pixels (step S249). If the result is No in step S249, the target pixel T to be processed is set to be shifted by one in the negative direction of the X coordinate among the effective pixels (step S250), and step S247 and subsequent steps are repeated.
  • step S249 i.e., when the pixel of interest T is most X-coordinate is smaller pixels in the effective pixel in the processing in the extremum pixel acquiring unit 203 to exit.
  • FIG. 12 is a schematic diagram for explaining this effect.
  • the processing speed can be further increased.
  • FIG. 12 is a schematic diagram for explaining this effect.
  • the luminance data example shown in the upper column of FIG. 12 the data of the luminance gradient direction at the pixels of the respective coordinates:! To 15 are as shown in the figure, and the pixels at the coordinates 5 and 12 indicate extreme pixels.
  • the values in the extreme coordinate memory are 2, 3, and 4 along the luminance gradient direction at the coordinate 1 pixel. Change, and get the coordinate 5 of the extreme pixel that reaches the fourth time.
  • the coordinates of the extreme pixel that is reached are obtained by processing the number of times corresponding to the distance from the extreme pixel. As a result of such processing, the entire memory needs to be overwritten 30 times.
  • the target pixel to be processed is sequentially changed in the arrow A direction (positive coordinate direction) in the figure.
  • step S242 to S246 the pixels with coordinates 1 to 6 and 10 to 13 are the same as the first scoring result of each pixel in the processing step of the first embodiment.
  • Coordinates 7-9, 14- For the pixels with 15 pixels, the results of the neighboring pixels that obtained the coordinates of the extreme pixel that reached earlier are sequentially referenced. Value The pixel coordinates can be obtained immediately. Subsequently, when the second strike is processed while sequentially changing the target pixel to be processed in the arrow B direction (coordinate negative direction) in the figure (steps S247 to S250), it reaches all pixels. The coordinates of the extreme pixel are obtained. According to such a process, only one round-trip process is required, and as a whole, the memory is overwritten 17 times, and the process can be performed even faster than the method of the first embodiment.
  • FIGS. 11 and 12 show a one-dimensional processing example of only the X coordinate system for simplification, but the cell image actually handled in the second embodiment is, for example, an XY two-dimensional coordinate system.
  • FIG. 13 shows a schematic flowchart of a processing example for an image on the two-dimensional coordinate system executed by the extreme value coordinate acquisition unit 203.
  • steps S241, S243, S244, S247, and S248 are the same processes as the steps with the same numbers shown in FIG. Steps S242a, S245a, S246a, S249a, S250ai in Fig. 13 Steps S242, S245, S246, S249, S250 shown in Fig.
  • step S242a the pixel having the earliest raster scanning order among the effective pixels is set as the pixel of interest T.
  • step S245a it is determined whether the pixel of interest T is the pixel having the latest raster scanning order.
  • step S246a the target pixel T is shifted by one in the forward direction of the raster running order among the effective pixels, and in step S249, it is determined whether the target pixel T is the pixel having the earliest raster running order,
  • step S250a the target pixel T is set so as to be shifted by one in the reverse direction of the raster running order among the effective pixels.
  • the raster stating order shown in each step of steps S242, S245, S246, S249, and S250 is the same Y coordinate as the striking start point pixel in which the value of the X coordinate increases. And scanned to the pixel with the largest X coordinate in the same Y coordinate pixel row. After that, the Y coordinate is shifted by one in the positive direction, and the X coordinate is the smallest, the X coordinate is the largest, and the pixel is scanned sequentially from pixel to pixel within the same ⁇ coordinate pixel row. It is the scan order. In the image, the upper left corner is the coordinate origin, the right direction of the image is the positive direction of the X coordinate, and the downward direction of the image is the positive direction of the ⁇ coordinate.
  • the effective pixels are processed in the forward direction in steps S242a to S246a based on the one-dimensional processing principle, the effective pixels are processed in the reverse direction in steps S247 to S250a.
  • step S251 it is determined whether or not the extremal pixel coordinates reaching all effective pixels have been acquired. If acquired, the extreme value coordinate acquisition unit 203 performs processing. End the process. On the other hand, when the coordinates of the extreme pixel reaching all the effective pixels are not acquired (step S251, No), the process returns to step S242a.
  • scanning is performed according to steps S242a to S246a as schematically shown in FIG. 15 (a).
  • steps S247 to S250a the scan as schematically shown in FIG. 15 (b) is performed, and thereafter, until the coordinates of the extreme pixel reaching all effective pixels are obtained.
  • scanning as schematically shown in FIG. 15 (c) is performed according to steps S242a to S246a, and then scanning as schematically shown in FIG. 15 (d) is repeated according to steps S247 to S250a. Good.
  • the two-dimensional case includes the gradient direction in the vertical direction and the oblique direction
  • the single-reciprocation scan does not necessarily converge as in the one-dimensional case, that is, all the target pixels are reached.
  • the coordinates of the extreme pixels cannot be obtained, according to experiments conducted by the present inventors, it has been empirically found that convergence is achieved by repeating the processing of steps S242a to S250a shown in FIG. 13 twice. . This is equivalent to performing the two round-trip processing shown in Figs. 15 (a) to 15 (d) only once.
  • the identification assignment control unit 205 determines the luminance value VI of the effective pixel and the extreme value that the effective pixel reaches. Based on the luminance value V2 of the pixel, a process for determining whether or not to give a label as a region identification mark to the pixel is executed (step S25). Specific methods include the following methods. [0075] a. The luminance value V2 is compared with the threshold value Tl. If the luminance value V2 is equal to or greater than the threshold value T1, a label is assigned.
  • the threshold value T1 may be given statically or may be dynamically calculated by a discriminant analysis method or the like based on the luminance value distribution of only the extreme value pixels. Conversely, if a label is assigned when the threshold value is equal to or less than the threshold value T1, a dim cell region is recognized.
  • parameters for controlling the labeling such as processing method and threshold value may be provided from outside.
  • an input unit 208 that accepts an input of an identification assignment parameter for controlling label assignment by the area specifying unit 204 from the outside, and the identification assignment control unit 205 receives the identity assignment parameter received by the input unit 208.
  • the identification assignment control unit 205 receives the identity assignment parameter received by the input unit 208. What is necessary is just to comprise so that label provision by the area
  • the area specifying unit 204 for the effective pixels having the same extreme pixel coordinates, on the basis of the data of the extreme pixel coordinates reached by the respective effective pixels, A process of creating a label image is performed by assigning the same label as a region identification mark indicating the identity of the label (step S26). That is, the area specifying unit 204 assigns a label as an area identification mark for specifying the area to which each effective pixel belongs to each effective pixel.
  • the force to give the same label to the pixel whose extremum pixel coordinates are exactly the same.
  • the force is necessarily the same for only the effective pixel whose extremum pixel coordinate is exactly the same. In the same way as in the first embodiment, it is not necessary to assign a label.
  • a label that can indicate the identity of the cell region to which the pixel belongs is provided. If you give it,
  • FIG. 16-1 shows an example of an image input to the image processing apparatus 200 of the second embodiment, and shows the same image example as the image shown in FIG. 35_1.
  • FIG. 16-2 shows an example of such an input image in the image processing apparatus 200 according to the second embodiment.
  • An example of a label image that is further processed and output is shown. Here, only the recognition target with the brightest extremum is given a label.
  • the image processing apparatus can recognize individual cell regions in a cell image at high speed.
  • each region can be divided at high speed in a grayscale image.
  • the third embodiment also provides a grayscale image expressed based on luminance values as pixel values of a plurality of pixels arranged on an XY two-dimensional coordinate system that realizes a predetermined coordinate system, for example, a cell image
  • a cell image as shown in FIG. 35-1, a gray scale image in which the luminance value increases toward the inside of the cell is assumed.
  • it can also be applied to region segmentation processing with minute luminance edges by reversing the gradient direction and extreme values.
  • FIG. 17 is a schematic block diagram showing a configuration example of the image processing apparatus according to the third embodiment.
  • the image processing apparatus 300 is the same as the processing range selection unit 201, gradient information calculation unit 202, extreme value coordinate acquisition unit 203, identification assignment control unit 205, and region specifying unit 204 according to the second embodiment.
  • a processing range selection unit 301 that performs a function, a gradient information calculation unit 302, an extreme value coordinate acquisition unit 303, an identification assignment control unit 305, an area specification unit 306, an extreme value coordinate integration unit 304 that integrates the coordinates of extreme pixels,
  • a control unit 308 having a microcomputer configuration including a region integration unit 307 that integrates label regions based on cell image information in the vicinity of the label region boundary, and a memory that holds an input image and data used in each unit 309 It is composed of.
  • the extreme value coordinate integration unit 304 integrates the coordinates of the plurality of extreme value pixels.
  • the coordinates of the extreme pixel are calculated, and the coordinates of the new extreme pixel are obtained as the coordinates corresponding to the extreme pixel before integration.
  • the region specifying unit 306 assigns a label to the target pixel based on the extreme pixel coordinates acquired by the extreme coordinate integration unit 304.
  • the region integration unit 307 belongs to adjacent regions specified by different labels and is located near the boundary between the regions.
  • the input configuration of the cell image to be processed and the processing configuration of the label image after output are not particularly limited in the third embodiment.
  • FIG. 18 is a schematic flowchart showing a flow of processing executed by the image processing apparatus 300 according to the third embodiment.
  • steps S31 to S34, S36, and S39 are the same as the processes of steps S21 to S24, S25, and S27 shown in FIG. 10, and steps S35, S37, and S38 will be described below.
  • the extreme value coordinate acquisition unit 303 obtains the coordinate data of the extreme pixel reached by each effective pixel
  • the extreme value coordinate integration unit 304 determines the distance between the coordinates of each extreme pixel based on these coordinates.
  • a process for integrating the coordinates of the extreme pixels is executed (step S35). This is a kind of clustering processing and can be realized by using various known clustering methods.
  • the distance between the coordinates of any two extreme pixels is calculated, and if the distance is less than a predetermined threshold, the coordinates of these two extreme pixels are merged, and then either pixel (For example, the pixel with the larger luminance value) or the pixel at the midpoint of the two pixels as the coordinates of the representative extreme pixel at the time of the next distance calculation,
  • pixel For example, the pixel with the larger luminance value
  • the pixel at the midpoint of the two pixels as the coordinates of the representative extreme pixel at the time of the next distance calculation.
  • the distance is calculated, the result is compared with a threshold value, and then integrated again.
  • the purpose of this process is to prevent over-division recognition that occurs when multiple extreme values exist within a single recognition target area. Regardless of which clustering method is used, the definition of the distance between extreme pixels is an important factor in integration. Below are some distance definitions that may be useful in integration.
  • pixels that reach other than these two extreme pixels are between two extreme pixels. If it exists, you may add processing such as not integrating the coordinates of these two extreme pixels.
  • parameters for controlling the integration of extreme pixel coordinates such as processing method and threshold value may be set statically in advance, or may be set dynamically based on an image or the like.
  • it is good also as a structure which gives from the outside and processes.
  • it includes an input unit 310 that accepts an input of an extremal coordinate integration parameter for defining a predetermined coordinate range from the outside, and the extremal coordinate integration unit 304 includes an extremal coordinate received by the input unit 310. What is necessary is just to comprise so that the coordinate of a new extreme pixel may be calculated based on an integrated parameter.
  • the region specifying unit 306 includes the label assignment target pixels having the same coordinates of the ultimate extreme pixel after integration.
  • FIG. 20 is a diagram showing a region recognition result by labeling based on the result before the coordinate integration of the extreme pixel and a region recognition result by labeling based on the result after the coordinate integration of the extreme pixel. is there.
  • the desired recognition result for luminance data as shown in FIG. 20 is to recognize two regions with a valley of luminance values between extreme values 3 and 4 as a boundary.
  • the region recognition result based on the result before the coordinate integration of the extreme pixel five regions indicated by region 1 to region 5 are recognized, which is an overdivision recognition state.
  • the extreme values 1, 2, 3 and the extreme values 4, 5 which are close to each other between the coordinates, are integrated respectively.
  • areas 4 and 5 are two new areas, and the desired recognition and recognition results are obtained.
  • the region integration unit 307 integrates the label regions based on the cell image information in the vicinity of each label region boundary, and executes a process of updating the label image (step S38). .
  • the purpose of this processing is to integrate the label areas that are over-divided by valleys of moderate luminance values. For example, if there is a valley of moderate brightness values inside the recognition target as shown in the center of the recognition in Fig. 21-1, there will be multiple extreme values in the target. Depending on the distance, the above-mentioned extreme value integration unit 304 cannot be integrated satisfactorily. For this reason, it is divided and recognized as areas 1 and 2 in Fig. 21-2.
  • the area integration unit 307 integrates label areas by the following method or the like.
  • Edge extraction is performed on a cell image at an arbitrary label boundary, and the value obtained by normalizing the sum of the outputs by the length of the label boundary is compared with a threshold value. Integrate label areas separated by.
  • the edge extraction may be performed by using a general edge extraction filter that uses the first and second derivatives of luminance values.
  • FIG. 22-1 is an explanatory diagram showing an example of pixels b, nl, and n2 used for such index value calculation.
  • the index value Ediff3 ⁇ 4r can be used instead of the index value E1. That is,
  • the index value Ediff3 ⁇ 4r calculated by the following formula is calculated over the entire boundary, the average value is compared with the threshold value, and if it is equal to or less than the threshold value, the label areas divided by the label boundary are integrated.
  • FIG. 23 is an explanatory diagram regarding an example of similarity at the time of such label area integration. In this case, various methods are conceivable as methods for calculating the contour line intersection angle and the contour line intersection angle ⁇ .
  • pixel ⁇ ⁇ ⁇ (or pixel ⁇ ), which is the end point of the label boundary, and pixel A (or pixels on contour 1 and contour 2 that are separated from pixel by a predetermined distance L (for example, a distance of several pixels)
  • L for example, a distance of several pixels
  • the angle formed by the connected line segments is the contour line intersection angle (or contour line intersection angle ⁇ ).
  • a plurality of types of contour intersection angles ai are calculated by changing the predetermined distance L variously, and the average of these plurality of contour intersection angles ct i (or contour intersection angles j3 i) is calculated.
  • the value can also be calculated as an outline intersection angle (or an outline intersection angle ⁇ ).
  • a minimum value, a maximum value, and an intermediate value may be obtained and used as the contour line intersection angle a (or the contour line intersection angle ⁇ ).
  • the contour intersection angle (or contour intersection angle) is less than 180 degrees, it means that two objects are not due to the contour of a single object. It is considered that the label boundary is in contact with the object boundary. Conversely, if the contour line intersection angle (or contour line intersection angle / 3) is greater than 180 degrees, it is considered that two label areas have been mistakenly assigned to a single object. If the former, that is, the degree of similarity is small, leave the two intact, and if the latter, that is, the degree of similarity is large, the two label areas should be merged.
  • the average value of the contour line intersection angle ⁇ and the contour line intersection angle ⁇ is compared with a threshold value, and if it is equal to or greater than the threshold value, the label areas are integrated.
  • the minimum or maximum value can be used for comparison with the threshold value.
  • parameters for controlling the integration of label areas such as processing method and threshold value may be set statically in advance, or may be set dynamically based on an image or the like. Moreover, it is good also as a structure which gives and processes from the outside. For this purpose, for example, it is provided with an input unit 310 that receives an input of an area integration parameter for determining whether or not a predetermined condition is satisfied, and the area integration unit 307 includes an area received by the input unit 310. Based on the integration parameters, satisfy the prescribed conditions and determine whether or not they can be judged.
  • FIG. 24-1 shows an example of an image input to the image processing apparatus 300 according to the third embodiment
  • FIG. 24-2 shows such an input image example as the image processing apparatus according to the third embodiment.
  • Example of label image processed and output by 300 It is a figure.
  • the label areas divided by the valleys of the gentle luminance values are integrated.
  • the label area integration procedures a to d may be used independently, but if a plurality of procedures are used in combination, the label areas can be integrated more accurately.
  • the numerical values to be compared with the threshold values in the steps a to d are the respective index values
  • the total index value is one of the weighted sum, minimum value, maximum value, average value, and intermediate value of the index values. It is also possible to determine whether to integrate the label areas by comparing the total index value with a threshold value.
  • the image processing apparatus 300 can suppress over-division recognition in a cell image and recognize individual cell regions.
  • overdivision can be suppressed and each area can be divided in a grayscale image.
  • a gray scale image expressed by a luminance value as a pixel value of a plurality of pixels arranged on an XY two-dimensional coordinate system that realizes a predetermined coordinate system for example, a cell image
  • a cell image as shown in FIG. 35-1, a gray scale image in which the luminance value increases toward the inside of the cell is assumed.
  • it can also be applied to region segmentation processing with minute luminance edges by reversing the gradient direction and extreme values.
  • FIG. 25 is a schematic block diagram showing a configuration example of the image processing apparatus according to the fourth embodiment.
  • the image processing apparatus 400 includes a shading correction unit 401 for correcting the shading of the grayscale image in addition to the units 404 to 410 corresponding to the units 301 to 307 shown in the third embodiment.
  • a control unit 411 having a microcomputer configuration including a contour emphasizing unit 402 for emphasizing a contour on a gray scale image, and a smoothing unit 403 for performing a smoothing process for smoothing shading on the gray scale image.
  • Reference numeral 412 denotes a memory for holding an input image and data used by each unit.
  • FIG. 26 is a schematic flowchart showing a flow of processing executed by the image processing apparatus 400 according to the fourth embodiment.
  • the processing of steps S41 and S45 to S52 is the same as the processing of steps S31 and S32 to S39 described in the third embodiment, and step S4 2 to S44 will be described below.
  • the shading correction unit 401 executes shading correction processing of the input cell image (step S42).
  • shading correction processing There are various methods for correcting shading to compensate for variations in background luminance.
  • top hat processing (Reference): Corona: Morphology: Hidefumi Obata), which is one of the morphological processing.
  • An example of shading correction is shown.
  • a density opening process is performed on a cell image. In the 3D space where brightness values are regarded as altitude, the density opening process is the maximum of the outer circumference of a structural element when a reference figure called a structural element is moved by circumscribing it from the lower brightness value of the target image. This corresponds to the process of obtaining the trajectory through which the value passes (see Fig.
  • parameters for controlling shading correction such as structural elements may be set statically in advance, or may be set dynamically based on an image or the like. Also, it can be configured to be given from outside.
  • an input unit 413 that accepts an input of a shading parameter correction parameter for correcting shading of a grayscale image from the outside is provided, and the shading correction unit 401 includes a shading correction parameter received by the input unit 413. Based on this, it may be configured to correct the shading of the grayscale image.
  • the contour emphasizing unit 402 executes processing for enhancing the contour portion in the image after shading correction (step S43). Depending on how the cells overlap, there may be no brightness valley at the boundary as shown in Fig. 28 (a). Therefore, this processing is performed in order to create a clear valley of brightness values in such a portion.
  • edge extraction is performed on an image after shading correction as shown in FIG. Edge extraction at this time can be done by using a general edge extraction filter that uses the first and second derivatives of luminance values.
  • this edge extracted image is multiplied by a coefficient and subtracted from the original image after shading correction, as shown in Fig. 28 (. A change in value occurs, and a valley of luminance values is created in the outline portion as a cell boundary.
  • parameters for controlling edge enhancement may be set statically in advance, or may be set dynamically based on an image or the like. Also, it can be configured to be given from outside.
  • the image processing apparatus further includes an input unit 413 that receives an input of an edge enhancement parameter for enhancing the outline of the region on the grayscale image from the outside.
  • the edge enhancement unit 402 includes an edge received by the input unit 413. Configure it to enhance the outline of the region on the grayscale image based on the enhancement parameters.
  • the smoothing unit 403 executes a process of smoothing the image after contour enhancement (step S44).
  • the purpose of smoothing is to remove noise originally present in the input cell image and noise generated by the subsequent processes, as shown in FIG. 28 (d).
  • This smoothing process can be realized by using various known smoothing filters.
  • the parameter for controlling the smoothing may be set statically in advance, or may be set dynamically based on an image or the like. Moreover, it is good also as a structure which gives and processes from the outside.
  • an input unit 413 that receives an input of a smoothing parameter for performing a smoothing process from the outside is provided, and the smoothing unit 403 corresponds to the smoothing parameter received by the input unit 413.
  • the smoothing process may be performed.
  • a label image is created and output by executing the same processing steps S45 to S52 as in the third embodiment on the image that has undergone the above processing steps S42 to S44.
  • the image processing apparatus 400 recognizes individual cell regions even for cell images in which variations in background luminance exist or cell overlap exists.
  • Power S can be.
  • each region can be divided even in a grayscale image in which variations in background luminance exist.
  • FIG. 29 is a schematic configuration diagram showing Embodiment 5 of the present invention.
  • the fifth embodiment is applied to, for example, a microscope system including an image processing device 500 including an imaging unit 502 that acquires image data of a grayscale image in addition to the configuration shown in the fourth embodiment. .
  • a microscope 501 that obtains a desired magnified optical image of the specimen 506, and an optical image obtained by photoelectric conversion of the optical image obtained by the microscope 501 are electrically converted.
  • An imaging unit 502 that obtains a child image
  • a control unit 503 that recognizes a recognition target in the sample 506 by processing an electronic image
  • a display unit 507 that displays an image of a processing process until labeling and parameters used for labeling processing
  • An input unit 508 for receiving various parameters and other inputs
  • a memory 509 for holding an input image and data used in each unit.
  • the microscope 501 and the imaging unit 502 can be realized by a known technique.
  • the electronic image corresponds to the grayscale image in the fourth embodiment, and the function of the control unit 503 is the same as that of the control unit 411 described in the fourth embodiment.
  • the display unit 507 displays an image in each processing process until labeling in the image processing apparatus 500 and parameters used for processing up to labeling as necessary.
  • display unit 507 also functions as a region parameter display unit that displays the region parameters obtained by region parameter calculation unit 520.
  • the input unit 508 receives various input operations by the operator.
  • FIG. 30 to FIG. 32 show examples of images of processing steps displayed on the display unit 507.
  • FIG. FIG. 30 is an example of a cell image obtained by the microscope 501 and the imaging unit 502 and is an input image to the image processing apparatus 500.
  • FIG. 31 is an image showing the cell region selected by the processing range selection unit 513 in the image processing apparatus 500 as a bright portion in the process of processing the image of FIG. That is, the display unit 507 displays an image that distinguishes at least the pixel range selected by the processing range selection unit 513.
  • FIG. 32 is an image showing a result of processing the image of FIG. 30 and finally labeling each cell region. That is, the display unit 507 displays an image that distinguishes at least the region specified by the label given by the region specifying unit 518.
  • the region parameter calculation unit 520 obtains a region parameter indicating the property of the region identified by the label given by the region identification unit 518, and the display unit 507 obtains the obtained region. Execute processing to display parameters.
  • the region parameter indicating the property of the region is a numerical value related to the size of the target region, It means a numerical value related to shape, a numerical value related to position, a numerical value related to brightness or color, a numerical value related to the ratio between areas, a numerical value related to the number of objects, a numerical value related to a set of areas, and the like.
  • Target area values include area, length, width, maximum / minimum 'average diameter, maximum' minimum • average radius, perimeter, envelope perimeter, ellipse perimeter, major axis / minor axis length, max ⁇ Minimum ⁇ Average diameter, circumscribed square area ratio, convex perimeter, etc.
  • the numerical value related to the shape of the region means aspect ratio, radius ratio, circularity, Euler number, flatness, fractal dimension, branch number, endpoint number, roughness number, and the like.
  • the numerical value related to the position of the region means the position centroid, density centroid, circumscribed square position, inclination, and the like.
  • the numerical values related to the brightness and color of the area mean maximum / minimum average density, total density, dispersion, standard deviation, integrated optical density, blockiness, heterogeneity, marginality, and so on.
  • the numerical value related to the number of areas means the number of areas and the number of holes. Numerical values for a set of regions mean region class, maximum 'minimum' average inter-region distance, relative distance, variance, runnability, etc.
  • the meter need not be limited to these two-dimensional numerical values, but can be numerical values other than those mentioned above, one-dimensional numerical values such as line profiles, and three-dimensional numerical values such as concentration distributions. May be.
  • the parameter calculated in the region parameter calculation unit 520 is transferred to the region parameter display unit 412 and displays the extraction result of the region based on the obtained parameter relating to the region.
  • This display is displayed as image data, such as displaying each extracted region with different brightness and color, displaying the outline of the region with a line, and displaying a mark at the position of the center of gravity.
  • the method is not limited to these examples as long as each region can be identified.
  • numerical data related to the area such as the position and area of each area, may be displayed as parameters.
  • only one of the image data and the numerical data may be displayed at the same time, or both may be displayed at the same time, or one of them may be switched and displayed.
  • the display format may be changed according to the parameter contents.
  • the fifth embodiment it is possible to recognize individual cell regions from within an image obtained by imaging a microscope specimen under a desired condition.
  • the process image and parameters By displaying, it is possible to quickly confirm the recognition result.
  • the image processing apparatus of the present invention has been described with several examples, the image processing apparatus of the present invention and a conventional cell recognition apparatus may be used in combination.
  • the cell image and tissue image to be processed may be a fluorescent image, or may be created using a fluorescent image, a phase difference image, a differential interference image, or the like.
  • the image processing apparatus of the present invention may be used for applications such as recognition of microtubules in a d-mark image of an AFM (atomic force microscope) and recognition of a labeled microtubule distribution region. For a multiple-labeled target, a plurality of grayscale images with different wavelengths may be acquired and processed.
  • each unit such as the gradient information calculation unit 101 described above may be realized by executing a region specifying program prepared in advance by a computer such as a personal computer.
  • This area specifying program can also be distributed via a network such as the Internet.
  • This area specifying program is recorded on a computer-readable recording medium such as a hard disk, FD, CD-ROM, M0, DVD, etc., and is executed by being read from the recording medium by the computer.
  • the image processing device, the microscope system, and the region specifying program according to the present invention are useful for region segmentation processing in a grayscale image, and in particular, based on images obtained by capturing cells. It is suitable for processing that recognizes cell areas.

Abstract

 グレースケール画像に対して所定の領域を良好に特定できる画像処理装置を提供する。画素値の変化の傾向を示す勾配情報に従って極値座標取得部102で注目画素から画素の走査を行い、走査した画素の画素値が極値を示す位置の座標を注目画素に対応する極値画素の座標として取得する一方、領域特定部103で個々の画素が属する領域を特定するための領域識別標識をそれぞれの注目画素に付与するものとし、異なる画素毎に取得された極値画素の座標同士が所定の範囲内で近接している場合には、これらの画素に対して該画素が属する領域の同一性を示す領域識別標識を付与することで、付与された領域識別標識に従いそれぞれの画素が属する領域を特定できるようにした。

Description

明 細 書
画像処理装置、顕微鏡システム、及び領域特定プログラム
技術分野
[0001] 本発明は、グレースケール画像における領域分割処理、特に、細胞を撮像した画 像を基に各細胞の領域を認識する処理を行うための画像処理装置、当該画像処理 装置を備える顕微鏡システム、及び前記処理を行うための領域特定プログラムに関 するものである。
背景技術
[0002] 従来、細胞認識処理としては、特許文献 1に、細胞を撮像した画像に対し細胞形状 を当てはめて細胞中心位置を抽出し、その細胞中心位置の周囲における各画素で の輝度勾配方向と、前記各画素から細胞中心位置へ向力う方向との一致度により細 胞輪郭を形成する画素候補を選択し、選択した画素候補位置での輝度勾配の大き さ情報を利用した動的輪郭抽出を行い、細胞の詳細な輪郭を求める方法が示されて いる。
[0003] ここで、注目する処理についてさらに言及する。まず、細胞中心を検出するための 細胞形状のモデルとして円形状を用いた方法が示されている。実際には、画像内の 注目画素での輝度勾配方向を算出し、前記注目画素から前記勾配方向に向かって 予め設定した半径だけ離れた位置に存在する画素位置に対して得点を与えるという 処理を、画像内の全ての画素に対して行っている。この処理の結果、設定した半径 だけ離れた周囲位置からの輝度勾配が集中する位置は高得点となり、細胞中心であ る可能性が高いと判断される。次に、輪郭画素候補の選択では、細胞輪郭部での輝 度勾配が細胞中心に向くことに着目し、細胞中心の周囲に存在する注目画素での 輝度勾配ベクトルと、注目画素から細胞中心位置に向力 変位ベクトルとの内積の符 号を基に輪郭画素候補を選択している。そして、動的輪郭抽出処理では、細胞中心 位置を中心とする指定半径の円形状の閉曲線を設定し、この閉曲線が輪郭候補画 素と重なる場合に、その画素位置での輝度勾配の大きさを減算するとレ、う処理を閉 曲線一周に渡って行うことで評価値を求めている。この評価値は、閉曲線が輪郭候 補画素と最も重なる場合に最小となることから、閉曲線の形状を局所的に変化させな がら、繰り返し同様の方法で評価値を求め、得られた評価値が最も小さい時の閉曲 線を、最終的な細胞輪郭としている。
[0004] 一方、画像内の対象領域を抽出するために利用される領域分割の方法として、分 水嶺 (Watershed)アルゴリズムがある(非特許文献 1参照)。該分水嶺アルゴリズムは 、画像のグレースケール情報 (例えば、輝度)を高度とみなした地形において水を満 たしていく際に、異なるくぼみに溜まる水の間で境界ができるように画像を分割してい く方法である。
[0005] 図 33— 1〜図 33— 4は該分水嶺アルゴリズムの処理手順を順に示す原理説明図 である。なお、図 33— 1〜図 33— 4は、簡略化のために 1次元での様子を示している 。まず、図 33 _ 1に示すように、画像内の輝度データ中から極小値の画素を検出す る。ここで、極小値の画素とは、 P 接画素内で自身が最も小さい輝度値である画素を 意味する。そして、図 33— 2に示すように、注水の際、輝度値のくぼみに水が溜まる ように、極小値から領域を拡張する。この拡張処理において、図 33— 3に示すように 、異なる極小値から拡張された領域がぶっかる位置に境界線 (分水嶺)を作成する。 そして、最終的に、図 33— 4に示すように、最大輝度値以上に水を溜めた際の境界 線により画像を分割する。図 33— 4に示す例では、以上の処理により、画像は領域 A , B, C, Dに分割される。
[0006] なお、 2次元正方格子の画像に関して、隣接画素の考え方には、中央の注目画素 に対して上下左右方向にそれぞれ隣接する 4画素を考慮する隣接 4近傍(図 34— 1 参照)と、中央の注目画素に対して上下左右斜め方向にそれぞれ隣接する 8画素を 考慮する隣接 8近傍(図 34— 2参照)とがあり、極小値の検出や領域の拡張において 、レ、ずれかの考え方に沿って処理するようにしてレ、る。
[0007] 特許文献 1 :特許第 3314759号公報
非特許乂 ffl^l : Luc vmcent and Pierre Soille. Watersheds m digital spaces :Anefticien t algorithm based on immersion simulations. Transactionson PatternAnalysis and Ma chine Intelligence, Vol.13, No.6, pp.583-598June 1991.
発明の開示 発明が解決しょうとする課題
[0008] ところ力 特許文献 1の各処理は、細胞形状をモデル化して処理することを前提とし ている。このため、細胞形状がモデル形状から外れる場合に良好な結果が得られな いという根本的な課題がある。例えば、規定半径の円形状のモデルを用いて細胞中 心を抽出する場合、図 35— 1に示す認識対象画像の中央の対象に関しては、図 35 _ 2に示すように離れた複数の中心が得られる。このような中心抽出結果のまま以後 の処理を行うと、図 35— 3に示すような輪郭抽出結果となり、本来 1個の対象が 3個の 対象として誤認識されてしまう。また、図 36— 1に示すように対象の中心が 1個だけ得 られた場合であっても、複数の対象が密集する部分では、図 36— 2に白線で示すよ うに中央に位置する対象の輪郭部だけでなく周囲の対象の輪郭部も、輝度勾配べク トルが該中心に向いているため輪郭画素候補として選択されてしまう。そして、この輪 郭候補画素の選択結果の情報を基に円形の閉曲線(図 36— 3に示す破線参照)か ら動的輪郭抽出を行うと、図 36— 3に白線で示すような抽出結果となり、認識対象の 形状とは異なる形状を認識してしまう。
[0009] このように形状モデルを利用する特許文献 1による認識処理は、円形等の形状とは 限らない種々の形状を採り得る認識対象画像、例えば細胞画像などの領域認識に は不向きである。この点、非特許文献 1に示されるような分水嶺アルゴリズム方式は細 胞画像などの領域認識には好適といえる。ここで、分水嶺アルゴリズムを細胞画像の 認識に適用する場合、蛍光画像のように細胞内部に向かって輝度値が大きくなる画 像では、輝度情報を反転させたり、エッジ抽出を行ったりすることで、細胞部分を輝度 値のくぼみとしてから適用する方法が考えられる。
[0010] ここで、図 35— 1に示した認識対象画像の輝度値を反転した画像を図 37— 1に示 す。この画像に分水嶺アルゴリズムを適用した結果を図 37— 2、図 37— 3に示す。図 37_ 2は、 P 接 4近傍で処理した結果を示し、図 37_ 3は、 P 接 8近傍で処理した結 果を示す。これら 2つの結果は若干異なっており、破線で示す A部では図 37— 2に 示す隣接 4近傍の方が自然な領域分割結果であるのに対し、破線で示す B部では図 37— 3に示す隣接 8近傍の方が自然な領域分割結果となっている。よって、該分水 嶺アルゴリズムは、両方の部位 A, Bで共に良好な領域分割結果を得ることが難しい という課題がある。つまり、隣接 4近傍、隣接 8近傍のいずれを用いても領域分割に関 するベストの解が得られず、グレースケール画像の微妙な輝度変化を反映した領域 分割を良好に行えなレ、とレ、う課題が生ずる。
[0011] 本発明は、上記に鑑みてなされたものであって、グレースケール画像に対して所定 の領域を良好に特定することができる画像処理装置、顕微鏡システム、及び領域特 定プログラムを提供することを目的とする。 課題を解決するための手段
[0012] 上述した課題を解決し、 目的を達成するために、請求項 1に係る画像処理装置は、 所定の座標系上に配置される複数の画素の画素値に基づいて表現されるグレース ケール画像に対して前記画素が属する領域を特定する処理を行う画像処理装置で あって、前記画素間における画素値の変化の傾向を示す勾配情報を算出する勾配 情報算出手段と、前記複数の画素から選択した画素を注目画素として設定し、該注 目画素から前記勾配情報に従って前記画素の走査を行い、走査した画素の画素値 が極値を示す位置の座標を前記注目画素に対応する極値画素の座標として取得す る極値座標取得手段と、前記画素が属する領域を特定するための領域識別標識を 前記注目画素に対して付与する領域特定手段と、を備え、前記極値座標取得手段 は、前記複数の画素の各画素を前記注目画素として順次設定し、前記複数の画素 の各画素に対応する前記極値画素の座標を取得し、前記領域特定手段は、異なる 画素に対応する前記極値画素の座標同士が所定の範囲内で近接してレ、るときに、 該異なる画素それぞれに対して該画素が属する領域の同一性を示す領域識別標識 を付与することを特徴とする。
[0013] 請求項 2に係る画像処理装置は、請求項 1に係る画像処理装置において、前記勾 配情報算出手段は、隣接する画素の画素値の差に該隣接する画素間の距離に応じ た係数を乗ずることで前記勾配情報を算出することを特徴とする。
[0014] 請求項 3に係る画像処理装置は、請求項 1又は 2に係る画像処理装置において、 前記勾配情報算出手段、前記極値座標取得手段及び前記領域特定手段による処 理の対象となる画素を選択する処理範囲選択手段をさらに備えていることを特徴とす る。 [0015] 請求項 4に係る画像処理装置は、請求項 3に係る画像処理装置において、前記勾 配情報算出手段、前記極値座標取得手段及び前記領域特定手段による処理の対 象となる画素が位置する範囲を定めるための処理範囲指定パラメータの入力を外部 力 受け付ける入力手段をさらに備え、前記処理範囲選択手段は、前記入力手段で 受け付けた前記処理範囲指定パラメータに基づいて、前記勾配情報算出手段、前 記極値座標取得手段及び前記領域特定手段による処理の対象となる画素が位置す る範囲を選択することを特徴とする。
[0016] 請求項 5に係る画像処理装置は、請求項:!〜 4のいずれか 1つに係る画像処理装 置において、前記極値座標取得手段は、前記注目画素に対して前記勾配情報に従 つた方向で隣接する画素に対応する極値画素の座標を参照することで、前記注目画 素に対応する極値画素の座標を取得することを特徴とする。
[0017] 請求項 6に係る画像処理装置は、請求項:!〜 5のいずれか 1つに係る画像処理装 置において、前記注目画素の画素値、及び前記注目画素に対応する極値画素の画 素値の少なくとも一方に基づいて、前記領域特定手段による領域識別標識の付与を 制御する識別付与制御手段をさらに備えることを特徴とする。
[0018] 請求項 7に係る画像処理装置は、請求項 6に係る画像処理装置におレ、て、前記領 域特定手段による領域識別標識の付与を制御する識別付与パラメータの入力を外 部から受け付ける入力手段をさらに備え、前記識別付与制御手段は、前記入力手段 で受け付けた識別付与パラメータに基づいて前記領域特定手段による領域識別標 識の付与を制御することを特徴とする。
[0019] 請求項 8に係る画像処理装置は、請求項:!〜 7のいずれか 1つに係る画像処理装 置にぉレ、て、前記複数の画素それぞれに対応する前記極値画素の座標が所定の座 標範囲内にあるときに、該複数の極値画素の座標を統合した新たな極値画素の座標 を算出して、該新たな極値画素の座標を統合前の極値画素に対応する座標として取 得する極値座標統合手段を備え、前記領域特定手段は、前記極値座標統合手段で 取得した前記新たな極値画素の座標に基づレ、て、前記領域識別標識を前記注目画 素に対して付与することを特徴とする。
[0020] 請求項 9に係る画像処理装置は、請求項 8に係る画像処理装置におレ、て、前記所 定の座標範囲を定めるための極値座標統合パラメータの入力を外部から受け付ける 入力手段をさらに備え、前記極値座標統合手段は、前記入力手段で受け付けた前 記極値座標統合パラメータに基づいて前記新たな極値画素の座標を算出することを 特徴とする。
[0021] 請求項 10に係る画像処理装置は、請求項:!〜 9のいずれか 1つに係る画像処理装 置において、異なる領域識別標識で特定される隣り合う領域に属し該領域同士の境 界近傍に位置する画素の画素値が所定の条件を充たしてレ、るか否かを判定し、該所 定の条件を充たしている場合に該隣り合う領域に対して同一性を示す領域識別標識 を付与する領域統合手段をさらに備えていることを特徴とする。
[0022] 請求項 11に係る画像処理装置は、請求項 10に係る画像処理装置において、前記 所定の条件を充たしているか否力、を判定するための領域統合パラメータの入力を外 部から受け付ける入力手段をさらに備え、前記領域統合手段は、前記入力手段で受 け付けた前記領域統合パラメータに基づいて前記所定の条件を充たしているか否か を判定することを特徴とする。
[0023] 請求項 12に係る画像処理装置は、請求項:!〜 11のいずれか 1つに係る画像処理 装置にぉレ、て、前記グレースケール画像上で前記領域の輪郭を強調する輪郭強調 手段をさらに備えていることを特徴とする。
[0024] 請求項 13に係る画像処理装置は、請求項 12に係る画像処理装置において、前記 グレースケール画像上で前記領域の輪郭を強調するためのエッジ強調パラメータの 入力を外部から受け付ける入力手段をさらに備え、前記輪郭強調手段は、前記入力 手段で受け付けた前記エッジ強調パラメータに基づいて前記グレースケール画像上 で前記領域の輪郭を強調することを特徴とする。
[0025] 請求項 14に係る画像処理装置は、請求項:!〜 13のいずれか 1つに係る画像処理 装置にぉレ、て、前記グレースケール画像のシェーディングを補正するためのシエー デイング補正手段をさらに備えていることを特徴とする。
[0026] 請求項 15に係る画像処理装置は、請求項 14に記載の画像処理装置において、前 記グレースケール画像のシェーディングを補正するためのシェーディング補正パラメ ータの入力を外部から受け付ける入力手段をさらに備え、前記シェーディング補正手 段は、前記入力手段で受け付けた前記シェーディング補正パラメータに基づレ、て前 記グレースケール画像のシェーディングを補正することを特徴とする。
[0027] 請求項 16に係る画像処理装置は、請求項:!〜 15のいずれか 1つに記載の画像処 理装置において、前記グレースケール画像上で濃淡を滑らかにするための平滑化処 理を行う平滑化手段をさらに備えていることを特徴とする。
[0028] 請求項 17に係る画像処理装置は、請求項 16に係る画像処理装置において、前記 平滑化処理を行うための平滑化パラメータの入力を外部から受け付ける入力手段を さらに備え、前記平滑化手段は、前記入力手段で受け付けた前記平滑化パラメータ に応じて前記平滑化処理を行うことを特徴とする。
[0029] 請求項 18に係る画像処理装置は、請求項:!〜 17のいずれか 1つに係る画像処理 装置において、前記グレースケール画像は、細胞又は組織を撮像した画像であるこ とを特徴とする。
[0030] 請求項 19に係る画像処理装置は、請求項:!〜 18のいずれか 1つに係る画像処理 装置において、前記領域を特定するまでの処理に用いるパラメータ、及び前記領域 するまでの処理過程の画像のうち少なくとも一方を表示する表示手段をさらに備えて レ、ることを特徴とする。
[0031] 請求項 20に係る画像処理装置は、請求項:!〜 18のいずれか 1つに係る画像処理 装置において、領域を特定するまでの処理の過程を表示する表示手段をさらに備え 、該表示手段は、少なくとも、前記領域識別標識で特定される領域を区別する画像を 表示することを特徴とする。
[0032] 請求項 21に係る画像処理装置は、請求項 3又は 4に係る画像処理装置において、 領域を特定するまでの処理の過程を表示する表示手段をさらに備え、該表示手段は 、少なくとも、前記処理範囲選択手段により選択した画素の範囲を区別する画像を表 示することを特徴とする。
[0033] 請求項 22に係る画像処理装置は、請求項:!〜 18のいずれか 1つに係る画像処理 装置にぉレ、て、前記領域識別標識で特定される領域の性質を示す領域パラメータを 求める領域パラメータ算出手段と、該領域パラメータを表示する領域パラメータ表示 手段と、をさらに備えていることを特徴とする。 [0034] 請求項 23に係る画像処理装置は、請求項:!〜 22のいずれか 1つに係る画像処理 装置において、前記グレースケール画像の画像データを取得する撮像手段をさらに 備えていることを特徴とする。
[0035] 請求項 24に係る顕微鏡システムは、請求項 23に記載の画像処理装置を備えた顕 微鏡システムであって、対象を拡大投影する結像光学系を備え、前記画像処理装置 における前記撮像手段は、前記結像光学系の結像面に拡大投影された前記対象を 撮影して画像データを取得することを特徴とする。
[0036] 請求項 25に係る領域特定プログラムは、所定の座標系上に配置される複数の画素 の画素値に基づいて表現されるグレースケール画像に対して前記画素が属する領 域を特定する処理を画像処理装置に実行させる領域特定プログラムであって、前記 画像処理装置に、前記画素間における画素値の変化の傾向を示す勾配情報を算出 する勾配情報算出手順と、前記複数の画素から選択した画素を注目画素として設定 し、該注目画素から前記勾配情報に従って前記複数の画素の走査を行い、走査した 画素の画素値が極値を示す位置の座標を前記注目画素に対応する極値画素の座 標として取得する極値座標取得手順と、前記画素が属する領域を特定するための領 域識別標識を前記注目画素に対して付与する領域特定手順と、を実行させ、前記極 値座標取得手順は、前記複数の画素の各画素を前記注目画素として順次設定し、 前記複数の画素の各画素に対応する前記極値画素の座標を取得する手順であり、 前記領域特定手順は、異なる画素に対応する前記極値画素の座標同士が所定の範 囲内で近接しているときに、該異なる画素それぞれに対して該画素が属する領域の 同一性を示す領域識別標識を付与する手順であることを特徴とする。
発明の効果
[0037] 本発明に係る画像処理装置は、画素間における画素値の変化の傾向を示す勾配 情報に従って注目画素から画素の走查を行い、走査した画素の画素値が極値を示 す位置の座標を該注目画素に対応する極値画素の座標として取得する一方、個々 の画素が属する領域を特定するための領域識別標識をそれぞれの注目画素に付与 するものとし、異なる画素毎に取得された極値画素の座標同士が所定の範囲内で近 接している場合には、これらの画素に対して該画素が属する領域の同一性を示す領 域識別標識を付与するので、付与された領域識別標識に従いそれぞれの画素が属 する領域を特定すればよぐ所定の領域を良好に特定することができるという効果を 奏する。
図面の簡単な説明
[図 1]図 1は、本発明の実施の形態 1の画像処理装置の構成例を示す概略ブロック図 である。
[図 2]図 2は、実施の形態 1の画像処理装置により実行される処理の流れを示す概略 フローチャートである。
[図 3]図 3は、ステップ S12の処理例を示す概略フローチャートである。
[図 4]図 4は、注目画素に対する輝度勾配方向例を示す図である。
[図 5]図 5は、ステップ S13の処理例を示す概略フローチャートである。
[図 6]図 6は、或る注目画素から極値画素までの走査経路例を示す模式図である。
[図 7]図 7は、或る注目画素 Tに対して走査処理を繰り返す際のメモリ内の座標データ の変化の様子を示す模式図である。
[図 8-1]図 8— 1は、実施の形態 1の画像処理装置に対して入力される画像例を示す 図である。
[図 8-2]図 8— 2は、実施の形態 1の画像処理装置により処理されて出力されるラベル 画像例を示す図である。
[図 9]図 9は、本発明の実施の形態 2の画像処理装置の構成例を示す概略ブロック図 である。
[図 10]図 10は、実施の形態 2の画像処理装置により実行される処理の流れを示す概 略フローチャートである。
[図 11]図 11は、ステップ S24の処理例を示す概略フローチャートである。
[図 12]図 12は、 1次元の配列例における処理例を示す模式図である。
[図 13]図 13は、 2次元の配列例におけるステップ S24の処理例を示す概略フローチ ヤートである。
[図 14]図 14は、 XY2次元座標系を示す図である。
[図 15]図 15は、 2次元の画素配列における処理例を示す模式図である。 園 16-1]図 16— 1は、実施の形態 2の画像処理装置に対して入力される画像例を示 す図である。
[図 16-2]図 16— 2は、実施の形態 2の画像処理装置により処理されて出力されるラ ベル画像例を示す図である。
[図 17]図 17は、本発明の実施の形態 3の画像処理装置の構成例を示す概略ブロッ ク図である。
[図 18]図 18は、実施の形態 3の画像処理装置により実行される処理の流れを示す概 略フローチャートである。
園 19]図 19は、極値画素間の距離定義に関する説明図である。
[図 20]図 20は、極値画素統合前'後の結果に基づくラベル付与による領域認識結果 例を示す図である。
園 21-1]図 21 _ 1は、領域統合処理の対象例となる画像例を示す図である。
園 21-2]図 21— 2は、領域統合処理を行う前の領域分割例のラベル画像を示す図 である。
[図 21-3]図 21— 3は、図 21— 2における境界 Aに垂直な方向の輝度変化例を示す 特性図である。
[図 21-4]図 21— 4は、図 21— 2における境界 Bに垂直な方向の輝度変化例を示す 特性図である。
園 22-1]図 22— 1は、ラベル領域統合時の指標値算出に用いる画素例に関する説 明図である。
[図 22-2]図 22— 2は、ラベル領域統合時の統合指標値例に関する説明図である。 園 23]図 23は、ラベル領域統合時の類似度例に関する説明図である。
園 24-1]図 24—1は、実施の形態 3の画像処理装置に対して入力される画像例を示 す図である。
園 24-2]図 24— 2は、実施の形態 3の画像処理装置により処理されて出力されるラ ベル画像例を示す図である。
[図 25]図 25は、本発明の実施の形態 4の画像処理装置の構成例を示す概略ブロッ ク図である。 [図 26]図 26は、実施の形態 4の画像処理装置により実行される処理の流れを示す概 略フローチャートである。
[図 27]図 27は、トップハット処理によるシェーディング補正例を示す図である。
園 28]図 28は、輪郭強調処理と平滑化処理による細胞領域の明確化例を示す図で ある。
[図 29]図 29は、本発明の実施の形態 5の画像処理装置の構成例を示す概略ブロッ ク図である。
[図 30]図 30は、顕微鏡を通じて撮像された細胞の画像例を示す図である。
園 31]図 31は、図 30の画像を基に細胞領域と背景領域とを分けた結果の画像例を 示す図である。
[図 32]図 32は、図 30の画像を基に細胞領域を認識した結果の画像例を示す図であ る。
[図 33-1]図 33— 1は、分水嶺アルゴリズム中の極小値の検出例を説明する図である
[図 33-2]図 33— 2は、分水嶺アルゴリズム中の極小値からの拡張例を説明する図で ある。
[図 33-3]図 33— 3は、分水嶺アルゴリズム中の境界線の作成例を説明する図である 園 33-4]図 33— 4は、分水嶺アルゴリズムによる分割処理終了例を説明する図であ る。
園 34-1]図 34— 1は、隣接画素の考え方として隣接 4近傍の例を示す図である。 園 34-2]図 34— 2は、隣接画素の考え方として隣接 8近傍の例を示す図である。
[図 35-1]図 35— 1は、円形モデル当てはめ方式を適用する認識対象画像例を示す 図である。
園 35-2]図 35— 2は、円形モデル当てはめによる中心抽出結果例を示す図である。 園 35-3]図 35— 3は、円形モデル当てはめ方式による輪郭抽出の失敗例を示す図 である。
園 36-1]図 36— 1は、円形モデル当てはめ方式に適用する認識対象画像例を示す 図である。
園 36-2]図 36— 2は、円形モデル当てはめによる輪郭候補画素の選択結果例を示 す図である。
園 36-3]図 36— 3は、円形モデル当てはめ方式による輪郭抽出の失敗例を示す図 である。
園 37-1]図 37— 1は、分水嶺アルゴリズム方式を適用するために輝度を反転した図 3 5 - 1の認識対象画像例を示す図である。
園 37-2]図 37— 2は、隣接 4近傍による分水嶺アルゴリズム処理の結果例を示す図 である。
園 37-3]図 37— 3は、隣接 8近傍による分水嶺アルゴリズム処理の結果例を示す図 である。
符号の説明
101 勾配情報算出部
102 極値座標取得部
103 領域特定部
201 処理範囲選択部
202 勾配情報算出部
203 極値座標取得部
204 領域特定部
205 識別付与制御部
208 入力部
301 処理範囲選択部
302 勾配情報算出部
303 極値座標取得部
304 極値座標統合部
305 識別付与制御部
306 領域特定部
307 領域統合部 310 入力部
401 シェーディング補正部
402 輪郭強調部
403 平滑化部
404 処理範囲選択部
405 勾配情報算出部
406 極値座標取得部
407 極値座標統合部
408 識別付与制御部
409 領域特定部
410 領域統合部
413 入力部
501 顕微鏡
502 撮像部
507 表示部
508 入力部
510 シェーディング補正部
511 輪郭強調部
512 平滑化部
513 処理範囲選択部
514 勾配情報算出部
515 極値座標取得部
516 極値座標統合部
517 識別付与制御部
518 領域特定部
519 領域統合部
520 領域パラメータ算出部 発明を実施するための最良の形態 [0040] 本発明を実施するための最良の形態について図面を参照して説明する。
以下に説明する実施の形態では、本発明の画素値として輝度値を扱うが、本発明 における画素値は輝度値に限らず、その性質に応じて濃淡値、階調値、強度値とよ ばれるようなものも含むものである。
[0041] (実施の形態 1)
本実施の形態 1は、所定の座標系を実現する XY2次元座標系上に配置される複 数の画素の画素値としての輝度値に基づレ、て表現されるグレースケール画像、例え ば、細胞画像に対して画素が属する各細胞領域を特定する処理を行う画像処理装 置への適用例を示す。なお、本実施の形態 1では、細胞画像として、図 35— 1に示し たように、細胞内部に向かって輝度値が大きくなるグレースケール画像を想定するが 、後述の勾配方向や極値を逆転することにより微小な輝度エッジによる領域分割処 理にも適用できることを示す。
[0042] 図 1は、本実施の形態 1の画像処理装置の構成例を示す概略ブロック図である。本 実施の形態 1の画像処理装置 100は、画素間における輝度値の変化の傾向を示す 勾配情報としての輝度勾配方向を算出する勾配情報算出部 101と、複数の画素から 選択した画素を注目画素として設定し、該注目画素から輝度勾配方向に従って画素 の走査を行い、走査した画素の輝度値が極値を示す位置の座標を注目画素に対応 する極値画素の座標として取得する極値座標取得部 102と、画素が属する領域を特 定するための領域識別標識としてのラベルを注目画素に対して付与する領域特定部 103とを備えるマイクロコンピュータ構成の制御部 104と、入力された画像及び各部 で利用するデータを保持しておくメモリ 105とから構成されている。
[0043] ここで、極値座標取得部 102は、複数の画素の各画素を注目画素として順次設定 し、複数の画素の各画素に対応する極値画素の座標を取得する。領域特定部 103 は、異なる画素に対応する極値画素の座標同士が所定の範囲内で近接しているとき に、異なる画素それぞれに対して画素が属する領域の同一性を示す領域識別標識 として例えば同一のラベルを付与する。なお、処理対象である細胞画像の入力構成 や、出力後のラベル画像の処理構成に関しては、本実施の形態 1では特に限定しな レ、。 [0044] 図 2は、本実施の形態 1の画像処理装置 100の制御部 104により実行される処理 の流れを示す概略フローチャートである。まず、画像処理装置 100に入力された細 胞画像を取得してメモリ 105に蓄える処理を実行する (ステップ Sl l)。次に、勾配情 報算出部 101は、この細胞画像内の各画素間の輝度勾配方向を算出し、算出され た輝度勾配方向のデータをメモリ 105に記憶する処理を実行する(ステップ S12)。
[0045] 図 3は、勾配情報算出部 101により実行されるこのステップ S12のサブルーチンの 処理例を示す概略フローチャートである。勾配情報算出部 101は、まず、細胞画像 内の注目画素において、その上下左右斜め方向に隣接する隣接 8近傍(図 34— 2 参照)にあるそれぞれの隣接画素との輝度差を算出する (ステップ S121)。 P 接画素 の輝度値が、この注目画素の輝度値より大きい場合には、輝度差は正の値となり、逆 の場合には負の値となる。ここで、斜め方向に隣接する画素の中心とこの注目画素 の中心との間の距離は、上下方向又は左右方向に隣接する画素と注目画素の中心 との間の距離に対して 2倍となる。そこで、斜め方向の隣接画素との輝度差に対し ては、この距離差を考慮した係数として 2を乗算することで、輝度差を補正する (ステップ S 122)。
[0046] 輝度差の補正後は、各輝度差を比較して最大値を求める(ステップ S123)。この最 大値が 0より大きな場合には (ステップ S124, Yes)、その輝度差が算出された隣接 画素の方向を、この注目画素における輝度勾配方向としてメモリ 105に記憶する(ス テツプ S 125)。一方、最大値が 0以下の場合には(ステップ S 124, No)、この注目画 素が極値画素であることをメモリ 105に記憶する(ステップ S126)。以上の処理で、或 る 1つの注目画素に対する処理を終了する。
[0047] 或る 1つの注目画素での処理終了後は、細胞画像内の全画素に対して処理が実 行されたかの否かの判定を行い(ステップ S127)、未処理画素がある場合にはステツ プ S121〜S126の処理を繰り返し、未処理画素がない場合には、勾配情報算出部 1 01での全処理を終了する。このような処理の結果、細胞画像内の各画素毎に図 4に 示す 8方向のいずれかを示す符号、あるいは極値画素であることを示す符号がメモリ 105に記憶され、これが画素間における輝度値の変化の傾向を示す輝度勾配方向 のデータとなる。 [0048] 次に、極値座標取得部 102は、各画素を順次注目画素とした場合に走査により到 達する極値画素の座標を取得し、メモリ 105に記憶する処理を実行する(ステップ S1
3)。図 5は、極値座標取得部 102により実行されるこのステップ S13のサブルーチン の処理例を示す概略フローチャートである。極値座標取得部 102は、まず、順次設 定される注目画素が到達する極値画素の座標を記憶するための到達極値座標メモリ (メモリ 105内に存在する)に、注目画素自身の座標を書き込む (ステップ S 131 )。そ して、勾配情報算出部 101で得た輝度勾配方向のデータを基に、到達極値座標メモ リ内の座標位置が極値画素であるか判定する(ステップ S132)。判定の結果、極値 画素でない場合には、到達極値座標メモリ内の座標位置での輝度勾配方向を輝度 勾配方向のデータより求め、この勾配方向に隣接する画素の座標で到達極値座標メ モリ内の座標を上書きする(ステップ S133)。上書き後は、再度ステップ S132の判定 を行う。ステップ S132の判定の結果、到達極値座標メモリ内の座標位置が極値画素 である場合には、この注目画素での処理を終了する。
[0049] 図 6は、座標 (xl, yl)で示される或る注目画素 Tから座標 (x4, y4)で示される極値 画素 Mまでの走査経路例を示す模式図であり、図 7は、或る注目画素 Tに対してこの ような処理を繰り返す際の到達極値座標メモリ内の座標データの変化の様子を示す 模式図である。 1回目の判定の場合は、到達極値座標メモリ内には初期値としての注 目画素 T自身の座標 (xl , yl)が記憶されており、その後、輝度勾配方向のデータに 従って複数の画素を順次走査することで、その走査途中の画素の座標で到達極値 座標メモリが順次上書きされ、最終的に、 6回目の判定で極値画素 Mの座標(x4, y
4)を取得することが確認できる。
[0050] 或る 1つの注目画素での処理終了後は、細胞画像内の全画素が注目画素として処 理されたか否かの判定を行い(ステップ S 134)、未処理画素がある場合には順次注 目画素を設定してステップ S131〜S133の処理を繰り返し、未処理画素がない場合 には、極値画素取得部 102での全処理を終了する。このような処理の結果、細胞画 像内の各画素毎に、到達する極値画素の座標がメモリ 105内に記憶される。
[0051] 次に、領域特定部 103は、それぞれの画素が到達する極値画素の座標のデータを 基に、極値画素の座標が同一の画素に対して、その属する細胞領域の同一性を示 す領域識別標識として同一のラベルを付与し、ラベル画像を作成する処理を実行す る(ステップ S14)。すなわち、領域特定部 103は、それぞれの画素が属する領域を 特定するための領域識別標識としてのラベルを各画素毎に付与する。ここでは、極 値画素の座標が全く同一の画素を対象として、全く同一のラベルを付与するようにし ているが、必ずしも極値画素の座標が全く同一の画素のみを対象として全く同一のラ ベルを付与する必要はなぐ要は、極値画素の座標同士が所定の範囲内で近接して レ、る場合にその属する細胞領域の同一性を示し得るラベルを付与するようにすれば よい。例えば、輝度分布の頂上が 1つの画素のみで極値を示さないような平坦をなし 、隣接する複数の画素が同一輝度値でそれぞれ極値画素となるような場合には、到 達する極値画素の座標が異なってしまうが、これらの同一輝度値の複数の極値画素 の座標に到達した画素については同一性を示すラベルを付与すればよい。
[0052] 最後に、作成されたラベル画像の出力処理を実行し (ステップ S 15)、この画像処理 装置 100での領域を特定する処理は終了する。図 8— 1は、本実施の形態 1の画像 処理装置に対して入力される画像例を示し、図 35— 1に示した画像と同じ画像例を 示している。図 8— 2は、このような入力画像例が本実施の形態 1の画像処理装置に より処理されて出力されるラベル画像例を示している。この図より、円形でない対象物 の形状が良好に認識されていることがわかる。
[0053] なお、本実施の形態 1では、輝度差の最大値方向を輝度勾配方向とし、輝度極大 値を極値として処理しているが、これを逆転し、輝度差の最小値方向を輝度勾配方 向とし、輝度極小値を極値として処理してもよレ、。この場合には、グレースケール画像 の輝度エッジによる領域分割が行われる。このように変更し、図 35— 1の輝度値が反 転した画像である図 37_ 1の画像を入力した結果の出力は図 8_ 2の場合と同様に なる。ここで、図 37— 2、図 37— 3、図 8— 2に示される A部、 B部の認識形状を確認 すると、図 8_ 2では A部、 B部の両方の部位で良好な分割結果となっていることが確 認できる。これは、注目画素と隣接画素との間の距離差を考慮した補正を行い、輝度 勾配方向の情報を算出しているためである。
[0054] また、極値座標取得部 102での画素の走查により到達する極値画素の座標の取得 は、以下に示すような走查方法でもよい。まず、輝度勾配方向のデータを基に、極値 画素 Mに隣接する画素 T、及びこの画素 Τでの勾配方向を求める。この画素丁での 勾配方向が極値画素 Μに向いている場合には、この画素 Τが到達する極値画素の 座標を記憶するメモリ内に極値画素 Μの座標を記憶する。この極値画素 Μの座標を 取得した画素 Τに隣接する隣接画素 T'に対し、極値画素 Μ力 離れる方向に隣接 する画素 Τ''、及びこの画素 Τ での勾配方向を求める。この画素 Τ での勾配方 向が画素 T'に向いてレ、る場合には、この画素 T' 'が到達する極値画素の座標を記 憶するメモリ内に極値画素 Μの座標を記憶する。このような処理を、極値画素 Μの座 標を取得した隣接画素 T'がなくなるまで繰り返す。対象画像上の全ての極値画素に 対して、これらの処理を行うことで、各画素が到達する極値画素の座標を得ることが できる。
[0055] このように本実施の形態 1の画像処理装置は、細胞画像において個々の細胞領域 を認識することができる。また、グレースケール画像の微小な輝度エッジにより、各領 域を良好に分割することができる。
[0056] (実施の形態 2)
本実施の形態 2も、所定の座標系を実現する ΧΥ2次元座標系上に配置される複数 の画素の画素値としての輝度値に基づレ、て表現されるグレースケール画像、例えば 、細胞画像に対して画素が属する各細胞領域を特定する処理を行う画像処理装置 への適用例を示す。本実施の形態 2でも、細胞画像として、図 35— 1に示したように、 細胞内部に向かって輝度値が大きくなるグレースケール画像を想定する。ただし、実 施の形態 1で示したように、勾配方向や極値を逆転することにより微小な輝度エッジ による領域分割処理にも適用できる。
[0057] 図 9は、本実施の形態 2の画像処理装置の構成例を示す概略ブロック図である。本 実施の形態 2の画像処理装置 200は、各部での処理の対象となる画素(以下、適宜「 有効画素」という)を選択する処理範囲選択部 201と、有効画素間における輝度値の 変化の傾向を示す勾配情報としての輝度勾配方向を算出する勾配情報算出部 202 と、有効画素中の複数の画素から選択した画素を注目画素として設定し、この注目 画素から輝度勾配方向に従って画素の走查を行レ、、走査した画素の輝度値が極値 を示す位置の座標を注目画素に対応する極値画素の座標として取得する極値座標 取得部 203と、有効画素が属する領域を特定するための領域識別標識としてのラベ ルを注目画素に対して付与する領域特定部 204と、注目画素の輝度値、及び注目 画素に対応する極値画素の輝度値の少なくとも一方に基づいて、領域特定部 204に よるラベルの付与を制御する識別付与制御部 205とを備えるマイクロコンピュータ構 成の制御部 206と、入力された画像及び各部で利用するデータを保持しておくメモリ 207とから構成されている。
[0058] ここで、極値座標取得部 203は、複数の有効画素中の各画素を注目画素として順 次設定し、複数の有効画素中の各画素に対応する極値画素の座標を取得する。領 域特定部 204は、異なる有効画素に対応する極値画素の座標同士が所定の範囲内 で近接しているときに、この異なる有効画素それぞれに対してこの有効画素が属する 領域の同一性を示す領域識別標識を付与する。なお、処理対象である細胞画像の 入力構成や、出力後のラベル画像の処理構成に関しては本実施の形態 2では特に 限定しない。
[0059] 図 10は、本実施の形態 2の画像処理装置 200により実行される処理の流れを示す 概略フローチャートである。まず、画像処理装置 200に入力された細胞画像を取得し メモリ 207に蓄える処理を実行する(ステップ S21)。次に、処理範囲選択部 201は、 この細胞画像中から処理すべき対象となる有効画素を選択する処理を実行する(ス テツプ S22)。細胞画像においては、輝度値が十分に小さい背景領域は不要な領域 であり、この部分を省いて認識対象である細胞領域のみに以後の各部での処理を行 うことで処理の高速化が図れる。このため、背景領域と細胞領域とを分けるための閾 値を設定し、この閾値と各画素の輝度値とを比較することによって、細胞領域の画素 のみを有効画素として選択する。
[0060] なお、この閾値は画像内の位置に応じて変化させてもよいし、画像内で共通であつ てもよレ、。また、事前に静的に設定してもよいし、画像を基に動的に算出してもよい(( 参考):東京大学出版会:画像解析ハンドブック:高木幹夫、下田陽久、監修: 502P、 2値化)。また、外部より与えて処理する構成としてもよレ、。このためには、例えば、勾 配情報算出部 202、極値座標取得部 203及び領域特定部 204による処理の対象と なる画素が位置する範囲を定めるための処理範囲指定パラメータの入力を外部から 受け付ける入力部 208を備え、処理範囲選択部 201では、入力部 208で受け付けた 処理範囲指定パラメータに基づいて、勾配情報算出部 202、極値座標取得部 203 及び領域特定部 204による処理の対象となる画素が位置する範囲を選択するように 構成すればよい。
[0061] 有効画素が選択された後、勾配情報算出部 202は、この細胞画像内の各有効画 素間の輝度勾配方向を算出し、算出された輝度勾配方向のデータをメモリ 207に記 憶する処理を実行する(ステップ S23)。この場合の勾配情報算出部 202での処理の 流れは、実施の形態 1で示した図 3の場合と基本的に同様である。ただし、ステップ S 127では、画像内の全画素ではなぐ有効画素の全画素が処理されたか否かを判定 する。
[0062] 次に、極値座標取得部 203は、各有効画素を順次注目画素とした場合に、走査に より到達する極値画素の座標を取得し、メモリ 207に記憶する処理を実行する(ステツ プ S24)。図 11は、極値座標取得部 203により実行されるこのステップ S24のサブル 一チンの処理例を示す概略フローチャートである。最初に、説明の簡略化のために、 X座標系のみの 1次元に配置される画素列を対象として説明する。極値座標取得部 203は、まず、各有効画素中で順次設定される注目画素到達する極値画素の座標 を記憶するための到達極値座標メモリ(メモリ 207内に存在する)に、各有効画素自 身の座標を書き込む (ステップ S241)。そして、処理対象となる注目画素 Tとして、有 効画素中で最も X座標が小さい画素を設定する(ステップ S242)。
[0063] 次に、勾配情報算出部 202で得た輝度勾配方向のデータを基に、注目画素 Tの到 達極値座標メモリ内の座標位置が極値画素であるか判定する(ステップ S243)。半 IJ 定の結果、極値画素でない場合には、注目画素 Tの到達極値座標メモリ内の座標位 置での輝度勾配方向を輝度勾配方向のデータより求め、この勾配方向に隣接する 画素の到達極値座標メモリ内の座標を参照し、この参照した座標で、注目画素丁の 到達極値座標メモリ内の座標を上書きする(ステップ S244)。上書き後、及びステツ プ S243での判定の結果が極値画素であった場合は、注目画素 Tが有効画素中で 最も X座標が大きい画素であるか判定する(ステップ S245)。ステップ S245の結果 力 Noである場合は、処理対象となる注目画素 Tを有効画素中で X座標の順方向に 1つずらして設定し (ステップ S246)、ステップ S243以降を繰り返す。
[0064] ステップ S245の結果力 Yesである場合、つまり、注目画素 Tが有効画素中で最も X座標が大きい画素である場合、勾配情報算出部 202で得た輝度勾配方向のデー タを基に、注目画素 Tの到達極値座標メモリ内の座標位置が極値画素であるか判定 する(ステップ S247)。判定の結果、極値画素でない場合には、注目画素 Tの到達 極値座標メモリ内の座標位置での輝度勾配方向を輝度勾配方向のデータより求め、 この勾配方向に P 接する画素の到達極値座標メモリ内の座標を参照し、この参照し た座標で、注目画素 Tの到達極値座標メモリ内の座標を上書きする(ステップ S248)
[0065] 上書き後、及びステップ S247での判定の結果が極値画素であった場合は、注目 画素 Tが有効画素中で最も X座標が小さい画素であるか判定する(ステップ S249)。 ステップ S249の結果力 Noである場合は、処理対象となる注目画素 Tを有効画素 中で X座標の負方向に 1つずらして設定し (ステップ S250)、ステップ S247以降を繰 り返す。そして、ステップ S249の結果力 Yesである場合、つまり、注目画素 Tが有効 画素中で最も X座標が小さい画素である場合、極値画素取得部 203での処理を終 了する。
[0066] この処理では、実施の形態 1の図 5で示した極値画素の座標の取得処理を、有効 画素に対して行ったのと同様の結果を得るが、本実施の形態 2では、特に、隣接画 素が到達する極値画素の座標データを参照しているので、より一層の処理の高速化 を図れる。図 12は、この効果を説明するための模式図である。ここでは、上述の説明 と同様に 1次元での例として説明する。図 12上欄に示す輝度データ例では、その各 座標:!〜 15の画素における輝度勾配方向のデータは図に示す通りとなり、座標 5, 1 2の画素が極値画素を示す。ここで、実施の形態 1で説明した処理ステップにより到 達する極値画素の座標を取得すると、座標 1の画素では、輝度勾配方向に沿って極 値座標メモリ内の値が 2, 3, 4と変化し、 4回目で到達する極値画素の座標 5を取得 する。他の画素に関しても極値画素からの距離に相当する回数だけ処理することで 到達する極値画素の座標を取得する。このような処理の結果、全体としては 30回のメ モリの上書きが必要である。 [0067] 一方、本実施の形態 2で説明した処理ステップにより到達する極値画素の座標を取 得する場合、図中の矢印 A方向(座標正方向)に処理対象となる注目画素を順次変 えながら処理すると(ステップ S242〜S246)、座標 1〜6, 10〜: 13の画素に関して は、実施の形態 1の処理ステップでの各画素の 1回目の走查結果と同じであるが、他 の座標 7〜9, 14〜: 15の画素に関しては、先に到達する極値画素の座標を得た隣 接画素の結果を順次参照しているため、 1回目の処理にもかかわらず到達する極値 画素の座標を即座に取得できる。続いて、 2回目の走查は、図中の矢印 B方向(座標 負方向)に処理対象となる注目画素を順次変えながら処理すると(ステップ S247〜S 250)、全ての画素に対して到達する極値画素の座標が得られる。このような処理に よれば、 1回の往復処理で済むこととなり、全体としては 17回のメモリの上書きで済み 、実施の形態 1の方法よりも、より一層高速な処理が可能となる。
[0068] ここで、図 11及び図 12は、簡略化のため、 X座標系のみの 1次元の処理例を示し たが、本実施の形態 2で実際に扱う細胞画像は例えば XY2次元座標系上の画像で ある。そこで、図 13に、極値座標取得部 203により実行される 2次元座標系上の画像 に対する処理例の概略フローチャートを示す。ここで、ステップ S241、 S243、 S244 、 S247、 S248は、図 11に示す同一番号の各ステップと同様の処理である。図 13の ステップ S242a、 S245a、 S246a、 S249a、 S250aiま、図 11に示すステップ S242、 S245、 S246、 S249、 S250【こネ目当する処理であり、図 11の処理で X座標 ίこ対して 行った処理と同様の処理を、ラスター走査順序に対して行う。すなわち、ステップ S2 42aでは、有効画素中で最もラスター走査順序が早い画素を注目画素 Tとして設定 し、ステップ S245aでは、注目画素 Tが、最もラスター走査順序が遅い画素であるか を判定し、ステップ S246aでは、注目画素 Tを有効画素中でラスター走查順序の順 方向に 1つずらして設定し、ステップ S249では、注目画素 Tが、最もラスター走查順 序が早い画素であるか判定し、ステップ S250aでは、注目画素 Tを有効画素中でラ スター走查順序の逆方向に 1つずらして設定する。
[0069] なお、ステップ S242、 S245、 S246、 S249、 S250の各ステップ中に示すラスター 走查順序とは、走查起点画素と同一の Y座標である画素列を X座標の値が大きくな るように順次走査し、同一 Y座標の画素列内で最も X座標が大きい画素まで走査した 後は、 Y座標を正方向に 1つずらし、当該 Υ座標と同一の Υ座標の画素列内で、最も X座標が小さレ、画素から最も X座標が大きレ、画素まで順次走査してレ、くとレ、う走査順 序である。また、画像においては、左上端を座標原点とし、画像右方向を X座標の正 方向、画像下方向を Υ座標の正方向とする。
[0070] 1次元の処理原理に基づき、ステップ S242a〜S246aにおレ、て、有効画素を順方 向に処理した後、今度はステップ S247〜S250aにおいて、有効画素を逆方向に処 理する。
[0071] その後、ステップ S251において、全有効画素分に対して到達する極値画素の座 標が取得されたか否かを判定し、取得された場合には、極値座標取得部 203での処 理を終了する。一方、全有効画素に対して到達する極値画素の座標が取得されてい ない場合には(ステップ S251 , No)、ステップ S242aの処理に戻る。
[0072] つまり、対象となる画像が図 14に示すような XY2次元座標系の場合は、上述したよ うに、ステップ S242a〜S246aに従レ、図 15 (a)に模式的に示すような走査を行レ、、 引き続き、ステップ S247〜S250aに従い図 15 (b)に模式的に示すような走査を行 レ、、その後、全有効画素に対して到達する極値画素の座標が得られるまで、同様に 、ステップ S242a〜S246aに従い図 15 (c)に模式的に示すような走査を行い、引き 続き、ステップ S247〜S250aに従い図 15 (d)に模式的に示すような走査を繰り返し て行えばよい。
[0073] ここで、 2次元の場合、上下方向や斜め方向の勾配方向を含むため、 1次元の場合 のように 1往復走査のみでは必ずしも収束しない、すなわち、全ての注目画素に対し て到達する極値画素の座標は得られないが、本発明者らの実験によれば、図 13に 示すステップ S242a〜S250aの処理を 2回繰り返すことにより、収束することが経験 的に見出されている。これは、図 15 (a)〜(d)に示す 2往復処理を 1回だけ行うことに 相当する。
[0074] このようにして、各有効画素が到達する極値画素の座標のデータを得た後、識別付 与制御部 205は、有効画素の輝度値 VI、及びその有効画素が到達する極値画素 の輝度値 V2を基に、その画素に領域識別標識となるラベルを付与するか否力、を決 定する処理を実行する(ステップ S25)。具体的な方法としては以下の方法がある。 [0075] a.輝度値 V2と閾値 Tlとを比較し、輝度値 V2が閾値 T1以上の場合には、ラベル を付与することにする。これにより、輝度値の大きい極値画素の座標に到達する画素 群がラベル付与対象となり、画像内の明るい細胞領域のみが認識される。ここで、閾 値 T1は静的に与えてもよいし、極値画素のみの輝度値分布を基に判別分析法等に より動的に算出してもよい。また、逆に、閾値 T1以下の場合にラベルを付与すること にすれば、薄暗い細胞領域が認識される。
[0076] b.輝度値 V2を基に閾値 T2= ひ V2 + /3 (ひ、 βは係数)を算出し、輝度値 VIがこ の閾値 Τ2以上の場合には、ラベルを付与することにする。これにより、明るい細胞と、 暗い細胞とで領域の端を決定する閾値 Τ2を適応的に変更することができる。
[0077] なお、処理法や閾値などラベルの付与を制御するパラメータは外部より与えて処理 する構成としてもよい。このためには、例えば、領域特定部 204によるラベルの付与 を制御する識別付与パラメータの入力を外部から受け付ける入力部 208を備え、識 別付与制御部 205は、この入力部 208で受け付けた識別付与パラメータに基づいて 領域特定部 204によるラベルの付与を制御するように構成すればよい。
[0078] 次に、領域特定部 204は、それぞれの有効画素が到達する極値画素の座標のデ ータを基に、極値画素の座標が同一の有効画素に対して、その属する細胞領域の 同一性を示す領域識別標識として同一のラベルを付与し、ラベル画像を作成する処 理を実行する (ステップ S26)。すなわち、領域特定部 204は、それぞれの有効画素 が属する領域を特定するための領域識別標識としてのラベルを各有効画素毎に付 与する。ここでは、極値画素の座標が全く同一の画素を対象として、全く同一のラベ ルを付与するようにしている力 必ずしも極値画素の座標が全く同一の有効画素の みを対象として全く同一のラベルを付与する必要はなぐ要は、実施の形態 1の場合 と同様に、極値画素の座標同士が所定の範囲内で近接している場合にその属する 細胞領域の同一性を示し得るラベルを付与するようにすればょレ、。
[0079] 最後に、作成されたラベル画像を出力する処理を実行し (ステップ S27)、この画像 処理装置 200での処理は終了する。図 16— 1は、本実施の形態 2の画像処理装置 2 00に対して入力される画像例を示し、図 35 _ 1に示した画像と同じ画像例を示して いる。図 16— 2は、このような入力画像例が本実施の形態 2の画像処理装置 200に より処理されて出力されるラベル画像例を示している。ここでは、極値が最も明るい認 識対象のみにラベルを付与している。
[0080] このように、本実施の形態 2の画像処理装置は、細胞画像において高速に個々の 細胞領域を認識することができる。また、グレースケール画像において各領域を高速 に分割することができる。
[0081] (実施の形態 3)
本実施の形態 3も、所定の座標系を実現する XY2次元座標系上に配置される複数 の画素の画素値としての輝度値に基づレ、て表現されるグレースケール画像、例えば 、細胞画像に対して、画素が属する各細胞領域を特定する処理を行う画像処理装置 への適用例を示す。本実施の形態 3でも、細胞画像として、図 35— 1に示したように、 細胞内部に向かって輝度値が大きくなるグレースケール画像を想定する。ただし、実 施の形態 1で示したように、勾配方向や極値を逆転することにより微小な輝度エッジ による領域分割処理にも適用できる。
[0082] 図 17は、本実施の形態 3の画像処理装置の構成例を示す概略ブロック図である。
本実施の形態 3の画像処理装置 300は、実施の形態 2の処理範囲選択部 201、勾 配情報算出部 202、極値座標取得部 203、識別付与制御部 205、領域特定部 204 とそれぞれ同機能を果たす処理範囲選択部 301、勾配情報算出部 302、極値座標 取得部 303、識別付与制御部 305、領域特定部 306と、極値画素の座標を統合する 極値座標統合部 304と、ラベル領域境界付近における細胞画像情報を基にラベル 領域の統合を行う領域統合部 307とを備えるマイクロコンピュータ構成の制御部 308 と、入力された画像及び各部で利用するデータを保持しておくメモリ 309とから構成さ れている。
[0083] ここで、極値座標統合部 304は、複数の画素それぞれに対応する極値画素の座標 が所定の範囲内にあるときに、これらの複数の極値画素の座標を統合した新たな極 値画素の座標を算出して、この新たな極値画素の座標を統合前の極値画素に対応 する座標として取得する。領域特定部 306は、極値座標統合部 304で取得した極値 画素の座標に基づいて、ラベルを注目画素に対して付与する。領域統合部 307は、 異なるラベルで特定される隣り合う領域に属しこの領域同士の境界近傍に位置する 画素の輝度値が所定の条件を充たしてレ、るか否かを判定し、この所定の条件を充た している場合にこの隣り合う領域に対して共通のラベルを付与する。なお、処理対象 である細胞画像の入力構成や、出力後のラベル画像の処理構成に関しては本実施 の形態 3では特に限定しない。
[0084] 図 18は、本実施の形態 3の画像処理装置 300により実行される処理の流れを示す 概略フローチャートである。ここで、ステップ S31〜S34, S36, S39の処理は、図 10 に示したステップ S21〜S24, S25, S27の処理と同様であり、ステップ S35, S37, S38に関して以下に説明する。
[0085] 極値座標取得部 303によって各有効画素が到達する極値画素の座標データが得 られた後、極値座標統合部 304は、各極値画素の座標間の距離を基にこれらの極 値画素の座標を統合する処理を実行する(ステップ S35)。これは一種のクラスタリン グ処理であり、既に公知の様々なクラスタリング手法を用いることで実現できる。例え ば、任意の 2つの極値画素の座標間の距離を算出し、この距離が所定の閾値より小 さい場合に、これらの 2つの極値画素の座標を統合し、その後、どちらかの画素(例え ば、輝度値の大きい方の画素)、又は 2つの画素の中点位置の画素を、次の距離算 出時の代表極値画素の座標として用いて、他の極値画素の座標との距離を算出し、 これを閾値と比較して再度統合するというように順次処理していく方法などがある。本 処理の目的は、 1つの認識対象領域内に複数の極値が存在する場合に生じる過分 割認識を防ぐことにある。いずれのクラスタリング手法を用いる場合でも、極値画素間 の距離定義が、統合における重要な要素となる。以下に、統合において有効と考え られる距離定義を幾つか示す。
[0086] a.画像内の任意の 2つの極値画素間の 2次元距離。この距離は、例えば図 19に 示す距離 Aが相当する。
b.輝度値を高度とみなした場合の任意の 2つの極値画素間の 3次元距離。この距 離は、例えば図 19に示す距離 Bが相当する。
c輝度値を高度とみなした場合の任意の 2つの極値画素間の道のり距離。この距 離は、例えば図 19に示す距離 Cが相当する。
[0087] なお、 2つの極値画素間においてこれらの 2つの極値画素以外に到達する画素が 存在する場合には、これらの 2つの極値画素の座標を統合しない等の処理を加えて もよレ、。また、処理法や閾値など極値画素の座標の統合を制御するパラメータは事 前に静的に設定してもよいし、画像等を基に動的に設定してもよい。また、外部より与 えて処理する構成としてもよい。このためには、例えば、所定の座標範囲を定めるた めの極値座標統合パラメータの入力を外部から受け付ける入力部 310を備え、極値 座標統合部 304は、入力部 310で受け付けた極値座標統合パラメータに基づいて 新たな極値画素の座標を算出するように構成すればよい。
[0088] 極値画素の座標の統合の後、識別付与制御部 305での処理ステップ S36を終える と、領域特定部 306は、統合後の到達極値画素の座標が同一のラベル付与対象画 素を同一ラベルとするラベル画像を作成する処理を実行する(ステップ S37)。
[0089] 図 20は、極値画素の座標統合前の結果に基づくラベル付与による領域認識結果 と、極値画素の座標統合後の結果に基づくラベル付与による領域認識結果とを併せ て示す図である。図 20に示すような輝度データに対する所望の認識結果は、極値 3 , 4の間の輝度値の谷を境に 2つの領域を認識することである。ここで、極値画素の座 標統合前の結果に基づく領域認識結果では、領域 1〜領域 5で示す 5つの領域を認 識しており、過分割認識の状態である。一方、極値座標統合後の結果に基づく領域 認識結果では、座標間の距離が近い極値 1 , 2, 3と、極値 4, 5がそれぞれ統合され 、これにより領域 1, 2, 3は新たな領域 Γに、領域 4, 5は新たな領域 2Ίこなり、所望 の認、識結果となっている。
[0090] このようなラベル画像作成後、領域統合部 307は、各ラベル領域境界付近におけ る細胞画像情報を基にラベル領域を統合し、ラベル画像を更新する処理を実行する (ステップ S38)。本処理の目的は、緩やかな輝度値の谷により過分割されたラベル 領域を統合することにある。例えば、図 21— 1の中央に示す認識対象のように認識 対象内部に緩やかな輝度値の谷がある場合、対象内に複数の極値が存在すること になる力 極値画素の座標間の距離によっては前述の極値座標統合部 304の処理 だけでは良好に統合できなレ、。このため、図 21— 2の領域 1, 2のように分割して認識 される。なお、ラベル境界 A, Bにそれぞれ垂直な方向の細胞画像での輝度変化は、 それぞれ図 21— 3、図 21—4に示すように V字の程度の異なる変化となる。そこで、 領域統合部 307は、以下に示す方法等によりラベル領域を統合する。
[0091] a.任意のラベル境界部の細胞画像においてエッジ抽出を行い、この出力の総和を ラベル境界の長さで正規化した値と閾値とを比較し、閾値以下の場合にはラベル境 界で分けられるラベル領域を統合する。ここで、エッジ抽出は、輝度値の 1次微分や 2次微分を利用する一般的なエッジ抽出フィルタを用いる方法でよい。
[0092] b.任意のラベル境界上の画素 bの輝度値 Vbと、この画素 bに対してラベル境界に 垂直で相反する方向に距離 Xだけ離れた 2つの画素 nl, n2の輝度値 Vnl , Vn2を 用いて、
El =Vnl +Vn2- 2 X Vb
なる式により算出される指標値 Elを、境界全域に渡って算出し、この平均値と閾値と を比較し、閾値以下の場合にはラベル境界で分けられるラベル領域を統合する。図 22— 1は、このような指標値算出に用いる画素 b, nl , n2の例を示す説明図である。 指標値 E1の代わりに、指標値 Ediff¾r用いることもできる。すなわち、
Ediff= I Vnl -Vn2 |
なる式により算出される指標値 Ediff¾r、境界全域に渡って算出し、この平均値と閾値 とを比較し、閾値以下の場合にはラベル境界で分けられるラベル領域を統合する。
[0093] c前述の画素 b, nl , n2の輝度値を考慮した方向ベクトル Vnl_bと Vn2_bとがな す角 Θを、境界全域に渡って算出し、この平均値と閾値とを比較し、閾値以上の場 合にはラベル境界で分けられるラベル領域を統合する。図 22— 2は、このような統合 指標値に関する説明図である。
[0094] d.隣接したラベル領域の境界部(ラベル境界)におレ、て、ラベル境界の両端部に おけるラベル領域 1とラベル領域 2の輪郭線の交角ひ及び /3を算出し、これらの平均 値を類似度とする。類似度が閾値以上の場合には前記隣接したラベル領域を統合 する。図 23は、このようなラベル領域統合時の類似度例に関する説明図である。 この場合、輪郭線交角ひや輪郭線交角 βの算出方法としては、種々の方法が考え られる。例えば、ラベル境界の端点であるような画素 Α (又は画素 Β)と、画素 A (又は 画素 から所定の距離 L (例えば数画素分の距離)離れた輪郭 1及び輪郭 2上の各 画素とを結んだ線分によって形成される角度を輪郭線交角ひ(又は輪郭線交角 β ) として算出すること力 Sできる。
さらには、所定の距離 Lを種々変化させて複数種類の輪郭線交角 a i (又は輪郭線 交角 i)を算出して、これらの複数の輪郭線交角 ct i (又は輪郭線交角 j3 i)の平均値 を輪郭線交角ひ(又は輪郭線交角 β )として算出することもできる。
また、平均値の代わりに最小値、最大値、中間値を求め、これを輪郭線交角 a (又 は輪郭線交角 β )として採用しても良い。
処理対象とする物体の輪郭が概略外向きに凸であると仮定すると、輪郭線交角ひ ( 又は輪郭線交角 )が 180度より小さい場合、それは単独の物体の輪郭によるもの ではなぐ 2つの物体が接触して存在し、前記ラベル境界が物体境界に一致している 状態と考えられる。逆に、輪郭線交角ひ(又は輪郭線交角 /3 )が 180度より大きい場 合、それは単独の物体に対し、誤って 2つのラベル領域を割り当ててしまった状態と 考えられる。前者、すなわち類似度の小さい場合は 2つをそのまま残し、後者、すな わち類似度が大きい場合は 2つのラベル領域を統合すると良い。
実際には輪郭線交角 αと輪郭線交角 βの平均値を閾値と比較し、閾値以上であつ た場合にラベル領域を統合する。 aと βの平均値の代わりに、最小値あるいは最大 値を閾値との比較に用いても良レ、。
[0095] なお、処理法や閾値などラベル領域の統合を制御するパラメータは事前に静的に 設定してもよいし、画像等を基に動的に設定してもよい。また、外部より与えて処理す る構成としてもよい。このためには、例えば、所定の条件を充たしているか否かを判定 するための領域統合パラメータの入力を外部から受け付ける入力部 310を備え、領 域統合部 307は、入力部 310で受け付けた領域統合パラメータに基づいて所定の 条件を充たしてレ、るか否力 ^判定するように構成すればょレ、。
[0096] 以上の処理により、統合されたラベル領域には同じラベルを付与することで、ラベル 画像を更新する。なお、全く同一ラベルでなくてもよぐ同一性を示すラベルを付与す ればよい。最後に、更新後のラベル画像を出力する処理を実行し (ステップ S 39)、こ の画像処理装置 300での処理は終了する。図 24— 1は、本実施の形態 3の画像処 理装置 300に対して入力される画像例を示し、図 24— 2は、このような入力画像例が 本実施の形態 3の画像処理装置 300により処理されて出力されるラベル画像例を示 す図である。ここでは緩やかな輝度値の谷で分割されたラベル領域を統合してレ、る。
[0097] 前記 a〜dのラベル領域統合手順をそれぞれ単独で用いても良いが、複数の手順 を組み合わせて用いれば、さらに精度よくラベル領域を統合することができる。例え ば、 a〜dの手順において閾値との比較対象となる数値をそれぞれの指標値とすると 、指標値の重み付き総和、最小値、最大値、平均値、中間値のいずれかを総合指標 値として求め、総合指標値を閾値と比較して、ラベル領域を統合するか否かを決定 するようにしても良い。
[0098] このように本実施の形態 3の画像処理装置 300は、細胞画像において過分割認識 を抑え、個々の細胞領域を認識することができる。また、グレースケール画像におい て過分割を抑え、各領域を分割することができる。
[0099] (実施の形態 4)
本実施の形態 4も、所定の座標系を実現する XY2次元座標系上に配置される複数 の画素の画素値としての輝度値に基づレ、て表現されるグレースケール画像、例えば 、細胞画像に対して、画素が属する各細胞領域を特定する処理を行う画像処理装置 への適用例を示す。本実施の形態 4でも、細胞画像として、図 35— 1に示したように、 細胞内部に向かって輝度値が大きくなるグレースケール画像を想定する。ただし、実 施の形態 1に示したように、勾配方向や極値を逆転することにより微小な輝度エッジ による領域分割処理にも適用できる。
[0100] 図 25は、本実施の形態 4の画像処理装置の構成例を示す概略ブロック図である。
本実施の形態 4の画像処理装置 400は、実施の形態 3に示した各部 301〜307に相 当する各部 404〜410にカロえて、グレースケール画像のシェーディングを補正するた めのシェーディング補正部 401、グレースケール画像上での輪郭を強調するための 輪郭強調部 402、グレースケール画像上での濃淡を滑らかにするための平滑化処理 を行う平滑化部 403を備えるマイクロコンピュータ構成の制御部 411を有する。 412 は入力された画像及び各部で利用するデータを保持しておくメモリである。
[0101] 図 26は、本実施の形態 4の画像処理装置 400により実行される処理の流れを示す 概略フローチャートである。ここで、ステップ S41, S45〜S52の処理に関しては、実 施の形態 3中で説明したステップ S31 , S32〜S39の処理と同様であり、ステップ S4 2〜S44について以下に説明する。
[0102] まず、シェーディング補正部 401は、入力された細胞画像のシェーディングの補正 処理を実行する (ステップ S42)。背景輝度のばらつきを補正するこのシェーディング 補正には様々な方法がある力 ここでは、モルフォロジ一処理の一つであるトップハツ ト処理((参考):コロナ社:モルフォロジ一:小畑秀文著)を用いてシェーディング補正 を行う例を示す。手順としては、まず、細胞画像に対して濃淡 opening処理を施す。濃 淡 Opening処理とは、輝度値を高度とみなした 3次元空間において、構造要素と呼ば れる基準図形を対象画像の輝度値の小さい方から外接させて移動した際に構造要 素の外周の最大値が通過する軌跡を得る処理に相当する(図 27 (a) (b)参照)。適 切な構造要素を設定することにより、背景の輝度の低周波ばらつきのみを抽出するこ とができる(図 27 (c)参照)。次に、この濃淡 Opening処理画像を、元の細胞画像より 差し引く。結果として背景輝度のばらつきが補正され、細胞領域を示す輝度変化の みが残る画像が得られる(図 27 (d)参照)。
[0103] なお、構造要素などシェーディング補正を制御するパラメータは事前に静的に設定 してもょレ、し、画像等を基に動的に設定してもよい。また、外部より与えて処理する構 成としてもよレ、。このためには、例えば、グレースケール画像のシェーディングを補正 するためのシェーディングパラ補正メータの入力を外部から受け付ける入力部 413を 備え、シェーディング補正部 401は、入力部 413で受け付けたシェーディング補正パ ラメータに基づいてグレースケール画像のシェーディングを補正するように構成すれ ばよい。
[0104] 次に、輪郭強調部 402は、シェーディング補正後の画像内の輪郭部を強調する処 理を実行する (ステップ S43)。細胞が重なり合う場所では、その重なり方によっては 図 28 (a)に示すように境界部分に輝度値の谷ができない場合がある。そこで、このよ うな部分に明確な輝度値の谷を作成するために、本処理を行う。手順としては、まず 、シェーディング補正後の画像に対して図 28 (b)に示すようにエッジ抽出を行う。この 時のエッジ抽出は輝度値の 1次微分や 2次微分を利用する一般的なエッジ抽出フィ ルタを用いる方法でよい。次に、このエッジ抽出画像に係数ひを乗じて、図 28 ( に 示すように、元のシェーディング補正後の画像より差し引く。結果として、急激な輝度 値変化が生じてレ、た輪郭部分には、細胞境界となる輝度値の谷が作成される。
[0105] なお、エッジ抽出法や係数など輪郭強調を制御するパラメータは事前に静的に設 定してもよいし、画像等を基に動的に設定してもよい。また、外部より与えて処理する 構成としてもよレ、。このためには、例えば、グレースケール画像上で領域の輪郭を強 調するためのエッジ強調パラメータの入力を外部から受け付ける入力部 413をさらに 備え、輪郭強調部 402は、入力部 413で受け付けたエッジ強調パラメータに基づい てグレースケール画像上で領域の輪郭を強調するように構成すればょレ、。
[0106] 次に、平滑化部 403は、輪郭強調後の画像を平滑化する処理を実行する(ステップ S44)。平滑化の目的は、図 28 (d)に示すように、入力細胞画像に元々存在したノィ ズゃ、以後の各処理により生じたノイズを除去することにある。この平滑化処理は、既 に公知の様々な平滑化フィルタを用いることで実現できる。
[0107] なお、平滑化を制御するパラメータは事前に静的に設定してもよいし、画像等を基 に動的に設定してもよい。また、外部より与えて処理する構成としてもよい。このため には、例えば、平滑化処理を行うための平滑化パラメータの入力を外部から受け付 ける入力部 413を備え、平滑化部 403は、入力部 413で受け付けた平滑化パラメ一 タに応じて平滑化処理を行うように構成すればよい。
[0108] 上述の処理ステップ S42〜S44を経た画像に対して、実施の形態 3と同様の処理 ステップ S45〜S52を実行することによりラベル画像を作成して出力する。
[0109] このように、本実施の形態 4の画像処理装置 400は、背景輝度のばらつきが存在し たり、細胞重なりが存在したりする細胞画像に対しても、個々の細胞領域を認識する こと力 Sできる。また、背景輝度のばらつきが存在するグレースケール画像においても、 各領域を分割することができる。
[0110] (実施の形態 5)
図 29は、本発明の実施の形態 5を示す概略構成図である。本実施の形態 5は、例 えば実施の形態 4に示した構成に加えてグレースケール画像の画像データを取得す る撮像部 502を備える画像処理装置 500を具備する顕微鏡システムに適用したもの である。具体的には、照明 504及び結像光学系 505を用いて、標本 506に対する所 望の拡大光学像を得る顕微鏡 501、顕微鏡 501により得た光学像を光電変換して電 子画像を得る撮像部 502、電子画像を処理して標本 506内の認識対象を認識する 制御部 503、ラベル付与までの処理過程の画像やラベル付与までの処理に用いる パラメータを表示する表示部 507、各種パラメータ等の入力、その他の入力を受け付 ける入力部 508、及び入力された画像及び各部で利用するデータを保持しておくメ モリ 509から構成されている。
[0111] ここで、顕微鏡 501及び撮像部 502は、既に公知の技術により実現できる。また、 電子画像とは、実施の形態 4におけるグレースケール画像に相当し、制御部 503の 機能は、実施の形態 4で説明した制御部 411と同様であり、実施の形態 4に示した各 部 40:!〜 410に相当する各部 510〜519を有する他、さらに、領域特定部 518で付 与したラベルで特定される領域の性質を示す領域パラメータを求める領域パラメータ 算出部 520を備える。表示部 507は、画像処理装置 500におけるラベル付与までの 各処理過程の画像やラベル付与までの処理に用いるパラメータを必要に応じて表示 する。また、本実施の形態 5では、表示部 507は、領域パラメータ算出部 520で求め た領域パラメータを表示する領域パラメータ表示部としても機能する。入力部 508は オペレータによる各種入力操作を受け付ける。
[0112] 図 30〜図 32は、表示部 507に表示される処理過程の画像例を示す。図 30は、顕 微鏡 501及び撮像部 502により得られる細胞画像の例であり、画像処理装置 500へ の入力画像である。図 31は、図 30の画像を処理する過程において、画像処理装置 500内の処理範囲選択部 513により選択された細胞領域を明部として示した画像で ある。すなわち、表示部 507は、少なくとも、処理範囲選択部 513により選択した画素 の範囲を区別する画像を表示する。また、図 32は、図 30の画像を処理し、最終的に 各細胞の領域をラベリングした結果を示した画像である。すなわち、表示部 507は、 少なくとも、領域特定部 518で付与したラベルで特定される領域を区別する画像を表 示する。
[0113] なお、ラベル画像の作成後、領域パラメータ算出部 520は、領域特定部 518で付 与したラベルで特定される領域の性質を示す領域パラメータを求め、表示部 507で は、求めた領域パラメータを表示する処理を実行する。
[0114] ここで、領域の性質を示す領域パラメータとは、対象領域の大きさに関する数値、 形状に関する数値、位置に関する数値、輝度や色に関する数値、領域間の比率に 関する数値、個数に関する数値、領域の集合に関する数値、などを意味する。対象 領域の大きさに関する数値とは、面積、長さ、幅、最大 ·最小 '平均直径、最大 '最小 •平均半径、周囲長、包絡周囲長、楕円周囲長、長軸 ·短軸長、最大 ·最小 ·平均フ エレ径、外接四角形面積比、凸周囲長、などを意味する。領域の形状に関する数値 とは、縦横比、半径比、円形度、オイラー数、扁平度、フラクタル次元、枝数、端点数 、ラフネス数、などを意味する。領域の位置に関する数値とは、位置重心、濃度重心 、外接四角形位置、傾き、などを意味する。領域の輝度や色に関する数値とは、最大 •最小 ·平均濃度、濃度総和、分散、標準偏差、積分光学濃度、塊状度、不均質性、 辺縁度、などを意味する。領域の個数に関する数値とは、領域数、穴の数、などを意 味する。領域の集合に関する数値とは、領域クラス、最大 '最小'平均領域間距離、 相対距離、分散、走行性、などを意味する。これらのパラメータを参照することにより、 個々の細胞の集まりや広がり、接触状態、細胞のコロニーなどを認識することができ る。ノ メータは、これらの 2次元的な数値に限定される必要はなぐ上記以外の領域 力 算出される数値や、ラインプロファイルなどの 1次元的な数値、濃度分布などの 3 次元的な数値であってもよい。
[0115] 領域パラメータ算出部 520において算出されたパラメータは、領域パラメータ表示 部 412へ転送され、この求められた領域に関するパラメータに基づいて、領域の抽出 結果を表示する。この表示は、抽出されたそれぞれの領域を、異なる明るさや色で表 示する、領域の輪郭を線で表示する、重心の位置に印を表示する、など画像データ として表示する。ただし、それぞれの領域が識別できるような方法であれば、これらの 例示に限らない。また、それぞれの領域の位置や面積など、領域に関する数値デー タをパラメータとして表示しても構わなレ、。さらには、画像データと数値データとの一 方のみを表示するだけでなぐ両方を同時に表示したり、それぞれ切り替えて片方を 表示したりしてもよい。また、パラメータの内容に応じて表示形式を変更する、などし ても構わない。
[0116] 以上、本実施の形態 5によれば、顕微鏡標本を所望の条件で撮像した画像内より、 個々の細胞領域を認識することが可能である。また、処理過程の画像及びパラメータ を表示することにより、認識結果を速やかに確認することが可能である。
[0117] 以上、本発明の画像処理装置について数例挙げて説明したが、本発明の画像処 理装置と従来の細胞認識装置を組み合わせて使用してもよい。また、処理対象の細 胞画像、組織画像は、蛍光画像を用いてもよいし、蛍光画像、位相差画像、微分干 渉画像等を用いて作成してもよい。さらに、本発明の画像処理装置を、 AFM (原子 間力顕微鏡)の d印 th画像における微小管の認識や、標識された微小管分布領域の 認識などの用途に用いてもよい。また、多重標識された対象では、波長の異なる複数 のグレースケール画像を取得して処理してもよい。
[0118] また、前述の勾配情報算出部 101等の各部による処理手順は、あらかじめ用意さ れた領域特定プログラムをパーソナルコンピュータなどのコンピュータで実行すること により実現するようにしてもよい。この領域特定プログラムは、インターネットなどのネッ トワークを介して配布することもできる。また、この領域特定プログラムは、ハードディ スク、 FD、 CD-ROM, M〇、 DVDなどのコンピュータで読み取り可能な記録媒体 に記録され、コンピュータによって記録媒体から読み出されることにより実行すること あでさる。
産業上の利用可能性
[0119] 以上のように、本発明にかかる画像処理装置、顕微鏡システム、及び領域特定プロ グラムは、グレースケール画像における領域分割処理に有用であり、特に、細胞を撮 像した画像を基に各細胞の領域を認識する処理に適している。

Claims

請求の範囲
[1] 所定の座標系上に配置される複数の画素の画素値に基づレ、て表現されるグレース ケール画像に対して前記画素が属する領域を特定する処理を行う画像処理装置で あって、
前記画素間における画素値の変化の傾向を示す勾配情報を算出する勾配情報算 出手段と、
前記複数の画素から選択した画素を注目画素として設定し、該注目画素から前記 勾配情報に従って前記画素の走査を行い、走査した画素の画素値が極値を示す位 置の座標を前記注目画素に対応する極値画素の座標として取得する極値座標取得 手段と、
前記画素が属する領域を特定するための領域識別標識を前記注目画素に対して 付与する領域特定手段と、
を備え、
前記極値座標取得手段は、前記複数の画素の各画素を前記注目画素として順次 設定し、前記複数の画素の各画素に対応する前記極値画素の座標を取得し、 前記領域特定手段は、異なる画素に対応する前記極値画素の座標同士が所定の 範囲内で近接しているときに、該異なる画素それぞれに対して該画素が属する領域 の同一性を示す領域識別標識を付与することを特徴とする画像処理装置。
[2] 前記勾配情報算出手段は、 P 接する画素の画素値の差に該隣接する画素間の距 離に応じた係数を乗ずることで前記勾配情報を算出することを特徴とする請求項 1に 記載の画像処理装置。
[3] 前記勾配情報算出手段、前記極値座標取得手段及び前記領域特定手段による処 理の対象となる画素を選択する処理範囲選択手段をさらに備えていることを特徴とす る請求項 1又は 2に記載の画像処理装置。
[4] 前記勾配情報算出手段、前記極値座標取得手段及び前記領域特定手段による処 理の対象となる画素が位置する範囲を定めるための処理範囲指定パラメータの入力 を外部から受け付ける入力手段をさらに備え、
前記処理範囲選択手段は、前記入力手段で受け付けた前記処理範囲指定パラメ ータに基づいて、前記勾配情報算出手段、前記極値座標取得手段及び前記領域特 定手段による処理の対象となる画素が位置する範囲を選択することを特徴とする請 求項 3に記載の画像処理装置。
[5] 前記極値座標取得手段は、前記注目画素に対して前記勾配情報に従った方向で 隣接する画素に対応する極値画素の座標を参照することで、前記注目画素に対応 する前記極値画素の座標を取得することを特徴とする請求項:!〜 4のいずれか 1つに 記載の画像処理装置。
[6] 前記注目画素の画素値、及び前記注目画素に対応する極値画素の画素値の少な くとも一方に基づいて、前記領域特定手段による領域識別標識の付与を制御する識 別付与制御手段をさらに備えることを特徴とする請求項 1〜5のいずれ力、 1つに記載 の画像処理装置。
[7] 前記領域特定手段による領域識別標識の付与を制御する識別付与パラメータの入 力を外部から受け付ける入力手段をさらに備え、
前記識別付与制御手段は、前記入力手段で受け付けた識別付与パラメータに基 づいて前記領域特定手段による領域識別標識の付与を制御することを特徴とする請 求項 6に記載の画像処理装置。
[8] 前記複数の画素それぞれに対応する前記極値画素の座標が所定の座標範囲内 にあるときに、該複数の極値画素の座標を統合した新たな極値画素の座標を算出し て、該新たな極値画素の座標を統合前の極値画素に対応する座標として取得する 極値座標統合手段を備え、
前記領域特定手段は、前記極値座標統合手段で取得した前記新たな極値画素の 座標に基づいて、前記領域識別標識を前記注目画素に対して付与することを特徴と する請求項:!〜 7のいずれか 1つに記載の画像処理装置。
[9] 前記所定の座標範囲を定めるための極値座標統合パラメータの入力を外部から受 け付ける入力手段をさらに備え、
前記極値座標統合手段は、前記入力手段で受け付けた前記極値座標統合パラメ ータに基づいて前記新たな極値画素の座標を算出することを特徴とする請求項 8に 記載の画像処理装置。
[10] 異なる領域識別標識で特定される隣り合う領域に属し該領域同士の境界近傍に位 置する画素の画素値が所定の条件を充たしてレ、るか否かを判定し、該所定の条件を 充たしている場合に該隣り合う領域に対して同一性を示す領域識別標識を付与する 領域統合手段をさらに備えていることを特徴とする請求項 1〜9のいずれ力、 1つに記 載の画像処理装置。
[11] 前記所定の条件を充たしているか否力、を判定するための領域統合パラメータの入 力を外部から受け付ける入力手段をさらに備え、
前記領域統合手段は、前記入力手段で受け付けた前記領域統合パラメータに基 づいて前記所定の条件を充たしているか否かを判定することを特徴とする請求項 10 に記載の画像処理装置。
[12] 前記グレースケール画像上で前記領域の輪郭を強調する輪郭強調手段をさらに備 えてレ、ることを特徴とする請求項:!〜 11のレ、ずれか 1つに記載の画像処理装置。
[13] 前記グレースケール画像上で前記領域の輪郭を強調するためのエッジ強調パラメ ータの入力を外部から受け付ける入力手段をさらに備え、
前記輪郭強調手段は、前記入力手段で受け付けた前記エッジ強調パラメータに基 づいて前記グレースケール画像上で前記領域の輪郭を強調することを特徴とする請 求項 12に記載の画像処理装置。
[14] 前記グレースケール画像のシェーディングを補正するためのシェーディング補正手 段をさらに備えていることを特徴とする請求項 1〜: 13のいずれ力 1つに記載の画像処 理装置。
[15] 前記グレースケール画像のシェーディングを補正するためのシェーディング補正パ ラメータの入力を外部から受け付ける入力手段をさらに備え、
前記シェーディング補正手段は、前記入力手段で受け付けた前記シェーディング 補正パラメータに基づいて前記グレースケール画像のシェーディングを補正すること を特徴とする請求項 14に記載の画像処理装置。
[16] 前記グレースケール画像上で濃淡を滑らかにするための平滑化処理を行う平滑化 手段をさらに備えていることを特徴とする請求項 1〜: 15のいずれ力、 1つに記載の画像 処理装置。
[17] 前記平滑化処理を行うための平滑化パラメータの入力を外部から受け付ける入力 手段をさらに備え、
前記平滑化手段は、前記入力手段で受け付けた前記平滑化パラメータに応じて前 記平滑化処理を行うことを特徴とする請求項 16に記載の画像処理装置。
[18] 前記グレースケール画像は、細胞又は組織を撮像した画像であることを特徴とする 請求項:!〜 17のいずれか 1つに記載の画像処理装置。
[19] 領域を特定するまでの処理に用いるパラメータ、及び領域を特定するまでの処理過 程の画像のうち少なくとも一方を表示する表示手段をさらに備えていることを特徴とす る請求項:!〜 18のいずれか 1つに記載の画像処理装置。
[20] 領域を特定するまでの処理の過程を表示する表示手段をさらに備え、該表示手段 は、少なくとも、前記領域識別標識で特定される領域を区別する画像を表示すること を特徴とする請求項:!〜 18のいずれか 1つに記載の画像処理装置。
[21] 領域を特定するまでの処理の過程を表示する表示手段をさらに備え、該表示手段 は、少なくとも、前記処理範囲選択手段により選択した画素の範囲を区別する画像を 表示することを特徴とする請求項 3又は 4に記載の画像処理装置。
[22] 前記領域識別標識で特定される領域の性質を示す領域パラメータを求める領域パ ラメータ算出手段と、
該領域パラメータを表示する領域パラメータ表示手段と、
をさらに備えていることを特徴とする請求項 1〜: 18のいずれ力 1つに記載の画像処理 装置。
[23] 前記グレースケール画像の画像データを取得する撮像手段をさらに備えていること を特徴とする請求項:!〜 22のいずれか 1つに記載の画像処理装置。
[24] 請求項 23に記載の画像処理装置を備えた顕微鏡システムであって、
対象を拡大投影する結像光学系を備え、
前記画像処理装置における前記撮像手段は、前記結像光学系の結像面に拡大投 影された前記対象を撮影して画像データを取得することを特徴とする顕微鏡システム
[25] 所定の座標系上に配置される複数の画素の画素値に基づレ、て表現されるグレース ケール画像に対して前記画素が属する領域を特定する処理を画像処理装置に実行 させる領域特定プログラムであって、
前記画像処理装置に、
前記画素間における画素値の変化の傾向を示す勾配情報を算出する勾配情報算 出手順と、
前記複数の画素から選択した画素を注目画素として設定し、該注目画素から前記 勾配情報に従って前記複数の画素の走查を行レ、、走査した画素の画素値が極値を 示す位置の座標を前記注目画素に対応する極値画素の座標として取得する極値座 標取得手順と、
前記画素が属する領域を特定するための領域識別標識を前記注目画素に対して 付与する領域特定手順と、
を実行させ、
前記極値座標取得手順は、前記複数の画素の各画素を前記注目画素として順次 設定し、前記複数の画素の各画素に対応する前記極値画素の座標を取得する手順 であり、
前記領域特定手順は、異なる画素に対応する前記極値画素の座標同士が所定の 範囲内で近接しているときに、該異なる画素それぞれに対して該画素が属する領域 の同一性を示す領域識別標識を付与する手順であることを特徴とする領域特定プロ グラム。
PCT/JP2006/300770 2005-01-31 2006-01-19 画像処理装置、顕微鏡システム、及び領域特定プログラム WO2006080239A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/883,406 US8073233B2 (en) 2005-01-31 2006-01-19 Image processor, microscope system, and area specifying program
JP2007500480A JP4504417B2 (ja) 2005-01-31 2006-01-19 画像処理装置、顕微鏡システム、及び領域特定プログラム
EP06712016.2A EP1847955A4 (en) 2005-01-31 2006-01-19 IMAGE PROCESSOR, MICROSCOPY SYSTEM, AND AREA SPECIFICATION PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-024511 2005-01-31
JP2005024511 2005-01-31

Publications (1)

Publication Number Publication Date
WO2006080239A1 true WO2006080239A1 (ja) 2006-08-03

Family

ID=36740273

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/300770 WO2006080239A1 (ja) 2005-01-31 2006-01-19 画像処理装置、顕微鏡システム、及び領域特定プログラム

Country Status (4)

Country Link
US (1) US8073233B2 (ja)
EP (1) EP1847955A4 (ja)
JP (1) JP4504417B2 (ja)
WO (1) WO2006080239A1 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009148092A1 (ja) 2008-06-05 2009-12-10 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010263872A (ja) * 2009-05-18 2010-11-25 Olympus Corp 細胞画像解析装置
EP2405398A1 (en) 2010-07-07 2012-01-11 Olympus Corporation Processing of intraluminal images for dark portion area detection
EP2523164A1 (en) 2011-05-09 2012-11-14 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2551821A1 (en) 2011-07-29 2013-01-30 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2551820A2 (en) 2011-07-29 2013-01-30 Olympus Corporation Image processing device, image processing method and image processing program
EP2557539A2 (en) 2011-07-29 2013-02-13 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2565846A1 (en) 2011-08-31 2013-03-06 Olympus Corporation Intraluminal lesion detection by classifying pixel colours
EP2584526A2 (en) 2011-10-18 2013-04-24 Olympus Corporation Image processing device, image processing method, and image processing program
JP2013518680A (ja) * 2010-02-05 2013-05-23 アルコン レンゼックス, インコーポレーテッド レーザ式手術システムにおいて局所的画像化と統合された勾配探索法
WO2013080868A1 (ja) 2011-11-30 2013-06-06 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013171291A (ja) * 2012-02-21 2013-09-02 Leica Biosystems Nussloch Gmbh 顕微鏡検査サンプルの調製方法、及び、サンプルのカバーガラス装着品質の検査装置
WO2015092904A1 (ja) 2013-12-19 2015-06-25 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016115084A (ja) * 2014-12-12 2016-06-23 学校法人東京理科大学 対象物検出装置及びプログラム
WO2016139770A1 (ja) * 2015-03-04 2016-09-09 オリンパス株式会社 画像処理装置
US9723295B2 (en) 2013-02-18 2017-08-01 P2P Bank Co., Ltd. Image processing device, image processing method, image processing computer program, and information recording medium whereupon image processing computer program is stored
JP2019536001A (ja) * 2016-09-08 2019-12-12 アボット・ラボラトリーズAbbott Laboratories 自動体液分析
US10510147B2 (en) 2015-05-14 2019-12-17 Olympus Corporation Image processing device
WO2020194881A1 (ja) * 2019-03-28 2020-10-01 浜松ホトニクス株式会社 蛍光観察装置
CN113781295A (zh) * 2021-09-14 2021-12-10 网易(杭州)网络有限公司 图像处理方法、装置、设备及存储介质
JP7428173B2 (ja) 2018-03-20 2024-02-06 株式会社島津製作所 細胞観察装置及び細胞観察方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2826436B1 (en) 2007-09-06 2018-03-28 Alcon LenSx, Inc. Precise targeting of surgical photodisruption
JP5180551B2 (ja) * 2007-09-27 2013-04-10 キヤノン株式会社 印刷装置およびその制御方法、並びに、色処理装置およびその方法
JP5072576B2 (ja) * 2007-12-20 2012-11-14 アルパイン株式会社 画像表示方法および画像表示装置
US8306320B2 (en) 2008-03-07 2012-11-06 Samsung Electro-Mechanics Co., Ltd. 2D image segmentation apparatus and method, and apparatus and method for removing red-eye in the image
JP4999788B2 (ja) * 2008-06-26 2012-08-15 三菱電機株式会社 移動目標検出装置及びコンピュータプログラム及び移動目標検出方法
GB0814297D0 (en) * 2008-08-05 2008-09-10 Ge Healthcare Uk Ltd Microscopy
US8275710B1 (en) * 2008-09-30 2012-09-25 United Services Automobile Association (Usaa) Systems and methods for automatic bill pay enrollment
US9492322B2 (en) * 2009-11-16 2016-11-15 Alcon Lensx, Inc. Imaging surgical target tissue by nonlinear scanning
EP2357606A1 (en) * 2009-12-24 2011-08-17 BAE SYSTEMS plc Enhancing the visibility of features of an image
US8781246B2 (en) 2009-12-24 2014-07-15 Bae Systems Plc Image enhancement
AU2015203781B2 (en) * 2010-02-05 2017-04-13 Alcon Inc. Gradient search integrated with local imaging in laser surgical systems
US8414564B2 (en) 2010-02-18 2013-04-09 Alcon Lensx, Inc. Optical coherence tomographic system for ophthalmic surgery
US9743020B2 (en) * 2010-03-23 2017-08-22 California Institute Of Technology Super resolution optofluidic microscopes for 2D and 3D imaging
US8398236B2 (en) 2010-06-14 2013-03-19 Alcon Lensx, Inc. Image-guided docking for ophthalmic surgical systems
US9532708B2 (en) 2010-09-17 2017-01-03 Alcon Lensx, Inc. Electronically controlled fixation light for ophthalmic imaging systems
US9569664B2 (en) 2010-10-26 2017-02-14 California Institute Of Technology Methods for rapid distinction between debris and growing cells
US9643184B2 (en) 2010-10-26 2017-05-09 California Institute Of Technology e-Petri dishes, devices, and systems having a light detector for sampling a sequence of sub-pixel shifted projection images
WO2012058233A2 (en) * 2010-10-26 2012-05-03 California Institute Of Technology Scanning projective lensless microscope system
JP5576782B2 (ja) * 2010-12-16 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
TR201101980A1 (tr) * 2011-03-01 2012-09-21 Ulusoy İlkay Bir nesne temelli bölütleme yöntemi.
CN103534627A (zh) 2011-03-03 2014-01-22 加州理工学院 光导像素
US8459794B2 (en) 2011-05-02 2013-06-11 Alcon Lensx, Inc. Image-processor-controlled misalignment-reduction for ophthalmic systems
US9622913B2 (en) 2011-05-18 2017-04-18 Alcon Lensx, Inc. Imaging-controlled laser surgical system
JP5869239B2 (ja) * 2011-06-21 2016-02-24 浜松ホトニクス株式会社 光測定装置、光測定方法、及び光測定プログラム
WO2012176783A1 (ja) * 2011-06-21 2012-12-27 浜松ホトニクス株式会社 光測定装置、光測定方法、及び光測定プログラム
US8398238B1 (en) 2011-08-26 2013-03-19 Alcon Lensx, Inc. Imaging-based guidance system for ophthalmic docking using a location-orientation analysis
US9066784B2 (en) 2011-12-19 2015-06-30 Alcon Lensx, Inc. Intra-surgical optical coherence tomographic imaging of cataract procedures
US9023016B2 (en) 2011-12-19 2015-05-05 Alcon Lensx, Inc. Image processor for intra-surgical optical coherence tomographic imaging of laser cataract procedures
JP5957357B2 (ja) * 2012-10-15 2016-07-27 株式会社日立ハイテクノロジーズ パターン検査・計測装置及びプログラム
JP5413501B1 (ja) * 2012-12-07 2014-02-12 富士ゼロックス株式会社 画像処理装置、画像処理システム及びプログラム
EP2966433B1 (en) * 2013-03-08 2023-04-26 Shimadzu Corporation Device for setting region of interest for analysis
KR102071947B1 (ko) * 2013-05-10 2020-01-31 삼성전자주식회사 청소 로봇 및 그 제어방법
JP6049955B2 (ja) * 2014-08-22 2016-12-21 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6557520B2 (ja) * 2015-06-17 2019-08-07 オリンパス株式会社 顕微鏡システム
DE102015219709A1 (de) * 2015-10-12 2017-04-13 Carl Zeiss Microscopy Gmbh Bildkorrekturverfahren und Mikroskop
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
EP3413155B1 (de) * 2017-06-09 2020-02-26 Andreas Stihl AG & Co. KG Verfahren zum erfassen mindestens eines abschnitts eines begrenzungsrands einer zu bearbeitenden fläche, verfahren zum betreiben eines autonomen mobilen grünflächenbearbeitungsroboters, erfassungssystem und grünflächenbearbeitungssystem
CN107369136B (zh) * 2017-06-22 2020-06-09 福建省万龙新材料科技有限公司 聚晶金刚石复合片表面裂纹视觉检测方法
JP6971758B2 (ja) * 2017-10-10 2021-11-24 オリンパス株式会社 観察システム
CN110738250B (zh) * 2019-10-09 2024-02-27 陈浩能 果蔬新鲜度识别方法及相关产品
CN115170669B (zh) * 2022-09-05 2022-11-22 合肥安迅精密技术有限公司 基于边缘特征点集配准的识别定位方法及系统、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298482A (ja) * 1992-04-23 1993-11-12 Toshiba Corp 文字読取装置
JP2004005383A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置並びに肖像写真撮影装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4129656C2 (de) * 1991-09-06 1994-02-10 Siemens Ag Wiedergabevorrichtung für Videosignale auf einem Monitor
DE69612284T2 (de) * 1995-06-20 2001-08-30 Cambridge Consultants Datenverarbeitungsverfahren- und vorrichtung
US6346945B1 (en) * 1998-12-28 2002-02-12 Klocwork Solutions Method and apparatus for pattern-based flowcharting of source code
JP3314759B2 (ja) 1999-05-11 2002-08-12 日本電気株式会社 細胞形状抽出装置及び細胞形状抽出方法
JP3956091B2 (ja) * 2001-03-26 2007-08-08 セイコーエプソン株式会社 色変換プログラムを記録したコンピュータ読み取り可能な記録媒体、色変換テーブルの作成方法、色変換テーブルデータを記録したコンピュータ読み取り可能な記録媒体、色変換装置、色変換プログラム、色変換方法および色変換テーブル
AUPR647801A0 (en) * 2001-07-19 2001-08-09 Cea Technologies Inc. Chromatin segmentation
US7555157B2 (en) * 2001-09-07 2009-06-30 Geoff Davidson System and method for transforming graphical images
US7003155B2 (en) * 2001-09-27 2006-02-21 The John Hopkins University System and method for creating unclassified line drawings from classified NTM images
WO2003062809A1 (en) * 2002-01-23 2003-07-31 Marena Systems Corporation Infrared thermography for defect detection and analysis
DE10253191A1 (de) 2002-11-15 2004-05-27 Philips Intellectual Property & Standards Gmbh Verfahren zur selektiven Darstellung von Körperstrukturen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298482A (ja) * 1992-04-23 1993-11-12 Toshiba Corp 文字読取装置
JP2004005383A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置並びに肖像写真撮影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1847955A4 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009148092A1 (ja) 2008-06-05 2009-12-10 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010263872A (ja) * 2009-05-18 2010-11-25 Olympus Corp 細胞画像解析装置
JP2013518680A (ja) * 2010-02-05 2013-05-23 アルコン レンゼックス, インコーポレーテッド レーザ式手術システムにおいて局所的画像化と統合された勾配探索法
EP2405398A1 (en) 2010-07-07 2012-01-11 Olympus Corporation Processing of intraluminal images for dark portion area detection
EP2523164A1 (en) 2011-05-09 2012-11-14 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2551821A1 (en) 2011-07-29 2013-01-30 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2551820A2 (en) 2011-07-29 2013-01-30 Olympus Corporation Image processing device, image processing method and image processing program
EP2557539A2 (en) 2011-07-29 2013-02-13 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2565846A1 (en) 2011-08-31 2013-03-06 Olympus Corporation Intraluminal lesion detection by classifying pixel colours
EP2584526A2 (en) 2011-10-18 2013-04-24 Olympus Corporation Image processing device, image processing method, and image processing program
WO2013080868A1 (ja) 2011-11-30 2013-06-06 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013171291A (ja) * 2012-02-21 2013-09-02 Leica Biosystems Nussloch Gmbh 顕微鏡検査サンプルの調製方法、及び、サンプルのカバーガラス装着品質の検査装置
US9880079B2 (en) 2012-02-21 2018-01-30 Leica Biosystems Nussloch Gmbh Method in the preparation of samples for microscopic examination and for checking coverslipping quality
US11519863B2 (en) 2012-02-21 2022-12-06 Leica Biosystems Nussloch Gmbh Apparatus for checking the coverslipping quality of samples for microscopic examination
US9723295B2 (en) 2013-02-18 2017-08-01 P2P Bank Co., Ltd. Image processing device, image processing method, image processing computer program, and information recording medium whereupon image processing computer program is stored
WO2015092904A1 (ja) 2013-12-19 2015-06-25 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9881381B2 (en) 2013-12-19 2018-01-30 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
JP2016115084A (ja) * 2014-12-12 2016-06-23 学校法人東京理科大学 対象物検出装置及びプログラム
WO2016139770A1 (ja) * 2015-03-04 2016-09-09 オリンパス株式会社 画像処理装置
US10311553B2 (en) 2015-03-04 2019-06-04 Olympus Corporation Image-processing device
JPWO2016139770A1 (ja) * 2015-03-04 2017-12-14 オリンパス株式会社 画像処理装置
US10510147B2 (en) 2015-05-14 2019-12-17 Olympus Corporation Image processing device
JP2019536001A (ja) * 2016-09-08 2019-12-12 アボット・ラボラトリーズAbbott Laboratories 自動体液分析
US11193927B2 (en) 2016-09-08 2021-12-07 Abbott Laboratories Automated body fluid analysis
JP7428173B2 (ja) 2018-03-20 2024-02-06 株式会社島津製作所 細胞観察装置及び細胞観察方法
WO2020194881A1 (ja) * 2019-03-28 2020-10-01 浜松ホトニクス株式会社 蛍光観察装置
JP2020160012A (ja) * 2019-03-28 2020-10-01 浜松ホトニクス株式会社 蛍光観察装置
JP7315356B2 (ja) 2019-03-28 2023-07-26 浜松ホトニクス株式会社 蛍光観察装置
US11921043B2 (en) 2019-03-28 2024-03-05 Hamamatsu Photonics K.K. Fluorescence observation device
CN113781295A (zh) * 2021-09-14 2021-12-10 网易(杭州)网络有限公司 图像处理方法、装置、设备及存储介质
CN113781295B (zh) * 2021-09-14 2024-02-27 网易(杭州)网络有限公司 图像处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
EP1847955A4 (en) 2015-04-22
US8073233B2 (en) 2011-12-06
JP4504417B2 (ja) 2010-07-14
US20080056610A1 (en) 2008-03-06
JPWO2006080239A1 (ja) 2008-06-19
EP1847955A1 (en) 2007-10-24

Similar Documents

Publication Publication Date Title
JP4504417B2 (ja) 画像処理装置、顕微鏡システム、及び領域特定プログラム
US20220172348A1 (en) Information processing device, information processing method, and storage medium
CN110678901B (zh) 信息处理设备、信息处理方法和计算机可读存储介质
Khoshelham et al. Performance evaluation of automated approaches to building detection in multi-source aerial data
CN109583345B (zh) 道路识别方法、装置、计算机装置及计算机可读存储介质
EP0853293A1 (en) Subject image extraction method and apparatus
JP5804220B1 (ja) 画像処理装置および画像処理プログラム
WO2019174276A1 (zh) 用于定位目标物体区域中心的图像处理方法、装置、设备和介质
KR20080040639A (ko) 비디오 객체 컷 앤 페이스트
US20120257039A1 (en) Image Processing Device, Measuring/Testing System, and Program
KR20130105952A (ko) 차량 번호판 인식 방법과 그 장치
WO2015092904A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
CN108830874A (zh) 一种数字病理全切片图像空白区域自动分割方法
JP2006208339A (ja) 領域抽出装置、顕微鏡システムおよび領域抽出プログラム
JP2009157821A (ja) 距離画像生成装置、環境認識装置、及びプログラム
CN115272304B (zh) 一种基于图像处理的布匹缺陷检测方法和系统
JP2007048006A (ja) 画像処理装置および画像処理プログラム
Oka et al. Vectorization of contour lines from scanned topographic maps
CN113435266B (zh) 基于极值点特征增强的fcos智能目标检测方法
CN114170168A (zh) 显示模组缺陷检测方法、系统及计算机可读存储介质
CN107239761B (zh) 基于骨架角点检测的果树拉枝效果评价方法
CN109359653A (zh) 一种棉花叶部粘连病斑图像分割方法和系统
JP6132485B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007500480

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006712016

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11883406

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006712016

Country of ref document: EP