WO2004102478A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2004102478A1
WO2004102478A1 PCT/JP2004/006505 JP2004006505W WO2004102478A1 WO 2004102478 A1 WO2004102478 A1 WO 2004102478A1 JP 2004006505 W JP2004006505 W JP 2004006505W WO 2004102478 A1 WO2004102478 A1 WO 2004102478A1
Authority
WO
WIPO (PCT)
Prior art keywords
magnification
image
low
area
sample
Prior art date
Application number
PCT/JP2004/006505
Other languages
English (en)
French (fr)
Inventor
Ken Ioka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP04731757A priority Critical patent/EP1640908A1/en
Publication of WO2004102478A1 publication Critical patent/WO2004102478A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an image processing apparatus, and more particularly, to a microscope image bonding apparatus for reliably bonding a wide-field, high-resolution microscope image from a plurality of images of a sample taken in a divided manner.
  • the range that can be observed at one time is mainly determined by the magnification of the objective lens.However, when the objective lens becomes high magnification, the observation range is limited to only a small part of the specimen. come.
  • pathological diagnosis there is a demand to grasp the whole specimen image in order to prevent oversight of the diagnosis location.
  • the computerization of images has been promoted in the above-mentioned pathological diagnosis, and the microscopic images taken through a camera have the same level as those of conventional silver halide films. There is a demand to achieve high resolution.
  • the following methods have been known as methods for obtaining high-resolution or wide-angle microscope images.
  • a stage on which a sample is mounted and illumination are relatively scanned to divide the sample into a plurality of areas.
  • partial images are fetched, and successive images based on these arrangements are combined like a tile to create an entire specimen image.
  • the second example relates to a method of reconstructing a whole image of a specimen by image pasting.
  • Japanese Patent Application Laid-Open No. 9-28140 discloses that a whole specimen area has a plurality of mutually overlapping portions.
  • the imaging regions of the respective divided images may not be connected accurately because the partial images obtained by the divided imaging are simply synthesized, and the stage movement error is not considered. Therefore, an accurate whole image of the specimen cannot be obtained.
  • the position reproduction error of the stage is several ⁇ to several tens.
  • the displacement between adjacent images may be from several pixels to several tens of pixels.
  • a sample is divided and imaged into a plurality of small regions so as to partially overlap each other, and the overlapped portions of the captured images are compared by template matching, so that adjacent samples are obtained.
  • the overlapping area can generally be only 10% to 20% of the image size. Absent. If there is no characteristic sample image in this limited overlapping part, template matching of the overlapping part may not be successful, and accurate displacement may not be detected.
  • image joining is performed sequentially, an error in detecting a position shift of one image is accumulated in a position error of a subsequent image.
  • An object of the present invention to combine a plurality of images and combine them even when there is no sample image in the overlapping portion, and to uniformly combine the images even when the imaging conditions in the divided imaging are different.
  • An object of the present invention is to provide an image processing device capable of constructing a composite image having a complicated background.
  • a first aspect of the present invention is an image processing device
  • a low-magnification imaging unit that images the entire sample area at a low magnification that is the first magnification
  • An area division information storage unit that stores, as area division information, the position information of each small area when divided into
  • a high-magnification imaging unit that sequentially captures substantially the same area as each divided area at a second magnification that is higher than the first magnification according to the area division information;
  • a displacement detection unit that detects a displacement of the high-magnification image captured by the high-magnification imaging unit based on the low-magnification sample image captured by the low-magnification imaging unit;
  • a displacement correction unit that corrects the position of each high-magnification image based on the displacement detected by the displacement detection unit
  • An image combining unit that sequentially combines the high-magnification images whose positions have been corrected by the misalignment correction unit to create a high-magnification image of the entire sample area;
  • the image processing apparatus wherein the image quality of a high-magnification image of each small area whose position is corrected by the misregistration correction unit and the low-magnification sample
  • An image quality difference detection unit that detects a difference in image quality between partial images corresponding to the high-magnification image of the image
  • An image quality difference correction unit that corrects the image quality of the high-magnification image of each small area based on the image quality difference detected by the image quality difference detection unit.
  • a third aspect of the present invention relates to the image processing device according to the second aspect, wherein the difference in image quality is caused by a difference in brightness.
  • a fourth aspect of the present invention relates to the image processing device according to the second aspect, wherein the difference in image quality is due to a difference in uniformity of brightness.
  • a fifth aspect of the present invention relates to the image processing device according to the second aspect, wherein the image quality difference is caused by a difference in geometric characteristics.
  • a sixth aspect of the present invention relates to the image processing apparatus according to the first aspect, wherein the low-magnification imaging section captures an entire image of the sample by performing relative scanning on the sample. It has a line sensor, and the high-magnification imaging unit has an area sensor for imaging a part of the sample.
  • a seventh aspect of the present invention relates to the image processing device according to the first or sixth aspect, wherein the low-magnification image captured by the low-magnification imaging unit and the high-magnification image captured by the high-magnification imaging unit are provided.
  • the low-magnification image captured by the low-magnification imaging unit and the high-magnification image captured by the high-magnification imaging unit are provided.
  • An eighth aspect of the present invention relates to the image processing device according to the seventh aspect, wherein the positional relationship is determined in consideration of horizontal or vertical movement.
  • a ninth aspect of the present invention relates to the image processing device according to the seventh aspect, wherein the positional relationship is determined in consideration of rotational movement.
  • FIG. 1 is a functional block diagram of the image processing apparatus according to the first embodiment of the present invention.
  • 'FIG. 2 is a diagram showing the relationship between the low magnification whole sample image L and the sample area divided into four.
  • FIGS. 3A and 3B are diagrams (part 1) for explaining the operation of the displacement detector 14.
  • FIGS. 4A and 4B are diagrams (part 2) for explaining the operation of the displacement detector 14.
  • FIG. 5 is a diagram showing an example of a position shift correction of a high-magnification image.
  • FIG. 6 is a flowchart showing a processing algorithm of the present embodiment.
  • FIG. 7 is a functional block diagram of the image processing apparatus according to the second embodiment of the present invention.
  • FIGS. 8A to 8D are diagrams showing the difference in brightness between the high-magnification images HI and H2 and the corresponding low-magnification partial images L1 and L2.
  • FIGS. 9A and 9B show low-magnification images.
  • 11A and 11B are diagrams for explaining a procedure for detecting a difference in brightness uniformity between the high-magnification image H I and the corresponding low-magnification partial image L 1.
  • FIG. 12 is a diagram showing a configuration of an image processing device according to the third embodiment of the present invention.
  • FIG. 13 is a diagram showing misalignment due to misalignment of the optical axes of the high-magnification lens and the low-magnification lens in the fourth embodiment of the present invention.
  • FIG. 14 is a view showing an angle shift due to a core rotation according to the fourth embodiment of the present invention.
  • the image processing apparatus has a system configuration including a microscope (not shown) having objective lenses of a plurality of types of magnifications, an electric stage for moving a sample two-dimensionally under the field of view of the microscope, and
  • the camera includes a CCD camera for capturing a microscope image, and a personal computer as a control device for controlling the above-described units.
  • FIG. 1 is a functional block diagram of the image processing apparatus according to the first embodiment.
  • a low-magnification imaging unit 11 uses a low-magnification objective lens to capture a low-magnification image of the entire sample. From the number of pixels of the image sensor, the range of the field of view of the low-magnification imaging unit 11 and the coordinates of the motorized stage, the correspondence between the pixel position of the captured image and the coordinates of the stage is calculated.
  • the captured low-magnification image area is divided into a plurality of small areas so as to partially overlap.
  • the area division information acquired at this time is converted into coordinates of the electric stage and stored in the area division information storage unit 13.
  • the objective lens is switched to a high magnification, the electric stage is driven, and the position stored in the area division information storage unit 13 is changed.
  • the high-magnification imaging unit 12 converts the high-magnification image of the small area into a small area. Take an image.
  • the displacement detecting unit 14 cuts out a low-magnification partial region corresponding to the high-magnification image to be captured from the entire low-magnification sample image based on the above-described region division information, and By performing template matching with the high-magnification image based on the image, the displacement of the high-magnification image is detected. Then, the displacement correcting unit 15 corrects the position of the high-magnification image according to the detected displacement information.
  • the corrected high-magnification image is input to the image combining unit 16.
  • the image combining section 16 sequentially combines the captured high-magnification image and the immediately preceding corrected high-magnification image based on the above-described area division information to form a high-magnification composite image. It will be completed sequentially.
  • FIG. 2 shows the relationship between the low magnification whole sample image L and the sample area divided into four parts.
  • Ll, L2, L3, and L4 denote four small regions divided so as to have a partially overlapping region.
  • the coordinates of the center of each of the small areas L 1, L 2, L 3, L 4 are converted into the coordinate system of the motorized stage, and are respectively (xl, y1), (x2, y2), (x3, y3 ), (X4, y4), and the coordinate information is stored in the area division information storage unit 13.
  • the motorized stage When imaging the small area L 1 at high magnification, the motorized stage The sample is driven to move to the stage coordinates (xl, y1) and imaged with a high-magnification lens. If the reproducibility of the coordinates of the motorized stage is sufficiently accurate, the target area can be imaged at a high magnification, so that no displacement occurs in the high-magnification image. However, the coordinate reproduction accuracy of a general electric stage is several ⁇ to several tens ⁇ . Even if the user intends to image the area L1, the high-magnification image that is imaged may deviate from a predetermined position by the coordinate reproduction accuracy. Therefore, in order to perform accurate image joining, the low-magnification image, the area division information, and the high-magnification image are input to the displacement detection unit 14 and the predetermined area of the high-magnification image is input. Must be detected.
  • FIGS. L1 shown in Fig. 3 (1) is an image of the divided small area cut out from the low-magnification sample image L according to the area division information.
  • the stage coordinates of the center of L 1 are (X 1, y 1).
  • the image taken at a high magnification corresponding to this image L1 is H1 (FIG. 3B), and the stage coordinates at the center thereof are (xhl, yhl).
  • L 1 ′ shown in FIG. 4A is an image obtained by enlarging L 1 to an intermediate magnification c by linear interpolation
  • H 1 shown in FIG. 4B is an image obtained by reducing H 1 to an intermediate magnification c. It is.
  • an area T 1 near the center of HI is used as a template image
  • an area S 1 of L 1 is used as a search area in consideration of the reproduction accuracy of the stage coordinates.
  • the search area S1 is larger than the template image T1.
  • the template image T1 is scanned in the search area S1 while the corresponding plots in the template and the search area are evaluated using the evaluation function.
  • the difference between that position and the coordinates (X1, y1) will be the position shift of the high-magnification image.
  • the normalized correlation coefficient between the template and the corresponding block may be used as the evaluation function, or the sum of the absolute values of the luminance differences between the template and the corresponding block at each pixel. May be used.
  • a coarse search may be performed at the intermediate magnification d (a ⁇ d ⁇ c), and then a precise search may be performed at the intermediate magnification c around the coarsely detected area.
  • an electric stage is used.
  • the displacement considers only vertical or horizontal movement, but if there is rotation, the rotation angle is also detected.
  • the position detector 14 detects the position shift of the high-magnification image
  • the position shift of the high-magnification image is corrected using the detected data. This correction is performed using the affine transformation.
  • Fig. 5 shows an example of correcting the displacement of a high-magnification image.
  • ( ⁇ , ⁇ y) is the displacement of the high-magnification image H 1 obtained by the displacement detector 14.
  • ⁇ , A y By moving the image content of the high-magnification image H I by ( ⁇ , A y), a high-magnification image H 1 ⁇ ⁇ without displacement can be obtained.
  • the blank part of ( ⁇ , ⁇ y) around the image generated by the movement is excluded from the overlapping part when combining the images.
  • the image combining section 16 sequentially joins the input high-magnification images after the positional deviation correction according to the area division information to generate a high-magnification image of the entire sample.
  • the width of the overlapping area between adjacent high-magnification images can be calculated from the area division information, when calculating the width of the overlapping area, the position of the high-magnification image is corrected around the image by correcting the displacement. Exclude blank spaces. In the overlapping area, the rendering processing is performed between the adjacent images so that the center of the overlapping area becomes a joint.
  • FIG. 6 is a flowchart showing the processing algorithm of the present embodiment.
  • the control unit sets the microscope objective lens to a low magnification, and captures the entire image of the specimen at a low magnification (Step S50). 5 1).
  • the low-magnification image is divided into predetermined small areas, and the division at this time is performed.
  • the information and the order in which high-magnification imaging is performed later are saved (step S52).
  • the rough range of the low-magnification image may be automatically detected and automatically divided into small areas, or the low-magnification image may be presented to the user, and the user selects an area and sets the small area. It may be divided.
  • step S53 the objective lens of the microscope is switched to a high magnification in accordance with an instruction from the control device.
  • 1 is given as an initial value to a variable N indicating the processing order (step S54).
  • step S55 the sample portion corresponding to the small area L is moved under the field of view of the high-magnification imaging unit using the motorized stage. .
  • step S56 a high-magnification image is captured (step S56).
  • step S57 the high-magnification image is simultaneously reduced to the same intermediate magnification c (step S58).
  • the central portion of the high-magnification image is defined as a template, and a corresponding block is detected within a predetermined search range of the low-magnification image.
  • a positional deviation from a predetermined position (the position at the time of area division) of the high-magnification image is detected (step S59). Based on the detected positional deviation, the positional deviation of the high-magnification image is detected (step S60).
  • the corrected high-magnification image is pasted to the previous high-magnification image (step S61), and a high-magnification whole image of the sample is sequentially created. Go.
  • step S62 it is determined whether or not the processing of all the divided areas has been completed. If it is determined that the processing has not ended, the variable N indicating the processing order is incremented by one (step S64), and the process returns to step S55 to repeat the processing. On the other hand, if it is determined that all the processing of the area divided in step S62 has been completed, the final high-magnification sample whole image is output (step S63). Then, the entire bonding process is completed (step S65).
  • the stage has been described as being electrically driven, it may be a manually operated stage.
  • the divided imaging may be performed with the specimen fixed and the imaging unit moved two-dimensionally with respect to the specimen.
  • the misregistration is corrected based on the low-magnification image. Correction becomes possible, and this enables reliable bonding of microscope images as a whole.
  • the amount of memory required for image processing is small, and a good high-resolution image of the entire specimen is obtained, in which there are differences in exposure conditions when capturing the divided images and optical distortions are not noticeable. Can be achieved. Further, even when high-magnification images are sequentially input, image combining is performed sequentially, so that the overall processing can be speeded up by combining in synchronization with the imaging operation.
  • FIG. 7 is a functional block diagram of the image processing apparatus according to the second embodiment.
  • elements having the same reference numerals as those shown in FIG. 1 have the same functions as those of FIG. 1, and thus description thereof will be omitted here. Only the section 17 and the image quality difference correction section 18 will be described in detail.
  • the method of the first embodiment is used. Even if the center position of the high-magnification image is used as a template to accurately determine the misalignment between the high-magnification images, the position of the adjacent high-magnification image near the joint will shift on the composite image. This makes the seams more conspicuous.
  • the high-magnification image captured by the misregistration correction unit 15 in FIG. 7 has the image quality difference detection unit 1 together with the corresponding low-magnification image from the low-magnification imaging unit 11. Entered in 7.
  • the image quality difference detection unit 17 compares the input high-magnification image with the low-magnification image and generates image quality difference correction data for adjusting the image quality of the high-magnification image to the low-magnification image.
  • the image quality difference correction unit 18 corrects the image quality of the high magnification image based on the image quality difference correction data, and outputs the corrected image to the image combining unit 16.
  • the reference magnification may be an intermediate magnification between the low magnification and the high magnification, or may be a low magnification.
  • the correction data is calculated based on the high magnification in consideration of the later correction of the high magnification image.
  • the low magnification partial images L 1 and L 2 are based on It is a high magnification of a partial image cut out from a low magnification image of a body image. Since the low-magnification image of the entire specimen image was captured as a single image, a partial image divided therefrom is the same as an image captured under the same exposure conditions. On the other hand, since the exposure conditions when capturing the high-magnification images H 1 and H 2 are different, the brightness of the high-magnification images must be captured by L1 from HI and L2 by H2, respectively. .
  • FIG. 9A and 9B are diagrams showing input / output characteristics when capturing a low-magnification image, a high-magnification image H1, and a high-magnification image H2, respectively.
  • 1 (ell) v, hvl, and hv 2 are input / output characteristic curves corresponding to the low-magnification image, the high-magnification image H1, and the high-magnification image H2, respectively, the high-magnification image H1
  • the correction value V1 may be added to each pixel value of the high magnification image H1.
  • V I V L 1 V H 1
  • VL1 and VH1 are the average values of the pixel values of the images Ll and HI, respectively.
  • the correction value V2 may be added to each pixel value of H2.
  • V 2 V L 2 1 V H 2
  • VL2 and VH2 are the average values of the pixel values of the images L2 and H2, respectively.
  • the input / output characteristics of the image sensor do not become a simple straight line as shown in FIG. 9A.
  • the input / output characteristics are curved as in FIG. 9B, it is necessary to perform input / output correction in each pixel of the high-magnification image according to the input pixel value.
  • a correction table corresponding to the pixel value is obtained from the input / output characteristics of the low-magnification image and the high-magnification image measured in advance and used as correction data.
  • Figures 10A and 10B describe the procedure for detecting the difference in geometric deformation between the high-magnification image HI ( Figure 10B) and the corresponding low-magnification partial image L1 ( Figure 10A).
  • FIG. 10A As in the case of the high-magnification imaging unit, the low-magnification image captured by the low-magnification imaging unit also has distortion due to the optical system. However, since the present invention aims to combine high-magnification images based on low-magnification images, even if there is an aberration in the entire image to be combined, it is located at the joint. Good if there is no gap. Also, since the low-magnification partial image L1 is one small area of the low-magnification whole image, it is considered that distortion can be ignored. Thereafter, assuming that the low-magnification partial image L1 has already been corrected for distortion by the lens optical system or has no distortion, correction data for the distortion by the optical system of the high-magnification imaging unit is calculated. The method will be described.
  • a plurality of feature points 50 are extracted from the low magnification partial image L 1 shown in FIG. 1OA.
  • the feature point 50 is a pixel having a high contrast of a block including peripheral pixels.
  • the corresponding points 51 of the characteristic points 50 of the low-magnification image are detected from the high-magnification image.
  • Template matching is used as the method for detecting the corresponding point 51.
  • coordinate data of a plurality of feature points 50 and corresponding points 51 can be obtained.
  • the corrected high magnification is used to correct the distortion of the high magnification image. Lower the pixel value of each pixel in the image It can be obtained from the above equation.
  • av [] is the pixel value of each pixel of the high-magnification image after correction
  • hv [] is the pixel value of each pixel of the high-magnification image before correction.
  • low magnification partial image may be determined the position of the corresponding pixel in the high-magnification image of all pixels t
  • Figure 1 1A and 1IB are used to explain the procedure for detecting differences in brightness uniformity between the high-magnification image HI (Fig. 11B) and the corresponding low-magnification partial image L1 (Fig. 11A).
  • FIG. Due to shading of the imaging lens and differences in illumination of the specimen, there is uneven brightness in the high-magnification image relative to the low-magnification image.
  • the high-magnification image H1 is an image that has been subjected to the necessary corrections of positional deviation correction, brightness correction, and distortion correction.
  • a pixel at a predetermined position may be set as the feature point 52, but it is more preferable to use a pixel at a position where the contrast of a block including peripheral pixels is low. New This is to obtain more accurate shading data even if the feature point 52 and the corresponding point 53 have a slight deviation.
  • the high-magnification image In a high-magnification image that has been subjected to necessary corrections including misregistration correction, brightness correction, and distortion correction, since the positions of the pixels in the high-magnification image and the low-magnification partial image completely match, the high-magnification image
  • the pixel at the same position in is the corresponding point 53 of the feature point 52.
  • Let (xi, yi) be the coordinates of feature point 52 (of corresponding point 53), and determine the ratio k [xi, yi] between the pixel value of feature point 52 and the pixel value of corresponding point 53.
  • the ratio of the pixel values is used as shading data of the high-magnification image.
  • the pixel value of each pixel of the corrected high-magnification image may be obtained by the following equation.
  • av [] is the pixel value of each pixel of the high-magnification image after correction
  • hv ⁇ is the pixel value of each pixel of the high-magnification image before correction.
  • Correction data at feature point 52 and corresponding point 53 were obtained, but correction data at other positions were not known.
  • the image quality difference obtained in may be used for processing high-magnification images of other small areas.
  • the difference in image quality between the high-magnification image and the low-magnification image due to the imaging conditions is detected and corrected. Even if the exposure conditions of the high-magnification image are different, even if the high-magnification image pickup unit has distortion or the brightness of the high-magnification image pickup unit is not uniform, the joints will not be noticeable. A high-magnification specimen whole image can be generated.
  • the low-magnification image is captured using a low-magnification lens
  • the high-magnification image is captured using a high-magnification lens
  • the low-magnification imaging unit and the high-magnification imaging unit are of the same type.
  • the description has been made on the assumption that the image sensor of this type is used.
  • the field of view of the low magnification lens of the microscope is limited. Usually, the entire specimen is wider than the field of view of the low magnification lens.
  • a low-magnification imaging unit and a high-magnification imaging unit are provided separately to capture the entire sample image.Low-magnification images are captured with a line sensor that can cover the sample range, and high-magnification imaging is performed using a conventional area sensor. To image.
  • FIG. 12 is a diagram showing the configuration of the image processing apparatus according to this embodiment.
  • the entire sample 12 3 is imaged by the line-type CCD 122, which is a low-magnification image sensor, while moving the motorized stage 124 in the X direction.
  • Divide into regions based on the whole image of the low-magnification specimen taken, Divide into regions.
  • the divided small areas are moved under the field of view of the area-type CCD, which is a high-magnification imaging unit, on stage 124 to sequentially capture high-magnification images. Subsequent processing is the same as in the conventional embodiment, and will not be described.
  • the entire sample is divided into a plurality of small regions with reference to the low-magnification image
  • the stage is moved according to the positional information of each small region, and then a high-magnification image is taken, and each small region is taken. It detects the misalignment between the high-magnification image and the corresponding partial image of the low-magnification image, corrects the misregistration of the high-magnification image, and then pastes the high-magnification images together. And Therefore, if the misalignment or rotation between the low magnification and the high magnification is large, the entire sample is divided into regions based on the low-magnification image, and even if the movement amount of the stage is specified according to the region division information at this time. However, a high-magnification image at a desired position cannot be captured. Therefore, it is necessary to detect in advance the degree of center misalignment and center rotation caused by switching between the low-magnification lens and the high-magnification lens.
  • a low-magnification image and a high-magnification image are taken at exactly the same position without moving the stage position, and the high-magnification image is used as a template, and the low-magnification image is used. From matching position If the position is detected, the misalignment between the matching position and the center of the image can be detected as misalignment.
  • the method of detecting the center rotation first, similarly to the method of detecting the misalignment, the low-magnification image and the high-magnification image are taken at exactly the same position without moving the stage position, and the high-magnification image is obtained. Then, the matching position of the low magnification image is calculated, and then, at the matching position, while rotating the template little by little, the angle at which the correlation coefficient becomes the maximum is obtained to obtain the center rotation. Is required.
  • each of the high-magnification images is detected in the low-magnification image by using two or more high-magnification images having different imaging positions from the low-magnification image, and the high-magnification and low-magnification images are detected from those positions.
  • Magnification The rotational angle shift of the imaging unit is determined.
  • area division information for dividing the entire sample based on the low-magnification image is corrected.
  • the area division information is represented by (xi, yi) (i represents the number of each division area), which is the stage coordinate of the center of each division area, and the detected misalignment is represented by ( ⁇ X, ⁇ y).
  • the area division information is corrected to (xi + ⁇ Xyi + ⁇ y).
  • the corrected value is stored in a storage unit (for example, the area division information storage unit 13 in FIG. 1).
  • the method of correcting the core rotation is to rotate the low-magnification image by ⁇ degrees to obtain a new low-power image. It is preferable to leave the magnification image as it is.
  • the rotation angle of the low-magnification lens or high-magnification lens may be adjusted so that there is no rotation.
  • An image processing device that can be constructed can be provided.

Abstract

画像処理装置の構成が開示される。低倍率撮像部は、標本全体を第1の倍率である低い倍率で撮像する。領域分割情報記憶部は、一部重複領域を有するように標本全体を複数の小領域に分割したときの各小領域の位置情報を領域分割情報として記憶する。高倍率撮像部は、領域分割情報に従って、第1の倍率よりも高い倍率である第2の倍率で各分割領域と略同一の領域を順次撮像する。位置ずれ検出部は、低倍率撮像部で撮像された低倍率標本画像に基づき、撮像した高倍率画像の位置ずれを検出する。位置ずれ補正部は、検出された位置ずれに基づいて各高倍率画像の位置を補正する。画像貼り合せ部は、各高倍率画像を順次貼り合わせて標本全体の高倍率画像を作成する。

Description

明 細 書
画像処理装置
技術分野
本発明は画像処理装置に関し、 特に、 分割撮像された標本 の複数の画像から、 広視野且つ高解像な顕微鏡画像を確実に 貼り合せする顕微鏡画像貼り合せ装置に関する。
背景技術
顕微鏡を用いて標本を観察する場合、 一度に観察でき る範 囲は主に対物レンズの倍率によって決定されるが、 対物レン ズが高倍率になる と観察範囲は標本のごく 一部分に限られて く る。 一方で、 病理診断においては、 診断箇所の見落と しを 防止するために標本全体像を把握したいとい う要請がある。 また、 情報処理技術の発達によ り 上記病理診断においても画 像の電子情報化が促進されてお り 、 カメ ラを介して取 り 込む 顕微鏡観察像についても旧来の銀塩フ ィ ルム並の高解像度を 実現したいという要請がある。
これまで、 高解像度または広画角の顕微鏡画像を得るため の方法と して以下の方法が知られていた。 第 1 の例は、 特開 平 3 — 2 0 9 4 1 5 号公報に開示されている よ う に、 標本を 載せるステージと照明を相対的に走査させ、 標本を複数の領 域に分割して部分画像を取り 込み、 これらの配置関係通 り に 相連なる画像をタイルのよ う に合成して、 標本全体像を作成 する方法である。 第 2 の例は、 画像貼り合わせによる標本全 体像を再構成する方法に関 し、 例えば、 特開平 9 一 2 8 1 4 0 5 は、 標本領域全体を複数のお互いに重複部分を有する よ う な小領域に分割し、 顕微鏡を使用 して各小領域を撮像し、 撮像した各画像の重複部分を比較し、 位置ずれを検出 して、 各小領域の画像の位置を補正してから画像を貼り 合せ、 標本 の広視野 · 高精細画像を生成する顕微鏡システムを開示して いる。 第 3 の例は、 特開 2 0 0 0 — 5 9 6 0 6 号公報に開示 されている よ う に、 被写体の全体と、 被写体を分割 して複数 の高精細部分画像を撮像し、 全体画像を拡大して、 全体画像 から高精細に撮像した部分画像の位置を検出 し、 拡大全体像 の対応部分を高精細な部分画像で置き換えていく こ と によ り 高精細な全体像を合成する方法である。
しかしなが ら、 上記従来例においては、 下記のよ う な問題 点があった。
第 1 の例では、 分割撮像された部分画像を単純に合成する だけであ り 、 ステージの移動誤差を考慮していないため、 各 分割画像の撮像領域が正確に連な らない可能性があるので、 正確な標本全体像が得られない。 一般的にステージの位置再 現誤差は数 μ から数十 である。 例えば高倍率な対物レンズ を使用 して撮像する場合、 隣接画像間の位置ずれが数画素か ら数十画素にもなる可能性がある。
第 2 の例では、 標本を、 夫々一部重複領域を有する よ う に 複数の小領域に分割撮像し、 撮像した画像の重複部分をテ ン プレー トマ ッチングで比較する こ と によ り 、 隣接画像間の正 確な位置関係を検出でき る よ う に した。 しかし、 領域分割の 数や、 貼 り 合せ全体画像を作成する時間を少なく するために 重複領域は一般的に画像サイズの 1 0 %から 2 0 % しかとれ ない。 この限られた重複部分に特徴的な標本像がない場合、 重複部分のテンプレー トマ ツチングが う ま く いかず、 正確な 位置ずれを検出できない可能性がある。 また、 画像貼り合せ を順次行っていく 場合、 1 箇所の画像の位置ずれ検出の誤差 が、 その後の画像の位置誤差に累積されていく 。 更に、 各小 領域の画像を撮像する と き、 露出条件の違いや、 撮像光学系 の歪みの影響で、 この方法では、 複数の画像を良好に合成す るこ とが困難である。
第 3 の例では、 被写体の全体像を高精細画像と 同 じ倍率に 拡大し、 全体像の拡大画像を記憶する場合に、 多数の画像の 貼り 合せを行お う とする と拡大全体画像を保存する ための膨 大なメモ リ が必要と なる。 このこ と は、 本発明の画像処理装 置のよ う な、 数百から数千枚の高倍率画像を貼り合せする際 には現実的な方法ではない。 また、 各部分画像を撮像する と き、 撮像光学系の歪みの影響によ る合成画像のつなぎ目の不 均一性をなく す技術が開示されていない。
発明の開示
本発明の 目的は、 複数の画像を貼り 合せ合成する際に、 重 複部分に標本像がな く ても全体で確実な画像貼り 合せができ、 分割撮像時の撮像条件が異なっていても均一な背景の貼り 合 せ画像を構築できる画像処理装置を提供する こ と にある。
本発明の第 1 の側面は、 画像処理装置であって、
標本領域全体を第 1 の倍率である低い倍率で撮像する低倍 率撮像部と、
一部重複領域を有する よ う に標本領域全体を複数の小領域 に分割した と きの各小領域の位置情報を領域分割情報と して 記憶する領域分割情報記憶部と、
前記領域分割情報に従って、 前記第 1 の倍率よ り も高い倍 率である第 2 の倍率で各分割領域と略同一の領域を順次撮像 する高倍率撮像部と、
前記低倍率撮像部で撮像した低倍率標本画像に基づき、 前 記高倍率撮像部で撮像した高倍率画像の位置ずれを検出する 位置ずれ検出部と、
前記位置ずれ検出部で検出された位置ずれに基づいて各高 倍率画像の位置を補正する位置ずれ補正部と、
前記位置ずれ補正部で位置補正された各高倍率画像を順次 貼り 合わせて標本領域全体の高倍率画像を作成する画像貼り 合せ部と、
を具備する。
また、 本発明の第 2 の側面は、 第 1 の側面に係る画像処理 装置に関 し、 前記位置ずれ補正部で位置捕正された各小領域 の高倍率画像の画質と、 前記低倍率標本画像の前記高倍率画 像に対応する部分画像の画質の差異を検出する画質差異検出 部と、
前記画質差異検出部で検出された画質の差異に基づき、 各 小領域の高倍率画像の画質を補正する画質差異補正部と、 を更に有する。
また、 本発明の第 3 の側面は、 第 2 の側面に係る画像処理 装置に関し、 前記画質差異は、 明る さの違いによる ものであ る。 また、 本発明の第 4の側面は、 第 2 の側面に係る画像処理 装置に関 し、 前記画質差異は、 明る さの均一性の違いによ る ものである。
また、 本発明の第 5 の側面は、 第 2 の側面に係る画像処理 装置に関 し、 前記画質差異は、 幾何特性の違いによ る もので ある。
また、 本発明の第 6 の側面は、 第 1 の側面に係る画像処理 装置に関 し、 前記低倍率撮像部は、 標本に対して相対走査す る こ と によ り 標本全体像を撮像する ライ ンセンサを有し、 前 記高倍率撮像部は、 標本の一部を撮像するエ リ アセンサを有 する。
また、 本発明の第 7 の側面は、 第 1 または第 6 の側面に係 る画像処理装置に関 し、 前記低倍率撮像部で撮像した低倍率 画像と、 前記高倍率撮像部で撮像した高倍率画像と を比較す る こ と によ り 、 前記低倍率撮像部と前記高倍率撮像部との位 置関係を検出 し、 検出した位置関係をも と に、 前記領域分割 情報を補正する。
また、 本発明の第 8 の側面は、 第 7 の側面に係る画像処理 装置に関 し、 前記位置関係は水平又は垂直移動を考慮して決 定される。
また、 本発明の第 9 の側面は、 第 7の側面に係る画像処理 装置に関 し、 前記位置関係は回転移動を考慮して決定される 図面の簡単な説明
図 1 は、 本発明の第 1 の実施形態に係る画像処理装置の機 能プロ ック図である。 '図 2 は、 低倍率標本全体画像 L と、 4分割された標本領域 との関係を示す図である。
図 3 A, 3 Bは、 位置ずれ検出部 1 4 の作用を説明するた めの図 (その 1 ) である。
図 4 A, 4 Bは、 位置ずれ検出部 1 4 の作用を説明するた めの図 (その 2 ) である。
図 5 は、 高倍率画像の位置ずれ補正の一例を示す図である 図 6 は、 本実施形態の処理アルゴ リ ズムを示すフ ローチヤ 一トである。
図 7 は、 本発明の第 2 の実施形態に係る画像処理装置の機 能プロ ック図である。
図 8 A〜 8 Dは、 高倍率画像 H I、 H 2 とそれらに対応す る低倍率部分画像 L 1、 L 2 の明る さの違いを示す図である 図 9 A, 9 Bは、 低倍率画像、 高倍率画像 H 1 、 高倍率画 像 H 2それぞれを撮像する と き の入出力特性を示す図である 図 Ι Ο Α , . Ι Ο Βは、 高倍率画像 H I とそれらに対応する 低倍率部分画像 L 1 の幾何変形の違いを検出する手順を説明 するための図である。
図 1 1 A , 1 1 B は、 高倍率画像 H I と対応する低倍率部 分画像 L 1 の明る さの均一性の違いを検出する手順を説明す るための図である。
図 1 2 は、 本発明の第 3 の実施形態に係る画像処理装置の 構成を示す図である。
図 1 3 は、 本発明の第 4 の実施形態に関して、 高倍率レ ン ズと低倍率レンズの光軸のずれによる芯ずれを示す図である 図 1 4 は、 本発明の第 4 の実施形態に関して、 芯回転によ る角度ずれを示す図である。
発明を実施するための最良の形態
以下、 図面を参照して本発明の実施の形態を詳細に説明す る。
(第 1 の実施形態)
先ず、 本発明による第 1 の実施形態を説明する。 本実施形 態の画像処理装置はシステム構成と して、 不図示の、 複数種 類の倍率の対物レンズを有する顕微鏡と、 標本を顕微鏡の視 野下で 2次元的に移動させる電動ステージと、 顕微鏡画像を 撮像する C C Dカメ ラ と、 上記した各部を制御する制御装置 と してのパーソナルコ ンピュータ と を具備している。
図 1 は、 第 1 の実施形態に係る画像処理装置の機能ブロ ッ ク図である。 標本の高解像 · 広視野画像を生成するため、 ま ず、 低倍率の対物レンズを用いて低倍率撮像部 1 1 によ り 標 本の全体像の低倍率.画像を撮像する。 撮像素子の画素数と、 低倍率撮像部 1 1 の視野の範囲及び電動ステージの座標から、 撮像された画像の画素位置とステージの座標と の対応関係を 算出する。
次に撮像した低倍率画像領域を、 一部重複領域を有する よ う に複数の小領域に分割する。 この と きに取得した領域分割 情報は電動ステージの座標に変換されて領域分割情報記憶部 1 3 に記憶される。
続いて、 対物レンズを高倍率に切り 換え、 電動ステージを 駆動 して、 前記領域分割情報記憶部 1 3 に記憶されている座 標に標本を移動させる、 する と、 高倍率の対物レンズの撮像 範囲下に所定の小領域が移動されるので、 こ こで、 高倍率撮 像部 1 2で当該小領域の高倍率画像を撮像する。
こ こで順次入力される高倍率画像を正確に貼り 合せるため に、 撮像した高倍率画像の領域分割情報が示す所定の位置か らのずれを検出 して補正を行わなければな らない。 そこで位 置ずれ検出部 1 4 では、 上記領域分割情報に基づき、 低倍率 の標本全体の画像から、 撮像される高倍率画像に対応する低 倍率の部分領域を切 り 出 し、 この低倍率部分画像を基準と し て、 高倍率画像とテンプレー トマ ッチングする こ と で、 高倍 率画像の位置ずれを検出する。 そ して、 位置ずれ補正部 1 5 では、 検出 した位置ずれ情報に従って、 高倍率画像の位置を 補正する。 補正された高倍率画像は画像貼り 合せ部 1 6 に入 力される。 画像貼り 合わせ部 1 6 は、 上記領域分割情報に基 づき、 当該捕正された高倍率画像と 1 つ前の補正された高倍 率画像と を順次繋ぎ合わせる こ と によ り 高倍率合成画像を逐 次完成させていく。
図 2 は、 低倍率標本全体画像 L と、 4分割された標本領域 との関係を示している。 図 2 において L l 、 L 2、 L 3 、 L 4 は一部重複領域を有する よ う に分割された 4 つの小領域を 示す。 各小領域 L 1 、 L 2 、 L 3 、 L 4 の中心の座標が電動 ステージの座標系に変換され、 それぞれ ( x l 、 y 1 ) 、 ( x 2 、 y 2 ) 、 ( x 3 、 y 3 ) 、 ( x 4、 y 4 ) と な り 、 この座標情報が領域分割情報記憶部 1 3 に記憶される。
小領域 L 1 を高倍率で撮像する と き には、 電動ステージを 駆動 してステージ座標 ( x l 、 y 1 ) に標本を移動させて高 倍率レンズで撮像する。 電動ステージの座標再現性が十分正 確であれば、 目標通 り の領域を高倍率で撮像でき るため、 高 倍率画像の位置ずれが生じない。 しかし、 一般的な電動ステ ージの座標再現精度は数 μ から数十 μ である。 L 1 の領域を 撮像するつも り でも、 撮像された高倍率画像は、 この座標再 現精度分だけ所定の位置からずれる可能性がある。 したがつ て、 正確な画像貼り 合せを行う ためには、 低倍率画像、 領域 分割情報、 そ して高倍率画像を位置ずれ検出部 1 4 に入力さ せて、 高倍率画像の所定の領域からの位置ずれを検出 しなけ ればならない。
以下に位置ずれ検出部 1 4 の作用を図 3 Α , 3 :6、 図 4入, 4 Β を参照 して詳細に説明する。 図 3 Αに示す L 1 は、 領域 分割情報に従って低倍率標本画像 Lから切 り 出 した分割小領 域の画像である。 L 1 の中心のステージ座標は ( X 1 、 y 1 ) である。 この画像 L 1 に対応する高倍率で撮像した画像 は H 1 (図 3 B ) であ り 、 ここではその中心のステージ座標 を ( x h l 、 y h l ) とする。
ステージ座標についての再現誤差がない場合、 ( X 1 、 y
1 ) = ( X h 1 s y h 1 ) になるが、 実際にはずれが生じる。 そこでこのずれ ( Δ χ、 Δ y ) を L 1 と H I のテンプレー ト マッチングによ り 求める。 L 1 に対する H I の位置ずれを求 める には、 まず、 この倍率の異なる 2枚の画像を同 じ倍率の 画像に変換しなければな らない。 低倍率画像 L 1 の撮像倍率 を b と し、 高倍率画像 H 1 の撮像倍率を a と し、 テンプレー トマッチングを行う ための倍率を c とする。 なお、 一般的に、 ac ≤ bの関係がある。
図 4 Aに示す L 1 'は線形補間によ り L 1 を中間倍率 c に拡 大した画像であ り 、 図 4 ( B ) に示す H 1,は H 1 を中間倍率 c に縮小した画像である。 テンプレー トマッチングを行う た めに、 H I,の中心付近の領域 T 1 をテンプレー ト画像と し、 ステージ座標の再現精度を考慮して、 L 1,の領域 S 1 を探索 領域とする。 探索領域 S 1 はテ ンプレー ト画像 T 1 よ り も大 き い。 テ ンプ レー ト マ ッ チ ングを行 う と き 、 テ ンプ レー ト 画 像 T 1 を検索領域 S 1 内で走査させなが ら、 評価関数を用い てテ ンプレー ト と探索領域における対応プロ ックのマ ツチン グの度合いを評価し、 最もマッチング度合いの高い位置を検 出すれば、 その位置と座標 ( X 1 、 y 1 ) と の差が高倍率画 像の位置ずれとなる。 こ こでは評価関数と して、 テ ンプレー ト と対応プロ ック 間の正規化相関係数を用いても よい し、 各 画素において、 テンプレー ト と対応プロ ック の輝度差の絶対 値の和を用いてもよい。
テ ンプ レー トマ ツチングの成功の確率やマ ツチングの精度 を上げるために、 テ ンプ レー ト とその検索領域をなるベく 大 き く しなければな らないが、 これによ り マッチング処理に時 間がかかる。 そこで複数段階のテンプレー トマ ッ チングによ る高速化を行う。 先ず、 中間倍率 d ( a < d < c ) で粗く 検 索を行い、 粗く 検出 した領域の周辺においてそれから中間倍 率 c で精密な検索を行っても よい。
本実施形態では電動ス テージを使っているため、 こ の位置 ずれが垂直又は水平方向の移動しか考慮しないが、 回転があ る場合には回転角度も含めて検出する。 位置検出部 1 4で高 倍率画像の位置ずれを検出 した後、 検出データ を用いて、 高 倍率画像の位置ずれ補正を行う。 こ の補正はァ フ ィ ン変換を 用いて行う。
図 5 は高倍率画像の位置ずれ補正の一例を示 している。 ( Δ χ、 Δ y ) は位置ずれ検出部 1 4 で求めた高倍率画像 H 1 の位置ずれである。 高倍率画像 H I の画像内容を ( Δ χ、 A y ) 分移動させる と、 位置ずれのない高倍率画像 H 1 〃が得 られる。 なお、 移動によ って生 じた画像周辺の ( Δ χ 、 Δ y ) の空白部分は画像貼り 合せ時に重複部分から除外される。 画像貼り 合せ部 1 6 は、 上記領域分割情報に従って、 入力 された位置ずれ補正後の高倍率画像を逐次つなぎ合せて、 標 本全体の高倍率画像を生成する。 領域分割情報から、 隣接す る高倍率画像間の重複領域の幅が算出でき るので、 こ の重複 領域の幅の算出を行 う 際に、 高倍率画像の位置ずれ補正によ つて画像周辺に生じた空白部分を除く 。 重複領域においては、 隣接画像間でプ レ ンディ ング処理を行って、 重複領域の中心 がつなぎ目になる よ う に処理を行う。
以下に、 上記した本実施形態のアルゴリ ズムを詳細に説明 する。 図 6 は、 本実施形態の処理アルゴ リ ズムを示すフ ロ ー チャー トである。 貼り 合せ処理を開始 (ステ ップ S 5 0 ) さ せる と、 制御装置によ り 顕微鏡の対物レ ンズが低倍率設定さ れ、 低倍率で標本の全体像を撮像する (ス テ ッ プ S 5 1 ) 。 続いて低倍率画像を所定の小領域に分割し、 こ の と きの分割 情報及び後で高倍率での撮像を行 う と きの順番が保存される (ステ ップ S 5 2 ) 。 この時、 低倍率画像の大まかな範囲を 自動的に検出 して、 自動的に小領域に分割しても よい し、 低 倍率画像をユーザに提示して、 ユーザが領域を選んで小領域 に分割しても よい。
続いて、 制御装置の指示によ り 、 顕微鏡の対物レンズを高 倍率に切 り 替える (ステ ップ S 5 3 ) 。 次に、 処理順番を示 す変数 Nに初期値と して 1 を与える (ステ ップ S 5 4 ) 。 続 いて、 処理順番に対応する小領域を高倍率で撮像するために、 電動ステージで小領域 Lに対応する標本部分を高倍率撮像部 の撮影視野下に移動させる (ステ ップ S 5 5 ) 。 そ して、 高 倍率画像を撮像する (ステ ップ S 5 6 ) 。
続いて電動ステージの位置再現誤差による高倍率画像の位 置ずれを検出するために、 低倍率画像において、 対応する低 倍率部分画像を切 り 出 し、 所定の中間倍率 c に画像を拡大し (ステ ップ S 5 7 ) 、 同時に高倍率画像を同 じ中間倍率 c に 縮小する (ステップ S 5 8 ) 。
続いて、 高倍率画像の中心部をテンプレー ト と定義し、 低 倍率画像の所定の検索範囲で対応するブロ ック を検出する。 このテンプレー トマ ッチングによ り 、 高倍率画像の所定位置 (領域分割時の位置) に対する位置ずれが検出される (ステ ップ S 5 9 ) 。 検出した位置ずれに基づき、 高倍率画像の位 置ずれを捕正する (ステップ S 6 0 ) 。
補正後の高倍率画像を 1 つ前の高倍率画像と貼 り 合せ し (ステ ップ S 6 1 ) 、 順次に標本の高倍率全体画像を作って いく 。 次の高倍率画像処理に行く 前に、 分割された領域の処 理が全て終わったかど う かを判断する (ステ ップ S 6 2 ) 。 ここで終わっていないと判断された場合には、 処理順番を示 す変数 Nを 1 つ増やし (ステ ップ S 6 4 ) 、 ステ ップ S 5 5 に戻って処理を繰り 返す。 一方、 ステ ップ S 6 2 で分割され た領域の全ての処理が終わった と判断された場合には、 最終 的に出来上がった高倍率標本全体像を出力 して (ステ ップ S 6 3 ) 、 貼り 合せ処理全体を終了させる (ステ ップ S 6 5 ) 。 以上の説明では、 座標系を全て電動ステージの座標系と想 定して説明 したが、 高倍率時の画素単位に変換しても問題が ない。 また、 ステージが電動式と して説明 したが、 マ二ユア ル操作のステージでも よい。 さ らに、 撮像部を固定して標本 を 2次元的に移動させるのではな く 、 標本を固定して撮像部 を標本に対して 2次元的に移動させて分割撮像しても良い。 本実施の形態によれば、 分割撮像された高倍率画像を貼り 合せする と き、 低倍率画像に基づいて位置ずれ補正を行う た め、 重複領域に標本像がなく ても、 正確な位置ずれ補正が可 能と な り 、 これによつて全体で確実な顕微鏡画像貼り 合せが でき る。 また、 画像処理に必要なメ モ リ 量が少なく て済み、 分割画像を撮像する と き の露出条件の違いや光学歪みがあつ てもつなぎ目 の 目立たない良好な標本全体の高解像画像を生 成でき る。 また、 高倍率画像が逐次入力されても、 画像貼り 合せが逐次に行われるため、 撮像動作と 同期 しての貼り 合せ によ り 、 全体処理の高速化が実現できる。
(第 2の実施形態) 次に、 本発明の第 2 の実施形態について説明する。 図 7 は、 第 2 の実施形態に係る画像処理装置の機能プロ ック図である。 図 7 の構成において、 図 1 に示す要素と 同 じ参照符号を有す る要素は図 1 のそれと 同等の機能を有するのでここでの説明 を省略し、 以下では異なる部分である、 画質差異検出部 1 7 と画質差異補正部 1 8 についてのみ詳細に説明する。
図 7 において高倍率撮像部 1 2 で標本を分割撮像する と き、 第 1 の実施形態で説明 したよ う なステージ精度によ る位置ず れ以外に、 高倍率画像間に面質上の差異が生じる こ と も貼り 合せ画像の画質に影響を与える ものと考えられる。 まず、 各 高倍率画像の露出条件の違いによ る高倍率画像間の明る さの 違いである。 分割撮像する場合、 所定の領域を最適な露出条 件で撮像するため、 各小領域において C C Dカメ ラの A G C ( Aut o Ga i n Co ntr o l ) を O Nに して撮像する と、 たと え位 置ずれを正確に検出 して各高倍率画像が精度良く つながった と しても、 貼り合せ画像上では、 高倍率画像間の輝度差によ つてつなぎ目が目立ってしま う。
次に、. 撮像画像の明る さの特性が光軸付近と周辺と で著し く 差のある撮像光学系で撮像した複数の高倍率画像を貼り 合 せする際、 高倍率画像間の平均的な明る さが同 じでも、 位置 ずれがなく ても、 貼り 合せ画像上では、 高倍率画像の明る さ の不均一性 (シェーディ ング) によ り 、 つなぎ目が 目立って しま う。
さ らに、 撮像系の歪曲収差によ り 、 画像の幾何特性が光軸 付近と周辺とで異なる場合には、 第 1 の実施形態の方法によ り 高倍率画像の中心部分をテンプレー ト と して高倍率画像間 の位置ずれを正確に求めた と しても、 貼り合せ画像上では、 つなぎ目付近における隣接高倍率画像の位置がずれる こ と に よ り 、 つなぎ目が目立って しま う。
そこで本実施形態では、 図 7 の位置ずれ補正部 1 5 で位置 ずれ捕正された高倍率画像は、 低倍率撮像部 1 1 からの対応 する低倍率画像と と もに、 画質差異検出部 1 7 に入力される。 画質差異検出部 1 7 は、 入力された高倍率画像と低倍率画像 と を比較して、 高倍率画像の画質を低倍率画像に合わせるた めの画質差異補正データ を生成する。 画質差異補正部 1 8 で は、 この画質差異補正データに基づき、 当該高倍率画像の画 質を補正してから、 画像貼り合せ部 1 6 に出力する。
以下に、 画質差異検出部 1 7 において、 低倍率画像に対す る高倍率画像の明る さの違い、 または明る さの不均一性、 ま たは歪曲収差の違いを検出 し、 補正データを求める手順を詳 しく 説明する。 低倍率画像に対する高倍率画像の画質差異を 求める には、 位置ずれを求める方法と 同様に、 まず、 この倍 率の異なる 2枚の画像を同 じ倍率の画像に変換しなければな らない。 基準となる倍率を低倍率と高倍率の中間倍率と して も良い し低倍率と しても よい。 こ こでは、 後の高倍率画像に 対する補正を考慮して、 補正データの計算は高倍率を基準と する。
図 8 A〜 8 Dは、 高倍率画像 H I 、 H 2 とそれらに対応す る低倍率部分画像 L 1 、 L 2 の明る さの違いを示している。 低倍率部分画像 L 1 、 L 2 は領域分割情報に基づき、 標本全 体像の低倍率画像から切 り 出 した部分画像を高倍率に拡大し たものである。 標本全体像の低倍率画像は一枚の画像と して 撮像されたものであるため、 そこから分割された部分画像が 同 じ露出条件で撮像された画像と 同じである。 一方、 高倍率 画像 H 1 、 H 2 を撮像する時の露出条件が異なるため、 高倍 率画像の明る さを、 H I 力 ら L 1 に及び H 2 力 ら L 2 に夫々 捕正しなければならない。
図 9 A , 9 Bは、 低倍率画像、 高倍率画像 H 1 、 高倍率画 像 H 2それぞれを撮像する と きの入出力特性を示す図である。 図 9 Aにおいて、 1 (エル) v 、 h v l 、 h v 2 を低倍率画 像、 高倍率画像 H 1 、 高倍率画像 H 2それぞれに対応する入 出力特性曲線と仮定する と、 高倍率画像 H 1 の平均明る さ を 低倍率部分画像 L 1 と同 じに補正するために、 高倍率画像 H 1 の各画素値に補正値 V 1 を加算すればよい。
V I = V L 1 一 V H 1
こ こで V L 1 、 V H 1 は、 それぞれ画像 L l 、 H I の画素 値の平均値である。 同様に、 画像 H 2 の平均明る さ を L 2 と 同 じに補正するために、 H 2 の各画素値に補正値 V 2 を加算 すればよい。
V 2 = V L 2 一 V H 2
こ こで V L 2、 V H 2 は、 それぞれ画像 L 2 、 H 2 の画素 値の平均値である。 しかし、 一般的に撮像素子の入出力特性 は図 9 Aに示すよ う な単純な直線と はな らない。 図 9 Bのよ う に、 入出力特性が曲線である場合、 高倍率画像の各画素に おいて、 入力画素値に応じて入出力補正を行う 必要がある。 この場合、 予め測定しておいた低倍率画像と高倍率画像の入 出力特性から、 画素値に対応した補正テーブルを求めて補正 データ と して使用する。
図 1 0 A, 1 0 B は、 高倍率画像 H I (図 1 0 B ) とそれ らに対応する低倍率部分画像 L 1 (図 1 0 A ) の幾何変形の 違いを検出する手順を説明するための図である。 高倍率撮像 部の場合と 同様に、 低倍率撮像部で撮像した低倍率画像にも 光学系による歪曲収差が存在する。 しかし、 本発明は、 低倍 率画像を基準に して高倍率画像の貼り 合せを行 う こ と を 目的 と しているため、 貼り 合せ全体像に収差があっても、 つなぎ 目部分に位置ずれがなければ良い。 また、 低倍率部分画像 L 1 が低倍率全体像の 1 つの小領域であるため、 歪曲収差が無 視でき る もの と考えられる。 以降、 低倍率部分画像 L 1 が レ ンズ光学系による歪曲収差がすでに補正されたか、 または歪 曲収差がないもの と仮定して、 高倍率撮像部の光学系による 歪曲収差の補正データを算出する方法を説明する。
まず、 図 1 O Aに示す低倍率部分画像 L 1 の中から複数の 特徴点 5 0 を抽出する。 特徴点 5 0 は周辺画素を含むプロ ッ ク のコ ン ト ラス トが高い画素とする。 続いて低倍率画像の特 徴点 5 0それぞれの対応点 5 1 を高倍率画像の中から検出す る。 対応点 5 1 の検出方法と してテンプレー トマッチングを 用いる。 これによ り 、 複数の特徴点 5 0 と対応点 5 1 の座標 データが得られる。 特徴点 5 0 の座標を ( xi, yi) 、 対応点 5 1 の座標を (xi',yi' ) とする と、 高倍率画像の歪曲収差を補 正するためには、 補正後の高倍率画像の各画素の画素値を下 記の式によ り求めればよい。
u , y" ) = , y )
av [ x , y ] = hv L x , y 」
こ こ で、 av [ ]は補正後の高倍率画像の各画素の画素値で、 hv []は補正前の高倍率画像の各画素の画素値である。 特徴点 5 0 とその対応点 5 1 を求めたこ とで、 特徴点 5 0 と なる位 置の画素の対応点 5 1 の座標が分かるが、 それ以外の位置の 対応点の座標はわからない。 低倍率画像の全画素の高倍率画 像における対応画素の位置を求めるには、 注目画素の近傍の 複数の特徴点 5 0 とその対応点 5 1 の座標から線形捕間によ つて求め られる。 勿論、 標準的な歪曲収差を表す数式の係数 を複数組の特徴点と対応点から推定して、 低倍率部分画像の 全画素の高倍率画像における対応画素の位置を求めても良い t 図 1 1 A, 1 I B は、 高倍率画像 H I (図 1 1 B ) と対応 する低倍率部分画像 L 1 (図 1 1 A ) の明る さの均一性の違 いを検出する手順を説明するための図である。 撮像レ ンズの シェーディ ングや、 標本に対する照明の違いによって低倍率 画像に対する高倍率画像の明る さの不均一が存在する。 以下 では、 低倍率部分画像 L 1 に合わせて高倍率画像 H 1 のシェ 一ディ ングを補正するデータを求める方法を説明する。 なお. 図 1 1 Bにおいて、 高倍率画像 H 1 は位置ずれ補正、 明る さ 補正、 歪曲収差補正の必要な補正が行われた後の画像である こ とを想定する。
高倍率画像のシェーディ ングを補正するには、 低倍率部分 画像 L 1 の中から複数の特徴点を抽出する。 図 1 O Aに示す よ う に、 所定の位置の画素を特徴点 5 2 と しても よいが、 周 辺画素を含むプロ ックのコ ン ト ラス トが低い位置の画素を使 用する こ と がよ り 好ま しい。 これは万一、 特徴点 5 2 と対応 点 5 3 に微小なずれがあつたと きでも、 よ り 正確なシエーデ ィ ングデータを得るためである。
位置ずれ補正、 明る さ補正、 歪曲収差捕正を含む必要な補 正が行われた高倍率画像では、 高倍率画像と低倍率部分画像 の各画素の位置が完全に一致するため、 高倍率画像の中の同 じ位置の画素が特徴点 5 2の対応点 5 3 となる。 (xi, yi)を特 徴点 5 2 (対応点 5 3 の) 座標と し、 特徴点 5 2 の画素値と 対応点 5 3 の画素値の比 k[xi, yi]が求められる。 この画素値 の比を高倍率画像のシエーディ ングデータ と なる。 補正後の 高倍率画像の各画素の画素値を下記式によ り求めればよい。
av [xi, yi] = hv[xi, yi]*k[xi, yi]
但 し、 av []は捕正後の高倍率画像の各画素の画素値で、 hv门は補正前の高倍率画像の各画素の画素値である。 特徴点 5 2 と対応点 5 3 における補正データが求め られたが、 それ 以外の位置の補正データがわからない。 対応点 5 3 以外の高 倍率画像の全画素における補正データ を求める には、 注目画 素の近傍の複数の補正データから線形補間によって求め られ る。 勿論、 標準的なシェーディ ングを表す数式の係数を、 複 数組の特徴点 5 2 と対応点 5 3 の画素値の比から推定して、 高倍率画像の全画素の補正データを求めてもよい。
これまで高倍率画像毎に画質差異を検出 して補正する こ と を仮定して説明 してきたが、 勿論所定の小領域の高倍率画像 において求めた画質差異を、 その他の小領域の高倍率画像の 処理に使ってもよい。
以上説明 したよ う に、 本実施の形態によれば、 高倍率画像 を撮像する と きに、 撮像条件による高倍率画像の低倍率画像 に対する画質の差異を検出 し、 それぞれ補正する こ と で、 高 倍率画像の露出条件が異なった場合でも、 高倍率画像撮像部 に歪曲収差があっても、 高倍率画像撮像部によ る明る さが不 均一であっても、 つなぎ目 が 目立たないよ う な高倍率標本全 体像を生成できる。
(第 3 の実施形態)
次に、 本発明の第 3 の実施形態について説明する。 これま での実施形態において、 低倍率画像は低倍率レンズを使用 し て撮像し、 高倍率画像は高倍率レンズを使用 して撮像し、 低 倍率撮像部と高倍率撮像部と は同 じ種類の撮像素子を用いる こ と を想定して説明 してきた。 しかし、 顕微鏡の低倍率レン ズの撮影視野には限界がある。 通常、 標本全体は低倍率レン ズの視野よ り 広い。 標本全体像を撮像するために、 低倍率撮 像部と高倍率撮像部と を別々 に設けて、 低倍率画像は標本範 囲をカバーできるライ ンセンサで撮像し、 高倍率撮像は従来 のエリ ァセンサで撮像する。
図 1 2 はこの実施形態に係る画像処理装置の構成を示す図 である。 先ず、 低倍率画像を撮像する と き、 電動ステージ 1 2 4 を X方向に移動させなが ら、 低倍率撮像素子であるライ ン型 C C D 1 2 2 で標本 1 2 3 の全体を撮像する。 次に、 撮 像した低倍率標本の全体像に基づき、 標本領域を複数の小領 域に分割する。 高倍率画像を撮像する と き、 分割された小領 域をス テージ 1 2 4 で高倍率撮像部であるエ リ ア型 C C D の 視野下に移動させて順次高倍率画像を撮像する。 以降の処理 は従来実施形態と同 じであるため省略する。
(第 4の実施形態)
次に、 本発明の第 4の実施形態について説明する。 電動ス テージを移動せずに、 低倍率レ ンズと高倍率レンズを切り 換 えて撮像した と き、 撮影視野に、 図 1 3 に示すよ う な レンズ 光軸のずれによる芯ずれと、 図 1 4 に示すよ う な芯回転によ る角度ずれとが存在する。
本発明では、 まず、 低倍率画像を参照 して標本全体を複数 の小領域に分割し、 各小領域の位置情報に従ってス テージを 移動させ、 次に高倍率画像の撮像を行い、 各小領域の高倍率 画像と、 対応する低倍率画像の部分画像と の位置ずれを検出 し、 次に高倍率画像の位置ずれ補正を行ってから、 高倍率画 像同士を貼 り 合せする こ と を特徴と している。 したがって、 低倍率と高倍率の芯ずれ又は芯回転が大きい場合、 低倍率画 像に基づいて標本全体を領域分割し、 このと きの領域分割情 報に従ってス テージの移動量を指示しても、 所望の位置の高 倍率画像が撮像できない。 そこで、 予め低倍率レ ンズ と高倍 率レンズの切 り 替えによ る芯ずれと芯回転が どの程度あるの かを検出しなければならない。
芯ずれの検出方法と して、 ス テージの位置を移動せず、 全 く 同 じ位置で低倍率画像と高倍率画像を撮像し、 高倍率画像 をテンプレー ト と して、 低倍率画像のなかからマッチング位 置を検出すれば、 マ ッチング位置と画像の中心とのずれが芯 ずれと して検出できる。
一方、 芯回転の検出方法と して、 まず、 芯ずれの検出方法 と 同様に、 ステージの位置を移動せず、 全く 同 じ位置で低倍 率画像と高倍率画像を撮像し、 高倍率画像と低倍率画像のマ ツチング位置を求め、 次に、 マ ッチング位置において、 テ ン プレー ト を少 しずつ回転させなが ら、 最も相関係数が最大と なる角度を求めるこ とで、 芯回転の角度が求められる。
その他の方法と して、 低倍率画像と撮像位置の異なる 2つ 以上の高倍率画像を用いて、 高倍率画像の夫々が低倍率画像 における位置を検出 し、 それらの位置から、 高倍率と低倍率 撮像部の回転角度ずれが求められる。
上記のよ う に検出 した低倍率と高倍率の芯ずれを用いて、 低倍率画像に基づいて標本全体を分割する領域分割情報を捕 正する。 領域分割情報を各分割領域の中心のステージ座標で ある (x i、 y i ) ( i は各分割領域の番号を表す) で表し、 検 出 した芯ずれを ( Δ X、 Δ y ) と した と き、 領域分割情報は ( x i + Δ X y i + Δ y ) と補正される。 補正された値は記憶 部 (例えば図 1 の領域分割情報記憶部 1 3 ) に記憶される。
勿論、 芯ずれがなく なる よ う に レンズ位置のマニュアル調 整を行っても よい。 一方、 低倍率レンズに対する高倍率レン ズの芯回転角度を α と した場合、 芯回転を捕正する方法と し て、 低倍率画像を α度だけ回転させて新たな低倍率画像と し- 高倍率画像をそのまま とする こ と が好ま しい。 勿論、 低倍率 画像をそのままに して各高倍率画像を一 α度だけ回転させて もよい し、 回転がないよ う に低倍率レ ンズ又は高倍率レ ンズ の回転角度を調整しても よい。
産業上の利用可能性
複数の画像を貼り 合せ合成する際に、 重複部分に標本像が なく ても全体で確実な画像貼り 合せができ、 分割撮像時の撮 像条件が異なっていても均一な背景の貼り 合せ画像を構築で きる画像処理装置を提供できる。

Claims

請 求 の 範 囲
1 . 標本領域全体を第 1 の倍率である低い倍率で撮像する低 倍率撮像部と、
一部重複領域を有する よ う に標本領域全体を複数の小領域 に分割した と きの各小領域の位置情報を領域分割情報と して 記憶する領域分割情報記憶部と、
前記領域分割情報に従って、 前記第 1 の倍率よ り も高い倍 率である第 2 の倍率で各分割領域と略同一の領域を順次撮像 する高倍率撮像部と、
前記低倍率撮像部で撮像した低倍率標本画像に基づき、 前 記高倍率撮像部で撮像した高倍率画像の位置ずれを検出する 位置ずれ検出部と、
前記位置ずれ検出部で検出された位置ずれに基づいて各高 倍率画像の位置を補正する位置ずれ補正部と、
前記位置ずれ補正部で位置補正された各高倍率画像を順次 貼り 合わせて標本領域全体の高倍率画像を作成する画像貼り 合せ部と、
を具備する画像処理装置。
2 . 前記位置ずれ補正部で位置補正された各小領域の高倍率 画像の画質と、 前記低倍率標本画像の前記高倍率画像に対応 する部分画像の画質の差異を検出する画質差異検出部と、 前記画質差異検出部で検出された画質の差異に基づき、 各 小領域の高倍率画像の画質を補正する画質差異補正部と、 を更に有する請求項 1記載の画像処理装置。
3 . 前記画質差異は、 明る さの違いによ る ものである請求項 2記載の画像処理装置。
4 . 前記画質差異は、 明る さの均一性の違いによる ものであ る請求項 2記載の画像処理装置。
5 . 前記画質差異は、 幾何特性の違いによる ものである請求 項 2記載の画像処理装置。
6 . 前記低倍率撮像部は、 標本に対して相対走査する こ と に よ り 標本全体像を撮像する ライ ンセンサを有し、 前記高倍率 撮像部は、 標本の一部を撮像するエリ アセンサを有する請求 項 1記載の画像処理装置。
7 . 前記低倍率撮像部で撮像した低倍率画像と、 前記高倍率 撮像部で撮像した高倍率画像と を比較する こ と によ り 、 前記 低倍率撮像部と前記高倍率撮像部との位置関係を検出 し、 検 出 した位置関係をも と に、 前記領域分割情報を補正する請求 項 1 または請求項 6記載の画像処理装置。
8 . 前記位置関係は水平又は垂直移動を考慮して決定される 請求項 7 の画像処理装置。
9 . 前記位置関係は回転移動を考慮して決定される請求項 7 の画像処理装置。
PCT/JP2004/006505 2003-05-13 2004-05-07 画像処理装置 WO2004102478A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP04731757A EP1640908A1 (en) 2003-05-13 2004-05-07 Image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003134732A JP2004343222A (ja) 2003-05-13 2003-05-13 画像処理装置
JP2003-134732 2003-05-13

Publications (1)

Publication Number Publication Date
WO2004102478A1 true WO2004102478A1 (ja) 2004-11-25

Family

ID=33447155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/006505 WO2004102478A1 (ja) 2003-05-13 2004-05-07 画像処理装置

Country Status (4)

Country Link
US (1) US20050163398A1 (ja)
EP (1) EP1640908A1 (ja)
JP (1) JP2004343222A (ja)
WO (1) WO2004102478A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653260B2 (en) * 2004-06-17 2010-01-26 Carl Zeis MicroImaging GmbH System and method of registering field of view
US20070031043A1 (en) * 2005-08-02 2007-02-08 Perz Cynthia B System for and method of intelligently directed segmentation analysis for automated microscope systems
JP4847101B2 (ja) * 2005-10-31 2011-12-28 オリンパス株式会社 顕微鏡システム
JP2007122118A (ja) * 2005-10-25 2007-05-17 Matsushita Electric Ind Co Ltd 画像連結方法
JP2007252413A (ja) * 2006-03-20 2007-10-04 Topcon Corp 眼科用測定装置
JP5080750B2 (ja) * 2006-03-31 2012-11-21 セイコープレシジョン株式会社 顕微鏡及び顕微鏡の制御プログラム
US7742624B2 (en) * 2006-04-25 2010-06-22 Motorola, Inc. Perspective improvement for image and video applications
WO2009113647A1 (ja) * 2008-03-14 2009-09-17 株式会社ニコン 顕微鏡システム
JP5096303B2 (ja) 2008-12-12 2012-12-12 株式会社キーエンス 撮像装置
JP5096302B2 (ja) 2008-12-12 2012-12-12 株式会社キーエンス 撮像装置
JP5154392B2 (ja) 2008-12-12 2013-02-27 株式会社キーエンス 撮像装置
WO2010070553A1 (en) * 2008-12-15 2010-06-24 Koninklijke Philips Electronics N.V. Scanning microscope.
JP5316161B2 (ja) * 2009-03-27 2013-10-16 ソニー株式会社 観察装置
KR101029460B1 (ko) * 2009-04-10 2011-04-15 에스엔유 프리시젼 주식회사 영상 센터링 방법
CN101887030A (zh) * 2009-05-15 2010-11-17 圣戈本玻璃法国公司 用于检测透明基板表面和/或其内部的缺陷的方法及系统
JP5059816B2 (ja) * 2009-08-14 2012-10-31 株式会社クラーロ スライド画像データ作成装置
JP2010061129A (ja) * 2009-08-14 2010-03-18 Claro Inc スライド画像データ
JP2012008254A (ja) * 2010-06-23 2012-01-12 Shicoh Engineering Co Ltd 撮影装置及びマイクロスコープ
JP2012222465A (ja) * 2011-04-05 2012-11-12 Sony Corp 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP5881356B2 (ja) * 2011-09-27 2016-03-09 オリンパス株式会社 顕微鏡システム
AU2011253779A1 (en) * 2011-12-01 2013-06-20 Canon Kabushiki Kaisha Estimation of shift and small image distortion
JP5911296B2 (ja) * 2011-12-22 2016-04-27 オリンパス株式会社 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
JP5874540B2 (ja) * 2012-06-05 2016-03-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
JP6172146B2 (ja) * 2012-07-04 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
DE102012024737B4 (de) * 2012-12-18 2023-02-16 Carl Zeiss Microscopy Gmbh Verfahren zur Korrektur der Parzentrizität für Zoomsysteme
DE102014004511A1 (de) * 2014-03-28 2015-10-01 Carl Zeiss Microscopy Gmbh Verfahren zum Beenden mikroskopischer Anwendungen mit einem Immersionsobjektiv
JP6448996B2 (ja) * 2014-11-25 2019-01-09 オリンパス株式会社 顕微鏡システム
US20160282599A1 (en) * 2015-03-27 2016-09-29 Syntheslide, LLC Systems and methods for combining magnified images of a sample
JP6499506B2 (ja) * 2015-04-30 2019-04-10 富士フイルム株式会社 撮像装置および方法並びに撮像制御プログラム
JP6815741B2 (ja) * 2016-03-30 2021-01-20 キヤノン株式会社 画像処理装置および画像処理方法
WO2019008692A1 (ja) 2017-07-05 2019-01-10 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
WO2019092844A1 (ja) 2017-11-10 2019-05-16 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
JP7222764B2 (ja) * 2019-03-18 2023-02-15 株式会社キーエンス 画像測定装置
US20200311886A1 (en) * 2019-03-28 2020-10-01 Carl Zeiss Microscopy Gmbh Method for determining an image recording aberration
EP3822687A1 (en) 2019-11-15 2021-05-19 Leica Microsystems CMS GmbH Optical imaging device for a microscope
WO2021111542A1 (ja) 2019-12-04 2021-06-10 オリンパス株式会社 撮像装置
KR102240649B1 (ko) * 2019-12-11 2021-04-15 (주)유아이엠디 표본 세포 관찰을 위한 정밀 광학기기의 촬상 방법
CN112819725B (zh) * 2021-02-05 2023-10-03 广东电网有限责任公司广州供电局 一种径向畸变的快速图像校正方法
DE102022115660A1 (de) 2022-06-23 2023-12-28 Basler Aktiengesellschaft Verfahren und Vorrichtung zur Mikroskopie

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03209415A (ja) * 1990-01-12 1991-09-12 Fuji Photo Film Co Ltd 顕微鏡像出力方法および走査型顕微鏡
JPH05143713A (ja) * 1991-04-30 1993-06-11 General Electric Co <Ge> 複合像を発生する方法
JPH09281405A (ja) * 1996-04-17 1997-10-31 Olympus Optical Co Ltd 顕微鏡システム
JPH11102430A (ja) * 1997-09-25 1999-04-13 Sharp Corp 画像処理装置
JPH11196319A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196318A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196299A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196317A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JP2000059606A (ja) * 1998-08-12 2000-02-25 Minolta Co Ltd 高精細画像作成システム
JP2001292304A (ja) * 2000-04-10 2001-10-19 Fuji Xerox Co Ltd 画像読取装置、画像読取方法および画像表現方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8314778D0 (en) * 1983-05-27 1983-07-06 Pa Management Consult Adaptive pattern recognition
JPH0245734A (ja) * 1988-08-05 1990-02-15 Mitsubishi Heavy Ind Ltd 自動組織解析処理装置
JPH07115534A (ja) * 1993-10-15 1995-05-02 Minolta Co Ltd 画像読取装置
JPH10339845A (ja) * 1997-06-09 1998-12-22 Olympus Optical Co Ltd モニタ観察型顕微鏡
JP2004101871A (ja) * 2002-09-10 2004-04-02 Olympus Corp 顕微鏡画像撮影装置
US8124429B2 (en) * 2006-12-15 2012-02-28 Richard Norman Reprogrammable circuit board with alignment-insensitive support for multiple component contact types

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03209415A (ja) * 1990-01-12 1991-09-12 Fuji Photo Film Co Ltd 顕微鏡像出力方法および走査型顕微鏡
JPH05143713A (ja) * 1991-04-30 1993-06-11 General Electric Co <Ge> 複合像を発生する方法
JPH09281405A (ja) * 1996-04-17 1997-10-31 Olympus Optical Co Ltd 顕微鏡システム
JPH11102430A (ja) * 1997-09-25 1999-04-13 Sharp Corp 画像処理装置
JPH11196319A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196318A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196299A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JPH11196317A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 撮像装置
JP2000059606A (ja) * 1998-08-12 2000-02-25 Minolta Co Ltd 高精細画像作成システム
JP2001292304A (ja) * 2000-04-10 2001-10-19 Fuji Xerox Co Ltd 画像読取装置、画像読取方法および画像表現方法

Also Published As

Publication number Publication date
EP1640908A1 (en) 2006-03-29
JP2004343222A (ja) 2004-12-02
US20050163398A1 (en) 2005-07-28

Similar Documents

Publication Publication Date Title
WO2004102478A1 (ja) 画像処理装置
JP5154392B2 (ja) 撮像装置
JP3851384B2 (ja) 画像合成装置および方法
EP1343332B1 (en) Stereoscopic image characteristics examination system
US8451335B2 (en) Imaging device
JP5940383B2 (ja) 顕微鏡システム
JP4951496B2 (ja) 画像生成方法及びその画像生成装置
US8077246B2 (en) Method and apparatus for controlling imaging direction and magnification of camera
JP5096297B2 (ja) 撮像装置
JP2012026841A (ja) ステレオ測距装置及びステレオ測距方法
WO2013094273A1 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
US7349584B2 (en) Method for correcting distortions in multi-focus image stacks
JP5091099B2 (ja) 撮像装置
KR20110030275A (ko) 화상 생성 방법 및 화상 생성 장치
JP6479178B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
JP5149984B2 (ja) 撮像装置
JP5996462B2 (ja) 画像処理装置、顕微鏡システム及び画像処理方法
JP5226406B2 (ja) モンタージュ画像の合成方法及び電子顕微鏡
JPH0969973A (ja) 固体撮像素子の位置調整方法
JPH09128550A (ja) 画像処理方法およびその装置
JP2000074665A (ja) 距離画像生成装置及び方法
JPH0979946A (ja) 表示装置の検査装置
JP4796295B2 (ja) カメラアングル変化の検出方法および装置およびプログラム並びにこれを利用した画像処理方法および設備監視方法および測量方法およびステレオカメラの設定方法
CN110942434A (zh) 一种显示面板的显示补偿系统及方法
JP2011129458A (ja) 走査型電子顕微鏡及び走査型電子顕微鏡の撮像方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004731757

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004731757

Country of ref document: EP