WO2004042392A1 - 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置 - Google Patents

画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置 Download PDF

Info

Publication number
WO2004042392A1
WO2004042392A1 PCT/JP2002/011624 JP0211624W WO2004042392A1 WO 2004042392 A1 WO2004042392 A1 WO 2004042392A1 JP 0211624 W JP0211624 W JP 0211624W WO 2004042392 A1 WO2004042392 A1 WO 2004042392A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
cell
information
class
recognition result
Prior art date
Application number
PCT/JP2002/011624
Other languages
English (en)
French (fr)
Inventor
Kohei Murao
Shuji Suda
Hitohide Usami
Masatoshi Naruse
Toshiyuki Gotoh
Seiichiro Kagei
Noriko Kabuyama
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP02780044A priority Critical patent/EP1586897B1/en
Priority to AU2002344483A priority patent/AU2002344483A1/en
Priority to PCT/JP2002/011624 priority patent/WO2004042392A1/ja
Priority to DE60237242T priority patent/DE60237242D1/de
Priority to JP2004549566A priority patent/JP4037869B2/ja
Publication of WO2004042392A1 publication Critical patent/WO2004042392A1/ja
Priority to US11/089,223 priority patent/US7050613B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation

Definitions

  • the present invention relates to an image analysis support method, an image analysis prayer support program, and an image analysis support method for supporting analysis of cell images photographed with a microscope or the like in the field of genome analysis technology such as research and development of new drugs and drug discovery.
  • the present invention relates to an analysis support device. Background art
  • the microscope image capture device HTS-50 of Matsushita Electric Industrial Co., Ltd. has a function to output quantitative numerical values from cell images. Examples include cell flatness, neurite length, and analysis of stained nuclei. Here, individual cells are not extracted and analyzed, but the texture of the entire image and the total length of elongated structures are calculated. Also, the whole system It is designed on the assumption that the examiner visually checks all raw images. In addition, Beckman of the United States has commercialized equipment and applications using microscope images, but it is premised on that the experimenter visually confirms the images, similar to HTS-50.
  • Patent documents include, for example, Japanese Patent Application Laid-Open No. H5-249102.
  • the conventional technology uses uniform processing for the entire image, and the result is displayed in units of one image in some cases.
  • experiments with cDNA had a low probability of successful injection, and needed to distinguish between injected and non-injected cells.
  • there are many types of fluorescent patterns and there is a weak pattern such as noise in the background, which makes it difficult to distinguish between the background and the cell pattern.
  • the whole cell is firefly In some cases, the light shines, and in other cases, some of the cells fluoresce granularly. If all adjacent cells are fluorescent, they need to be separated. In the case of fluorescent particles, it is necessary to recognize that the dark area between the grains is not set as the background.
  • fluorescent particles it is necessary to recognize that the dark area between the grains is not set as the background.
  • an object of the present invention is to provide an image analysis support method, an image analysis support program, and an image analysis support device capable of improving the efficiency of experiments and analysis. Disclosure of the invention
  • an image analysis support method, an image analysis support program, and an image analysis support device include information on a fluorescent image obtained by capturing cells attached to a plurality of cells, And input of information relating to at least one of a bright-field image and a phase difference image in the same visual field as the fluorescent image, and based on the information regarding the received fluorescent image, the input of cells in the fluorescent image is performed. Detecting the presence position, determining the class of the cell present at the detected presence position, information on the determined class, and the bright-field image and the position of the cell extracted based on the detected presence position.
  • a feature is that at least one of the image information of the phase difference images is output so as to be displayed as a list.
  • the recognition result for each of the images or for each of the pairs may be determined based on the determined class, and information on the determined recognition result may be output in a list-displayable manner. Also, the determined recognition result can be changed.
  • At least one of the information on the cell candidate of the fluorescence image, the information on the average cell model, and the information on the average background model may be detected.
  • the amount of projection is obtained by calculating the inner product of at least one of the principal component vector of the average cell model and the average background model and the feature vector of the cell candidate in the fluorescence image. It is also possible to calculate the evaluation value by normalizing the calculated and calculated projection amount, and to detect the position of the cell in the fluorescence image based on the calculated evaluation value.
  • the amount of projection is calculated by calculating an inner product of a principal component vector of each protein localization class model and a characteristic vector of a cell existing at the existing position in the position detecting step.
  • An evaluation value may be calculated by normalizing the projection amount, and the class of the cell may be determined based on the calculated evaluation value.
  • FIG. 1 is an explanatory diagram showing an example of a hardware configuration of an image analysis support device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a hardware configuration of an image storage PC or an image processing PC.
  • FIG. 3 is a block diagram showing an example,
  • FIG. 3 is an explanatory diagram showing a functional configuration of an image keratinization support device according to the embodiment of the present invention, and
  • FIG. 4 is a diagram showing the functional configuration of the embodiment of the present invention.
  • Fig. 5 is a flowchart showing an example of a fluorescent image
  • Fig. 6 is an explanatory diagram showing an example of a bright-field image.
  • FIG. 7 is an explanatory diagram showing an example of a phase difference image.
  • FIG. 1 is an explanatory diagram showing an example of a hardware configuration of an image analysis support device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a hardware configuration of an image storage PC or an image processing PC.
  • FIG. 8 is an explanatory diagram showing an example of a plate for culturing cells.
  • FIG. 9 is a diagram showing a plurality of images from one well.
  • FIG. 10 is an explanatory diagram showing an example of a photographing area when obtaining a hologram.
  • FIG. 11 is a flowchart showing the contents of the image acquisition processing.
  • FIG. 11 is an explanatory diagram showing the contents of the cell position detection processing
  • FIG. 12 is another flowchart showing the contents of the cell position detection processing.
  • FIG. 13 is an explanatory diagram.
  • FIG. FIG. 14 is an explanatory diagram showing an example of detecting a cell position
  • FIG. 15 is an explanatory diagram showing the contents of a class determination process
  • FIG. 17 is a flowchart showing the contents of the recognition result determination process.
  • FIG. 18 is an explanatory diagram showing an example of the report screen.
  • FIG. 19 is an explanatory diagram showing another example of a report screen, and
  • FIG. 20 is an explanatory diagram showing an example of an image of a protein localization class in a cell.
  • FIG. 1 is an explanatory diagram illustrating an example of a hardware configuration of an image processing apparatus according to an embodiment of the present invention.
  • 100 is an optical microscope
  • 101 is a microscope control module
  • 102 is an image storage personal computer (PC)
  • 103 is an image processing personal computer.
  • 104 is a monitor
  • 105 is a printer.
  • the microscope control module 101 is a module for controlling the optical microscope 100 and capturing a fluorescence image, a bright-field image, and a phase contrast image. Set the cells that have been successfully injected to respond to fluorescence.
  • the optical microscope 100 is set so that images of fluorescence, bright field, and phase difference can be captured in the same field of view.
  • the microscope control module 101 is equipped with an Xyz stage, a fluorescent (mercury silver) shutter, a halogen light shutter, etc., and has functions such as replacement of a fluorescent filter and control of a CCD camera for determining the exposure time.
  • the image storage PC 102 and the image processing PC 103 are personal computers as an example of an information processing apparatus. These may be servers or work stations. In particular, the PC 103 for image processing has a high processing speed. Are preferred.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of the image storage PC 102 and the image processing PC 103.
  • a PC 201 for image storage and a PC 103 for image processing include a CPU 201, a ROM 202, a RAM 203, an HDD 204, an HD 205, a FDD (flexible disk drive) 206, and a removable recording medium.
  • An FD (flexible disk) 207, an IZF (interface) 208, a keyboard 210, a mouse 211, and a scanner 212 are provided as an example of the above.
  • Each component is connected by a bus 200.
  • a display (monitor) 104 and a printer 105 are connected.
  • the CPU 201 governs overall control of the image analysis support device.
  • the ROM 202 stores programs such as a boot program.
  • the RAM 203 is used as a work area of the CPU 201.
  • the HDD 204 controls read / write of data to / from the HD 205 under the control of the CPU 201.
  • the HD 205 stores data written under the control of the HDD 204.
  • the FDD 206 controls reading / writing of data from / to the FD 207 under the control of the CPU 201.
  • the FD 207 stores the data written under the control of the FDD 206 and causes the information processing device to read the data recorded in the FD 207.
  • a CD-ROM CD-R, CD-RW
  • MO Compact Disc
  • DVD DigitalVeRsatileD eIsk
  • the display 104 displays data such as a document, an image, and function information, such as a cursor, an icon, or a tool box. Examples include CRTs, TFT LCDs, and plasma displays.
  • the I / F (interface) 208 is connected to a network 209 such as a LAN or the Internet via a communication line, and is connected to other servers and information processing devices via the network 209.
  • the I / F 208 manages an interface between the network and the inside, and receives data from other servers and information terminal devices. Control the output.
  • the IZF 208 also connects the image storage PC 102 and the image processing PC 103.
  • I ZF208 is, for example, a modem.
  • the keyboard 210 is provided with keys for inputting characters, numerals, various instructions, and the like, and performs data input.
  • the touch panel input pad can be a numeric keypad.
  • the mouse 211 moves the cursor, selects a region, or moves and resizes a window.
  • a trackball, joystick, or the like may be used as long as the pointing device has the same function.
  • the scanner 211 optically reads an image such as a driver image and takes in image data into the information processing device. It also has an OCR function, which can read printed information and convert it into data.
  • the printer 105 prints image data such as contour image information and document data. For example, laser printers, inkjet printers, and the like.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the image analysis support device according to the embodiment of the present invention.
  • the image analysis support device includes a fluorescent image information input unit 301, a fluorescent image information storage unit 302, a bright field image information / phase difference image information input unit 303, and a bright field image.
  • the functional configuration of the image storage PC 102 includes a fluorescent image information input section 301, a fluorescent image information storage section 302, a bright field image information / phase difference image information input section 303, The bright field image information 'phase difference image information storage unit 304, the report information storage unit 310, and the power supply.
  • the functional configuration of the image processing PC 103 is as follows. , A class determination unit 306, a recognition result determination unit 307, a report creation unit 308, a display control unit 310, and an output control unit 311.
  • image storage The PC 102 for image processing and the PC 103 for image processing may be realized by one PC to realize the functions of both PCs.
  • the fluorescent image information input unit 301 receives an input of information on a fluorescent image obtained by capturing cells attached to a plurality of wells, which will be described later. Further, the fluorescent image information storage unit 302 stores information on the fluorescent image whose input has been accepted by the fluorescent image information input unit 301.
  • the bright-field image information / phase difference image information input unit 303 receives the information on the bright-field image in the same field of view as the fluorescent image input by the fluorescent image information input unit 301, or Accepts input of information about an image. Alternatively, both the information on the bright-field image and the information on the phase difference image may be received. Whether to input information on the bright-field image or the phase-contrast image should be selected according to the state of the cells to be photographed.
  • the bright-field image information and phase-difference image information storage unit 304 stores information on the bright-field image and the phase-difference image accepted by the bright-field image information and phase-difference image information input unit 303. I do.
  • the cell position detection unit 3005 receives an input from the fluorescence image information storage unit 302, and performs processing on the fluorescence image based on the information on the fluorescence image stored by the fluorescence image information storage unit 302. Detect the location of the cells. That is, by comparing the information on the cell candidates in the fluorescence image with at least one of the information on the average cell model and the information on the average background model described later, and evaluating the similarity between them, The location of the cell in the fluorescence image is detected. More specifically, the cell position detection unit 304 includes at least one of the above-described average cell model and the average background model as a main component vector, and a cell candidate of the fluorescence image.
  • the projection amount is calculated by taking the inner product with the vector, the calculated projection amount is normalized to calculate an evaluation value, and the location of the cell in the fluorescence image is detected based on the calculated evaluation value.
  • the information about the average cell model is the main component vector of the cell class of the sample image, the variance of the cell class, and And average values.
  • the information on the average background model also includes the principal component vector of the background class of the sample image, and the variance value and the average value of the background class. The details of the cell position detection processing will be described later.
  • the class determination unit 303 determines the class of the cell existing at the position detected by the cell position detection unit 304.
  • the class judging unit 303 obtains the projected amount by calculating the inner product of the principal component vector of the model of each protein localization class and the characteristic vector of the cell existing at the position by the cell position detecting unit 300. Is calculated, the calculated projection amount is normalized to calculate an evaluation value, and the class of the cell is determined based on the calculated evaluation value. The details of the class determination processing will be described later.
  • the recognition result determination unit 307 determines a recognition result for each image or each pixel based on the class determined by the class determination unit 306. The details of the recognition result determination process will also be described later.
  • the report creation unit 308 includes information on the class determined by the class determination unit 306 and a description of the cells extracted based on the existence position detected by the cell position detection unit 305.
  • Visual field image informationPhase difference image information input unit 303 receives input, and bright field image informationPhase difference image information storage unit 304 stores at least one of bright field image and phase difference image Based on one of the image information, for example, report information as shown in FIG. 18 or FIG. 19 described later is created.
  • the report creator 308 can create report information including information on the recognition result determined by the recognition result determiner 307. Furthermore, the recognition result determined by the recognition result determination unit 307 can be changed based on the input of an instruction from the operator.
  • the report information storage unit 309 stores the report information created by the report creation unit 308.
  • the display control unit 310 controls the monitor 104 so that the report information created by the report creation unit 308 or the report information accumulated by the report information accumulation unit 309 is displayed. Is displayed.
  • the output control unit 311 controls the printer 105 so that the report created by the report The report information or the report information stored by the report information storage unit 309 is printed. Alternatively, the output control unit 311 transmits the report information to another information processing device connected via the network 209 by the IZF 208.
  • the fluorescence image information input unit 301 and the fluorescence image information storage unit 302 specifically realize their functions by, for example, a keyboard 210, a mouse 211, a scanner 212, or an I / F 208. Further, the cell position detection unit 305, the class determination unit 306, the recognition result determination unit 307, the report creation unit 308, the display control unit 310, and the output control unit 311 are, for example, ROM 202, RAM 203, HD The functions are realized by the CPU 201 executing the program stored in the 205 or the FD 207.
  • the fluorescent image information storage unit 303, the bright field image information / phase difference image information storage unit 304, and the report information storage unit 309 specifically include, for example, the RAM 203, the HD 205 and the HDD 204, or the FD 207. And FDD 206 implement those functions.
  • FIG. 4 is a flowchart showing a processing procedure of the image analysis support apparatus according to the embodiment of the present invention.
  • a fluorescent image, a bright-field image, or a phase difference image is captured according to the procedure of FIG. 10 described later (step S401).
  • FIG. 5 is an example of a captured fluorescent image.
  • the fluorescent image can identify cells in which the gene has been expressed by adding a fluorescent marker to the cDNA and emitting a fluorescent substance in the cells. Injecting cDNA does not mean that all cells will have cDNA. As shown in Figure 5, only the nuclei of successfully injected cells glow.
  • FIG. 6 is an example of a captured bright-field image.
  • a bright-field image is an image taken using a normal lens, and can recognize the shape (contour) of a cell.
  • FIG. 7 is an example of the photographed phase difference image.
  • the phase contrast image is the refractive index of the lens This is an image taken by using, and it is possible to recognize even the contents of cells. Therefore, a bright-field image has an advantage that it is easy to focus, while a phase contrast image requires time for focusing, but has an advantage that a contour of a cell can be displayed more clearly. . Which image to use or both of them can be selected as appropriate according to the situation of the experiment and analysis.
  • step S404 After focusing on a bright-field image, take a fluorescence image, then change the lens with the same focus, take a phase difference image, and store only the fluorescence image and the phase difference image. For example, a method of storing the data in the PC 102 may be considered.
  • the cell position is detected from the fluorescence image (recognition sample (unknown class) 1111 shown in FIG. 11 described later) captured in step S401 (step S402).
  • step S403 the cell area of the cell whose position is detected in step S402 in the bright field is obtained.
  • a fluorescent portion other than the cell region is excluded (step S404).
  • step S404 the class of the cell of interest specified by the cell region that has been left out after being excluded in step S404 is determined, thereby classifying the cell of interest (step S405). After that, a report is created based on the above result (step S406), and a series of processing ends.
  • FIG. 8 is an explanatory diagram showing a 96-well plate as an example of a plate for culturing cells.
  • the 96-well plate has the wells arranged in a lattice.
  • Each peg is labeled with the letters A to H in the vertical direction and the numbers 01 to 12 in the horizontal direction.
  • the top left peg is "A01”
  • FIG. 9 is an explanatory diagram showing an example of a photographing area when a plurality of images are obtained from one pell (“G12”). It is shown enlarged.
  • a fluorescence image, a bright field image, and a phase difference image are photographed at a plurality of positions (01 to 08) in a G12 cell.
  • the position is changed concentrically, that is, images are taken in the order of 01 ⁇ 02 ⁇ ... ⁇ 08.
  • the image is not limited to concentric circles, and may be changed in a spiral shape.
  • FIG. 10 is a flow chart showing the content of the image acquisition processing using a 96-well plate.
  • the user moves to the first well (A01) to make the first well ready for photographing (step S1001).
  • the S counter and ⁇ counter 1 are reset (step S1002).
  • the first image is obtained by photographing (step S1003), and ⁇ the counter is incremented by one (step S1004).
  • step S1005 it is determined whether or not (1) the counter 1 has reached a preset value, for example, "8" (step S1005).
  • step S1005 it is determined whether or not gene-expressing cells are present in the image taken in step S1003 (step S1006).
  • Whether or not the gene-expressing cell is present can be determined by, for example, whether or not a fluorescent portion is present in the fluorescent image.
  • step S1006 Yes
  • step S1006 Yes
  • step S1006 a bright-field image or a phase-contrast image of the same visual field, or both a bright-field image and a phase-contrast image are acquired.
  • step S 1007 the M power center is increased by one (step S 1007).
  • step S1006 it is determined that no gene-expressing cells exist (step S1006: No) the process proceeds to step S1009 without doing anything.
  • step S 1008 it is determined whether or not the M counter has reached a preset value, for example, “3” (step S 1008). If it has not reached “3” (step S 1008: No), the next position is determined. The image at is taken and acquired (step S1009). Thereafter, the process returns to step S1004, and repeats the processes of steps S1004 to S1009. Then, in step S1005, the N counter If one becomes “8” (step S 1005: Y es) or if the M counter becomes “3” in step S 1008 (step S 1008: Y es), go to step S 1010 .
  • step S 1008 the N counter If one becomes “8” (step S 1005: Y es) or if the M counter becomes “3” in step S 1008 (step S 1008: Y es), go to step S 1010 .
  • step S1010 it is determined whether or not it is the last level. If it is not the last level (step S1010: No), move to the next level (step S1011), return to step S1002, and enter a new level. In step S1002, the processes in steps S1002 to S1009 are repeatedly performed. Then, in step S1010, if it is the last level (step S1010: Yes), a series of processing ends.
  • FIG. 11 is an explanatory diagram showing the contents of the cell position detection processing.
  • the learning sample 1101 includes both background learning images and cell learning images.
  • Each of the images is divided (step S1102), feature extraction is performed from the image-divided image information (step S1103), and a feature vector is generated by normalizing the extracted feature information (step S1104). ). Further, a learning process is performed based on the generated feature vector (step S1105), thereby creating an average cell model 1100.
  • the recognition sample 1111 of the captured fluorescent image relates to an unknown class of cells whose class has not yet been determined.
  • This recognition sample 11 11 The input is performed in the same manner as for the training sample, the image is divided into images (step S1112), features are extracted from the divided image information (step S1113), and the feature extraction is performed by normalizing the extracted features. A vector is generated (step S111 4). Then, the identification processing is performed using the average cell model 1110 (step S1115), and the positions of the cells present in the fluorescence image are extracted.
  • FIG. 12 is an explanatory diagram showing the contents of the cell position detection process, and specifically shows the process of generating an average cell model.
  • the cell learning image 1101 of the target learning sample is divided into a predetermined number (step S1102). For example, when dividing into 4 * 4 pixel areas, as the preprocessing, a maximum value filter 1202 that replaces the maximum value of 4 * 4 pixels with 1 pixel, and a minimum value that replaces the minimum value of 4 * 4 pixels with 1 pixel
  • the processing of the learning sample image information (original image) 1101 obtained by image division by the filter 1201 is performed.
  • data compression is performed on the maximum value image and the minimum value image having a size of 14 * 1 ⁇ 4.
  • Step S1204 the variance of the projections of all the training samples of the background class is the same (Step S1205).
  • FIG. 13 is an explanatory diagram showing the contents of the cell position detection process, and specifically shows the process of generating an average cell model.
  • the detected image 1111 of the target recognition sample is divided into a predetermined number in the same manner as the image 1101 of the learning sample (step SI 112).
  • Data compression is performed on the maximum value image and minimum value image.
  • X j (X , Zum: ⁇ , 2, ..., x jAm ).
  • a feature vector is generated (step S1114).
  • the processing is the same as the processing of the learning sample 1101.
  • the projection (amount) projected on the (principal component vector) is calculated (step S1303). So Then, the similarity is evaluated by normalization, that is, the distance between the projection (amount) and the average vector w of the cell class (the projection 1 m (c) of the cell class is divided by the variance of the cell class (c) 2 The obtained value is used as the evaluation value of the cell class of the coordinate point (! ⁇ , Zo) (step S1304).
  • the minimum value in the local area is detected based on the predetermined average cell diameter (step S135), and as a result, the cell position can be detected.
  • FIG. 14 shows that the cell position is specified in the fluorescence image and the state is displayed. In Fig. 14, the position marked with "10" is the cell position
  • FIG. 15 is an explanatory diagram showing an example of the result of the class determination process.
  • 1500 is a cell model of each class, that is, a protein localization, and is composed of average cell model information of each class. Examples of the types of protein localization include those shown in FIG.
  • the method of generating the cell model is the same as the method of generating the average cell model.
  • a feature vector of a recognition sample to be subjected to class determination is generated (step S1501).
  • the generation of the feature vector includes various features, such as those related to density statistics, those related to edge element features, those related to shape features, those related to texture features, those related to run-length statistics, etc. Perform using a part.
  • those relating to the density statistic include, specifically, the luminance average of the entire image, the luminance variance of the entire image, the total variance of the average in the non-background rectangular block portion, and the non-background rectangular block.
  • the edge element feature specifically, the average of the neighborhood density difference, the variance of the neighborhood density difference, the brightness average of the phase difference edge image, the horizontal dark area run length average of the phase difference edge image, the phase difference edge Horizontal bright-length average of image, dark-length run-length average of phase-difference image, bright-length run-length average of phase-difference image, covariance of density co-occurrence matrix of phase-difference edge image, phase difference Horizontal standard deviation of density co-occurrence matrix of edge image, vertical standard deviation of density co-occurrence matrix of phase difference edge image, sample correlation coefficient of density co-occurrence matrix of phase difference edge image, phase difference edge image And the standard deviation ratio in the horizontal and vertical directions of the density co-occurrence matrix.
  • the number of labels In terms of shape features, the number of labels, the total area of labeling items, the total perimeter of labeling items, the average luminance ratio of the entire image and non-background parts, the average area of labeling items, the labeling items The average of the perimeter, the average circularity of the labeling items, and the average complexity of the labeling items.
  • the horizontal average of the density co-occurrence matrix, the vertical average of the density co-occurrence matrix, the contrast of the density co-occurrence matrix, the covariance of the density co-occurrence matrix, and the The horizontal standard deviation, the vertical standard deviation of the concentration co-occurrence matrix, the power of the concentration co-occurrence matrix, the sample correlation coefficient of the concentration co-occurrence matrix, the average ratio of the concentration co-occurrence matrix in the horizontal and vertical directions, etc. is there.
  • run length statistics there are the vertical and horizontal dark run length averages, the vertical and horizontal bright run length averages, and the dark to light ratio of the run length average.
  • the projection amount is calculated by taking the inner product of the eigenvector of the cell model 1500 of each class and the feature vector generated in step S1501 (step S1502). ), And the similarity is evaluated by normalizing using the variance / average value (step S1503).
  • steps S1303 and S304 in FIG. 13 a detailed description thereof will be omitted.
  • the top n n is a natural number
  • eigenvectors that can better classify the learning pattern are used.
  • the recognition result is a result relating to which class of protein localization the recognition sample to be subjected to class determination falls.
  • FIG. 16 shows that the class, which is the recognition result of each cell whose cell position has been identified in the fluorescence image, is indicated by an abbreviated name.
  • MEM indicates that this cell is a cell membrane.
  • FIG. 17 is a flowchart showing the contents of the recognition result determination process.
  • the recognition result of each image and inspection unit is determined from the recognition result of each cell.
  • the recognition results for each cell are collected for each image (step S1771).
  • the recognition results of the collected image units are obtained in consideration of the confidence obtained from the recognition algorithm and the importance (causal relation) of each class (step S1702).
  • the respective confidence thresholds are TA, TB, TC, and TD.
  • the confidence for each is obtained as XA, xB, xC, xD.
  • classes B, C, and D have a subordinate relationship, and there is a relationship that changes over time from B to C, and from C to D (B ⁇ C ⁇ D). Then, if any certainty is smaller than each threshold, the result is output as an unknown pattern. If both the confidences of classes A and B are equal to or greater than the threshold value, the class with the greater confidence is the result. If the certainty factors of classes B, C, and D are all equal to or greater than the threshold, class B, which is the main dependent relationship, is the result.
  • Class A includes, for example, mitochondrial localization.
  • the results for each image are collected for each inspection (step S1703). Then, the result of the inspection unit is determined by a majority decision (step S 174), and a series of processing ends.
  • the recognition result (gene function) of each image or test unit can be estimated by using the foresight that a single correct answer is included for each image or each test. .
  • FIG. 18 and FIG. 19 are explanatory diagrams showing an example of a report screen.
  • FIG. 20 shows an example of an image of protein localization in a cell, and shows a list of class names and class abbreviations corresponding to the surface image examples.
  • FIG. 18 is a report screen created based on the recognition result obtained by the class determination processing described in FIG. “A 0101 FA” in the “view image name” indicates the level “A 0 1” and the shooting position “0 1”. From this fluorescent image, there are 15 gene-expressing cells. It is shown that . Then, each of the cut out bright-field images or phase-difference images is pasted, and the abbreviation of the determined class is displayed.
  • FIG. 19 is a report screen created based on the result obtained by the recognition result determination processing described in FIG. 1900 is a representative image for each cell.
  • the “ratio of the fluorescent part” 19001 which indicates the ratio of the fluorescent portion to the entire fluorescent image captured in one cell, the “number of cells” 1900, and the “number of cells” in the fluorescent image captured in one well "Exposure state” 1 903, "Automatic classification type” indicating the class obtained by the recognition result judgment processing 1 904, "Similarity” with the model 1 905, "Manual classification type” 1 9 0
  • a list of each item in 6 is displayed. Items can be sorted and displayed for each of the items 1901-1906. Also, the “manual classification type” can be changed by changing the display of the manual classification type display column 1907.
  • the image display button 1908 When the image display button 1908 is pressed, the representative image can be changed to a desired image. In addition, click the "Print Report” button By pressing this button, the displayed contents will be printed.
  • the “o K” button 1910 When the “o K” button 1910 is pressed, the content is determined as displayed and stored in the report information storage unit 309. It is also possible to read a report that has already been stored from the report information storage unit 309, change the content, and store it again in the report information storage unit 309.
  • cells in which a gene has been expressed are detected, and only those portions are cut out. And recognize the protein localization and morphological changes from those images, and select, arrange, display, print, and save them based on information such as the confidence of the recognition results.
  • Everything up to the creation can be operated automatically.
  • the cells of interest that have expressed the gene are automatically detected, and only those parts are cut out, and the fluorescence, phase contrast, and bright field images are extracted.
  • Recognition of localization and morphological changes is possible, and reports that are selected and arranged based on information such as the degree of certainty of the recognition result can be created automatically. Since the brightness range of each image is adjusted so that it is easy to see on the screen, displaying, printing, and saving this on the screen significantly improves the efficiency of the experiment.
  • a fluorescent portion of a region for each cell is extracted from the fluorescent image.
  • the fluorescent pattern and the background pattern are learned.
  • an “average cell model” is created using the information that the target is a cell, and an estimated area for one cell is extracted by a normalized similarity evaluation method.
  • the contour of one cell can be extracted with reference to the bright field image or the phase difference image at the same position. In this way, it is possible to cut out the region of individual cells instead of the entire image and analyze and display the result.
  • a learning / recognition process for recognizing a fluorescence pattern or a morphological pattern for each cell.
  • eigenspace method, subspace method, neural network, and other methods can be used. in this way, By providing a computer with a learning function, it is possible to automatically output judgment results.
  • the applicant has actually produced a trial report. As a result, about 700 MB of image data was generated per plate, and the brightness range was adjusted each time the image was viewed, so it took several hours (3 hours or more) just to look at it. (I did not have time to judge the result). On the other hand, the capacity of the created catalog was about 6 MB per plate, and it took only a few minutes to see the entire catalog, and it was possible to attach the judgment results.
  • the image analysis support method according to the present embodiment may be a computer-readable program prepared in advance, and is realized by executing the program on a computer such as a personal computer or a workstation. You.
  • This program is recorded on a computer-readable recording medium such as HD, FD, CD-ROM, MO, and DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed via a network such as the Internet.
  • the image analysis support method, the image angle analysis support program, and the image analysis support device quickly and efficiently extract the cell position and the type of an image taken by a microscope, It is suitable for improving the efficiency of experiments and analysis by automatically displaying the list of extraction results for each cell region of the image.

Abstract

 蛍光画像および明視野画像または位相差画像の撮影をおこない(ステップS401)。つぎに、撮影された蛍光画像から、細胞位置を検出する(ステップS402)。つぎに、ステップS401において撮影された明視野画像または位相差画像を用いて、明視野でステップS402において位置が検出された細胞の細胞領域を求める(ステップS403)。それによって、細胞領域以外の蛍光部分を除外する(ステップS404)。そして、ステップS404によって除外されて残った細胞領域によって特定される注目細胞のクラスを判定し、それによって当該注目細胞のクラス分けをおこなう(ステップS405)。その後、上記結果に基づいて、レポートを作成する(ステップS406)。

Description

明 細 書 画像解析支援方法、 画像解析支援プログラムおよび画像解析支援装置 技術分野
本発明は、 ノくィォ研究'開発、 創薬などのゲノム解析技術の分野において、 顕 微鏡などで撮影した細胞画像の解析の支援をおこなう画像解析支援方法、 画像解 祈支援プログラムおよび画像解析支援装置に関する。 背景技術
近年、 ゲノムサイエンスの進展にともない、 c D NAを細胞に注入した細胞に 対して、 タンパク質の局在パターンの識別や、 細胞の形態変化を観察する研究、 すなわち、 細胞内に c D NAを注入したときに引き起こされる形態変化を定量的 に解析することによって、 D NAの機能を明らかにしようとすることがおこなわ れるようになってきた。 たとえば、 薬物効果の確認のために、 遺伝子の発現を判 定し、 タンパク質局在パターンを類別し、 遺伝子注入により細胞がどのように変 化するかをスグリーニングしたいというニーズがある。
そこで、 顕微鏡で染色や蛍光発色させた細胞の変化を観察することがおこなわ れてきた。 その際に、 画像を自動で取り込むシステムは従来技術として製品化さ れている。 それらの従来技術は、 細胞培養用の多数のゥエル (穴) を配置したプ レートを利用して、 大量に画像を培養し、 顕微鏡で観察 ·スクリーニングができ るようになっている。
また、 製品化されている具体例として、 たとえば、 松下電器株式会社の顕微鏡 画像取り込み装置 H T S— 5 0では、 細胞画像から定量的な数値を出す機能を備 えている。 例として、 細胞の偏平度、 神経突起の長さ、 染色した核の解析などで ある。 ここでは、 個々の細胞を切り出して解析しているわけではなく、 画像全体 のテクスチャや細長い構造の総延長を算出している。 また、 システム全体は、 実 験者がすべての生画像を目視確認することを前提に作られている。 また、 米国の ベックマン社が顕微鏡画像を用いた装置 ·アプリケーションを製品化しているが 、 H T S— 5 0と同様に、 実験者が画像を目視確認することが前提となっている また、 従来技術の特許文献としては、 たとえば特開平 5— 2 4 9 1 0 2号公報 などが存在する。
しかしながら、 上記の従来技術にあっては、 スクリーニングにおいて、 画像を 一枚ごとに人手により目視検査する必要があった。 このように、 実験結果を目視 検査で確認し、 手作業で個々の細胞領域を抽出する方法では、 多種の c D NAに 対する実験において発生する大量の画像を処理するのはきわめて困難であるとい う問題点があった。
具体的には、 一つのゥ'エルから一つの結果を得られればよいにもかかわらず実 際は、 画像が一つのゥェルから数枚から +数枚生じることになる。 一回の実験で ゥエルは 1 0 0個程度あるので、 数百枚から数千枚の画像が生じる。 しかも、 画 像を縮小表示しても必要な細胞の領域は画面内のわずかな面積 (例えば 1 / 4 0 0 ) しか占めないので、 そのまま一覧表示することはできない。 c D NAの注入 の成功率は、 対象細胞の種類、 c D NAの種類、 培地の性質に依存して変化する 力 1 0 0細胞に 1個程度し力発見できない場合もある。 このように、 c DNA が注入された興味ある細胞はまばらにしか存在しないため、 それらの細胞を発見 し、 さらにタンパク質局在パターンの名称や細胞形態の名前を人手で付与するの に多大な時間と労力を要するという問題点があつた。
また、 画像の解析おょぴ結果表示において、 従来の技術では画像全体に対する 一様な処理が使われており、 結果表示は 1枚の画像単位でおこなわれている場合 もあった。 しかし、 c D NAに対する実験では、 注入が成功する確率が低く、 注 入された細胞とされていない細胞を区別する必要があった。 さらに、 蛍光パター ンが多種類あり、 背景の中にもノイズのような微弱なパターンが存在するので、 背景と細胞パターンを区別するのが難しいという問題点があつた。 細胞全体が蛍 光する場合もあれば、 細胞の一部が粒状に蛍光する場合もある。 隣接細胞どうし の細胞全体が蛍光している場合は分離する必要がある。 粒状に蛍光している場合 は、 粒間の暗い部分を背景としないように認識する必要がある。 このように、 目 視でおこなう場合にも判断が困難な場合もあり、 全体として実験 ·解析の効率化 を図ることができないという問題点があつた。
この発明は上記問題を解決するため、 顕微鏡で撮影された画像の細胞位置およ びその種類を迅速にかつ効率的に抽出し、 各画像の細胞領域ごとの抽出結果を自 動的に一覧表示することにより、 実験 ·解析の効率化を図ることが可能な画像解 析支援方法、 画像解析支援プログラム、 画像解析支援装置を提供することを目的 とする。 発明の開示
上述した課題を解決し、 目的を達成するため、 本発明にかかる画像解析支援方 法、 画像解析支援プログラムおよび画像解析支援装置は、 複数のゥヱルに付着す る細胞を撮影した蛍光画像に関する情報、 および前記蛍光画像と同一視野におけ る明視野画像およ 立相差画像の少なくともいずれか一方に関する情報の入力を 受け付け、 入力が受け付けられた蛍光画像に関する情報に基づいて、 前記蛍光画 像における細胞の存在位置を検出し、 検出された存在位置に存在する細胞のクラ スを判定し、 判定されたクラスに関する情報、 および検出された存在位置に基づ いて抽出された細胞の前記明視野画像および位相差画像の少なくともいずれか一 方の画像情報を一覧表示可能に出力することを特徴とする。
また、 本発明において、 前記判定されたクラスに基づいて、 前記画像ごとまた は前記ゥエルごとの認識結果を判定し、 判定された認識結果に関する情報を一覧 表示可能に出力するようにしてもよい。 また、 判定された認識結果を変更するこ ともできる。
また、 本発明において、 前記蛍光画像の細胞候補に関する情報と、 平均的な細 胞モデルに関する情報および平均的な背景モデルに関する情報の少なくともいず れか一つとを比較し、 両者の類似性を評価することによって、 前記蛍光画像にお ける細胞の存在位置を検出するようにしてもよレ、。 その際、 前記平均的な細胞モ デルおよび平均的な背景モデルの少なくともいずれか一つの主成分べクトノレと、 前記蛍光画像の細胞候補の特徴べクトルとの内積をとることによつて射影量を算 出し、 算出された射影量を正規ィヒして評価値を算出し、 算出された評価値に基づ いて前記蛍光画像における細胞の存在位置を検出することもできる。
また、 本発明において、 各タンパク質局在クラスのモデルの主成分ベクトルと 、 前記位置検出工程によって存在位置に存在する細胞の特徴べクトルとの内積を とることによって射影量を算出し、 算出された射影量を正規ィヒして評価値を算出 し、 算出された評価値に基づいて前記細胞のクラスを判定するようにしてもよい これらの発明によれば、 目視に頼ることなく、 迅速にかつ効率的に画像上の細 胞位置およびその細胞の種類を抽出することができる。 図面の簡単な説明
第 1図は、 この発明の本実施の形態にかかる画像解析支援装置のハードウエア 構成の一例を示す説明図であり、 第 2図は、 画像蓄積用 P Cまたは画像処理用 P Cのハードウェア構成の一例を示すブロック図であり、 第 3図は、 この発明の本 実施の形態にかかる画像角析支援装置の機能的構成を示す説明図であり、 第 4図 は、 この発明の本実施の形態にかかる画像解析支援装置の処理の内容を示すフロ 一チャートであり、 第 5図は、 蛍光画像の一例を示す説明図であり、 第 6図は、 明視野画像の一例を示す説明図であり、 第 7図は、 位相差画像の一例を示す説明 図であり、 第 8図は、 細胞を培養するプレートの一例を示す説明図であり、 第 9 図は、 一つのゥエルから複数枚の画像を得る際の撮影領域の一例を示す説明図で あり、 第 1 0図は、 画像取得の処理の内容を示すフローチャートであり、 第 1 1 図は、 細胞位置の検出処理の内容を示す説明図であり、 第 1 2図は、 細胞位置の 検出処理の内容を示す別の説明図であり、 第 1 3図は、 細胞位置の検出処理の內 容を示す別の説明図であり、 第 1 4図は、 細胞位置を検出した一例を示す説明図 であり、 第 1 5図は、 クラス判定処理の内容を示す説明図であり、 第 1 6図は、 クラス判定処理の結果の一例を示す説明図であり、 第 1 7図は、 認識結果判定処 理の内容を示すフローチャートであり、 第 1 8図は、 レポート画面の一例を示す 説明図であり、 第 1 9図は、 レポート画面の別の一例を示す説明図であり、 第 2 0図は、 細胞内のタンパク質局在クラスの画像例を示す説明図である。 発明を実施するための最良の形態
以下に添付図面を参照して、 この発明にかかる画像解析支援方法、 画像解析支 援プログラムおよび画像解析支援装置の好適な実施の形態を詳細に説明する。
(画像処¾¾置の ドウエア構成)
まず、 この発明の本実施の形態にかかる画像解析支援装置の ドウエア構成 について説明する。 第 1図は、 この発明の本実施の形態にかかる画像処理装置の ドウエア構成の一例を示す説明図である。 第 1図において、 1 0 0は光学顕 微鏡であり、 1 0 1は顕微鏡制御モジュールであり、 1 0 2は画像蓄積用パーソ ナ コンピュータ (P C) であり、 1 0 3は画像処理用パーソナルコンピュータ ( P C) であり、 1 0 4はモニタであり、 1 0 5はプリンタである。
ここで、 顕微鏡制御モジュール 1 0 1は、 光学顕微鏡 1 0 0を制御し、 蛍光画 像、 明視野画像および位相差画像を撮影するためのモジュールであり、 c D NA に蛍光マーカーを付与し、 注入に成功した細胞が蛍光に反応するようにセットす る。 光学顕微鏡 1 0 0は、 同一視野で蛍光 ·明視野 ·位相差の画像が撮影できる ようにセットする。 顕微鏡制御モジュール 1 0 1は、 X y zステージ、 蛍光 (水 銀光) シャッター、 ハロゲン光シャツタ一などを備え、 蛍光フィルタ交換や、 露 光時間を決めるための C C Dカメラ制御などの機能を有する。
また、 画像蓄積用 P C 1 0 2および画像処理用 P C 1 0 3は、 情報処理装置の 一例としてのパーソナルコンピュータである。 これらは、 サ一バーあるいはヮ一 クステーションであってもよい。 特に、 画像処理用 P C 1 0 3は高速な処理能力 を有するスーパーコンピュータなどが好ましい。 第 2図は、 画像蓄積用 PC 10 2および画像処理用 P C 103のハードウエア構成の一例を示すプロック図であ る。 第 2図において、 画像蓄積用 PC 102および画像処理用 PC 103は、 C PU201と、 ROM202と、 RAM203と、 HDD 204と、 HD 205 と、 F D D (フレキシブルディスクドライブ) 206と、 着脱可能な記録媒体の 一例としての FD (フレキシブルディスク) 207と、 IZF (インタフェース ) 208と、 キーボード 210と、 マウス 211と、 スキャナ 212と、 を備え ている。 また、 各構成部はバス 200によってそれぞれ接続されている。 さらに 、 ディスプレイ (モニタ) 104と、 プリンタ 105とが接続されている。
ここで、 CPU201は、 画像解析支援装置の全体の制御を司る。 ROM20 2は、 ブートプログラムなどのプログラムを記憶している。 RAM203は、 C PU201のワークエリアとして使用される。 HDD204は、 CPU201の 制御にしたがって HD 205に対するデータのリードノライトを制御する。 HD 205は、 HDD 204の制御で書き込まれたデータを記憶する。
FDD206は、 CPU201の制御にしたがって FD 207に対するデータ のリード/ライトを制御する。 FD207は、 FDD 206の制御で書き込まれ たデータを記憶したり、 FD 207に記録されたデータを情報処理装置へ読み取 らせたりする。 着脱可能な記録媒体として、 FD 207のほか、 CD— ROM ( CD-R, CD-RW), MO、 DVD (D i g i t a l Ve r s a t i l e D i s k), メモリーカードなどであってもよい。 ディスプレイ 104は、 カーソ ル、 アイコンあるいはツールボックスをはじめ、 文書、 画像、 機能情報などのデ ータを表示する。 たとえば、 CRT、 TFT液晶ディスプレイ、 プラズマデイス プレイなどである。
I/F (インタフェース) 208は、 通信回線を通じて LANやインターネッ トなどのネットワーク 209に接続され、 ネットワーク 209を介して、 他のサ 一バーや情報処理装置に接続される。 そして、 I/F 208は、 ネットワークと 内部とのインタフェースを司り、 他のサーバーや情報端末装置からのデータの入 出力を制御する。 画像蓄積用 P C 1 0 2と画像処理用 P C 1 0 3も、 この I Z F 2 0 8によって接続される。 I ZF 2 0 8は、 たとえばモデムなどである。
キーボード 2 1 0は、 文字、 数字、 各種指示などの入力のためのキーを備え、 データの入力をおこなう。 タツチパネル式の入力パッドゃテンキーなどであって もよレ、。 マウス 2 1 1は、 カーソルの移動や範囲選択、 あるいはウィンドウの移 動やサイズの変更などをおこなう。 ポインティングデバイスとして同様の機能を 備えるものであれば、 トラックボール、 ジョイスティックなどであってもよい。 スキャナ 2 1 2は、 ドライバ画像などの画像を光学的に読み取り、 情報処理装 置内に画像データを取り込む。 さらに O C R機能も備えており、 O C R機能によ つて、 印刷された情報を読み取ってデータ化することもできる。 また、 プリンタ 1 0 5は、 輪郭画像情報などの画像データや文書データを印刷する。 たとえば、 レーザプリンタ、 インクジェットプリンタなどである。
(画像解析支援装置の機能的構成)
つぎに、 画像解析支援装置の機能的構成について説明する。 第 3図は、 この発 明の本実施の形態にかかる画像解析支援装置の機能的構成の一例を示すプロック 図である。 第 3図において、 画像解析支援装置は、 蛍光画像情報入力部 3 0 1と 、 蛍光画像情報蓄積部 3 0 2と、 明視野画像情報 ·位相差画像情報入力部 3 0 3 と、 明視野画像情報 ·位相差画像情報蓄積部 3 0 4と、 細胞位置検出部 3 0 5と 、 クラス判定部 3 0 6と、 認識結果判定部 3 0 7と、 レポ一ト作成部 3 0 8と、 レポート情報蓄積部 3 0 9と、 表示制御部 3 1 0と、 出力制御部 3 1 1と、 から なる。
画像蓄積用 P C 1 0 2の機能的構成としては、 蛍光画像情報入力部 3 0 1と、 蛍光画像情報蓄積部 3 0 2と、 明視野画像情報 ·位相差画像情報入力部 3 0 3と 、 明視野画像情報'位相差画像情報蓄積部 3 0 4と、 レポート情報蓄積部 3 0 9 と、 力 らなり、 画像処理用 P C 1 0 3の機能的構成としては、 細胞位置検出部 3 0 5と、 クラス判定部 3 0 6と、 認識結果判定部 3 0 7と、 レポ一ト作成部 3 0 8と、 表示制御部 3 1 0と、 出力制御部 3 1 1と、 からなる。 ただし、 画像蓄積 用 P C 1 0 2と、 画像処理用 P C 1 0 3とは、 1台の P Cによって上記両方の P Cの機能を実現するようにしてもよい。
ここで、 蛍光画像情報入力部 3 0 1は、 後述する複数のゥエルに付着する細胞 を撮影した蛍光画像に関する情報の入力を受け付ける。 また、 蛍光画像情報蓄積 部 3 0 2は、 蛍光画像情報入力部 3 0 1によって入力が受け付けられた蛍光画像 に関する情報を蓄積する。
また、 明視野画像情報 ·位相差画像情報入力部 3 0 3は、 蛍光画像情報入力部 3 0 1によって入力された蛍光画像と同一視野における明視野画像に関する情報 の入力を受け付けるか、 または位相差画像に関する情報の入力を受け付ける。 あ るいは、 明視野画像に関する情報および位相差画像に関する情報の両方を受け付 けるようにしてもよい。 明視野画像と位相差画像に関する情報のいずれを入力す るかは、 撮影される細胞の状態などによって選択するようにするとよレ、。 また、 明視野画像情報 ·位相差画像情報蓄積部 3 0 4は、 明視野画像情報 ·位相差画像 情報入力部 3 0 3によって入力が受け付けられた明視野画像または位相差画像に 関する情報を蓄積する。
また、 細胞位置検出部 3 0 5は、 蛍光画像情報蓄積部 3 0 2によって入力が受 け付けられ、 蛍光画像情報蓄積部 3 0 2によって蓄積された蛍光画像に関する情 報に基づいて蛍光画像における細胞の存在位置を検出する。 すなわち、 蛍光画像 の細胞候補に関する情報と、 後述する平均的な細胞モデルに関する情報および平 均的な背景モデルに関する情報の少なくともいずれか一つとを比較し、 両者の類 似性を評価することによって、 蛍光画像における細胞の存在位置を検出する。 具 体的には、 細胞位置検出部 3 0 5は、 上記平均的な細胞モデルおよび平均的な背 景モデルの少なくともいずれか一つの主成分べクトノレと、 前記蛍光画像の細胞候 補の特徴べクトルとの内積をとることによって射影量を算出し、 算出された射影 量を正規化して評価値を算出し、 算出された評価値に基づいて前記蛍光画像にお ける細胞の存在位置を検出する。 ここで、 平均的な細胞モデノレに関する情報は、 サンプル画像の細胞クラスの主成分べクトノレと、 前記細胞クラスの分散値および 平均値とを含んでいる。 また、 平均的な背景モデルに関する情報も同様に、 サン プル画像の背景クラスの主成分べクトノレと、 前記背景クラスの分散値および平均 値とを含んでいる。 細胞位置検出処理の詳細な内容については後述する。
また、 クラス判定部 3 0 6は、 細胞位置検出部 3 0 5によつて検出された存在 位置に存在する細胞のクラスを判定する。 クラス判定部 3 0 6は、 各タンパク質 局在クラスのモデルの主成分べクトルと、 細胞位置検出部 3 0 5によって存在位 置に存在する細胞の特徴べクトルとの内積をとることによって射影量を算出し、 算出された射影量を正規化して評価値を算出し、 算出された評価値に基づいて細 胞のクラスを判定する。 クラス判定処理の詳細な内容については後述する。
また、 認識結果判定部 3 0 7は、 クラス判定部 3 0 6によつて判定されたクラ スに基づいて、 画像ごとまたはゥエルごとの認識結果を判定する。 認識結果判定 処理の詳細な内容についても後述する。
また、 レポート作成部 3 0 8は、 クラス判定部 3 0 6によって判定されたクラ スに関する情報、 および細胞位置検出部 3 0 5によって検出された存在位置に基 づいて抽出された細胞の、 明視野画像情報 ·位相差画像情報入力部 3 0 3によつ て入力が受け付けられ、 明視野画像情報 ·位相差画像情報蓄積部 3 0 4によって 蓄積された明視野画像および位相差画像の少なくともいずれか一方の画像情報に 基づいて、 たとえば後述する第 1 8図または第 1 9図に示すようなレポート情報 を作成する。 レポ一ト作成部 3 0 8は、 認識結果判定部 3 0 7によって判定され た認識結果に関する情報をレポート情報に含めて作成することができる。 さらに 、 操作者からの指示の入力に基づいて、 認識結果判定部 3 0 7によって判定され た認識結果を変更することもできる。
レポ一ト情報蓄積部 3 0 9は、 レポ一ト作成部 3 0 8によって作成されたレポ 一ト情報を蓄積する。 また、 表示制御部 3 1 0は、 モニタ 1 0 4を制御して、 レ ポート作成部 3 0 8によって作成されたレポ一ト情報あるいはレポ一ト情報蓄積 部 3 0 9によって蓄積されたレポート情報を表示する。 また、 出力制御部 3 1 1 は、 プリンタ 1 0 5を制御して、 レポート作成部 3 0 8によって作成されたレポ 一ト情報あるいはレポ一ト情報蓄積部 309によって蓄積されたレポ一ト情報を 印刷する。 あるいは、 出力制御部 311は、 IZF 208によってネッ トワーク 209を介して接続された他の情報処理装置へレポ一ト情報を送信する。
上記蛍光画像情報入力部 301および蛍光画像情報蓄積部 302は、 具体的に は、 たとえば、 キーボード 210、 マウス 211、 スキャナ 212あるいは I / F 208によってそれらの機能を実現する。 また、 上記細胞位置検出部 305、 クラス判定部 306、 認識結果判定部 307、 レポ一ト作成部 308、 表示制御 部 310および出力制御部 311は、 具体的には、 たとえば ROM202、 RA M203、 HD 205あるいは FD 207に記憶されたプログラムを C PU 20 1が実行することによってそれらの機能を実現する。 また、 上記蛍光画像情報蓄 積部 303、 明視野画像情報 ·位相差画像情報蓄積部 304およびレポ一ト情報 蓄積部 309は、 具体的には、 たとえば RAM203、 HD 205および HDD 204、 あるいは FD 207および FDD 206によってそれらの機能を実現す る。
(画像解析支援装置の処理手順)
つぎに、 画像解析支援装置の処理の手順について説明する。 第 4図は、 この発 明の本実施の形態にかかる画像解析支援装置の処理の手順を示すフローチヤ一ト である。 第 4図のフローチャートにおいて、 まず、 後述する第 10図の手順によ つて、 蛍光画像おょぴ明視野画像または位相差画像の撮影をおこなう (ステップ S 401)。 第 5図が撮影された蛍光画像の一例である。 蛍光画像は、 cDNAに 蛍光マーカーを付与して細胞内で蛍光物質が発光することによつて遺伝子が発現 した細胞を特定することができる。 c DNAを注入してもすべての細胞に cDN Aが入り込むわけではない。 第 5図に示すように、 注入に成功した細胞の核のみ が光っている。
また、 第 6図が撮影された明視野画像の一例である。 明視野画像は、 通常のレ ンズを用いて撮影された画像であり、 細胞の形 (輪郭) を認識することができる 。 第 7図が撮影された位相差画像の一例である。 位相差画像は、 レンズの屈折率 を利用して撮影された画像であり、 細胞の中身まで認識することができる。 した がって、 明視野画像はピント合わせをおこない易いというメリットがあり、 一方 、 位相差画像は、 ピント合わせに時間を要するが、 細胞の輪郭をより明確に表示 することができるというメリットがある。 いずれの画像を用いるか、 あるいは両 方を同時に用いるかは、 実験 '解析の状況に応じて適宜選択することができる。 たとえば、 一例として、 明視野画像でピント合わせをした後、 蛍光画像を撮影し 、 その後、 同一のピントでレンズを変更して位相差画像を撮影し、 上記蛍光画像 と位相差画像のみを画像蓄積用 PC 102に蓄積するという方法が考えられる。 つぎに、 ステップ S 401において撮影された蛍光画像 (後述する第 11図に 示す認識サンプル (未知クラス) 1111) 力 ら、 細胞位置を検出する (ステツ プ S 402)。 つぎに、 ステップ S 401において撮影された明視野画像または位 相差画像を用いて、 明視野でステップ S 402において位置が検出された細胞の 細胞領域を求める (ステップ S 403)。 それによつて、 細胞領域以外の蛍光部分 を除外する (ステップ S 404)。 そして、 ステップ S 404によって除外されて 残った細胞領域によって特定される注目細胞のクラスを判定し、 それによつて当 該注目細胞のクラス分けをおこなう (ステップ S405)。 その後、 上記結果に基 づいて、 レポートを作成し (ステップ S 406)、 一連の処理を終了する。
(ゥエルの内容)
第 8図は、 細胞を培養するプレートの一例である 96ゥエルプレートを示す説 明図である。 第 8図において、 96ゥエルプレートは、 格子状にゥエルが配置さ れている。 それぞれのゥエルには、 縦方向の A〜Hの符号と、 横方向の 01〜1 2の番号とが付されており、 たとえば、 一番左上のゥエルは 「A01」、 一番右下 のゥエルは 「H12」 となる。 したがって、 一つのプレートに対して、 「A01〜 Α12」、 「Β01〜Β 12」、 · · ·「Η01〜Η12」 までの、 縦 8 X横 12 = 9 6個のゥエルが存在することになる。
第 9図は、 一つのゥエル (「G12」) から複数枚の画像を得る際の撮影領域の 一例を示す説明図であり、 ゥエルプレートの一つのゥエル (「G 12ゥエル」) を 拡大して示したものである。 第 9図において、 G12ゥヱルにおいて、 蛍光画像 、 明視野画像、 位相差画像を複数の位置 (01〜08) で撮影する。 この際、 同 心円状に位置を変えて、 すなわち、 01→02→ · . ·→08の順序で画像の撮 影をおこなう。 また、 同心円上に限らず、 螺旋状に位置を変えて撮影するように してもよい。
第 10図は、 96ゥヱルプレートを用いた画像取得の処理の内容を示すフロー チャートである。 第 10図において、 まず、 最初のゥエル (A01) へ移動し、 最初のゥエルを撮影可能な状態にする (ステップ S 1001)。 つぎに、 Μカウン ターおよび Νカウンタ一をリセットする (ステップ S 1002)。 そして、 最初の ゥエルにおいて、 1枚目の画像を撮影することで取得し (ステップ S 1003)、 Νカウンターを一つアップする (ステップ S 1004)。
つぎに、 Νカウンタ一があらかじめ設定された値、 たとえば 「8」 になったか 否かを判断する (ステップ S 1005)。 ここで、 未だ 「8」 になっていない (ステップ S 1005 : No) は、 ステップ S 1003において撮影した画像内 に遺伝子発現細胞が存在するか否かを判断する (ステップ S 1006)。 遺伝子発 現細胞が存在する力否かは、 たとえば、 蛍光画像において蛍光部分が存在するか 否かで判断することができる。 ここで、 遺伝子発現細胞が存在すると判断された 場合 (ステップ S 1006 : Ye s) は、 同一視野の明視野画像または位相差画 像、 あるいは明視野画像および位相差画像の双方を撮影 '取得し、 その後、 M力 ゥンターを一つアップする (ステップ S 1007)。 一方、 遺伝子発現細胞が存在 しないと判断された場合 (ステップ S 1006 : No) は、 何もせずに、 ステツ プ S 1009へ移行する。
そして、 Mカウンターがあらかじめ設定された値、 たとえば 「3」 になったか 否かを判断し (ステップ S 1008)、 未だ 「3」 になっていない場合 (ステップ S 1008 : No) は、 つぎの位置での画像を撮影し、 取得する (ステップ S 1 009)。 その後、 ステップ S 1004へ戻り、 ステップ S 1004〜S 1009 の各処理を繰り返しおこなう。 そして、 ステップ S 1005において Nカウンタ 一が 「8」 になった場合 (ステップ S 1005 : Y e s)、 あるいは、 ステップ S 1008において Mカウンターが 「3」 になった場合 (ステップ S 1008 : Y e s) は、 ステップ S 1010へ移行する。
ステップ S 1010において、 最後のゥエルか否かを判断し、 最後のゥヱルで ない場合 (ステップ S 1010 : No) は、 つぎのゥエルへ移動し (ステップ S 1011)、 ステップ S 1002へ戻り、 新たなゥエルにおいて、 ステップ S 10 02〜ステップ S 1009の各ステップの処理を繰り返しおこなう。 そして、 ス テツプ S 1010において、 最後のゥエルである場合 (ステップ S 1010 : Y e s) は、 一連の処理を終了する。
以上の処理をおこなうことによって、 たとえば、 各ゥエルから遺伝子発現細胞 を撮影することができた画像を 3枚取得した場合には、 それ以上の撮影はおこな わないようにすることができる。 これによつて、 不要な画像の撮影 '取得を抑制 することができ、 処理時間、 記憶容量などを節約することができる。 そして、 遺 伝子発現細胞が撮影できない場合でも上限枚数の 8枚の画像を撮影した後、 つぎ のゥエルへ移動する。 なお、 上記 Mカウンター、 Nカウンターの設定は適宜変更 することができる。 '
(細胞位置の検出処理の内容)
つぎに、 第 11図は、 細胞位置の検出処理の内容を示す説明図である。 第 11 図において、 あらかじめ用意された大量の学習サンプル 1101を入力する。 学 習サンプル 1101は、 背景学習画像と、 細胞学習画像の両方が含まれる。 それ ぞれ画像分割し (ステップ S 1102)、 画像分割された画像情報から特徴抽出を おこない (ステップ S 1103)、 特徴抽出された情報を正規化することで特徴べ クトルを生成する (ステップ S 1104)。 さらに、 生成された特徴べクトルに基 づいて、 学習処理をおこなう (ステップ S 1105) ことによって、 平均細胞モ デノレ 1100を作成する。
—方、 撮影された蛍光画像の認識サンプル 1111は、 未だクラスが判定され ておらず未知クラスの細胞に関するものである。 この認識サンプル 11 11を、 学習サンプルと同様の手順で入力し、 それぞれ画像分割し (ステップ S 1112) 、 画像分割された画像情報から特徴抽出をおこない (ステップ S 1113)、 特徴 抽出された情報を正規化することで特徴べクトルを生成する (ステップ S 111 4)。 そして、 上記平均細胞モデル 1110を用いて、 識別処理をおこない (ステ ップ S 1115)、 上記蛍光画像において存在する細胞の位置を抽出する。
第 12図は、 細胞位置の検出処理の内容を示す説明図であり、 具体的には、 平 均細胞モデルの生成処理を示す。 第 12図において、 対象となる学習サンプルの 細胞学習画像 1101をあらかじめ定められた所定数に分割する (ステップ S 1 102)。 たとえば 4 * 4画素領域に分割する場合には、 前処理として、 4 * 4画 素の最大値を 1 画素に置き換える最大値フィルタ 1202と、 4 * 4画素の最小 値を 1 画素に置き換える最小値フィルタ 1201によって画像分割された学習サ ンプル画像情報 (原画像) 1101の処理をおこなう。 これによつて、 1 4* 1ノ 4の大きさの最大値画像と最小値画像にデータ圧縮をおこなう。 原画像の 9 6 * 96画素領域はこれによって n = 24 * 24 (= 1152) 個の濃度値を特 徴量とする 1152次元の特徴べクトルで表すことができる。
そして、 平均細胞モデル作成のための学習サンプノレ j'の正規化 (全サンプル間 の各特徴量間で平均 0、 分散 1 となるようにする) 後の特徴べク トルを X j = (ズム Q,ズムいズム 2 ,…, Xj si ) とする。 このようにして、 特徴べク トル を生成する (ステップ S 1104)。
また、 このとき全学習サンプルの共分散行列 Rを、
Figure imgf000016_0001
とする。 この固有値問題である、
R ψ k - λ k
を解くことによって、 固有べクトル く ≤ ") と、 固有値 (ただし、 lk >lk+l) を算出する (ステップ S 1203)。 最大固有値であるえ ,に対する固 有べクトル p , が第一主成分 (主成分べクトル) である。 また、 細胞クラス (サンプル数: m,) の平均べクトルを w <c> 、 背景クラス ( サンプル数: m2) の平均ベクトルを w (4) とすると、 細胞クラスの学習サンプ ル: を第一主成分に射影した射影は1 ; c (c) = 1 <c r φ , であり、 平均べ クトル w ( の射影は1/ n (c) = (c)r ^ }である。
細胞クラス全学習サンプルの射影の分散は、
1 m\ /
La、 lx: {c)-lm{c)
mx ,=i
であり (ステップ S 1204)、 背景クラスの全学習サンプルの射影の分散も同様 である (ステップ S 1205)。
第 13図は、 細胞位置の検出処理の内容を示す説明図であり、 具体的には、 平 均細胞モデルの生成処理を示す。 第 13図において、 対象となる認識サンプルの 検出画像 1111を、 学習サンプルの画像 1101と同様に、 あらかじめ定めら れた所定数に分割し (ステップ S I 112)、 前処理として、 4* 4画素の最大値 を 1画素に置き換える最大値フィルタ 1302と、 4 * 4画素の最小値を 1画素 に置き換える最小値フィルタ 1301によって画像分割された検出画像 1111 の処理をおこない、 1Z4 * 1/4の大きさの最大値画像と最小値画像にデータ 圧縮をおこなう。 検出画像の 96 * 96画素領域はこれによって n= 24* 24 (=1152) 個の濃度値を特徴量とする 1152次元の特徴べクトルで表すこ とができる。
そして、 平均細胞モデル作成のための学習サンプル j'の正規化 (全サンプル間 の各特徴量間で平均 0、 分散 1 となるようにする) 後の特徴ベク トルを X j = (Xム Q,ズムい:^ ,2 ,..., xjAm )とする。 このようにして、 特徴べクトルを 生成する (ステップ S 1114)。 ここまでは、 学習サンプル 1101の処理と同 様である。
つぎに、 前処理後の画像の座標(i,ゾ) の点に注目したとき、 この点を中心点 とする 24 * 24画素領域の特徴ベク トルを JC とすると、 ゾ を第一主成分
(主成分べクトル) に射影した射影 (量) を算出する (ステップ S 1303)。 そ して、 正規化して類似性を評価する、 すなわち、 その射影 (量) と細胞クラスの 平均べクトル w ( の射影1 m ( c ) との距離を細胞クラスの分散び ( c ) 2 で割った値 を座標点(!·,ゾ) の細胞クラスの評価値とする (ステップ S 1 3 0 4 )。
そして、
Figure imgf000018_0001
- lmic) Ι σ の場合に、 座標(i, j ) の点は細胞クラスに属する点であると判断する。
さらに、 あらかじめ定めておいて平均細胞径に基づいて、 局所領域内最小値を 検出し (ステップ S 1 3 0 5 )、 その結果、 細胞位置を検出することができる。 第 1 4図には、 蛍光画像において細胞位置を特定し、 その状態を表示していること が示されている。 第 1 4図において、 「十」 が付されている位置が細胞位置である
(クラス判定処理の内容)
第 1 5図は、 クラス判定処理の結果の一例を示す説明図である。 第 1 5図にお いて、 1 5 0 0は、 各クラス、 すなわちタンパク質局在の細胞モデルであり、 ク ラスごとの平均的な細胞のモデル情報からなる。 タンパク質局在の種類としては 、 たとえば、 第 2 0図に示すものがある。 細胞モデルの生成方法は、 平均細胞モ デルの生成方法と同様である。
処理の手順として、 まず、 クラス判定の対象となる認識サンプルの特徴べクト ルを生成する (ステップ S 1 5 0 1 )。 特徴べクトルの生成には、 各種特徴量、 た とえば、 濃度統計量に関するもの、 エッジ要素特徴に関するもの、 形状特徴に関 するもの、 テクスチャ特徴に関するもの、 ランレングス統計量に関するものなど の全部または一部を用いておこなう。
ここで、 各特徴量のうち、 濃度統計量に関するものとしては、 具体的には、 画 像全体の輝度平均、 画像全体の輝度分散、 非背景矩形ブロック部内平均の全体分 散、 非背景矩形ブロック部内分散の全体平均、 2次微分画像の輝度平均、 2次微 分画像の輝度分散、 非背景矩形プロック部内平均の全体平均などがある。 また、 エッジ要素特徴に関するものとしては、 具体的には、 近傍濃度差の平均 、 近傍濃度差の分散、 位相差エッジ画像の輝度平均、 位相差エッジ画像の横方向 暗部ランレングス平均、 位相差エッジ画像の横方向明部ランレングス平均、 位相 差ェッジ画像の縦方向暗部ランレングス平均、 位相差ェッジ画像の縦方向明部ラ ンレングス平均、 位相差エッジ画像の濃度共起行列の共分散、 位相差エッジ画像 の濃度共起行列の水平方向の標準偏差、 位相差ェッジ画像の濃度共起行列の垂直 方向の標準偏差、 位相差エッジ画像の濃度共起行列の標本相関係数、 位相差エツ ジ画像の濃度共起行列の水平方向おょぴ垂直方向の標準偏差比などがある。
また、 形状特徴に関するものとしては、 具体的には、 ラベル数、 ラベリング項 目の面積合計、 ラベリング項目の周囲長合計、 画像全体と非背景部の平均輝度比 、 ラベリング項目の面積平均、 ラベリング項目の周囲長平均、 ラベリング項目の 円形度平均、 ラベリング項目の複雑度平均などがある。
また、. テクスチャ特徴に関するものとしては、 濃度共起行列の水平方向の平均 、 濃度共起行列の垂直方向の平均、 濃度共起行列のコントラスト、 濃度共起行列 の共分散、 濃度共起行列の水平方向の標準偏差、 濃度共起行列の垂直方向の標準 偏差、 濃度共起行列のパワー、 濃度共起行列の標本相関係数、 濃度共起行列の水 平方向および垂直方向の平均比などがある。
また、 ランレングス統計量に関するものとしては、 縦および横方向暗部ランレ ングス平均、 縦および横方向明部ランレングス平均、 ランレングス平均の暗部明 部比などがある。
つぎに、 各クラスの細胞モデノレ 1 5 0 0の固有べクトルとステップ S 1 5 0 1 において生成された特徴べク トルの内積をとることで射影量の算出をおこない ( ステップ S 1 5 0 2 )、 さらに、 分散/平均値を用いて正規ィ匕して類似性評価をお こなう (ステップ S 1 5 0 3 )。 これらの処理は、 第 1 3図のステップ S 1 3 0 3 および 1 3 0 4と同様であり、 .その詳細な説明については省略する。 ここで、 主 成分ベクトルではなく、 学習パターンをよりよく分類できるような上位 n個 (n は自然数) の固有べクトルを用いる。 そして、 類似性評価の結果、 認識結果を得 る。 認識結果とは、 クラス判定の対象となる認識サンプルがタンパク質局在のど のクラスに該当するかに関する結果である。 このように、 クラス判定の対象とな る認識サンプルの細胞がどのクラスに属するかがわかり、 これによつてクラス分 けがおこなわれる。 第 1 6図には、 蛍光画像において細胞位置が特定された各細 胞の認識結果であるクラスを略称で表示していることが示されている。 第 1 6図 において、 「MEM」 はこの細胞が細胞膜であることを示している。
(認識結果半 U定処理の内容)
第 1 7図は、 認識結果判定処理の内容を示すフローチャートであり、 個々の細 胞の認識結果から、 画像単位、 検査単位の認識結果を判定する。 第 1 7図のフロ 一チャートにおいて、 まず、 細胞単位の認識結果を画像単位で集める (ステップ S 1 7 0 1 )。 そして、 集められた画像単位の認識結果を、 認識アルゴリズムから 得られた確信度と各クラスの重要度 (因果関係) を考慮して求める (ステップ S 1 7 0 2 )。
たとえば、 4種類のクラス A, B, C, Dがあるとして、 各々の確信度しきい 値を T A, T B , T C , TDとする。 各々に対する確信度が X A, x B, x C , x Dのように得られたとする。 さらに、 クラス B, C, Dには従属関係があり、 時間とともに Bから Cへ、 そして Cから Dへ (B→C→D) というように変化す る関係があるとする。 そして、 どの確信度も各々のしきい値よりも小さければ、 未知パターンとして結果を出力する。 また、 クラス Aと Bの確信度がともにしき い値以上であれば、 確信度の大きい方のクラスを結果とする。 また、 クラス B , C, Dの確信度がともにしきい値以上であれば、 従属関係の主になるクラス Bを 結果とする。
上記の内容をタンパク質局在のパターンの例で当てはめると、 小胞体への局在 は時間とともにゴルジへの局在、 細胞膜への局在と変化するので、 それぞれクラ ス B, C, Dに当てはまる。 クラス Aにはたとえばミトコンドリアへの局在が該 当する。
このようにして、 画像単位の結果を検査単位で集める (ステップ S 1 7 0 3 )。 そして、 検查単位の結果を多数決で決定し (ステップ S 1 7 0 4 )、 一連の処理を 終了する。 以上説明したように、 1枚の画像または 1検査ごとに単一の正解が含 まれているという先見を利用することで、 画像単位または検査単位の認識結果 ( 遺伝子機能) を推定することができる。
(レポート画面の一例)
つぎに、 レポート画面の一例について説明する。 第 1 8図、 第 1 9図は、 レポ ート画面の一例を示す説明図である。 また、 第 2 0図は、 細胞内のタンパク質局 在の画像例を示しており、 面像例に対応するクラスの名称およびクラスの略称の 一覧を示している。 第 1 8図は、 第 1 5図において説明したクラス判定処理によ つて得られた認識結果に基づいて作成されたレポート画面である。 「視野画像名」 の 『A 0 1 0 1 F A』 は、 ゥヱル『A 0 1』 と、 撮影位置『0 1』 を示して おり、 この蛍光画像からは 1 5個の遺伝子発現細胞が存在することを示している 。 そして、 それらの切り出された明視野画像または位相差画像の各イメージが張 り付けられ、 さらには、 判定されたクラスの略称が表示されている。
また、 第 1 9図は、 第 1 7図において説明した認識結果判定処理によって得ら れた結果に基づいて作成されたレポ一ト画面である。 1 9 0 0はゥエルごとの代 表画像である。 そして、 一つのゥヱルにおいて撮影した蛍光画像全体に対する蛍 光部分の割合を示す 「蛍光部の割合」 1 9 0 1、 一つのゥエルにおいて撮影した 蛍光画像における 「細胞の個数」 1 9 0 2、 「露光状態」 1 9 0 3、 認識結果判定 処理によって得られたクラスを示す 「自動分類種別」 1 9 0 4、 モデルとの 「類 似度」 1 9 0 5、 「手動分類種別」 1 9 0 6の各項目について一覽表示されている 。 各項目 1 9 0 1〜1 9 0 6ごとにそれぞれソートして表示することができる。 また、 手動分類種別表示欄 1 9 0 7の表示を変更することによって、 「手動分類 種別」 を変更することができる。 これによつて、 目視した結果、 自動的に判断さ れた認識結果と異なる場合に、 正しいと判断された内容を容易に選択することが できる。 また、 画像表示ボタン 1 9 0 8が押下されることによって、 代表画像を 所望の画像に変更することができる。 さらに、 「レポート印刷」 ボタン 1 9 0 9を 押下することによって、 表示されている内容が印刷されることになる。 また、 「o K」 ボタン 1 9 1 0が押下されると、 内容を表示されているとおりに確定し、 レ ポート情報蓄積部 3 0 9に蓄積される。 また、 すでに蓄積されたレポートをレポ —ト情報蓄積部 3 0 9から読み出して、 内容を変更し、 再度レポート情報蓄積部 3 0 9に蓄積させることもできる。
以上説明したように、 本実施の形態によれば、 遺伝子が発現した (c D NAが 注入された) 注目すべき細胞を検出し、 その部分だけを切り出した蛍光 '位相差 •明視野の画像と、 それらの画像からタンパク質局在や形態変化などを認識させ 、 認識結果の確信度などの情報をもとに選択 ·配列して表示 ·印刷 ·保存するこ とができ、 画像取り込みからこのレポート作成までがすべて自動的に動作させる ことができる。 すなわち、 遺伝子が発現した (c D NAが注入された) 注目すベ き細胞を自動的に検出し、 その部分だけを切り出した蛍光 ·位相差 ·明視野の画 像と、 それらの画像からタンパク質局在や形態変化などを認識させ、 認識結果の 確信度などの情報をもとに選択 ·配列したレポートを自動的に作成することがで きる。 各々の画像は画面上で確認しやすいように輝度レンジが調整されているの で、 これを画面上で表示 ·印刷 ·保存することによって、 実験の効率が顕著に向 上する。
また、 本実施の形態によれば、 蛍光画像から細胞 1個分ずつの領域の蛍光部分 を取り出す。 そのために、 蛍光パターンと背景パターンを学習させておく。 そし て、 対象が細胞であるという情報を利用した 「平均細胞モデル」 を作成し、 正規 化した類似性評価法によって細胞 1個分の推定領域を取り出す。 さらに、 同じ位 置の明視野画像または位相差画像を参照して細胞 1個分の輪郭を抽出することが できる。 このように、 画像全体ではなく個々の細胞の領域を切り出して解析およ び結果表示することができる。
また、 本実施の形態によれば、 個々の細胞に対して、 蛍光のパターンや形態パ ターンを認識させるための学習 '認識処理を用いることができる。 また、 固有空 間法 '部分空間法、 ニューラルネットワークなどの方法が使える。 このように、 コンピュータに学習機能を持たせることで、 自動的に判定結果を出力することが できる。
出願人は、 実際にレポートを試作した。 その結果、 従来のままでは、 1プレー トあたり約 7 0 0 MBの画像データが発生し、 目視するたびに輝度レンジなども 調整するので、 一通り見るだけでも数時間 (3時間以上) かかった (判定結果は 付ける暇がなかった)。 一方、 作成されたカタログの容量は 1プレート当たり約 6 MBになり、 一通り見るには数分間で済み、 判定結果まで付けることができた。 また、 本実施の形態における画像解析支援方法は、 あらかじめ用意されたコン ピュータ読み取り可能なプログラムであってもよく、 またそのプログラムをパー ソナルコンピュータやワークステーションなどのコンピュータで実行することに よって実現される。 このプログラムは、 HD、 F D、 C D - R OM, MO、 D V Dなどのコンピュータで読み取り可能な記録媒体に記録され、 コンピュータによ つて記録媒体から読み出されることによって実行される。 また、 このプログラム は、 インターネットなどのネットワークを介して配布することが可能な伝送媒体 であってもよい。 産業上の利用可能性
以上のように本発明にかかる画像解析支援方法、 画像角军析支援プログラム、 画 像解析支援装置は、 顕微鏡で撮影された画像の細胞位置およびその種類を迅速に かつ効率的に抽出し、 各画像の細胞領域ごとの抽出結果を自動的に一覧表示する ことにより、 実験'解析の効率化を図ることに適している。

Claims

請 求 の 範 囲
1 . 複数のゥエルに付着する細胞を撮影した蛍光画像に関する情報、 および前記 蛍光画像と同一視野における明視野画像およ 立相差画像の少なくともいずれか 一方に関する情報の入力を受け付ける画像情報入力工程と、
前記画像情報入力工程によって入力が受け付けられた蛍光画像に関する情報に 基づいて、 前記蛍光画像における細胞の存在位置を検出する位置検出工程と、 前記位置検出工程によつて検出された存在位置に存在する細胞のクラスを判定 するクラス判定工程と、
前記クラス判定工程によって判定されたクラスに関する情報、 および前記位置 検出工程によつて検出された存在位置に基づレ、て抽出された細胞の前記明視野画 像および位相差画像の少なくともいずれか一方の画像情報を一覧表示可能に出力 する出力工程と、
を含むことを特徴とする画像 支援方法。
2 . 前記クラス判定工程によって判定されたクラスに基づいて、 前記画像ごとま たは前記ゥエルごとの認識結果を判定する認識結果判定工程を含み、
前記出力工程は、 前記認識結果判定工程によつて判定された認識結果に関する 情報を一覧表示可能に出力することを特徴とする請求の範囲第 1項に記載の画像 解析支援方法。
3 . 前記認識結果判定工程によって判定された認識結果を変更する認識結果変更 工程を含むことを特徴とする請求の範囲第 2項に記載の画像解析支援方法。
4 . 前記位置検出工程は、 前記蛍光画像の細胞候補に関する情報と、 平均的な細 胞モデルに関する情報および平均的な背景モデルに関する情報の少なくともいず れか一つとを比較し、 両者の類似性を評価することによって、 前記蛍光画像にお ける細胞の存在位置を検出することを特徴とする請求の範囲第 1項〜請求の範囲 第 3項のレ、ずれか一つに記載の画像解析支援方法。
5 . 前記位置検出工程は、 前記平均的な細胞モデルおよび平均的な背景モデルの 少なくともいずれか一つの主成分べクトルと、 前記蛍光画像の細胞候補の特徴べ クトルとの内積をとることによって射影量を算出し、 算出された射影量を正規ィ匕 して評価値を算出し、 算出された評価値に基づいて前記蛍光画像における細胞の 存在位置を検出することを特徴とする請求の範囲第 4項に記載の画像解析支援方 法。
6 . 前記平均的な細胞モデルに関する情報は、 サンプル画像の細胞クラスの主成 分べクトノレと、 前記細胞クラスの分散値および平均値とを含むことを特徴とする 請求の範囲第 4項または請求の範囲第 5項に記載の画像解析支援方法。
7 . 前記平均的な背景モデルに関する情報は、 サンプル画像の背景クラスの主成 分べクトルと、 前記背景クラスの分散値および平均値とを含むことを特徴とする 請求の範囲第 4項〜請求の範囲第 6項のいずれか一つに記載の画像解析支援方法
8 . 前記クラス判定工程は、 各タンパク質局在クラスのモデルの固有ベクトルと 、 前記位置検出工程によって存在位置に存在する細胞の特徴べクトルとの内積を とることによつて射影量を算出し、 算出された射影量を正規化して評価値を算出 し、 算出された評価値に基づいて前記細胞のクラスを判定することを特徴とする 請求の範囲第 1項〜請求の範囲第 7項のいずれか一つに記載の画像解析支援方法
9 . 複数のゥエルに付着する細胞を撮影した蛍光画像に関する情報、 および前記 蛍光画像と同一視野における明視野画像およ 立相差画像の少なくともいずれか 一方に関する情報の入力を受け付けさせる画像情報入力工程と、
前記画像情報入力工程によって入力が受け付けられた蛍光画像に関する情報に 基づいて、 前記蛍光画像における細胞の存在位置を検出させる位置検出工程と、 前記位置検出工程によって検出された存在位置に存在する細胞のクラスを判定 させるクラス判定工程と、
前記クラス判定工程によって判定されたクラスに関する情報、 および前記位置 検出工程によつて検出された存在位置に基づいて抽出された細胞の前記明視野画 像および位相差画像の少なくともいずれか一方の画像情報を一覧表示可能に出力 させる出力工程と、
をコンピュータに実行させることを特徴とする画像^支援プロダラム。
1 0 . 前記クラス判定工程によって判定されたクラスに基づいて、 前記画像ごと または前記ゥエルごとの認識結果を判定させる認識結果判定工程をコンピュータ に実行させ、
前記出力工程は、 前記認識結果判定工程によつて判定された認識結果に関する 情報を一覧表示可能に出力させることを特徴とする請求の範囲第 9項に記載の画 像解析支援プログラム。
1 1 . 複数のゥエルに付着する細胞を撮影した蛍光画像に関する情報、 および前 記蛍光画像と同一視野における明視野画像および位相差画像の少なくともいずれ カゝ一方に関する情報の入力を受け付ける画像情報入力手段と、
前記画像情報入力手段によって入力が受け付けられた蛍光画像に関する情報に 基づいて、 前記蛍光画像における細胞の存在位置を検出する位置検出手段と、 刖 「己位置検出手段によって検出された存在位置に存在する細胞のクラスを判定 するクラス判定手段と、 前記クラス判定手段によって判定されたクラスに関する情報、 および前記位置 検出手段によって検出された存在位置に基づいて抽出された細胞の前記明視野画 像および位相差画像の少なくともいずれか一方の画像情報を一覧表示可能に出力 する出力手段と、
を備えたことを特徴とする画像解析支援装置。
1 2 . 前記クラス判定手段によって判定されたクラスに基づいて、 前記画像ごと または前記ゥエルごとの認識結果を判定する認識結果判定手段を備え、
前記出力手段は、 前記認識結果判定手段によって判定された認識結果に関する 情報を一覧表示可能に出力することを特徴とする請求の範囲第 1 1項に記載の画 像解析支援装置。
PCT/JP2002/011624 2002-11-07 2002-11-07 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置 WO2004042392A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP02780044A EP1586897B1 (en) 2002-11-07 2002-11-07 Image analysis supporting method, image analysis supporting program, and image analysis supporting device
AU2002344483A AU2002344483A1 (en) 2002-11-07 2002-11-07 Image analysis supporting method, image analysis supporting program, and image analysis supporting device
PCT/JP2002/011624 WO2004042392A1 (ja) 2002-11-07 2002-11-07 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置
DE60237242T DE60237242D1 (de) 2002-11-07 2002-11-07 Hilfsverfahren, hilfsprogramm und hilfsvorrichtung zur bildanalyse
JP2004549566A JP4037869B2 (ja) 2002-11-07 2002-11-07 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置
US11/089,223 US7050613B2 (en) 2002-11-07 2005-03-25 Method for supporting cell image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2002/011624 WO2004042392A1 (ja) 2002-11-07 2002-11-07 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/089,223 Continuation US7050613B2 (en) 2002-11-07 2005-03-25 Method for supporting cell image analysis

Publications (1)

Publication Number Publication Date
WO2004042392A1 true WO2004042392A1 (ja) 2004-05-21

Family

ID=32310236

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/011624 WO2004042392A1 (ja) 2002-11-07 2002-11-07 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置

Country Status (5)

Country Link
EP (1) EP1586897B1 (ja)
JP (1) JP4037869B2 (ja)
AU (1) AU2002344483A1 (ja)
DE (1) DE60237242D1 (ja)
WO (1) WO2004042392A1 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029413A1 (en) * 2003-09-23 2005-03-31 Iatia Imaging Pty Ltd Method and apparatus for determining the area or confluency of a sample
JP2005192485A (ja) * 2004-01-07 2005-07-21 Hitachi Medical Corp 細胞の培養状態検出装置
JP2006105695A (ja) * 2004-10-01 2006-04-20 Sysmex Corp 細胞画像表示方法、細胞画像表示システム、細胞画像表示装置、及びコンピュータプログラム
WO2006104201A1 (ja) * 2005-03-29 2006-10-05 Olympus Corporation 細胞画像解析方法、細胞画像解析プログラム、細胞画像解析装置、スクリーニング方法およびスクリーニング装置
JP2006275771A (ja) * 2005-03-29 2006-10-12 Olympus Corp 細胞画像解析装置
JP2007113961A (ja) * 2005-10-18 2007-05-10 Olympus Corp 生物学的活性を長期的に評価する装置または自動解析する方法
JP2007278985A (ja) * 2006-04-11 2007-10-25 Hamamatsu Photonics Kk 光測定装置、光測定方法、及び光測定プログラム
JP2008268027A (ja) * 2007-04-20 2008-11-06 Nikon Corp 画像解析方法と、蛍光検出装置
JP2010518486A (ja) * 2007-02-05 2010-05-27 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッド 顕微鏡検査における細胞分析システムおよび方法
JP2011505954A (ja) * 2007-12-17 2011-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 混濁媒体の内部における不均質性の存在を検出するための方法及び、混濁媒体の内部を画像化するための装置
JP2012002949A (ja) * 2010-06-15 2012-01-05 Nikon Corp 観察装置
JPWO2011132586A1 (ja) * 2010-04-23 2013-07-18 浜松ホトニクス株式会社 細胞観察装置および細胞観察方法
WO2013146843A1 (ja) * 2012-03-30 2013-10-03 コニカミノルタ株式会社 医用画像処理装置及びプログラム
WO2015133193A1 (ja) * 2014-03-05 2015-09-11 富士フイルム株式会社 細胞画像評価装置および方法並びにプログラム
JP2016118428A (ja) * 2014-12-19 2016-06-30 コニカミノルタ株式会社 画像処理装置、画像処理システム、画像処理プログラム及び画像処理方法
JP2017524196A (ja) * 2014-08-04 2017-08-24 ヴェンタナ メディカル システムズ, インク. コンテキストフィーチャを用いた画像解析システム
KR101847509B1 (ko) 2012-02-17 2018-04-10 광주과학기술원 막 오염도 측정 방법 및 장치
WO2018143406A1 (ja) * 2017-02-06 2018-08-09 コニカミノルタ株式会社 画像処理装置及びプログラム
JP2020530637A (ja) * 2017-08-09 2020-10-22 アレン インスティテュート 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法
CN111826423A (zh) * 2019-03-29 2020-10-27 希森美康株式会社 荧光图像分析装置及荧光图像分析方法
WO2022004318A1 (ja) * 2020-07-02 2022-01-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022249583A1 (ja) * 2021-05-26 2022-12-01 ソニーグループ株式会社 情報処理装置、生体試料観察システム及び画像生成方法
CN111826423B (zh) * 2019-03-29 2024-04-26 希森美康株式会社 荧光图像分析装置及荧光图像分析方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8014577B2 (en) * 2007-01-29 2011-09-06 Institut National D'optique Micro-array analysis system and method thereof
CA2675103C (en) * 2007-01-29 2013-10-01 Institut National D'optique Micro-array analysis system and method thereof
JP5446868B2 (ja) * 2007-10-19 2014-03-19 株式会社ニコン プログラム、コンピュータおよび培養状態解析方法
DE102007062067A1 (de) * 2007-12-21 2009-07-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optisches Verfahren und Vorrichtung zur Klassifizierung von Partikeln
WO2021206686A1 (en) * 2020-04-07 2021-10-14 Hewlett-Packard Development Company, L.P. Microfluidic chip cell sorting and transfection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5352494A (en) * 1976-10-25 1978-05-12 Hitachi Ltd Discrimination method of leucocyte
JPS6447948A (en) * 1987-08-19 1989-02-22 Hitachi Ltd Automatic cell sorter

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02165388A (ja) * 1988-12-20 1990-06-26 Toshiba Corp パターン認識方式
US5162990A (en) * 1990-06-15 1992-11-10 The United States Of America As Represented By The United States Navy System and method for quantifying macrophage phagocytosis by computer image analysis
US5798262A (en) * 1991-02-22 1998-08-25 Applied Spectral Imaging Ltd. Method for chromosomes classification
IL140851A0 (en) * 1998-07-27 2002-02-10 Applied Spectral Imaging Ltd In situ method of analyzing cells

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5352494A (en) * 1976-10-25 1978-05-12 Hitachi Ltd Discrimination method of leucocyte
JPS6447948A (en) * 1987-08-19 1989-02-22 Hitachi Ltd Automatic cell sorter

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1586897A4 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029413A1 (en) * 2003-09-23 2005-03-31 Iatia Imaging Pty Ltd Method and apparatus for determining the area or confluency of a sample
JP4565845B2 (ja) * 2004-01-07 2010-10-20 株式会社カネカ 細胞の培養状態検出装置
JP2005192485A (ja) * 2004-01-07 2005-07-21 Hitachi Medical Corp 細胞の培養状態検出装置
JP2006105695A (ja) * 2004-10-01 2006-04-20 Sysmex Corp 細胞画像表示方法、細胞画像表示システム、細胞画像表示装置、及びコンピュータプログラム
WO2006104201A1 (ja) * 2005-03-29 2006-10-05 Olympus Corporation 細胞画像解析方法、細胞画像解析プログラム、細胞画像解析装置、スクリーニング方法およびスクリーニング装置
JP2006275771A (ja) * 2005-03-29 2006-10-12 Olympus Corp 細胞画像解析装置
JP4728025B2 (ja) * 2005-03-29 2011-07-20 オリンパス株式会社 細胞画像解析装置
JP2007113961A (ja) * 2005-10-18 2007-05-10 Olympus Corp 生物学的活性を長期的に評価する装置または自動解析する方法
JP2007278985A (ja) * 2006-04-11 2007-10-25 Hamamatsu Photonics Kk 光測定装置、光測定方法、及び光測定プログラム
JP2010518486A (ja) * 2007-02-05 2010-05-27 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッド 顕微鏡検査における細胞分析システムおよび方法
JP2008268027A (ja) * 2007-04-20 2008-11-06 Nikon Corp 画像解析方法と、蛍光検出装置
JP2011505954A (ja) * 2007-12-17 2011-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 混濁媒体の内部における不均質性の存在を検出するための方法及び、混濁媒体の内部を画像化するための装置
JPWO2011132586A1 (ja) * 2010-04-23 2013-07-18 浜松ホトニクス株式会社 細胞観察装置および細胞観察方法
JP5775068B2 (ja) * 2010-04-23 2015-09-09 浜松ホトニクス株式会社 細胞観察装置および細胞観察方法
JP2012002949A (ja) * 2010-06-15 2012-01-05 Nikon Corp 観察装置
KR101847509B1 (ko) 2012-02-17 2018-04-10 광주과학기술원 막 오염도 측정 방법 및 장치
US9189678B2 (en) 2012-03-30 2015-11-17 Konica Minolta, Inc. Medical image processor and storage medium
WO2013146843A1 (ja) * 2012-03-30 2013-10-03 コニカミノルタ株式会社 医用画像処理装置及びプログラム
JP5804194B2 (ja) * 2012-03-30 2015-11-04 コニカミノルタ株式会社 医用画像処理装置及びプログラム
WO2015133193A1 (ja) * 2014-03-05 2015-09-11 富士フイルム株式会社 細胞画像評価装置および方法並びにプログラム
JP2015170047A (ja) * 2014-03-05 2015-09-28 富士フイルム株式会社 細胞画像評価装置および方法並びにプログラム
US10360676B2 (en) 2014-03-05 2019-07-23 Fujifilm Corporation Cell image evaluation device, method, and program
JP2020205063A (ja) * 2014-08-04 2020-12-24 ヴェンタナ メディカル システムズ, インク. コンテキストフィーチャを用いた画像解析システム
JP2017524196A (ja) * 2014-08-04 2017-08-24 ヴェンタナ メディカル システムズ, インク. コンテキストフィーチャを用いた画像解析システム
JP7335855B2 (ja) 2014-08-04 2023-08-30 ヴェンタナ メディカル システムズ, インク. コンテキストフィーチャを用いた画像解析システム
JP2016118428A (ja) * 2014-12-19 2016-06-30 コニカミノルタ株式会社 画像処理装置、画像処理システム、画像処理プログラム及び画像処理方法
WO2018143406A1 (ja) * 2017-02-06 2018-08-09 コニカミノルタ株式会社 画像処理装置及びプログラム
JPWO2018143406A1 (ja) * 2017-02-06 2019-12-26 コニカミノルタ株式会社 画像処理装置及びプログラム
JP2020530637A (ja) * 2017-08-09 2020-10-22 アレン インスティテュート 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法
US11614610B2 (en) 2017-08-09 2023-03-28 Allen Institute Systems, devices, and methods for image processing to generate an image having predictive tagging
JP7459336B2 (ja) 2017-08-09 2024-04-01 アレン インスティテュート 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法
CN111826423A (zh) * 2019-03-29 2020-10-27 希森美康株式会社 荧光图像分析装置及荧光图像分析方法
CN111826423B (zh) * 2019-03-29 2024-04-26 希森美康株式会社 荧光图像分析装置及荧光图像分析方法
WO2022004318A1 (ja) * 2020-07-02 2022-01-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022249583A1 (ja) * 2021-05-26 2022-12-01 ソニーグループ株式会社 情報処理装置、生体試料観察システム及び画像生成方法

Also Published As

Publication number Publication date
AU2002344483A1 (en) 2004-06-07
JPWO2004042392A1 (ja) 2006-03-09
EP1586897A1 (en) 2005-10-19
DE60237242D1 (de) 2010-09-16
JP4037869B2 (ja) 2008-01-23
EP1586897B1 (en) 2010-08-04
EP1586897A4 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
JP4037869B2 (ja) 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置
US7050613B2 (en) Method for supporting cell image analysis
US11681418B2 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
Silva-Rodríguez et al. Going deeper through the Gleason scoring scale: An automatic end-to-end system for histology prostate grading and cribriform pattern detection
Huang et al. From quantitative microscopy to automated image understanding
Sertel et al. Computer-aided prognosis of neuroblastoma on whole-slide images: Classification of stromal development
JP4688954B2 (ja) 特徴量選択方法、特徴量選択装置、画像分類方法、画像分類装置、コンピュータプログラム、及び記録媒体
CN102687007B (zh) 利用分层标准化切割的高处理量生物标志物分割
US9646376B2 (en) System and method for reviewing and analyzing cytological specimens
US8306284B2 (en) Manually-assisted automated indexing of images using facial recognition
JP5022174B2 (ja) 欠陥分類方法及びその装置
CN109829467A (zh) 图像标注方法、电子装置及非暂态电脑可读取储存媒体
US20020159642A1 (en) Feature selection and feature set construction
JP2012181209A (ja) 欠陥分類方法及びその装置
WO2001078009A2 (en) Quantitative analysis of biological images
JPH08315144A (ja) パターン分類装置及びそのパターン分類方法
Sertel et al. Computer-aided prognosis of neuroblastoma: classification of stromal development on whole-slide images
WO2020208955A1 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
Rifkin Identifying fluorescently labeled single molecules in image stacks using machine learning
Hu et al. Application of temporal texture features to automated analysis of protein subcellular locations in time series fluorescence microscope images
Zanotelli et al. A flexible image segmentation pipeline for heterogeneous multiplexed tissue images based on pixel classification
SOUAHI Analytic study of the preprocessing methods impact on historical document analysis and classification
CN117635629A (zh) 利用部分注释图像训练实例分割算法
CN116229435A (zh) 一种基于多尺度特征融合的溺死硅藻检测方法
Blunsden et al. Investigating the effects of scale in MRF texture classification

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LU MC NL PT SE SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004549566

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2002780044

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11089223

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2002780044

Country of ref document: EP