WO2024062953A1 - 画像処理方法及び画像処理プログラム - Google Patents

画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
WO2024062953A1
WO2024062953A1 PCT/JP2023/032915 JP2023032915W WO2024062953A1 WO 2024062953 A1 WO2024062953 A1 WO 2024062953A1 JP 2023032915 W JP2023032915 W JP 2023032915W WO 2024062953 A1 WO2024062953 A1 WO 2024062953A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
spheroid
region
average color
processing
Prior art date
Application number
PCT/JP2023/032915
Other languages
English (en)
French (fr)
Inventor
一貴 上田
悠 岡野
崇希 橋本
真平 竹本
好成 奥野
桃子 小林
清太 中村
久美子 小林
Original Assignee
株式会社レゾナック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社レゾナック filed Critical 株式会社レゾナック
Publication of WO2024062953A1 publication Critical patent/WO2024062953A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present disclosure relates to an image processing method and an image processing program.
  • imaging may be performed on a sample such as cells cultured in a container for the purpose of quantitatively measuring the number and size of cells.
  • imaging may be performed by introducing a fluorescent reagent or the like into the cells, but such operations may damage the cells.
  • a fluorescent reagent or the like may damage the cells.
  • it may be necessary to perform imaging and measurement using non-invasive methods.
  • a first step is to obtain an original image that includes a cell or a cell structure made up of a plurality of cells as an object to be imaged, and a method is applied to the original image according to the width of the outline of the object to be imaged.
  • a second step of performing band-pass filter processing that attenuates spatial frequency components outside the band relative to spatial frequency components in a predetermined band;
  • Patent Document 1 The technique disclosed in Patent Document 1 is effective when the parameters used for the filter are known, but generally cannot be applied when the parameters are not known. Furthermore, it is difficult to acquire all regions in one image analysis depending on color unevenness within the image and variations in the size of the object. To solve this problem, by generating an image using the average color of the background, it is possible to perform image analysis multiple times and obtain a region regardless of the size or color unevenness of the object in the image.
  • the present disclosure aims to accurately acquire a spheroid region from an image that includes a cell structure whose outline is not homogeneous (hereinafter collectively referred to as a "spheroid") as an imaged object.
  • a spheroid a cell structure whose outline is not homogeneous
  • the image processing method includes: an image acquisition step of acquiring an image including the spheroid as an imaged object; a binarization step of binarizing the acquired image to obtain a binarized image; a region dividing step of dividing the binarized image into regions to obtain spheroid candidate regions; and an ellipse approximation step of applying ellipse approximation to the spheroid candidate region.
  • a second aspect of the present disclosure is the image processing method according to the first aspect, including an entire image average color acquisition step of acquiring an average color of the entire image before binarization; a background area average color acquisition step of acquiring an average color of a background area of the image to which the ellipse approximation is applied; The method further includes a determination step of comparing the average color of the entire image with the average color of the background area.
  • a third aspect of the present disclosure is an image processing method according to the second aspect, comprising:
  • the background region average color acquisition step includes: a second binarization step of binarizing the image to which the elliptical approximation has been applied; an expansion step of expanding white areas of the binarized image obtained as a result of the second binarization step; and an average color acquisition step of acquiring an average color of an area in the image to which the elliptical approximation has been applied, the area corresponding to a black area of the binarized image obtained as a result of the expansion step.
  • a fourth aspect of the present disclosure is an image processing program, comprising: an image acquisition step of acquiring an image including the spheroid as an imaged object; a binarization step of binarizing the acquired image to obtain a binarized image; a region dividing step of dividing the binarized image into regions to obtain spheroid candidate regions; causing a computer to perform an ellipse approximation step of applying an ellipse approximation to the spheroid candidate region.
  • FIG. 1 is a flowchart showing image processing in one embodiment.
  • FIG. 2 is a configuration example of a computer device that executes image processing according to an embodiment.
  • FIG. 3 is a flowchart showing the background area average color acquisition process.
  • FIG. 4 is a first diagram schematically showing an example of changes in an image due to processing.
  • FIG. 5 is a second diagram schematically showing an example of changes in an image due to processing.
  • the image processing in this embodiment is a process of dividing an image of a cell structure cultured in a culture solution into a region of the cell structure and other regions, and outputting a resultant image.
  • This image processing is performed on an unprocessed original image captured by an imaging device equipped with an imaging function for imaging a sample containing spheroids.
  • the imaging device may perform the main image processing as one of the post-processing for the image data after imaging, or the computer device that has received the image data from the imaging device or an appropriate storage means may perform the main image processing. Good too.
  • the images that are the subject of the image processing of the present invention include spheroids as the object to be imaged.
  • spheroid refers to a cell structure in which multiple cells are assembled into an approximately spherical shape, but it may also include cells whose outline appears as a relatively smooth closed curve, for example, cells that show an approximately spherical or ellipsoidal shape alone in culture fluid.
  • the spheroids to be imaged are, for example, dispersed within the culture fluid system in which they grow.
  • the culture fluid containing the spheroids is contained in a transparent sample container to constitute a sample. In this case, the spheroids are imaged by looking through the sample container containing the culture fluid.
  • the configuration of the imaging device is not particularly limited, as long as it has the function of imaging a sample containing cultured spheroids together with a culture solution and outputting it as digital image data. Moreover, it is preferable that the image is a bright-field captured image.
  • the computer device for example, one having a general hardware configuration commercialized as a personal computer can be used. A detailed explanation of these hardware will be omitted below.
  • FIG. 1 is a flowchart showing image processing of this embodiment. First, an outline of image processing in this embodiment will be explained with reference to FIG. 1, and then specific contents of the image processing will be explained in detail.
  • the computer device acquires an original image obtained by bright-field imaging a sample containing spheroids in a culture solution using an appropriate imaging device and imaging conditions (step S101).
  • the original image shall include the entirety of at least one spheroid as an imaged object.
  • the imaging magnification is set so that the entirety of at least one spheroid is included. Therefore, the original image may include spheroids to be detected, other minute cells, debris, background, and the like.
  • the image processing of this embodiment is particularly suitable for images that include spheroids as the imaged object.
  • Such cells appear in a non-uniform state in size and shape due to differences in the growth rate of each cell. Detecting such cells etc. with high accuracy leads to accurate extraction of the region of cells etc.
  • the computer device acquires the average color of the entire image from the original image acquired in step S101 or the processing target image generated in step S111 (step S102).
  • processing target image the original image acquired in step S101 and the processing target image generated in step S111 will be collectively referred to as "processing target image.”
  • processing target image the arithmetic mean of R, G, and B values of pixels.
  • the average color of the entire image may be obtained by calculating any of the RGB values, any of the HSV values, or a combination thereof.
  • the average color of the entire image acquired in step S102 can be used in the subsequent determination process in step S103.
  • step S103 If the average color of the entire image is acquired for the first time from the original image acquired in step S101, the determination process in step S103 is not performed and the process proceeds to the next step S104.
  • the process of acquiring the average color of the entire image from the processing target image generated in step S111 after the second round will be described later.
  • the computer device selects a region division method (step S104).
  • area segmentation methods include the watershed method and the contour detection method.
  • the selection of the region division method may be performed before the region division processing in step S107, which will be described later, and the timing of selection of the region division method is not limited within that range.
  • a spheroid region is obtained by binarization processing (step S105), region division processing (step S107), and ellipse approximation processing (step S108).
  • the computer device divides the image to be processed into a high-density area with a density higher than a predetermined density threshold and a low-density area with a density lower than a predetermined density threshold (step S105). . Furthermore, a single density (for example, black and white) is given to each of the high-density region and the low-density region. As a result, a binarized image obtained by binarizing the image to be processed is obtained. By binarizing the image, the spheroids are represented as high-density closed regions surrounded by low-density background regions. As the binarization process, Otsu's binarization or binarization using an appropriate threshold value can be used.
  • the closed region surrounded by the contour extracted in this way corresponds to the inside of the spheroid.
  • the original image may include objects other than spheroids to be detected, such as small cells and debris. In order to erase this, objects whose parameters related to morphological features meet predetermined erasure conditions are erased.
  • the computer device erases objects whose area as the parameter is smaller or larger than a predetermined value (noise removal step, step S106).
  • Deleting an object here means changing an object that has been made into a high-density area by binarization to a low-density area that is the same as the background area.
  • This area division process is a process for separating and extracting spheroids as candidate areas when the object extracted by the processes of steps S105 and S106 described above is a plurality of connected spheroids. .
  • Such a connection can occur either when a plurality of spheroids are actually in contact with each other in the sample, or when they are separated in the sample but appear to overlap from the imaging direction.
  • region segmentation processing spheroid candidate regions can be obtained by separating connected spheroids in an image from each other. By performing this region division processing, it is possible to reduce errors in calculating the number of spheroids in an image, their respective sizes, areas, and the like.
  • step S108 the computer device performs ellipse approximation processing.
  • ellipse approximation is applied to the spheroid candidate area extracted by the area division process in step S107.
  • an ellipse formula is specified using, for example, the method of least squares so that the difference between the outline of the spheroid candidate region and the applied ellipse is small.
  • step S109 the computer device performs ellipse deletion processing.
  • this ellipse deletion process in the spheroid candidate region to which the ellipse approximation was applied in step S108, if the applied ellipse is not appropriate, the ellipse is deleted. Specifically, when there is a spheroid candidate region to which an ellipse that should be excluded from extraction is applied, extraction is performed based on, for example, the area or flatness of the ellipse being smaller or larger than a predetermined value. Not applicable. By performing this ellipse deletion process, a spheroid candidate region to which the ellipse that was not deleted is applied is obtained as a spheroid region.
  • this background region average color acquisition process is a process of calculating the average color of a portion of the processing target image excluding the spheroid region by using binarization processing and dilation processing.
  • the computer device generates a new processing target image in which the spheroid region obtained from the processing target image in steps S108 and S109 is filled with the average color of the background region obtained in step S110 (step S111). . After that, the process returns to step S102.
  • step S103 the average color of the entire image acquired in step S102 is compared with the average color of the background area acquired in step S110, and it is determined whether the difference in average color is greater than or equal to a threshold value. If the difference between these average colors is equal to or greater than the threshold value, the process advances to step S104. If the average color difference is less than the threshold value, the process advances to step S112. The fact that the average color difference is less than the threshold value corresponds to the fact that there are no remaining spheroid candidate regions that can be extracted from the processing target image by the processing in steps S105 and S106.
  • the step of determining the difference in average color is performed following step 111 instead of following step S102, and is performed to determine the average color of the entire image of the N-th processing target image before applying the processing from step S102 to step S111. and the average color of the background area of the N-th processing target image after applying the processing from step S102 to step S111, and determine whether the difference in the average color is less than a threshold value. You can also use it as
  • the spheroid area is acquired with high accuracy by repeatedly generating a processing target image in which the acquired spheroid area is integrated with the background area.
  • the computer device outputs an image in which the spheroid region obtained by the above processing is illustrated in the original image (step S112). Specifically, an image in which the ellipse applied to the acquired spheroid region is superimposed on the original image is output.
  • the display for specifying the spheroid region is not limited to the ellipse display as described above.
  • the output image can be an image in which the visibility of the spheroid region in the original image is increased by performing various processing such as coloring the spheroid region and emphasizing the outline.
  • the computer device stores information regarding the ellipse, such as quantitative values of the spheroid area obtained through the above processing, in the storage 15 described later (step S113). Specifically, the number, area, length of outline, circularity, and aspect ratio are stored as numerical values. In addition to the above, the number of ellipses, circularity, major axis, minor axis, center coordinates, etc. obtained by the ellipse deletion process in step S109 may be stored. Further, statistical values may be calculated based on these numerical values. The values including the calculated statistical values may be output as a file such as CSV (Comma Separated Values) or Excel (registered trademark).
  • CSV Common Separated Values
  • Excel registered trademark
  • the output image generated in step S112 and/or the statistical value generated in step S113 are displayed on the display unit 17, which will be described later, for example, so that the result of image processing is presented to the user.
  • the output image and/or statistical value may be printed out or transmitted to an external device (not shown).
  • FIG. 2 shows an example of the configuration of a computer device that executes the image processing of this embodiment.
  • the computer device 1 has, for example, a general configuration as a personal computer, and includes a CPU (Central Processing Unit) 10, a memory 14, a storage 15, an input device 16, a display section 17, an interface 18, a disk drive 19, etc. ing.
  • a CPU Central Processing Unit
  • the CPU 10 implements the image processing unit 11 as a functional block for executing the above-described image processing in software by executing an image processing program prepared in advance. Note that dedicated hardware for realizing the image processing section 11 may be provided.
  • the memory 14 temporarily stores various data generated during the calculation process of the CPU 10.
  • the storage 15 long-term stores image data of the original image, processed image data, information regarding the ellipse described above, and the like.
  • the input device 16 is for receiving instruction input from an operator, and includes, for example, a mouse, a keyboard, and the like.
  • the display unit 17 is, for example, a liquid crystal display having a function of displaying images, and displays various information such as original images, processed images, and messages to the operator. Note that a touch panel in which an input device and a display unit are integrated may be provided.
  • the interface 18 exchanges various data with external devices via telecommunications lines.
  • the disk drive 19 accepts an external recording disk 2 on which various data such as image data and image processing programs are recorded. Image data, image processing programs, etc. stored on the recording disk 2 are read out by the disk drive 19 and stored in the storage 15.
  • the disk drive 19 may have a function of writing data generated within the computer device 1 onto the recording disk 2.
  • the image processing program for causing the computer device 1 to execute the image processing of this embodiment may be read out by the disk drive 19 accessing the recording disk 2 on which it is recorded, and may be read out via the interface 18. It may also be provided from an external device. The same applies to original image data.
  • step S110 in FIG. 1 The background area average color acquisition process (step S110 in FIG. 1) in this embodiment will be explained in detail along FIG. 3.
  • the computer device performs binarization processing on the image processed in steps S108 and S109 (step S201).
  • the computer device divides the processing target image into a high density area with a density higher than a predetermined density threshold and a predetermined density area in the same manner as in the binarization process in step S105 described above. It is divided into a low concentration region where the concentration is lower than the threshold value.
  • Otsu's binarization or binarization using an appropriate threshold value can be used.
  • the processing target image is roughly divided into a spheroid region and a non-spheroid region. Thereafter, this area other than the spheroid is treated as a background candidate area.
  • the computer device performs expansion processing on the spheroid region (step S202).
  • the spheroid area is sufficiently expanded into the background candidate area.
  • the area is expanded by 10 pixels so as to extend from the spheroid area to the background candidate area.
  • the computer device performs background area acquisition processing (step S203).
  • a background area is acquired from the expanded processing target image obtained in step S202. In this way, the background area in the image to be processed is identified.
  • the computer device obtains the average color of the background area obtained in step S203 (step S204).
  • the average color can be obtained in the same manner as in step S102 described above.
  • the average color of the background area is obtained.
  • the average color of the background area obtained in this manner is used in step S103 described above.
  • FIG. 4 schematically shows an example of changes in an image due to image processing of this embodiment.
  • Image Ia shown in FIG. 4 schematically shows an example of the image acquired in step S101.
  • the image to be processed generated in step S111 becomes image Ia.
  • spheroids S1 to S4 to be detected are distributed in a substantially uniform background B.
  • the spheroids S1 to S4 have approximately circular or elliptical external shapes, and in FIG. 4, the insides of the spheroids S1 to S4 are also relatively high in concentration, but the texture inside the spheroids may have any shape. good.
  • density unevenness occurs in the upper right portion of the image Ia, where the background density is high.
  • Image Ib schematically shows an example of an image after performing the binarization process (step S105) on image Ia.
  • the binarization process divides the image into relatively high-density areas and low-density areas.
  • image Ib in FIG. 4 spheroids S1 to S4 are divided into high-density regions shown in white in the figure.
  • other areas are effectively erased from the image by being divided into low-density areas shown in black in the figure.
  • Image Ic is an example of an image after the small area has been deleted from image Ib.
  • the length and area are less than a predetermined value, the circularity is less than a predetermined value, etc.
  • spheroids other than the detection target spheroids S1 to S4 can be removed. The object is deleted.
  • region division processing is performed on the image Ic after noise removal (step S107).
  • the region division process is a region division process for a high concentration region, and for example, a watershed method can be applied.
  • Image Id is an example of an image after spheroids S1 to S4 included in image Ic are each acquired as a single spheroid region.
  • ellipse approximation processing is applied to the image Id after the region division (step S108).
  • the contour lines of region segmentation using the watershed method do not necessarily capture spheroids. Therefore, the above contour line is approximated to an ellipse using the least squares method. In this way, an approximate ellipse is specified for each spheroid.
  • a spheroid candidate region is identified, which has the effect of reducing errors when calculating the number of spheroids in an image, their respective sizes, areas, etc.
  • Image Ie is an example of an image after applying ellipse approximation processing to image Id.
  • ellipse deletion processing is applied to the image Ie after the ellipse approximation processing (step S109).
  • Image If is an example of an image after removing the ellipse from image Ie.
  • the spheroid region is identified by erasing from the image Ie those that meet predetermined erasure conditions, such as length and area less than a predetermined value, circularity less than a predetermined value, and the like.
  • FIG. 5 schematically shows an example of changes in an image due to the image processing of this embodiment.
  • FIG. 5 describes in detail the repeated processing including handling of the average color of the entire image and the average color of the background area.
  • an image II-1-b in which the spheroid region is specified is obtained.
  • image II-1-b one spheroid at the upper right of the image is specified as a spheroid region.
  • Image II-1-c is obtained by obtaining the average color of the entire image II-1-a.
  • Image II-1-d is obtained by applying steps S201 to S202 to image II-1-a. That is, the background region is identified by performing binarization processing (step S201) and dilation processing (step S202) on the processing target image.
  • Image II-1-e is obtained by applying steps S201 to S204 to image II-1-a. That is, the average color of the background area of the image to be processed is obtained.
  • Image II-2-a is a processing target image for handling an image in which the spheroid region has not been completely specified in the series of processes from step S102 to step S111.
  • image II-2-b By applying the processes from step S102 to step S111 to image II-2-a, image II-2-b is obtained.
  • image II-2-b the spheroid in the lower right corner of the image is newly identified as the spheroid region.
  • the average color of the background region of image II-2-e is applied to the spheroid region identified in image II-2-b.
  • step S102 By repeating the processes from step S102 to step S111 in the same manner, the spheroid region in the processing target image is identified.
  • step S103 the determination process in step S103 was omitted, but the determination process in step S103 is executed every time the average color of the entire image is acquired.
  • the difference between the average color of the entire image of image II-4-c and the average color of the background area of image II-3-e is less than a predetermined threshold. Then, the process branches to step S112, and the image processing ends.
  • the low density area in the original image is expressed in black and the high density area is expressed in white, but these may be reversed.
  • the results of image processing are presented to the user by displaying them, but how to use the results of extracting areas such as cells is not limited to the above and may be used in any manner. .
  • the watershed method is applied to the region division process, but it is also possible to apply other region division methods.
  • the area division process is executed by the general-purpose computer device 1, but as described above, this processing function may be incorporated into, for example, the imaging device. Furthermore, it is also possible to extend the functionality of an existing imaging device by additionally implementing a program for executing the area division process of this embodiment.
  • the original image may be an image obtained by bright field imaging of cells or the like.
  • cells are nearly transparent, and the difference in refractive index from the medium in which the cells are cultured is small, so it is difficult to visually distinguish cells from other areas in bright-field captured images.
  • the present invention to such images, it becomes possible to efficiently and stably extract regions such as cells in the images.
  • images obtained by bright field imaging without labeling such as staining can be used, it is possible to observe and evaluate cells etc. non-invasively.
  • the object to be imaged is not limited to a spheroid, but may be a particle containing an inorganic material. Alternatively, it may be the surface of a coating member formed by coating the surface of a base material with particles.
  • Computer device 2 Storage disk (recording medium) Ia: Original image S1 to S4: Spheroid S101: Original image acquisition step S102: Whole image average color acquisition step S103: Judgment step S104: Region division method selection step S105: Binarization step S106: Noise removal step S107: Region division Steps S108: Ellipse approximation step S109: Ellipse deletion step S110: Background region average color acquisition step S111: Process target image generation step S112: Image output step S113: Ellipse information storage step S201: Binarization step S202: Spheroid region expansion step S203: Background area acquisition step S204: Background area average color acquisition step

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

輪郭が均質でないスフェロイドを被撮像物として含む画像から精度よくスフェロイド領域を取得する。本発明の画像処理方法は、スフェロイドを被撮像物として含む画像を取得する画像取得工程と、取得した画像を二値化して二値化画像を得る二値化工程と、二値化画像を領域分割してスフェロイド候補領域を得る領域分割工程と、スフェロイド候補領域に対して楕円近似を適用する楕円近似工程とを備える。

Description

画像処理方法及び画像処理プログラム
 本開示は、画像処理方法及び画像処理プログラムに関する。
 例えば容器内で培養された細胞のような試料に対し、細胞の数や大きさなどの定量的な計測を行う目的で撮像が行われる場合がある。このために、細胞に蛍光試薬等を導入して撮像を行うことがあるが、このような操作は細胞にダメージを与えることになる。一方、操作継続的な培養や観察等のために、非侵襲的な方法で撮像および計測を行うことが必要な場合がある。
 このような要求に応えるものとして、例えば特許文献1に記載されたものがある。この技術においては、細胞、または複数の細胞が集まった細胞構造体を被撮像物として含む原画像を取得する第1工程と、前記原画像に対し、前記被撮像物の輪郭の幅に応じて定められた帯域の空間周波数成分に対して前記帯域外の空間周波数成分を相対的に減衰させるバンドパスフィルタ処理を実行する第2工程と、前記第2工程後の画像について、所定の閾値より高濃度である領域を第1領域、それ以外の領域を第2領域として区分する第3工程と、前記第3工程後の画像について、前記第2領域のうち前記第1領域に挟まれた部位の一部を前記第1領域に変更して、当該第2領域を挟む前記第1領域の間を連結する第4工程と、前記第4工程後の画像について、前記第2領域のうち前記第1領域により周囲を囲まれた閉領域を前記第1領域に変更する第5工程と、前記第5工程後の画像について、くびれを有する前記第1領域を該くびれの位置で複数に分割する第6工程とを備えている。
特開2020-9217号公報
 特許文献1開示の技術は、フィルタに利用するパラメータが既知である場合は有力だが、一般にパラメータが既知でない場合に適用できない。また、画像内の色ムラや対象物の大きさのばらつき具合によっては1回の画像解析ですべての領域を取得することは困難である。この課題に対して、背景の平均色を利用した画像を生成することで複数回画像解析を行い画像内の対象物の大小や色ムラに関係なく領域を取得することができる。
 本開示は、輪郭が均質でない細胞構造体(以下、「スフェロイド」と総称する)を被撮像物として含む画像から精度よくスフェロイド領域を取得することを目的としている。
 本開示の第1の態様による画像処理方法は、
 スフェロイドを被撮像物として含む画像を取得する画像取得工程と、
 取得した画像を二値化して二値化画像を得る二値化工程と、
 前記二値化画像を領域分割してスフェロイド候補領域を得る領域分割工程と、
 前記スフェロイド候補領域に対して楕円近似を適用する楕円近似工程と
 を備えている。
 本開示の第2の態様は、第1の態様に記載の画像処理方法であって
 二値化する前の画像全体の平均色を取得する画像全体平均色取得工程と、
 前記楕円近似を適用した画像に対して、当該画像の背景領域の平均色を取得する背景領域平均色取得工程と、
 前記画像全体の平均色と前記背景領域の平均色とを比較する判定工程と
をさらに備える。
 本開示の第3の態様は、第2の態様に記載の画像処理方法であって、
 前記背景領域平均色取得工程が、
 前記楕円近似を適用した画像を二値化する第2の二値化工程と、
 前記第2の二値化工程の結果得られた二値化画像の白の領域を膨張する膨張工程と、
 前記楕円近似を適用した画像における、前記膨張工程の結果得られた二値化画像の黒の領域に相当する領域の平均色を取得する平均色取得工程と
を備える。
 本開示の第4の態様は、画像処理プログラムであって、
 スフェロイドを被撮像物として含む画像を取得する画像取得工程と、
 取得した画像を二値化して二値化画像を得る二値化工程と、
 前記二値化画像を領域分割してスフェロイド候補領域を得る領域分割工程と、
 前記スフェロイド候補領域に対して楕円近似を適用する楕円近似工程と
 をコンピュータに実行させる。
 本開示によれば、輪郭が均質でないスフェロイドを被撮像物として含む画像から精度よくスフェロイド領域を取得することができる。
図1は、一実施形態の画像処理を示すフローチャートである。 図2は、一実施形態の画像処理を実行するコンピュータ装置の構成例である。 図3は、背景領域平均色取得工程を示すフローチャートである。 図4は、処理に伴う画像の変化の例を模式的に示す第1の図である。 図5は、処理に伴う画像の変化の例を模式的に示す第2の図である。
 以下、本発明に係る画像処理方法の一実施形態について説明する。この実施形態における画像処理は、培養液中で培養された細胞構造体を撮像した画像から、細胞構造体の領域とその他の領域とを分割し、結果画像を出力する処理である。この画像処理は、スフェロイドを含む試料を撮像する撮像機能を備えた撮像装置によって撮像された未加工の原画像に対してなされる。撮像装置が撮像後の画像データに対する後処理の1つとして本画像処理を実行してもよく、また撮像装置あるいは適宜の記憶手段から画像データを受け取ったコンピュータ装置が、本画像処理を実行してもよい。
 ここでは、既に実行された撮像により生成された原画像データに対し、汎用のコンピュータ装置が本実施形態の画像処理を実行する態様を例示して説明する。
 本発明の画像処理の対象とする画像は、スフェロイドを被撮像物として含む。本明細書において「スフェロイド」とは、複数の細胞が略球状に集合した細胞構造体を意味するが、概略外形が比較的平滑な閉曲線として現れる細胞、例えば培養液中において単独で略球状または回転楕円体形状を示す細胞が含まれていてもよい。撮像されるスフェロイドは、例えば、成育する培養液系内に分散して含まれる。スフェロイドを含む培養液は透明な試料容器に収容されて、試料を構成する。この場合、スフェロイドの撮像は、培養液の入った試料容器越しに透かして撮像される。
 撮像装置の構成については特に限定されず、培養されたスフェロイドを含む試料を培養液とともに撮像し、デジタル画像データとして出力する機能を有するものであればよい。また画像は明視野撮像画像であることが好ましい。また、コンピュータ装置についても、例えばパーソナルコンピュータとして製品化されている一般的なハードウェア構成を有するものを利用可能である。以下ではこれらのハードウェアについての詳しい説明を省略する。
 図1は本実施形態の画像処理を示すフローチャートである。まず、図1を参照して本実施形態における画像処理の概略について説明し、その後で画像処理の具体的内容について詳しく説明する。
 コンピュータ装置は、培養液中のスフェロイドを含む試料を適宜の撮像装置および撮像条件で明視野撮像することにより得られる原画像を取得する(ステップS101)。原画像は少なくとも1つのスフェロイドの全体を被撮像物として含むものとする。言い換えれば、少なくとも1つのスフェロイドの全体が含まれるように撮像倍率が設定される。したがって、原画像は、検出の対象となるスフェロイドとそれ以外の微小な細胞、デブリ、背景等とを含み得る。
 スフェロイドを被撮像物として含む画像に対して、本実施形態の画像処理は特に好適である。このような細胞等では、細胞ごとに成長度の差によって大きさや形が不均一な状態で現れる。このような細胞等を精度よく検出することが、細胞等の領域を的確に抽出することにつながる。
 コンピュータ装置は、ステップS101で取得した原画像、又はステップS111で生成した処理対象画像から、画像全体の平均色を取得する(ステップS102)。以下、ステップS101で取得した原画像及びステップS111で生成した処理対象画像を「処理対象画像」と総称する。画像全体の平均色の取得は、画素(ピクセル)のRGBのR値の算術平均を用いることができる。画像全体の平均色は、RGB値のいずれか、HSV値のいずれか、又はその組合せを算出して取得してもよい。ステップS102で取得した画像全体の平均色は、続いて行うステップS103の判定処理で用いることができる。
 初回、ステップS101で取得した原画像から画像全体の平均色を取得した場合は、ステップS103の判定処理は行わず、次のステップS104に進む。2周目以降、ステップS111で生成した処理対象画像から画像全体の平均色を取得する処理は後述する。
 次に、コンピュータ装置は、領域分割手法を選択する(ステップS104)。領域分割手法としては分水嶺法、輪郭検出法等があげられる。領域分割手法の選択は後述するステップS107の領域分割処理より前で行えばよく、その範囲において領域分割手法の選択のタイミングは限定されない。
 本実施形態では、二値化処理(ステップS105)、領域分割処理(ステップS107)、楕円近似処理(ステップS108)によりスフェロイド領域を取得する。
 二値化処理では、コンピュータ装置は、処理対象画像を、所定の濃度閾値よりも高濃度である高濃度領域と、所定の濃度閾値より低濃度である低濃度領域とに区分する(ステップS105)。また、高濃度領域および低濃度領域にはそれぞれ単一の濃度(例えば黒色および白色)を与える。これにより、処理対象画像を二値化した二値化画像が得られる。画像が二値化されることで、スフェロイドは、低濃度の背景領域に囲まれた高濃度の閉領域として表される。二値化処理としては大津の二値化や適宜の閾値を用いた二値化を用いることができる。
 こうして抽出された輪郭で囲まれた閉領域はスフェロイドの内部に相当している。原画像には検出の対象となるスフェロイド以外の小さな細胞やデブリ等に対応するオブジェクトが含まれ得る。これを消去するため、形態的特徴に関わるパラメータが所定の消去条件に該当するオブジェクトを消去する。
 具体的には、コンピュータ装置は、上記パラメータとしての面積が所定値よりも小さいもしくは大きいオブジェクトを消去する(ノイズ除去工程、ステップS106)。ここでいうオブジェクトの消去とは、二値化により高濃度領域とされているオブジェクトを、背景領域と同じ低濃度領域に変更することである。
 次に、コンピュータ装置は、ステップS104で選択された領域分割手法を用いて、領域分割処理を行う(ステップS107)。この領域分割処理は、上述したステップS105及びS106の処理により抽出されたオブジェクトが、複数のスフェロイドが連結されたものであるときに、それらを分離しスフェロイドの候補領域として抽出するための処理である。このような連結は、複数のスフェロイドが試料において実際に接している場合、試料中では離隔しているが撮像方向からは重なって見える場合のいずれにも起こり得るものである。領域分割処理により、画像中で連結されたスフェロイドを互いに分離することでスフェロイドの候補領域を得ることができる。この領域分割処理を実行することで、画像内のスフェロイドの個数やそれぞれの大きさ、面積等を算出する際における誤差を低減することが可能となる。
 次に、コンピュータ装置は、楕円近似処理を行う(ステップS108)。この楕円近似処理は、ステップS107の領域分割処理により抽出されたスフェロイドの候補領域に対して楕円近似を適用する。楕円近似としては、具体的にはスフェロイドの候補領域の輪郭と適用する楕円との差が小さくなるように、例えば最小二乗法で楕円の式を特定する。この楕円近似処理を実行することで、画像内のスフェロイドの個数やそれぞれの大きさ、面積等を算出する際における誤差を低減することが可能となる。
 次に、コンピュータ装置は、楕円削除処理を行う(ステップS109)。この楕円削除処理は、ステップS108において楕円近似が適用されたスフェロイド候補領域において、適用された楕円が適切でない場合に当該楕円を削除する。具体的には、抽出の対象外とすべき楕円が適用されたスフェロイド候補領域が存在している場合に、例えば楕円の面積または扁平度が所定値よりも小さいもしくは大きいことを基準として、抽出の対象外とする。この楕円削除処理を行うことにより、削除されなかった楕円が適用されたスフェロイドの候補領域がスフェロイド領域として取得される。
 次に、コンピュータ装置は、ステップS109において取得されたスフェロイド領域に対して、背景領域平均色取得処理を行う(ステップS110)。詳しくは後述するが、この背景領域平均色取得処理は、二値化処理及び膨張処理を用いることで処理対象画像からスフェロイド領域を除いた部分の平均色を算出する処理である。
 次に、コンピュータ装置は、ステップS108とステップS109によって処理対象画像から取得されたスフェロイド領域を、ステップS110で取得した背景領域の平均色で塗りつぶした、新たな処理対象画像を生成する(ステップS111)。その後ステップS102に戻る。
 2周目以降のステップS103では、ステップS102で取得した画像全体の平均色とステップS110で取得した背景領域の平均色とを比較し、平均色の差が閾値以上か否かを判定する。これらの平均色の差が閾値以上である場合はステップS104へ進む。平均色の差が閾値未満である場合はステップS112へ進む。平均色の差が閾値未満となることは、ステップS105及びS106の処理により処理対象画像から抽出され得るスフェロイド候補領域が残っていないことに相当する。
 N-1番目の処理対象画像(処理の繰り返しが2周目の場合は1周目の原画像であり、処理の繰り返しが3周目の場合は2周目の処理対象画像である)の背景領域の平均色とN番目の処理対象画像(処理の繰り返しが2周目の場合は2周目の処理対象画像であり、処理の繰り返しが3周目の場合は3周目の処理対象画像である)の画像全体の平均色とを比較してもよい。
 平均色の差の判定のステップは、ステップS102に続いて行う代わりにステップ111に続いて行い、ステップS102からステップS111までの処理を適用する前のN番目の処理対象画像の画像全体の平均色と、ステップS102からステップS111までの処理を適用した後のN番目の処理対象画像の背景領域の平均色とを比較して、平均色の差が閾値未満であるか否かの判定を行う構成としてもよい。
 ステップS102からステップS111までの処理を繰り返すことにより、取得されたスフェロイド領域が背景領域と一体化された処理対象画像を繰り返し生成することで、スフェロイド領域が精度よく取得される。
 コンピュータ装置は、上記の処理によって得られたスフェロイド領域を原画像に図示した画像を出力する(ステップS112)。具体的には、取得されたスフェロイド領域に適用された楕円を原画像に重ねて表示した画像を出力する。なお、スフェロイド領域を特定するための表示は、上記のような楕円の表示に限定されない。例えば、原画像中のスフェロイド領域について、スフェロイド領域の着色、輪郭の強調などの各種加工を施すことによってスフェロイド領域の視認性を高めた画像を、出力画像とすることができる。
 コンピュータ装置は、上記の処理によって得られたスフェロイド領域の定量的な数値等の楕円に関する情報を後述するストレージ15に保存する(ステップS113)。具体的には、個数、面積、輪郭線の長さ、円形度、アスペクト比が数値として保存される。上記以外にも、ステップS109の楕円削除処理で得られた、楕円の数、真円度、長径、短径、中心座標などが保存されてもよい。さらにこれらの数値をもとに統計値の算出を行ってもよい。算出された統計値を含めた値はCSV(Comma Separated Values)、Excel(登録商標)等のファイルとして出力されてもよい。
 このようにして、ステップS112で生成された出力画像及び/又はステップS113で生成された統計値が、例えば後述する表示部17に表示出力されることにより、画像処理の結果がユーザに提示される。出力画像及び/又は統計値は、印刷出力され、あるいは外部装置(図示せず)へ送信出力されてもよい。
 図2は本実施形態の画像処理を実行するコンピュータ装置の構成例である。コンピュータ装置1は、例えばパーソナルコンピュータとして一般的な構成を有するものであり、CPU(Central Processing Unit)10、メモリ14、ストレージ15、入力デバイス16、表示部17、インターフェース18およびディスクドライブ19などを備えている。
 CPU10は、予め用意された画像処理プログラムを実行することで、上記した画像処理を実行するための機能ブロックとしての画像処理部11をソフトウェア的に実現する。なお、画像処理部11を実現するための専用ハードウェアが設けられてもよい。メモリ14はCPU10の演算過程で生成される各種データを一時的に記憶する。ストレージ15は、CPU10が実行すべき画像処理プログラムのほか、原画像の画像データ、処理後の画像データ及び上述した楕円に関する情報等を長期的に記憶する。
 入力デバイス16は、オペレータからの指示入力を受け付けるためのものであり、例えばマウス、キーボードなどを含む。また、表示部17は画像を表示する機能を有する例えば液晶ディスプレイであり、原画像や処理後の画像、オペレータへのメッセージ等種々の情報を表示する。なお、入力デバイスと表示部とが一体化されたタッチパネルが設けられてもよい。
 インターフェース18は、電気通信回線を介して外部装置との間で各種データ交換を行う。ディスクドライブ19は、画像データや画像処理プログラム等各種のデータを記録した外部の記録ディスク2を受け入れる。記録ディスク2に記憶された画像データや画像処理プログラム等は、ディスクドライブ19により読み出され、ストレージ15に記憶される。ディスクドライブ19はコンピュータ装置1内で生成されたデータを記録ディスク2に書き込む機能を備えていてもよい。
 本実施形態の画像処理をコンピュータ装置1に実行させるための画像処理プログラムについては、これを記録した記録ディスク2にディスクドライブ19がアクセスして読み出される態様であってもよく、インターフェース18を介して外部装置から与えられる態様であってもよい。原画像データについても同様である。
 本実施形態における背景領域平均色取得処理(図1のステップS110)を図3に沿って詳細に説明する。
 コンピュータ装置は、ステップS108及びS109の処理が行われた画像に二値化処理を行う(ステップS201)。ステップS201の二値化処理では、コンピュータ装置は、上述したステップS105の二値化処理と同様にして、処理対象画像を、所定の濃度閾値よりも高濃度である高濃度領域と、所定の濃度閾値より低濃度である低濃度領域とに区分する。二値化処理としては大津の二値化や適宜の閾値を用いた二値化を用いることができる。この二値化処理により、処理対象画像がスフェロイド領域とスフェロイド以外の領域とに大別される。以降、このスフェロイド以外の領域が背景候補領域として扱われる。
 続いて、コンピュータ装置は、スフェロイド領域に対して膨張処理を行う(ステップS202)。膨張処理の操作としては、スフェロイド領域から背景候補領域に対して十分に膨張させる。スフェロイド領域から背景候補領域に対して広げるように、例えば10ピクセル膨張させる。以上のようにして膨張処理を行うことで、背景候補領域からスフェロイド領域を完全に排除できる。
 続いて、コンピュータ装置は、背景領域取得処理を行う(ステップS203)。背景領域取得処理では、ステップS202で得られた、膨張処理された処理対象画像から背景領域を取得する。このようにして処理対象画像中の背景領域が特定される。
 続いて、コンピュータ装置は、ステップS203で取得された背景領域の平均色を取得する(ステップS204)。平均色の取得は、前述したステップS102と同様にして行うことができる。処理対象画像中の背景領域の平均値を算出することで、背景領域の平均色が取得される。このようにして得られた背景領域の平均色は上述したステップS103で用いる。
 図4は、本実施形態の画像処理に伴う画像の変化の例を模式的に示している。
 図4に示す画像Iaは、ステップS101において取得された画像の例を模式的に示している。ステップS102からステップS111までの処理を繰り返した2周目以降では、ステップS111で生成された処理対象画像が画像Iaとなる。画像Iaでは、略一様である背景Bの中に、検出対象であるスフェロイドS1~S4が分布した状態となっている。スフェロイドS1~S4は概ね円形または楕円形の外形形状を有しており、図4ではスフェロイドS1~S4の内部も比較的高濃度としているが、スフェロイド内部のテクスチャはどのようなものであってもよい。また、画像Iaの右上部分において背景濃度が高くなる濃度ムラが生じている。
 画像Ibは、画像Iaに対して二値化処理(ステップS105)を施した後の画像の例を模式的に示している。二値化処理により、画像は比較的高濃度の領域と低濃度の領域とに区分される。図4に画像Ibとして示すように、スフェロイドS1~S4は図において白色で示される高濃度領域に区分される。一方、それ以外の領域は図において黒色で示される低濃度領域に区分されることで、事実上画像から消去される。
 続いて、二値化処理後の画像Ibに対し小領域(ノイズ)の消去が行われる(ステップS106)。画像Icは、画像Ibから小領域を消去した後の画像の例である。画像Ibから所定の消去条件、例えば、長さや面積が所定値に満たない、円形度が所定値に満たない等の条件に該当するものを消去することで、検出対象のスフェロイドS1~S4以外のオブジェクトが消去される。
 次に、ノイズ消去後の画像Icに対し、領域分割処理が実行される(ステップS107)。領域分割処理は、高濃度領域に対する領域分割処理であり、例えば分水嶺法を適用することができる。画像Idは、画像Icに含まれるスフェロイドS1~S4それぞれが単独のスフェロイド領域として取得された後の画像の例である。
 次に、領域分割後の画像Idに対し、楕円近似処理が適用される(ステップS108)。分水嶺法による領域分割の輪郭線は必ずしもスフェロイドを捉えきれていない。そこで、最小二乗法を用いて上記輪郭線を楕円近似する。これにより、スフェロイドごとに近似した楕円が特定される。近似した楕円が特定されることでスフェロイド候補領域が特定され、画像内のスフェロイドの個数やそれぞれの大きさ、面積等を算出する際における誤差を低減する効果がある。画像Ieは、画像Idに楕円近似処理を適用した後の画像の例である。
 次に、楕円近似処理後の画像Ieに対し、楕円削除処理が適用される(ステップS109)。画像Ifは、画像Ieから楕円を消去した後の画像の例である。画像Ieから所定の消去条件、例えば、長さや面積が所定値に満たない、円形度が所定値に満たない等の条件に該当するものを消去することで、スフェロイド領域が特定される。
 図5は、本実施形態の画像処理に伴う画像の変化の例を模式的に示している。図5では画像全体の平均色と背景領域の平均色の取り扱いを含む繰り返しの処理を詳細に説明する。
 ステップS101で取得した画像II-1-aに対してステップS102からステップS109を適用することでスフェロイド領域が特定された画像II-1-bが得られる。画像II-1-b中においては、画像中右上のスフェロイド1個がスフェロイド領域として特定されている。画像II-1-cは、画像II-1-aの画像全体の平均色を取得することで得られる。画像II-1-dは、ステップS201からステップS202を画像II-1-aに適用することで得られる。すなわち処理対象画像に二値化処理(ステップS201)と膨張処理(ステップS202)を行うことで、背景領域が特定される。画像II-1-eは、ステップS201からステップS204を画像II-1-aに適用することで得られる。すなわち処理対象画像の背景領域の平均色が取得される。
 画像II-2-aは、ステップS102からステップS111までの一連の処理においてスフェロイド領域が完全に特定されていない画像を取り扱うための処理対象画像である。
 画像II-2-aに対して新たにステップS102からステップS111の処理を適用することで、画像II-2-bが得られる。画像II-2-bにおいては新たに画像中右下のスフェロイドがスフェロイド領域として特定されている。ここで、画像II-2-bにおいて特定されたスフェロイド領域に対して画像II-2-eの背景領域の平均色が適用されている。
 以下同様にしてステップS102からステップS111の処理を繰り返すことで、処理対象画像中のスフェロイド領域が特定されていく。
 上述した画像処理の説明ではステップS103の判定処理を省略したが、画像全体の平均色が取得されるたびに、ステップS103の判定処理が実行される。図5の例では、画像II-4-aにおいては、画像II-4-cの画像全体の平均色と画像II-3-eの背景領域の平均色との差が所定の閾値未満となって、ステップS112へと分岐し、画像処理は終了する。
 また、上記実施形態では、二値化処理後の画像について、原画像における低濃度領域を黒色、高濃度領域を白色で表現しているが、これらが逆であってもよい。
 また、上記実施形態では、画像処理の結果を表示出力することでユーザに提示しているが、細胞等の領域を抽出した結果をどのように利用するかは上記に限定されず、任意である。
 また、上記実施形態では領域分割処理に分水嶺法を適用しているが、他の領域分割手法を適用することも可能である。
 また、上記実施形態では、汎用のコンピュータ装置1によって領域分割処理が実行されているが、前述したように例えば撮像装置にこの処理機能が組み込まれていてもよい。また、既存の撮像装置に本実施形態の領域分割処理を実行するためのプログラムを追加的に実装して機能拡張を行うことも可能である。
 また、原画像は細胞等を明視野撮像することで得られた画像であってもよい。一般に細胞は透明に近く、また細胞が培養される培地との屈折率の差も小さいため、明視野撮像画像では目視による細胞等とそれ以外の領域との区別が難しい。このような画像に本発明を適用することで、画像中の細胞等の領域を良好にかつ安定的に抽出することが可能となる。また染色等のラベリングを行わない明視野撮像により得られる画像を用いることができるので、非侵襲での細胞等の観察・評価が可能となる。
 本開示の画像処理方法は、スフェロイドを被撮像物として含む画像を対象として説明したが、被撮像物はスフェロイドに限定されず、無機材料を含んで構成される粒子であってもよい。また、粒子が基材表面にコートされることで形成されたコーティング部材の表面であってもよい。
 本願は、日本国特許庁に2022年9月22日に出願された日本国特許出願2022-151608号の優先権を主張するものであり、その全内容を参照することにより本願に援用する。
 1     :コンピュータ装置
 2     :記憶ディスク(記録媒体)
 Ia    :原画像
 S1~S4 :スフェロイド
 S101  :原画像の取得工程
 S102  :画像全体平均色取得工程
 S103  :判定工程
 S104  :領域分割手法選択工程
 S105  :二値化工程
 S106  :ノイズ除去工程
 S107  :領域分割工程
 S108  :楕円近似工程
 S109  :楕円削除工程
 S110  :背景領域平均色取得工程
 S111  :処理対象画像生成工程
 S112  :画像出力工程
 S113  :楕円情報保存工程
 S201  :二値化工程
 S202  :スフェロイド領域の膨張工程
 S203  :背景領域取得工程
 S204  :背景領域平均色取得工程

Claims (4)

  1.  スフェロイドを被撮像物として含む画像を取得する画像取得工程と、
     取得した画像を二値化して二値化画像を得る二値化工程と、
     前記二値化画像を領域分割してスフェロイド候補領域を得る領域分割工程と、
     前記スフェロイド候補領域に対して楕円近似を適用する楕円近似工程と
     を備える画像処理方法。
  2.  二値化する前の画像全体の平均色を取得する画像全体平均色取得工程と、
     前記楕円近似を適用した画像に対して、当該画像の背景領域の平均色を取得する背景領域平均色取得工程と、
     前記画像全体の平均色と前記背景領域の平均色とを比較する判定工程と
     をさらに備える請求項1に記載の画像処理方法。
  3.  前記背景領域平均色取得工程が、
     前記楕円近似を適用した画像を二値化する第2の二値化工程と、
     前記第2の二値化工程の結果得られた二値化画像の白の領域を膨張する膨張工程と、
     前記楕円近似を適用した画像における、前記膨張工程の結果得られた二値化画像の黒の領域に相当する領域の、平均色を取得する平均色取得工程と
     を備える請求項2に記載の画像処理方法。
  4.  スフェロイドを被撮像物として含む画像を取得する画像取得工程と、
     取得した画像を二値化して二値化画像を得る二値化工程と、
     前記二値化画像を領域分割してスフェロイド候補領域を得る領域分割工程と、
     前記スフェロイド候補領域に対して楕円近似を適用する楕円近似工程と
     をコンピュータに実行させるための画像処理プログラム。
PCT/JP2023/032915 2022-09-22 2023-09-08 画像処理方法及び画像処理プログラム WO2024062953A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022151608 2022-09-22
JP2022-151608 2022-09-22

Publications (1)

Publication Number Publication Date
WO2024062953A1 true WO2024062953A1 (ja) 2024-03-28

Family

ID=90454282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032915 WO2024062953A1 (ja) 2022-09-22 2023-09-08 画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2024062953A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015192644A (ja) * 2014-03-26 2015-11-05 株式会社Screenホールディングス スフェロイドの評価方法およびスフェロイド評価装置
JP2016067280A (ja) * 2014-09-30 2016-05-09 株式会社Screenホールディングス 画像処理方法、制御プログラム、記録媒体および画像処理装置
JP2019133429A (ja) * 2018-01-31 2019-08-08 株式会社Screenホールディングス 画像処理方法、画像判定方法、プログラムおよび記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015192644A (ja) * 2014-03-26 2015-11-05 株式会社Screenホールディングス スフェロイドの評価方法およびスフェロイド評価装置
JP2016067280A (ja) * 2014-09-30 2016-05-09 株式会社Screenホールディングス 画像処理方法、制御プログラム、記録媒体および画像処理装置
JP2019133429A (ja) * 2018-01-31 2019-08-08 株式会社Screenホールディングス 画像処理方法、画像判定方法、プログラムおよび記録媒体

Similar Documents

Publication Publication Date Title
CN107316077B (zh) 一种基于图像分割及边缘检测的脂肪细胞自动计数方法
CN107180421B (zh) 一种眼底图像病变检测方法及装置
Di Cataldo et al. Automated segmentation of tissue images for computerized IHC analysis
US10861156B2 (en) Quality control for digital pathology slides
US8175369B2 (en) Multi-nucleated cell classification and micronuclei scoring
JP6422198B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2005530138A (ja) 組織標本の中の重要な構造のコンピュータを利用した画像捕捉
Wright et al. The effect of quality control on accuracy of digital pathology image analysis
US20080112614A1 (en) Histogram tile map for gpu based histogram computation
US10591402B2 (en) Image processing apparatus, image processing method, and image processing program
WO2018207261A1 (ja) 画像解析装置
JP6960935B2 (ja) コントロールスライドを使用する改善された画像解析アルゴリズム
WO2006087526A1 (en) Apparatus and method for processing of specimen images for use in computer analysis thereof
JP7161875B2 (ja) 画像処理方法、コンピュータプログラムおよび記録媒体
JP7079631B2 (ja) 画像処理方法、コンピュータプログラムおよび記録媒体
CN110060246B (zh) 一种图像处理方法、设备及存储介质
JP6161146B2 (ja) 病理組織画像解析方法、病理組織画像解析装置及び病理組織画像解析プログラム
WO2024062953A1 (ja) 画像処理方法及び画像処理プログラム
Mäder et al. Image‐Processing Scheme to Detect Superficial Fungal Infections of the Skin
Serin et al. A novel overlapped nuclei splitting algorithm for histopathological images
JP2023026925A (ja) 画像処理方法、プログラムおよび記録媒体
WO2016076104A1 (ja) 画像処理方法、画像処理装置、及びプログラム
US20230410316A1 (en) Sequential convolutional neural networks for nuclei segmentation
WO2024138462A1 (zh) 芯片质量检测的方法及装置、电子设备和存储介质
US11025924B2 (en) Image processing method and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23868076

Country of ref document: EP

Kind code of ref document: A1