JP7428173B2 - Cell observation device and cell observation method - Google Patents

Cell observation device and cell observation method Download PDF

Info

Publication number
JP7428173B2
JP7428173B2 JP2021147618A JP2021147618A JP7428173B2 JP 7428173 B2 JP7428173 B2 JP 7428173B2 JP 2021147618 A JP2021147618 A JP 2021147618A JP 2021147618 A JP2021147618 A JP 2021147618A JP 7428173 B2 JP7428173 B2 JP 7428173B2
Authority
JP
Japan
Prior art keywords
image
cell
observation
region
cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021147618A
Other languages
Japanese (ja)
Other versions
JP2021184766A (en
Inventor
克利 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2021147618A priority Critical patent/JP7428173B2/en
Publication of JP2021184766A publication Critical patent/JP2021184766A/en
Application granted granted Critical
Publication of JP7428173B2 publication Critical patent/JP7428173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Description

本発明は、細胞の状態を観察する細胞観察装置及び方法に関し、さらに詳しくは、多能性幹細胞(ES細胞やiPS細胞)を培養する過程等において細胞の状態を非侵襲で判定したり培養に不具合がないか等を確認したりするのに好適な細胞観察装置及び方法に関する。 The present invention relates to a cell observation device and method for observing the state of cells, and more specifically, to non-invasively determining the state of cells during the process of culturing pluripotent stem cells (ES cells and iPS cells) and culturing them. The present invention relates to a cell observation device and method suitable for checking whether there are any defects or the like.

再生医療分野では、近年、iPS細胞やES細胞等の多能性幹細胞を用いた研究が盛んに行われている。こうした多能性幹細胞を利用した再生医療の研究・開発においては、多能性を維持した状態の未分化の細胞を大量に培養する必要がある。そのため、適切な培養環境の選択と環境の安定的な制御が必要であるとともに、培養中の細胞の状態を高い頻度で確認する必要がある。例えば、細胞コロニー内の細胞が未分化状態から逸脱すると、この場合、細胞コロニー内にある全ての細胞は分化する能力を有しているために、最終的にはコロニー内の細胞全てが未分化逸脱状態に遷移してしまう。そのため、作業者は培養している細胞中に未分化状態を逸脱した細胞(すでに分化した細胞や分化しそうな細胞、以下「未分化逸脱細胞」という)が発生していないかを日々確認し、未分化逸脱細胞を見つけた場合にはこれを迅速に除去する必要がある。また、培養の過程で塵埃などの異物が培地に混入してしまうことがあるが、そうした異物もできるだけ迅速に除去する必要がある。 In the field of regenerative medicine, research using pluripotent stem cells such as iPS cells and ES cells has been actively conducted in recent years. In research and development of regenerative medicine using such pluripotent stem cells, it is necessary to culture large quantities of undifferentiated cells that maintain pluripotency. Therefore, it is necessary to select an appropriate culture environment and to stably control the environment, and it is also necessary to frequently check the state of cells during culture. For example, if the cells in a cell colony deviate from their undifferentiated state, all cells in the cell colony have the ability to differentiate, so eventually all the cells in the colony become undifferentiated. Transition to a deviation state. Therefore, the operator must check daily to see if any cells that have deviated from the undifferentiated state (already differentiated cells or cells that are about to differentiate, hereinafter referred to as "undifferentiated deviant cells") are present in the cultured cells. If undifferentiated deviant cells are found, they must be promptly removed. Furthermore, foreign matter such as dust may get mixed into the culture medium during the culture process, and it is necessary to remove such foreign matter as quickly as possible.

多能性幹細胞が未分化状態を維持しているか否かの判定は、未分化マーカーによる染色を行うことで確実に行うことができる。しかしながら、染色を行った細胞は死滅するため、再生医療用の多能性幹細胞の判定には未分化マーカー染色を実施することができない。そこで、現在の再生医療用細胞培養の現場では、位相差顕微鏡を用いた細胞の形態的観察に基づいて、作業者が未分化細胞であるか否かを判定するようにしている。位相差顕微鏡を用いるのは、一般に細胞は透明であって通常の光学顕微鏡では観察しにくいためである。 Whether or not pluripotent stem cells maintain an undifferentiated state can be reliably determined by staining with an undifferentiated marker. However, since the stained cells die, undifferentiated marker staining cannot be used to determine pluripotent stem cells for regenerative medicine. Therefore, in the current field of cell culture for regenerative medicine, operators determine whether cells are undifferentiated cells based on morphological observation of cells using a phase contrast microscope. A phase contrast microscope is used because cells are generally transparent and difficult to observe with a normal optical microscope.

また、非特許文献1に開示されているように、最近では、ホログラフィ技術を用いて細胞の観察画像を取得する装置も実用化されている。この装置は、特許文献1~4等に開示されているように、デジタルホログラフィック顕微鏡で得られたホログラムデータに対し位相回復や画像再構成等のデータ処理を行うことで、細胞が鮮明に観察し易い位相像(インライン型ホログラフィック顕微鏡(In-line Holographic Microscopy:IHM)を用いていることから、以下「IHM位相像」という)を作成するものである。デジタルホログラフィック顕微鏡では、ホログラムデータを取得したあとの演算処理の段階で任意の距離における位相情報を算出することができるため、撮影時にいちいち焦点合わせを行う必要がなく測定時間を短くすることができるという利点がある。 Furthermore, as disclosed in Non-Patent Document 1, devices that use holography technology to obtain observation images of cells have also been put into practical use. As disclosed in Patent Documents 1 to 4, this device performs data processing such as phase recovery and image reconstruction on hologram data obtained with a digital holographic microscope, allowing cells to be clearly observed. This method creates an easy-to-read phase image (hereinafter referred to as an "IHM phase image" because an in-line holographic microscope (IHM) is used). Digital holographic microscopes can calculate phase information at any distance during the calculation process after acquiring hologram data, so there is no need to focus each time a photograph is taken, reducing measurement time. There is an advantage.

しかしながら、位相差顕微画像やIHM位相画像では細胞を或る程度鮮明に観察可能であるものの、作業者が目視で未分化細胞等を正確に判定するにはかなり熟練が必要である。そのため、そうした判定を担当できる作業者がかなり限られる。また、人間の判断に基づくために判定にばらつきが生じることは避けられない。また、熟練した作業者であっても正確な判定には時間が掛かるため、大量の画像を処理することは難しい。そのため、こうした従来の手法は大学や研究機関での研究レベルであれば許容可能であるものの、多能性幹細胞を工業的に大量生産するのには適さない。 However, although cells can be observed with a certain degree of clarity using a phase contrast microscopic image or an IHM phase image, considerable skill is required for an operator to accurately determine undifferentiated cells and the like visually. Therefore, the number of workers who can make such judgments is quite limited. Furthermore, since it is based on human judgment, it is inevitable that the judgment will vary. Further, even for a skilled worker, it takes time to make an accurate determination, making it difficult to process a large number of images. Therefore, although these conventional methods are acceptable at the research level at universities and research institutes, they are not suitable for industrial mass production of pluripotent stem cells.

国際特許公開第2017/203718号パンフレットInternational Patent Publication No. 2017/203718 pamphlet 国際特許公開第2017/204013号パンフレットInternational Patent Publication No. 2017/204013 pamphlet 国際特許公開第2016/084420号パンフレットInternational Patent Publication No. 2016/084420 pamphlet 特開平10-268740号公報Japanese Patent Application Publication No. 10-268740

「細胞培養解析装置 CultureScanner CS-1」、[online]、株式会社島津製作所、[平成30年2月14日検索]、インターネット<URL: https://www.an.shimadzu.co.jp/bio/cell/cs1/index.htm>"Cell culture analysis device CultureScanner CS-1", [online], Shimadzu Corporation, [searched on February 14, 2018], Internet <URL: https://www.an.shimadzu.co.jp/bio /cell/cs1/index.htm>

本発明は上記課題を解決するためになされたものであり、その目的とするところは、細胞について得られた観察画像に基づいて細胞の状態や品質などを判定したり、異物混入等の不適切な状態がないかを確認したりする作業を、経験や技量に乏しい作業者であっても行うことができ、且つそうした作業を効率的に行うことができる細胞観察装置を提供することである。 The present invention has been made to solve the above problems, and its purpose is to judge the state and quality of cells based on observation images obtained of cells, and to detect inappropriate conditions such as foreign matter contamination. To provide a cell observation device that allows even an operator with little experience or skill to carry out work such as confirming whether there is any abnormal state, and allows such work to be carried out efficiently.

上記課題を解決するために成された本発明に係る細胞観察装置は、
a)細胞を対象とする顕微観察画像を観察画像として取得する観察画像取得部と、
b)前記観察画像取得部で取得された観察画像の全体又はその一部について、観察画像の入力に対し該観察画像中の2以上の特徴領域を区分けした画像を出力する機械学習モデルを利用して、2以上の細胞状態をそれぞれ示す特徴領域を識別する領域識別部と、
c)前記領域識別部により識別された2以上の特徴領域を、それぞれ視覚的に識別可能な態様で区分けして描出した領域識別画像を作成し、該領域識別画像と観察画像とを表示部の同一画面内に表示する画像表示処理部と、
を備えることを特徴としている。
The cell observation device according to the present invention, which has been made to solve the above problems, includes:
a) an observation image acquisition unit that acquires a microscopic observation image of cells as an observation image;
b) For the entire observation image acquired by the observation image acquisition unit or a part thereof, a machine learning model is used that outputs an image in which two or more characteristic regions in the observation image are divided in response to input of the observation image. a region identification unit that identifies characteristic regions each representing two or more cell states;
c) Create an area identification image that depicts the two or more characteristic areas identified by the area identification unit in a visually distinguishable manner, and display the area identification image and the observed image on the display unit. an image display processing unit that displays on the same screen;
It is characterized by having the following.

観察画像取得部で観察画像が得られると、領域識別部は、その観察画像の全体又は例えばユーザにより指定された範囲の部分的な観察画像について、互いに異なる細胞状態をそれぞれ示す2以上の特徴領域を識別する。領域識別部における領域識別のアルゴリズムは特に問わないが、教師有りの機械学習をその一部に利用したものが有用である。 When an observation image is obtained by the observation image acquisition unit, the region identification unit identifies two or more characteristic regions each indicating a different cell state from the entire observation image or, for example, a partial observation image within a range specified by the user. identify. The area identification algorithm used in the area identification unit is not particularly limited, but it is useful to use supervised machine learning as part of the algorithm.

教師有りの機械学習としては、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、アダブースト(AdaBoost)、単純ベイズ、k近傍法、さらにはニューラルネットワークを含むディープラーニング(Deep Learning)など、適宜の手法を用いることができる。また、画像そのものを学習するのではなく、画像からテクスチャ解析などにより抽出した特徴量を学習するものでもよい。 Supervised machine learning includes Support Vector Machine (SVM), Random Forest, AdaBoost, Naive Bayes, k-nearest neighbor method, and even deep learning including neural networks. Any suitable method can be used. Furthermore, instead of learning the image itself, it may be possible to learn feature quantities extracted from the image by texture analysis or the like.

上記特徴領域は観察対象の細胞の種類や観察の目的等によって異なるが、例えば観察対象の細胞がヒトiPS細胞を含む多能性幹細胞である場合、互いに異なる細胞状態とは未分化細胞と未分化逸脱細胞などである。そこで、本発明では、前記観察画像中で区分けされた前記特徴領域のうちの一つは細胞又は細胞コロニーである領域であって且つ細胞又は細胞コロニーが未分化細胞である領域であり、前記特徴領域のうちの別の一つは細胞又は細胞コロニーである領域であって且つ細胞又は細胞コロニーが未分化逸脱細胞である領域であり、前記特徴領域のうちのさらに別の一つは異物が存在している領域としている。また、互いに異なる細胞状態として、目的とする器官(例えば心臓移植用の心筋)の細胞へ分化した細胞と、それ以外の細胞(例えば神経細胞など)としてもよい。 The above characteristic regions differ depending on the type of cells to be observed and the purpose of observation, but for example, if the cells to be observed are pluripotent stem cells including human iPS cells, the different cell states are undifferentiated cells and undifferentiated cells. These include deviant cells. Therefore, in the present invention, one of the characteristic regions divided in the observation image is a region where cells or cell colonies are present, and where the cells or cell colonies are undifferentiated cells ; Another one of the characteristic regions is a region where cells or cell colonies are present, and where the cells or cell colonies are undifferentiated deviant cells , and yet another one of the characteristic regions is a region where foreign substances are present. This is an area in which it exists . In addition, the different cell states may be cells differentiated into cells of a target organ (for example, myocardium for heart transplantation) and cells other than that (for example, nerve cells).

画像表示処理部は、上述したように識別された2以上の特徴領域を、それぞれ視覚的に識別可能な態様で区分けして描出した領域識別画像を作成する。そして、該領域識別画像を表示部の画面上に表示する。ここで「視覚的に識別可能な態様」とは、典型的には、互いに異なる表示色を用いた塗りつぶし処理、つまりは特徴領域の色分けである。もちろん、グレイスケール上の異なる濃淡で特徴領域を区分けしてもよいし、塗りつぶし部分の図形パターンが異なるもので特徴領域を区分けしてもよい。 The image display processing unit creates a region identification image in which two or more characteristic regions identified as described above are divided and depicted in a visually distinguishable manner. Then, the area identification image is displayed on the screen of the display unit. Here, the "visually distinguishable aspect" typically refers to filling processing using mutually different display colors, that is, color-coding of characteristic regions. Of course, the characteristic regions may be divided by different shadings on the gray scale, or the characteristic regions may be divided by different graphic patterns in the filled portions.

こうして表示された領域識別画像では、例えば未分化細胞領域、未分化逸脱細胞領域、異物領域などがそれぞれ異なる色等で示される。それにより、観察画像からは細胞の状態の判別が行えないような経験の乏しい作業者であっても、細胞コロニー中に未分化逸脱細胞が存在するかどうか、存在するとすれば未分化細胞と未分化逸脱細胞との境界はどこか、或いは、培地中に異物が混入していないかどうか、などを一目で把握することができる。 In the region identification image displayed in this way, for example, an undifferentiated cell region, an undifferentiated deviant cell region, a foreign substance region, etc. are each shown in a different color. As a result, even inexperienced workers who cannot distinguish the state of cells from observation images can check whether undifferentiated deviant cells exist in a cell colony, and if so, distinguish between undifferentiated cells and undifferentiated cells. At a glance, you can see where the border with differentiated cells is, or whether there are any foreign substances mixed into the culture medium.

本発明において好ましくは、前記領域識別部は、画素単位で前記特徴領域を識別した情報を生成し、前記画像表示処理部は、画素単位又は隣接する複数の画素をまとめた小領域の単位で、異なる特徴領域を視覚的に識別可能な態様で区分けして描出する構成とするとよい。 In the present invention, preferably, the area identification unit generates information that identifies the characteristic area on a pixel basis, and the image display processing unit generates information on a pixel basis or a small area unit of a plurality of adjacent pixels, It is preferable to have a configuration in which different characteristic regions are divided and depicted in a visually distinguishable manner.

例えば倍率の小さな観察画像では1個の細胞が画像の1画素程度の大きさになる場合もあり得るが、1個の細胞が未分化逸脱細胞であると判定されて該細胞に対応する1画素が領域識別画像上で周りの画素と異なる色で表示されても分かりにくいことが多い。そうした場合に、画素単位ではなく隣接する複数の画素をまとめた小領域の単位で、一つの小領域に含まれる複数の画素のいずれか一つで或る特徴領域であると識別されたならば、その小領域をその特徴領域に対応付けられた色で示すことにより、その特徴領域が存在することが視覚的に分かり易くなる。これにより、作業者による画像の確認時に、ごく小さい特徴領域の見逃しを防止することができる。 For example, in an observation image with a small magnification, one cell may be about the size of one pixel of the image, but if one cell is determined to be an undifferentiated deviant cell, one pixel corresponding to the cell It is often difficult to understand even if the pixels are displayed in a different color from the surrounding pixels on the area identification image. In such a case, if any one of the plurality of pixels included in one small area is identified as a certain feature area, not in units of pixels but in units of small areas that combine multiple adjacent pixels. By showing the small area in a color associated with the characteristic area, it becomes easier to visually understand that the characteristic area exists. This can prevent an operator from overlooking a very small characteristic region when checking an image.

また本発明において、前記画像表示処理部は、前記領域識別部での識別対象である細胞状態及び特徴領域毎の識別可能な態様を示す情報を前記領域識別画像と共に表示する構成とするとよい。 Further, in the present invention, it is preferable that the image display processing section displays information indicating the state of cells to be identified by the region identification section and the distinguishable aspect of each characteristic region together with the region identification image.

具体的には、領域識別画像中の各特徴領域を異なる表示色で示す場合に、「赤色:未分化逸脱、緑色:未分化」などの情報を該画像の一部に、又は該画像の近傍に表示するとよい。これにより、作業者は一目で画像中の細胞状態を把握することができる。 Specifically, when each characteristic region in a region identification image is shown in a different display color, information such as "red: undifferentiated deviation, green: undifferentiated" is displayed in a part of the image or in the vicinity of the image. It is recommended to display the This allows the operator to grasp the state of the cells in the image at a glance.

また本発明において前記画像表示処理部は、ユーザの操作に応じて、前記表示部の画面上に表示した領域識別画像を拡大又は縮小させる構成とするとよい。
これにより、作業者は例えば細胞1個程度のごく小さい範囲の細胞状態も正確に把握することができる。
Further, in the present invention, the image display processing section may be configured to enlarge or reduce the area identification image displayed on the screen of the display section in accordance with a user's operation.
This allows the operator to accurately grasp the state of cells in a very small range, for example, about one cell.

また上記構成において、前記画像表示処理部は、前記拡大画像とその拡大前の領域識別画像とを同一画面内に表示するとよい。
これにより、作業者は、試料上の広い範囲における細胞状態の分布状態と、その中の一部の細かい細胞状態とを併せて把握することができる。
Further, in the above configuration, it is preferable that the image display processing unit displays the enlarged image and the area identification image before enlargement on the same screen.
This allows the operator to grasp both the distribution state of the cell state in a wide range on the sample and the detailed state of some cells therein.

また上記構成において、前記画像表示処理部は、前記領域識別部での識別対象である細胞状態及び特徴領域毎の識別可能な態様を示す情報を前記拡大画像と共に表示するとよい。
これにより、作業者は拡大画像を見ただけで該画像中の細胞状態を的確に把握することができる。
Further, in the above configuration, it is preferable that the image display processing section displays information indicating the state of cells to be identified by the region identification section and the distinguishable aspect of each characteristic region together with the enlarged image.
This allows the operator to accurately grasp the state of the cells in the enlarged image just by looking at the enlarged image.

本発明において観察画像は、インライン型ホログラフィック顕微鏡で得られたホログラムデータから求まる位相画像である。 In the present invention, the observed image is a phase image obtained from hologram data obtained with an in-line holographic microscope.

この構成によれば、ホログラムデータに基づいて位相情報や強度情報を算出する段階で任意の焦点位置における情報を計算によって求めることができ、細胞を含む試料をホログラフィック顕微鏡で撮影する段階では面倒な焦点合わせを行う必要がない。そのため、試料の撮影を短時間で円滑に行うことができ、生きた状態の細胞を観察するのに好適である。また、一般的な光学顕微画像に比べて細胞が比較的明瞭に観察可能な位相画像や異物等が比較的明瞭に観察可能な強度画像と領域識別画像とを同一画面上で比較することができるので、それら画像を見比べながら、自動的な識別処理による特徴領域の識別が適切に行われているか否かをチェックすることができる。 According to this configuration, information at an arbitrary focal position can be obtained by calculation at the stage of calculating phase information and intensity information based on hologram data, which is a tedious task at the stage of photographing a sample containing cells with a holographic microscope. There is no need to perform focusing. Therefore, the sample can be photographed smoothly in a short time, making it suitable for observing cells in a living state. Additionally, compared to general optical microscopic images, it is possible to compare on the same screen a phase image in which cells can be observed relatively clearly, an intensity image in which foreign objects can be observed relatively clearly, and a region identification image. Therefore, while comparing these images, it is possible to check whether or not the characteristic regions are appropriately identified by automatic identification processing.

また上記構成において、前記画像表示処理部は、前記領域識別画像上で所定の範囲が選択されたときに、該範囲の拡大画像と、前記位相画像及び/又は強度画像内で前記拡大画像に対応した範囲の画像とを同一画面内に表示するとよい。 Further, in the above configuration, when a predetermined range is selected on the area identification image, the image display processing unit is configured to correspond to an enlarged image of the range and the enlarged image within the phase image and/or the intensity image. It is advisable to display the images of the selected range on the same screen.

さらにまた、上記構成において、前記画像表示処理部は、前記拡大画像と前記位相画像及び/又は強度画像の拡大画像とのいずれかで拡大・縮小の操作がなされたときに、該操作に応じて全ての画像を連動させて拡大・縮小させるとよい。
これにより、常に同じ範囲の領域識別画像と位相画像又は強度画像とを見比べることができるので、領域識別が適切かどうか等の確認を正確に行うことができる。また、作業者自らが一つ一つの画像を個別に拡大・縮小する必要がないので、観察作業を効率的に行うことができる。
Furthermore, in the above configuration, when an operation of enlarging/reducing is performed on either the enlarged image and the enlarged image of the phase image and/or intensity image, the image display processing section It is best to enlarge or reduce all images in conjunction with each other.
Thereby, it is possible to always compare the region identification image and the phase image or the intensity image in the same range, so it is possible to accurately confirm whether the region identification is appropriate or not. Furthermore, since the operator does not have to individually enlarge or reduce each image, observation work can be performed efficiently.

また上記構成において、前記画像表示処理部は、前記領域識別画像と前記位相画像又は強度画像とを重ね合わせた合成画像を表示する構成としてもよい。 Further, in the above configuration, the image display processing section may be configured to display a composite image in which the area identification image and the phase image or the intensity image are superimposed.

またその場合、前記画像表示処理部は、重ね合わせた少なくとも一方の画像の透明度をユーザによる操作に応じて調整する構成とするとよい。 Further, in that case, the image display processing section may be configured to adjust the transparency of at least one of the superimposed images in accordance with an operation by the user.

こうした構成によれば、位相画像や強度画像上の模様や境界と特徴領域との関係を作業者が容易に且つ視覚的に把握することができるようになる。もちろん、複数の画像を並べて配置する表示と重ねた表示とをユーザが適宜に切り替えられるようにしておくと便利である。 According to such a configuration, the operator can easily and visually grasp the relationship between the pattern or boundary on the phase image or the intensity image and the characteristic region. Of course, it is convenient for the user to be able to switch between a display in which a plurality of images are arranged side by side and a display in which a plurality of images are superimposed.

本発明によれば、例えばiPS細胞やES細胞などの多能性幹細胞を培養する現場において、作業者が、培養中の細胞が未分化状態を維持しているのか未分化逸脱状態であるのか、細胞コロニー中に未分化逸脱細胞が存在するか否か、或いは、培地に異物が混入していないか否かなど判定する作業の労力を軽減することができる。また、そうした作業を担当する作業者の熟練や技量が不足している場合であっても、判定のばらつきを軽減し、判定ミスや見逃しを減らして判定精度を向上させることができる。また、大量の観察画像を効率良く処理することができ、作業の効率を向上させることができる。こうしたことから、培養中の細胞の品質管理が容易になり、細胞培養における生産性の向上を図ることができる。 According to the present invention, for example, at a site where pluripotent stem cells such as iPS cells and ES cells are cultured, an operator can determine whether the cells being cultured are maintaining an undifferentiated state or are in an undifferentiated state. It is possible to reduce the labor involved in determining whether or not undifferentiated deviant cells exist in a cell colony or whether or not a foreign substance is mixed into a culture medium. Further, even if the worker in charge of such work is insufficient in skill or skill, it is possible to reduce variations in judgment, reduce judgment errors and oversights, and improve judgment accuracy. Further, a large amount of observation images can be efficiently processed, and work efficiency can be improved. For this reason, quality control of cells during culture can be easily controlled, and productivity in cell culture can be improved.

本発明の一実施例である細胞観察装置の概略構成図。1 is a schematic configuration diagram of a cell observation device that is an embodiment of the present invention. 本実施例の細胞観察装置における観察画像の領域識別処理の流れを示すフローチャート。3 is a flowchart showing the flow of region identification processing of observed images in the cell observation apparatus of the present embodiment. 本実施例の細胞観察装置における領域識別処理の一例を示す模式図。FIG. 3 is a schematic diagram showing an example of region identification processing in the cell observation apparatus of the present embodiment. 本実施例の細胞観察装置における領域識別画像の表示の一態様を示す図。FIG. 3 is a diagram showing one mode of displaying a region identification image in the cell observation device of the present example. 本実施例の細胞観察装置における領域識別画像の表示の他の態様を示す図。FIG. 7 is a diagram showing another aspect of displaying a region identification image in the cell observation apparatus of the present embodiment.

以下、本発明に係る細胞観察装置の一実施例について、添付図面を参照して説明する。
図1は本実施例の細胞観察装置の概略構成図である。
An embodiment of the cell observation device according to the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a schematic diagram of the cell observation apparatus of this example.

本実施例の細胞観察装置は、顕微観察部10と、制御・処理部20と、ユーザインターフェイスである入力部30及び表示部40と、を備える。
顕微観察部10はインライン型ホログラフィック顕微鏡であり、レーザダイオードなどを含む光源部11とイメージセンサ12とを備え、光源部11とイメージセンサ12との間に、細胞コロニー(又は細胞単体)14を含む培養プレート13が配置される。
The cell observation apparatus of this embodiment includes a microscopic observation section 10, a control/processing section 20, and an input section 30 and a display section 40, which are user interfaces.
The microscopic observation unit 10 is an in-line holographic microscope, and includes a light source unit 11 including a laser diode, etc., and an image sensor 12, and a cell colony (or single cell) 14 is placed between the light source unit 11 and the image sensor 12. A culture plate 13 containing the cells is arranged.

制御・処理部20は、顕微観察部10の動作を制御するとともに顕微観察部10で取得されたデータを処理するものであって、撮影制御部21と、ホログラムデータ記憶部22と、位相情報算出部23と、画像再構成部24と、再構成画像データ記憶部25と、領域識別処理部26と、領域識別結果データ記憶部27と、領域識別画像作成部28と、表示処理部29と、を機能ブロックとして備える。領域識別処理部26の詳細は後述する。 The control/processing unit 20 controls the operation of the microscopic observation unit 10 and processes data acquired by the microscopic observation unit 10, and includes an imaging control unit 21, a hologram data storage unit 22, and a phase information calculation unit. unit 23, image reconstruction unit 24, reconstructed image data storage unit 25, area identification processing unit 26, area identification result data storage unit 27, area identification image creation unit 28, display processing unit 29, is provided as a functional block. Details of the area identification processing section 26 will be described later.

通常、制御・処理部20の実体は、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーション、或いは、そうしたコンピュータと通信回線を介して接続された高性能なコンピュータを含むコンピュータシステムである。即ち、制御・処理部20に含まれる各ブロックの機能は、コンピュータ単体又は複数のコンピュータを含むコンピュータシステムに搭載されているソフトウェアを実行することで実施される、該コンピュータ又はコンピュータシステムに記憶されている各種データを用いた処理によって具現化されるものとすることができる。 Usually, the entity of the control/processing unit 20 is a computer system including a personal computer with predetermined software installed, a high-performance workstation, or a high-performance computer connected to such a computer via a communication line. be. That is, the functions of each block included in the control/processing unit 20 are implemented by executing software installed in a single computer or a computer system including multiple computers, or by executing software stored in the computer or computer system. It can be realized by processing using various types of data.

本実施例の細胞観察装置では様々な細胞についての観察を行うことができるが、ここでは、ヒトiPS細胞を培養する際に必要な細胞観察を目的として細胞の観察画像を取得し、該観察画像から細胞コロニー中の未分化細胞領域、及び未分化逸脱細胞領域を識別してその識別結果を出力する際の処理について説明する。 The cell observation device of this example can observe various cells, but here, observation images of cells are acquired for the purpose of cell observation necessary when culturing human iPS cells, and the observation images are A process for identifying an undifferentiated cell region and an undifferentiated deviant cell region in a cell colony and outputting the identification results will be described.

図2は本実施例の細胞観察装置における観察画像の領域識別処理の流れを示すフローチャート、図3はその領域識別処理の一例を示す模式図である。
作業者は細胞コロニー14を含む培養プレート13を所定位置にセットして入力部30で所定の操作を行う。この操作を受けて撮影制御部21は、顕微観察部10を制御して以下のようにホログラムデータを取得する(ステップS1)。
FIG. 2 is a flowchart showing the flow of region identification processing for observed images in the cell observation apparatus of this embodiment, and FIG. 3 is a schematic diagram showing an example of the region identification processing.
The operator sets the culture plate 13 containing the cell colony 14 at a predetermined position and performs a predetermined operation using the input unit 30 . In response to this operation, the imaging control section 21 controls the microscope observation section 10 to acquire hologram data as follows (step S1).

即ち、光源部11は10°程度の微小角度の広がりを持つコヒーレント光を培養プレート13の所定の領域に照射する。培養プレート13及び細胞コロニー14を透過したコヒーレント光(物体光16)は、培養プレート13上で細胞コロニー14に近接する領域を透過した光(参照光15)と干渉しつつイメージセンサ12に到達する。物体光16は細胞コロニー14を透過する際に位相が変化した光であり、他方、参照光15は細胞コロニー14を透過しないので該コロニー14に起因する位相変化を受けない光である。したがって、イメージセンサ12の検出面(像面)上には、細胞コロニー14により位相が変化した物体光16と位相が変化していない参照光15との干渉縞による像が形成される。 That is, the light source section 11 irradiates a predetermined region of the culture plate 13 with coherent light having a minute angle spread of about 10 degrees. The coherent light (object light 16) that has passed through the culture plate 13 and the cell colony 14 reaches the image sensor 12 while interfering with the light (reference light 15) that has passed through the area close to the cell colony 14 on the culture plate 13. . The object light 16 is light whose phase has changed when it passes through the cell colony 14, while the reference light 15 does not pass through the cell colony 14, so it is not subjected to a phase change caused by the colony 14. Therefore, an image is formed on the detection plane (image plane) of the image sensor 12 by interference fringes between the object light 16 whose phase has changed due to the cell colony 14 and the reference light 15 whose phase has not changed.

なお、光源部11から発せられたコヒーレント光の照射領域(観察領域)は培養プレート13の大きさに比べて小さい。そこで、図示しない移動機構によって、光源部11及びイメージセンサ12を一体に、X軸方向及びY軸方向に所定距離ずつ移動させながら、光源部11から発せられたコヒーレント光を培養プレート13に照射し、該培養プレート13の一部の範囲の干渉像の撮影を繰り返し行う。これにより、培養プレート13上の広い2次元領域に亘るホログラムデータ(イメージセンサ12の検出面で形成されたホログラムの2次元的な光強度分布データ)を取得することができる。 Note that the irradiation area (observation area) of the coherent light emitted from the light source section 11 is smaller than the size of the culture plate 13. Therefore, while moving the light source section 11 and the image sensor 12 together by a predetermined distance in the X-axis direction and the Y-axis direction using a moving mechanism (not shown), the culture plate 13 is irradiated with coherent light emitted from the light source section 11. , an interference image of a part of the culture plate 13 is repeatedly photographed. Thereby, hologram data (two-dimensional light intensity distribution data of the hologram formed on the detection surface of the image sensor 12) covering a wide two-dimensional area on the culture plate 13 can be acquired.

上述したように顕微観察部10で得られたホログラムデータは逐次、制御・処理部20に送られ、ホログラムデータ記憶部22に格納される。制御・処理部20において、位相情報算出部23はホログラムデータ記憶部22からホログラムデータを読み出し、位相回復のための所定の演算処理を実行することで観察領域(撮影領域)全体の位相情報を算出する。そして画像再構成部24は、算出された位相情報に基づいてIHM位相像を作成し、該画像データを再構成画像データ記憶部25に保存する(ステップS2)。こうした位相情報の算出やIHM位相像の作成の際には、特許文献3、4等に開示されている周知のアルゴリズムを用いればよい。一般にIHM位相像では、透明であって光学顕微鏡では見えにくい細胞の輪郭(境界)やその内部の模様が見え易くなる。 As described above, the hologram data obtained by the microscope observation section 10 is sequentially sent to the control/processing section 20 and stored in the hologram data storage section 22. In the control/processing unit 20, the phase information calculation unit 23 reads the hologram data from the hologram data storage unit 22, and calculates the phase information of the entire observation area (imaging area) by executing predetermined calculation processing for phase recovery. do. Then, the image reconstruction unit 24 creates an IHM phase image based on the calculated phase information, and stores the image data in the reconstructed image data storage unit 25 (step S2). When calculating such phase information and creating an IHM phase image, well-known algorithms disclosed in Patent Documents 3 and 4 may be used. In general, IHM phase images make it easier to see the outlines (boundaries) of cells and their internal patterns, which are transparent and difficult to see with an optical microscope.

なお、ホログラムデータに基づいて位相情報のほかに、強度情報、擬似位相情報なども併せて算出し、画像再構成部24はこれらに基づく再生像(IHM強度像、IHM擬似位相像)を作成することもできる。IHM強度像はIHM位相像に代えて使用されることもある。また、IHM擬似位相像は、IHM位相像とIHM強度像とを合わせたような画像であり、位相差顕微鏡で得られる位相差顕微画像に相当する。また、ホログラムデータに基づいてIHM位相像等を作成する際には、複数の焦点位置におけるIHM位相像等をそれぞれ作成することができる。 Note that in addition to phase information, intensity information, pseudo-phase information, etc. are also calculated based on the hologram data, and the image reconstruction unit 24 creates a reconstructed image (IHM intensity image, IHM pseudo-phase image) based on these. You can also do that. An IHM intensity image may be used instead of an IHM phase image. Further, the IHM pseudo phase image is an image that is a combination of an IHM phase image and an IHM intensity image, and corresponds to a phase contrast microscopic image obtained with a phase contrast microscope. Further, when creating an IHM phase image or the like based on hologram data, it is possible to create each IHM phase image or the like at a plurality of focal positions.

領域識別処理部26は作成されたIHM位相像に対し、細胞コロニー中の未分化細胞領域と未分化逸脱細胞領域という二つの特徴領域を識別する処理を実施する(ステップS3)。ここで、この領域識別処理について説明する。 The region identification processing unit 26 performs a process of identifying two characteristic regions, an undifferentiated cell region and an undifferentiated deviant cell region in the cell colony, on the created IHM phase image (step S3). Here, this area identification processing will be explained.

領域識別処理部26は、予め多数の教師データを用いた学習によって構築された識別器を含み、この識別器を用い、入力された画像に対し複数の特徴領域を画素単位で識別してその識別結果を出力するものである。どのような特徴領域を識別するのかは、学習時に使用される教師データに依存する。したがって、ここでは、予め用意された多数のIHM位相像、及び、これを熟練した作業者が見て未分化細胞領域と未分化逸脱細胞領域とを識別した結果(つまりは正解画像)、を教師データとした学習を行う。 The region identification processing unit 26 includes a classifier constructed in advance through learning using a large amount of training data, and uses this classifier to identify a plurality of feature regions in the input image pixel by pixel, and performs the classification. It outputs the results. What kind of feature region to identify depends on the teacher data used during learning. Therefore, here, we will use a large number of IHM phase images prepared in advance and the results of the identification of undifferentiated cell areas and undifferentiated deviant cell areas by skilled workers (that is, correct images) as a teacher. Perform learning using data.

正解画像とは、与えられたIHM位相像上の未分化細胞領域、未分化逸脱細胞領域、及び背景領域(細胞が存在しない領域)を画素単位でラベル付けしたラベル画像である。ラベル画像は、ごく概略的に言えば、未分化細胞領域と判定された画素に「1」、未分化逸脱細胞領域と判定された画素に「2」、それ以外の背景領域と判定された画素に「0」などの所定の画素値を割り当てた画像であり、これは換言すれば、各画素の位置情報と「0」、「1」又は「2」の画素値とを対応付けた情報である。このラベル画像において異なるラベルにそれぞれ異なる表示色を割り当てて描出すれば、未分化細胞領域、未分化逸脱細胞領域、及び背景領域を色分け表示した画像となる。 The correct image is a labeled image in which undifferentiated cell regions, undifferentiated deviant cell regions, and background regions (regions where no cells exist) on a given IHM phase image are labeled in pixel units. Roughly speaking, the label image is a "1" for pixels determined to be undifferentiated cell regions, a "2" for pixels determined to be undifferentiated deviant cell regions, and a "2" for pixels determined to be other background regions. This is an image in which a predetermined pixel value such as "0" is assigned to a pixel. In other words, this is information that associates the position information of each pixel with a pixel value of "0", "1", or "2". be. If this label image is rendered by assigning different display colors to different labels, an image will be obtained in which the undifferentiated cell region, the undifferentiated deviant cell region, and the background region are displayed in different colors.

教師データとしてIHM位相像と正解画像との組を多数用意し、このIHM位相像を入力画像として出力画像が正解画像にできるだけ近くなるように、機械学習の学習モデル(つまりは識別器)を構築する。こうした教師有りの機械学習のアルゴリズムとしては、例えば、サポートベクターマシン、ランダムフォレスト、アダブースト、単純ベイズ、k近傍法、さらにはニューラルネットワークを含むディープラーニングなど、様々な手法が知られており、いずれの手法を用いてもよい。また、画像を入力する場合でも、その画像そのものを学習するのではなく、画像からテクスチャ解析などにより抽出した特徴量を学習するようなアルゴリズムでもよい。 Prepare a large number of pairs of IHM phase images and correct images as training data, and use these IHM phase images as input images to construct a machine learning learning model (in other words, a classifier) so that the output image is as close to the correct image as possible. do. Various methods are known as such supervised machine learning algorithms, such as support vector machine, random forest, AdaBoost, naive Bayes, k-nearest neighbor method, and even deep learning including neural networks. method may also be used. Furthermore, even when an image is input, an algorithm may be used that does not learn the image itself, but rather learns feature quantities extracted from the image by texture analysis or the like.

上述したような識別器(学習済みの機械学習モデル)を構築する機能はこの制御・処理部20に内蔵させてもよいが、一般に、こうした学習処理の計算はコンピュータにとってかなり負荷が大きく、高性能のコンピュータでないと時間も掛かる。したがって、別の高性能なコンピュータを用いて学習処理を行って精度の高い領域識別が可能な識別器を構築しておき、それを領域識別処理部26の一部であるメモリに記憶させておく。そして領域識別処理部26はその識別器を利用した識別処理のみを実施するのが一般的である。 The function of constructing the above-mentioned classifier (trained machine learning model) may be built into the control/processing unit 20, but in general, calculations for such learning processing are quite heavy on the computer, and high performance is required. If you don't have a modern computer, it will take a long time. Therefore, a classifier capable of highly accurate region identification is constructed by performing learning processing using another high-performance computer, and it is stored in a memory that is a part of the region identification processing section 26. . The area identification processing unit 26 generally performs only identification processing using the classifier.

なお、上記ステップS3では、ステップS2で作成されたIHM位相像の全体について領域識別処理を実施してもよいが、作業者により指定された該IHM位相像の一部の範囲のみについて領域識別処理を実施してもよい。 Note that in step S3, the area identification process may be performed on the entire IHM phase image created in step S2, but the area identification process may be performed on only a part of the IHM phase image specified by the operator. may be implemented.

上述した識別器を利用した領域識別処理部26による領域の識別結果は、元のIHM画像を画素単位で各特徴領域(ここでは未分化細胞領域、未分化逸脱細胞領域、及びそれ以外の背景領域)に対応してラベル付けしたラベル画像である。この識別結果が領域識別結果データ記憶部27に保存される。領域識別画像作成部28はこうしたデータを受け、ラベル付けされている各特徴領域に含まれる画素を、各ラベルに予め割り当てられている表示色で色付けすることにより領域識別画像を作成する(ステップS4)。 The region identification result by the region identification processing unit 26 using the above-mentioned classifier is obtained by classifying the original IHM image into each characteristic region (here, an undifferentiated cell region, an undifferentiated deviant cell region, and other background regions) pixel by pixel. ) is a label image labeled correspondingly. This identification result is stored in the area identification result data storage section 27. The area identification image creation unit 28 receives such data and creates an area identification image by coloring the pixels included in each labeled feature area with the display color assigned in advance to each label (step S4). ).

各特徴領域に割り当てられる表示色は予めデフォルトで決められているが、作業者が入力部30から任意に指定することも可能である。具体的には例えば、未分化細胞領域は「緑」、未分化逸脱細胞領域は「赤」、背景領域は「黒」で表示されるようにすると、背景と細胞コロニーとの境界(つまりは細胞コロニーの輪郭)や細胞コロニー内の未分化細胞と未分化逸脱細胞との境界が明瞭である。 The display color assigned to each feature region is predetermined by default, but can also be arbitrarily designated by the operator from the input unit 30. Specifically, for example, if the undifferentiated cell area is displayed in green, the undifferentiated deviant cell area is displayed in red, and the background area is displayed in black, the border between the background and the cell colony (in other words, the cell The outline of the colony) and the boundaries between undifferentiated cells and undifferentiated cells within the cell colony are clear.

図3はIHM位相像に対する領域識別画像の一例を示す模式図である。この図では、カラーを表現できないためにグレイスケール上の濃淡の違いで各特徴領域を区分している。このように、カラー表示による各特徴領域の区分に限らず、グレイスケール上の濃淡の違いや塗りつぶしのパターンの違いなど、各特徴領域の境界が視覚的に見やすい表示であれば、様々な態様を採ることができる。 FIG. 3 is a schematic diagram showing an example of a region identification image for an IHM phase image. In this figure, since colors cannot be expressed, each feature region is divided by differences in shading on a gray scale. In this way, it is possible to display not only the division of each feature region by color display, but also various aspects as long as the boundaries of each feature region are displayed in a visually easy-to-see manner, such as differences in shading on a gray scale or differences in fill patterns. You can take it.

表示処理部29は、ステップS5で作成された領域識別画像とIHM位相像とを横に並べた表示画面を作成し、これを表示部40の画面上に表示する(ステップS5)。図4はこうした表示画面の態様を示す図である。 The display processing unit 29 creates a display screen in which the region identification image created in step S5 and the IHM phase image are arranged side by side, and displays this on the screen of the display unit 40 (step S5). FIG. 4 is a diagram showing an aspect of such a display screen.

図4では、識別結果表示画面50内に、領域識別画像表示枠51とIHM位相像表示枠52とが設けられ、それぞれの画像が表示枠51、52内に表示されている。両画像は培養プレート13上の全く同じ範囲の画像であり、例えば、いずれか一方の画像上で作業者が入力部(具体的にはマウス等のポインティングデバイス)30を用いて、画像の拡大・縮小、移動、回転等の操作を行うと、その操作を認識した表示処理部29は、表示に必要なデータを再構成画像データ記憶部25及び領域識別結果データ記憶部27から読み出し、領域識別画像表示枠51及びIHM位相像表示枠52に表示される画像を更新する。これにより、作業者は、常に同じ観察範囲のIHM位相像及び領域識別画像を確認することができる。 In FIG. 4, an area identification image display frame 51 and an IHM phase image display frame 52 are provided within the identification result display screen 50, and the respective images are displayed within the display frames 51 and 52. Both images are images of the same area on the culture plate 13, and for example, an operator can enlarge or enlarge the image using the input unit (specifically, a pointing device such as a mouse) 30 on either image. When an operation such as reduction, movement, rotation, etc. is performed, the display processing unit 29 that recognizes the operation reads data necessary for display from the reconstructed image data storage unit 25 and the area identification result data storage unit 27, and displays the area identification image. The images displayed in the display frame 51 and the IHM phase image display frame 52 are updated. This allows the operator to always check the IHM phase image and region identification image of the same observation range.

また、領域識別画像とIHM位相像とを横に並べるのではなく、いずれか一方の画像を半透明化して重ねて表示させることもできる。図5はこうした表示画面の態様を示す図である。図5では、識別結果表示画面50内に、重ね合わせ画像表示枠53と半透明化する画像の透明度を指定するための操作子であるスライダー54とが設けられ、重ね合わせ画像表示枠53内に同じ観察範囲の領域識別画像とIHM位相像とを重ね合わせた画像が表示されている。作業者は図4又は図5に示す表示画面のいずれかを用いて、領域識別画像とIHM位相像とを見比べ、例えば未分化細胞領域と未分化逸脱細胞領域との区分けの正誤を確認することができる。 Further, instead of arranging the region identification image and the IHM phase image side by side, one of the images can be made semi-transparent and displayed overlappingly. FIG. 5 is a diagram showing an aspect of such a display screen. In FIG. 5, a superimposed image display frame 53 and a slider 54, which is an operator for specifying the transparency of the image to be made translucent, are provided in the identification result display screen 50. An image in which a region identification image and an IHM phase image of the same observation range are superimposed is displayed. The operator compares the region identification image and the IHM phase image using either the display screen shown in FIG. 4 or FIG. 5, and confirms, for example, whether the division into the undifferentiated cell region and the undifferentiated deviant cell region is correct. Can be done.

また、領域識別画像とIHM位相像とを並べて又は重ねて表示するのではなく、領域識別画像のみを表示できるようにしてもよい。どのような形式で領域識別画像を表示するのかは、例えば同じ画面上に配置したラジオボタンやチェックボックスなどのGUIウィジェットによりユーザが選択できるようにするとよい。 Further, instead of displaying the region identification image and the IHM phase image side by side or overlapping each other, only the region identification image may be displayed. The user may be able to select the format in which the area identification image is to be displayed using, for example, a GUI widget such as a radio button or a check box placed on the same screen.

また、領域識別画像表示枠51中に又はその枠外の近傍に、表示色とその表示色で示される細胞状態(つまりは未分化細胞状態、未分化逸脱細胞状態)との対応関係を示す情報を文字で示してもよい。これにより、作業者は表示されている領域識別画像において未分化逸脱細胞の範囲を一目で把握することができる。 In addition, information indicating the correspondence between the display color and the cell state indicated by the display color (that is, undifferentiated cell state, undifferentiated deviant cell state) is displayed in the region identification image display frame 51 or near the outside of the frame. May be indicated in text. This allows the operator to grasp at a glance the range of undifferentiated deviant cells in the displayed region identification image.

上述したように、特徴領域の識別は画素単位で行われ、その識別結果も画素単位で記録されるため、領域識別画像においても画素単位での色分けが可能であるが、画素単位ではなく隣接する複数の画素をまとめた小領域の単位で各特徴領域を色分けするようにしてもよい。この場合、例えば一つの小領域に含まれる複数の画素のいずれか一つで未分化逸脱細胞領域であると識別されたならば、その小領域を未分化逸脱細胞領域に対応付けられた色で示すとよい。これにより、例えば培養プレート全体など、低倍率の画像を表示させたときにでも、1個又は少数の未分化逸脱細胞が存在することを視覚的に明瞭に示すことができる。その結果、作業者による画像の確認時に、未分化逸脱細胞領域の見逃しを防止することができる。 As mentioned above, feature region identification is performed pixel by pixel, and the identification results are also recorded pixel by pixel, so it is possible to color code pixel by pixel even in region identification images, but it is possible to color code by pixel, not by pixel by pixel. Each characteristic region may be color-coded in units of small regions made up of a plurality of pixels. In this case, for example, if any one of the multiple pixels included in one small region is identified as an undifferentiated deviant cell region, that small region is colored in a color associated with the undifferentiated deviant cell region. It would be good to show it. Thereby, even when displaying a low-magnification image of the entire culture plate, for example, the presence of one or a small number of undifferentiated deviant cells can be clearly shown visually. As a result, it is possible to prevent an operator from overlooking an undifferentiated cell region when checking an image.

なお、上記実施例では、IHM位相像等を背景領域を含めて三つの特徴領域に区分していたが、異物領域など、識別する領域の数を適宜増やしてもよい。 In the above embodiment, the IHM phase image and the like are divided into three characteristic regions including the background region, but the number of regions to be identified, such as a foreign object region, may be increased as appropriate.

また、図1に示した細胞観察装置では、制御・処理部20において全ての処理を実施しているが、一般に、ホログラムデータに基づく位相情報の計算やその計算結果の画像化には膨大な量の計算が必要である。また、機械学習による領域識別の処理の負荷も大きい。そこで、顕微観察部10に接続されたパーソナルコンピュータを端末装置とし、この端末装置と高性能なコンピュータであるサーバとがインターネットやイントラネット等の通信ネットワークを介して接続されたコンピュータシステムを利用し、上記のような煩雑な計算や処理は高性能なコンピュータで行い、顕微観察部10の制御や処理後のデータを用いた表示処理などを比較的低性能のパーソナルコンピュータで実行するように役割を分けるとよい。 In addition, in the cell observation apparatus shown in FIG. 1, all processing is performed in the control/processing unit 20, but in general, the calculation of phase information based on hologram data and the imaging of the calculation results require a huge amount of processing. calculation is required. In addition, the processing load of region identification using machine learning is also large. Therefore, by using a computer system in which a personal computer connected to the microscope observation section 10 is used as a terminal device, and this terminal device and a server, which is a high-performance computer, are connected via a communication network such as the Internet or an intranet, the above-mentioned If complicated calculations and processing such as these are performed by a high-performance computer, roles such as controlling the microscope observation unit 10 and display processing using the processed data are performed by a relatively low-performance personal computer. good.

また、上記実施例はあくまでも本発明の一例であり、本発明の趣旨の範囲でさらに適宜変形、修正、追加を行っても本願特許請求の範囲に包含されることは明らかである。 Further, the above-mentioned embodiments are merely examples of the present invention, and it is clear that further modifications, modifications, and additions may be made as appropriate within the scope of the spirit of the present invention and still fall within the scope of the claims of the present application.

10…顕微観察部
11…光源部
12…イメージセンサ
13…培養プレート
14…細胞コロニー
15…参照光
16…物体光
20…制御・処理部
21…撮影制御部
22…ホログラムデータ記憶部
23…位相情報算出部
24…画像再構成部
25…再構成画像データ記憶部
26…領域識別処理部
27…領域識別画像作成部
28…領域識別結果データ記憶部
29…表示処理部
30…入力部
40…表示部
10...Microscopic observation unit 11...Light source unit 12...Image sensor 13...Culture plate 14...Cell colony 15...Reference light 16...Object light 20...Control/processing unit 21...Photographing control unit 22...Hologram data storage unit 23...Phase information Calculation section 24...Image reconstruction section 25...Reconstructed image data storage section 26...Area identification processing section 27...Area identification image creation section 28...Area identification result data storage section 29...Display processing section 30...Input section 40...Display section

Claims (11)

a)細胞を対象とした顕微観察画像を観察画像として取得する観察画像取得部と、
b)前記観察画像取得部で取得された観察画像の全体又はその一部について、観察画像の入力に対し該観察画像中の画素毎に3以上の特徴領域を識別することで該観察画像を該3以上の特徴領域に区分けした画像を出力する機械学習モデルを利用して、画像上で画素毎に前記3以上の特徴領域を識別してそれぞれ画素毎にラベル付けする領域識別部と、
c)前記領域識別部により画像上で画素毎にラベル付けされた前記3以上の特徴領域を、それぞれ視覚的に識別可能な態様で区分けして描出した領域識別画像を作成し、該領域識別画像と前記観察画像とを表示部の同一画面内に表示する画像表示処理部と、
を備え、前記観察画像中で区分けされた前記特徴領域のうちの一つは細胞領域であって且つ未分化細胞である領域であり、前記特徴領域のうちの別の一つは細胞領域であって且つ未分化逸脱細胞である領域であり、前記特徴領域のうちのさらに別の一つは異物が存在している領域であることを特徴とする細胞観察装置。
a) an observation image acquisition unit that acquires a microscopic observation image of cells as an observation image;
b) Regarding the whole or part of the observation image acquired by the observation image acquisition unit, the observation image is identified by identifying three or more characteristic regions for each pixel in the observation image in response to the input of the observation image. an area identification unit that identifies the three or more feature regions for each pixel on the image and labels each pixel by using a machine learning model that outputs an image divided into three or more feature regions;
c) Create an area identification image in which the three or more feature areas labeled for each pixel on the image by the area identification unit are divided and depicted in a visually distinguishable manner, and the area identification image is created. and an image display processing unit that displays the observed image and the observed image on the same screen of a display unit;
one of the characteristic regions divided in the observation image is a cell region and is an area of undifferentiated cells, and another one of the characteristic regions is a region of fine cells. A cell observation device characterized in that the region is a cell region and is an undifferentiated deviant cell, and another one of the characteristic regions is a region in which a foreign substance is present.
請求項1に記載の細胞観察装置であって、
前記画像表示処理部は、ユーザの操作により、前記表示部に表示された領域識別画像上で所定の範囲が選択されたときに、該所定の範囲の領域識別画像の拡大画像と、前記観察画像又は該観察画像内で前記拡大画像に対応した範囲の画像と、を同一画面内に表示することを特徴とする細胞観察装置。
The cell observation device according to claim 1,
When a predetermined range is selected on the area identification image displayed on the display unit by a user's operation, the image display processing unit displays an enlarged image of the area identification image of the predetermined range and the observation image. or an image of a range corresponding to the enlarged image within the observation image, and is displayed on the same screen.
請求項2に記載の細胞観察装置であって、
前記画像表示処理部は、前記領域識別画像の拡大画像と前記観察画像の拡大画像とのいずれかで拡大・縮小の操作がなされたときに、該操作に応じて前記領域識別画像及び前記観察画像を連動させて拡大・縮小させることを特徴とする細胞観察装置。
The cell observation device according to claim 2,
When an enlargement/reduction operation is performed on either the enlarged image of the area identification image or the enlarged image of the observation image, the image display processing unit displays the area identification image and the observation image in accordance with the operation. A cell observation device characterized by expanding and contracting in conjunction with each other.
請求項1~3のいずれか1項に記載の細胞観察装置であって、
前記画像表示処理部は、前記領域識別画像と前記観察画像とを重ね合わせた合成画像を表示することを特徴とする細胞観察装置。
The cell observation device according to any one of claims 1 to 3,
The cell observation apparatus is characterized in that the image display processing section displays a composite image obtained by superimposing the region identification image and the observation image.
請求項4に記載の細胞観察装置であって、
前記画像表示処理部は、重ね合わせた少なくとも一方の画像の透明度をユーザによる操作に応じて調整することを特徴とする細胞観察装置。
The cell observation device according to claim 4,
The cell observation apparatus is characterized in that the image display processing section adjusts the transparency of at least one of the superimposed images according to an operation by a user.
請求項1~5のいずれか1項に記載の細胞観察装置であって、
前記機械学習モデルは、細胞についての観察画像と、該観察画像中の以上の特徴領域を画素単位でラベル付けしたラベル画像である正解画像と、を教師データとして機械学習を行うことで作成された学習済みモデルである、ことを特徴とする細胞観察装置。
The cell observation device according to any one of claims 1 to 5,
The machine learning model is created by performing machine learning using an observed image of cells and a correct image, which is a label image in which three or more characteristic regions in the observed image are labeled in pixel units, as training data. A cell observation device characterized by being a trained model.
請求項1~6のいずれか1項に記載の細胞観察装置であって
記画像表示処理部は、画素単位又は隣接する複数の画素をまとめた小領域の単位で、異なる特徴領域を視覚的に識別可能な態様で区分けして描出することを特徴とする細胞観察装置。
The cell observation device according to any one of claims 1 to 6 ,
The cell observation device is characterized in that the image display processing unit divides and depicts different characteristic regions in a visually distinguishable manner in units of pixels or in units of small regions made up of a plurality of adjacent pixels. .
請求項1~7のいずれか1項に記載の細胞観察装置であって、
前記画像表示処理部は、前記領域識別部での識別対象である細胞状態及び特徴領域毎の識別可能な態様を示す情報を前記領域識別画像と共に表示することを特徴とする細胞観察装置。
The cell observation device according to any one of claims 1 to 7,
The cell observation apparatus is characterized in that the image display processing unit displays information indicating the state of cells to be identified by the area identification unit and the distinguishable aspect of each characteristic area together with the area identification image.
請求項1~8のいずれか1項に記載の細胞観察装置であって、
前記画像表示処理部は、ユーザの操作により、前記領域識別画像上で所定の範囲が選択されたときに、該範囲の拡大画像とその拡大前の領域識別画像とを同一画面内に表示することを特徴とする細胞観察装置。
The cell observation device according to any one of claims 1 to 8,
When a predetermined range is selected on the area identification image by a user's operation, the image display processing unit displays an enlarged image of the range and an area identification image before the enlargement on the same screen. A cell observation device featuring:
請求項2、3又は9のいずれか1項に記載の細胞観察装置であって、
前記画像表示処理部は、前記領域識別部での識別対象である細胞状態及び特徴領域毎の識別可能な態様を示す情報を前記拡大画像と共に表示することを特徴とする細胞観察装置。
The cell observation device according to any one of claims 2, 3, or 9,
The cell observation apparatus is characterized in that the image display processing unit displays information indicating the state of cells to be identified by the region identification unit and the distinguishable aspect of each characteristic region together with the enlarged image.
a)細胞を対象とする顕微観察画像を観察画像として取得する観察画像取得ステップと、
b)取得された前記観察画像の全体又はその一部について、観察画像の入力に対し該観察画像中の画素毎に3以上の特徴領域を識別することで該観察画像を該3以上の特徴領域に区分けした画像を出力する機械学習モデルを利用して、画像上で画素毎に前記3以上の特徴領域を識別してそれぞれ画素毎にラベル付けする領域識別ステップと、
c)前記領域識別ステップにおいて画像上で画素毎にラベル付けされた前記3以上の特徴領域を、それぞれ視覚的に識別可能な態様で区分けして描出した領域識別画像を作成し、該領域識別画像と前記観察画像とを表示部の同一画面内に表示する画像表示ステップと、
を有し、前記観察画像中で区分けされた前記特徴領域のうちの一つは細胞領域であって且つ未分化細胞である領域であり、前記特徴領域のうちの別の一つは細胞領域であって且つ未分化逸脱細胞である領域であり、前記特徴領域のうちのさらに別の一つは異物が存在している領域であることを特徴とする細胞観察方法。
a) an observation image acquisition step of acquiring a microscopic observation image of cells as an observation image;
b) Regarding the entire or part of the acquired observation image, identifying three or more characteristic regions for each pixel in the observation image with respect to the input of the observation image, the observation image can be divided into three or more characteristic regions. a region identification step of identifying the three or more feature regions for each pixel on the image and labeling each pixel using a machine learning model that outputs an image divided into;
c) Create an area identification image in which the three or more feature areas labeled for each pixel on the image in the area identification step are divided and depicted in a visually distinguishable manner, and the area identification image is and the observed image on the same screen of a display unit;
One of the characteristic regions divided in the observed image is a cell region and an undifferentiated cell region, and another one of the characteristic regions is a cell region and an undifferentiated cell region. A cell observation method, characterized in that the cell region is a region of undifferentiated deviant cells, and another one of the characteristic regions is a region in which a foreign substance is present.
JP2021147618A 2018-03-20 2021-09-10 Cell observation device and cell observation method Active JP7428173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021147618A JP7428173B2 (en) 2018-03-20 2021-09-10 Cell observation device and cell observation method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020507180A JP6947289B2 (en) 2018-03-20 2018-03-20 Cell observation device
PCT/JP2018/011119 WO2019180833A1 (en) 2018-03-20 2018-03-20 Cell observation device
JP2021147618A JP7428173B2 (en) 2018-03-20 2021-09-10 Cell observation device and cell observation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020507180A Division JP6947289B2 (en) 2018-03-20 2018-03-20 Cell observation device

Publications (2)

Publication Number Publication Date
JP2021184766A JP2021184766A (en) 2021-12-09
JP7428173B2 true JP7428173B2 (en) 2024-02-06

Family

ID=67986050

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020507180A Active JP6947289B2 (en) 2018-03-20 2018-03-20 Cell observation device
JP2021147618A Active JP7428173B2 (en) 2018-03-20 2021-09-10 Cell observation device and cell observation method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020507180A Active JP6947289B2 (en) 2018-03-20 2018-03-20 Cell observation device

Country Status (2)

Country Link
JP (2) JP6947289B2 (en)
WO (1) WO2019180833A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070371A1 (en) * 2019-10-11 2021-04-15 株式会社島津製作所 Cell image analysis method and cell analysis device
WO2021070372A1 (en) * 2019-10-11 2021-04-15 株式会社島津製作所 Cell image analysis method and cell analysis device
JP7431592B2 (en) * 2020-01-29 2024-02-15 株式会社Screenホールディングス Image processing device, image processing system, and image processing method
JP7391285B2 (en) 2020-07-21 2023-12-05 株式会社シバサキ Program, information processing device, information processing method, and model generation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080239A1 (en) 2005-01-31 2006-08-03 Olympus Corporation Image processing device, microscope system, and area specification program
JP2008235989A (en) 2007-03-16 2008-10-02 Nippon Telegr & Teleph Corp <Ntt> Image processor and image processing method
JP2009207416A (en) 2008-03-04 2009-09-17 Nikon Corp Technique for distinguishing living cell in cell observation, image processing program of cell observation and image processing apparatus
JP2011002995A (en) 2009-06-18 2011-01-06 Riron Soyaku Kenkyusho:Kk Cell recognition device, incubator and program
WO2015141275A1 (en) 2014-03-17 2015-09-24 富士フイルム株式会社 Cell region display control device, method and program
JP2016511845A (en) 2012-12-06 2016-04-21 クラリエント ダイアグノスティック サービシーズ, インコーポレイテッド Biological sample split screen display and system and method for capturing the records
WO2017061155A1 (en) 2015-10-08 2017-04-13 ソニー株式会社 Information processing device, information processing method, information processing system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203718A1 (en) * 2016-05-27 2017-11-30 株式会社島津製作所 Holographic observation method and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080239A1 (en) 2005-01-31 2006-08-03 Olympus Corporation Image processing device, microscope system, and area specification program
JP2008235989A (en) 2007-03-16 2008-10-02 Nippon Telegr & Teleph Corp <Ntt> Image processor and image processing method
JP2009207416A (en) 2008-03-04 2009-09-17 Nikon Corp Technique for distinguishing living cell in cell observation, image processing program of cell observation and image processing apparatus
JP2011002995A (en) 2009-06-18 2011-01-06 Riron Soyaku Kenkyusho:Kk Cell recognition device, incubator and program
JP2016511845A (en) 2012-12-06 2016-04-21 クラリエント ダイアグノスティック サービシーズ, インコーポレイテッド Biological sample split screen display and system and method for capturing the records
WO2015141275A1 (en) 2014-03-17 2015-09-24 富士フイルム株式会社 Cell region display control device, method and program
WO2017061155A1 (en) 2015-10-08 2017-04-13 ソニー株式会社 Information processing device, information processing method, information processing system

Also Published As

Publication number Publication date
JPWO2019180833A1 (en) 2020-12-03
JP2021184766A (en) 2021-12-09
JP6947289B2 (en) 2021-10-13
WO2019180833A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP7428173B2 (en) Cell observation device and cell observation method
JP6947841B2 (en) Augmented reality microscope for pathology
JP6981533B2 (en) Cell image analysis device, cell image analysis system, training data generation method, training model generation method, training data generation program, and training data manufacturing method
JP6975474B2 (en) Systems and methods for performing automated analysis of air samples
US10614287B2 (en) Virtual staining of cells in digital holographic microscopy images using general adversarial networks
US8588504B2 (en) Technique for determining the state of a cell aggregation image processing program and image processing device using the technique, and method for producing a cell aggregation
JP2021515240A (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
US11113506B2 (en) Method for providing an evaluation means for at least one optical application system of a microscope-based application technology
KR20160078955A (en) Method and system for classifying and identifying individual cells in a microscopy image
CN111095360B (en) Virtual staining of cells in digital holographic microscopy images using universal challenge network
JP2021064115A (en) Cell image analysis method and cell analysis device
WO2015141275A1 (en) Cell region display control device, method and program
JP7006832B2 (en) Cell analyzer
JP7070656B2 (en) Cell image analysis method, cell image analysis device, and learning model creation method
WO2022165411A1 (en) Plaque detection method for imaging of cells
US20200074628A1 (en) Image processing apparatus, imaging system, image processing method and computer readable recoding medium
JP2021078356A (en) Cell analysis apparatus
US20180247395A1 (en) Cell observation apparatus
JP7006833B2 (en) Cell analyzer
Sidhu Automated Blastomere Segmentation for Visual Servo on Early-stage Embryo
WO2019043953A1 (en) Cell observation device
JP6947288B2 (en) Cell observation device and cell observation program
US20240102912A1 (en) Plaque counting assay method
WO2021070372A1 (en) Cell image analysis method and cell analysis device
JP2022174740A (en) Learning support system and learning support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R151 Written notification of patent or utility model registration

Ref document number: 7428173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151