JP2021045077A - 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム - Google Patents

処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム Download PDF

Info

Publication number
JP2021045077A
JP2021045077A JP2019169835A JP2019169835A JP2021045077A JP 2021045077 A JP2021045077 A JP 2021045077A JP 2019169835 A JP2019169835 A JP 2019169835A JP 2019169835 A JP2019169835 A JP 2019169835A JP 2021045077 A JP2021045077 A JP 2021045077A
Authority
JP
Japan
Prior art keywords
image
processing
processing unit
cell
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019169835A
Other languages
English (en)
Other versions
JP2021045077A5 (ja
Inventor
涼 田本
Ryo Tamoto
涼 田本
三村 正文
Masabumi Mimura
正文 三村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019169835A priority Critical patent/JP2021045077A/ja
Publication of JP2021045077A publication Critical patent/JP2021045077A/ja
Publication of JP2021045077A5 publication Critical patent/JP2021045077A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる複数の対象物(例、複数の細胞を含む細胞群)を高精度に識別する方法の提供。【解決手段】複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成する第1処理部110と、画像に基づいて、対象物ごとの領域に分離した第2画像を生成する第2処理部120と、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別する第3処理部130と、を備える処理装置100。【選択図】図3

Description

本発明は、処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システムに関する。
非特許文献1では、複数の細胞を含む画像に対して、U−Netと呼ばれるアルゴリズムにより細胞を分離する技術が開示されている。
Weikang Wang,David A.Taft,Yi‐Jiun Chen,Jingyu Zhang,Callen T.Wallace,Min Xu,Simon C.Watkins,Jianhua Xing、"Learn to segment single cells with deep distance estimator and deep cell detector"、[online]、[令和1年8月28日検索]、インターネット<https://arxiv.org/abs/1803.10829>
第1の態様に従えば、複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成する第1処理部と、画像に基づいて、対象物ごとの領域に分離した第2画像を生成する第2処理部と、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別する第3処理部と、を備える処理装置が提供される。
第2の態様に従えば、複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成することと、画像に基づいて、対象物ごとの領域に分離した第2画像を生成することと、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別することと、を含む処理方法が提供される。
第3の態様に従えば、コンピュータに、複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成することと、画像に基づいて、対象物ごとの領域に分離した第2画像を生成することと、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別することと、を実行させる処理プログラムが提供される。
第4の態様に従えば、対象物の画像を取得する観察装置であって、上記の処理装置を備える、観察装置が提供される。
第5の態様に従えば、対象物を収容して培養する培養装置であって、上記の観察装置を備える、培養装置が提供される。
第6の態様に従えば、対象物を収容して培養する培養装置を含む培養システムであって、対象物の画像を取得する観察装置と、上記の処理装置とが、ネットワークを介して接続される、培養システムが提供される。
第7の態様に従えば、クラウドコンピューティングによりユーザ端末に解析情報を出力する情報処理システムであって、サーバを備え、サーバは、ネットワークを介して、複数の対象物を含む画像を取得する取得部と、画像に基づいて、対象物を1つのクラスに分類した第1画像を生成する第1処理部と、画像に基づいて、対象物ごとの領域に分離した第2画像を生成する第2処理部と、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別した情報を含む解析情報を生成する第3処理部と、ネットワークを介して、解析情報をユーザ端末に出力する出力部と、を備える情報処理システムが提供される。
第1実施形態に係る処理装置を適用した培養システムの構成例を示す図。 第1実施形態に係る培養システムの構成例を示すブロック図。 第1実施形態に係る処理装置の機能構成例を示すブロック図。 第1実施形態に係る強調画像の生成例を説明する図。 第1実施形態に係る第2画像における領域ごとの細胞の重心を抽出する処理の例を説明する図。 第1実施形態に係る第2画像における領域ごとの細胞を囲むオブジェクトの中心を抽出する処理の例を説明する図。 第1実施形態に係る第2画像における領域ごとの細胞に含まれる核(細胞核)の重心を抽出する処理の例を説明する図。 第1実施形態に係る第2画像における領域ごとの細胞に含まれる核(細胞核)を囲むオブジェクトの中心を抽出する処理の例を説明する図。 第1実施形態に係る第2画像における領域ごとの細胞に内接するオブジェクトの中心を抽出する処理の例を説明する図。 第1実施形態に係るウォーターシェッドを適用した例を説明する図。 第1実施形態に係る確率値に関する情報の例を示す図。 第1実施形態に係る所定位置の修正例を説明する図。 第1実施形態に係る細胞の分離の例を説明する図。 第1実施形態に係る細胞の合成の例を説明する図。 第1実施形態に係る第1処理部における処理の流れの例を示すフローチャート。 第1実施形態に係る第2処理部における処理の流れの例を示すフローチャート。 第1実施形態に係る第3処理部における処理の流れの例を示すフローチャート。 第1実施形態に係る表示制御部及び実行部における処理の流れの例を示すフローチャート。 第1実施形態に係る表示制御部及び実行部における処理の流れの例を示すフローチャート。 第2実施形態に係る情報処理システムの構成例を示す図。
以下、実施形態について図面を参照して説明する。図面においては実施形態を説明するため、一部分を大きく又は強調して表すなど適宜縮尺を変更して表現しており、実際の製品とは大きさ、形状が異なる場合がある。
[第1実施形態]
第1実施形態を説明する。図1は、第1実施形態に係る処理装置を適用した培養システムの構成例を示す図である。図2は、第1実施形態に係る培養システムの構成例を示すブロック図である。図3は、第1実施形態に係る処理装置の機能構成例を示すブロック図である。
培養システムBSは、大別して、筐体1の上部に設けられた培養室2と、複数の培養容器10を収容及び保持するストッカ3と、培養容器10内の試料を観察する観察ユニット(観察装置)5と、培養容器10を搬送する搬送ユニット(搬送装置)4とを有する。加えて、培養システムBSは、システムの作動を制御する制御ユニット(制御装置)6と、表示装置を備える操作盤7とを有する。なお、培養室2、ストッカ3、及び搬送ユニット4等は、培養装置に相当する。
培養室2は、顕微鏡観察における細胞等の観察対象物の培養環境を形成するチャンバである。培養室2には、温度調整装置21と、加湿器22と、ガス供給装置23と、循環ファン24と、環境センサ25とが設けられる。温度調整装置21は、環境センサ25と連携し、培養室2内の温度を所定の設定温度に調整する。加湿器22は、環境センサ25と連携し、培養室2内の湿度を所定の設定湿度に調整する。ガス供給装置23は、環境センサ25と連携し、COガス、Nガス、及びO等のガスを供給する。循環ファン24は、環境センサ25と連携し、培養室2内の気体(空気)を循環させ、温度調整するファンである。環境センサ25は、培養室2の温度、湿度、二酸化炭素濃度、窒素濃度、及び酸素濃度等を検出する。
ストッカ3は、前後、及び上下に仕切られた棚状にて形成される。各棚には、例えば、固有の番地が設定される。培養容器10は、培養する細胞の種別や目的等に応じて適宜選択される。培養容器10は、例えば、ウェルプレート、フラスコ、又はディッシュタイプ等の培養容器でよい。培養容器10には、細胞試料が液体培地とともに注入され、保持される。培養容器10のそれぞれには、例えば、コード番号が付与される。培養容器10は、付与されたコード番号に応じて、ストッカ3の指定番地に対応付けて収容される。搬送ユニット4は、培養室2の内部に設けられた、上下移動可能なZステージ41と、前後移動可能なYステージ42と、左右移動可能なXステージ43とを有する。支持アーム45は、Xステージ43の先端側において、培養容器10を持ち上げ、支持する。
観察ユニット5は、第1照明部51と、第2照明部52と、第3照明部53と、マクロ観察系54と、顕微観察系55と、処理装置100とを有する。第1照明部51は、試料台15の下側から試料を照明する。第2照明部52は、顕微観察系55の光軸に沿って、試料台15の上方から試料を照明する。第3照明部53は、顕微観察系55の光軸に沿って、試料台15の下方から試料を照明する。マクロ観察系54は、試料のマクロ観察を実施する。顕微観察系55は、試料のミクロ観察を実施する。試料台15には、顕微観察系55の観察領域において、ガラス等の透明な窓部16が設けられる。
マクロ観察系54は、観察光学系54aと、観察光学系54aにより結像された試料の像を撮影するCCDカメラ等の撮像装置54cとを有する。マクロ観察系54は、第1照明部51によりバックライト照明された培養容器10の上方からの全体観察画像を取得する。顕微観察系55は、対物レンズ、中間変倍レンズ、及び蛍光フィルタ等を含む観察光学系55aと、観察光学系55aにより結像された試料の像を撮影する冷却CCDカメラ等の撮像装置55cとを有する。対物レンズ、及び中間変倍レンズは、それぞれが複数設けられてもよい。対物レンズ、及び中間変倍レンズについては、レンズの組み合わせを変化させることで、任意の観察倍率に設定可能に構成される。顕微観察系55は、第2照明部52が照明した細胞の透過像と、第3照明部53が照明した細胞の反射像と、第3照明部53が照明した細胞の蛍光像とを取得する。つまり、顕微観察系55は、培養容器10内の細胞を顕微鏡観察した顕微観察像を取得する。
処理装置100は、マクロ観察系54の撮像装置54c、及び顕微観察系55の撮像装置55cから入力された信号を処理し、全体観察画像、及び顕微観察画像等の画像を生成する。また、処理装置100は、全体観察画像、及び顕微観察画像に画像解析を施し、タイムラプス画像の生成、細胞の移動方向の予測、細胞の運動状態の解析、及び細胞塊の複層化の状態の解析等を実施する。なお、処理装置100の詳細については後述する。
制御ユニット6は、CPU(Central Processing Unit)(プロセッサ)61と、ROM(Read Only Memory)62と、RAM(Random Access Memory)63とを有する。CPU61は、制御ユニット6を統括し、制御ユニット6において各種の処理を実行する。ROM62は、培養システムBSに関する制御プログラム、及び制御データ等を記憶する。RAM63は、ハードディスクやDVD(Digital Versatile Disc)等の補助記憶装置を含み、観察条件や画像データ等を一時記憶する。制御ユニット6には、培養室2、搬送ユニット4、観察ユニット5、及び操作盤7等の各構成機器が接続される(図2参照)。
RAM63は、例えば、観察プログラムに応じた培養室2の環境条件、及び観察スケジュール、観察ユニット5における観察種別、観察位置、及び観察倍率等を記憶する。また、RAM63は、観察ユニット5が撮影した画像データを記憶する記憶領域を含み、該画像データと、培養容器10のコード番号や撮影日時等を含むインデックスデータとを対応付けて記憶する。
操作盤7は、操作パネル71と、表示パネル72とを有する。操作パネル(操作部、入力部)71は、キーボード、マウス、及びスイッチ等の入出力機器(操作部、入力部)を含む。ユーザは、操作パネル71を操作し、観察プログラムの設定、条件の選択、及び動作指令等を入力する。通信部65は、有線又は無線の通信規格に準拠して構成され、観察装置5、培養システムBS、又は制御ユニット6に接続される外部の機器(例、サーバ、ユーザのクライアント端末等)との間でデータを送受信する。
上述した培養システムBSにおいて、処理装置100は、撮像装置55cが撮影した顕微観察画像のタイムラプス画像に基づいて、画像に含まれる複数の細胞を識別(特定)する機能を有する。例えば、後述するように、処理装置100は、タイムラプス画像に基づき、画像に含まれる複数の細胞を個別に特定する。図3に示すように、処理装置100は、第1処理部110と、第2処理部120と、第3処理部130と、表示制御部140と、実行部150とを有する。なお、処理装置100に含まれる各機能は、1つの機能ブロックとしたり、複数の機能ブロックとしたりしてもよく、適宜、統合、及び分散することができる。
第1処理部110は、複数の対象物(例、複数の細胞を含む細胞群)を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成する。複数の対象物を含む画像は、撮像装置55cが撮影した顕微観察画像に相当する。つまり、対象物は、一つの様態として、細胞を指す。例えば、第1処理部110は、複数の細胞を含む顕微観察画像に対して、U−Net等のアルゴリズム(例、第1の処理、学習型処理)を適用する。なお、第1処理部110において適用するアルゴリズムは、U−Netに限らない。以下、第1処理部110において適用可能なアルゴリズムの例を記載する。
Ciresan
https://papers.nips.cc/paper/4741-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf
FCN
https://arxiv.org/abs/1411.4038
https://arxiv.org/abs/1505.04597
SegNet
https://arxiv.org/abs/1511.00561
DeepLab
https://arxiv.org/abs/1412.7062
https://arxiv.org/abs/1606.00915
上記の各手法では、画像における1つの細胞、又は2つ以上の細胞を1つのクラスに分類する。換言すると、上記の各手法では、顕微観察画像に含まれる個々の細胞に対して、2つ以上の細胞を、1つの細胞として分類(クラス分け)してしまう場合がある。例えば、第1処理部110では、1つの細胞を1つの「細胞A」として1つのクラスに分類する場合もあるし、2つ又は複数(2つ以上)の細胞を1つの「細胞B」として1つのクラスに分類する場合がある。なお、第1処理部110は、2つ又は複数の細胞を「細胞B」とする場合において、「細胞B」が複数の細胞で構成されていることを認識できるわけではない。また、第1処理部110によるクラスの分類は、顕微観察画像のピクセル単位で実施される。例えば、第1処理部110は、「ピクセルA(画像上の座標)」、「ピクセルB(画像上の座標)」、「ピクセルC(画像上の座標)」を含む1つの細胞「細胞A」として、1つのクラスにする。第1処理部110は、上記処理により第1画像を生成する。なお、上記処理によって、第1画像では、2つ以上の細胞が1つのクラスに分類された情報を含むが、クラスのそれぞれについてのセグメンテーションの精度は高く、一定以上の高い精度を担保できている。
また、画像に含まれるオブジェクト(例えば、細胞等)の検出に関しては、以下の各手法が存在する。
ディープラーニングにおけるセマンティックセグメンテーション
https://postd.cc/semantic-segmentation-deep-learning-review/
RCNN
https://arxiv.org/abs/1311.2524
Fast RCNN
https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Girshick_Fast_R-CNN_ICCV_2015_paper.html
Faster RCNN
http://papers.nips.cc/paper/5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks
YOLO v1,v2,v3
https://arxiv.org/abs/1506.02640
https://arxiv.org/abs/1612.08242
https://arxiv.org/abs/1804.02767
SSD
https://arxiv.org/abs/1512.02325
第2処理部120は、第1処理部110とは種類の異なる手法及び処理を用いて、複数の対象物を含む画像に基づいて、対象物ごとの領域に分離した第2画像を生成する。例えば、第2処理部120は、複数の細胞を含む顕微観察画像に対して、Mask RCNN(https://arxiv.org/abs/1703.06870参照)等のアルゴリズム(例、第2の処理、学習型処理)を適用する。なお、第2処理部120において適用するアルゴリズムは、Mask RCNNに限らない。
Mask RCNNでは、複数の細胞を含む顕微観察画像から、細胞ごとの領域に分離することができる。例えば、第2処理部120では、ある境界で分離された領域(例、1つの細胞の領域)を「細胞A」としてある1つのクラスに分類し、他の境界で分離された領域(例、1つの細胞の領域)を「細胞B」として他の1つのクラスに分類する。第2処理部120によるクラスの分類は、第1処理部110と同様に、顕微観察画像のピクセル単位で実施される。第2処理部120は、上記処理により第2画像を生成する。上記処理によって、第2画像では、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度が高く、一定以上の高い精度を担保できる。
第3処理部130は、第1画像と第2画像とに基づいて、複数の対象物を含む画像に含まれる対象物のそれぞれを識別(特定)する。例えば、第3処理部130は、第1処理部110が生成した第1画像を取得する。そして、第3処理部130は、第1画像をチャネルごとに分割し、2以上のチャネル画像に基づいて、細胞を強調した強調画像を生成する。
図4は、上記の第3処理部130による第1実施形態に係る強調画像の生成例を説明する図である。図4に示すように、第3処理部130は、第1画像をチャネルごとに分割した各画像を生成する。チャネルは、例えば、第1チャネルを「背景」、第2チャネルを「細胞境界」、第3チャネルを「細胞領域」とする。なお、第3処理部130は、第1チャネル、第2チャネル、及び第3チャネルのほかに、第4チャネルを「核(細胞核)」として、第1画像を分割した画像を生成してもよい。また、分割するチャネルの種類は、上記に限られない。
第1画像は、各チャネルの情報として、チャネルのそれぞれに該当する確率(例、背景に対応する確率、細胞境界に対応する確率、細胞領域に対応する確率等)を示す確率値に関する情報を含む。第3処理部130は、確率値に関する情報に基づいて、第1画像をチャネルごとに分割した画像を生成する。第3処理部130は、例えば、第1画像のピクセル単位に確率値を確認し、確率値がより高いチャネルを表現する画像を生成する。図4では、第1チャネルに対応する背景画像、第2チャネルに対応する細胞境界画像、第3チャネルに対応する細胞領域画像を生成した例を挙げている。そして、第3処理部130は、細胞境界画像と細胞領域画像とを用いて、細胞領域から細胞境界を除去し、細胞を強調した強調画像を生成する。
図3の説明に戻る。次に、第3処理部130は、第2処理部120が生成した第2画像を取得する。そして、第3処理部130は、第2画像における領域ごとの細胞に対応する所定位置(位置情報)を抽出する。所定位置は、例えば、細胞の重心、細胞を囲むオブジェクトの中心、細胞に含まれる所定物の重心、細胞に含まれる所定物を囲むオブジェクトの中心、及び細胞に内接するオブジェクトの中心等である。細胞に含まれる所定物は、例えば、核(細胞核)である。
図5は、上記の第3処理部130による第1実施形態に係る第2画像における領域ごとの細胞の重心を抽出する処理の例を説明する図である。図5に示すように、第3処理部130は、第2画像における領域ごとの細胞の座標から重心位置を算出する。第2画像は、上述したように、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度についても一定以上を担保できる。従って、第3処理部130は、一定以上の精度で細胞ごとの境界が確定できる第2画像を用いて、境界部分の座標、及び境界内部の座標等から、該第2画像における領域ごとの細胞の重心位置を高精度に算出する。図5では、各クラスに分類された細胞の重心位置を三角で示した例を挙げ、第2画像において重心位置を明示した重心位置画像としている。
図6は、第1実施形態に係る第2画像における領域ごとの細胞を囲むオブジェクトの中心を抽出する処理の例を説明する図である。なお、図6では、説明を簡易にするために、第2画像に含まれる1つの細胞Ce(1つのクラス)のみを例に挙げて説明する。図6に示すように、第3処理部130は、第2画像における領域ごとの細胞Ceを囲むオブジェクトObの座標を算出する。オブジェクトObは、1つの細胞(1つのクラス)に外接する図形であり、バウンディングボックス等を含む。バウンディングボックスは、例えば、図形を描く際に、該図形がちょうど入るのに要する大きさの矩形とする。オブジェクトObは、矩形でなくてもよく、楕円及び多角形等の任意の図形でよい。第3処理部130は、例えば、細胞Ceの輪郭(境界部分)から外郭の極大値をとることでオブジェクトObの座標を算出する。そして、第3処理部130は、オブジェクトObの座標から、オブジェクトObの中心位置IPを算出する。
第2画像は、上述したように、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度が高く、一定以上の高精度を担保できる。従って、第3処理部130は、一定以上の精度で細胞Ceごとの境界が確定できる第2画像を用いて、境界部分の座標から、該第2画像における領域ごとの細胞Ceに外接するオブジェクトObの座標を求めて、オブジェクトObの中心位置IPを算出する。図6では、オブジェクトObの中心位置IPを三角で示した例を挙げている。
図7は、第1実施形態に係る第2画像における領域ごとの細胞に含まれる核(細胞核)の重心を抽出する処理の例を説明する図である。なお、図7では、説明を簡易にするために、第2画像に含まれる1つの細胞Ce(1つのクラス)のみを例に挙げて説明する。図7に示すように、第3処理部130は、第2画像における領域ごとの細胞Ceに含まれる核CeN(細胞核)の座標から、核CeN(細胞核)の重心位置IPを算出する。
第2画像は、上述したように、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度が高く、一定以上の高精度を担保できる。また、第2画像は、核(細胞核)のセグメンテーションの精度も高く、一定以上の高精度を担保できる。従って、第3処理部130は、一定以上の精度で細胞Ceに含まれる核CeN(細胞核)の境界が確定できる第2画像を用いて、核CeN(細胞核)の座標から、該第2画像における領域ごとの細胞Ceに含まれる核CeN(細胞核)の重心位置IPを算出する。なお、図7では、核CeN(細胞核)の重心位置IPを三角で示した例を挙げている。
図8は、第1実施形態に係る第2画像における領域ごとの細胞に含まれる核(細胞核)を囲むオブジェクトの中心を抽出する処理の例を説明する図である。なお、図8では、説明を簡易にするために、第2画像に含まれる1つの細胞Ce(1つのクラス)のみを例に挙げて説明する。図8に示すように、第3処理部130は、第2画像における領域ごとの細胞Ceに含まれる核CeN(細胞核)を囲むオブジェクトObの座標を算出する。オブジェクトObは、核(細胞核)に外接する図形であり、バウンディングボックス等を含む。オブジェクトObは、矩形でなくてもよく、楕円及び多角形等の任意の図形でよい。第3処理部130は、例えば、核CeN(細胞核)の輪郭から外郭の極大値をとることでオブジェクトObの座標を算出する。そして、第3処理部130は、オブジェクトObの座標から、オブジェクトObの中心位置IPを算出する。
第2画像は、上述したように、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度が高く、一定以上の高精度を担保できる。また、第2画像は、核(細胞核)のセグメンテーションの精度も高く、一定以上の高精度を担保できる。従って、第3処理部130は、一定以上の精度で細胞Ceに含まれる核CeN(細胞核)の境界が確定できる第2画像を用いて、核CeN(細胞核)の座標から、核CeN(細胞核)に外接するオブジェクトObの座標を求めて、オブジェクトObの中心位置IPを算出する。図8では、オブジェクトObの中心位置IPを三角で示した例を挙げている。
図9は、第1実施形態に係る第2画像における領域ごとの細胞に内接するオブジェクトの中心を抽出する処理の例を説明する図である。なお、図9では、説明を簡易にするために、第2画像に含まれる1つの細胞Ce(1つのクラス)のみを例に挙げて説明する。図9に示すように、第3処理部130は、第2画像における領域ごとの細胞Ceに内接するオブジェクトObの座標を算出する。オブジェクトObは、1つの細胞(1つのクラス)に内接する図形であり、楕円、矩形、及び多角形等の任意の図形でよい。そして、第3処理部130は、オブジェクトObの座標から、オブジェクトObの中心位置IPを算出する。
また、対象物の形状によって、内接するオブジェクトObを表現できない場合は、以下の処理を実施する。第3処理部130は、例えば、細胞Ceの輪郭(境界部分)から、任意の2点(2座標)を抽出し、該2点を頂点(楕円であれば外周)に含む図形を、細胞Ceの輪郭方向に変形(拡張)したオブジェクトOb(細胞Ceに内接するオブジェクトOb)の座標を算出する。算出するオブジェクトObの座標は、例えば、矩形及び多角形であれば頂点座標であり、楕円であれば抽出した2点とは異なる外周上の2点以上の任意の座標とする。そして、第3処理部130は、オブジェクトObの座標から、オブジェクトObの中心位置IPを算出する。
第2画像は、上述したように、クラスのそれぞれについてのセグメンテーションの精度に加え、1つの細胞を1つのクラスに分類する精度が高く、一定以上の高精度を担保できる。従って、第3処理部130は、一定以上の精度で細胞Ceごとの境界が確定できる第2画像を用いて、境界部分の座標から、該第2画像における領域ごとの細胞Ceに内接するオブジェクトObの座標を求めて、オブジェクトObの中心位置IPを算出する。図9では、オブジェクトObの中心位置IPを三角で示した例を挙げている。
図3の説明に戻る。次に、第3処理部130は、生成した強調画像を2値化し、2値化した強調画像に対して、抽出した所定位置に基づく画像分割処理を実行する。画像分割処理は、例えば、ウォーターシェッド(Watershed)を含む。ウォーターシェッド(Watershed)は、画像中に含まれる複数の対象物を分離するアルゴリズムであり、接触する対象物であっても好適に分離することができる。画像分割処理は、ウォーターシェッド(Watershed)に限定されない。画像分割処理は、例えば、閾値法、グラフカット法、動的輪郭法、マルコフ確率場、クラスタリング(混合正規分布モデル近似、k平均法)等を含む。本実施形態では、ウォーターシェッド(Watershed)を採用する場合を例に挙げる。
図10は、第1実施形態に係るウォーターシェッドを適用した例を説明する図である。なお、図10では、所定位置として重心を抽出した重心位置画像を利用する場合を例に挙げる。図10に示すように、第3処理部130は、細胞領域から細胞境界を除去することで細胞を強調した強調画像を2値化する。そして、第3処理部130は、第2画像における領域ごとの細胞に対応する重心位置を抽出した重心位置画像に基づいて、2値化した強調画像に対してウォーターシェッド(Watershed)を適用し、1細胞ラベル画像を生成する。なお、第3処理部130は、2値化した強調画像に対してウォーターシェッド(Watershed)を適用することに限定されず、細胞領域のチャネル画像(細胞領域の確率値画像、図4参照)に対してウォーターシェッド(Watershed)を適用してもよい。つまり、第3処理部130は、細胞領域のチャネル画像をもとに、確率値を利用して細胞境界を決定し、細胞領域のチャネル画像から、決定した細胞境界を除去することで、上述した強調画像と同様の画像を得ることができる。
重心位置の利用に関して、第3処理部130は、例えば、細胞として表現される前景部に、2値化した強調画像に含まれる重心が存在すれば、該重心をシードとして、ウォーターシェッド(Watershed)を適用する。つまり、第3処理部130は、細胞として表現される前景部に重心が存在する場合に、細胞の尤もらしい重心であると認識する。シードとは、ウォーターシェッド(Watershed)適用の対象とすることを示す前景部に対するマークである。ウォーターシェッド(Watershed)では、シードを含む前景部に対して処理が実施される。一方、第3処理部130は、2値化した強調画像に含まれる細胞として表現される前景部に重心が存在しなければ、該重心を除去し(該重心をシードとして設定せず)、ウォーターシェッド(Watershed)を適用する。第3処理部130は、ウォーターシェッド(Watershed)が適用された処理結果画像として、複数の細胞から1つ1つの細胞に領域分離し各細胞をラベリングした1細胞ラベル画像を得る。これらの結果、第3処理部130は、2つ以上の細胞を区別して細胞を個別に認識することができる。なお、1細胞ラベル画像におけるラベリングは、1つ1つの細胞が領域分割されて1細胞(又は1細胞の境界)を他細胞(又は他細胞の境界)と区別して認識できればよい。
図3の説明に戻る。表示制御部140は、処理結果画像を表示部に表示する。例えば、表示制御部140は、第3処理部130が生成した処理結果画像である1細胞ラベル画像を受け付けて、受信した1細胞ラベル画像の表示パネル72への表示を制御する。ユーザは、表示パネル72に表示された1細胞ラベル画像を確認することができる。また、表示制御部140は、1細胞ラベル画像を、重心等の所定位置とともに表示してもよい。さらに、表示制御部140は、確率値に関する情報を表示してもよい。
ユーザは、表示パネル72に表示された1細胞ラベル画像を確認し、各細胞について、望ましい分離結果となっているかを確認する。確認の結果、ユーザは、望ましい分離結果となっていないと判断した細胞について、操作パネル71を利用し、画像における重心等の所定位置を修正する操作を行う。また、ユーザは、操作パネル71を利用し、画像における細胞(又は細胞領域)を分離する操作を行うこともできる。また、ユーザは、操作パネル71を利用し、画像における細胞(又は細胞領域)を合成する操作を行うこともできる。
実行部150は、処理結果画像の修正処理を実行する。例えば、実行部150は、ユーザ操作に応じた操作パネル71からの指令を受け付けて、重心等の所定位置の修正を実行する。図11は、第1実施形態に係る確率値に関する情報の例を示す図である。図12は、第1実施形態に係る画像における所定位置の修正例を説明する図である。なお、図12では、説明を簡易にするために、1つのクラスとされた細胞のみを例に挙げて説明する。
まず、ユーザは、表示制御部140の制御に従って表示パネル72に表示された1細胞ラベル画像(図12参照)と、確率値に関する情報(図11参照)とを確認する。ユーザは、画像における重心等の所定位置を修正すべきと考えた場合、1細胞ラベル画像における重心位置IPを修正する操作を行う。図12の上方に示す1細胞ラベル画像では、例えば、細胞Ceの中央付近に重心位置IPが配置された結果であることが分かる。ユーザは、確率値に関する情報も確認しながら、重心位置IPの修正を要すると認識する。図11に示す確率値に関する情報において、ユーザは、例えば、確率値のピークPA、PBが存在するにもかかわらず、細胞Ceに対して1つの重心位置IPのみが存在することを認識する。
ここで、ユーザは、1つの重心位置IPが存在する細胞Ceについて、実際には複数の細胞であると考える。図12の下方に示すように、ユーザは、操作パネル71を操作し、1つのクラスとしたい細胞CeAの重心位置IPAと、1つのクラスとしたい細胞CeBの重心位置IPBとを設定する。その後、ユーザは、修正処理を実行する操作(実行ボタン等のオブジェクトの押下)を行う。これらの結果、実行部150は、操作パネル71からの指令(例、信号)を受け付けて、画像における重心等の所定位置の修正を実行する。
図13は、第1実施形態に係る画像における細胞(又は細胞領域)の分離の例を説明する図である。なお、図13では、説明を簡易にするために、1つのクラスとされた細胞のみを例に挙げて説明する。まず、ユーザは、表示制御部140の制御に従って表示パネル72に表示された1細胞ラベル画像(図13参照)と、確率値に関する情報(図11参照)とを確認する。ユーザは、細胞を分離すべきと考えた場合、1細胞ラベル画像において分離する細胞を指定する操作を行う。図13の上方に示す1細胞ラベル画像では、例えば、細胞Ceが存在することが分かる。ユーザは、確率値に関する情報も確認しながら、細胞Ceの分離を要すると認識する。図11に示す確率に関する情報において、ユーザは、例えば、確率値のピークPA、PBが存在するにもかかわらず、細胞Ceを1つのクラスとしていることを認識する。
ここで、ユーザは、細胞Ceについて、実際には複数の細胞であると考える。図13の下方に示すように、ユーザは、操作パネル71を操作し、上記の処理によって1つのクラスとされた細胞Ceを、1つのクラスとしたい細胞CeAと、1つのクラスとしたい細胞CeBとに分ける線を引く。その後、ユーザは、修正処理を実行する操作(実行ボタン等のオブジェクトの押下)を行う。これらの結果、実行部150は、操作パネル71からの指令を受け付けて、1つのクラスとされた細胞を複数のクラスとする細胞に分離する処理を実行する。
図14は、第1実施形態に係る画像における細胞(又は細胞領域)の合成の例を説明する図である。なお、図14では、説明を簡易にするために、1つのクラスとされた細胞の2つを例に挙げて説明する。まず、ユーザは、表示制御部140の制御に従って表示パネル72に表示された1細胞ラベル画像(図14参照)を確認する。ユーザは、細胞を合成すべきと考えた場合、1細胞ラベル画像において合成する細胞を指定する操作を行う。図14の上方示す1細胞ラベル画像では、例えば、細胞CeAと細胞CeBとが存在することが分かる。ユーザは、細胞CeA及び細胞CeBの合成を要すると認識する。
図14の下方に示すように、ユーザは、操作パネル71を操作し、上記の処理によって1つのクラスとされた細胞CeAと、1つのクラスとされた細胞CeBとを、1つのクラスとしたい細胞Ceに合成する枠を設定する。その後、ユーザは、修正処理を実行する操作(実行ボタン等のオブジェクトの押下)を行う。これらの結果、実行部150は、操作パネル71からの指令を受け付けて、異なるクラスとされた細胞を1つのクラスとする細胞に合成する処理を実行する。
図3の説明に戻る。第3処理部130は、実行部150による実行結果に基づいて、画像に含まれる対象物のそれぞれの識別に関して再学習することが可能である。例えば、第3処理部130は、実行部150による実行結果である修正処理が実行された1細胞ラベル画像を取得する。そして、第3処理部130は、修正処理が実行された1細胞ラベル画像を利用して、細胞領域(ピクセル)及び細胞領域のバウンディングボックス等の再学習を実施する。つまり、再学習では、修正処理が実行された1細胞ラベル画像を入力とすることで、以降における細胞領域や細胞領域のバウンディングボックス等の、画像に含まれる対象物のそれぞれの識別に関しての精度を高めることができる。
図15は、第1実施形態に係る第1処理部における処理の流れの例を示すフローチャートである。ステップS101において、第1処理部110は、複数の細胞を含む画像を取得する。例えば、第1処理部110は、観察ユニット5の撮像装置55c等が撮影した顕微観察画像を取得する。
ステップS102において、第1処理部110は、細胞を1つのクラスに分類した第1画像を生成する。例えば、第1処理部110は、複数の細胞を含む顕微観察画像に対して、U−Net等のアルゴリズムを適用し、1つの細胞、又は2つ以上の細胞を1つのクラスに分類した第1画像を生成する。
図16は、第1実施形態に係る第2処理部における処理の流れの例を示すフローチャートである。ステップS201において、第2処理部120は、複数の細胞を含む画像を取得する。例えば、第2処理部120は、観察ユニット5の撮像装置55c等が撮像した顕微観察画像を取得する。
ステップS202において、第2処理部120は、細胞ごとの領域に分離した第2画像を生成する。例えば、第2処理部120は、複数の細胞を含む顕微観察画像に対して、Mask RCNN等のアルゴリズムを適用し、細胞ごとの領域に分離した第2画像を生成する。
図17は、第1実施形態に係る第3処理部における処理の流れの例を示すフローチャートである。ステップS301において、第3処理部130は、第1画像を取得する。例えば、第3処理部130は、第1処理部110が生成した第1画像を取得する。ステップS302において、第3処理部130は、第1画像をチャネルごとに分割する。例えば、第3処理部130は、第1チャネルを「背景」、第2チャネルを「細胞境界」、第3チャネルを「細胞領域」として、第1画像から、背景画像、細胞境界画像、及び細胞領域画像を生成する。
ステップS303において、第3処理部130は、細胞を強調した強調画像を生成する。例えば、第3処理部130は、細胞境界画像と細胞領域画像とを用いて、細胞領域から細胞境界を除去し、細胞を強調した強調画像を生成する。なお、第3処理部130は、細胞領域画像と確率値とに基づいて、細胞領域から細胞境界(確率値に基づいて決定された細胞境界)を除去することで得られる画像を利用してもよい。ステップS304において、第3処理部130は、強調画像を2値化する。
ステップS305において、第3処理部130は、第2画像を取得する。例えば、第3処理部130は、第2処理部120が生成した第2画像を取得する。ステップS306において、第3処理部130は、細胞ごとに重心を抽出する。例えば、第3処理部130は、第2画像における領域ごとの細胞の座標から、細胞ごとに重心位置を算出する。重心位置は、後で実行されるウォーターシェッド(Watershed)適用時に、シードとなる。
ステップS307において、第3処理部130は、重心が前景部に存在するかを判定する。ステップS307における処理は、全ての重心について実施される。例えば、第3処理部130は、細胞として表現される前景部に、2値化した強調画像に含まれる重心が存在する場合に(ステップS307:Yes)、ステップS309において、該重心をシードとして確定する。一方、第3処理部130は、細胞として表現される前景部に重心が存在しない場合に(ステップS307:No)、該重心を除去する。
ステップS310において、第3処理部130は、ウォーターシェッド(Watershed)を適用する。例えば、第3処理部130は、第2画像における領域ごとの細胞に対応する重心位置を抽出した重心位置画像に基づいて、2値化した強調画像に対してウォーターシェッド(Watershed)を適用し、1細胞ラベル画像を生成する。なお、利用される重心位置画像は、ステップS308において重心を除外した後の画像である。
このように、本実施形態における制御ユニット6又は処理装置100は、例えば、図10等で説明したように、第1処理部110、第2処理部120、及び第3処理部130を用いた細胞ごとのセグメンテーション処理(例、第1の処理、第2の処理、領域分割としてのウォーターシェッド処理)によって1細胞ラベル画像を生成できる。例えば、制御ユニット6又は処理装置100は、第1処理部110による第1の処理と、第2処理部120による第2の処理とをそれぞれ別々のプロセスとして並行処理し、その後に確率値に関する情報を用いた処理や第3処理部130のウォーターシェッド処理等によって1細胞ラベル画像を生成する。
図18は、第1実施形態に係る表示制御部及び実行部における処理の流れの例を示すフローチャートである。なお、図18では、主に、重心位置の修正処理を説明する。ステップS401において、表示制御部140は、第3処理部130が生成した1細胞ラベル画像を取得する。ステップS402において、表示制御部140は、重心位置とともに、1細胞ラベル画像を表示する。例えば、表示制御部140は、取得した1細胞ラベル画像を重心位置等とともに、表示パネル72に表示する制御を行う。このとき、表示制御部140は、確率値に関する情報も表示パネル72に表示させてもよい。ユーザは、表示パネル72に表示された1細胞ラベル画像等を確認する。また、ユーザは、操作パネル71を利用して、重心位置等を修正する操作を行う。
ステップS403において、実行部150は、重心位置を修正する。例えば、実行部150は、表示制御部140による1細胞ラベル画像等の表示後に、操作パネル71から、重心位置等の修正の指令を受け付ける。そして、実行部150は、1細胞ラベル画像における重心位置の修正を実行する。ステップS404において、第3処理部130は、再学習処理を実行する。例えば、第3処理部130は、実行部150による実行結果である修正処理が実行された1細胞ラベル画像を取得し、画像における対象物のそれぞれの識別に関する再学習を実施する。
図19は、第1実施形態に係る表示制御部及び実行部における処理の流れの例を示すフローチャートである。なお、図19では、主に、細胞の分離処理又は合成処理を説明する。ステップS501において、表示制御部140は、第3処理部130が生成した1細胞ラベル画像を取得する。ステップS502において、表示制御部140は、1細胞ラベル画像を表示する。例えば、表示制御部140は、取得した1細胞ラベル画像を、重心位置、及び確率値に関する情報等とともに、表示パネル72に表示する制御を行う。ユーザは、表示パネル72に表示された1細胞ラベル画像等を確認する。また、ユーザは、操作パネル71を利用して、画像における細胞を分離、及び合成する操作を行う。
ステップS503において、実行部150は、細胞の分離処理(合成処理)を実行する。例えば、実行部150は、表示制御部140による1細胞ラベル画像等の表示後に、操作パネル71から、細胞の分離、及び合成の指令を受け付ける。そして、実行部150は、1細胞ラベル画像において指定された細胞の分離、及び合成を実行する。ステップS504において、第3処理部130は、再学習処理を実行する。例えば、第3処理部130は、実行部150による実行結果である細胞の分離、及び合成が実行された1細胞ラベル画像を取得し、画像における対象物のそれぞれの識別に関する再学習を実施する。
[第2実施形態]
次に、第2実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
図20は、第2実施形態に係る情報処理システムの構成例を示す図である。図20に示すように、情報処理システムSYSは、ユーザ端末としての端末装置80と、サーバとしての処理装置100と、培養システムBSとを有する。端末装置80と、処理装置100とは、ネットワークNを介して、相互に通信可能に接続される。ネットワークNは、例えば、インターネット、移動体通信網、及びローカルネットワークのいずれであってもよく、これらの複数種類のネットワークが組み合わされたネットワークであってもよい。なお、培養システムBS内には、上記実施形態で説明した構成とは異なり、処理装置100が含まれていなくてよい。
端末装置80は、複数のゲートウェイ装置80aで構成される。ゲートウェイ装置80aは、培養システムBSと有線又は無線により接続される。なお、情報処理システムSYSでは、複数の培養システムBSが端末装置80を介して処理装置100に接続される構成としているが、これに限られず、単数の培養システムBSが端末装置80を介して処理装置100に接続される構成でもよい。また、処理装置100は、情報処理システムSYSにおいて、複数設けられていてもよいし、単数であってもよい。また、各処理装置100には、上記実施形態で説明した各種の機能が、全て含まれてもよいし、分散的に含まれてもよい。また、本実施形態の処理装置100は、上述した構成(第1処理部110、第2処理部120、第3処理部130、表示制御部140、及び実行部150の少なくとも1つ又は全て)に加え、制御ユニット6の各構成(CPU61、ROM62、RAM63)、通信部65を備える。つまり、本実施形態に係る処理装置100は、クラウドコンピューティングにより実現することができる。
情報処理システムSYSでは、ユーザ側の端末(ユーザ端末)となる培養システムBS又は端末装置80から、撮影した画像を処理装置100に送信し、処理装置100側で解析を行い、解析情報をユーザへ提供する。例えば、サーバとしての処理装置100は、取得部(例、通信部65)において、ネットワークNを介して、複数の対象物を含む画像を、端末装置80又は培養システムBSから取得する。そして、処理装置100は、第1処理部110において、複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成する。また、処理装置100は、第2処理部120において、複数の対象物を含む画像に基づいて、対象物ごとの領域に分離した第2画像を生成する。そして、処理装置100は、第3処理部130において、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別した情報を含む解析情報を生成する。その後、処理装置100は、出力部(例、CPU61)において、第3処理部130が生成した解析情報を、ネットワークNを介して、端末装置80又は培養システムBSに出力する。
上述してきた実施形態において、処理装置100は、例えば、コンピュータシステムを含む。処理装置100は、ROM62に記憶された処理プログラムを読み出し、読み出した処理プログラムに従って各種の処理を実行する。かかる処理プログラムは、例えば、コンピュータに、複数の対象物を含む画像に基づいて、対象物を1つのクラスに分類した第1画像を生成することと、画像に基づいて、対象物ごとの領域に分離した第2画像を生成することと、第1画像と第2画像とに基づいて、画像に含まれる対象物のそれぞれを識別することと、を実行させる。この処理プログラムは、コンピュータ読み取り可能な記憶媒体(例えば、非一時的な記憶媒体、non‐transitory tangible media)に記録されて提供されてもよい。
なお、技術範囲は、上述した実施形態等で説明した態様に限定されるものではない。上述した実施形態等で説明した要件の1つ以上は、省略されることがある。また、上述した実施形態等で説明した要件は、適宜、組み合わせることができる。また、法令で許容される限りにおいて、上述した実施形態等で引用した全ての文献の開示を援用して本文の記載の一部とする。
BS・・・培養システム、2・・・培養室、3・・・ストッカ、4・・・搬送ユニット、5・・・観察ユニット、6・・・制御ユニット、7・・・操作盤、54c・・・撮像装置、55c・・・撮像装置、71・・・操作パネル、72・・・表示パネル、100・・・処理装置、110・・・第1処理部、120・・・第2処理部、130・・・第3処理部、140・・・表示制御部、150・・・実行部

Claims (26)

  1. 複数の対象物を含む画像に基づいて、前記対象物を1つのクラスに分類した第1画像を生成する第1処理部と、
    前記画像に基づいて、前記対象物ごとの領域に分離した第2画像を生成する第2処理部と、
    前記第1画像と前記第2画像とに基づいて、前記画像に含まれる前記対象物のそれぞれを識別する第3処理部と、
    を備える、処理装置。
  2. 前記1つのクラスには、2つ以上の前記対象物が含まれる、請求項1に記載の処理装置。
  3. 前記第3処理部は、異なる前記対象物である確率を示す確率値に関する情報を用いて、前記画像に含まれる前記対象物のそれぞれを識別する、請求項1又は請求項2に記載の処理装置。
  4. 前記第3処理部は、前記第2画像における前記領域ごとの前記対象物に対応する所定位置を抽出する、請求項1から請求項3のいずれか一項に記載の処理装置。
  5. 前記第3処理部は、前記第1画像に対して、前記所定位置に基づく画像分割処理を実行する、請求項4に記載の処理装置。
  6. 前記第3処理部は、ウォーターシェッドを含む前記画像分割処理を実行する、請求項5に記載の処理装置。
  7. 前記所定位置は、前記対象物の重心であり、
    前記第3処理部は、前記第2画像から抽出した前記対象物の前記重心に基づいて、前記第1画像に対して前記画像分割処理を実行する、請求項5又は請求項6に記載の処理装置。
  8. 前記所定位置は、前記対象物を囲むオブジェクトの中心であり、
    前記第3処理部は、前記第2画像から抽出した前記対象物を囲む前記オブジェクトの中心に基づいて、前記第1画像に対して前記画像分割処理を実行する、請求項5又は請求項6に記載の処理装置。
  9. 前記所定位置は、前記対象物に含まれる所定物の重心であり、
    前記第3処理部は、前記第2画像から抽出した前記対象物に含まれる前記所定物の前記重心に基づいて、前記第1画像に対して前記画像分割処理を実行する、請求項5又は請求項6に記載の処理装置。
  10. 前記所定位置は、前記対象物に含まれる所定物を囲むオブジェクトの中心であり、
    前記第3処理部は、前記第2画像から抽出した前記所定物を囲む前記オブジェクトの中心に基づいて、前記第1画像に対して前記画像分割処理を実行する、請求項5又は請求項6に記載の処理装置。
  11. 前記所定位置は、前記対象物に内接するオブジェクトの中心であり、
    前記第3処理部は、前記第2画像から抽出した前記対象物に内接する前記オブジェクトの中心に基づいて、前記第1画像に対して前記画像分割処理を実行する、請求項5又は請求項6に記載の処理装置。
  12. 前記第3処理部は、前記第1画像をチャネルごとに分割し、2以上のチャネル画像に基づいて、前記対象物を強調した強調画像を生成し、生成した前記強調画像に対して、前記画像分割処理を実行する、請求項5から請求項11のいずれか一項に記載の処理装置。
  13. 前記第3処理部は、前記第1画像に基づいて、前記対象物の領域に対応する領域画像を生成し、前記領域画像から、異なる前記対象物である確率を示す確率値に基づく前記対象物の境界を除去し、前記対象物の前記境界を除去した前記領域画像を、前記対象物を強調した強調画像として、前記強調画像に対して前記画像分割処理を実行する、請求項5から請求項11のいずれか一項に記載の処理装置。
  14. 前記第3処理部は、前記強調画像を2値化し、2値化した前記強調画像に対して、前記画像分割処理を実行する、請求項12又は請求項13に記載の処理装置。
  15. 前記画像分割処理が実行された処理結果画像を表示部に表示する表示制御部と、
    ユーザの指示に基づいて、前記処理結果画像の修正処理を実行する実行部と、を備える、請求項5から請求項14のいずれか一項に記載の処理装置。
  16. 前記表示制御部は、前記処理結果画像を前記所定位置とともに表示し、
    前記実行部は、前記処理結果画像における前記所定位置を修正する、請求項15に記載の処理装置。
  17. 前記実行部は、前記処理結果画像において識別された前記対象物を分離する、請求項15又は請求項16に記載の処理装置。
  18. 前記実行部は、前記処理結果画像において識別された前記対象物を合成する、請求項15から請求項17のいずれか一項に記載の処理装置。
  19. 前記表示制御部は、異なる前記対象物である確率を示す確率値に関する情報を表示する、請求項15から請求項18のいずれか一項に記載の処理装置。
  20. 前記第3処理部は、前記実行部による実行結果に基づいて、前記画像に含まれる前記対象物のそれぞれの識別に関して再学習する、請求項15から請求項19のいずれか一項に記載の処理装置。
  21. 複数の対象物を含む画像に基づいて、前記対象物を1つのクラスに分類した第1画像を生成することと、
    前記画像に基づいて、前記対象物ごとの領域に分離した第2画像を生成することと、
    前記第1画像と前記第2画像とに基づいて、前記画像に含まれる前記対象物のそれぞれを識別することと、
    を含む、処理方法。
  22. コンピュータに、
    複数の対象物を含む画像に基づいて、前記対象物を1つのクラスに分類した第1画像を生成することと、
    前記画像に基づいて、前記対象物ごとの領域に分離した第2画像を生成することと、
    前記第1画像と前記第2画像とに基づいて、前記画像に含まれる前記対象物のそれぞれを識別することと、
    を実行させる、処理プログラム。
  23. 対象物の画像を取得する観察装置であって、
    請求項1から請求項20のいずれか一項に記載の処理装置を備える、観察装置。
  24. 対象物を収容して培養する培養装置であって、
    請求項23に記載の観察装置を備える、培養装置。
  25. 対象物を収容して培養する培養装置を含む培養システムであって、
    前記対象物の画像を取得する観察装置と、
    請求項1から請求項20のいずれか一項に記載の処理装置とが、ネットワークを介して接続される、培養システム。
  26. クラウドコンピューティングによりユーザ端末に解析情報を出力する情報処理システムであって、
    サーバを備え、
    前記サーバは、
    ネットワークを介して、複数の対象物を含む画像を取得する取得部と、
    前記画像に基づいて、前記対象物を1つのクラスに分類した第1画像を生成する第1処理部と、
    前記画像に基づいて、前記対象物ごとの領域に分離した第2画像を生成する第2処理部と、
    前記第1画像と前記第2画像とに基づいて、前記画像に含まれる前記対象物のそれぞれを識別した情報を含む前記解析情報を生成する第3処理部と、
    前記ネットワークを介して、前記解析情報を前記ユーザ端末に出力する出力部と、
    を備える、情報処理システム。
JP2019169835A 2019-09-18 2019-09-18 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム Pending JP2021045077A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169835A JP2021045077A (ja) 2019-09-18 2019-09-18 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169835A JP2021045077A (ja) 2019-09-18 2019-09-18 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2021045077A true JP2021045077A (ja) 2021-03-25
JP2021045077A5 JP2021045077A5 (ja) 2022-08-26

Family

ID=74876173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169835A Pending JP2021045077A (ja) 2019-09-18 2019-09-18 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム

Country Status (1)

Country Link
JP (1) JP2021045077A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013319A1 (ja) * 2009-07-31 2011-02-03 株式会社ニコン 細胞塊の成熟判定手法、この手法を用いた画像処理プログラム及び画像処理装置、並びに細胞塊の製造方法
WO2013145589A1 (ja) * 2012-03-26 2013-10-03 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
US20180336454A1 (en) * 2017-05-19 2018-11-22 General Electric Company Neural network systems
JP2018205800A (ja) * 2017-05-30 2018-12-27 株式会社東芝 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
JP2019091307A (ja) * 2017-11-15 2019-06-13 大日本印刷株式会社 コンピュータプログラム、検出装置、撮像装置、サーバ、画像データ、検出器、検出方法及び提供方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013319A1 (ja) * 2009-07-31 2011-02-03 株式会社ニコン 細胞塊の成熟判定手法、この手法を用いた画像処理プログラム及び画像処理装置、並びに細胞塊の製造方法
WO2013145589A1 (ja) * 2012-03-26 2013-10-03 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
US20180336454A1 (en) * 2017-05-19 2018-11-22 General Electric Company Neural network systems
JP2018205800A (ja) * 2017-05-30 2018-12-27 株式会社東芝 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
JP2019091307A (ja) * 2017-11-15 2019-06-13 大日本印刷株式会社 コンピュータプログラム、検出装置、撮像装置、サーバ、画像データ、検出器、検出方法及び提供方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
PHAM, VIET-QUOC ET AL.: ""BiSeg: Simultaneous Instance Segmentation and Semantic Segmentation with Fully Convolutional Networ", ARXIV, [ONLINE], JPN6023025988, 18 July 2017 (2017-07-18), pages 1 - 12, ISSN: 0005091429 *
TOKUOKA, YUTA ET AL.: ""Convolutional Neural Network-Based Instance Segmentation Algorithm to Acquire Quantitative Criteria", BIORXIV, [ONLINE], JPN6023025991, 1 June 2018 (2018-06-01), ISSN: 0005091433 *
VIGUERAS-GUILLEN, J. P. ET AL.: ""Fully convolutional architecture vs sliding-window CNN for corneal endothelium cell segmentation"", BMC BIOMED. ENG., vol. Vol. 1: 4, JPN6023025992, 30 January 2019 (2019-01-30), pages 1 - 16, ISSN: 0005091432 *
WANG, WEIKANG ET AL.: ""Learn to segment single cells with deep distance estimator and deep cell detector"", COMPUT. BIOL. MED., vol. 108, JPN6023025989, 8 April 2019 (2019-04-08), pages 133 - 141, ISSN: 0005091430 *
WANG, Y. ET AL.: ""Segmentation of clustered cells in negative phase contrast images with integrated light intensity a", J. MICROSC., vol. 270, JPN6023025990, 2018, pages 188 - 199, ISSN: 0005091431 *

Similar Documents

Publication Publication Date Title
US10977788B2 (en) Image analysis method, image analysis apparatus, and image analysis program for analyzing cell with deep learning algorithm
US8588504B2 (en) Technique for determining the state of a cell aggregation image processing program and image processing device using the technique, and method for producing a cell aggregation
CN112818975A (zh) 文本检测模型训练方法及装置、文本检测方法及装置
CN108197525A (zh) 人脸图像生成方法及装置
WO2014030380A1 (ja) 画像処理装置、プログラム、画像処理方法及びコンピュータ読み取り媒体並びに画像処理システム
CN113793336B (zh) 一种检测血细胞的方法、装置、设备及可读存储介质
WO2017221592A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN110462645A (zh) 具有更新能力的传感器数据处理器
KR20190106853A (ko) 텍스트 인식 장치 및 방법
JP5274731B1 (ja) 観察システム、プログラム及び観察システムの制御方法
WO2010146802A1 (ja) 細胞塊の状態判別手法、この手法を用いた画像処理プログラム及び画像処理装置、並びに細胞塊の製造方法
JP2013201909A (ja) 細胞画像判定装置、方法、並びにプログラム
CN110619656A (zh) 基于双目摄像头的人脸检测跟踪方法、装置及电子设备
JP2021184766A (ja) 細胞観察装置及び細胞観察方法
CN115439456A (zh) 一种病理图像中对象检测识别方法及装置
KR102084683B1 (ko) 인공신경망을 이용한 세포 영상 분석 방법 및 세포 영상 처리 장치
CN112052730A (zh) 一种3d动态人像识别监控设备及方法
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
JP2021045077A (ja) 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム
CN116152576B (zh) 图像处理方法、装置、设备及存储介质
CN112087590A (zh) 图像处理方法、装置、系统及计算机存储介质
WO2021065937A1 (ja) 機械学習装置
CN113763315B (zh) 玻片图像的信息获取方法、装置、设备及介质
CN111291758B (zh) 用于识别印章文字的方法和装置
CN110705633A (zh) 目标物检测、目标物检测模型的建立方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219