JP2014085949A - Cell behaviour analysis device, cell behaviour analysis method, and program - Google Patents

Cell behaviour analysis device, cell behaviour analysis method, and program Download PDF

Info

Publication number
JP2014085949A
JP2014085949A JP2012236054A JP2012236054A JP2014085949A JP 2014085949 A JP2014085949 A JP 2014085949A JP 2012236054 A JP2012236054 A JP 2012236054A JP 2012236054 A JP2012236054 A JP 2012236054A JP 2014085949 A JP2014085949 A JP 2014085949A
Authority
JP
Japan
Prior art keywords
cell
region
area
feature amount
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012236054A
Other languages
Japanese (ja)
Other versions
JP6116044B2 (en
Inventor
Tatsuma Bise
竜馬 備瀬
Yoshitaka Maeda
賀隆 前田
Masahiro Kinooka
正博 紀ノ岡
Yoshimi Kin
美海 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Osaka University NUC
Original Assignee
Dai Nippon Printing Co Ltd
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd, Osaka University NUC filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012236054A priority Critical patent/JP6116044B2/en
Publication of JP2014085949A publication Critical patent/JP2014085949A/en
Application granted granted Critical
Publication of JP6116044B2 publication Critical patent/JP6116044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a cell behavior analysis device or the like capable of facilitating a highly accurate automatic tracking by classifying a detected cell candidate area into a clear area and a non-clear area and executing an automatic tracking for the clear area high in cell detection accuracy based on a calculated feature quantity even under high density condition in which a number of non-clear areas of the cell are available.SOLUTION: A cell behavior analysis device 1 extracts a cell candidate area using a binarized image of a time lapse image which is applied with cell image processing (S1), and executes feature quantity calculation processing for each cell candidate area (S2). The cell behavior analysis device 1 calculates an area size, a luminance value distribution, and a curvature distribution of the cell candidate area, and prepares a high dimensional feature vector based on the calculated feature quantity (S3). The cell behavior analysis device 1 extracts a cell area among the cell candidate areas based on the feature vector (S5). The cell behavior analysis device 1 executes automatic tracking processing for the extracted cell area.

Description

本発明は、細胞を撮影した画像に基づいて細胞の挙動を解析する細胞挙動解析装置等に関するものである。   The present invention relates to a cell behavior analysis apparatus that analyzes the behavior of a cell based on an image obtained by photographing the cell.

近年、生物、医療の分野において、一定の時間間隔ごとに所定の領域に含まれる細胞を撮影した画像(以下、「タイムラプス画像」と表記)に基づいて、コンピュータにより細胞の挙動を解析する技術が開発されている。このような分野において、細胞形状や細胞の移動速度等の解析を行うために、個々の細胞を自動追跡したいという要望がある。   2. Description of the Related Art In recent years, in the field of biology and medicine, there has been a technology for analyzing cell behavior by a computer based on an image obtained by photographing cells included in a predetermined area at regular time intervals (hereinafter referred to as “time-lapse image”). Has been developed. In such a field, there is a demand to automatically track individual cells in order to analyze cell shape, cell moving speed, and the like.

非特許文献1では、位相差像を利用してフレームごとに細胞検出を行い、時系列が連続するフレーム間で検出された細胞の対応付けを行うことで、細胞の自動追跡を行い、細胞検出結果に基づいて細胞死を検出する手法が提案されている。また、非特許文献2では、個々の細胞の自動追跡結果を用いて、細胞分裂や細胞の重なり等を検知する手法が提案されている。   In Non-Patent Document 1, cell detection is performed for each frame using a phase difference image, and cells are automatically tracked by associating cells detected between frames in which time series are continuous, thereby detecting cells. Techniques for detecting cell death based on the results have been proposed. Non-Patent Document 2 proposes a method of detecting cell division, cell overlap, and the like using the result of automatic tracking of individual cells.

O.Al-Kofahi,R.Radke,S.Goderie,Q.Shen,S.Temple,and B.Roysam,“Automated cell lineage construction:A rapid method to analyze clonaldevelopment established with murine neural progenitor cells,”Cell Cyclevol.5,no.3,pp.327-335,2006.O. Al-Kofahi, R. Radke, S. Goderie, Q. Shen, S. Temple, and B. Roysam, “Automated cell lineage construction: A rapid method to analyze clonaldevelopment established with murine neural progenitor cells,” Cell Cyclevol. 5, no. 3, pp. 327-335, 2006. Takeo Kanade,Zhaozheng Yin,Ryoma Bise,Seungil Huh,Sungeun Eom,MichaelSandbothe and Mei Chen,“Cell ImageAnalysis:Algorithms,System and Applications,”IEEE WACV2011.Takeo Kanade, Zhaozheng Yin, Ryoma Bise, Seungil Huh, Sungeun Eom, Michael Sandbothe and Mei Chen, “Cell ImageAnalysis: Algorithms, System and Applications,” IEEE WACV2011.

ところで、細胞密度が高い条件下では、同時刻のタイムラプス画像において、細胞の輪郭が比較的鮮明である領域と、細胞同士がくっ付き境界が曖昧な領域が混在する。そのため、細胞の輪郭が不鮮明な領域での細胞検出精度が著しく悪く、自動追跡結果は、エラーデータを含む可能性が高まる。ここで、自動追跡結果のデータがエラーデータであるとは、例えば、フレーム間の細胞の対応付けを誤って、途中から異なる細胞の移動軌跡が含まれてしまったり、対象の細胞を見失ってしまい、移動軌跡が途中までしか含まれていなかったりすることである。このようなエラーデータを母集団に含めて、細胞の挙動を解析するため統計量を算出すると、正しい統計量が得られず、自動追跡結果の精度が低下する。
特に、再生医療分野においては、移植用の成熟細胞を培養するため、細胞密度が高い条件下で且つ非侵襲(非染色)画像において、個々の細胞を高精度で自動追跡可能な細胞挙動解析装置等が望まれている。
By the way, under the condition where the cell density is high, in the time-lapse image at the same time, there are a region where the outline of the cell is relatively clear and a region where the cells are stuck together and the boundary is ambiguous. For this reason, the accuracy of cell detection in a region where the outline of the cell is unclear is extremely poor, and the possibility that the automatic tracking result includes error data increases. Here, the data of the automatic tracking result is error data. For example, the cell correspondence between frames is mistakenly included, and the movement trajectory of a different cell is included in the middle, or the target cell is lost. The movement trajectory is included only halfway. If such error data is included in the population and a statistic is calculated to analyze the behavior of the cell, a correct statistic cannot be obtained and the accuracy of the automatic tracking result decreases.
In particular, in the field of regenerative medicine, mature cell cells for transplantation are cultured, so that a cell behavior analysis apparatus that can automatically track individual cells with high accuracy in non-invasive (non-stained) images under conditions of high cell density. Etc. are desired.

非特許文献1に記載の技術では、細胞の輪郭が曖昧な領域が多く存在する高密度条件下では細胞検出の精度が著しく低く、高精度での自動追跡が難しい。非特許文献2に記載の技術では、細胞の重なりを検知できるが、2〜3個程度にしか対応できないため、高密度条件下での個々の細胞の自動追跡には課題が残る。   In the technique described in Non-Patent Document 1, the accuracy of cell detection is extremely low under high density conditions where there are many regions where the outline of the cell is ambiguous, and automatic tracking with high accuracy is difficult. Although the technique described in Non-Patent Document 2 can detect the overlap of cells, it can cope with only about 2 to 3 cells, so that there remains a problem in automatic tracking of individual cells under high-density conditions.

本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、細胞の不鮮明領域が多く存在する高密度条件下においても、算出した特徴量に基づいて、検出した細胞候補領域を鮮明領域と不鮮明領域に分類して、細胞検出精度が高い鮮明領域に対して自動追跡を実行することで、高精度の自動追跡が可能になる細胞挙動解析装置等を提供することである。   The present invention has been made in view of the above-described problems. The object of the present invention is to detect a cell candidate detected based on the calculated feature amount even under a high-density condition where there are many unclear areas of cells. It is intended to provide a cell behavior analysis device and the like that can perform automatic tracking with high accuracy by classifying a region into a clear region and a blurred region and performing automatic tracking on a clear region with high cell detection accuracy. .

前述した課題を解決するため第1の発明は、タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出手段と、検出した前記細胞候補領域に対して特徴量を算出する特徴量算出手段と、算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出手段と、時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出手段と、算出した前記尤度に基づいて前記対応付けの組合せの最適解を特定する最適解特定手段と、特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶手段と、を具備することを特徴とする細胞挙動解析装置である。
第1の発明によれば、タイムラプス画像のフレームごとに細胞候補領域を検出し、検出された各々の細胞候補領域細胞に対して特徴量を算出し、特徴量に基づいて細胞候補領域を輪郭が鮮明な領域と不鮮明な領域とに分類して、輪郭が鮮明な領域を細胞領域として抽出する。時系列が連続するフレームの細胞領域同士が対応付けられる尤度を算出し、尤度に基づいて対応付けの組合せの最適解を求めることで、細胞の自動追跡を実行する。これにより、細胞検出が正しく機能している領域に対して自動追跡することとなり、輪郭が曖昧な領域における細胞検出時のエラー(細胞が存在しない領域が検出される過検出エラー、細胞が存在する領域が検出されない未検出エラー)の影響を抑えられる。従って、細胞の輪郭が不鮮明な領域が多く存在する高密度条件下においても、高い精度で個々の細胞を自動追跡することが可能となる。また、成熟培養においては、成熟度が低い領域では細胞の輪郭が曖昧であり、成熟度が高くなるにつれて細胞の輪郭がはっきりするという特徴があり、これらの領域を分離することで品質管理に繋がる。
In order to solve the above-described problem, the first invention is directed to a cell candidate region detection unit that detects a cell candidate region of each cell in the time lapse image for each frame of the time lapse image, and to the detected cell candidate region. A feature amount calculating means for calculating the feature amount, a cell region extracting means for extracting a cell region from the cell candidate region based on the calculated feature amount, and extraction for two consecutive frames in time series A likelihood calculating means for calculating a likelihood of association between the cell regions; an optimal solution specifying means for specifying an optimal solution of the association combination based on the calculated likelihood; and the specified optimal solution And a storage means for storing tracking result data in which position information of the cell region included in is stored in chronological order.
According to the first invention, the cell candidate region is detected for each frame of the time-lapse image, the feature amount is calculated for each detected cell candidate region cell, and the cell candidate region is contoured based on the feature amount. The area is classified into a clear area and an unclear area, and an area with a clear outline is extracted as a cell area. Automatic likelihood tracking is performed by calculating the likelihood that cell regions of frames with continuous time series are associated with each other, and obtaining an optimal solution for the combination of associations based on the likelihood. As a result, an area in which cell detection is functioning correctly is automatically tracked, and an error at the time of cell detection in an area where the outline is ambiguous (overdetection error in which an area where no cell exists is detected, cells exist) The influence of an undetected error in which no area is detected can be suppressed. Therefore, it is possible to automatically track individual cells with high accuracy even under high-density conditions where there are many regions where the cell outline is unclear. In mature culture, the outline of the cell is ambiguous in the low-maturity region, and the outline of the cell becomes clear as the maturity level is high. Separating these regions leads to quality control. .

また、前記特徴量算出手段は、前記細胞候補領域の輝度分布に関する指標と、前記細胞候補領域の曲率分布に関する指標とを用いて、前記特徴量を算出することが望ましい。
これにより、個々の細胞候補領域の形状を特徴量として算出し、細胞候補領域を細胞の輪郭が鮮明な領域と不鮮明な領域とに識別することが可能となる。
In addition, it is preferable that the feature amount calculation unit calculates the feature amount using an index related to the luminance distribution of the cell candidate region and an index related to the curvature distribution of the cell candidate region.
Thereby, the shape of each cell candidate region can be calculated as a feature amount, and the cell candidate region can be identified as a region where the outline of the cell is clear and a region where the cell outline is unclear.

また、前記細胞領域抽出手段は、予め定められた複数の特徴ベクトルである正解データから、前記細胞候補領域を鮮明領域と不鮮明領域とに分類する識別器を作成し、前記細胞候補領域に対して算出した前記特徴量から前記特徴ベクトルを作成し、前記識別器によって、作成した前記特徴ベクトルが前記鮮明領域に分類された場合に、当該特徴ベクトルに係る前記細胞候補領域を前記細胞領域とすることが望ましい。機械学習の手法により、細胞候補領域を鮮明領域と不鮮明領域とに分類することができる。
機械学習の手法により、細胞候補領域を鮮明領域と不鮮明領域とに分類することができる。
Further, the cell region extraction means creates a discriminator for classifying the cell candidate region into a clear region and an unclear region from correct data that is a plurality of predetermined feature vectors, and for the cell candidate region The feature vector is created from the calculated feature quantity, and when the created feature vector is classified into the clear region by the classifier, the cell candidate region related to the feature vector is set as the cell region. Is desirable. The cell candidate area can be classified into a clear area and an unclear area by the machine learning technique.
The cell candidate area can be classified into a clear area and an unclear area by the machine learning technique.

第2の発明は、タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出ステップと、検出した前記細胞候補領域に対して特徴量を算出する特徴量算出ステップと、算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出ステップと、時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出ステップと、算出した前記尤度に基づいて前記対応付けの組合せの最適解を特定する最適解特定ステップと、特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶ステップと、を含むことを特徴とする細胞挙動解析方法である。
第2の発明によれば、タイムラプス画像のフレームごとに細胞候補領域を検出し、検出された各々の細胞候補領域細胞に対して特徴量を算出し、特徴量に基づいて細胞候補領域を輪郭が鮮明な領域と不鮮明な領域とに分類して、輪郭が鮮明な領域を細胞領域として抽出する。時系列が連続するフレームの細胞領域同士が対応付けられる尤度を算出し、尤度に基づいて対応付けの組合せの最適解を求めることで、細胞の自動追跡を実行する。これにより、細胞検出が正しく機能している領域に対して自動追跡することとなり、輪郭が曖昧な領域における細胞検出時のエラー(細胞が存在しない領域が検出される過検出エラー、細胞が存在する領域が検出されない未検出エラー)の影響を抑えられる。従って、細胞の輪郭が不鮮明な領域が多く存在する高密度条件下においても、高い精度で個々の細胞を自動追跡することが可能となる。また、成熟培養においては、成熟度が低い領域では細胞の輪郭が曖昧であり、成熟度が高くなるにつれて細胞の輪郭がはっきりするという特徴があり、これらの領域を分離することで品質管理に繋がる。
According to a second aspect of the present invention, for each frame of the time-lapse image, a cell candidate region detection step for detecting a cell candidate region of each cell in the time-lapse image, and a feature amount is calculated for the detected cell candidate region. A step of calculating a quantity, a step of extracting a cell area from the candidate cell areas based on the calculated feature quantity, and a correspondence between the cell areas extracted for two consecutive frames in time series A likelihood calculating step of calculating a likelihood of attaching, an optimal solution specifying step of specifying an optimal solution of the association combination based on the calculated likelihood, and a cell region included in the specified optimal solution And a storage step of storing tracking result data in which position information is stored in time series order.
According to the second invention, the cell candidate region is detected for each frame of the time-lapse image, the feature amount is calculated for each detected cell candidate region cell, and the cell candidate region is contoured based on the feature amount. The area is classified into a clear area and an unclear area, and an area with a clear outline is extracted as a cell area. Automatic likelihood tracking is performed by calculating the likelihood that cell regions of frames with continuous time series are associated with each other, and obtaining an optimal solution for the combination of associations based on the likelihood. As a result, an area in which cell detection is functioning correctly is automatically tracked, and an error at the time of cell detection in an area where the outline is ambiguous (overdetection error in which an area where no cell exists is detected, cells exist) The influence of an undetected error in which no area is detected can be suppressed. Therefore, it is possible to automatically track individual cells with high accuracy even under high-density conditions where there are many regions where the cell outline is unclear. In mature culture, the outline of the cell is ambiguous in areas where the maturity is low, and the outline of the cell becomes clear as the maturity becomes high. Separating these areas leads to quality control. .

第3の発明は、コンピュータに、タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出ステップと、検出した前記細胞候補領域に対して特徴量を算出する特徴量算出ステップと、算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出ステップと、時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出ステップと、算出した前記尤度に基づいて前記対応付けの組合せ集合の最適解を特定する最適解特定ステップと、特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶ステップと、を実行させるためのプログラムである。
第3の発明によれば、タイムラプス画像のフレームごとに細胞候補領域を検出し、検出された各々の細胞候補領域細胞に対して特徴量を算出し、特徴量に基づいて細胞候補領域を輪郭が鮮明な領域と不鮮明な領域とに分類して、輪郭が鮮明な領域を細胞領域として抽出する。時系列が連続するフレームの細胞領域同士が対応付けられる尤度を算出し、尤度に基づいて対応付けの組合せの最適解を求めることで、細胞の自動追跡を実行する。これにより、細胞検出が正しく機能している領域に対して自動追跡することとなり、輪郭が曖昧な領域における細胞検出時のエラー(細胞が存在しない領域が検出される過検出エラー、細胞が存在する領域が検出されない未検出エラー)の影響を抑えられる。従って、細胞の輪郭が不鮮明な領域が多く存在する高密度条件下においても、高い精度で個々の細胞を自動追跡することが可能となる。また、成熟培養においては、成熟度が低い領域では細胞の輪郭が曖昧であり、成熟度が高くなるにつれて細胞の輪郭がはっきりするという特徴があり、これらの領域を分離することで品質管理に繋がる。
According to a third aspect of the present invention, in a computer, a cell candidate region detection step of detecting a cell candidate region of each cell in the time lapse image for each frame of the time lapse image, and a feature amount for the detected cell candidate region. A feature amount calculating step for calculating, a cell region extracting step for extracting a cell region from the cell candidate regions based on the calculated feature amount, and the cell region extracted for two consecutive frames in time series A likelihood calculating step for calculating a likelihood of association between each other, an optimal solution specifying step for specifying an optimal solution of the combination set of the association based on the calculated likelihood, and the specified optimal solution A storage step of storing tracking result data in which position information of the cell region is stored in chronological order.
According to the third invention, the cell candidate region is detected for each frame of the time-lapse image, the feature amount is calculated for each detected cell candidate region cell, and the cell candidate region is outlined based on the feature amount. The area is classified into a clear area and an unclear area, and an area with a clear outline is extracted as a cell area. Automatic likelihood tracking is performed by calculating the likelihood that cell regions of frames with continuous time series are associated with each other, and obtaining an optimal solution for the combination of associations based on the likelihood. As a result, an area in which cell detection is functioning correctly is automatically tracked, and an error at the time of cell detection in an area where the outline is ambiguous (overdetection error in which an area where no cell exists is detected, cells exist) The influence of an undetected error in which no area is detected can be suppressed. Therefore, it is possible to automatically track individual cells with high accuracy even under high-density conditions where there are many regions where the cell outline is unclear. In mature culture, the outline of the cell is ambiguous in areas where the maturity is low, and the outline of the cell becomes clear as the maturity becomes high. Separating these areas leads to quality control. .

本発明により、細胞の不鮮明領域が多く存在する高密度条件下においても、算出した特徴量に基づいて、検出した細胞候補領域を鮮明領域と不鮮明領域に分類して、細胞検出精度が高い鮮明領域に対して自動追跡を実行することで、高精度の自動追跡が可能になる細胞挙動解析装置等を提供することができる。   According to the present invention, even under high density conditions where there are many unclear areas of cells, the detected cell candidate areas are classified into clear areas and unclear areas based on the calculated feature amount, and the clear areas with high cell detection accuracy are obtained. By performing automatic tracking on the cell behavior analyzing apparatus, it is possible to provide a cell behavior analysis device and the like that can perform automatic tracking with high accuracy.

成熟培養における成熟度を説明する図Diagram explaining maturity in mature culture 細胞挙動解析装置のハードウエア構成を示す図Diagram showing the hardware configuration of the cell behavior analyzer 細胞候補領域識別処理の流れを示すフローチャートFlow chart showing the flow of cell candidate area identification processing 輪郭が鮮明な細胞集合領域の一例を示す画像An image showing an example of a cell collection region with a sharp outline 輪郭が不鮮明な細胞集合領域の一例を示す画像An image showing an example of a cell collection region with unclear outlines 輪郭が鮮明な細胞候補領域の曲率分布と輝度分布の一例を示す図The figure which shows an example of curvature distribution and luminance distribution of a cell candidate area with a clear outline 輪郭が不鮮明な細胞候補領域の曲率分布と輝度分布の一例を示す図The figure which shows an example of the curvature distribution and brightness | luminance distribution of a cell candidate area | region with a blurred outline 特徴量算出処理の流れを示すフローチャートFlow chart showing the flow of feature amount calculation processing 細胞画像処理を施した画像の一例を示す画像Image showing an example of an image that has undergone cell image processing 細胞領域抽出の成功例を示す図Diagram showing successful cell region extraction 細胞領域抽出の失敗例を示す図Diagram showing an example of cell region extraction failure 自動追跡処理の流れを示すフローチャートFlow chart showing the flow of automatic tracking processing 尤度算出処理に用いる指標を説明する図The figure explaining the parameter | index used for likelihood calculation processing フレーム間における細胞領域同士の対応付けの組合せ集合を説明する図The figure explaining the combination set of the correspondence of the cell areas between frames

以下、図面に基づいて、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、成熟培養における成熟度を説明する図である。図1に示すように、成熟度が高い領域については、細胞密度が高く且つ細胞が独立して存在する傾向が強いため細胞検出精度が高い。一方、成熟度が低い領域については、細胞が重層して存在する傾向があり、輪郭が曖昧で細胞同士がくっ付いて検出されるため細胞検出精度が低い。
本実施の形態では、細胞挙動解析装置が、後述する細胞候補領域識別処理を実行して細胞同士独立して存在する領域と細胞輪郭が曖昧な領域とを識別し、更に、細胞が独立して存在する領域のみに自動追跡処理を実行する例を示す。
FIG. 1 is a diagram for explaining the maturity in mature culture. As shown in FIG. 1, the region with high maturity has high cell density and high cell detection accuracy because cells tend to exist independently. On the other hand, in a region where the maturity is low, cells tend to exist in an overlapping manner, and the cell detection accuracy is low because the outline is ambiguous and the cells are attached and detected.
In the present embodiment, the cell behavior analysis device performs a cell candidate region identification process described later to identify a region that exists independently from each other and a region in which the cell outline is ambiguous, and further, the cell is independent. An example in which an automatic tracking process is executed only on an existing area will be described.

図2は、本発明の実施形態に係る細胞挙動解析装置1を実現するコンピュータのハードウエア構成図である。コンピュータは、図2に示すように、例えば、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続されて構成される。   FIG. 2 is a hardware configuration diagram of a computer that realizes the cell behavior analysis apparatus 1 according to the embodiment of the present invention. As shown in FIG. 2, the computer includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. 18 is connected.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only
Memory)、RAM(Random Access Memory)等により構成される。
CPUは、記憶部12、ROM、記憶媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、細胞挙動解析装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、揮発性メモリであり、ロードしたプログラムやデータを一時的に保持すると共に、制御部11が各処理を行うために使用するワークエリアを備える。
The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only).
Memory), RAM (Random Access Memory) and the like.
The CPU calls and executes a program stored in the storage unit 12, ROM, storage medium, or the like to a work memory area on the RAM, drives and controls each device connected via the bus 18, and the cell behavior analysis device 1 The process to be described later is realized. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily holds a loaded program and data, and includes a work area used by the control unit 11 to perform each process.

記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラムや、プログラム実行に必要なデータ、OS(Operating System)等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 12 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (Operating System), and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU.

メディア入出力部13は、例えば、HD(Hard Disk)ドライブ、フロッピー(登録商標)ディスクドライブ、PDドライブ、CDドライブ、DVDドライブ、MOドライブ等のメディア入出力装置であり、データの入出力を行う。
通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インターフェースであり、ネットワークを介して、他の装置間との通信制御を行う。
The media input / output unit 13 is a media input / output device such as an HD (Hard Disk) drive, a floppy (registered trademark) disk drive, a PD drive, a CD drive, a DVD drive, or an MO drive, and performs data input / output. .
The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other devices via the network.

入力部15は、データ入力を行い、例えば、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力されたデータを制御部11へ出力する。
表示部16は、例えば、CRTモニタ、液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。
周辺機器I/F部(インターフェース)17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は、有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The input unit 15 performs data input and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. The input data is output to the control unit 11.
The display unit 16 includes, for example, a display device such as a CRT monitor or a liquid crystal panel, and a logic circuit (a video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. The displayed display information is displayed on the display device.
The peripheral device I / F unit (interface) 17 is a port for connecting a peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

以下では、図3〜図11を参照しながら、細胞挙動解析装置1が実行する細胞候補領域識別処理について説明する。   Below, the cell candidate area | region identification process which the cell behavior analysis apparatus 1 performs is demonstrated, referring FIGS. 3-11.

図3は、細胞挙動解析装置1が実行する細胞候補領域識別処理の流れを示すフローチャートである。
細胞挙動解析装置1の制御部11は、タイムラプス画像が入力されると、タイムラプス画像のフレームを一意に識別するためのフレームIDを付与して自動追跡処理を実行し、細胞の自動追跡データを格納する追跡結果データを生成する。制御部11は、タイムラプス画像が入力されるごとに時系列順にフレームIDを付与し、自動追跡処理を実行して追跡結果データを更新する。追跡結果データは、追跡対象の細胞に付与された細胞領域IDによって、一意に識別される。追跡結果データには、フレームID、及びフレームIDに係るフレームにおける細胞情報が、時系列的に格納される。ここで細胞情報とは、細胞領域ID、細胞領域の境界線を示す位置座標群、細胞領域の領域内の各画素に対応する輝度値群、などを含むデータである。
フレームID「t−1」までの追跡結果データは、細胞挙動解析装置1の制御部11によって予め生成され、記憶部12に記憶されているものとする。図3にて示される細胞候補領域識別処理は、細胞挙動解析装置1にタイムラプス画像が入力され、フレームID「t」が付与された場合に実行される処理である。
FIG. 3 is a flowchart showing a flow of a cell candidate region identification process executed by the cell behavior analysis apparatus 1.
When a time-lapse image is input, the control unit 11 of the cell behavior analysis apparatus 1 assigns a frame ID for uniquely identifying a frame of the time-lapse image, executes automatic tracking processing, and stores automatic tracking data of cells. The tracking result data to be generated is generated. The control unit 11 assigns frame IDs in chronological order each time a time-lapse image is input, executes automatic tracking processing, and updates tracking result data. The tracking result data is uniquely identified by the cell region ID assigned to the tracking target cell. In the tracking result data, the frame ID and cell information in the frame related to the frame ID are stored in time series. Here, the cell information is data including a cell region ID, a position coordinate group indicating a boundary line of the cell region, a luminance value group corresponding to each pixel in the cell region, and the like.
The tracking result data up to the frame ID “t−1” is generated in advance by the control unit 11 of the cell behavior analysis apparatus 1 and stored in the storage unit 12. The cell candidate region identification process shown in FIG. 3 is a process executed when a time-lapse image is input to the cell behavior analysis apparatus 1 and the frame ID “t” is given.

図3に示すように、細胞挙動解析装置1の制御部11は、フレームID「t」のタイムラプス画像における細胞候補領域を検出する(ステップS1)。   As illustrated in FIG. 3, the control unit 11 of the cell behavior analysis device 1 detects a cell candidate region in the time-lapse image with the frame ID “t” (step S <b> 1).

細胞挙動解析装置1の制御部11は、フレームID「t」に係るタイムラプス画像に対して、細胞画像処理を施す。細胞画像処理とは、細胞領域の輝度は高く、輪郭領域の輝度は低くなるようにする画像処理であり、例えば、照度むらの除去、及びプレコンディションニング処理などであるが、公知の技術を用いれば良いため、説明を省略する。以下、細胞画像処理を施した画像をプレコンディション画像と表記する。   The control unit 11 of the cell behavior analysis apparatus 1 performs cell image processing on the time-lapse image associated with the frame ID “t”. Cell image processing is image processing in which the luminance of the cell region is high and the luminance of the contour region is low.For example, illuminance unevenness removal and preconditioning processing are used, but a known technique is used. Description is omitted because it is sufficient. Hereinafter, an image subjected to cell image processing is referred to as a precondition image.

図4は、輪郭が鮮明な細胞集合領域を表示するプレコンディション画像の一例である。図5は、輪郭が不鮮明な細胞集合領域を表示するプレコンディション画像の一例である。細胞挙動解析装置1は、後述する特徴量算出処理によって算出される特徴ベクトルを用いて、輪郭が鮮明な細胞集合領域と輪郭が不鮮明な細胞集合領域とを識別する。   FIG. 4 is an example of a precondition image displaying a cell collection region with a clear outline. FIG. 5 is an example of a precondition image that displays a cell collection region with an unclear outline. The cell behavior analysis apparatus 1 distinguishes between a cell collection region with a clear outline and a cell collection region with a clear outline using a feature vector calculated by a feature amount calculation process described later.

続いて、細胞挙動解析装置1の制御部11は、プレコンディション画像の輝度値の範囲(0〜255)において閾値を設定する。制御部11は、閾値に対して、閾値を超えた画素を255とし閾値を超えない画素を0とする2値化画像を生成する。制御部11は、生成された2値化画像から連結成分を抽出してラベル付けする。ラベル付けされた個々の連結成分を細胞候補領域とし、連結成分の境界を細胞候補領域の輪郭とする。   Subsequently, the control unit 11 of the cell behavior analysis apparatus 1 sets a threshold value in the range of luminance values (0 to 255) of the precondition image. The control unit 11 generates a binarized image in which a pixel that exceeds the threshold is 255 and a pixel that does not exceed the threshold is 0 with respect to the threshold. The control unit 11 extracts and labels the connected components from the generated binary image. Each labeled connected component is set as a cell candidate region, and a boundary between the connected components is set as an outline of the cell candidate region.

図3の説明に戻る。細胞挙動解析装置1の制御部11は、ステップS1にて検出された細胞候補領域に対して、特徴量算出処理を実行する(ステップS2)。ステップS1にてN個の細胞候補領域が検出された場合には、N個の細胞候補領域に対してN回の特徴量算出処理を実行することとなる。   Returning to the description of FIG. The control unit 11 of the cell behavior analysis apparatus 1 performs a feature amount calculation process on the cell candidate region detected in step S1 (step S2). When N cell candidate regions are detected in step S1, N feature amount calculation processes are executed for the N cell candidate regions.

図6の(a)は、輪郭が鮮明な細胞候補領域の2値化画像の一例を示す。図6の(a)に示すように、輪郭が鮮明な細胞候補領域は、細胞が1つの独立した領域を作る傾向があり、細胞候補領域を構成する画素の輝度が高く、輪郭の凹点が少ない、等の画像上の特徴がある。   FIG. 6A shows an example of a binarized image of a cell candidate region with a clear outline. As shown in FIG. 6 (a), a cell candidate region with a sharp outline has a tendency for cells to form one independent region, the brightness of the pixels constituting the cell candidate region is high, and the concave point of the contour is There are features on the image such as few.

図7の(a)は、輪郭が不鮮明な細胞候補領域の2値化画像の一例を示す。図7の(a)に示すように、輪郭が不鮮明な細胞候補領域は、細胞の切れ目がなく他の細胞とくっ付いた状態で検出される傾向があり、細胞候補領域を構成する画素の輝度が低く、輪郭の凹点が多い、等の画像上の特徴がある。   FIG. 7A shows an example of a binarized image of a cell candidate region with an unclear outline. As shown in FIG. 7A, a cell candidate region with a sharp outline tends to be detected in a state where the cell is not broken and is attached to another cell, and the luminance of the pixels constituting the cell candidate region There are features on the image such as low and a large number of concave points on the contour.

図8は、図3のステップS2にて細胞挙動解析装置1の制御部11が実行する特徴量算出処理の流れを示すフローチャートである。
細胞挙動解析装置1の制御部11は、細胞候補領域の領域サイズを算出する(ステップS11)。領域サイズとは、細胞候補領域の輪郭の中に含まれる画素数である。
FIG. 8 is a flowchart showing the flow of the feature amount calculation process executed by the control unit 11 of the cell behavior analysis apparatus 1 in step S2 of FIG.
The control unit 11 of the cell behavior analysis apparatus 1 calculates the region size of the cell candidate region (step S11). The region size is the number of pixels included in the outline of the cell candidate region.

次に、細胞挙動解析装置1の制御部11は、細胞候補領域の輪郭を配置したプレコンディション画像を用いて、細胞候補領域の輪郭内の輝度値分布を算出する(ステップS12)。   Next, the control unit 11 of the cell behavior analysis apparatus 1 calculates a luminance value distribution within the outline of the cell candidate region using the precondition image in which the outline of the cell candidate region is arranged (step S12).

具体的には、細胞挙動解析装置1の制御部11は、細胞候補領域の輪郭を配置したプレコンディション画像において、細胞候補領域の輪郭内の画素に対して、輝度値の範囲において複数の閾値を設定し、各閾値の範囲内の画素数をカウントする。各閾値に対応する画素数の和は、ステップS11にて算出された領域サイズに一致する。制御部11は、各閾値に対する画素数を領域サイズで割る。これにより、各閾値に対応する値の和は1となる。   Specifically, the control unit 11 of the cell behavior analysis device 1 sets a plurality of threshold values in the luminance value range for pixels in the outline of the cell candidate region in the precondition image in which the outline of the cell candidate region is arranged. Set and count the number of pixels within each threshold range. The sum of the number of pixels corresponding to each threshold matches the area size calculated in step S11. The control unit 11 divides the number of pixels for each threshold by the region size. As a result, the sum of the values corresponding to the respective thresholds becomes 1.

図6(b)は、輪郭が鮮明な細胞候補領域の輝度値分布の一例である。横軸は輝度値であり、縦軸は正規化された画素数を示す。図6(b)に示す例では、20個の閾値を設定し、輝度値を0〜255の範囲で20等分した値が20個の閾値の各幅になる。図7(b)は、輪郭が不鮮明な細胞候補領域の輝度値分布の一例である。図6(b)と同様にして作成される。図6(b)と図7(b)の輝度値分布を比較すると、輪郭が鮮明な細胞候補領域の方が全体に輝度値が高いことがわかる。   FIG. 6B is an example of a luminance value distribution of a cell candidate region with a clear outline. The horizontal axis represents the luminance value, and the vertical axis represents the normalized number of pixels. In the example shown in FIG. 6B, 20 threshold values are set, and the value obtained by dividing the luminance value by 20 in the range of 0 to 255 is the width of each of the 20 threshold values. FIG. 7B is an example of a luminance value distribution of a cell candidate region with a blurred outline. It is created in the same manner as in FIG. Comparing the luminance value distributions of FIG. 6B and FIG. 7B, it can be seen that the cell candidate region having a clear outline has a higher luminance value as a whole.

図8の説明に戻る。次に、細胞挙動解析装置1の制御部11は、細胞候補領域の輪郭の曲率分布を算出する(ステップS13)。   Returning to the description of FIG. Next, the control unit 11 of the cell behavior analysis apparatus 1 calculates the curvature distribution of the contour of the cell candidate region (step S13).

具体的には、細胞挙動解析装置1の制御部11は、細胞候補領域の輪郭上の各点をトレースする。各点をトレースする手法として、例えば、非特許文献3に記載の技術を用いる。制御部11は、細胞候補領域の輪郭を右回りにトレースすることで、輪郭上の各点(各画素)の位置情報を得ることができる。
<非特許文献3> “bwboundaries”、[online]、MathWork、[平成24年7月13日検索]、インターネット
<http://www.mathworks.co.jp/help/ja_JP/toolbox/images/ref/bwboundaries.html>
Specifically, the control unit 11 of the cell behavior analysis apparatus 1 traces each point on the outline of the cell candidate region. As a technique for tracing each point, for example, the technique described in Non-Patent Document 3 is used. The control unit 11 can obtain the position information of each point (each pixel) on the contour by tracing the contour of the cell candidate region clockwise.
<Non-Patent Document 3> “bwboundaries”, [online], MathWork, [searched July 13, 2012], Internet
<http://www.mathworks.co.jp/help/en_US/toolbox/images/ref/bwboundaries.html>

続いて、細胞挙動解析装置1の制御部11は、細胞候補領域の輪郭上の各点の曲率を算出する。各点の曲率の算出方法として、例えば、対象点に対して輪郭を構成する両隣の点から5画素ずつ飛ばした2つのベクトルの角度を算出する。具体的には、非特許文献4に記載の技術を用いる。輪郭上の各点の曲率は、符号が負である場合凹点を示し、−1〜+1の範囲で算出される。
<非特許文献4> Ryoma Bise,Kang
Li,Sungeun Eom,Takeo Kanade,“Reliably Tracking
Partially Overlapping Neural Stem Cells in DIC Microscopy Image Sequences”,MICCAI Workshop on Optical Tissue Image analysis in Microscopy
Histopathology and Endoscopy Imperial College London September 24th
2009.
Subsequently, the control unit 11 of the cell behavior analysis apparatus 1 calculates the curvature of each point on the outline of the cell candidate region. As a method for calculating the curvature of each point, for example, the angle of two vectors obtained by skipping 5 pixels from both adjacent points constituting the contour with respect to the target point is calculated. Specifically, the technique described in Non-Patent Document 4 is used. The curvature of each point on the contour indicates a concave point when the sign is negative, and is calculated in the range of −1 to +1.
<Non-Patent Document 4> Ryoma Bise, Kang
Li, Sungeun Eom, Takeo Kanade, “Reliably Tracking
Partially Overlapping Neural Stem Cells in DIC Microscopy Image Sequences ”, MICCAI Workshop on Optical Tissue Image analysis in Microscopy
Histopathology and Endoscopy Imperial College London September 24 th
2009.

細胞挙動解析装置1の制御部11は、曲率の範囲において、複数の閾値を設定し、各閾値の範囲内の画素数をカウントする。各閾値に対応する画素数の和は、細胞候補領域の輪郭上の画素数に一致する。制御部11は、各閾値に対する画素数を輪郭上の画素数で割る。これにより、各閾値に対応する値の和は1となる。   The control unit 11 of the cell behavior analysis apparatus 1 sets a plurality of threshold values in the curvature range, and counts the number of pixels within each threshold range. The sum of the number of pixels corresponding to each threshold matches the number of pixels on the outline of the cell candidate region. The control unit 11 divides the number of pixels for each threshold by the number of pixels on the contour. As a result, the sum of the values corresponding to the respective thresholds becomes 1.

図6(c)は、輪郭が鮮明な細胞候補領域の曲率分布の一例である。横軸は曲率であり、縦軸は正規化された画素数を示す。図6(c)に示す例では、20個の閾値を設定し、曲率を−1〜+1の範囲で20等分した値が20個の閾値の各幅になる。図7(c)は、輪郭が不鮮明な細胞候補領域の曲率分布の一例である。図6(c)と同様にして作成される。図6(c)と図7(c)の曲率分布を比較すると、輪郭が不鮮明な細胞候補領域の方が全体に凹点が多いことがわかる。   FIG. 6C is an example of the curvature distribution of a cell candidate region with a clear outline. The horizontal axis represents the curvature, and the vertical axis represents the normalized number of pixels. In the example shown in FIG. 6C, 20 threshold values are set, and the value obtained by dividing the curvature into 20 equal parts in the range of −1 to +1 is the width of each of the 20 threshold values. FIG. 7C is an example of a curvature distribution of a cell candidate region with a blurred outline. It is created in the same manner as in FIG. Comparing the curvature distributions of FIG. 6C and FIG. 7C, it can be seen that the cell candidate region with unclear outline has more concave points as a whole.

以上のようにして、細胞挙動解析装置1の制御部11は、細胞候補領域に対して特徴量算出処理を実行する。   As described above, the control unit 11 of the cell behavior analysis apparatus 1 performs the feature amount calculation process on the cell candidate region.

続いて、図3の説明に戻る。細胞挙動解析装置1の制御部11は、細胞候補領域の特徴量に基づいて特徴ベクトルを作成する(ステップS3)。   Subsequently, the description returns to FIG. The control unit 11 of the cell behavior analysis apparatus 1 creates a feature vector based on the feature amount of the cell candidate region (step S3).

制御部11は、図8のステップS11にて算出された領域サイズ、図8のステップS12にて算出された輝度値分布、図8のステップ13にて算出された曲率分布を合わせた特徴量を表す高次元の特徴ベクトルを作成する。図6及び図7に示す例においては、領域サイズ(1次元)と輝度値分布(20次元)と曲率分布(20次元)を合わせた41次元のベクトル空間における特徴ベクトルを作成する。制御部11は、細胞候補領域IDに対応する特徴ベクトルを作成して、記憶部12に記憶させる。   The control unit 11 calculates a feature amount that combines the region size calculated in step S11 of FIG. 8, the luminance value distribution calculated in step S12 of FIG. 8, and the curvature distribution calculated in step 13 of FIG. Create a high-dimensional feature vector to represent. In the example shown in FIGS. 6 and 7, a feature vector in a 41-dimensional vector space is created by combining the region size (one dimension), the luminance value distribution (20 dimensions), and the curvature distribution (20 dimensions). The control unit 11 creates a feature vector corresponding to the cell candidate region ID and stores it in the storage unit 12.

図3の説明に戻る。細胞挙動解析装置1の制御部11は、ステップS1にて検出された全ての細胞候補領域に対して特徴量算出処理を実行済か否かを確認する(ステップS4)。実行済でない場合(ステップS4のNo)、制御部11はステップS2から繰り返す。実行済の場合(ステップS4のYes)、制御部11は特徴ベクトルに基づいて細胞候補領域の中から細胞領域を抽出する(ステップS8)。   Returning to the description of FIG. The control unit 11 of the cell behavior analysis apparatus 1 confirms whether or not the feature amount calculation processing has been executed for all the cell candidate regions detected in Step S1 (Step S4). If not executed (No in step S4), the control unit 11 repeats from step S2. When it has been executed (Yes in step S4), the control unit 11 extracts a cell region from the cell candidate regions based on the feature vector (step S8).

制御部11は、記憶部12に予め記憶された正解データを用いて、細胞候補領域を不鮮明領域と鮮明領域とに識別する。正解データとは、特徴ベクトルとラベルとを含むデータであり、ラベルには特徴ベクトルが不鮮明領域の特徴を表すのであれば「0」が格納され、鮮明領域の特徴を表すのであれば「1」が格納される。
具体的には、制御部11は、複数の正解データを用いて、機械学習の手法により識別器(分類器)を作成する。そして、制御部11は、細胞候補領域の特徴ベクトルを識別器に入力して、「0」のクラスに分類された場合には、当該特徴ベクトルに「0」のラベル付けをし、「1」のクラスに分類された場合には、「1」のラベル付けをする。
機械学習には、公知の技術を用いることができ、ニューラルネットワークや、サポートベクターマシン、Adaboostなどの手法が挙げられる。例えば、サポートベクターマシンでは、特長ベクトルを含む特徴空間において、正解データを分類する超平面を構成することによって、細胞候補領域の特徴ベクトルを不鮮明領域と鮮明領域とに分類することができる。
The control unit 11 uses the correct data stored in advance in the storage unit 12 to identify the cell candidate area as an unclear area and a clear area. The correct answer data is data including a feature vector and a label, and “0” is stored in the label if the feature vector represents the feature of the unclear region, and “1” if the feature vector represents the feature of the clear region. Is stored.
Specifically, the control unit 11 creates a discriminator (classifier) by a machine learning technique using a plurality of correct answer data. Then, the control unit 11 inputs the feature vector of the cell candidate region to the discriminator, and when the feature vector is classified into the class “0”, the feature vector is labeled “0” and “1”. If it is classified into this class, it is labeled “1”.
A known technique can be used for machine learning, and examples thereof include a neural network, a support vector machine, and Adaboost. For example, in the support vector machine, the feature vector of the cell candidate region can be classified into the unclear region and the clear region by configuring a hyperplane for classifying the correct answer data in the feature space including the feature vector.

尚、特徴ベクトルを領域サイズ、輝度値分布、曲率分布の特徴量を合わせて41次元としたが、輝度値分布と曲率分布の特徴量を合わせて40次元としても良い。ここでは、輝度値分布及び曲率分布の分割数を20としたが、他の値で分割することで、特徴量の次元数が変わってもよい。   The feature vector is 41 dimensions including the region size, the luminance value distribution, and the curvature distribution, but the feature vector may be 40 dimensions. Although the number of divisions of the luminance value distribution and the curvature distribution is 20 here, the number of dimensions of the feature quantity may be changed by dividing the luminance value distribution and the curvature distribution by other values.

制御部11は、「1」がラベル付けされた特徴ベクトルの細胞候補領域を細胞領域として抽出して、抽出された各細胞領域に対して細胞領域IDをラベル付けして、記憶部12に記憶する。   The control unit 11 extracts the cell candidate region of the feature vector labeled “1” as a cell region, labels the extracted cell region with a cell region ID, and stores the cell region ID in the storage unit 12. To do.

図9は、タイムラプス画像の1フレームを示すプレコンディション画像の一例である。細胞の輪郭が比較的鮮明な領域と、細胞同士がくっ付き境界が不鮮明な領域が混在する。図9に示すプレコンディション画像に対して図3に示す細胞候補領域識別処理を実行し、細胞領域を抽出した。図10は、細胞領域抽出の成功例を示す2値化画像である。連結部分は抽出された細胞領域を示す。個々に独立した複数の細胞領域が抽出されていることがわかる。図11は、細胞領域抽出の失敗例を示す2値化画像である。細胞輪郭が不鮮明な領域については、複数の細胞同士でくっ付いて細胞領域が抽出されていることがわかる。   FIG. 9 is an example of a precondition image showing one frame of a time-lapse image. A region where the outline of the cell is relatively clear and a region where the cells stick to each other and the boundary is unclear are mixed. The cell candidate area identification process shown in FIG. 3 was performed on the precondition image shown in FIG. 9 to extract the cell area. FIG. 10 is a binarized image showing a successful example of cell region extraction. The connected portion indicates the extracted cell region. It can be seen that a plurality of independent cell regions are extracted. FIG. 11 is a binarized image showing a failure example of cell region extraction. As for the region where the cell outline is unclear, it can be seen that a plurality of cells are attached to each other and the cell region is extracted.

以上のように、細胞挙動解析装置1の制御部11は、細胞候補領域を抽出して、各細胞候補領域の領域サイズ、輝度値分布、曲率分布を算出して、特徴ベクトルを作成し、特徴ベクトルに基づいて細胞候補領域から細胞領域を抽出する。これにより、正しく細胞が検出されている細胞領域についてのみ、後述する自動追跡処理を実行することとなる。従って、細胞検出時のエラーによる自動追跡処理への影響を低減して、自動追跡結果の精度が高まることとなる。   As described above, the control unit 11 of the cell behavior analysis apparatus 1 extracts cell candidate regions, calculates the region size, luminance value distribution, and curvature distribution of each cell candidate region, creates a feature vector, and features A cell region is extracted from the cell candidate region based on the vector. As a result, the automatic tracking process described later is executed only for the cell region in which the cells are correctly detected. Therefore, the influence on the automatic tracking process due to an error at the time of cell detection is reduced, and the accuracy of the automatic tracking result is increased.

以下では、図12〜図14を参照しながら、細胞挙動解析装置1が実行する自動追跡処理について説明する。   Below, the automatic tracking process which the cell behavior analysis apparatus 1 performs is demonstrated, referring FIGS. 12-14.

図12は、細胞挙動解析装置1が実行する自動追跡処理の流れを示すフローチャートである。図12に示される自動追跡処理とは、細胞挙動解析装置1がフレームID「t」に係るフレームにおいて図3に示す細胞候補領域識別処理を実行して、細胞領域が抽出された場合に実行される処理である。   FIG. 12 is a flowchart showing the flow of the automatic tracking process executed by the cell behavior analysis apparatus 1. The automatic tracking process shown in FIG. 12 is executed when the cell behavior analysis apparatus 1 executes the cell candidate area identification process shown in FIG. 3 in the frame corresponding to the frame ID “t” and the cell area is extracted. Process.

細胞挙動解析装置1の制御部11は、フレームID「t−1」における細胞領域とフレームID「t」における細胞領域の対応付けの尤度Pを算出する(ステップ21)。制御部11は、フレーム間における細胞領域同士において、細胞領域の移動に関する指標I、細胞領域の形状類似度に関する指標I、及び細胞領域の輝度ヒストグラム類似度に関する指標Iを用いて尤度Pを算出する。 The control unit 11 of the cell behavior analysis apparatus 1 calculates a likelihood P of association between the cell region in the frame ID “t−1” and the cell region in the frame ID “t” (step 21). The control unit 11 uses the index I D related to the movement of the cell area, the index I S related to the shape similarity of the cell area, and the index I H related to the luminance histogram similarity of the cell area between the cell areas between the frames. P is calculated.

例えば、制御部11は、P=W×I+W×I+W×Iのように、各指標に重み付けを行い、尤度Pを算出しても良い。ここで、Wが指標Iの重み、Wが指標Iの重み、Wが指標Iの重みである。この場合、各重みの値は、ユーザが適宜変更可能である。 For example, the control unit 11 may calculate the likelihood P by weighting each index, such as P = W D × I D + W S × I S + W H × I H. Here, the weight of W D indicators I D, weight W S indicators I S, W H is the weight of the index I H. In this case, the value of each weight can be appropriately changed by the user.

図13は、尤度算出処理に用いる指標を説明する図である。細胞領域Aは、フレームID「t−1」におけるフレームにおいて抽出されたものである。細胞領域BはフレームID「t」におけるフレームにおいて抽出されたものである。つまり、図13では、異なるフレームの細胞領域Aと細胞領域Bを重ね合わせて図示している。   FIG. 13 is a diagram for explaining an index used in the likelihood calculation process. The cell region A is extracted in the frame with the frame ID “t−1”. The cell region B is extracted in the frame with the frame ID “t”. That is, in FIG. 13, the cell region A and the cell region B of different frames are shown in an overlapping manner.

細胞領域の移動に関する指標Iとしては、例えば、中心点同士の距離が挙げられる。中心点は、例えば、細胞領域の重心座標である。距離は、例えば、ユークリッド距離や、exp(−α×ユークリッド距離)が挙げられる。ここで、exp(・)は指数関数、αは正の定数である。中心点同士の距離は、フレーム間における細胞の移動を表している。図13の例であれば、例えば、中心点a及び中心点bのユークリッド距離が、指標Iとなる。 Examples of the index ID related to the movement of the cell region include the distance between the center points. The center point is, for example, the barycentric coordinate of the cell region. Examples of the distance include Euclidean distance and exp (−α × Euclidean distance). Here, exp (•) is an exponential function, and α is a positive constant. The distance between the center points represents the movement of cells between frames. In the example of FIG. 13, for example, the Euclidean distance between the center point a and the center point b is the index ID .

また、細胞領域の移動に関する指標Iとしては、例えば、細胞領域の重なりの割合でも良い。細胞領域の重なりの割合は、図13の例であれば、細胞領域Aと細胞領域Bとの和集合に対する斜線部の領域の割合である。つまり、細胞領域の重なりの割合は、(細胞領域Aに属し、且つ細胞領域Bに属する画素の数)÷(細胞領域Aに属する、又は細胞領域Bに属する画素の数)である。 In addition, the index ID relating to the movement of the cell region may be, for example, the rate of overlap of the cell regions. In the example of FIG. 13, the overlapping ratio of the cell areas is the ratio of the hatched area to the union of the cell area A and the cell area B. That is, the overlapping ratio of the cell regions is (number of pixels belonging to the cell region A and belonging to the cell region B) / (number of pixels belonging to the cell region A or belonging to the cell region B).

細胞領域の形状類似度に関する指標Iとしては、例えば、SIFT(Scale Invariant Feature Transform)特徴量、フーリエ記述子(Fourier Descriptors)、HOG(Histograms of Oriented
Gradients)特徴量等が挙げられる。SIFT特徴量は、スケール、移動、回転に不変(invariant)な特徴量である。フーリエ記述子は、輪郭を周期関数に変換し、その周期関数をフーリエ級数展開することによって得られるフーリエ係数を輪郭の形状の記述に用いる形状の特徴量である。HOG特徴量は、画像の局所領域から輝度勾配、輝度強度を取り出す特徴量である。
As an index I S on the shape similarity cell region, e.g., SIFT (Scale Invariant Feature Transform) feature amounts, Fourier descriptors (Fourier Descriptors), HOG (Histograms of Oriented
Gradients) and the like. The SIFT feature value is a feature value that is invariant to scale, movement, and rotation. The Fourier descriptor is a feature amount of a shape that uses a Fourier coefficient obtained by converting a contour into a periodic function and expanding the periodic function into a Fourier series to describe the shape of the contour. The HOG feature value is a feature value for extracting a brightness gradient and brightness intensity from a local area of an image.

細胞領域の輝度ヒストグラム類似度に関する指標Iとしては、各細胞領域内の輝度ヒストグラムの距離が挙げられる。距離は、例えば、バッタチャリャ(Bhattacharyya)距離等が考えられる。 Examples of the index I H related to the luminance histogram similarity of the cell region include the distance of the luminance histogram in each cell region. The distance may be, for example, a Bhattacharyya distance.

尚、前述の各種指標は一例であり、本発明はその他の指標を用いても良い。また、細胞領域の移動に関する指標I、細胞領域の形状類似度に関する指標I、及び細胞領域の輝度ヒストグラム類似度に関する指標Iの全てを用いる必要は無く、いずれか1つ又は2つでも良い。細胞挙動解析装置1は、様々な指標を利用できるように、例えば、指標選択画面(不図示)を表示部16に表示し、ユーザが、挙動解析の目的に応じて、適切な指標を選択できるようにしても良い。 The various indicators described above are examples, and other indicators may be used in the present invention. Further, it is not necessary to use all of the index I D regarding the movement of the cell region, the index I S regarding the shape similarity of the cell region, and the index I H regarding the luminance histogram similarity of the cell region, and any one or two of them may be used. good. The cell behavior analysis apparatus 1 displays, for example, an index selection screen (not shown) on the display unit 16 so that various indices can be used, and the user can select an appropriate index according to the purpose of the behavior analysis. You may do it.

図12の説明に戻る。細胞挙動解析装置1の制御部11は、フレームID「t−1」における細胞領域とフレームID「t」における細胞領域の対応付けの組合せの最適解を特定する(ステップS22)。   Returning to the description of FIG. The control unit 11 of the cell behavior analysis apparatus 1 specifies an optimal solution of the combination of the correspondence between the cell region in the frame ID “t−1” and the cell region in the frame ID “t” (step S22).

図14は、フレーム間における細胞領域の対応付けの組合せを説明する図である。図14(a)は、フレームID「t−1」に係るフレームと、フレームID「t」に係るフレームとのフレーム間における細胞領域同士の対応付けの一例を図示している。図14(b)は、図14(a)に対する細胞領域同士の対応付けの組合せを図示している。   FIG. 14 is a diagram for explaining a combination of cell region associations between frames. FIG. 14A illustrates an example of correspondence between cell regions between frames of the frame ID “t−1” and the frame ID “t”. FIG. 14 (b) illustrates a combination of cell areas corresponding to FIG. 14 (a).

図14(a)において、細胞領域A1、A2、A3は、フレームID「t−1」に係るフレームにおいて抽出されたものである。また、細胞領域B1、B2、B3は、フレームID「t」に係るフレームにおいて抽出されたものである。つまり、図14(a)では、異なるフレームの細胞領域A1、A2、A3と細胞領域B1、B2、B3を重ね合わせて図示している。   In FIG. 14A, cell regions A1, A2, and A3 are extracted in the frame associated with the frame ID “t−1”. Further, the cell regions B1, B2, and B3 are extracted in the frame related to the frame ID “t”. That is, in FIG. 14A, the cell regions A1, A2, and A3 of different frames and the cell regions B1, B2, and B3 are shown in an overlapping manner.

本発明の実施の形態では、細胞挙動解析装置1の制御部11が、ステップS21にて算出された尤度を用いて、細胞領域同士の対応付けの最適な組合せ(=最適解)を特定する。最適化処理としては、例えば、整数計画法を利用することが考えられる。尚、最適化処理は、整数計画法に限られるものではない。   In the embodiment of the present invention, the control unit 11 of the cell behavior analysis apparatus 1 specifies an optimal combination (= optimum solution) of association between cell regions using the likelihood calculated in step S21. . As the optimization processing, for example, it is conceivable to use integer programming. Note that the optimization process is not limited to integer programming.

例えば、制御部11は、フレーム間における全ての細胞領域同士の対応付けの組合せ(=仮説)の中から、整数計画法を用いて、最適解を算出する。フレームID「t−1」に係るフレームにおける細胞領域がN個であれば、フレームID「t」に係るフレームからもN個の細胞領域が抽出される。各組合せは、N個の細胞領域同士の対応付けを含む。制御部11は、例えば、N個の細胞領域同士の対応付けの尤度の和が最大となる組合せを、最適解として特定する。   For example, the control unit 11 calculates an optimal solution using integer programming from among combinations (= hypotheses) of associations between all cell regions between frames. If there are N cell regions in the frame related to the frame ID “t−1”, N cell regions are also extracted from the frame related to the frame ID “t”. Each combination includes an association of N cell regions. For example, the control unit 11 specifies the combination that maximizes the sum of the likelihoods of association between N cell regions as the optimal solution.

図14(b)に示す例では、細胞領域同士の対応付けの組合せが、h1〜h6の6パターンになる。制御部11は、h1〜h6の6パターンの中から、整数計画法によって、最適な対応付けの組合せを特定する。図14(a)に示す例では、最適な対応付けの組合せは、(A1⇔B3、A2⇔B2、A3⇔B1)の組合せh6となる。   In the example shown in FIG. 14B, there are six combinations of h1 to h6 in associations between cell regions. The control unit 11 specifies an optimal combination of association from the six patterns h1 to h6 by integer programming. In the example shown in FIG. 14A, the optimum association combination is the combination h6 of (A1⇔B3, A2⇔B2, A3⇔B1).

また、N個の尤度の和が最大となる組合せ集合を最適解として特定すると説明したが、それ以外の評価関数を用いても良い。   In addition, although it has been described that the combination set that maximizes the sum of the N likelihoods is specified as the optimal solution, other evaluation functions may be used.

図12の説明に戻る。細胞挙動解析装置1の制御部11は、ステップS22にて特定された最適解に基づいて追跡結果データを更新する(ステップS23)。制御部11は、最適解に含まれる細胞領域の細胞位置情報(移動軌跡)等の細胞情報を、記憶部12に記憶して、追跡結果データを更新する。   Returning to the description of FIG. The control unit 11 of the cell behavior analysis apparatus 1 updates the tracking result data based on the optimal solution specified in step S22 (step S23). The control unit 11 stores cell information such as cell position information (movement trajectory) of the cell region included in the optimal solution in the storage unit 12 and updates the tracking result data.

また、制御部11は、追跡結果データに基づいて、細胞数や細胞の形状等の指標を算出することができ、細胞品質の評価や培養条件の評価等に用いることができる。   Moreover, the control part 11 can calculate indices, such as a cell number and a cell shape, based on tracking result data, and can use it for evaluation of cell quality, evaluation of culture conditions, etc.

以上、添付図面を参照しながら、本発明に係る細胞挙動解析装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される   The preferred embodiments of the cell behavior analysis apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood

1………細胞挙動解析装置
11………制御部
12………記憶部
13………メディア入出力部
14………通信制御部
15………入力部
16………表示部
17………周辺機器I/F部
DESCRIPTION OF SYMBOLS 1 ......... Cell behavior analyzer 11 ......... Control part 12 ......... Storage part 13 ......... Media input / output part 14 ...... Communication control part 15 ......... Input part 16 ......... Display part 17 ... ... Peripheral equipment I / F section

Claims (5)

タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出手段と、
検出した前記細胞候補領域に対して特徴量を算出する特徴量算出手段と、
算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出手段と、
時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出手段と、
算出した前記尤度に基づいて前記対応付けの組合せの最適解を特定する最適解特定手段と、
特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶手段と、
を具備することを特徴とする細胞挙動解析装置。
Cell candidate region detection means for detecting a cell candidate region of each individual cell in the time lapse image for each frame of the time lapse image;
Feature amount calculating means for calculating a feature amount for the detected cell candidate region;
A cell region extraction means for extracting a cell region from the cell candidate region based on the calculated feature amount;
A likelihood calculating means for calculating a likelihood of association between the cell regions extracted for two frames that are continuous in time series;
Optimal solution specifying means for specifying an optimal solution for the combination of associations based on the calculated likelihood;
Storage means for storing tracking result data in which position information of the cell region included in the identified optimal solution is stored in chronological order;
A cell behavior analysis device comprising:
前記特徴量算出手段は、
前記細胞候補領域の輝度分布に関する指標と、前記細胞候補領域の曲率分布に関する指標とを用いて、前記特徴量を算出する
ことを特徴とする請求項1に記載の細胞挙動解析装置。
The feature amount calculating means includes:
The cell behavior analysis apparatus according to claim 1, wherein the feature amount is calculated using an index related to a luminance distribution of the cell candidate area and an index related to a curvature distribution of the cell candidate area.
前記細胞領域抽出手段は、
予め定められた複数の特徴ベクトルである正解データから、前記細胞候補領域を鮮明領域と不鮮明領域とに分類する識別器を作成し、
前記細胞候補領域に対して算出した前記特徴量から前記特徴ベクトルを作成し、
前記識別器によって、作成した前記特徴ベクトルが前記鮮明領域に分類された場合に、当該特徴ベクトルに係る前記細胞候補領域を前記細胞領域とする
ことを特徴とする請求項1又は請求項2に記載の細胞挙動解析装置。
The cell region extraction means includes
Create a classifier that classifies the cell candidate area into a clear area and an unclear area from correct data that is a plurality of predetermined feature vectors,
Create the feature vector from the feature amount calculated for the cell candidate region,
3. The cell region according to claim 1, wherein, when the created feature vector is classified into the clear region by the classifier, the cell candidate region related to the feature vector is used as the cell region. 4. Cell behavior analyzer.
タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出ステップと、
検出した前記細胞候補領域に対して特徴量を算出する特徴量算出ステップと、
算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出ステップと、
時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出ステップと、
算出した前記尤度に基づいて前記対応付けの組合せの最適解を特定する最適解特定ステップと、
特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶ステップと、
を含むことを特徴とする細胞挙動解析方法。
A cell candidate region detection step for detecting a cell candidate region of each individual cell in the time lapse image for each frame of the time lapse image;
A feature amount calculating step for calculating a feature amount for the detected cell candidate region;
A cell region extraction step for extracting a cell region from the cell candidate regions based on the calculated feature amount;
A likelihood calculating step of calculating a likelihood of association between the cell regions extracted for two frames that are continuous in time series;
An optimal solution specifying step of specifying an optimal solution for the combination of associations based on the calculated likelihood;
A storage step of storing tracking result data in which position information of the cell region included in the identified optimal solution is stored in chronological order;
A cell behavior analysis method comprising:
コンピュータに、
タイムラプス画像のフレームごとに、前記タイムラプス画像内の個々の細胞の細胞候補領域を検出する細胞候補領域検出ステップと、
検出した前記細胞候補領域に対して特徴量を算出する特徴量算出ステップと、
算出した前記特徴量に基づいて前記細胞候補領域の中から細胞領域を抽出する細胞領域抽出ステップと、
時系列的に連続する2つの前記フレームについて抽出した前記細胞領域同士の対応付けの尤度を算出する尤度算出ステップと、
算出した前記尤度に基づいて前記対応付けの組合せ集合の最適解を特定する最適解特定ステップと、
特定した前記最適解に含まれる前記細胞領域の位置情報が時系列順に格納される追跡結果データを記憶する記憶ステップと、
を実行させるためのプログラム。
On the computer,
A cell candidate region detection step for detecting a cell candidate region of each individual cell in the time lapse image for each frame of the time lapse image;
A feature amount calculating step for calculating a feature amount for the detected cell candidate region;
A cell region extraction step for extracting a cell region from the cell candidate regions based on the calculated feature amount;
A likelihood calculating step of calculating a likelihood of association between the cell regions extracted for two frames that are continuous in time series;
An optimal solution specifying step of specifying an optimal solution of the combination set of the correspondence based on the calculated likelihood;
A storage step of storing tracking result data in which position information of the cell region included in the identified optimal solution is stored in chronological order;
A program for running
JP2012236054A 2012-10-25 2012-10-25 Cell behavior analysis apparatus, cell behavior analysis method, and program Active JP6116044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236054A JP6116044B2 (en) 2012-10-25 2012-10-25 Cell behavior analysis apparatus, cell behavior analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236054A JP6116044B2 (en) 2012-10-25 2012-10-25 Cell behavior analysis apparatus, cell behavior analysis method, and program

Publications (2)

Publication Number Publication Date
JP2014085949A true JP2014085949A (en) 2014-05-12
JP6116044B2 JP6116044B2 (en) 2017-04-19

Family

ID=50788930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236054A Active JP6116044B2 (en) 2012-10-25 2012-10-25 Cell behavior analysis apparatus, cell behavior analysis method, and program

Country Status (1)

Country Link
JP (1) JP6116044B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016162973A1 (en) * 2015-04-08 2016-10-13 オリンパス株式会社 Cell tracking correction method, cell tracking correction apparatus, and computer-readable storage medium for temporarily storing cell tracking correction program
WO2017109860A1 (en) * 2015-12-22 2017-06-29 株式会社ニコン Image processing apparatus
WO2018198253A1 (en) * 2017-04-26 2018-11-01 オリンパス株式会社 Image processing device, image capture system, image processing method, and image processing program
JPWO2018003063A1 (en) * 2016-06-30 2019-05-16 株式会社ニコン Image selection device, image selection method, image selection program, display device, arithmetic device
WO2019135268A1 (en) * 2018-01-04 2019-07-11 オリンパス株式会社 Cell image processing device, cell image processing method, and cell image processing program
JP2019526865A (en) * 2016-09-07 2019-09-19 マルバーン パナリティカル リミテッド Particle boundary identification
JP2020124220A (en) * 2020-05-07 2020-08-20 株式会社ニコン Image processing apparatus
WO2022163438A1 (en) * 2021-01-26 2022-08-04 株式会社ニコン Method of analyzing neurons, device for analyzing neurons, and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327843A (en) * 2006-06-07 2007-12-20 Olympus Corp Image processor and image processing program
WO2011010449A1 (en) * 2009-07-21 2011-01-27 国立大学法人京都大学 Image processing device, culture observation apparatus, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327843A (en) * 2006-06-07 2007-12-20 Olympus Corp Image processor and image processing program
WO2011010449A1 (en) * 2009-07-21 2011-01-27 国立大学法人京都大学 Image processing device, culture observation apparatus, and image processing method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016162973A1 (en) * 2015-04-08 2018-03-01 オリンパス株式会社 Cell tracking correction method, cell tracking correction device, and cell tracking correction program
WO2016162973A1 (en) * 2015-04-08 2016-10-13 オリンパス株式会社 Cell tracking correction method, cell tracking correction apparatus, and computer-readable storage medium for temporarily storing cell tracking correction program
US10796130B2 (en) 2015-12-22 2020-10-06 Nikon Corporation Image processing apparatus
JPWO2017109860A1 (en) * 2015-12-22 2018-08-23 株式会社ニコン Image processing device
WO2017109860A1 (en) * 2015-12-22 2017-06-29 株式会社ニコン Image processing apparatus
JPWO2018003063A1 (en) * 2016-06-30 2019-05-16 株式会社ニコン Image selection device, image selection method, image selection program, display device, arithmetic device
JP2019526865A (en) * 2016-09-07 2019-09-19 マルバーン パナリティカル リミテッド Particle boundary identification
JP7234106B2 (en) 2016-09-07 2023-03-07 マルバーン パナリティカル リミテッド Grain boundary identification
WO2018198253A1 (en) * 2017-04-26 2018-11-01 オリンパス株式会社 Image processing device, image capture system, image processing method, and image processing program
WO2019135268A1 (en) * 2018-01-04 2019-07-11 オリンパス株式会社 Cell image processing device, cell image processing method, and cell image processing program
JPWO2019135268A1 (en) * 2018-01-04 2020-12-10 オリンパス株式会社 Cell image processing device, cell image processing method and cell image processing program
JP2020124220A (en) * 2020-05-07 2020-08-20 株式会社ニコン Image processing apparatus
JP6999118B2 (en) 2020-05-07 2022-01-18 株式会社ニコン Image processing equipment
WO2022163438A1 (en) * 2021-01-26 2022-08-04 株式会社ニコン Method of analyzing neurons, device for analyzing neurons, and computer program

Also Published As

Publication number Publication date
JP6116044B2 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP6116044B2 (en) Cell behavior analysis apparatus, cell behavior analysis method, and program
Wang et al. Video co-saliency guided co-segmentation
US9008393B2 (en) Vessel identification using shape and motion mapping for coronary angiogram sequences
US7480400B2 (en) Detection of fiber pathways
CN108268823B (en) Target re-identification method and device
Kloihofer et al. Interest point based tracking
JP2012208913A (en) Method and system for dividing object based on hybrid label
JP2018512567A (en) Barcode tag detection in side view sample tube images for laboratory automation
CN107133629B (en) Picture classification method and device and mobile terminal
CN107392221B (en) Training method of classification model, and method and device for classifying OCR (optical character recognition) results
CN110047063A (en) A kind of detection method that material is fallen, device, equipment and storage medium
CN102314591B (en) Method and equipment for detecting static foreground object
CN108647629A (en) Image path recognition methods and device in a kind of image recognition localization method, video
JP6090770B2 (en) Cell behavior analysis apparatus, cell behavior analysis method, and program
El-Labban et al. Discriminative semi-markov models for automated mitotic phase labelling
Makhura et al. Learn-select-track: An approach to multi-object tracking
JP5834805B2 (en) Cell behavior analysis apparatus, cell behavior analysis method, and program
Perner Tracking living cells in microscopic images and description of the kinetics of the cells
US20220027795A1 (en) Techniques for training a classifier to detect executional artifacts in microwell plates
JP5861428B2 (en) Cell behavior detection apparatus, cell behavior detection method, and program
CN113920302A (en) Multi-head weak supervision target detection method based on cross attention mechanism
El-Labban et al. Dynamic time warping for automated cell cycle labelling
El-Labban et al. Temporal models for mitotic phase labelling
Lou et al. Quality classification of microscopic imagery with weakly supervised learning
US20230419702A1 (en) System, method and apparatus for price label modeling tool

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170317

R150 Certificate of patent or registration of utility model

Ref document number: 6116044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250