JP5745290B2 - Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program - Google Patents

Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program Download PDF

Info

Publication number
JP5745290B2
JP5745290B2 JP2011042210A JP2011042210A JP5745290B2 JP 5745290 B2 JP5745290 B2 JP 5745290B2 JP 2011042210 A JP2011042210 A JP 2011042210A JP 2011042210 A JP2011042210 A JP 2011042210A JP 5745290 B2 JP5745290 B2 JP 5745290B2
Authority
JP
Japan
Prior art keywords
cell
unit
value
classification
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011042210A
Other languages
Japanese (ja)
Other versions
JP2011243188A (en
Inventor
竜司 加藤
竜司 加藤
泰樹 坪井
泰樹 坪井
明日香 三輪
明日香 三輪
本多 裕之
裕之 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nikon Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Nikon Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nikon Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2011042210A priority Critical patent/JP5745290B2/en
Publication of JP2011243188A publication Critical patent/JP2011243188A/en
Application granted granted Critical
Publication of JP5745290B2 publication Critical patent/JP5745290B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、細胞分類装置、インキュベータ、画像処理方法、細胞分類方法、画像処理プログラムおよび細胞分類プログラムに関するものである。   The present invention relates to an image processing device, a cell classification device, an incubator, an image processing method, a cell classification method, an image processing program, and a cell classification program.

現在、がん研究における自然発生がんの検出、再生医療における治療用細胞以外の異種細胞の検出、間葉系幹細胞(MSC)の臨床研究などにおいて、細胞を染色する技術が用いられている。細胞の種類、状態等は、細胞を染色しなければ、目視では感覚的にしか分類できないからである。なお、転写因子を発現する細胞を染色する技術が開示されている(特許文献1参照)。また、細胞の明視野画像と該細胞の蛍光画像とを2値化処理した両画像を用いて、撮像画像における全細胞中から特定の細胞群を抽出する技術が開示されている(特許文献2参照)。   Currently, techniques for staining cells are used in detection of spontaneous cancer in cancer research, detection of heterogeneous cells other than therapeutic cells in regenerative medicine, clinical research of mesenchymal stem cells (MSC), and the like. This is because cell types, states, and the like can be classified visually only by sensory means without staining the cells. A technique for staining cells expressing a transcription factor has been disclosed (see Patent Document 1). Further, a technique for extracting a specific cell group from all cells in a captured image using both images obtained by binarizing a bright field image of a cell and a fluorescence image of the cell is disclosed (Patent Document 2). reference).

特開2007−195533号公報JP 2007-195533 A 特開平2−12060号公報JP-A-2-12060

しかしながら、2値化処理後の画像には、多くのノイズが含まれるため、所望の細胞の画像領域を精度よく抽出することができないという問題があった。本発明の目的は、画像から所望の細胞の画像領域を精度よく抽出することを可能とする技術を提供することにある。   However, since the image after the binarization process includes a lot of noise, there is a problem that an image area of a desired cell cannot be extracted with high accuracy. An object of the present invention is to provide a technique capable of accurately extracting an image area of a desired cell from an image.

上記問題を解決するために、本発明の一態様である画像処理装置は、細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出部と、前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出部と、前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出部と、細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部と、外部から入力された細胞の種類に応じた前記固有の補正情報を前記固有補正情報記憶部から読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出部と、前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出するものであって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出部と、を備えることを特徴とする。 In order to solve the above problem, an image processing apparatus according to an aspect of the present invention includes a cell candidate object extraction unit that extracts a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell, and the cell candidate A feature quantity extraction unit that extracts a morphological feature quantity of an object, and an appearance frequency of the value based on the morphological feature quantity for each division when the value based on the morphological feature quantity is divided at predetermined intervals, or A cumulative distribution calculation unit that calculates, for each cell type, a cumulative distribution obtained by sequentially adding one of the values based on the morphological feature amount for each category, and correcting a threshold specific to the cell type. Correction information and correction information storage unit storing correction information specific to the cell type in association with the cell type, and the specific information corresponding to the cell type input from the outside Positive information is read from the inherent correction information storage unit, the morphological feature amount that minimizes the differential value of the cumulative distribution is calculated, and based on the calculated morphological feature amount and the read inherent correction information For each cell type, a unique threshold value calculation unit that calculates a threshold value specific to the cell type from the slope of the cumulative distribution according to the cell type, and based on the cumulative distribution, An extractor for extracting an object related to noise which is an object other than the cell object or the cell object, and extracting the cell object from the cell candidate objects based on the specific threshold ; It is characterized by providing.

また、本発明の一態様である細胞分類装置は、前記画像処理装置と、前記画像処理装置から抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、前記画像データに撮影された細胞を分類する細胞分類部と、を備えることを特徴とする。 In addition, the cell classification device according to one aspect of the present invention includes a cell captured in the image data based on the image processing device and the cell object extracted from the image processing device or the noise-related object. A cell classification unit for classification.

また、本発明の一態様であるインキュベータは、細胞又は細胞群を培養する培養容器を収容するとともに、所定の環境条件に内部を維持可能な恒温室と、前記恒温室内で前記培養容器に含まれる前記細胞又は細胞群の画像を撮像する撮像装置と、前記画像処理装置と、を備えることを特徴とする。   An incubator according to one embodiment of the present invention contains a culture vessel for culturing cells or a group of cells, and is contained in the culture vessel in a constant temperature room capable of maintaining the inside in a predetermined environmental condition, and in the constant temperature room. An image pickup device for picking up an image of the cell or cell group, and the image processing device.

また、本発明の一態様である画像処理方法は、画像処理装置が実行する画像処理方法であって、細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出手順と、前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出手順と、前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出手順と、細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部から、外部から入力された細胞の種類に応じた前記固有の補正情報を読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出手順と、前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出する手順であって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出手順と、を有することを特徴とする。 An image processing method according to an aspect of the present invention is an image processing method executed by an image processing apparatus, which extracts a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell. An extraction procedure, a feature quantity extraction procedure for extracting a morphological feature quantity of the cell candidate object, and a morphological feature quantity for each division when a value based on the morphological feature quantity is divided at predetermined intervals. A cumulative distribution calculation procedure for calculating, for each cell type, a cumulative distribution obtained by sequentially adding either the appearance frequency of the value based on the value or the value based on the morphological feature value for each category, and the cell type Correction information for correcting the threshold value specific to the cell type, and correction information specific to the cell type is input from the outside from a unique correction information storage unit stored in association with the cell type. Reading out the specific correction information corresponding to the type of the cell, calculating the morphological feature value that minimizes the differential value of the cumulative distribution, and calculating the calculated morphological feature value and the read out specific correction information For each cell type, a specific threshold calculation procedure for calculating a threshold specific to the cell type from the slope of the cumulative distribution according to the cell type, and the cell based on the cumulative distribution A procedure for extracting an object related to noise that is the cell object or an object other than the cell object from candidate objects, and extracts the cell object from the cell candidate objects based on the unique threshold value And an extraction procedure.

また、本発明の一態様である細胞分類方法は、前記画像処理方法と、前記画像処理方法により抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、画像データに撮影された細胞を分類する細胞分類手順と、を有することを特徴とする。   The cell classification method according to one aspect of the present invention classifies cells photographed in image data based on the image processing method and the cell object extracted by the image processing method or the object related to noise. A cell sorting procedure.

また、本発明は、本発明の一態様である画像処理プログラムは、画像処理装置としてのコンピュータに、細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出ステップと、前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出ステップと、前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出ステップと、細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部から、外部から入力された細胞の種類に応じた前記固有の補正情報を読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出ステップと、前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出するステップであって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出ステップと、を実行させるための画像処理プログラムである。 Further, the present invention provides an image processing program that is an aspect of the present invention, wherein a computer as an image processing apparatus extracts a cell candidate object extraction that extracts a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell. A feature amount extracting step for extracting a morphological feature amount of the cell candidate object, and a value based on the morphological feature amount based on the morphological feature amount for each division when the value is divided at predetermined intervals. A cumulative distribution calculation step of calculating for each cell type a cumulative distribution obtained by sequentially adding one of the values based on the appearance frequency of the value or the value based on the morphological feature amount for each category; A unique correction information storage unit that corrects a unique threshold value and stores correction information unique to a cell type in association with the cell type Then, reading out the specific correction information according to the cell type input from the outside, calculating the morphological feature amount that minimizes the differential value of the cumulative distribution, and reading out the calculated morphological feature amount and the reading out A unique threshold value calculating step for calculating a threshold value specific to the cell type from the slope of the cumulative distribution corresponding to the cell type for each cell type based on the specific correction information; And extracting a cell object or an object related to noise that is an object other than the cell object from the cell candidate objects, based on the unique threshold value, from among the cell candidate objects. An image processing program for executing the extraction step of extracting the cell object .

また、本発明は、本発明の一態様である細胞分類プログラムは、細胞分類装置としてのコンピュータに、前記画像処理プログラムと、前記画像処理プログラムから抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、画像データに撮影された細胞を分類するステップと、を実行させるための細胞分類プログラムである。   Further, the present invention provides a cell classification program according to one aspect of the present invention, the computer as a cell classification device, the image processing program, and the cell object extracted from the image processing program or the object related to noise. And a step of classifying the imaged cells based on the image data.

本発明によれば、細胞が撮像された画像データからノイズに係るオブジェクトを除去することができるので、画像から所望の細胞の画像領域を精度よく抽出することができる。   According to the present invention, since an object related to noise can be removed from image data obtained by imaging a cell, an image area of a desired cell can be accurately extracted from an image.

本発明の第1の実施形態による分類モデル生成装置1の機能ブロック図の一例である。It is an example of the functional block diagram of the classification model production | generation apparatus 1 by the 1st Embodiment of this invention. ノイズ推定部24の動作を説明するための説明図である。6 is an explanatory diagram for explaining an operation of a noise estimation unit 24. FIG. 各特徴値の概要を示す図である。It is a figure which shows the outline | summary of each feature value. 細胞オブジェクト記憶部72に記憶される情報の一例である。4 is an example of information stored in a cell object storage unit 72. 抽出条件記憶部74に記憶される情報の一例である。4 is an example of information stored in an extraction condition storage unit 74. 候補分類モデル記憶部76に記憶される情報の一例である。It is an example of the information memorize | stored in the candidate classification | category model memory | storage part. 分類モデル記憶部80に記憶される情報の一例である。4 is an example of information stored in a classification model storage unit 80. 分類モデル生成装置1と接続するインキュベータ311の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the incubator 311 connected with the classification model production | generation apparatus 1. FIG. インキュベータ311の正面図である。It is a front view of the incubator 311. インキュベータ311の平面図である。It is a top view of the incubator 311. 分類モデル生成装置1の動作の一例を示すフローチャートである。3 is a flowchart showing an example of the operation of the classification model generation device 1. ノイズ推定部24の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of the operation of a noise estimation unit 24. 本発明の第2の実施形態による分類モデル生成装置2の機能ブロック図の一例である。It is an example of the functional block diagram of the classification model production | generation apparatus 2 by the 2nd Embodiment of this invention. 本発明の第3の実施形態による細胞分類装置3の機能ブロック図の一例である。It is an example of the functional block diagram of the cell classification device 3 by the 3rd Embodiment of this invention. 検索オブジェクト一時記憶部170に記憶される情報の一例である。4 is an example of information stored in a search object temporary storage unit 170. 細胞カタログ記憶部190に記憶される情報の一例である。It is an example of the information memorize | stored in the cell catalog memory | storage part 190. FIG. 細胞分類装置3の動作の一例を示すフローチャートである。5 is a flowchart showing an example of the operation of the cell classification device 3. 細胞分類装置4の機能ブロック図の一例である。It is an example of the functional block diagram of the cell classification device 4. 検索オブジェクト一時記憶部270に記憶される情報の一例である。7 is an example of information stored in a search object temporary storage unit 270. 細胞分類装置4の動作の一例を示すフローチャートである。5 is a flowchart showing an example of the operation of the cell classification device 4. 細胞分類装置4の機能を兼ね備えるインキュベータ311の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the incubator 311 which has a function of the cell classification apparatus 4. FIG. 本発明における第5の実施形態以降の各実施形態の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of each embodiment after 5th Embodiment in this invention. 図23(a)は、細胞候補オブジェクトの面積に対する累積度数分布の1例を示した図である。図23(b)は、細胞候補オブジェクトの累積度数の面積に対する微分値の分布の1例を示した図である。FIG. 23A is a diagram showing an example of the cumulative frequency distribution with respect to the area of the cell candidate object. FIG. 23B is a diagram showing an example of the distribution of differential values with respect to the area of the cumulative frequency of cell candidate objects. 累積度数微分関数を用いて固有閾値(カスタムe値)の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of a specific threshold value (custom e value) using a cumulative frequency differential function. ある3つの細胞において8時間培養したときに得られる固有閾値(e+β)に対する誤差の割合ERの関係を示した概念図である。It is the conceptual diagram which showed the relationship of the ratio ER of the error with respect to the intrinsic | native threshold value (e + (beta)) obtained when culture | cultivating for 8 hours in a certain three cell. A細胞が撮像された画像データにおける誤差の割合ERが、閾値と培養時間とをパラメータとして表示された図である。It is the figure which displayed the ratio ER of the error in the image data by which A cell was imaged, using a threshold value and culture time as parameters. 固有閾値を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a specific threshold value. 共通閾値(仮閾値)を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a common threshold value (temporary threshold value). 本発明の第5の実施形態における画像処理装置のブロック構成図である。It is a block block diagram of the image processing apparatus in the 5th Embodiment of this invention. 固有補正情報が細胞種と培養時間とに関連付けられて記憶されているテーブルの1例を示した図である。It is the figure which showed an example of the table in which intrinsic | native correction | amendment information was linked | related and memorize | stored with the cell type and culture | cultivation time. 本発明の第5の実施形態における細胞オブジェクト抽出部の機能ブロック構成図である。It is a functional block block diagram of the cell object extraction part in the 5th Embodiment of this invention. 第5の実施形態における画像処理装置において、ある細胞種がある培養時間において撮像された画像データから細胞オブジェクトを抽出する処理の流れを示したフローチャートである。10 is a flowchart illustrating a flow of processing for extracting a cell object from image data captured in a certain culture time in a certain cell type in the image processing apparatus according to the fifth embodiment. 単に極小値を取る面積を閾値(図24のe)として細胞オブジェクトを抽出した場合と、固有閾値(カスタムe値)を閾値(図24のe+α)として細胞オブジェクトを抽出した場合における誤差の割合ERを比較したテーブルである。The error ratio ER when the cell object is extracted with the area where the minimum value is simply taken as the threshold (e in FIG. 24) and when the cell object is extracted with the unique threshold (custom e value) as the threshold (e + α in FIG. 24) It is the table which compared. 所定の細胞種の誤差の割合ERが閾値のずらし量α´と培養時間tとに関連付けられて格納されたテーブルT2の1例を示した図である。It is the figure which showed one example of the table T2 in which the ratio ER of the error of the predetermined cell type was stored in association with the threshold shift amount α ′ and the culture time t. 画像処理装置において、所定の培養時間におけるある細胞種の固有補正情報αを算出する処理の流れを示したフローチャートである。6 is a flowchart showing a flow of processing for calculating specific correction information α of a certain cell type in a predetermined culture time in the image processing apparatus. 本発明の第6の実施形態における画像処理装置のブロック構成図である。It is a block block diagram of the image processing apparatus in the 6th Embodiment of this invention. 共通補正情報記憶部に記憶されている培養時間と共通補正情報γとが関連付けられたテーブルT3の1例である。It is an example of the table T3 in which the culture time stored in the common correction information storage unit is associated with the common correction information γ. 本発明の第6の実施形態における細胞オブジェクト抽出部のブロック構成図である。It is a block block diagram of the cell object extraction part in the 6th Embodiment of this invention. 本発明の第6の実施形態における細胞種推定部のブロック構成図である。It is a block block diagram of the cell type estimation part in the 6th Embodiment of this invention. 分類モデル記憶部462に記憶されている情報の一例である。4 is an example of information stored in a classification model storage unit 462. 第6の実施形態における画像処理装置において、ある細胞種がある培養時間において撮像された画像データから細胞オブジェクトを抽出する処理の流れを示したフローチャートである。In the image processing apparatus in 6th Embodiment, it is the flowchart which showed the flow of the process which extracts a cell object from the image data imaged in a certain culture | cultivation time with a certain cell type. 認識数記憶部に記憶されている誤差の割合ERのテーブルの1例を示した図である。It is the figure which showed one example of the table of the ratio ER of the error memorize | stored in the recognition number memory | storage part. 第6の実施形態における画像処理装置において、所定の培養時間におけるある細胞種の固有補正情報βと共通補正情報γとを算出する処理の流れを示したフローチャートである。14 is a flowchart showing a flow of processing for calculating specific correction information β and common correction information γ of a certain cell type in a predetermined culture time in the image processing apparatus according to the sixth embodiment. 本発明の第7の実施形態における細胞分類装置のブロック構成図である。It is a block block diagram of the cell classification device in the 7th Embodiment of this invention. 第7の実施形態で示された細胞分類装置の機能を兼ね備えるインキュベータの概要を示すブロック構成図である。It is a block block diagram which shows the outline | summary of the incubator which combines the function of the cell classification device shown by 7th Embodiment. 第7の実施形態で示された細胞分類装置の機能を兼ね備えるインキュベータの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the incubator which combines the function of the cell classification apparatus shown by 7th Embodiment.

(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について説明する。図1は本発明の第1の実施形態による分類モデル生成装置1の機能ブロック図の一例である。図2は、ノイズ推定部24の動作を説明するための説明図である。図3は、各特徴値の概要を示す図である。図4は、細胞オブジェクト記憶部72に記憶される情報の一例である。図5は、抽出条件記憶部74に記憶される情報の一例である。図6は、候補分類モデル記憶部76に記憶される情報の一例である。図7は、分類モデル記憶部80に記憶される情報の一例である。分類モデル生成装置1は、未知の細胞が撮像された撮像画像(以下、「未知属性撮像画像」という)である未知属性撮像画像、又は、未知属性撮像画像内の細胞を、細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an example of a functional block diagram of a classification model generation device 1 according to the first embodiment of the present invention. FIG. 2 is an explanatory diagram for explaining the operation of the noise estimation unit 24. FIG. 3 is a diagram showing an outline of each feature value. FIG. 4 is an example of information stored in the cell object storage unit 72. FIG. 5 is an example of information stored in the extraction condition storage unit 74. FIG. 6 is an example of information stored in the candidate classification model storage unit 76. FIG. 7 is an example of information stored in the classification model storage unit 80. The classification model generation device 1 converts an unknown attribute captured image, which is a captured image obtained by capturing an unknown cell (hereinafter referred to as “unknown attribute captured image”), or a cell in the unknown attribute captured image into a morphological form of the cell. A classification model is generated for classification for each attribute based on the feature.

分類モデル生成装置1は、図1に示すように、入出力部10、細胞オブジェクト認識部20、分類モデル生成部30、細胞オブジェクト記憶部72、抽出条件記憶部74、候補分類モデル記憶部76及び分類モデル記憶部80を備える。細胞オブジェクト認識部20は、2値化処理部22、ノイズ推定部(2値化データ取得部)24及び細胞オブジェクト特徴量算出部(ノイズ除去部)26を備える。分類モデル生成部30は、特徴的オブジェクト抽出部32、候補分類モデル形成部34及び分類モデル決定部36を備える。   As shown in FIG. 1, the classification model generation device 1 includes an input / output unit 10, a cell object recognition unit 20, a classification model generation unit 30, a cell object storage unit 72, an extraction condition storage unit 74, a candidate classification model storage unit 76, and A classification model storage unit 80 is provided. The cell object recognition unit 20 includes a binarization processing unit 22, a noise estimation unit (binarized data acquisition unit) 24, and a cell object feature amount calculation unit (noise removal unit) 26. The classification model generation unit 30 includes a characteristic object extraction unit 32, a candidate classification model formation unit 34, and a classification model determination unit 36.

入出力部10は、既知の同一属性の複数の細胞が撮像された撮像画像(以下、「既知同一属性撮像画像」という)を、当該細胞に係る属性情報とともに外部から取得し、細胞オブジェクト認識部20の2値化処理部22に出力する。属性情報は、当該細胞の名称、培養条件等を含む情報である。従って、既知同一属性撮像画像内に撮像されている細胞は、名称、培養条件等が全て同一の細胞である。既知同一属性撮像画像の取得元である外部は、例えば、インキュベータ311であるが、インキュベータ311については後述する。   The input / output unit 10 obtains, from the outside, a captured image obtained by capturing a plurality of cells having a known identical attribute (hereinafter referred to as “known identical-attribute captured image”) together with attribute information related to the cell, and a cell object recognizing unit 20 to the binarization processing unit 22. The attribute information is information including the name of the cell, culture conditions, and the like. Accordingly, the cells imaged in the known identical attribute captured image are all cells having the same name, culture conditions, and the like. The outside from which the known identical attribute captured image is acquired is, for example, an incubator 311. The incubator 311 will be described later.

また、入出力部10は、既知同一属性撮像画像を、属性情報及び撮像条件情報とともに外部から取得し、2値化処理部22に出力してもよい。撮像条件情報は、観察倍率や顕微鏡の光学系の収差、容器内の観察地点等を含む情報である。   The input / output unit 10 may acquire a known identical attribute captured image from the outside together with the attribute information and the imaging condition information, and output the acquired image to the binarization processing unit 22. The imaging condition information is information including the observation magnification, the aberration of the optical system of the microscope, the observation point in the container, and the like.

細胞オブジェクト認識部20は、既知同一属性撮像画像内の個々の細胞の撮像領域を細胞オブジェクトとして認識する。つまり、細胞オブジェクト認識部20の2値化処理部22が、既知同一属性撮像画像を2値化処理し、細胞オブジェクト認識部20のノイズ推定部24が、2値化処理後のデータ(以下、「2値化データ」という)から得られる全オブジェクトのなかからノイズに係るオブジェクト(以下、「ノイズオブジェクト」という)を推定し、細胞オブジェクト特徴量算出部26が、ノイズオブジェクト以外のオブジェクト(即ち、細胞オブジェクト)を認識する。以下、2値化処理部22、ノイズ推定部24及び細胞オブジェクト特徴量算出部26について順に説明する。   The cell object recognizing unit 20 recognizes an imaging region of each cell in the known identical attribute captured image as a cell object. That is, the binarization processing unit 22 of the cell object recognition unit 20 binarizes the known identical attribute captured image, and the noise estimation unit 24 of the cell object recognition unit 20 performs data after binarization processing (hereinafter referred to as “binary processing”). An object related to noise (hereinafter referred to as a “noise object”) is estimated from all objects obtained from “binary data”), and the cell object feature amount calculation unit 26 determines an object other than the noise object (ie, an object other than the noise object). Cell object). Hereinafter, the binarization processing unit 22, the noise estimation unit 24, and the cell object feature amount calculation unit 26 will be described in order.

2値化処理部22は、入出力部10から取得した既知同一属性撮像画像を所定の閾値によって2値化処理する。上記所定の閾値は、細胞の種類に応じたものであってもよい。例えば、2値化処理部22は、他の領域に比べて細胞の領域が黒めに撮像される既知同一属性撮像画像において、培養容器に固着する細胞である接着系細胞が撮像された場合、1つの閾値を用いて既知同一属性撮像画像を2値化処理する。より詳細には、2値化処理部22は、1つの閾値として画素値84を用いて、画素値84未満の領域を細胞の領域(例えば反転させて白)、画素値84以上の領域を細胞以外の領域(例えば反転させて黒)とする。また、例えば、2値化処理部22は、他の領域に比べて細胞の領域が黒めに撮像される既知同一属性撮像画像において、培養容器に固着せずに培養液中を浮遊する細胞である浮遊系細胞が撮像された場合、2つの閾値を用いて既知同一属性撮像画像を2値化処理する。より詳細には、2値化処理部22は、2つの閾値として画素値80、149を用いて、画素値80以上149未満の領域を細胞の領域(例えば反転させて白)、画素値80未満又は149以上の領域を細胞以外の領域(例えば反転させて黒)とする。なお、2値化処理部22は、既知同一属性撮像画像内に撮像されている細胞が、接着系細胞であるか浮遊系細胞であるかを示す情報を、入出力部10を介してインキュベータ311から取得し、上記閾値を決定してよい。   The binarization processing unit 22 binarizes the known identical attribute captured image acquired from the input / output unit 10 with a predetermined threshold. The predetermined threshold may be in accordance with the type of cell. For example, the binarization processing unit 22 captures an image of an adhesive cell that is a cell that adheres to a culture container in a known identical-attribute captured image in which a cell region is captured in black compared to other regions. A binarization process is performed on a known identical attribute captured image using two threshold values. More specifically, the binarization processing unit 22 uses the pixel value 84 as one threshold value, a region less than the pixel value 84 is a cell region (for example, inverted white), and a region greater than the pixel value 84 is a cell. Regions other than (for example, black by inversion). Further, for example, the binarization processing unit 22 is a cell that floats in the culture solution without being fixed to the culture vessel in a known identical-attribute captured image in which the cell region is imaged blacker than other regions. When a floating cell is imaged, a binarized process is performed on a known identical attribute captured image using two threshold values. More specifically, the binarization processing unit 22 uses the pixel values 80 and 149 as the two threshold values, converts the region of the pixel value 80 or more and less than 149 to the cell region (for example, inverted white), and the pixel value of less than 80. Alternatively, the region of 149 or more is set as a region other than the cell (for example, inverted to black). Note that the binarization processing unit 22 uses the input / output unit 10 to send information indicating whether the cells imaged in the known identical attribute captured image are adhesive cells or floating cells to the incubator 311. And the threshold value may be determined.

既知同一属性撮像画像を2値化処理した2値化処理部22は、入出力部10から取得した属性情報とともに、2値化データをノイズ推定部24に出力する。なお、2値化処理部22は、入出力部10から撮像条件情報を取得した場合には、属性情報及び撮像条件情報とともに、2値化データをノイズ推定部24に出力する。   The binarization processing unit 22 that binarized the known identical attribute captured image outputs the binarized data to the noise estimation unit 24 together with the attribute information acquired from the input / output unit 10. The binarization processing unit 22 outputs the binarized data to the noise estimation unit 24 together with the attribute information and the imaging condition information when acquiring the imaging condition information from the input / output unit 10.

ノイズ推定部24は、2値化処理部22から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する。以下、ノイズ推定部24によるノイズオブジェクトの推定方法について説明する。ノイズ推定部24は、細胞候補オブジェクト抽出部と特徴量抽出部と累積分布算出部の機能を備える。細胞候補オブジェクト抽出部としてのノイズ推定部24は、2値化データからから細胞オブジェクトの候補となる全オブジェクト(細胞候補オブジェクト)を抽出する。特徴量抽出部としてのノイズ推定部24は、まず、2値化処理部22から取得した2値化データから得られる各オブジェクトのオブジェクトサイズを測定する。   The noise estimation unit 24 estimates a noise object from all objects obtained from the binarized data acquired from the binarization processing unit 22. Hereinafter, a noise object estimation method by the noise estimation unit 24 will be described. The noise estimation unit 24 includes functions of a cell candidate object extraction unit, a feature amount extraction unit, and a cumulative distribution calculation unit. The noise estimation unit 24 as a cell candidate object extraction unit extracts all objects (cell candidate objects) that are cell object candidates from the binarized data. The noise estimation unit 24 as a feature amount extraction unit first measures the object size of each object obtained from the binarized data acquired from the binarization processing unit 22.

各オブジェクトのオブジェクトサイズを測定したノイズ推定部24は、累積分布算出部として、オブジェクトサイズ(面積)の大きさの順に各面積を有するオブジェクト(細胞候補オブジェクト)の数を順次加え合わせることで得られる累積度分布(累積度数分布)を算出する。例えば、ノイズ推定部24は、図2(a)に示すように、累積度分布(累積度数分布)を生成する。図2(a)に示す累積度分布(累積度数分布)において、X軸方向は単位をピクセルとするオブジェクトサイズ、Y軸方向は単位を百分率とする累積度(累積度数)である。   The noise estimation unit 24 that measures the object size of each object is obtained as a cumulative distribution calculation unit by sequentially adding the number of objects (cell candidate objects) having each area in the order of the object size (area). Cumulative degree distribution (cumulative frequency distribution) is calculated. For example, the noise estimation unit 24 generates a cumulative distribution (cumulative frequency distribution) as shown in FIG. In the cumulative frequency distribution (cumulative frequency distribution) shown in FIG. 2A, the X-axis direction is the object size in units of pixels, and the Y-axis direction is the cumulative level (cumulative frequencies) in units.

累積度分布(累積度数分布)を算出したノイズ推定部24は、算出した累積度分布(累積度数分布)の微分値に基づいて、ノイズオブジェクトを推定する。例えば、ノイズ推定部24は、図2(b)に示すように、図2(a)に示す累積度分布(累積度数分布)の微分値(傾き)を算出し、当該微分値に基づいて、ノイズオブジェクトを推定する。具体的には、ノイズ推定部24は、微分値の極小値を探索し、該極小値または該極小値の近傍を閾値として決定する。例えば、ノイズ推定部24は、極小値(図2(b)において値A)、または、極小値の近傍の値であって極小値よりも小さい値(図2(b)において値(A−α))から極小値の近傍の値であって極小値よりも大きい値(図2(b)において値(A+α))の範囲内の値を閾値として決定する。なお、経験上、閾値は、極小値の近傍の値であって極小値よりも小さい値とすることが好ましい。   The noise estimation unit 24 that calculates the cumulative degree distribution (cumulative frequency distribution) estimates a noise object based on the differential value of the calculated cumulative degree distribution (cumulative frequency distribution). For example, as shown in FIG. 2B, the noise estimation unit 24 calculates a differential value (slope) of the cumulative degree distribution (cumulative frequency distribution) shown in FIG. 2A, and based on the differential value, Estimate the noise object. Specifically, the noise estimation unit 24 searches for the minimum value of the differential value, and determines the minimum value or the vicinity of the minimum value as a threshold value. For example, the noise estimation unit 24 may determine the minimum value (value A in FIG. 2B) or a value near the minimum value and smaller than the minimum value (value (A−α in FIG. 2B)). )) In the vicinity of the minimum value and larger than the minimum value (value (A + α) in FIG. 2B) is determined as the threshold value. From experience, it is preferable that the threshold value is a value near the minimum value and smaller than the minimum value.

ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトをノイズオブジェクトとして推定する。若しくは、ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトにノイズオブジェクトである旨のラベルを付与し、オブジェクトサイズが該閾値以上であるオブジェクトに細胞オブジェクトである旨のラベルを付与する。   The noise estimation unit 24 estimates an object whose object size is less than the threshold as a noise object. Alternatively, the noise estimation unit 24 assigns a label indicating that the object size is less than the threshold value to the object that is a noise object, and assigns a label indicating that the object size is a cell object to an object that the object size is equal to or greater than the threshold value.

なお、図2(a)(b)の上部の「noise」「sell」の語は、値(A−α)以下のオブジェクトサイズでは、オブジェクトサイズが小さければ小さいほどノイズオブジェクトである可能性が高く、値(A+α)以上のオブジェクトサイズでは、オブジェクトサイズが大きければ大きいほど細胞オブジェクトである可能性が高いことを表したものである。   Note that the words “noise” and “cell” at the top of FIGS. 2A and 2B are more likely to be noise objects when the object size is smaller than the value (A−α). The object size equal to or larger than the value (A + α) indicates that the larger the object size, the higher the possibility of being a cell object.

なお、ノイズ推定部24は、オブジェクトサイズ(面積)の大きさの順に各面積を有するオブジェクト(細胞候補オブジェクト)の値自体を順次加え合わせることで得られる累積分布を算出してもよい。その場合、ノイズ推定部24は、累積分布の傾きが所定の値を超えたときの面積またはその面積の近傍を閾値として決定する。   Note that the noise estimation unit 24 may calculate a cumulative distribution obtained by sequentially adding values of objects (cell candidate objects) each having an area in order of the object size (area). In this case, the noise estimation unit 24 determines an area when the slope of the cumulative distribution exceeds a predetermined value or the vicinity of the area as a threshold value.

また、本実施形態において、ノイズ推定部24は、細胞候補オブジェクトの面積について、面積の大きさの順に各面積を有する細胞候補オブジェクトの数を順次加え合わせて累積度分布を算出したが、これに限らず、細胞候補オブジェクトの他の形態的特徴量(例えば、細胞候補オブジェクトの細胞の全長(長径)、細胞の横幅(短径)、外周の長さ等、少なくとも図3に示された形態的特徴量を含む)について、その形態的特徴量の値の順に、その形態的特徴量の値を有する細胞候補オブジェクトの数またはその形態的特徴量の値自体を順次加え合わせて累積分布を算出してもよい。その場合、特徴量抽出部としてのノイズ推定部24は、細胞候補オブジェクトの形態的特徴量を抽出する。   In the present embodiment, the noise estimation unit 24 calculates the cumulative distribution by sequentially adding the number of cell candidate objects having each area in order of the size of the area of the cell candidate object. Not limited to other morphological features of the cell candidate object (for example, the total cell length (major axis), the lateral width (minor axis) of the cell, the length of the outer circumference, etc. The cumulative distribution is calculated by sequentially adding the number of cell candidate objects having the morphological feature value or the morphological feature value itself in the order of the morphological feature value. May be. In that case, the noise estimation unit 24 as the feature amount extraction unit extracts the morphological feature amount of the cell candidate object.

また、ノイズ推定部24は、細胞候補オブジェクトの形態的特徴のうちから抽出された2つ以上の形態的特徴量から算出された値(例えば、長径×楕円形度、短径×楕円形度、長径×短径)について、その算出された値の順に、その算出された値を有する細胞候補オブジェクトの数またはその算出された値自体を順次加え合わせてもよい。   In addition, the noise estimation unit 24 calculates values (for example, major axis × ellipticity, minor axis × ellipticity, calculated from two or more morphological features extracted from the morphological features of the cell candidate object). (Major axis x minor axis), the number of cell candidate objects having the calculated value or the calculated value itself may be sequentially added in the order of the calculated value.

また、例えば、細胞候補オブジェクトの形態的特徴のうち2つの形態的特徴量(例えば、面積と楕円形度)を抽出し、抽出した2つの形態的特徴量のそれぞれを軸とする2次元平面上に各細胞候補オブジェクトがプロットされていることを想定する。その場合において、ノイズ推定部24は、一番目に多く周密しているクラスターと、二番目に多く周密しているクラスターとを抽出し、それぞれのクラスターの重心の座標を算出する。そして、ノイズ推定部24は、上記2つの重心と原点とを通る直線が一方の軸(例えば、面積をパラメータとする軸を一方の軸とする)と成す角度θを算出する。そして、ノイズ推定部24は、座標を角度θの回転変換し、回転後の一方の軸の値(例えば、cosθ×面積+sinθ×楕円形度)について、その値の順に、その値を有する細胞候補オブジェクトの数またはその値自体を順次加え合わせて累積分布を算出してもよい。   Further, for example, two morphological features (for example, area and ellipticity) are extracted from the morphological features of the cell candidate object, and the two morphological features are extracted on a two-dimensional plane. Assume that each cell candidate object is plotted. In that case, the noise estimation unit 24 extracts the cluster that is the most densely packed first and the cluster that is the second most densely packed, and calculates the coordinates of the center of gravity of each cluster. Then, the noise estimation unit 24 calculates an angle θ formed by a straight line passing through the two centroids and the origin with one axis (for example, an axis whose area is a parameter is one axis). Then, the noise estimation unit 24 transforms the coordinates by an angle θ, and with respect to the value of one axis after rotation (for example, cos θ × area + sin θ × ellipticity), cell candidates having the values in the order of the values The cumulative distribution may be calculated by sequentially adding the number of objects or the value itself.

すなわち、ノイズ推定部24は、細胞候補オブジェクトの形態的特徴のうちから2つ以上の形態的特徴を抽出し、抽出された形態的特徴量のそれぞれを軸とする座標において角度θの回転変換により算出された値(例えば、cosθ×面積+sinθ×楕円形度、但し、θは角度)について、その算出された値の順に、その算出された値を有する細胞候補オブジェクトの数またはその算出された値自体を順次加え合わせてもよい。   That is, the noise estimation unit 24 extracts two or more morphological features from the morphological features of the cell candidate object, and performs rotational transformation of the angle θ on the coordinates with the extracted morphological feature amounts as axes. Regarding the calculated value (for example, cos θ × area + sin θ × ellipticity, where θ is an angle), the number of cell candidate objects having the calculated value or the calculated value in the order of the calculated value They may be added sequentially.

また、本実施形態において、累積度分布の算出の際にノイズ推定部24は、細胞候補オブジェクトの面積について、面積の大きさの順に各面積を有する細胞候補オブジェクトの数を順次加え合わせたが、これに限らず、ノイズ推定部24は、面積を所定の間隔毎に区分された際の区分毎の面積の数を順次加え合わせてもよい。具体的には、例えば、ノイズ推定部24は、所定の値を5[ピクセル]として、面積が1ピクセルから5ピクセルの細胞候補オブジェクトの数が5個、面積が6ピクセルから10ピクセルの細胞候補オブジェクトの数が10個あった場合、ノイズ推定部24は、面積が6から10ピクセルの累積度を15個と算出する。そして、これを繰り返すことにより、累積度分布を算出する。   Further, in the present embodiment, when calculating the cumulative distribution, the noise estimation unit 24 sequentially adds the number of cell candidate objects having each area in order of the size of the area of the cell candidate object. However, the present invention is not limited to this, and the noise estimation unit 24 may sequentially add the number of areas for each division when the areas are divided at predetermined intervals. Specifically, for example, the noise estimation unit 24 sets a predetermined value to 5 [pixels], the number of cell candidate objects having an area of 1 to 5 pixels is 5, and cell candidates having an area of 6 to 10 pixels. When there are 10 objects, the noise estimation unit 24 calculates the cumulative degree of the area of 6 to 10 pixels as 15. Then, by repeating this, the cumulative distribution is calculated.

以上、まとめると、ノイズ推定部24は、細胞候補オブジェクトの形態的特徴量に基づく値(例えば、面積、長径、長径×楕円形度、cosθ×面積+sinθ×楕円形度)が所定の間隔毎に区分された際の区分毎の当該形態的特徴量に基づく値の出現頻度または当該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を算出すればよい。   In summary, the noise estimation unit 24 calculates values (for example, area, major axis, major axis × ellipticity, cos θ × area + sin θ × ellipticity) based on the morphological feature amount of the cell candidate object at predetermined intervals. What is necessary is just to calculate the cumulative distribution obtained by sequentially adding one of either the appearance frequency of the value based on the morphological feature quantity or the value based on the morphological feature quantity for each division when the classification is performed.

また、本実施形態におけるノイズ推定部24は、累積度分布の微分値に基づいて細胞オブジェクトまたはノイズに係るオブジェクトを抽出したがこれに限らず、累積分布の傾き、累積分布の累積値そのもの、累積分布のカーブの形状、累積分布の累積値の変化パターンまたは累積分布の近似式に基づいて細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。   In addition, the noise estimation unit 24 in the present embodiment extracts a cell object or an object related to noise based on the differential value of the cumulative distribution, but the present invention is not limited thereto, and the slope of the cumulative distribution, the cumulative value of the cumulative distribution itself, A cell object or an object related to noise may be extracted based on a shape of a distribution curve, a change pattern of a cumulative value of the cumulative distribution, or an approximate expression of the cumulative distribution.

具体的には、例えば、ノイズ推定部24は、面積の累積度分布において、累積分布のカーブの傾きが、0にもっとも近づいたときの面積を閾値として、細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。また、例えば、ノイズ推定部24は、面積の累積度分布において、累積度分布の累積度の値が所定の値(例えば、100)を超えたときの面積を閾値として、細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。   Specifically, for example, the noise estimation unit 24 extracts a cell object or an object related to noise using, as a threshold, the area when the slope of the cumulative distribution curve approaches 0 in the cumulative distribution of area. May be. In addition, for example, the noise estimation unit 24 relates to the cell object or the noise using the area when the cumulative degree value of the cumulative degree distribution exceeds a predetermined value (for example, 100) as a threshold in the cumulative degree distribution of the area. Objects may be extracted.

また、例えば、ノイズ推定部24は、面積の累積度分布において、累積度分布のカーブの形状から、カーブがx軸と最も平行になった面積を閾値として、細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。また、例えば、ノイズ推定部24は、面積の累積度分布において、累積度分布の所定の面積毎の累積度の値の増加が所定の閾値以下になったときの面積を閾値として、細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。また、例えば、ノイズ推定部24は、面積の累積度分布において、累積度分布の3次の近似式を算出し、その3次の近似式の係数から変曲点のx座標を算出し、その変曲点のx座標の値を閾値として、細胞オブジェクトまたはノイズに係るオブジェクトを抽出してもよい。   In addition, for example, the noise estimation unit 24 extracts a cell object or an object related to noise from the shape of the cumulative degree distribution curve, using the area where the curve is most parallel to the x-axis as a threshold value. May be. In addition, for example, the noise estimation unit 24 uses the area when the increase in the cumulative value for each predetermined area of the cumulative degree distribution is equal to or lower than a predetermined threshold in the cumulative distribution of the area as a threshold, An object related to noise may be extracted. Further, for example, the noise estimation unit 24 calculates a third-order approximate expression of the cumulative distribution in the cumulative distribution of area, calculates the x coordinate of the inflection point from the coefficient of the third-order approximate expression, and A cell object or an object related to noise may be extracted using the value of the x coordinate of the inflection point as a threshold value.

2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定したノイズ推定部24は、属性情報とともに、2値化データ、及び、ノイズ推定部24による推定結果を示す情報(以下、「推定結果情報」という)を細胞オブジェクト特徴量算出部26に出力する。推定結果情報の一例は、ノイズオブジェクトの領域を示す情報、または、ノイズオブジェクトまたは細胞オブジェクトの何れかである旨のラベルが付与された各オブジェクトの領域を示す情報である。なお、ノイズ推定部24は、2値化処理部22から撮像条件情報を取得した場合には、属性情報及び撮像条件情報とともに、2値化データ及び推定結果情報を細胞オブジェクト特徴量算出部26に出力する。     The noise estimation unit 24 that estimated the noise object from all the objects obtained from the binarized data includes the binarized data and information indicating the estimation result by the noise estimation unit 24 (hereinafter referred to as “estimation result”) along with the attribute information. Information ”) is output to the cell object feature amount calculation unit 26. An example of the estimation result information is information indicating the area of the noise object, or information indicating the area of each object to which a label indicating that the object is a noise object or a cell object is given. Note that when the imaging condition information is acquired from the binarization processing unit 22, the noise estimation unit 24 sends the binarized data and the estimation result information to the cell object feature amount calculation unit 26 together with the attribute information and the imaging condition information. Output.

なお、ノイズ推定部24は、最急降下法などの極値探索法を用いて、微分値の極小値を探索してもよいが、オブジェクトサイズが所定値以上の範囲において微分値の極小値を探索してもよい。具体的には、複数枚の数種類の画像を比較検証した結果から、所定値以上の範囲は、100pixel以上とすると好適である。     The noise estimation unit 24 may search for the minimum value of the differential value using an extreme value search method such as the steepest descent method, but searches for the minimum value of the differential value in a range where the object size is equal to or larger than a predetermined value. May be. Specifically, it is preferable that the range of a predetermined value or more is 100 pixels or more based on the result of comparison and verification of several types of images.

また、ノイズ推定部24は、累積度を構成するオブジェクトサイズ及び累積値の各点のうち、所定間隔の2点を用いて微分値を算出してもよい。例えば、ノイズ推定部24は、累積度分布の微分を点、即ち、傾きを算出する点を10点間隔としてもよい。     Moreover, the noise estimation part 24 may calculate a differential value using two points | pieces of a predetermined space | interval among each point of the object size and accumulation value which comprise accumulation degree. For example, the noise estimator 24 may set the differentiation of the cumulative degree distribution as points, that is, the point at which the slope is calculated as 10-point intervals.

細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する。換言すれば、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する。     Based on the binarized data and the estimation result information acquired from the noise estimating unit 24, the cell object feature amount calculating unit 26 removes the noise object from all the objects obtained from the binarized data. In other words, the cell object feature amount calculation unit 26 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 24.

上記の処理についてまとめると、ノイズ推定部24は、細胞が撮像された画像データから細胞オブジェクトの候補となる全オブジェクト(細胞候補オブジェクト)を抽出し、細胞候補オブジェクトの面積を算出し、その面積の大きさの順に各面積を有する細胞候補オブジェクトの数を順次加え合わせることで得られる累積度数分布を算出し、その累積度数分布の傾きに基づいて、細胞候補オブジェクトのうちから細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出する。そして、細胞オブジェクト特徴量算出部26は、細胞候補オブジェクトのうちからノイズに係るオブジェクトを除去することにより、細胞オブジェクトを抽出する。   To summarize the above processing, the noise estimation unit 24 extracts all objects (cell candidate objects) that are candidates for cell objects from the image data obtained by imaging the cells, calculates the area of the cell candidate object, and calculates the area of the area. The cumulative frequency distribution obtained by sequentially adding the number of cell candidate objects having each area in order of size is calculated, and based on the slope of the cumulative frequency distribution, an object other than the cell object is selected from among the cell candidate objects. An object related to a certain noise is extracted. Then, the cell object feature amount calculation unit 26 extracts a cell object by removing an object related to noise from the cell candidate objects.

換言すれば、ノイズ推定部24と細胞オブジェクト特徴量算出部26とは、抽出部として機能し、当該抽出部は、累積分布に基づいて、細胞候補オブジェクトのうちから細胞オブジェクトまたは細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出する。   In other words, the noise estimation unit 24 and the cell object feature amount calculation unit 26 function as an extraction unit, and the extraction unit is an object other than a cell object or a cell object from among cell candidate objects based on a cumulative distribution. An object related to noise is extracted.

なお、細胞オブジェクト認識部20は、最初に細胞候補オブジェクトの面積の累積分布に基づいてノイズに係るオブジェクトを除去した後に、面積以外の形態的特徴量の累積分布に基づいて、ノイズに係るオブジェクトを除去してもよい。また、細胞オブジェクト認識部20は、上記とは逆の順番でノイズに係るオブジェクトを除去してもよく、すなわち最初に面積以外の形態的特徴量の累積分布に基づいてノイズに係るオブジェクトを除去した後に、細胞候補オブジェクトの面積の累積分布に基づいてノイズに係るオブジェクトを除去してもよい。   The cell object recognizing unit 20 first removes the object related to noise based on the cumulative distribution of the area of the cell candidate object, and then selects the object related to noise based on the cumulative distribution of the morphological feature amount other than the area. It may be removed. Further, the cell object recognition unit 20 may remove the object related to noise in the reverse order to the above, that is, the object related to noise is first removed based on the cumulative distribution of morphological features other than the area. Later, the object related to noise may be removed based on the cumulative distribution of the area of the cell candidate object.

これにより、細胞オブジェクト認識部20は、面積の累積分布と面積以外の形態的特徴量の累積分布を用いて、2回ノイズに係るオブジェクトを除去するので、ノイズ除去精度を高めることができる。   Thereby, the cell object recognition unit 20 removes the object related to noise twice using the cumulative distribution of the area and the cumulative distribution of the morphological feature other than the area, so that the noise removal accuracy can be improved.

また、細胞オブジェクト認識部20は、最初に所定の面積以上の細胞候補オブジェクトを抽出し、抽出した細胞候補オブジェクトについての一の形態的特徴量の累積分布に基づいて、ノイズに係るオブジェクトを除去してもよい。
これにより、細胞オブジェクト認識部20は、最初に粗く細胞オブジェクトを抽出し、その後に一の形態的特徴量の累積分布に基づいて、ノイズに係るオブジェクトを除去するので、ノイズ除去精度を高めることができる。また、細胞オブジェクト認識部20は、累積分布の算出回数を1回にすることができるので、2回累積分布を算出するのに比べて計算時間を短縮することができる。
In addition, the cell object recognition unit 20 first extracts a cell candidate object having a predetermined area or more, and removes an object related to noise based on the cumulative distribution of one morphological feature amount of the extracted cell candidate object. May be.
Thereby, the cell object recognition unit 20 first extracts the cell object roughly, and then removes the object related to the noise based on the cumulative distribution of one morphological feature amount, so that the noise removal accuracy can be improved. it can. In addition, since the cell object recognition unit 20 can calculate the cumulative distribution once, the calculation time can be shortened compared to calculating the cumulative distribution twice.

また、細胞オブジェクト認識部20は、ノイズ除去の試行毎に、形態的特徴量から異なる一の形態的特徴量を選択し、選択した形態的特徴量の累積度分布を用いてノイズに係るオブジェクトを複数回除去してもよい。これにより、細胞オブジェクト認識部20は、異なる形態的特徴量の累積分布を用いて、複数回ノイズを除去するので、ノイズ除去精度を高めることができる。   The cell object recognizing unit 20 selects one different morphological feature amount from the morphological feature amount for each trial of noise removal, and uses the cumulative distribution of the selected morphological feature amount to select an object related to noise. It may be removed multiple times. Thereby, since the cell object recognition part 20 removes noise several times using the cumulative distribution of a different morphological feature-value, it can improve noise removal precision.

続いて、細胞オブジェクト特徴量算出部26は、認識した個々の細胞オブジェクトの形態的特徴量を算出する。一例として、細胞オブジェクト特徴量算出部26は、各細胞オブジェクトについて以下の15種類の形態的特徴量をそれぞれ算出する。     Subsequently, the cell object feature amount calculation unit 26 calculates the morphological feature amount of each recognized cell object. As an example, the cell object feature amount calculation unit 26 calculates the following 15 types of morphological feature amounts for each cell object.

・Total area(図3の(a)参照)「Total area」は、注目する細胞の面積を示す値である。例えば、細胞オブジェクト特徴量算出部26は、注目する細胞の領域の画素数に基づいて「Total area」の値を算出することができる。   Total area (see FIG. 3A) “Total area” is a value indicating the area of the cell of interest. For example, the cell object feature amount calculation unit 26 can calculate the value of “Total area” based on the number of pixels in the cell area of interest.

・Hole area(図3の(b)参照)「Hole area」は、注目する細胞内のHoleの面積を示す値である。ここで、Holeは、コントラストによって、細胞内における画像の明るさが閾値以上となる部分(位相差観察では白に近い状態となる箇所)を指す。例えば、細胞内小器官のリソソームなどがHoleとして検出される。また、画像によっては、細胞核や、他の細胞小器官がHoleとして検出されうる。なお、細胞オブジェクト特徴量算出部26は、細胞内における輝度値が閾値以上となる画素のまとまりをHoleとして検出し、このHoleの画素数に基づいて「Hole area」の値を算出すればよい。   -Hole area (refer to (b) of Drawing 3) "Hole area" is a value which shows the area of Hole in the cell of interest. Here, Hole refers to a portion where the brightness of the image in the cell is equal to or greater than a threshold value due to contrast (a portion that is close to white in phase difference observation). For example, lysosomes of intracellular organelles are detected as Hole. Further, depending on the image, a cell nucleus and other organelles can be detected as Hole. Note that the cell object feature amount calculation unit 26 may detect a group of pixels in which the luminance value in the cell is equal to or greater than the threshold as Hole, and calculate the value of “Hole area” based on the number of pixels of the Hole.

・relative hole area(図3の(c)参照)「relative hole area」は、「Hole area」の値を「Total area」の値で除した値である(relative hole area=Hole area/Total area)。この「relative hole area」は、細胞の大きさにおける細胞内小器官の割合を示すパラメータであって、例えば細胞内小器官の肥大化や核の形の悪化などに応じてその値が変動する。   • relative hole area (see (c) of FIG. 3) “relative hole area” is a value obtained by dividing the value of “Hole area” by the value of “Total area” (relative hole area = Hole area / Total) . The “relative hole area” is a parameter indicating the ratio of the organelle in the cell size, and the value varies depending on, for example, enlargement of the organelle or deterioration of the shape of the nucleus.

・Perimeter(図3(d)参照)「Perimeter」は、注目する細胞の外周の長さを示す値である。例えば、細胞オブジェクト特徴量算出部26は、細胞を抽出するときの輪郭追跡処理により「Perimeter」の値を取得することができる。   Perimeter (see FIG. 3D) “Perimeter” is a value indicating the length of the outer periphery of the cell of interest. For example, the cell object feature amount calculation unit 26 can acquire the value of “Perimeter” by the contour tracking process when extracting cells.

・Width(図3の(e)参照)「Width」は、注目する細胞の画像横方向(X方向)での長さを示す値である。   Width (see (e) in FIG. 3) “Width” is a value indicating the length of the cell of interest in the horizontal direction (X direction) of the image.

・Height(図3の(f)参照)「Height」は、注目する細胞の画像縦方向(Y方向)での長さを示す値である。   Height (see (f) in FIG. 3) “Height” is a value indicating the length of the cell of interest in the image vertical direction (Y direction).

・Length(図3の(g)参照)「Length」は、注目する細胞を横切る線のうちの最大値(細胞の全長)を示す値である。   Length (see (g) in FIG. 3) “Length” is a value indicating the maximum value (total length of the cell) of lines crossing the cell of interest.

・Breadth(図3の(h)参照)「Breadth」は、「Length」に直交する線のうちの最大値(細胞の横幅)を示す値である。   -Breadth (see (h) of FIG. 3) "Breadth" is a value indicating the maximum value (lateral width of the cell) among lines orthogonal to "Length".

・Fiber Length(図3の(i)参照)「Fiber Length」は、注目する細胞を擬似的に線状と仮定した場合の長さを示す値である。細胞オブジェクト特徴量算出部26は、下記式(1)により「Fiber Length」の値を算出する。   Fiber Length (see (i) in FIG. 3) “Fiber Length” is a value indicating the length when the target cell is assumed to be pseudo linear. The cell object feature amount calculation unit 26 calculates the value of “Fiber Length” by the following equation (1).

但し、本明細書の式中において「P」はPerimeterの値を示す。同様に「A」はTotal Areaの値を示す。     However, in the formulas in this specification, “P” indicates the value of Perimeter. Similarly, “A” indicates the value of Total Area.

・Fiber Breadth(図3の(j)参照)「Fiber Breadth」は、注目する細胞を擬似的に線状と仮定した場合の幅(Fiber Lengthと直交する方向の長さ)を示す値である。細胞オブジェクト特徴量算出部26は、下記式(2)により「Fiber Breadth」の値を算出する。   Fiber Blade (see (j) in FIG. 3) “Fiber Breath” is a value indicating a width (a length in a direction perpendicular to Fiber Length) when a target cell is assumed to be pseudo linear. The cell object feature amount calculation unit 26 calculates the value of “Fiber Breath” by the following equation (2).

・Shape Factor(図3の(k)参照)「Shape Factor」は、注目する細胞の円形度(細胞の丸さ)を示す値である。細胞オブジェクト特徴量算出部26は、下記式(3)により「Shape Factor」の値を算出する。   Shape Factor (see (k) in FIG. 3) “Shape Factor” is a value indicating the roundness (roundness of the cell) of the cell of interest. The cell object feature amount calculation unit 26 calculates the value of “Shape Factor” by the following equation (3).

・Elliptical form Factor(図3の(l)参照)「Elliptical form Factor」は、「Length」の値を「Breadth」の値で除した値(Elliptical form Factor=Length/Breadth)であって、注目する細胞の細長さの度合い(楕円形度)を示すパラメータとなる。   Elliptical form factor (see (l) in FIG. 3) “Elliptical form factor” is a value obtained by dividing the value of “Length” by the value of “Breadth” (Elliptical form Factor = Length / Breadth) This is a parameter indicating the degree of cell slenderness (ellipticity).

・Inner radius(図3の(m)参照)「Inner radius」は、注目する細胞の内接円の半径を示す値である。 Inner radius (see (m) in FIG. 3) “Inner radius” is a value indicating the radius of the inscribed circle of the cell of interest.

・Outer radius(図3の(n)参照)「Outer radius」は、注目する細胞の外接円の半径を示す値である。 Outer radius (see (n) in FIG. 3) “Outer radius” is a value indicating the radius of the circumscribed circle of the cell of interest.

・Mean radius(図3の(o)参照)「Mean radius」は、注目する細胞の輪郭を構成する全点とその重心点との平均距離を示す値である。 Mean radius (see (o) of FIG. 3) “Mean radius” is a value indicating the average distance between all points constituting the outline of the cell of interest and its centroid point.

・Equivalent radius(図3の(p)参照)「Equivalent radius」は、注目する細胞と同面積の円の半径を示す値である。この「Equivalent radius」のパラメータは、注目する細胞を仮想的に円に近似した場合の大きさを示している。 Equivalent radius (see (p) of FIG. 3) “Equivalent radius” is a value indicating the radius of a circle of the same area as the cell of interest. The parameter “Equivalent radius” indicates the size when the cell of interest is virtually approximated to a circle.

ここで、細胞オブジェクト特徴量算出部26は、細胞に対応する画素数に誤差分を加味して上記の各形態的特徴量を算出してもよい。このとき、細胞オブジェクト特徴量算出部26は、顕微鏡画像の撮像条件(観察倍率や顕微鏡の光学系の収差等)を考慮して形態的特徴量を算出するようにしてもよい。なお、「Inner radius」、「Outer radius」、「Mean radius」、「Equivalent radius」を算出するときには、細胞オブジェクト特徴量算出部26は、公知の重心演算の手法に基づいて各細胞の重心点を求め、この重心点を基準にして各パラメータを算出すればよい。   Here, the cell object feature value calculation unit 26 may calculate each of the morphological feature values by adding an error to the number of pixels corresponding to the cell. At this time, the cell object feature amount calculation unit 26 may calculate the morphological feature amount in consideration of imaging conditions of the microscope image (observation magnification, aberration of the optical system of the microscope, and the like). When calculating “Inner radius”, “Outer radius”, “Mean radius”, and “Equivalent radius”, the cell object feature amount calculation unit 26 calculates the center of gravity of each cell based on a known center of gravity calculation method. What is necessary is just to obtain | require and calculate each parameter on the basis of this barycentric point.

個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部26は、属性情報に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する。なお、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から撮像条件情報を取得した場合には、属性情報及び撮像条件情報に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する。   The cell object feature amount calculation unit 26 that has calculated the morphological feature amount of each cell object stores the morphological feature amount of each cell object in the cell object storage unit 72 in association with the attribute information. When the cell object feature value calculation unit 26 acquires the imaging condition information from the noise estimation unit 24, the cell object feature value calculation unit 26 associates the morphological feature value of each cell object with the cell object storage in association with the attribute information and the imaging condition information. Store in the unit 72.

細胞オブジェクト記憶部72は、種々の属性の細胞を撮像した複数の既知同一属性撮像画像から認識された細胞オブジェクトに関する情報を記憶する。具体的には、細胞オブジェクト記憶部72は、図4に示すように、既知同一属性撮像を識別する画像IDに対応付けて、属性情報、撮像条件情報、及び、個々の細胞オブジェクトの形態的特徴量を記憶する。例えば、図4に示す例において、細胞オブジェクト記憶部72は、画像ID「P001」に対応付けて、名称「A」、培養条件「○○」、活性「××」を含む属性情報、観察倍率「X倍」を含む撮像条件情報、及び、N個の細胞オブジェクトの形態的特徴量を記憶している。 The cell object storage unit 72 stores information related to cell objects recognized from a plurality of known identical attribute captured images obtained by imaging cells having various attributes. Specifically, as shown in FIG. 4, the cell object storage unit 72 associates attribute information, imaging condition information, and morphological characteristics of each cell object with an image ID that identifies known identical attribute imaging. Remember the amount. For example, in the example illustrated in FIG. 4, the cell object storage unit 72 associates the image ID “P001” with the attribute information including the name “A”, the culture condition “OO”, and the activity “XX”, and the observation magnification. The imaging condition information including “X times” and the morphological feature amount of N 1 cell objects are stored.

抽出条件記憶部74は、特徴的オブジェクト抽出部32が細胞オブジェクト記憶部72のなかから分類モデルの候補となるモデル(以下、「候補分類モデル」という)の生成に用いる特徴的なオブジェクト(以下、「特徴的オブジェクト」という)を抽出するときの抽出条件を記憶する。例えば、抽出条件記憶部74は、図5に示すように、個々の細胞オブジェクトが有する複数の形態的特徴量に係る抽出条件情報を記憶する。図5に示す例では、抽出条件記憶部74は、抽出条件1として「面積が平均値より上位25%を抽出」、抽出条件2として「面積が平均値より下位25%を抽出」、…、抽出条件5として「幅が平均値より上位25%を抽出」、抽出条件6として「幅が平均値より下位25%を抽出」を記憶している。   The extraction condition storage unit 74 includes a characteristic object (hereinafter referred to as “candidate classification model”) that is used by the characteristic object extraction unit 32 to generate a model that is a classification model candidate (hereinafter referred to as “candidate classification model”) from the cell object storage unit 72. The extraction condition when extracting “characteristic object”) is stored. For example, as illustrated in FIG. 5, the extraction condition storage unit 74 stores extraction condition information related to a plurality of morphological feature amounts of individual cell objects. In the example shown in FIG. 5, the extraction condition storage unit 74 has the extraction condition 1 “extract the upper 25% from the average value”, the extraction condition 2 “extract the lower 25% from the average value”,. As extraction condition 5, “extract 25% higher than average value” is stored, and as extraction condition 6, “extract 25% lower than average value” is stored.

なお、抽出条件記憶部74は、図5に示す例においては、「面積」「長さ」「幅」の3種類の形態的特徴量に係る抽出条件を記憶しているが、細胞オブジェクト記憶部72に記憶されている形態的特徴量に対応する全ての形態的特徴量に係る抽出条件を記憶することが好ましい。   In the example shown in FIG. 5, the extraction condition storage unit 74 stores extraction conditions relating to three types of morphological feature amounts of “area”, “length”, and “width”, but the cell object storage unit It is preferable to store extraction conditions relating to all the morphological feature amounts corresponding to the morphological feature amounts stored in 72.

また、図5に示す抽出条件は、平均値を基準値としているが、例えば、最大値、中央値などの平均値以外の値を基準としてもよい。また、図5に示す抽出条件は、所定範囲内を規定する値を25%としているが、25%以外の値であってもよい。また例えば、図5に示す抽出条件は、例えば、抽出条件1と抽出条件2に示すように、同一の形態的特徴量については、所定範囲内を規定する値は同一の値であるが、例えば、抽出条件1として「面積が平均値より上位20%を抽出」、抽出条件2として「面積が平均値より下位30%を抽出」というように、同一の形態的特徴量について、所定範囲内を規定する値が異なる値であってもよい。また例えば、図5に示す抽出条件は、例えば、何れの形態的特徴量についても、所定範囲内を規定する値は同一の値であるが、例えば、抽出条件1として「面積が平均値より上位20%を抽出」、抽出条件5として「幅が平均値より上位30%を抽出」というように、異なる形態的特徴量について、所定範囲内を規定する値が異なる値であってもよい。   Further, the extraction condition shown in FIG. 5 uses the average value as a reference value, but may use a value other than the average value such as a maximum value or a median value as a reference. Further, in the extraction condition shown in FIG. 5, the value defining the predetermined range is 25%, but may be a value other than 25%. Further, for example, as shown in the extraction condition 1 and the extraction condition 2, for example, the extraction condition shown in FIG. 5 has the same value for defining the predetermined range for the same morphological feature amount. The same morphological feature amount within a predetermined range, such as “extract the upper 20% of the area from the average value” as the extraction condition 1 and “extract the lower 30% of the area from the average value” as the extraction condition 2 Different values may be specified. Further, for example, in the extraction condition shown in FIG. 5, for example, the value that defines the predetermined range is the same value for any morphological feature amount. For example, as the extraction condition 1, “the area is higher than the average value” For example, “extracting 20%” and “extracting 30% higher than the average value” as the extraction condition 5 may be different values for different morphological feature values that define the predetermined range.

分類モデル生成部30は、細胞オブジェクトの形態的特徴量及び細胞オブジェクトとして認識された細胞の属性に基づいて、分類モデルを生成する。つまり、分類モデル生成部30の特徴的オブジェクト抽出部32が、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトのなかから所定の形態的特徴量を有する細胞オブジェクトを特徴的オブジェクトとして抽出し、分類モデル生成部30の候補分類モデル形成部34が、特徴的オブジェクトの形態的特徴量及び特徴的オブジェクトとして認識された細胞の属性から複数の候補分類モデルを形成し、分類モデル決定部36が複数の候補分類モデルのなかから分類モデルを決定する。以下、特徴的オブジェクト抽出部32、候補分類モデル形成部34及び分類モデル決定部36について順に説明する。   The classification model generation unit 30 generates a classification model based on the morphological feature amount of the cell object and the attribute of the cell recognized as the cell object. That is, the characteristic object extraction unit 32 of the classification model generation unit 30 extracts a cell object having a predetermined morphological feature amount from the cell objects stored in the cell object storage unit 72 as a characteristic object, and classifies it. The candidate classification model formation unit 34 of the model generation unit 30 forms a plurality of candidate classification models from the morphological feature amounts of the characteristic objects and the attributes of the cells recognized as the characteristic objects, and the classification model determination unit 36 includes the plurality of classification model determination units 36. A classification model is determined from the candidate classification models. Hereinafter, the characteristic object extraction unit 32, the candidate classification model formation unit 34, and the classification model determination unit 36 will be described in order.

特徴的オブジェクト抽出部32は、基準値から所定範囲内の値の形態的特徴量を有する細胞オブジェクトを特徴的オブジェクトとして抽出する。具体的には、特徴的オブジェクト抽出部32は、抽出条件記憶部74に記憶されている抽出条件に従って、細胞オブジェクト記憶部72に記憶されている複数の細胞オブジェクトのなかから特徴的オブジェクトを抽出する。より詳細には、特徴的オブジェクト抽出部32は、抽出条件記憶部74に記憶されている抽出条件を順次に変えて、細胞オブジェクト記憶部72に記憶されている複数の細胞オブジェクトのなかから、抽出条件毎に特徴的オブジェクトを抽出する。   The characteristic object extraction unit 32 extracts a cell object having a morphological characteristic value within a predetermined range from the reference value as a characteristic object. Specifically, the characteristic object extraction unit 32 extracts a characteristic object from a plurality of cell objects stored in the cell object storage unit 72 according to the extraction conditions stored in the extraction condition storage unit 74. . More specifically, the characteristic object extraction unit 32 sequentially extracts the extraction conditions stored in the extraction condition storage unit 74 and extracts from the plurality of cell objects stored in the cell object storage unit 72. A characteristic object is extracted for each condition.

特徴的オブジェクト抽出部32が特徴的オブジェクトを抽出する態様は、種々の態様が考えられる。例えば、細胞オブジェクト記憶部72に図4に示すN個の細胞オブジェクト、N個の細胞オブジェクト、N個の細胞オブジェクトのみが記憶され、抽出条件記憶部74に図5に示す抽出条件情報が記憶されている場合を例に、幾つかの抽出態様を説明する。 There are various modes in which the characteristic object extracting unit 32 extracts the characteristic objects. For example, only N 1 cell objects, N 2 cell objects, and N 3 cell objects shown in FIG. 4 are stored in the cell object storage unit 72, and the extraction condition information shown in FIG. Several extraction modes will be described by taking as an example the case where is stored.

(第1の抽出態様)
特徴的オブジェクト抽出部32は、まず、(N+N+N)個の細胞オブジェクトの面積の平均値、長さの平均値及び幅の平均値を算出する。次いで、特徴的オブジェクト抽出部32は、(N+N+N)個の細胞オブジェクトのなかから、面積に関する抽出条件である抽出条件1又2の何れか一方の抽出条件を満たし、かつ、長さに関する抽出条件である抽出条件3又4の何れか一方の抽出条件を満たし、かつ、幅に関する抽出条件である抽出条件5又6の何れか一方の抽出条件を満たす細胞オブジェクトを特徴的オブジェクトとして抽出する。例えば、特徴的オブジェクト抽出部32は、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内(抽出条件1)であって、かつ、長さが平均値〜平均値より25%小さい値の範囲内(抽出条件4)であって、かつ、幅が平均値〜平均値より25%大きい値の範囲内(抽出条件5)である細胞オブジェクトを特徴的オブジェクトとして抽出する。なお、上記のAND条件(即ち「かつ」)をOR(即ち「または」)としてもよい。第1の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2の{形態的特徴量数}乗パターンである。例えば、上記例の場合、形態的特徴量は3であるため8パターンである。
(First extraction mode)
The characteristic object extraction unit 32 first calculates an average area value, an average length value, and an average width value of (N 1 + N 2 + N 3 ) cell objects. Next, the characteristic object extraction unit 32 satisfies either one of the extraction conditions 1 and 2 which are extraction conditions related to the area among (N 1 + N 2 + N 3 ) cell objects, and is long. A cell object that satisfies any one of the extraction conditions 3 and 4 that are extraction conditions related to the depth and that satisfies the extraction condition 5 or 6 that is the extraction conditions related to the width is defined as a characteristic object. Extract. For example, the characteristic object extraction unit 32 has an area within a range of an average value to a value 25% larger than the average value (extraction condition 1) among (N 1 + N 2 + N 3 ) cell objects, In addition, the length is within the range of the average value to 25% smaller than the average value (extraction condition 4), and the width is within the range of the average value to 25% larger than the average value (extraction condition 5). A certain cell object is extracted as a characteristic object. The AND condition (that is, “and”) may be OR (that is, “or”). In the first extraction mode, the number of patterns for extracting a characteristic object from a cell object is a {2 morphological feature quantity} power pattern. For example, in the case of the above example, since the morphological feature amount is 3, there are 8 patterns.

(第2の抽出態様)
特徴的オブジェクト抽出部32は、抽出条件1に従って、(N+N+N)個の細胞オブジェクトの面積の平均値を算出し、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出する。抽出条件2〜抽出条件6の場合も同様である。第2の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2×{形態的特徴量数}パターンである。例えば、上記例の場合、形態的特徴量は3であるため6パターンである。
(Second extraction mode)
The characteristic object extraction unit 32 calculates an average value of the area of (N 1 + N 2 + N 3 ) cell objects according to the extraction condition 1, and from among the (N 1 + N 2 + N 3 ) cell objects, A cell object whose area is in the range of an average value to a value 25% larger than the average value is extracted as a characteristic object. The same applies to extraction conditions 2 to 6. In the second extraction mode, the number of patterns for extracting characteristic objects from cell objects is 2 × {number of morphological feature values} patterns. For example, in the case of the above example, since the morphological feature amount is 3, there are 6 patterns.

(第3の抽出態様)
特徴的オブジェクト抽出部32は、抽出条件1〜6のうち予め定めた抽出条件1に従って、N個、N個、N個の細胞オブジェクトの面積の平均値を算出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。抽出条件2〜6を用いる場合も同様である。第3の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2×{画像数}乗パターンである。例えば、上記例の場合、画像数は3であるため8パターンである。
(Third extraction mode)
The characteristic object extraction unit 32 calculates an average value of the areas of the N 1 , N 2 , and N 3 cell objects according to the extraction condition 1 set in advance among the extraction conditions 1 to 6, and N 1 Among the cell objects, a cell object whose area is in the range of an average value to a value 25% larger than the average value is extracted as a characteristic object, and the area is an average value to an average value among the N 2 cell objects. A cell object within a range of 25% larger value is extracted as a characteristic object, and a cell object whose area is within a range of an average value to a value 25% larger than the average value is selected from N 3 cell objects. You may extract as a characteristic object. The same applies when the extraction conditions 2 to 6 are used. In the third extraction mode, the number of patterns for extracting characteristic objects from cell objects is a 2 × {number of images} power pattern. For example, in the case of the above example, since the number of images is 3, there are 8 patterns.

なお、抽出態様1、2、3の説明において、特徴的オブジェクト抽出部32は、抽出条件1に従って、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出しているが、特徴的オブジェクト抽出部32は、抽出条件1に従って、(N+N+N)個の細胞オブジェクトの面積の平均値を算出し、(N+N+N)個の細胞オブジェクトのうちの面積が平均値以上の細胞オブジェクトを母集団とし、母集団のうち面積が小さい方から25%以内の細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。また、特徴的オブジェクト抽出部32は、母集団のうち面積が小さい方から((N+N+N)/4)個迄に含まれる細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。抽出条件2〜抽出条件6についても同様である。 In the description of the extraction modes 1, 2, and 3, the characteristic object extraction unit 32 uses, as the characteristic object, a cell object whose area is in the range of the average value to a value 25% larger than the average value according to the extraction condition 1. Although extracted, the characteristic object extraction unit 32 calculates an average value of the areas of (N 1 + N 2 + N 3 ) cell objects in accordance with the extraction condition 1 and calculates (N 1 + N 2 + N 3 ) Cell objects having an area of the average value or more of the cell objects may be set as a population, and cell objects within 25% from the smaller area of the population may be extracted as characteristic objects. In addition, the characteristic object extraction unit 32 may extract cell objects included in the population from the smallest area ((N 1 + N 2 + N 3 ) / 4) as characteristic objects. The same applies to the extraction conditions 2 to 6.

特徴的オブジェクト抽出部32は、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出した場合、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。例えば、特徴的オブジェクト抽出部32は、抽出条件を変えて特徴的オブジェクトを抽出する都度、夫々の抽出条件に応じて抽出した特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。   When the characteristic object extraction unit 32 extracts the characteristic object from the cell objects stored in the cell object storage unit 72, the characteristic object extraction unit 32 uses the attribute information and the morphological characteristic amount of each characteristic object as a candidate classification model formation unit. 34. For example, each time the characteristic object is extracted by changing the extraction condition, the characteristic object extraction unit 32 extracts the characteristic object attribute information and the morphological characteristic amount extracted according to each extraction condition as the candidate classification model formation unit 34. Output to.

なお、本実施形態では、特徴的オブジェクト抽出部32は、抽出条件記憶部74に記憶されている抽出条件に従って、複数の細胞オブジェクトのなかから特徴的オブジェクトを抽出したが、抽出条件に従うことは必須ではない。例えば、特徴的オブジェクト抽出部32は、目的に応じて全ての細胞オブジェクトのなかから特徴的オブジェクトを抽出する
処理を機能させてもよい。
In the present embodiment, the characteristic object extraction unit 32 extracts characteristic objects from a plurality of cell objects according to the extraction conditions stored in the extraction condition storage unit 74, but it is essential to follow the extraction conditions. is not. For example, the characteristic object extraction unit 32 may function a process of extracting a characteristic object from all cell objects according to the purpose.

候補分類モデル形成部34は、特徴的オブジェクトの形態的特徴量及び特徴的オブジェクトとして認識された前記細胞の属性、つまり、特徴的オブジェクト抽出部32から取得した特徴的オブジェクトの属性情報及び形態的特徴量を用いて候補分類モデルを形成(生成)する。     The candidate classification model forming unit 34 includes the morphological feature amount of the characteristic object and the attribute of the cell recognized as the characteristic object, that is, the attribute information and the morphological feature of the characteristic object acquired from the characteristic object extraction unit 32. A candidate classification model is formed (generated) using the quantity.

以下、候補分類モデル形成部34による候補分類モデルの形成方法について説明する。
候補分類モデル形成部34は、特徴的オブジェクト抽出部32から取得した特徴的オブジェクトから得られる形態的特徴量に係る分類基準(形態的特徴量の種類及び閾値)を設定し、候補分類モデルを形成する。換言すれば、候補分類モデル形成部34は、候補分類モデルを構成する分類基準(形態的特徴量の種類及び閾値)を、特徴的オブジェクトから得られる形態的特徴量のなかから設定(選択)することによって、候補分類モデルを形成する。
Hereinafter, a method for forming a candidate classification model by the candidate classification model forming unit 34 will be described.
The candidate classification model forming unit 34 sets classification criteria (type and threshold value of the morphological feature amount) related to the morphological feature amount obtained from the characteristic object acquired from the characteristic object extraction unit 32, and forms a candidate classification model. To do. In other words, the candidate classification model forming unit 34 sets (selects) the classification standard (the type and the threshold value of the morphological feature value) constituting the candidate classification model from the morphological feature values obtained from the characteristic object. Thus, a candidate classification model is formed.

図6に示す1番目及びM番目の候補分類モデルは、候補分類モデル形成部34が上述の如く形成した候補分類モデルの一例である。1番目の候補分類モデルは、候補分類モデル形成部34によって、第1段階目の分類基準(形態的特徴量「長さ」及び閾値「12」)、第2段階目の分類基準(形態的特徴量「丸さ」及び閾値「0.7」)が設定された候補分類モデル、M番目の候補分類モデルは、候補分類モデル形成部34によって、第1段階目の分類基準(形態的特徴量「丸さ」及び閾値「12」)、第2段階目の分類基準(形態的特徴量「幅」及び「1.2」)が設定された候補分類モデルである。候補分類モデル形成部34は、形成した各候補分類モデルを候補分類モデル記憶部76に記憶する。なお、図6に示すような多段階に分類基準が設定された候補分類モデルは、未知属性撮像画像、又は、未知属性撮像画像内の細胞を段階的に分類するが、段階的に分類する候補分類モデルの形成方法については後述する。     The first and Mth candidate classification models shown in FIG. 6 are examples of candidate classification models formed by the candidate classification model forming unit 34 as described above. The first candidate classification model is classified by the candidate classification model forming unit 34 into the first stage classification standard (morphological feature amount “length” and threshold “12”), and the second stage classification standard (morphological feature). The candidate classification model and the Mth candidate classification model in which the amount “roundness” and the threshold value “0.7” are set are classified by the candidate classification model forming unit 34 into the first-stage classification criterion (morphological feature quantity “ Roundness ”and threshold value“ 12 ”), and the second-stage classification criteria (morphological feature amounts“ width ”and“ 1.2 ”) are set. The candidate classification model forming unit 34 stores each formed candidate classification model in the candidate classification model storage unit 76. Note that the candidate classification model in which the classification criteria are set in multiple stages as shown in FIG. 6 classifies the unknown attribute captured image or the cells in the unknown attribute captured image in stages. A method for forming the classification model will be described later.

なお、候補分類モデル形成部34は、候補分類モデルの各枝に、細胞の分類先を示す分類先ID(分類インデックスとも称する)を設定する。各分類先IDは、細胞の属性情報に対応するものである。従って、未知属性撮像画像又は未知属性撮像画像内の細胞の分類先IDから、当該未知属性撮像画像又は未知属性撮像画像内の細胞の属性情報を得ることができる。なお、図6において、1番目の候補分類モデル及びM番目の候補分類モデルにおいて、分類先ID「N0001」は、図4の名称「A」、培養条件「○○」、活性「××」を含む属性情報と対応し、分類先ID「N0002」は、名称「B」、培養条件「△△」、活性「□□」を含む属性情報と対応し、分類先ID「N0003」は、名称「C」、培養条件「◎◎」、活性「□□」を含む属性情報と対応している。分類先IDと属性とを対応させるために、細胞オブジェクト特徴量算出部26は、新たな属性情報(属性情報及び撮像条件情報)に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する際に、分類先IDを採番し、属性情報(属性情報及び撮像条件情報)に対応付けて採番した分類先IDを記憶するようにしてもよい。     The candidate classification model forming unit 34 sets a classification destination ID (also referred to as a classification index) indicating a cell classification destination in each branch of the candidate classification model. Each classification destination ID corresponds to cell attribute information. Therefore, the attribute information of the cell in the unknown attribute captured image or the unknown attribute captured image can be obtained from the unknown attribute captured image or the cell classification destination ID in the unknown attribute captured image. In FIG. 6, in the first candidate classification model and the Mth candidate classification model, the classification destination ID “N0001” has the name “A”, the culture condition “OO”, and the activity “XX” in FIG. The classification destination ID “N0002” corresponds to the attribute information including the name “B”, the culture condition “ΔΔ”, and the activity “□□”, and the classification destination ID “N0003” has the name “B”. Corresponds to attribute information including “C”, culture condition “「 ”, and activity“ □□ ”. In order to associate the classification destination ID with the attribute, the cell object feature amount calculation unit 26 associates the morphological feature amount of each cell object with the cell object in association with new attribute information (attribute information and imaging condition information). When storing in the storage unit 72, the classification destination ID may be numbered, and the classification destination ID numbered in association with the attribute information (attribute information and imaging condition information) may be stored.

以下、段階的に細胞オブジェクトの属性を分類する候補分類モデルの形成方法について説明する。候補分類モデル形成部34は、決定木法に基づいた変数選択に候補分類モデルを形成する。例えば、Aという属性の10個の特徴的オブジェクト、Bという属性の10個の特徴的オブジェクト、Cという属性の10個の特徴的オブジェクトが与えられ、各特徴的オブジェクトの形態的特徴量(次元)は15種類(特徴量1、特徴量2、…、特徴量15)であったとした場合、候補分類モデル形成部34は、まず、特徴量1の値を最小〜最大まで順次増加させていき、A、B、Cの3種類の特徴的オブジェクトが、最もよく分類されたときの特徴量1の値を特定する。     Hereinafter, a method of forming a candidate classification model that classifies the attributes of cell objects in stages will be described. The candidate classification model forming unit 34 forms a candidate classification model for variable selection based on the decision tree method. For example, ten characteristic objects having an attribute A, ten characteristic objects having an attribute B, and ten characteristic objects having an attribute C are given, and the morphological feature amount (dimension) of each characteristic object is given. Are 15 types (feature amount 1, feature amount 2,..., Feature amount 15), the candidate classification model forming unit 34 first increases the value of feature amount 1 from the minimum to the maximum, The value of the feature amount 1 when the three types of characteristic objects A, B, and C are best classified is specified.

例えば、候補分類モデル形成部34は、特徴量1のある値において、あるノード(枝先)に、特徴的オブジェクトAが10個中9個、特徴的オブジェクトBが10個中1個、特徴的オブジェクトCが10個中1個あるとき、当該ノードの分類精度を90%と算出する。同様に、候補分類モデル形成部34は、特徴量1の当該値において、全てのノードの分類精度を算出する。各ノードの分類精度は、各ノードに各特徴的オブジェクトが振り分けられたときに高くなるため、候補分類モデル形成部34は、特徴量1の当該値における、全ノードの平均の分類精度を算出する。同様に、候補分類モデル形成部34は、特徴量1の値を増加させて、各特徴量1の値における、全ノードの平均分類精度を算出する。そして、候補分類モデル形成部34は、A、B、Cの3種類の特徴的オブジェクトが最もよく分類されたときの特徴量1の値として、全ノードの平均分類精度が最も高い特徴量1の値を特定する。     For example, the candidate classification model forming unit 34 has, for a certain value of the feature amount 1, a certain object (branch destination) has 9 of 10 characteristic objects A and 1 of 10 characteristic objects B. When there is one object C out of ten, the classification accuracy of the node is calculated as 90%. Similarly, the candidate classification model forming unit 34 calculates the classification accuracy of all nodes for the value of the feature quantity 1. Since the classification accuracy of each node becomes higher when each characteristic object is assigned to each node, the candidate classification model forming unit 34 calculates the average classification accuracy of all nodes in the value of the feature amount 1. . Similarly, the candidate classification model forming unit 34 increases the value of the feature quantity 1 and calculates the average classification accuracy of all nodes at each feature quantity 1 value. Then, the candidate classification model forming unit 34 uses the feature quantity 1 having the highest average classification accuracy of all nodes as the value of the feature quantity 1 when the three types of characteristic objects A, B, and C are best classified. Identify the value.

同様に、候補分類モデル形成部34は、全ノードの平均分類精度が最も高い特徴量2の値、特徴量3の値、…、特徴量15の値を特定する。そして、候補分類モデル形成部34は、特定した特徴量1の値、特徴量2の値、…、特徴量15の値のなかから、候補分類モデルにおける第1段階のルールとして、全ノードの平均分類精度が最も高いものを選択する。以下同様に、候補分類モデル形成部34は、第2段階の以降のルールを選択する。     Similarly, the candidate classification model formation unit 34 specifies the value of feature quantity 2, the value of feature quantity 3,..., The value of feature quantity 15 having the highest average classification accuracy of all nodes. Then, the candidate classification model forming unit 34 calculates the average of all nodes as a first-stage rule in the candidate classification model from among the identified feature value 1, feature value 2 value,..., Feature value 15 value. Select the one with the highest classification accuracy. Similarly, the candidate classification model forming unit 34 selects a rule after the second stage.

分類モデル決定部36は、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトを各候補分類モデルに投入し、各候補分類モデルの分類精度を評価する。なお、分類モデル決定部36は、既知同一属性撮像画像を各候補分類モデルに投入し、各候補分類モデルの分類精度を評価してもよい。また、分類モデル決定部36は、最も精度が高い候補分類モデルを以降の分類に用いる分類モデルとして決定し、分類モデル記憶部80に記憶する。例えば、分類モデル決定部36は、図7に示すように、決定した分類モデルとともに、算出した分類精度の評価値を分類モデル記憶部80に記憶してもよい。     The classification model determination unit 36 inputs the cell object stored in the cell object storage unit 72 into each candidate classification model, and evaluates the classification accuracy of each candidate classification model. The classification model determination unit 36 may input a known identical attribute captured image into each candidate classification model and evaluate the classification accuracy of each candidate classification model. Further, the classification model determination unit 36 determines the candidate classification model with the highest accuracy as a classification model to be used for the subsequent classification, and stores it in the classification model storage unit 80. For example, as shown in FIG. 7, the classification model determination unit 36 may store the calculated classification accuracy evaluation value in the classification model storage unit 80 together with the determined classification model.

なお、特徴的オブジェクト抽出部32による特徴的オブジェクトの抽出、候補分類モデル形成部34による候補分類モデルの形成、分類モデル決定部36による分類モデルの決定の関係については、例えば、図1において矢印は省略しているが、以下のように実現すればよい。     For example, the arrows in FIG. 1 indicate the relationship between the characteristic object extraction by the characteristic object extraction unit 32, the formation of the candidate classification model by the candidate classification model formation unit 34, and the determination of the classification model by the classification model determination unit 36. Although omitted, it may be realized as follows.

細胞オブジェクト特徴量算出部26は、細胞オブジェクト記憶部72に形態的特徴量を記憶した後に、形態的特徴量を記憶した旨を候補分類モデル形成部34に通知する。候補分類モデル形成部34は、細胞オブジェクト特徴量算出部26から細胞オブジェクト記憶部72に形態的特徴量を記憶した旨の通知を取得した場合、特徴的オブジェクト抽出部32に抽出を要求する。     After storing the morphological feature amount in the cell object storage unit 72, the cell object feature amount calculation unit 26 notifies the candidate classification model forming unit 34 that the morphological feature amount has been stored. When the candidate classification model forming unit 34 obtains a notification that the morphological feature value is stored in the cell object storage unit 72 from the cell object feature value calculation unit 26, the candidate classification model formation unit 34 requests the characteristic object extraction unit 32 to perform extraction.

特徴的オブジェクト抽出部32は、候補分類モデル形成部34から抽出を要求された場合、未だ、全抽出パターンに従って特徴的オブジェクトを抽出していないときは、未抽出パターンに従って特徴的オブジェクトを抽出し、候補分類モデル形成部34に出力する。
一方、特徴的オブジェクト抽出部32は、既に、全抽出パターンに従って特徴的オブジェクトを抽出していたときは、抽出が完了した旨を候補分類モデル形成部34に通知する。
When the candidate classification model forming unit 34 requests extraction, the characteristic object extracting unit 32 extracts the characteristic object according to the unextracted pattern when the characteristic object has not yet been extracted according to the entire extracted pattern. The result is output to the candidate classification model forming unit 34.
On the other hand, if the characteristic object extraction unit 32 has already extracted characteristic objects according to the entire extraction pattern, the characteristic object extraction unit 32 notifies the candidate classification model formation unit 34 that extraction has been completed.

候補分類モデル形成部34は、特徴的オブジェクト抽出部32から特徴的オブジェクトを取得した場合、候補分類モデルを形成し、候補分類モデル記憶部76に記憶するとともに、特徴的オブジェクト抽出部32に再度、抽出を要求する。一方、候補分類モデル形成部34は、特徴的オブジェクト抽出部32から抽出が完了した旨の通知を取得した場合、分類モデル決定部36に分類モデルの決定を要求する。分類モデル決定部36は、候補分類モデル形成部34から分類モデルの決定を要求された場合、候補分類モデルを評価して、分類モデルを決定する。     When the candidate classification model formation unit 34 acquires a characteristic object from the characteristic object extraction unit 32, the candidate classification model formation unit 34 forms a candidate classification model, stores the candidate classification model in the candidate classification model storage unit 76, and again stores the characteristic object extraction unit 32 in the characteristic object extraction unit 32. Request extraction. On the other hand, when the candidate classification model forming unit 34 obtains notification from the characteristic object extraction unit 32 that extraction has been completed, the candidate classification model formation unit 34 requests the classification model determination unit 36 to determine a classification model. When the classification model determination unit 36 is requested by the candidate classification model formation unit 34 to determine a classification model, the classification model determination unit 36 evaluates the candidate classification model and determines a classification model.

以下、インキュベータ311について説明する。図8は、分類モデル生成装置1と接続するインキュベータ311の一例である。図9、図10は、インキュベータ311の正面図である。     Hereinafter, the incubator 311 will be described. FIG. 8 shows an example of an incubator 311 connected to the classification model generation device 1. 9 and 10 are front views of the incubator 311. FIG.

インキュベータ311は、上部ケーシング312と下部ケーシング313とを有している。インキュベータ311の組立状態において、上部ケーシング312は下部ケーシング313の上に載置される。なお、上部ケーシング312と下部ケーシング313との内部空間は、ベースプレート314によって上下に仕切られている。     The incubator 311 has an upper casing 312 and a lower casing 313. In the assembled state of the incubator 311, the upper casing 312 is placed on the lower casing 313. Note that the internal space between the upper casing 312 and the lower casing 313 is vertically divided by a base plate 314.

まず、上部ケーシング312の構成の概要を説明する。上部ケーシング312の内部には、細胞の培養を行う恒温室315が形成されている。この恒温室315は温度調整装置315a及び湿度調整装置315bを有しており、恒温室315内は細胞の培養に適した環境(例えば温度37℃、湿度90%の雰囲気)に維持されている(なお、図9、図10での温度調整装置315a、湿度調整装置315bの図示は省略する)。     First, the outline of the configuration of the upper casing 312 will be described. A constant temperature room 315 for culturing cells is formed inside the upper casing 312. The temperature-controlled room 315 includes a temperature adjusting device 315a and a humidity adjusting device 315b, and the temperature-controlled room 315 is maintained in an environment suitable for cell culture (for example, an atmosphere having a temperature of 37 ° C. and a humidity of 90%) ( Note that illustration of the temperature adjusting device 315a and the humidity adjusting device 315b in FIGS. 9 and 10 is omitted).

恒温室315の前面には、大扉316、中扉317、小扉318が配置されている。大扉316は、上部ケーシング312及び下部ケーシング313の前面を覆っている。中扉317は、上部ケーシング312の前面を覆っており、大扉316の開放時に恒温室315と外部との環境を隔離する。小扉318は、細胞を培養する培養容器319を搬出入するための扉であって、中扉317に取り付けられている。この小扉318から培養容器319を搬出入することで、恒温室315の環境変化を抑制することが可能となる。なお、大扉316、中扉317、小扉318は、パッキンP1,P2,P3によりそれぞれ気密性が維持されている。     A large door 316, a middle door 317, and a small door 318 are arranged on the front surface of the temperature-controlled room 315. The large door 316 covers the front surfaces of the upper casing 312 and the lower casing 313. The middle door 317 covers the front surface of the upper casing 312 and isolates the environment between the temperature-controlled room 315 and the outside when the large door 316 is opened. The small door 318 is a door for carrying in / out a culture vessel 319 for culturing cells, and is attached to the middle door 317. By carrying in / out the culture vessel 319 from this small door 318, it becomes possible to suppress the environmental change of the temperature-controlled room 315. The large door 316, the middle door 317, and the small door 318 are kept airtight by the packings P1, P2, and P3, respectively.

また、恒温室315には、ストッカー321、観察ユニット322、容器搬送装置323、搬送台324が配置されている。ここで、搬送台324は、小扉318の手前に配置されており、培養容器319を小扉318から搬出入する。     In the temperature-controlled room 315, a stocker 321, an observation unit 322, a container transport device 323, and a transport base 324 are arranged. Here, the transfer table 324 is disposed in front of the small door 318, and carries the culture container 319 out of the small door 318.

ストッカー321は、上部ケーシング312の前面(図10の下側)からみて恒温室315の左側に配置される。ストッカー321は複数の棚を有しており、ストッカー321の各々の棚には培養容器319を複数収納することができる。なお、各々の培養容器319には、培養の対象となる細胞が培地とともに収容されている。     The stocker 321 is disposed on the left side of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312 (the lower side in FIG. 10). The stocker 321 has a plurality of shelves, and each shelf of the stocker 321 can store a plurality of culture vessels 319. Each culture container 319 contains cells to be cultured together with a medium.

観察ユニット322は、上部ケーシング312の前面からみて恒温室315の右側に配置される。この観察ユニット322は、培養容器319内の細胞のタイムラプス観察を実行することができる。     The observation unit 322 is disposed on the right side of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312. This observation unit 322 can execute time-lapse observation of cells in the culture vessel 319.

ここで、観察ユニット322は、上部ケーシング312のベースプレート314の開口部に嵌め込まれて配置される。観察ユニット322は、試料台331と、試料台331の上方に張り出したスタンドアーム332と、位相差観察用の顕微光学系及び撮像装置334を内蔵した本体部分333とを有している。そして、試料台331及びスタンドアーム332は恒温室315に配置される一方で、本体部分333は下部ケーシング313内に収納される。     Here, the observation unit 322 is disposed by being fitted into the opening of the base plate 314 of the upper casing 312. The observation unit 322 includes a sample stage 331, a stand arm 332 projecting above the sample stage 331, and a main body portion 333 incorporating a microscopic optical system for phase difference observation and an imaging device 334. The sample stage 331 and the stand arm 332 are disposed in the temperature-controlled room 315, while the main body portion 333 is accommodated in the lower casing 313.

試料台331は透光性の材質で構成されており、その上に培養容器319を載置することができる。この試料台331は水平方向に移動可能に構成されており、上面に載置した培養容器319の位置を調整できる。また、スタンドアーム332にはLED光源335が内蔵されている。そして、撮像装置334は、スタンドアーム332によって試料台331の上側から透過照明された培養容器319の細胞を、顕微光学系を介して撮像することで細胞の顕微鏡画像を取得できる。     The sample stage 331 is made of a translucent material, and a culture vessel 319 can be placed thereon. The sample stage 331 is configured to be movable in the horizontal direction, and the position of the culture vessel 319 placed on the upper surface can be adjusted. The stand arm 332 has a built-in LED light source 335. The imaging device 334 can acquire a microscopic image of the cells by imaging the cells in the culture vessel 319 that are transmitted and illuminated from above the sample stage 331 by the stand arm 332 via the microscopic optical system.

容器搬送装置323は、上部ケーシング312の前面からみて恒温室315の中央に配置される。この容器搬送装置323は、ストッカー321、観察ユニット322の試料台331及び搬送台324との間で培養容器319の受け渡しを行う。     The container transport device 323 is disposed at the center of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312. The container transport device 323 delivers the culture container 319 between the stocker 321, the sample table 331 of the observation unit 322, and the transport table 324.

図10に示すように、容器搬送装置323は、多関節アームを有する垂直ロボット334と、回転ステージ335と、ミニステージ336と、アーム部337とを有している。
回転ステージ335は、垂直ロボット334の先端部に回転軸335aを介して水平方向に180°回転可能に取り付けられている。そのため、回転ステージ335は、ストッカー321、試料台331及び搬送台324に対して、アーム部337をそれぞれ対向させることができる。
As shown in FIG. 10, the container transport device 323 includes a vertical robot 334 having an articulated arm, a rotary stage 335, a ministage 336, and an arm portion 337.
The rotary stage 335 is attached to the tip of the vertical robot 334 via a rotary shaft 335a so that it can rotate 180 ° in the horizontal direction. Therefore, the rotation stage 335 can make the arm unit 337 face the stocker 321, the sample table 331, and the transport table 324, respectively.

また、ミニステージ336は、回転ステージ335に対して水平方向に摺動可能に取り付けられている。ミニステージ336には培養容器319を把持するアーム部337が取り付けられている。     The mini stage 336 is attached to the rotary stage 335 so as to be slidable in the horizontal direction. An arm portion 337 for holding the culture vessel 319 is attached to the mini stage 336.

次に、下部ケーシング313の構成の概要を説明する。下部ケーシング313の内部には、観察ユニット322の本体部分333や、インキュベータ311の制御装置341が収納されている。     Next, an outline of the configuration of the lower casing 313 will be described. In the lower casing 313, the main body portion 333 of the observation unit 322 and the control device 341 of the incubator 311 are housed.

制御装置341は、温度調整装置315a、湿度調整装置315b、観察ユニット322及び容器搬送装置323とそれぞれ接続されている。この制御装置341は、所定のプログラムに従ってインキュベータ311の各部を統括的に制御する。     The control device 341 is connected to the temperature adjustment device 315a, the humidity adjustment device 315b, the observation unit 322, and the container transport device 323, respectively. The control device 341 comprehensively controls each part of the incubator 311 according to a predetermined program.

一例として、制御装置341は、CPU342及び記憶部343を有し、温度調整装置315a及び湿度調整装置315bをそれぞれ制御して恒温室315内を所定の環境条件に維持する。また、制御装置341は、所定の観察スケジュールに基づいて、観察ユニット322及び容器搬送装置323を制御して、培養容器319の観察シーケンスを自動的に実行する。     As an example, the control device 341 includes a CPU 342 and a storage unit 343, and controls the temperature adjustment device 315a and the humidity adjustment device 315b, respectively, to maintain the inside of the temperature-controlled room 315 at predetermined environmental conditions. The control device 341 controls the observation unit 322 and the container transport device 323 based on a predetermined observation schedule, and automatically executes the observation sequence of the culture vessel 319.

記憶部343は、ハードディスクや、フラッシュメモリ等の不揮発性の記憶媒体などで構成される。この記憶部343には、ストッカー321に収納されている各培養容器319に関する管理データと、撮像装置で撮像された顕微鏡画像のデータとが記憶されている。さらに、記憶部343には、CPU342によって実行されるプログラムが記憶されている。     The storage unit 343 is configured with a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 343 stores management data regarding each culture vessel 319 stored in the stocker 321 and data of a microscope image captured by the imaging device. Further, the storage unit 343 stores a program executed by the CPU 342.

なお、上記の管理データには、(a)個々の培養容器319を示すインデックスデータ、(b)ストッカー321での培養容器319の収納位置、(c)培養容器319の種類及び形状(ウェルプレート、ディッシュ、フラスコなど)、(d)培養容器319で培養されている細胞の種類、(e)培養容器319の観察スケジュール、(f)タイムラプス観察時の撮像条件(対物レンズの倍率、容器内の観察地点等)、などが含まれている。また、ウェルプレートのように複数の小容器で同時に細胞を培養できる培養容器319については、各々の小容器ごとにそれぞれ管理データが生成される。     The management data includes (a) index data indicating individual culture containers 319, (b) the storage position of the culture container 319 in the stocker 321 and (c) the type and shape of the culture container 319 (well plate, (Dish, flask, etc.), (d) type of cells cultured in culture vessel 319, (e) observation schedule of culture vessel 319, (f) imaging conditions during time-lapse observation (magnification of objective lens, observation in vessel) Point, etc.). In addition, regarding the culture container 319 that can simultaneously culture cells in a plurality of small containers such as a well plate, management data is generated for each small container.

以下、フローチャートを用いて、分類モデル生成装置1の動作を説明する。図11は、分類モデル生成装置1の動作の一例を示すフローチャートである。図12は、ノイズ推定部24の動作の一例を示すフローチャートである。図11において、入出力部10は、外部から属性情報、撮像条件情報及び既知同一属性撮像画像を取得する(ステップS112)。入出力部10は、外部から取得した属性情報、撮像条件情報及び既知同一属性撮像画像を2値化処理部22に出力する。     Hereinafter, the operation of the classification model generation device 1 will be described using a flowchart. FIG. 11 is a flowchart illustrating an example of the operation of the classification model generation device 1. FIG. 12 is a flowchart illustrating an example of the operation of the noise estimation unit 24. In FIG. 11, the input / output unit 10 acquires attribute information, imaging condition information, and a known identical attribute captured image from the outside (step S112). The input / output unit 10 outputs the attribute information, the imaging condition information, and the known identical attribute captured image acquired from the outside to the binarization processing unit 22.

2値化処理部22は、入出力部10から取得した既知同一属性撮像画像を所定の閾値によって2値化処理する(ステップS114)。2値化処理部22は、属性情報及び撮像条件情報とともに2値化データをノイズ推定部24に出力する。     The binarization processing unit 22 binarizes the known identical attribute captured image acquired from the input / output unit 10 with a predetermined threshold (step S114). The binarization processing unit 22 outputs the binarized data to the noise estimation unit 24 together with the attribute information and the imaging condition information.

ノイズ推定部24は、2値化処理部22から2値化データを取得し、取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS120)。具体的には、ノイズ推定部24は、図12に示す各動作を実行する。     The noise estimation unit 24 acquires the binarized data from the binarization processing unit 22, and estimates the noise object from all the objects obtained from the acquired binarized data (step S120). Specifically, the noise estimation unit 24 executes each operation shown in FIG.

図12において、ノイズ推定部24は、2値化処理部22から2値化データを取得する(ステップS121)。次いで、ノイズ推定部24は、当該2値化データから得られる各オブジェクトのオブジェクトサイズを測定する(ステップS122)。次いで、ノイズ推定部24は、各オブジェクトのオブジェクトサイズの合計値に対する、一のオブジェクトサイズ迄のオブジェクトサイズの累積値の度数を表す累積度分布を生成する(ステップS123)。     In FIG. 12, the noise estimation unit 24 acquires binarized data from the binarization processing unit 22 (step S121). Next, the noise estimation unit 24 measures the object size of each object obtained from the binarized data (step S122). Next, the noise estimation unit 24 generates a cumulative distribution representing the frequency of the cumulative value of the object size up to one object size with respect to the total object size of each object (step S123).

次いで、ノイズ推定部24は、該累積度分布において、所定値以上の範囲内における所定間隔の各2点の傾き(微分値)の極小値を探索する(ステップS124)。次いで、ノイズ推定部24は、該極小値の近傍の値であって該極小値よりも小さい値を閾値として決定する(ステップS125)。次いで、ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトをノイズオブジェクトとして推定する(ステップS126)。
ノイズ推定部24は、属性情報及び撮像条件情報とともに2値化データ及び推定結果情報を細胞オブジェクト特徴量算出部26に出力する。そして、図12に示すフローチャートは終了する。
Next, the noise estimation unit 24 searches for the minimum value of the slope (differential value) of each two points at predetermined intervals within a range equal to or greater than the predetermined value in the cumulative distribution (step S124). Next, the noise estimating unit 24 determines a value near the minimum value and smaller than the minimum value as a threshold (step S125). Next, the noise estimation unit 24 estimates an object whose object size is less than the threshold as a noise object (step S126).
The noise estimation unit 24 outputs the binarized data and the estimation result information to the cell object feature amount calculation unit 26 together with the attribute information and the imaging condition information. Then, the flowchart shown in FIG. 12 ends.

図11に戻り、ノイズ推定部24から属性情報及び撮像条件情報とともに2値化データ及び推定結果情報を取得した細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS130)。換言すれば、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS130)。     Returning to FIG. 11, the cell object feature amount calculation unit 26 that has acquired the binarized data and the estimation result information together with the attribute information and the imaging condition information from the noise estimation unit 24, the binarized data and the estimation acquired from the noise estimation unit 24. Based on the result information, the noise object is removed from all the objects obtained from the binarized data (step S130). In other words, the cell object feature quantity calculation unit 26 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 24 (step S130).

次いで、細胞オブジェクト特徴量算出部26は、認識した個々の細胞オブジェクトの形態的特徴量を算出する(ステップS132)。個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部26は、属性情報及び撮像条件情報に対応付けて、算出した個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する(ステップS134)。     Next, the cell object feature amount calculation unit 26 calculates the morphological feature amount of each recognized cell object (step S132). The cell object feature amount calculation unit 26 that calculated the morphological feature amount of each cell object associates the calculated morphological feature amount of each cell object with the attribute information and the imaging condition information in the cell object storage unit 72. Store (step S134).

入出力部10は、既知同一属性撮像画像等の取得を終了したか否かを判断する(ステップS136)。入出力部10は、例えば、インキュベータ311から既知同一属性撮像画像等の出力が終了した旨を示す通知、または、分類モデルを生成すべき旨を示す通知を取得した場合に、既知同一属性撮像画像等の取得を終了したと判断する。入出力部10が既知同一属性撮像画像等の取得を終了していないと判断した場合(ステップS136:No)、ステップS112に戻る。     The input / output unit 10 determines whether or not acquisition of a known identical-attribute captured image or the like has been completed (step S136). For example, when the input / output unit 10 obtains a notification indicating that output of a known identical attribute captured image or the like has been completed from the incubator 311 or a notification indicating that a classification model should be generated, the input / output unit 10 knows the known identical attribute captured image. And so on. If the input / output unit 10 determines that acquisition of a known identical-attribute captured image or the like has not been completed (step S136: No), the process returns to step S112.

一方、入出力部10が既知同一属性撮像画像等の取得を終了したと判断した場合(ステップS136:Yes)、細胞オブジェクト特徴量算出部26は、形態的特徴量を記憶した旨を候補分類モデル形成部34に通知する。形態的特徴量を記憶した旨の通知を取得した候補分類モデル形成部34は、特徴的オブジェクト抽出部32に抽出を要求する。抽出を要求された特徴的オブジェクト抽出部32は、一の抽出パターンに従って、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトから特徴的オブジェクトを抽出する(ステップS142)。特徴的オブジェクトを抽出した特徴的オブジェクト抽出部32は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。     On the other hand, when the input / output unit 10 determines that the acquisition of the known identical attribute captured image or the like has been completed (step S136: Yes), the cell object feature amount calculation unit 26 indicates that the morphological feature amount is stored as a candidate classification model. Notify the forming unit 34. The candidate classification model forming unit 34 that has received the notification that the morphological feature quantity has been stored requests the characteristic object extraction unit 32 to perform extraction. The characteristic object extraction unit 32 requested to extract extracts a characteristic object from the cell objects stored in the cell object storage unit 72 according to one extraction pattern (step S142). The characteristic object extraction unit 32 that has extracted the characteristic object outputs the attribute information and the morphological feature amount of each characteristic object to the candidate classification model formation unit 34.

夫々の特徴的オブジェクトの属性情報及び形態的特徴量を取得した候補分類モデル形成部34は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量に基づいて、候補分類モデルを形成(生成)し、候補分類モデルを候補分類モデル記憶部76に記憶する(ステップS144)。次いで、候補分類モデル形成部34は、全ての候補分類モデルを形成したか否かを判断する(ステップS146)。候補分類モデル形成部34は、例えば、特徴的オブジェクト抽出部32に抽出を要求し、特徴的オブジェクト抽出部32から抽出が完了した旨の通知を取得した場合に、全ての候補分類モデルを形成したと判断する。候補分類モデル形成部34が全ての候補分類モデルを形成していないと判断した場合(ステップS146:No)、ステップS142に戻る。なお、再度実行するステップS142において、特徴的オブジェクト抽出部32は、未抽出パターンに従って特徴的オブジェクトを抽出する。     The candidate classification model forming unit 34 that acquired the attribute information and the morphological feature amount of each characteristic object forms (generates) a candidate classification model based on the attribute information and the morphological feature amount of each characteristic object. The candidate classification model is stored in the candidate classification model storage unit 76 (step S144). Next, the candidate classification model forming unit 34 determines whether all candidate classification models have been formed (step S146). For example, when the candidate classification model forming unit 34 requests extraction from the characteristic object extraction unit 32 and obtains notification from the characteristic object extraction unit 32 that extraction has been completed, all candidate classification models are formed. Judge. If the candidate classification model forming unit 34 determines that not all candidate classification models have been formed (step S146: No), the process returns to step S142. In step S142 to be executed again, the characteristic object extraction unit 32 extracts characteristic objects according to the unextracted pattern.

候補分類モデル形成部34は全ての候補分類モデルを形成したと判断した場合(ステップS146:Yes)、分類モデル決定部36に分類モデルの決定を要求する。分類モデルの決定を要求された分類モデル決定部36は、複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部80に記憶する(ステップS150)。そして、図11に示すフローチャートは終了する。     If the candidate classification model forming unit 34 determines that all candidate classification models have been formed (step S146: Yes), it requests the classification model determination unit 36 to determine a classification model. The classification model determination unit 36 requested to determine the classification model determines a classification model from among a plurality of candidate classification models, and stores the classification model in the classification model storage unit 80 (step S150). Then, the flowchart shown in FIG. 11 ends.

なお、ノイズ推定部24によるノイズオブジェクトの推定および細胞オブジェクト特徴量算出部26によるノイズオブジェクトの削除は、本実施形態で説明した細胞オブジェクトを分類する分類モデルを決定する際の処理に限ったものではない。ノイズ推定部24によるノイズオブジェクトの推定および細胞オブジェクト特徴量算出部26によるノイズオブジェクトの削除は、画像処理の目的に依らず、細胞が撮像された画像データに対して、画像処理を行うときにはどんな画像処理を行う際にも使用してもよい。   Note that the estimation of the noise object by the noise estimation unit 24 and the deletion of the noise object by the cell object feature amount calculation unit 26 are not limited to the processing for determining the classification model for classifying the cell object described in this embodiment. Absent. The estimation of the noise object by the noise estimation unit 24 and the deletion of the noise object by the cell object feature amount calculation unit 26 do not depend on the purpose of image processing, and any image can be used when image processing is performed on image data obtained by capturing cells. You may use also when processing.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について説明する。図13は本発明の第2の実施形態による分類モデル生成装置2の機能ブロック図の一例である。分類モデル生成装置2は、図13に示すように、入出力部10、細胞オブジェクト認識部20、分類モデル生成部40、細胞オブジェクト記憶部72及び分類モデル記憶部80を備える。
分類モデル生成部40は、代表的特徴量計算部42及び分類モデル形成部46を備える。
なお、入出力部10、細胞オブジェクト認識部20、細胞オブジェクト記憶部72及び分類モデル記憶部80は、図1に示す第1の実施形態の分類モデル生成装置1の入出力部10、細胞オブジェクト認識部20、細胞オブジェクト記憶部72及び分類モデル記憶部80と同様である。
(Second Embodiment)
The second embodiment of the present invention will be described below with reference to the drawings. FIG. 13 is an example of a functional block diagram of the classification model generation device 2 according to the second embodiment of the present invention. As shown in FIG. 13, the classification model generation device 2 includes an input / output unit 10, a cell object recognition unit 20, a classification model generation unit 40, a cell object storage unit 72, and a classification model storage unit 80.
The classification model generation unit 40 includes a representative feature quantity calculation unit 42 and a classification model formation unit 46.
The input / output unit 10, the cell object recognition unit 20, the cell object storage unit 72, and the classification model storage unit 80 are the same as the input / output unit 10 and the cell object recognition of the classification model generation device 1 of the first embodiment shown in FIG. The same as the unit 20, the cell object storage unit 72, and the classification model storage unit 80.

代表的特徴量計算部42は、既知同一属性撮像画像から認識された複数の細胞オブジェクトの形態的特徴量を代表する代表的特徴量を計算する。例えば、代表的特徴量計算部42は、既知同一属性撮像画像から抽出された複数の細胞オブジェクトの各形態的特徴量の平均値を計算し、各形態的特徴量の平均値を代表的特徴量とする。代表的特徴量計算部42は、各既知同一属性撮像画像から代表的特徴量を計算した場合、各既知同一属性撮像画像から計算した代表的特徴量、及び、各既知同一属性撮像画像の属性情報を分類モデル形成部46に出力する。換言すれば、代表的特徴量計算部42は、代表的特徴量を自身の形態的特徴量とする仮想的な細胞オブジェクト(以下、「仮想的オブジェクト」という)を既知同一属性撮像画像毎に生成し、夫々の仮想的オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を分類モデル形成部46に出力する。     The representative feature amount calculation unit 42 calculates a representative feature amount that represents the morphological feature amounts of the plurality of cell objects recognized from the known identical attribute captured images. For example, the representative feature amount calculation unit 42 calculates the average value of each morphological feature amount of a plurality of cell objects extracted from the known identical attribute captured image, and calculates the average value of each morphological feature amount as the representative feature amount. And When the representative feature amount calculating unit 42 calculates the representative feature amount from each known identical attribute captured image, the representative feature amount calculated from each known identical attribute captured image, and the attribute information of each known identical attribute captured image Is output to the classification model forming unit 46. In other words, the representative feature quantity calculation unit 42 generates a virtual cell object (hereinafter referred to as “virtual object”) having the representative feature quantity as its morphological feature quantity for each known identical attribute captured image. Then, the attribute information and the morphological feature amount (that is, the representative feature amount) of each virtual object are output to the classification model forming unit 46.

分類モデル形成部46は、代表的特徴量計算部42から取得した、既知同一属性撮像画像毎の複数の仮想的オブジェクトの属性情報及び形態的特徴量を用いて分類モデルを生成する。なお、分類モデル形成部46が分類モデルを生成する方法は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル形成部34が候補分類モデルを生成する方法と同様である。分類モデル形成部46は、生成した分類モデルを分類モデル記憶部80に記憶する。     The classification model formation unit 46 generates a classification model using the attribute information and morphological feature amounts of a plurality of virtual objects for each known identical attribute captured image acquired from the representative feature amount calculation unit 42. The method for generating the classification model by the classification model forming unit 46 is the same as the method for generating the candidate classification model by the candidate classification model forming unit 34 of the classification model generating apparatus 1 according to the first embodiment. The classification model forming unit 46 stores the generated classification model in the classification model storage unit 80.

なお、代表的特徴量計算部42は、各形態的特徴量の平均値を代表的特徴量としているが、平均値以外を代表的特徴量としてもよい。例えば、代表的特徴量計算部42は、各形態的特徴量の中央値、標準偏差を代表的特徴量としてもよい。     Note that the representative feature quantity calculation unit 42 uses the average value of each morphological feature quantity as a representative feature quantity, but other than the average value may be used as the representative feature quantity. For example, the representative feature quantity calculation unit 42 may use the median value and standard deviation of each morphological feature quantity as the representative feature quantity.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について説明する。図14は、本発明の第3の実施形態による細胞分類装置3の機能ブロック図の一例である。図15は、検索オブジェクト一時記憶部170に記憶される情報の一例である。図16は、細胞カタログ記憶部190に記憶される情報の一例である。
(Third embodiment)
The third embodiment of the present invention will be described below with reference to the drawings. FIG. 14 is an example of a functional block diagram of the cell classification device 3 according to the third embodiment of the present invention. FIG. 15 is an example of information stored in the search object temporary storage unit 170. FIG. 16 is an example of information stored in the cell catalog storage unit 190.

細胞分類装置3は、図14に示すように、入出力部110、細胞オブジェクト認識部120、特徴的オブジェクト抽出・代表的特徴量計算部152、細胞分類部160、検索オブジェクト一時期億部170、分類モデル記憶部180及び細胞カタログ記憶部190を備える。細胞オブジェクト認識部120は、2値化処理部122、ノイズ推定部124及び細胞オブジェクト特徴量算出部126を備える。     As shown in FIG. 14, the cell classification device 3 includes an input / output unit 110, a cell object recognition unit 120, a characteristic object extraction / representative feature amount calculation unit 152, a cell classification unit 160, a search object one-time billion unit 170, a classification A model storage unit 180 and a cell catalog storage unit 190 are provided. The cell object recognition unit 120 includes a binarization processing unit 122, a noise estimation unit 124, and a cell object feature amount calculation unit 126.

入出力部110は、未知属性撮像画像を外部から取得する。具体的には、未知の異種属性の複数の細胞が撮像された未知属性撮像画像(以下、「未知異種属性撮像画像」という)、又は、未知の同一属性の複数の細胞が撮像された未知属性撮像画像(以下、「未知同一属性撮像画像」という)を外部から取得する。入出力部110は、外部から取得した未知属性撮像画像を細胞オブジェクト認識部120の2値化処理部122に出力する。なお、未知属性撮像画像の取得元である外部は、例えば、当該細胞分類装置3に接続可能な外部媒体(例えば、USBメモリ)、LAN、インターネットなどのネットワークを介して接続される他の装置、または、インキュベータ311である。     The input / output unit 110 acquires an unknown attribute captured image from the outside. Specifically, an unknown attribute captured image obtained by imaging a plurality of cells with unknown different attributes (hereinafter referred to as “unknown different attribute captured image”), or an unknown attribute obtained by imaging a plurality of unknown identical attributes. A captured image (hereinafter referred to as an “unknown identical attribute captured image”) is acquired from the outside. The input / output unit 110 outputs the unknown attribute captured image acquired from the outside to the binarization processing unit 122 of the cell object recognition unit 120. The outside from which the unknown attribute captured image is acquired is, for example, an external medium (for example, a USB memory) that can be connected to the cell classification device 3, other devices connected via a network such as a LAN, the Internet, Alternatively, the incubator 311 is used.

また、入出力部110は、未知属性撮像画像とともに画像種別情報を外部から取得し、2値化処理部122に出力してもよい。画像種別情報とは、当該未知属性撮像画像が、未知異種属性撮像画像であるか未知同一属性撮像画像であるかを識別する情報である。     Further, the input / output unit 110 may acquire image type information from the outside together with the unknown attribute captured image and output the image type information to the binarization processing unit 122. The image type information is information for identifying whether the unknown attribute captured image is an unknown heterogeneous attribute captured image or an unknown identical attribute captured image.

細胞オブジェクト認識部120は、未知属性撮像画像内の個々の細胞オブジェクト(以下、「検索オブジェクト」という)を認識する。具体的には、細胞オブジェクト認識部120の2値化処理部122は、上記の第1の実施形態による分類モデル生成装置1の2値化処理部22と同様、入出力部110から取得した未知属性撮像画像を所定の閾値によって2値化処理する。2値化処理した2値化処理部122は、2値化データをノイズ推定部124に出力する。なお、2値化処理部122は、入出力部110から画像種別情報を取得している場合には、2値化データ及び画像種別情報をノイズ推定部124に出力する。     The cell object recognition unit 120 recognizes individual cell objects (hereinafter referred to as “search objects”) in the unknown attribute captured image. Specifically, the binarization processing unit 122 of the cell object recognition unit 120 is the same as the binarization processing unit 22 of the classification model generation device 1 according to the first embodiment described above. The attribute captured image is binarized by a predetermined threshold value. The binarization processing unit 122 that has performed binarization processing outputs the binarized data to the noise estimation unit 124. Note that the binarization processing unit 122 outputs the binarized data and the image type information to the noise estimation unit 124 when the image type information is acquired from the input / output unit 110.

ノイズ推定部124は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24と同様、2値化処理部122から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する。ノイズオブジェクトを推定したノイズ推定部124は、2値化データとともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。なお、ノイズ推定部124は、2値化処理部122から画像種別情報を取得している場合には、2値化データ及び画像種別情報とともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。     Similar to the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment, the noise estimation unit 124 is a noise object among all objects obtained from the binarized data acquired from the binarization processing unit 122. Is estimated. The noise estimation unit 124 that has estimated the noise object outputs the estimation result information to the cell object feature amount calculation unit 126 together with the binarized data. When the noise estimation unit 124 acquires the image type information from the binarization processing unit 122, the noise estimation unit 124 outputs the estimation result information to the cell object feature amount calculation unit 126 together with the binarized data and the image type information. To do.

細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する。換言すれば、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する。     Based on the binarized data and the estimation result information acquired from the noise estimating unit 124, the cell object feature amount calculating unit 126 removes the noise object from all the objects obtained from the binarized data. In other words, the cell object feature amount calculation unit 126 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 124.

続いて、細胞オブジェクト特徴量算出部126は、上記の第1の実施形態による分類モデル生成装置1の細胞オブジェクト特徴量算出部26と同様、認識した個々の検索オブジェクトの形態的特徴量を算出する。検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部126は、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する。なお、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から画像種別情報を取得している場合には、画像種別情報及び個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する。     Subsequently, the cell object feature quantity calculation unit 126 calculates the morphological feature quantity of each of the recognized search objects in the same manner as the cell object feature quantity calculation unit 26 of the classification model generation device 1 according to the first embodiment. . The cell object feature amount calculation unit 126 that has calculated the morphological feature amount of the search object stores the morphological feature amount of each search object in the search object temporary storage unit 170. Note that the cell object feature amount calculation unit 126 stores the image type information and the morphological feature amount of each search object in the search object temporary storage unit 170 when the image type information is acquired from the noise estimation unit 124. To do.

検索オブジェクト一時記憶部170は、検索オブジェクトに関する情報を記憶する。具体的には、検索オブジェクト一時記憶部170は、図15(a)(b)に示すように、画像種別情報に対応付けて、個々の検索オブジェクトの形態的特徴量を記憶する。図15(a)に示す例では、検索オブジェクト一時記憶部170は、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報(例えば、値0)に対応付けて、N個の検索オブジェクトの形態的特徴量を記憶している。また、図15(b)に示す例では、検索オブジェクト一時記憶部170は、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報(例えば、値1)に対応付けて、N個の検索オブジェクトの形態的特徴量を記憶している。 The search object temporary storage unit 170 stores information related to the search object. Specifically, as shown in FIGS. 15A and 15B, the search object temporary storage unit 170 stores morphological feature amounts of individual search objects in association with image type information. In the example shown in FIG. 15A, the search object temporary storage unit 170 associates N 4 with image type information (for example, value 0) indicating that the search object extraction source is an unknown heterogeneous attribute captured image. The morphological feature amount of each search object is stored. In the example shown in FIG. 15B, the search object temporary storage unit 170 is associated with image type information (for example, value 1) indicating that the search object extraction source is an unknown same-attribute captured image. N stores the morphological features of the five search objects.

なお、検索オブジェクト一時記憶部170の項目「画像種別情報」の初期値は、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報である。従って、細胞オブジェクト特徴量算出部126がノイズ推定部124から画像種別情報を取得しなかった場合、項目「画像種別情報」には、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶される。     Note that the initial value of the item “image type information” in the search object temporary storage unit 170 is image type information indicating that the extraction source of the search object is an unknown different-attribute captured image. Therefore, when the cell object feature quantity calculation unit 126 does not acquire the image type information from the noise estimation unit 124, the item “image type information” indicates that the search object extraction source is an unknown heterogeneous attribute captured image. Image type information is stored.

抽出条件記憶部174は、検索オブジェクト一時記憶部170に記憶されている複数の検索オブジェクトのなかから、検索オブジェクトを抽出するときの抽出条件を記憶する。
以下、検索オブジェクト一時記憶部170から抽出される検索オブジェクトを特徴的検索オブジェクトという。なお、抽出条件記憶部174は、上記の第1の実施形態による分類モデル生成装置1の抽出条件記憶部74が記憶する内容と同様の内容の抽出条件を記憶する。
The extraction condition storage unit 174 stores extraction conditions for extracting a search object from among a plurality of search objects stored in the search object temporary storage unit 170.
Hereinafter, the search object extracted from the search object temporary storage unit 170 is referred to as a characteristic search object. The extraction condition storage unit 174 stores extraction conditions having the same contents as the contents stored in the extraction condition storage unit 74 of the classification model generation device 1 according to the first embodiment.

特徴的オブジェクト抽出・代表的特徴量計算部152は、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32、及び、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42の機能を備える。即ち、特徴的オブジェクト抽出・代表的特徴量計算部152は、細胞分類装置3に未知異種属性撮像画像が投入された場合には、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32と同様の処理をし、細胞分類装置3に未知同一属性撮像画像が投入された場合には、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42と同様の処理をする。     The characteristic object extraction / representative feature quantity calculation unit 152 includes the characteristic object extraction unit 32 of the classification model generation device 1 according to the first embodiment and the classification model generation device 2 according to the second embodiment. The representative feature amount calculation unit 42 is provided. In other words, the characteristic object extraction / representative feature amount calculation unit 152, when an unknown heterogeneous attribute captured image is input to the cell classification device 3, is characterized by the classification model generation device 1 according to the first embodiment. When processing similar to that performed by the object extraction unit 32 and an unknown identical attribute captured image is input to the cell classification device 3, the representative feature amount calculation unit 42 of the classification model generation device 2 according to the second embodiment described above. The same processing is performed.

具体的には、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、抽出条件記憶部174に記憶されている抽出条件に従って、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトのなかから特徴的検索オブジェクトを抽出する。なお、特徴的オブジェクト抽出・代表的特徴量計算部152は、何れの抽出条件に従って特徴的検索オブジェクトを抽出するかを示す情報を、入出力部110を介して外部から取得してもよい。特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出した場合、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。     Specifically, the characteristic object extraction / representative feature amount calculation unit 152 stores image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image in the search object temporary storage unit 170. If there is, the characteristic search object is extracted from the search objects stored in the search object temporary storage unit 170 in accordance with the extraction conditions stored in the extraction condition storage unit 174. Note that the feature object extraction / representative feature amount calculation unit 152 may acquire information indicating which feature search object is extracted according to which extraction condition from the outside via the input / output unit 110. When the characteristic object extraction / representative feature quantity calculation unit 152 extracts characteristic search objects from the search objects stored in the search object temporary storage unit 170, the attribute information and morphological features of each characteristic search object are extracted. The amount is output to the cell classification unit 160.

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報が記憶されている場合には、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから、当該検索オブジェクトの形態的特徴量を代表する代表的特徴量を計算する。特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから代表的特徴量を計算した場合、未知同一属性撮像画像から計算した代表的特徴量、及び、未知同一属性撮像画像の属性情報を細胞分類部160に出力する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部152は、代表的特徴量を自身の形態的特徴量とする仮想的オブジェクト(以下、「仮想的検索オブジェクト」という)を生成し、仮想的検索オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を細胞分類部160に出力する。     On the other hand, the characteristic object extraction / representative feature amount calculation unit 152 stores, in the search object temporary storage unit 170, image type information indicating that the search object extraction source is an unknown identical attribute captured image. Calculates a representative feature amount representative of the morphological feature amount of the search object from the search object stored in the search object temporary storage unit 170. When the representative object extraction / representative feature amount calculation unit 152 calculates the representative feature amount from the search object stored in the search object temporary storage unit 170, the representative feature amount calculated from the unknown identical attribute captured image, And the attribute information of an unknown identical attribute picked-up image is output to the cell classification | category part 160. FIG. In other words, the characteristic object extraction / representative feature quantity calculation unit 152 generates a virtual object (hereinafter, referred to as “virtual search object”) having the representative feature quantity as its own morphological feature quantity. The attribute information and the morphological feature amount (that is, the representative feature amount) of the target search object are output to the cell classification unit 160.

分類モデル記憶部180は、未知属性撮像画像、又は、未知属性撮像画像内の細胞を、細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する。例えば、分類モデル記憶部180は、図7に示すように、所定の分類基準に従って、段階的に細胞オブジェクトの属性を分類する分類モデルを記憶してもよい。     The classification model storage unit 180 stores an unknown attribute captured image or a classification model for classifying the cells in the unknown attribute captured image for each attribute based on the morphological characteristics of the cells. For example, as shown in FIG. 7, the classification model storage unit 180 may store a classification model that classifies the attributes of cell objects in stages according to a predetermined classification standard.

細胞カタログ記憶部190は、図16に示すような細胞カタログを記憶する。図16に示す細胞カタログでは、例えば、分類先ID「N0001」と属性情報(名称「A」、培養条件「○○」等)と形態的特徴量(面積「27」、長さ「10.5」等)とを対応付けて記憶している。なお、細胞カタログは、細胞オブジェクトの画像(例えば、細胞オブジェクトを表現する2値化データ)を更に記憶してもよい。     The cell catalog storage unit 190 stores a cell catalog as shown in FIG. In the cell catalog shown in FIG. 16, for example, classification destination ID “N0001”, attribute information (name “A”, culture condition “OO”, etc.), and morphological feature (area “27”, length “10.5”). Etc.) in association with each other. Note that the cell catalog may further store an image of the cell object (for example, binarized data representing the cell object).

細胞分類部160は、細胞オブジェクト認識部120によって未知属性撮像画像から認識された細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、分類モデルに投入することによって、未知属性撮像画像又は未知属性撮像画像内の細胞を分類する。     The cell classification unit 160 inputs the morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit 120 or the feature amount calculated from the morphological feature amount into the classification model, thereby making the unknown The cells in the attribute captured image or the unknown attribute captured image are classified.

例えば、細胞分類部160は、細胞分類装置3に未知異種属性撮像画像が投入された場合には、当該未知異種属性撮像画像から認識された細胞オブジェクト(即ち検索オブジェクト)のなかから抽出された特徴的オブジェクト(即ち、特徴的検索オブジェクト)の形態的特徴量に基づいて、未知異種属性撮像画像内の細胞を分類する。具体的には、細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合、当該複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。     For example, when an unknown heterogeneous attribute captured image is input to the cell classification device 3, the cell classifying unit 160 extracts features extracted from cell objects (that is, search objects) recognized from the unknown heterogeneous attribute captured image. Based on the morphological feature amount of the target object (that is, the characteristic search object), the cells in the unknown heterogeneous attribute captured image are classified. Specifically, when the cell classification unit 160 acquires attribute information and morphological feature amounts of a plurality of characteristic search objects from the characteristic object extraction / representative feature amount calculation unit 152, the plurality of characteristic search objects The attribute information and the morphological feature amount are input into the classification model, and the individual characteristic search objects are classified.

また例えば、細胞分類部160は、細胞分類装置3に未知同一属性撮像画像が投入された場合には、当該未知同一属性撮像画像から認識された細胞オブジェクト(即ち検索オブジェクト)の形態的特徴量から算出される特徴量(即ち、代表的特徴量)に基づいて、当該未知同一属性撮像画像を分類する。具体的には、細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から仮想的検索オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を取得した場合、当該仮想的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、未知同一属性撮像画像を分類する。即ち、細胞分類部160は、仮想的検索オブジェクトの分類先を未知同一属性撮像画像の分類先とする。     For example, when an unknown identical attribute captured image is input to the cell classification device 3, the cell classification unit 160 uses the morphological feature amount of the cell object (that is, the search object) recognized from the unknown identical attribute captured image. Based on the calculated feature quantity (ie, representative feature quantity), the unknown identical-attribute captured images are classified. Specifically, when the cell classification unit 160 acquires the attribute information and the morphological feature amount (that is, the representative feature amount) of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152, The attribute information and the morphological feature amount of the virtual search object are input to the classification model, and the unknown identical attribute captured image is classified. That is, the cell classification unit 160 sets the classification destination of the virtual search object as the classification destination of the unknown identical-attribute captured image.

細胞分類部160は、未知属性撮像画像、又は、未知属性撮像画像内の細胞を分類した場合、分類結果を入出力部110に出力する。具体的には、細胞分類部160は、未知異種属性撮像画像から得られた個々の特徴的検索オブジェクトを分類したときは、少なくとも、個々の特徴的検索オブジェクトの分類先の枝に設定されている分類先IDを入出力部110に出力する。例えば、細胞分類部160は、個々の特徴的検索オブジェクトの分類先IDに加えて、各分類先IDに対応付けられている属性情報、又は、個々の特徴的検索オブジェクトの形態的特徴量の何れか一方又は両方を入出力部110に出力してもよい。     When classifying the unknown attribute captured image or the cells in the unknown attribute captured image, the cell classification unit 160 outputs the classification result to the input / output unit 110. Specifically, when the individual characteristic search objects obtained from the unknown heterogeneous attribute captured images are classified, the cell classification unit 160 is set to at least the branch destination of the individual characteristic search objects. The classification destination ID is output to the input / output unit 110. For example, in addition to the classification destination IDs of the individual characteristic search objects, the cell classification unit 160 can select either attribute information associated with each classification destination ID or the morphological feature amount of each characteristic search object. Either or both may be output to the input / output unit 110.

なお、細胞分類部160は、個々の特徴的検索オブジェクトを分類したときは、個々の特徴的検索オブジェクトの分類先を示す分類先IDに対応付けて、個々の特徴的検索オブジェクトの形態的特徴量を細胞カタログに追加してもよい。また、細胞分類部160は、特徴的検索オブジェクトを分類したときは、分類結果として分類モデルから得られる情報(例えば、分類先ID、分類先ID毎の属性情報)に加えて、分類結果である各分類先IDに対応する属性情報、形態的特徴量を細胞カタログ記憶部190から取得し、入出力部110に出力してもよい。     Note that when the individual characteristic search objects are classified, the cell classification unit 160 associates the individual characteristic search objects with the classification destination ID indicating the classification destination of the individual characteristic search objects, and the morphological feature amounts of the individual characteristic search objects. May be added to the cell catalog. In addition, when the characteristic search object is classified, the cell classification unit 160 is a classification result in addition to information obtained from the classification model as a classification result (for example, classification destination ID, attribute information for each classification destination ID). The attribute information and morphological feature amount corresponding to each classification destination ID may be acquired from the cell catalog storage unit 190 and output to the input / output unit 110.

細胞分類部160は、未知同一属性撮像画像から得られた仮想的検索オブジェクトに基づいて当該未知同一属性撮像画像を分類したときは、少なくとも、当該未知同一属性撮像画像の分類先の枝に設定されている分類先IDを入出力部110に出力する。例えば、細胞分類部160は、未知同一属性撮像画の分類先IDに加えて、分類先IDに対応付けられている属性情報、又は、仮想的検索オブジェクトの形態的特徴量(即ち、代表的特徴量)の何れか一方又は両方を入出力部110に出力してもよい。     When classifying the unknown identical attribute captured image based on the virtual search object obtained from the unknown identical attribute captured image, the cell classification unit 160 is set to at least the branch to which the unknown identical attribute captured image is classified. The classification destination ID is output to the input / output unit 110. For example, the cell classification unit 160 adds the attribute information associated with the classification destination ID or the morphological feature amount of the virtual search object (that is, the representative feature) in addition to the classification destination ID of the unknown identical attribute captured image. Any one or both of (quantity) may be output to the input / output unit 110.

なお、細胞分類部160は、未知同一属性撮像画像を分類したときは、当該未知属性撮像画像の分類先を示す分類先IDに対応付けて、当該分類に用いた仮想的検索オブジェクトの形態的特徴量を細胞カタログに追加してもよい。また、細胞分類部160は、未知同一属性撮像画像を分類したときは、分類結果として分類モデルから得られる情報に加えて、分類結果である分類先IDに対応する属性情報、形態的特徴量を細胞カタログ記憶部190から取得し、入出力部110に出力してもよい。     In addition, when the cell classification unit 160 classifies the unknown identical attribute captured image, the cell classification unit 160 associates the unknown attribute captured image with the classification destination ID indicating the classification destination of the unknown attribute captured image, and the morphological feature of the virtual search object used for the classification The quantity may be added to the cell catalog. In addition, when classifying an unknown identical-attribute captured image, the cell classification unit 160 adds attribute information and morphological features corresponding to the classification destination ID that is the classification result in addition to the information obtained from the classification model as the classification result. It may be acquired from the cell catalog storage unit 190 and output to the input / output unit 110.

なお、特徴的オブジェクト抽出・代表的特徴量計算部152による特徴的検索オブジェクトの抽出、細胞分類部160による分類の各動作間の関係については、例えば、以下のように実現すればよい。     The relationship between the characteristic object extraction / representative feature amount calculation unit 152 extraction of the characteristic search object and the cell classification unit 160 classification may be realized as follows, for example.

細胞オブジェクト特徴量算出部126は、検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶した後に、形態的特徴量を記憶した旨を細胞分類部160に通知する。細胞分類部160は、細胞オブジェクト特徴量算出部126から形態的特徴量を記憶した旨の通知を取得した場合、特徴的オブジェクト抽出・代表的特徴量計算部152に抽出又は計算を要求する。     After storing the morphological feature amount of the search object in the search object temporary storage unit 170, the cell object feature amount calculation unit 126 notifies the cell classification unit 160 that the morphological feature amount has been stored. When the cell classification unit 160 obtains the notification that the morphological feature amount is stored from the cell object feature amount calculation unit 126, the cell classification unit 160 requests the characteristic object extraction / representative feature amount calculation unit 152 to perform extraction or calculation.

特徴的オブジェクト抽出・代表的特徴量計算部152は、細胞分類部160から抽出又は計算を要求された場合、検索オブジェクト一時記憶部170に記憶されている画像種別情報を参照し、検索オブジェクトの抽出元が未知異種属性撮像画像であるか未知同一属性撮像画像であるかを判断する。具体的には、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている画像種別情報が、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報である場合には、検索オブジェクトの抽出元が未知異種属性撮像画像であると判断し、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報である場合には、検索オブジェクトの抽出元が未知同一属性撮像画像であると判断する。     The feature object extraction / representative feature amount calculation unit 152 refers to the image type information stored in the search object temporary storage unit 170 when extraction or calculation is requested from the cell classification unit 160, and extracts the search object. It is determined whether the original is an unknown different-attribute captured image or an unknown identical-attribute captured image. Specifically, the characteristic object extraction / representative feature amount calculation unit 152 indicates that the image type information stored in the search object temporary storage unit 170 indicates that the search object extraction source is an unknown heterogeneous attribute captured image. If the search object extraction source is an unknown different-attribute captured image, the search object extraction source is image type information indicating that the search object extraction source is an unknown identical-attribute captured image. Determines that the extraction source of the search object is an unknown identical-attribute captured image.

特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクトの抽出元が未知異種属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出し、分類を要求するとともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。     When the characteristic object extraction / representative feature quantity calculation unit 152 determines that the search object extraction source is an unknown heterogeneous attribute captured image, the characteristic search object is extracted from the search object stored in the search object temporary storage unit 170. Are extracted, the classification is requested, and the attribute information and the morphological feature amount of each characteristic search object are output to the cell classification unit 160.

細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から、分類の要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合、夫々の特徴的検索オブジェクトを分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。     When the cell classification unit 160 obtains the attribute information and the morphological feature amount of each characteristic search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the classification request, the cell classification unit 160 Are put into a classification model to classify individual characteristic search objects.

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクトの抽出元が未知同一属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成し、分類を要求するとともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。     On the other hand, when the characteristic object extraction / representative feature quantity calculation unit 152 determines that the extraction source of the search object is an unknown identical-attribute captured image, the characteristic object extraction / representative feature value calculation unit 152 determines whether the search object is stored in the search object temporary storage unit 170 from A search object is generated, classification is requested, and attribute information and morphological feature of the virtual search object are output to the cell classification unit 160.

細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から、分類の要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部160は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する。     The cell classification unit 160 acquires the attribute information and the morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the classification request, and the cell classification unit 160 acquires the virtual search object. Is input to the classification model, and the unknown identical attribute captured image is classified.

以下、フローチャートを用いて、細胞分類装置3の動作を説明する。図17は、細胞分類装置3の動作の一例を示すフローチャートである。また、図17に示すフローチャートの開始時において、検索オブジェクト一時記憶部170内には何も記憶されていないものとする。     Hereinafter, the operation of the cell classification device 3 will be described using a flowchart. FIG. 17 is a flowchart showing an example of the operation of the cell classification device 3. Further, it is assumed that nothing is stored in the search object temporary storage unit 170 at the start of the flowchart shown in FIG.

図17において、入出力部110は、外部から未知属性撮像画像とともに画像種別情報を取得する(ステップS212)。入出力部110は、外部から取得した未知属性撮像画像及び画像種別情報を細胞オブジェクト認識部120の2値化処理部122に出力する。     In FIG. 17, the input / output unit 110 acquires image type information from the outside together with the unknown attribute captured image (step S212). The input / output unit 110 outputs the unknown attribute captured image and image type information acquired from the outside to the binarization processing unit 122 of the cell object recognition unit 120.

2値化処理部122は、入出力部110から取得した未知属性撮像画像を所定の閾値によって2値化処理する(ステップS214)。2値化処理部122は、2値化データ及び画像種別情報をノイズ推定部124に出力する。ノイズ推定部124は、2値化処理部122から2値化データを取得し、取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS220)。ノイズオブジェクトを推定したノイズ推定部124は、2値化データ及び画像種別情報とともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。なお、ノイズ推定部124によるステップS220の処理の詳細は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24によるステップS120の処理の詳細(図12)と同様である。     The binarization processing unit 122 binarizes the unknown attribute captured image acquired from the input / output unit 110 using a predetermined threshold (step S214). The binarization processing unit 122 outputs the binarized data and the image type information to the noise estimation unit 124. The noise estimation unit 124 acquires the binarized data from the binarization processing unit 122, and estimates the noise object from all the objects obtained from the acquired binarized data (step S220). The noise estimation unit 124 that has estimated the noise object outputs estimation result information to the cell object feature amount calculation unit 126 together with the binarized data and the image type information. The details of the process of step S220 by the noise estimation unit 124 are the same as the details of the process of step S120 by the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment (FIG. 12).

ノイズ推定部124から2値化データ及び画像種別情報とともに推定結果情報を取得した細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS230)。換言すれば、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS230)。     The cell object feature amount calculation unit 126 that has acquired the estimation result information together with the binarized data and the image type information from the noise estimation unit 124, based on the binarization data and the estimation result information acquired from the noise estimation unit 124, the 2 A noise object is removed from all objects obtained from the valuation data (step S230). In other words, the cell object feature quantity calculation unit 126 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 124 (step S230).

次いで、細胞オブジェクト特徴量算出部126は、認識した個々の検索オブジェクトの形態的特徴量を算出する(ステップS232)。個々の検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部126は、画像種別情報、及び、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する(ステップS234)。また、細胞オブジェクト特徴量算出部126は、形態的特徴量を記憶した旨を細胞分類部160に通知する。形態的特徴量を記憶した旨の通知を取得した細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152に抽出又は計算を要求する。     Next, the cell object feature value calculation unit 126 calculates the morphological feature value of each recognized search object (step S232). The cell object feature amount calculation unit 126 that has calculated the morphological feature amount of each search object stores the image type information and the morphological feature amount of each search object in the search object temporary storage unit 170 (step S234). . In addition, the cell object feature amount calculation unit 126 notifies the cell classification unit 160 that the morphological feature amount is stored. The cell classification unit 160 that has acquired the notification that the morphological feature amount is stored requests the feature object extraction / representative feature amount calculation unit 152 to perform extraction or calculation.

細胞分類部160から抽出又は計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像であるか否かを判断する(ステップS280)。     The characteristic object extraction / representative feature amount calculation unit 152 requested to extract or calculate from the cell classification unit 160 determines whether or not the unknown attribute captured image acquired in step S212 is an unknown heterogeneous attribute captured image ( Step S280).

特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像であると判断した場合(ステップS280:Yes)、抽出条件記憶部174に記憶されている抽出条件に従って、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出する(ステップ282)。特徴的検索オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部152は、分類を要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。分類を要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を特徴的オブジェクト抽出・代表的特徴量計算部152から取得した細胞分類部160は、夫々の特徴的検索オブジェクトを分類モデルに投入し、未知異種属性撮像画像内の個々の特徴的検索オブジェクトを分類する(ステップS284)。     When the characteristic object extraction / representative feature amount calculation unit 152 determines that the unknown attribute captured image acquired in step S212 is an unknown heterogeneous attribute captured image (step S280: Yes), the characteristic object extraction / representative feature amount calculation unit 152 stores the extracted in the extraction condition storage unit 174. The characteristic search object is extracted from the search object stored in the search object temporary storage unit 170 in accordance with the extraction condition (step 282). The characteristic object extraction / representative feature quantity calculation unit 152 that has extracted the characteristic search object requests classification, and outputs attribute information and morphological feature quantity of each characteristic search object to the cell classification unit 160. The cell classification unit 160 that obtains the attribute information and the morphological feature amount of each characteristic search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the request for the classification, classifies each characteristic search object as a classification model. And classifying the individual characteristic search objects in the unknown different-attribute captured image (step S284).

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像でないと判断した場合(ステップS280:No)、即ち、ステップS212において取得した未知属性撮像画像が未知同一属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成する(ステップ286)。仮想的検索オブジェクトを生成した特徴的オブジェクト抽出・代表的特徴量計算部152は、分類を要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。分類を要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を特徴的オブジェクト抽出・代表的特徴量計算部152から取得した細胞分類部160は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する(ステップS288)。     On the other hand, the characteristic object extraction / representative feature amount calculation unit 152 determines that the unknown attribute captured image acquired in step S212 is not an unknown heterogeneous attribute captured image (step S280: No), that is, acquired in step S212. If it is determined that the unknown attribute captured image is an unknown identical attribute captured image, a virtual search object is generated from the search object stored in the search object temporary storage unit 170 (step 286). The characteristic object extraction / representative feature quantity calculation unit 152 that has generated the virtual search object outputs a request for classification and the attribute information and the morphological feature quantity of the virtual search object to the cell classification unit 160. The cell classification unit 160 that has acquired the attribute information and morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the request for classification, inputs the virtual search object to the classification model, The unknown identical attribute captured images are classified (step S288).

ステップS284またはステップS288に続いて、細胞分類部160は、分類結果を入出力部110に出力する(ステップS290)。具体的には、細胞分類部160は、ステップS284において個々の特徴的検索オブジェクトを分類した場合には、例えば、個々の特徴的検索オブジェクトの分類先を示す分類先ID、各分類先IDに対応付けられている属性情報、個々の特徴的検索オブジェクトの形態的特徴量を入出力部110に出力する。また、細胞分類部160は、ステップS288において未知同一属性撮像画像を分類した場合には、例えば、未知同一属性撮像画像の分類先を示す分類先ID、分類先IDに対応付けられている属性情報、仮想的検索オブジェクトの形態的特徴量を入出力部110に出力する。     Subsequent to step S284 or step S288, the cell classification unit 160 outputs the classification result to the input / output unit 110 (step S290). Specifically, when classifying individual characteristic search objects in step S284, the cell classification unit 160 corresponds to, for example, a classification destination ID indicating a classification destination of each characteristic search object, and each classification destination ID. The attached attribute information and the morphological feature amount of each characteristic search object are output to the input / output unit 110. When the cell classification unit 160 classifies the unknown identical attribute captured image in step S288, for example, the classification destination ID indicating the classification destination of the unknown identical attribute captured image, the attribute information associated with the classification destination ID, for example. The morphological feature amount of the virtual search object is output to the input / output unit 110.

次いで、細胞分類部160は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトを消去し(ステップS292)、図17に示すフローチャートは終了する。なお、細胞分類部160は、例えば、細胞オブジェクト特徴量算出部126に、検索オブジェクト一時記憶部に記憶されている検索オブジェクトを消去すべき旨を要求することによって、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトを消去する。     Next, the cell classification unit 160 deletes the search object stored in the search object temporary storage unit 170 (step S292), and the flowchart shown in FIG. 17 ends. For example, the cell classification unit 160 stores the search object temporary storage unit 170 by requesting the cell object feature amount calculation unit 126 to delete the search object stored in the search object temporary storage unit. Delete the search object that has been deleted.

(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について説明する。図18は、本発明の第4の実施形態による細胞分類装置4の機能ブロック図の一例である。図19は、検索オブジェクト一時記憶部270に記憶される情報の一例である。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below with reference to the drawings. FIG. 18 is an example of a functional block diagram of the cell classification device 4 according to the fourth embodiment of the present invention. FIG. 19 is an example of information stored in the search object temporary storage unit 270.

細胞分類装置4は、図17に示すように、入出力部210、細胞オブジェクト認識部220、特徴的オブジェクト抽出・代表的特徴量計算部252、候補分類モデル形成部254、分類モデル決定・形成部256、細胞分類部260、検索オブジェクト一時記憶部270、細胞オブジェクト記憶部272、抽出条件記憶部274、候補分類モデル記憶部276、分類モデル記憶部280及び細胞カタログ記憶部290を備える。細胞オブジェクト認識部220は、2値化処理部222、ノイズ推定部224(2値化データ取得部)及び細胞オブジェクト特徴量算出部226(ノイズ除去部)を備える。     As shown in FIG. 17, the cell classification device 4 includes an input / output unit 210, a cell object recognition unit 220, a characteristic object extraction / representative feature amount calculation unit 252, a candidate classification model formation unit 254, a classification model determination / formation unit. 256, a cell classification unit 260, a search object temporary storage unit 270, a cell object storage unit 272, an extraction condition storage unit 274, a candidate classification model storage unit 276, a classification model storage unit 280, and a cell catalog storage unit 290. The cell object recognition unit 220 includes a binarization processing unit 222, a noise estimation unit 224 (binarized data acquisition unit), and a cell object feature amount calculation unit 226 (noise removal unit).

入出力部210は、撮像画像及び画像種別情報を外部から取得する。具体的には、入出力部210は、上記の第1の実施形態による分類モデル生成装置1、2の入出力部10と同様、属性情報(若しくは属性情報及び撮像条件情報)とともに、既知同一属性撮像画像、及び、既知同一属性撮像画像である旨を示す画像種別情報を外部から取得する。また、入出力部210は、上記の第3の実施形態による細胞分類装置3の入出力部110と同様、未知異種属性撮像画像及び未知異種属性撮像画像である旨を示す画像種別情報、又は、未知同一属性撮像画像及び未知同一属性撮像画像である旨を示す画像種別情報を外部から取得する。入出力部210は、外部から取得した情報を2値化処理部222に出力する。     The input / output unit 210 acquires a captured image and image type information from the outside. Specifically, the input / output unit 210, together with attribute information (or attribute information and imaging condition information), as well as the known identical attributes, is the same as the input / output unit 10 of the classification model generation devices 1 and 2 according to the first embodiment. Image type information indicating that the image is a captured image and a known image having the same attribute is acquired from the outside. Also, the input / output unit 210 is similar to the input / output unit 110 of the cell classification device 3 according to the third embodiment described above, image type information indicating that it is an unknown heterogeneous attribute captured image and an unknown heterogeneous attribute captured image, or Image type information indicating that it is an unknown identical attribute captured image and an unknown identical attribute captured image is acquired from the outside. The input / output unit 210 outputs information acquired from the outside to the binarization processing unit 222.

また、入出力部210は、未知属性撮像画像(未知異種属性撮像画像又は未知同一属性撮像画像)とともに、分類先範囲指定情報を外部から取得し、2値化処理部222に出力してもよい。分類先範囲指定情報とは、未知属性撮像画像の分類先の範囲、または、未知属性撮像画像内の細胞の分類先の範囲を指定した情報である。     Further, the input / output unit 210 may acquire the classification destination range designation information from the outside together with the unknown attribute captured image (unknown different attribute captured image or unknown identical attribute captured image), and output the classification destination range designation information to the binarization processing unit 222. . The classification destination range designation information is information that designates a classification destination range of an unknown attribute captured image or a classification destination range of cells in an unknown attribute captured image.

細胞オブジェクト認識部220は、上記の第1、2の実施形態による分類モデル生成装置1の細胞オブジェクト認識部20と同様、既知同一属性撮像画像内の個々の細胞の撮像領域を細胞オブジェクトとして認識する。また、細胞オブジェクト認識部220は、上記の第3の実施形態による細胞分類装置3の細胞オブジェクト認識部120と同様、未知属性撮像画像内の個々の細胞オブジェクトを検索オブジェクトとして認識する。     Similar to the cell object recognition unit 20 of the classification model generation device 1 according to the first and second embodiments, the cell object recognition unit 220 recognizes an imaging region of each cell in a known identical attribute captured image as a cell object. . In addition, the cell object recognition unit 220 recognizes each cell object in the unknown attribute captured image as a search object, like the cell object recognition unit 120 of the cell classification device 3 according to the third embodiment.

即ち、2値化処理部222は、上記の第1、2の実施形態による分類モデル生成装置1、2の2値化処理部22と同様、既知同一属性撮像画像を所定の閾値によって2値化処理する。また、2値化処理部222は、上記の第3の実施形態による細胞分類装置3の2値化処理部122と同様、未知属性撮像画像を所定の閾値によって2値化処理する。2値化処理部222は、入出力部210から取得した情報とともに、2値化データをノイズ推定部124に出力する。     That is, the binarization processing unit 222 binarizes a known identical attribute captured image with a predetermined threshold as in the binarization processing unit 22 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. Process. Similarly to the binarization processing unit 122 of the cell classification device 3 according to the third embodiment, the binarization processing unit 222 binarizes the unknown attribute captured image with a predetermined threshold. The binarization processing unit 222 outputs the binarized data to the noise estimation unit 124 together with the information acquired from the input / output unit 210.

ノイズ推定部224は、上記の第1、2の実施形態による分類モデル生成装置1、2のノイズ推定部24と同様、既知同一属性撮像画像内の全オブジェクトのなかからノイズオブジェクトを推定する。また、ノイズ推定部224は、上記の第3の実施形態による細胞分類装置3のノイズ推定部124と同様、未知属性撮像画像内の全オブジェクトのなかからノイズオブジェクトを推定する。ノイズ推定部224は、2値化処理部222から取得した情報とともに、推定結果情報をノイズ推定部124に出力する。     The noise estimation unit 224 estimates a noise object from all the objects in the known identical attribute captured image, like the noise estimation unit 24 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. Moreover, the noise estimation part 224 estimates a noise object from all the objects in an unknown attribute picked-up image similarly to the noise estimation part 124 of the cell classification device 3 by said 3rd Embodiment. The noise estimation unit 224 outputs the estimation result information to the noise estimation unit 124 together with the information acquired from the binarization processing unit 222.

細胞オブジェクト特徴量算出部226は、上記の第1、2の実施形態による分類モデル生成装置1、2の細胞オブジェクト特徴量算出部26と同様、既知同一属性撮像画像内の個々の細胞オブジェクトの形態的特徴量を算出する。個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部226は、属性情報(若しくは属性情報及び撮像条件情報)に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部272に記憶する。     The cell object feature amount calculation unit 226 is similar to the cell object feature amount calculation unit 26 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments described above, and each cell object form in the known identical attribute captured image. The characteristic feature amount is calculated. The cell object feature amount calculation unit 226 that has calculated the morphological feature amount of each cell object stores the morphological feature amount of each cell object in the cell object in association with the attribute information (or attribute information and imaging condition information). Store in the unit 272.

また、細胞オブジェクト特徴量算出部226は、上記の第3の実施形態による細胞分類装置3の細胞オブジェクト特徴量算出部126と同様、未知属性撮像画像内の個々の細胞オブジェクト(即ち、検索オブジェクト)の形態的特徴量を算出する。個々の検索オブジェクトの形態的特徴量の算出した細胞オブジェクト特徴量算出部226は、画像種別情報に対応付けて、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部270に記憶する。また、細胞オブジェクト特徴量算出部226は、ノイズ推定部224から分類先範囲指定情報を取得している場合には、分類先範囲指定情報を検索オブジェクト一時記憶部270に記憶する。     In addition, the cell object feature quantity calculation unit 226 is similar to the cell object feature quantity calculation unit 126 of the cell classification device 3 according to the third embodiment described above, and each cell object (that is, search object) in the unknown attribute captured image. The morphological feature amount of is calculated. The cell object feature value calculation unit 226 that calculates the morphological feature value of each search object stores the morphological feature value of each search object in the search object temporary storage unit 270 in association with the image type information. In addition, the cell object feature amount calculation unit 226 stores the classification destination range designation information in the search object temporary storage unit 270 when the classification destination range designation information is acquired from the noise estimation unit 224.

検索オブジェクト一時記憶部270は、検索オブジェクトに関する情報を記憶する。具体的には、検索オブジェクト一時記憶部270は、図18(a)(b)に示すように、画像種別情報及び分類先範囲指定情報に対応付けて、個々の検索オブジェクトの形態的特徴量を記憶する。なお、検索オブジェクト一時記憶部270の項目「画像種別情報」の初期値は、上記の第3の実施形態による細胞分類装置3の検索オブジェクト一時記憶部170と同様である。また、検索オブジェクト一時記憶部270の項目「分類先範囲指定情報」の初期値は、分類範囲を何も指定しない旨を示す分類先範囲指定情報である。従って、細胞オブジェクト特徴量算出部226がノイズ推定部224から分類先範囲指定情報を取得しなかった場合、項目「分類先範囲指定情報」には、分類範囲を何も指定しない旨を示す分類先範囲指定情報が記憶される。     The search object temporary storage unit 270 stores information related to the search object. Specifically, as shown in FIGS. 18A and 18B, the search object temporary storage unit 270 associates the morphological feature amount of each search object with the image type information and the classification destination range designation information. Remember. The initial value of the item “image type information” in the search object temporary storage unit 270 is the same as that of the search object temporary storage unit 170 of the cell classification device 3 according to the third embodiment. The initial value of the item “classification destination range designation information” in the search object temporary storage unit 270 is classification destination range designation information indicating that no classification range is designated. Therefore, when the cell object feature quantity calculation unit 226 has not acquired the classification destination range designation information from the noise estimation unit 224, the classification destination indicating that no classification range is designated in the item “classification destination range designation information”. Range designation information is stored.

細胞オブジェクト記憶部272は、上記の第1、2の実施形態による分類モデル生成装置1、2の細胞オブジェクト記憶部72と同様である。また、抽出条件記憶部274は、上記の第1の実施形態による分類モデル生成装置1の抽出条件記憶部74と同様である。
なお、抽出条件記憶部274は、細胞オブジェクト記憶部272から特徴的オブジェクトを抽出するための抽出条件(即ち、分類モデル生成時に用いる特徴的オブジェクトを抽出するための抽出条件)と、検索オブジェクト一時記憶部270にから特徴的検索オブジェクトを抽出するための抽出条件(即ち、分類対象である特徴的検索オブジェクトを抽出するための抽出条件)とを別々に記憶してもよい。
The cell object storage unit 272 is the same as the cell object storage unit 72 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. The extraction condition storage unit 274 is the same as the extraction condition storage unit 74 of the classification model generation device 1 according to the first embodiment.
The extraction condition storage unit 274 extracts an extraction condition for extracting a characteristic object from the cell object storage unit 272 (that is, an extraction condition for extracting a characteristic object used when generating a classification model), and a search object temporary storage. The extraction condition for extracting the characteristic search object from the unit 270 (that is, the extraction condition for extracting the characteristic search object to be classified) may be stored separately.

候補分類モデル記憶部276は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル記憶部76と同様である。また、分類モデル記憶部280は、上記の第1、2の実施形態による分類モデル生成装置1、2の分類モデル記憶部80と同様である。
また、細胞カタログ記憶部290は、上記の第3の実施形態による細胞分類装置3の細胞カタログ記憶部190と同様である。
The candidate classification model storage unit 276 is the same as the candidate classification model storage unit 76 of the classification model generation device 1 according to the first embodiment. The classification model storage unit 280 is the same as the classification model storage unit 80 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments.
The cell catalog storage unit 290 is the same as the cell catalog storage unit 190 of the cell classification device 3 according to the third embodiment.

特徴的オブジェクト抽出・代表的特徴量計算部252は、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32、及び、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42の機能を備える。     The characteristic object extraction / representative feature quantity calculation unit 252 includes the characteristic object extraction unit 32 of the classification model generation device 1 according to the first embodiment and the classification model generation device 2 according to the second embodiment. The representative feature amount calculation unit 42 is provided.

具体的には、特徴的オブジェクト抽出・代表的特徴量計算部252は、特徴的オブジェクトを抽出すべき場合には、抽出条件記憶部274に記憶されている抽出条件に従って、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出する。但し、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトのなかから特徴的オブジェクトを抽出する。特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出した場合、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部254に出力する。     Specifically, the characteristic object extraction / representative feature amount calculation unit 252 stores the characteristic object in the cell object storage unit 272 according to the extraction condition stored in the extraction condition storage unit 274 when the characteristic object is to be extracted. A characteristic object is extracted from the stored cell objects. However, when the classification object range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the characteristic object extraction / representative feature amount calculation unit 252 includes the cell object storage unit 272. A characteristic object is extracted from the cell objects in the specified classification range among the cell objects stored in. When the characteristic object extraction / representative feature quantity calculation unit 252 extracts a characteristic object from the cell objects stored in the cell object storage unit 272, the attribute information and the morphological feature quantity of each characteristic object are extracted. Is output to the candidate classification model forming unit 254.

また、特徴的オブジェクト抽出・代表的特徴量計算部252は、代表的特徴量を計算すべき場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから代表的特徴量を計算する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部252は、各既知同一属性撮像画像の仮想的オブジェクトを生成する。但し、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトを用いて代表的特徴量を計算する。特徴的オブジェクト抽出・代表的特徴量計算部252は、各既知同一属性撮像画像の仮想的オブジェクトを生成した場合、夫々の仮想的オブジェクトの属性情報及び形態的特徴量を分類モデル決定・形成部256に出力する。     Further, the characteristic object extraction / representative feature amount calculation unit 252 calculates a representative feature amount from the cell object stored in the cell object storage unit 272 when the representative feature amount is to be calculated. In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual object of each known identical attribute captured image. However, when the classification object range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the characteristic object extraction / representative feature amount calculation unit 252 includes the cell object storage unit 272. The representative feature amount is calculated by using the cell objects in the specified classification range among the cell objects stored in. When the characteristic object extraction / representative feature amount calculation unit 252 generates a virtual object of each known identical attribute captured image, the classification model determination / formation unit 256 determines the attribute information and the morphological feature amount of each virtual object. Output to.

更に、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、抽出条件記憶部274に記憶されている抽出条件に従って、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトのなかから特徴的検索オブジェクトを抽出する。特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出した場合、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部260に出力する。     Further, the characteristic object extraction / representative feature quantity calculation unit 252 stores the image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image in the search object temporary storage unit 270. Extracts a characteristic search object from the search objects stored in the search object temporary storage unit 270 in accordance with the extraction conditions stored in the extraction condition storage unit 274. When the characteristic object extraction / representative characteristic amount calculation unit 252 extracts characteristic search objects from the search objects stored in the search object temporary storage unit 170, the attribute information and the morphological features of each characteristic search object are extracted. The amount is output to the cell classification unit 260.

また、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報が記憶されている場合には、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから代表的特徴量を計算する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部252は、未知同一属性撮像画像の仮想的検索オブジェクトを生成する。特徴的オブジェクト抽出・代表的特徴量計算部252は、未知同一属性撮像画像の仮想的検索オブジェクトを生成した場合、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部260に出力する。     Further, the characteristic object extraction / representative feature amount calculation unit 252 stores, when the search object temporary storage unit 270 stores image type information indicating that the search object extraction source is an unknown same-attribute captured image. Calculates a representative feature amount from the search object stored in the search object temporary storage unit 270. In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual search object for an unknown identical attribute captured image. The characteristic object extraction / representative feature amount calculation unit 252 outputs the attribute information and the morphological feature amount of the virtual search object to the cell classification unit 260 when the virtual search object of the unknown identical attribute captured image is generated.

候補分類モデル形成部254は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル形成部34と同様、特徴的オブジェクト抽出・代表的特徴量計算部252から取得した特徴的オブジェクトの属性情報及び形態的特徴量を用いて候補分類モデルを形成(生成)する。     The candidate classification model formation unit 254 is the same as the candidate classification model formation unit 34 of the classification model generation device 1 according to the first embodiment described above. A candidate classification model is formed (generated) using the attribute information and the morphological feature amount.

分類モデル決定・形成部256は、上記の第1の実施形態による分類モデル生成装置1の分類モデル決定部36、及び、上記の第2の実施形態による分類モデル生成装置2の分類モデル形成部46の機能を備える。     The classification model determination / formation unit 256 includes the classification model determination unit 36 of the classification model generation device 1 according to the first embodiment and the classification model formation unit 46 of the classification model generation device 2 according to the second embodiment. It has the function of.

具体的には、分類モデル決定・形成部256は、候補分類モデル形成部254によって複数の候補分類モデルが形成された場合には、候補分類モデル記憶部276に記憶されている複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部280に記憶する。     Specifically, the classification model determination / formation unit 256, when a plurality of candidate classification models are formed by the candidate classification model formation unit 254, a plurality of candidate classification models stored in the candidate classification model storage unit 276. A classification model is determined from the above and stored in the classification model storage unit 280.

また、分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252から既知同一属性撮像画像毎の複数の仮想的オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該複数の仮想的オブジェクトの属性情報及び形態的特徴量を用いて分類モデルを生成(形成)する。     In addition, when the classification model determination / formation unit 256 acquires the attribute information and the morphological feature amount of a plurality of virtual objects for each known identical attribute captured image from the characteristic object extraction / representative feature amount calculation unit 252. The classification model is generated (formed) using the attribute information and the morphological feature amount of the plurality of virtual objects.

細胞分類部260は、上記の第3の実施形態による細胞分類装置3の細胞分類部160と同様、未知属性撮像画像、または、未知属性撮像画像内の細胞(具体的には、個々の特徴的検索オブジェクト)を分類し、分類結果を入出力部210に出力する。     Similar to the cell classification unit 160 of the cell classification device 3 according to the third embodiment, the cell classification unit 260 is an unknown attribute captured image or a cell (specifically, individual characteristic captured image). Search object), and the classification result is output to the input / output unit 210.

具体的には、細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252から複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。     Specifically, when the cell classification unit 260 acquires attribute information and morphological feature amounts of a plurality of characteristic search objects from the characteristic object extraction / representative feature amount calculation unit 252, the plurality of characteristic features are extracted. The attribute information and the morphological feature amount of the search object are input to the classification model, and the individual characteristic search object is classified.

また、細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252から仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該仮想的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、未知同一属性撮像画像を分類する。     In addition, when the cell classification unit 260 acquires the attribute information and the morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 252, the attribute information and the form of the virtual search object The characteristic feature amount is input to the classification model, and the unknown identical attribute captured image is classified.

以下、フローチャートを用いて、細胞分類装置4の動作を説明する。図20は、細胞分類装置4の動作の一例を示すフローチャートである。なお、図20に示すフローチャートの開始時において、細胞オブジェクト記憶部272内には、複数の既知同一属性撮像画像からそれぞれ認識された複数の細胞オブジェクトが記憶されているものとする。また、図20に示すフローチャートの開始時において、検索オブジェクト一時記憶部270内には何も記憶されていないものとする。     Hereinafter, the operation of the cell classification device 4 will be described using a flowchart. FIG. 20 is a flowchart showing an example of the operation of the cell classification device 4. Note that, at the start of the flowchart shown in FIG. 20, it is assumed that a plurality of cell objects respectively recognized from a plurality of known identical attribute captured images are stored in the cell object storage unit 272. Further, it is assumed that nothing is stored in the search object temporary storage unit 270 at the start of the flowchart shown in FIG.

図20において、入出力部210は、外部から画像種別情報及び分類先範囲指定情報とともに、未知属性撮像画像を取得し(ステップS312)、2値化処理部222に出力する。2値化処理部222は、未知属性撮像画像を所定の閾値によって2値化処理する(ステップS314)。2値化処理部222は、2値化データ、画像種別情報及び分類先範囲指定情報をノイズ推定部224に出力する。     In FIG. 20, the input / output unit 210 obtains an unknown attribute captured image together with image type information and classification destination range designation information from the outside (step S312), and outputs it to the binarization processing unit 222. The binarization processing unit 222 binarizes the unknown attribute captured image with a predetermined threshold (step S314). The binarization processing unit 222 outputs the binarized data, the image type information, and the classification destination range designation information to the noise estimation unit 224.

ノイズ推定部224は、2値化処理部222から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS320)。ノイズオブジェクトを推定したノイズ推定部224は、2値化データ、画像種別情報及び分類先範囲指定情報とともに、推定結果情報を細胞オブジェクト特徴量算出部226に出力する。
なお、ノイズ推定部224によるステップS320の処理の詳細は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24によるステップS120の処理の詳細(図12)と同様である。
The noise estimation unit 224 estimates a noise object among all objects obtained from the binarized data acquired from the binarization processing unit 222 (step S320). The noise estimation unit 224 that estimated the noise object outputs the estimation result information to the cell object feature amount calculation unit 226 together with the binarized data, the image type information, and the classification destination range designation information.
The details of the process of step S320 by the noise estimation unit 224 are the same as the details of the process of step S120 by the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment (FIG. 12).

ノイズ推定部224から、2値化データ、画像種別情報及び分類先範囲指定情報とともに、推定結果情報を取得した細胞オブジェクト特徴量算出部226は、ノイズ推定部224から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS330)。換言すれば、細胞オブジェクト特徴量算出部226は、ノイズ推定部224から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS330)。     The cell object feature amount calculation unit 226 that has acquired the estimation result information together with the binarized data, the image type information, and the classification destination range designation information from the noise estimation unit 224 has the binarized data and the estimation acquired from the noise estimation unit 224. Based on the result information, the noise object is removed from all objects obtained from the binarized data (step S330). In other words, the cell object feature quantity calculation unit 226 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 224 (step S330).

次いで、細胞オブジェクト特徴量算出部226は、認識した個々の検索オブジェクトの形態的特徴量を算出する(ステップS332)。個々の検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部226は、画像種別情報、分類先範囲指定情報、及び、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部270に記憶する(ステップS334)。また、細胞オブジェクト特徴量算出部226は、検索オブジェクトの形態的特徴量を記憶した旨を細胞分類部260に通知する。検索オブジェクトの形態的特徴量を記憶した旨の通知を取得した細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出又は計算を要求する。     Next, the cell object feature value calculation unit 226 calculates the morphological feature value of each recognized search object (step S332). The cell object feature amount calculation unit 226 that has calculated the morphological feature amount of each search object stores the image type information, the classification destination range designation information, and the morphological feature amount of each search object in the search object temporary storage unit 270. Store (step S334). In addition, the cell object feature amount calculation unit 226 notifies the cell classification unit 260 that the morphological feature amount of the search object has been stored. The cell classification unit 260 that has acquired the notification that the morphological feature amount of the search object has been stored requests the feature object extraction / representative feature amount calculation unit 252 to perform extraction or calculation.

細胞分類部260から抽出又は計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像であるか否かを判断する(ステップS340)。特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、未知異種属性撮像画像であると判断する。     The characteristic object extraction / representative feature quantity calculation unit 252 requested to extract or calculate from the cell classification unit 260 determines whether or not the unknown attribute captured image acquired in step S312 is an unknown heterogeneous attribute captured image ( Step S340). The characteristic object extraction / representative feature quantity calculation unit 252 is unknown if the search object temporary storage unit 270 stores image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image. It is determined that the image is a heterogeneous attribute captured image.

特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像であると判断した場合(ステップS340:Yes)、抽出条件記憶部274に記憶されている抽出条件に従って、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出する(ステップS342)。特徴的オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部252は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部254に出力する。     When the characteristic object extraction / representative feature amount calculation unit 252 determines that the unknown attribute captured image acquired in step S312 is an unknown heterogeneous attribute captured image (step S340: Yes), the characteristic object extraction / representative feature amount calculation unit 252 stores the extracted attribute attribute image in the extraction condition storage unit 274. In accordance with the extraction conditions, a characteristic object is extracted from the cell objects stored in the cell object storage unit 272 (step S342). The feature object extraction / representative feature amount calculation unit 252 that has extracted the feature object outputs the attribute information and the morphological feature amount of each feature object to the candidate classification model formation unit 254.

夫々の特徴的オブジェクトの属性情報及び形態的特徴量を取得した候補分類モデル形成部254は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量に基づいて、候補分類モデルを形成し、候補分類モデルを候補分類モデル記憶部276に記憶する(ステップS344)。次いで、候補分類モデル形成部254は、全ての候補分類モデルを形成したか否かを判断する(ステップS346)。候補分類モデル形成部254は、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出を要求し、特徴的オブジェクト抽出・代表的特徴量計算部252から抽出が完了した旨の通知を取得した場合に、全ての候補分類モデルを形成したと判断する。候補分類モデル形成部254は、全ての候補分類モデルを形成していないと判断した場合(ステップS346:No)、ステップS342に戻る。候補分類モデル形成部254は、全ての候補分類モデルを形成したと判断した場合(ステップS346:Yes)、分類モデル決定・形成部256に分類モデルの決定を要求する。     The candidate classification model forming unit 254 that has acquired the attribute information and the morphological feature amount of each characteristic object forms a candidate classification model based on the attribute information and the morphological feature amount of each characteristic object. The model is stored in the candidate classification model storage unit 276 (step S344). Next, the candidate classification model forming unit 254 determines whether all candidate classification models have been formed (step S346). For example, the candidate classification model forming unit 254 requests extraction from the characteristic object extraction / representative feature amount calculation unit 252 and obtains notification from the characteristic object extraction / representative feature amount calculation unit 252 that extraction has been completed. If so, it is determined that all candidate classification models have been formed. If the candidate classification model forming unit 254 determines that not all candidate classification models have been formed (step S346: No), the process returns to step S342. If it is determined that all candidate classification models have been formed (step S346: Yes), the candidate classification model forming unit 254 requests the classification model determination / formation unit 256 to determine a classification model.

分類モデルの決定を要求された分類モデル決定・形成部256は、複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部280に記憶する(ステップS350)。なお、分類モデル決定・形成部256は、分類モデル記憶部280に前回の分類モデルが記憶されていた場合には、今回決定した分類モデルによって上書きする。分類モデル記憶部280に分類モデルを記憶した分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出を要求する。     The classification model determination / formation unit 256 requested to determine the classification model determines a classification model from among a plurality of candidate classification models, and stores the classification model in the classification model storage unit 280 (step S350). If the previous classification model is stored in the classification model storage unit 280, the classification model determination / formation unit 256 overwrites it with the classification model determined this time. The classification model determination / formation unit 256 that stores the classification model in the classification model storage unit 280 requests the characteristic object extraction / representative feature amount calculation unit 252 to perform extraction.

分類モデル決定・形成部256から抽出を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、抽出条件記憶部274に記憶されている抽出条件に従って、検索オブジェクト一時記憶部270から特徴的検索オブジェクトを抽出する(ステップ382)。特徴的検索オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞分類部260に、分類を要求するとともに、特徴的検索オブジェクトの属性情報及び形態的特徴量を出力する。特徴的オブジェクト抽出・代表的特徴量計算部252から、分類の要求とともに、特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部260は、夫々の特徴的検索オブジェクトを分類モデルに投入し、未知異種属性撮像画像内の個々の特徴的検索オブジェクトを分類する(ステップS384)。     The characteristic object extraction / representative feature quantity calculation unit 252 requested to be extracted by the classification model determination / formation unit 256 is characterized by the search object temporary storage unit 270 according to the extraction conditions stored in the extraction condition storage unit 274. A search object is extracted (step 382). The characteristic object extraction / representative feature quantity calculation unit 252 that has extracted the characteristic search object requests the cell classification unit 260 to classify and outputs the attribute information and the morphological feature quantity of the characteristic search object. The cell classification unit 260 that has acquired the attribute information and the morphological feature amount of the characteristic search object together with the request for classification from the characteristic object extraction / representative feature amount calculation unit 252, uses each characteristic search object as a classification model. And classifying the individual characteristic search objects in the unknown different-attribute captured image (step S384).

一方、特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像でないと判断した場合(ステップS340:NO)、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから代表的特徴量を計算する(ステップS352)。即ち、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから仮想的オブジェクトを生成する(ステップS352)。各既知同一属性撮像画像から代表的特徴量を計算した特徴的オブジェクト抽出・代表的特徴量計算部252は、夫々の仮想的オブジェクトの属性情報及び形態的特徴量を分類モデル決定・形成部256に出力する。     On the other hand, when the characteristic object extraction / representative feature amount calculation unit 252 determines that the unknown attribute captured image acquired in step S312 is not an unknown heterogeneous attribute captured image (step S340: NO), the characteristic object extraction / representative feature amount calculation unit 252 stores it in the cell object storage unit 272. The representative feature amount is calculated from the cell object that has been set (step S352). In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual object from the cell objects stored in the cell object storage unit 272 (step S352). The characteristic object extraction / representative feature amount calculation unit 252 that calculates the representative feature amount from each of the known identical attribute captured images sends the attribute information and the morphological feature amount of each virtual object to the classification model determination / formation unit 256. Output.

夫々の仮想的オブジェクトの属性情報及び形態的特徴量を取得した分類モデル決定・形成部256は、夫々の仮想的オブジェクトの属性情報及び形態的特徴量に基づいて、分類モデルを形成し、分類モデルを分類モデル記憶部280に記憶する(ステップS360)。なお、分類モデル決定・形成部256は、分類モデル記憶部280に前回の分類モデルが記憶されていた場合には、今回決定した分類モデルによって上書きする。分類モデル記憶部280に分類モデルを記憶した分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252に計算を要求する。     The classification model determination / formation unit 256 that has acquired the attribute information and the morphological feature amount of each virtual object forms a classification model based on the attribute information and the morphological feature amount of each virtual object. Is stored in the classification model storage unit 280 (step S360). If the previous classification model is stored in the classification model storage unit 280, the classification model determination / formation unit 256 overwrites it with the classification model determined this time. The classification model determination / formation unit 256 that stores the classification model in the classification model storage unit 280 requests the characteristic object extraction / representative feature amount calculation unit 252 to calculate.

分類モデル決定・形成部256から計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから代表的特徴量を計算する(ステップS386)。即ち、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成する(ステップS386)。代表的特徴量を計算した特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞分類部260に、分類を要求するとともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を出力する。特徴的オブジェクト抽出・代表的特徴量計算部252から、分類の要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部260は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する(ステップS388)。     The characteristic object extraction / representative feature amount calculation unit 252 requested to calculate by the classification model determination / formation unit 256 calculates a representative feature amount from the search object stored in the search object temporary storage unit 270 (step S386). That is, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual search object from the search object stored in the search object temporary storage unit 270 (step S386). The characteristic object extraction / representative feature quantity calculation unit 252 that has calculated the representative feature quantity requests the cell classification unit 260 to classify and outputs the attribute information and the morphological feature quantity of the virtual search object. The cell classification unit 260 that has acquired the attribute information and the morphological feature amount of the virtual search object together with the classification request from the characteristic object extraction / representative feature amount calculation unit 252 inputs the virtual search object to the classification model. Then, the unknown identical attribute captured images are classified (step S388).

ステップS384またはステップS388に続いて、細胞分類部260は、分類結果を入出力部210に出力する(ステップS390)。次いで、細胞分類部260は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトを消去し(ステップS392)、図20に示すフローチャートは終了する。     Subsequent to step S384 or step S388, the cell classification unit 260 outputs the classification result to the input / output unit 210 (step S390). Next, the cell classification unit 260 deletes the search object stored in the search object temporary storage unit 270 (step S392), and the flowchart shown in FIG.

なお、ステップS342において、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトのなかから特徴的オブジェクトを抽出する。同様に、ステップS352において、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトを用いて代表的特徴量を計算する。     Note that in step S342, the characteristic object extraction / representative feature amount calculation unit 252 determines that the classification destination range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the cell A characteristic object is extracted from the cell objects in the specified classification range among the cell objects stored in the object storage unit 272. Similarly, in step S352, the characteristic object extraction / representative characteristic amount calculation unit 252 stores classification destination range designation information indicating that a classification range is designated in the search object temporary storage unit 270. The representative feature amount is calculated using the cell objects in the designated classification range among the cell objects stored in the cell object storage unit 272.

なお、ステップS382において、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出したときの抽出パターンのうち分類モデルとして決定された候補分類モデルを抽出したときの抽出パターンに従って、検索オブジェクト一時記憶部270から特徴的検索オブジェクトを抽出することが好ましい。例えば、図4、図5に示す例において、特徴的オブジェクト抽出・代表的特徴量計算部252は、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内(抽出条件1)であって、かつ、長さが平均値〜平均値より25%大きい値の範囲内(抽出条件3)であって、かつ、幅が平均値〜平均値より25%大きい値の範囲内(抽出条件5)である細胞オブジェクトを特徴的オブジェクトとして抽出し、最終的に、当該特徴的オブジェクトから形成された候補分類モデルが分類モデルとして決定された場合には、検索オブジェクト一時記憶部270から、抽出条件1であって、かつ、抽出条件3であって、かつ、抽出条件5である検索オブジェクトを特徴的検索オブジェクトとして抽出する。即ち、端的に言えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルに反映された抽出パターンと同一の抽出パターンにより、特徴的検索オブジェクトを抽出する。 Note that, in step S382, the characteristic object extraction / representative characteristic amount calculation unit 252 uses a classification object as a classification model among the extracted patterns when the characteristic object is extracted from the cell objects stored in the cell object storage unit 272. It is preferable to extract the characteristic search object from the search object temporary storage unit 270 according to the extraction pattern when the determined candidate classification model is extracted. For example, in the example shown in FIGS. 4 and 5, the characteristic object extraction / representative characteristic amount calculation unit 252 has an area from an average value to an average value among (N 1 + N 2 + N 3 ) cell objects. It is within the range of 25% larger value (extraction condition 1), and the length is within the range of the average value to 25% larger than the average value (extraction condition 3), and the width is the average value. When a cell object that is within a range of 25% larger than the average value (extraction condition 5) is extracted as a characteristic object, and finally a candidate classification model formed from the characteristic object is determined as a classification model The search object temporary storage unit 270 extracts the search object that is the extraction condition 1, the extraction condition 3, and the extraction condition 5 as a characteristic search object. . That is, in short, the characteristic object extraction / representative characteristic amount calculation unit 252 extracts characteristic search objects using the same extraction pattern as the extraction pattern reflected in the classification model.

分類モデルに反映された抽出パターンと同一の抽出パターンにより、特徴的検索オブジェクトを抽出する手法には種々の手法があるが、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252が、抽出パターンを示す情報を候補分類モデル形成部254に出力し、候補分類モデル形成部254が、抽出パターンを示す情報を候補分類モデル記憶部276に記憶し、分類モデル決定・形成部256が、抽出パターンを示す情報を分類モデル記憶部280に記憶する。その後、特徴的オブジェクト抽出・代表的特徴量計算部252は、特徴的検索オブジェクトを抽出する際に、分類モデル記憶部280を参照し、分類モデルとして決定された候補分類モデルを抽出したときの抽出パターンを特定する。     There are various methods for extracting a characteristic search object by using the same extraction pattern as the extraction pattern reflected in the classification model. For example, the characteristic object extraction / representative feature amount calculation unit 252 performs the extraction pattern. Is output to the candidate classification model formation unit 254, the candidate classification model formation unit 254 stores the information indicating the extraction pattern in the candidate classification model storage unit 276, and the classification model determination / formation unit 256 outputs the extraction pattern. Information to be stored is stored in the classification model storage unit 280. After that, the characteristic object extraction / representative feature quantity calculation unit 252 refers to the classification model storage unit 280 when extracting the characteristic search object, and extracts when the candidate classification model determined as the classification model is extracted. Identify the pattern.

同様に、ステップS386において、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから仮想的オブジェクトを生成したときの計算方法に従って、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成することが好ましい。
例えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、既知同一属性撮像画像から抽出された複数の細胞オブジェクトの各形態的特徴量の中央値を代表的特徴量として計算し、各形態的特徴量の中央値を自身の形態的特徴量とする仮想的オブジェクトを生成した場合には、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトの各形態的特徴量の中央値を代表的特徴量として計算し、各形態的特徴量の中央値を自身の形態的特徴量とする仮想的検索オブジェクトを生成する。即ち、端的に言えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルに反映された代表的特徴量の計算方法と同一の計算方法により、仮想的検索オブジェクトを生成する。
Similarly, in step S386, the characteristic object extraction / representative characteristic amount calculation unit 252 stores the search object temporarily according to the calculation method when the virtual object is generated from the cell object stored in the cell object storage unit 272. It is preferable to generate a virtual search object from the search object stored in the unit 270.
For example, the feature object extraction / representative feature amount calculation unit 252 calculates the median value of each morphological feature amount of a plurality of cell objects extracted from the known identical attribute captured image as a representative feature amount, When a virtual object having the median feature value as its morphological feature value is generated, the median value of each morphological feature value of the search object stored in the search object temporary storage unit 270 is a representative feature. As a quantity, a virtual search object is generated in which the median value of each morphological feature quantity is its own morphological feature quantity. That is, in short, the characteristic object extraction / representative feature quantity calculation unit 252 generates a virtual search object by the same calculation method as the representative feature quantity calculation method reflected in the classification model.

分類モデルに反映された代表的特徴量の計算方法と同一の計算方法により、仮想的検索オブジェクトを生成する手法には種々の手法があるが、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252が、仮想的オブジェクトを生成したときの計算方法を示す情報を分類モデル決定・形成部256に出力し、分類モデル決定・形成部256が、上記計算方法を示す情報を分類モデル記憶部280に記憶する。その後、特徴的オブジェクト抽出・代表的特徴量計算部252は、仮想的検索オブジェクトを生成する際に、分類モデル記憶部280を参照し、仮想的オブジェクトを生成したときの計算方法を特定する。     There are various methods for generating a virtual search object by the same calculation method as the representative feature amount reflected in the classification model. For example, a feature object extraction / representative feature amount calculation unit 252 outputs information indicating the calculation method when the virtual object is generated to the classification model determination / formation unit 256, and the classification model determination / formation unit 256 transmits the information indicating the calculation method to the classification model storage unit 280. Remember. After that, the characteristic object extraction / representative feature quantity calculation unit 252 refers to the classification model storage unit 280 when generating the virtual search object, and specifies the calculation method when the virtual object is generated.

以上、第1の実施形態による分類モデル生成装置1、第2の実施形態による分類モデル生成装置2、第3の実施形態による細胞分類装置3、及び、第4の実施形態による細胞分類装置4について説明したが、細胞分類装置3によれば、所定の分類基準に従って、細胞オブジェクトの属性を分類する分類モデルを用いることによって、細胞を破壊することなく、また、安価かつ簡便に、細胞の種類、状態等を確認することができる。また、分類モデル生成装置1、2によれば、細胞分類装置3にて用いる分類モデルを簡便に生成することができる。更に、細胞分類装置4によれば、細胞の確認する都度、最新の分類モデルが生成されるため、より高精度に、細胞の種類、状態等を確認することができる。     As described above, the classification model generation device 1 according to the first embodiment, the classification model generation device 2 according to the second embodiment, the cell classification device 3 according to the third embodiment, and the cell classification device 4 according to the fourth embodiment. As described above, according to the cell classification device 3, by using a classification model that classifies the attributes of the cell object according to a predetermined classification standard, the cell type, The state etc. can be confirmed. Moreover, according to the classification model generation apparatuses 1 and 2, the classification model used in the cell classification apparatus 3 can be easily generated. Furthermore, according to the cell classification device 4, since the latest classification model is generated every time the cell is confirmed, the type and state of the cell can be confirmed with higher accuracy.

また、分類モデル生成装置1、2、細胞分類装置3、4がそれぞれに備えるノイズ推定部によって、ノイズオブジェクトが精度よく除去されるため、細胞オブジェクトを精度よく抽出することができる。     Moreover, since the noise object is accurately removed by the noise estimation units included in the classification model generation devices 1 and 2 and the cell classification devices 3 and 4, the cell object can be extracted with high accuracy.

なお、分類モデル生成装置1が生成する分類モデルとして、段階的に分類する分類モデルの例を説明したが、1段階で一気に分類する分類モデルを生成してもよい。分類モデル生成装置2が生成する分類モデル、細胞分類装置3が利用する分類モデル、細胞分類装置4が生成及び利用する分類モデルも同様である。また、各実施形態に係る分類モデルには、高々、ある属性であるか否かを判別するものも含まれる。     In addition, although the example of the classification model classified in steps was demonstrated as the classification model which the classification model production | generation apparatus 1 produces | generates, you may produce | generate the classification model classified at a stretch in one step. The same applies to the classification model generated by the classification model generation device 2, the classification model used by the cell classification device 3, and the classification model generated and used by the cell classification device 4. In addition, the classification model according to each embodiment includes one that determines whether or not an attribute is at most.

また、第3の実施形態の細胞分類装置3において、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出し、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力するが、特徴的オブジェクト抽出・代表的特徴量計算部152は、特徴的検索オブジェクトと特徴的検索オブジェクトではない検索オブジェクト(非特徴的検索オブジェクトという)とを区別できる態様で(例えばラベルを付し)、特徴的検索オブジェクトに加え非特徴的検索オブジェクトも細胞分類部160に出力してもよい。     In the cell classification device 3 according to the third embodiment, the characteristic object extraction / representative characteristic amount calculation unit 152 extracts a characteristic search object from the search objects stored in the search object temporary storage unit 170, and Although the attribute information and the morphological feature amount of each characteristic search object are output to the cell classification unit 160, the characteristic object extraction / representative feature amount calculation unit 152 performs a search that is not a characteristic search object and a characteristic search object. In a manner that can distinguish an object (referred to as a non-characteristic search object) (for example, with a label), in addition to the characteristic search object, a non-characteristic search object may be output to the cell classification unit 160.

特徴的検索オブジェクトに加え非特徴的検索オブジェクトを取得した細胞分類部160は、特徴的検索オブジェクトと同様、非特徴的検索オブジェクトも分類モデルに投入し、分類の確度が高い旨の情報とともに個々の特徴的検索オブジェクトの分類結果を出力し、分類の確度が高くない旨の情報とともに個々の非特徴的検索オブジェクトの分類結果を出力してもよい。また、特徴的検索オブジェクトに加え非特徴的検索オブジェクトを取得した細胞分類部160は、個々の非特徴的検索オブジェクトについて、“分類不能”と出力してもよい。第4の実施形態の細胞分類装置4の特徴的オブジェクト抽出・代表的特徴量計算部252及び細胞分類部260についても同様である。     The cell classification unit 160 that has acquired the non-characteristic search object in addition to the characteristic search object also inputs the non-characteristic search object into the classification model, as well as the characteristic search object. The classification result of the characteristic search object may be output, and the classification result of each non-characteristic search object may be output together with the information that the classification accuracy is not high. Further, the cell classification unit 160 that has acquired the non-characteristic search object in addition to the characteristic search object may output “non-classifiable” for each non-characteristic search object. The same applies to the characteristic object extraction / representative feature amount calculation unit 252 and the cell classification unit 260 of the cell classification device 4 of the fourth embodiment.

また、第4の実施形態において、細胞分類装置4の特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルの生成時において、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから分類モデルの基礎となるオブジェクトとして仮想的オブジェクトを生成し、また、分類時において、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから分類対象となる仮想的検索オブジェクトを生成するが、これに代えて、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルの生成時において、仮想的オブジェクトを生成することなく、細胞オブジェクト記憶部272に記憶されている全ての細胞オブジェクトを分類モデルの基礎とし、また、分類時において、仮想的検索オブジェクトを生成することなく、検索オブジェクト一時記憶部270に記憶されている全ての検索オブジェクト(即ち、未知同一属性画像から得られる全ての検索オブジェクト)を分類対象としてもよい。上記場合、細胞分類部260は、例えば、検索オブジェクト一時記憶部270に記憶されている全ての検索オブジェクトを分類モデルに投入し、検索オブジェクトが最も多く分類された枝を当該未知同一属性画像の分類先としてもよい。     In the fourth embodiment, the characteristic object extraction / representative feature amount calculation unit 252 of the cell classification device 4 performs the classification model from the cell objects stored in the cell object storage unit 272 when generating the classification model. A virtual object is generated as an object serving as a basis for the search, and a virtual search object to be classified is generated from a search object stored in the search object temporary storage unit 270 at the time of classification. The characteristic object extraction / representative feature quantity calculation unit 252 generates all the cell objects stored in the cell object storage unit 272 without generating a virtual object when generating the classification model. In addition, the virtual search object is Without growth, all the search objects stored in the retrieval object temporary storage unit 270 (i.e., all search objects obtained from an unknown identity attribute image) may be a classification target. In the above case, for example, the cell classification unit 260 inputs all the search objects stored in the search object temporary storage unit 270 into the classification model, and classifies the branch with the largest number of search objects as the classification of the unknown identical attribute image. It may be the destination.

また、第1の実施形態において、分類モデル生成装置1の細胞オブジェクト記憶部72は、経時的要素を有しない形態的特徴量を記憶する例を説明したが、入出力部10が異なる時間に撮像した複数の既知同一属性撮像画像を入力することによって、細胞オブジェクト記憶部72に経時的要素を有する形態的特徴量を記憶してもよい。例えば、入出力部10は、ある属性を有する細胞について第1の時刻(例えば、培養8時間目)に撮像した既知同一属性撮像画像a、及び、当該細胞について第2の時刻(例えば、培養16時間目)に撮像した既知同一属性撮像画像bを入力する。細胞オブジェクト特徴量算出部26は、既知同一属性撮像画像aの細胞オブジェクトの形態的特徴量を算出し、細胞オブジェクト記憶部72に、当該属性を有する細胞の第1の時刻から第2の時刻迄の形態的特徴量の時間変化量を記憶する。形態的特徴量の時間変化量の一例は、例えば、面積の時間変化量、長さの時間変化量、幅の変化量などの形態的特徴量毎の差分情報である。     In the first embodiment, the cell object storage unit 72 of the classification model generation device 1 has been described as an example of storing morphological feature quantities having no temporal elements. However, the input / output unit 10 captures images at different times. The morphological feature amount having temporal elements may be stored in the cell object storage unit 72 by inputting the plurality of known identical attribute captured images. For example, the input / output unit 10 captures a known identical attribute captured image a captured at a first time (for example, the eighth hour of culture) for a cell having a certain attribute, and a second time (for example, the culture 16) for the cell. A known identical attribute captured image b captured at time) is input. The cell object feature amount calculation unit 26 calculates the morphological feature amount of the cell object of the known identical attribute captured image a, and stores the cell object storage unit 72 in the cell object storage unit 72 from the first time to the second time. The temporal change amount of the morphological feature amount is stored. An example of the temporal change amount of the morphological feature amount is difference information for each morphological feature amount such as an area temporal change amount, a length temporal change amount, and a width change amount.

なお、当然ではあるが、細胞オブジェクト記憶部72に経時的要素を有する形態的特徴量を記憶する場合には、候補分類モデル形成部34が生成する候補分類モデル、及び、分類モデル決定部36が決定し分類モデル記憶部80に記憶する分類モデルは、経時的要素を有するものとなる。例えば、分類モデルにおける各段階のルールは、“第1の時刻から第2の時刻迄における細胞の長さの変化量が値「1」以下である”というように、経時的要素を有する形態的特徴量で表されるものとなる。また、抽出条件記憶部74に記憶する抽出条件、分類モデル決定部36による評価なども経時的要素を有する形態的特徴量に応じたものとなる。     Of course, when the morphological feature quantity having a temporal element is stored in the cell object storage unit 72, the candidate classification model generated by the candidate classification model forming unit 34 and the classification model determining unit 36 are The classification model to be determined and stored in the classification model storage unit 80 has a temporal element. For example, the rule of each stage in the classification model has a morphological element having a temporal component such that “the amount of change in cell length from the first time to the second time is a value“ 1 ”or less”. In addition, the extraction conditions stored in the extraction condition storage unit 74, the evaluation by the classification model determination unit 36, and the like also correspond to the morphological feature amounts having temporal elements.

同様に、第2の実施形態の分類モデル生成装置2、第3の実施形態の細胞分類装置3、第4の実施形態の細胞分類装置4においても、経時的要素を有する分類モデルを用いるようにしてもよい。なお、当然ではあるが、経時的要素を有する分類モデルを用いる場合には、分類(検索)も経時的要素に基づいて行われる。従って、例えば、細胞分類装置3の入出力部110は、第1の時刻に撮像した未知属性撮像画像と、当該撮像画像と被写体が同一の第2の時刻に撮像した未知属性撮像画像とを外部から取得する。     Similarly, in the classification model generation device 2 of the second embodiment, the cell classification device 3 of the third embodiment, and the cell classification device 4 of the fourth embodiment, a classification model having a temporal element is used. May be. Of course, when a classification model having a temporal element is used, classification (retrieval) is also performed based on the temporal element. Therefore, for example, the input / output unit 110 of the cell classification device 3 externally captures the unknown attribute captured image captured at the first time and the unknown attribute captured image captured at the second time when the captured image and the subject are the same. Get from.

なお、第1の実施形態において、分類モデル生成装置1は、インキュベータ311と別体である旨の説明をしたが、インキュベータ311に分類モデル生成装置1の機能を実装させてもよい。例えば、図8に示す記憶部343に、分類モデル生成装置1の各処理を実行するためのプログラムを記憶し、CPU342によって実行するようにしてもよい。分類モデル生成装置2、細胞分類装置3、4についても同様である。     In the first embodiment, it has been described that the classification model generation device 1 is separate from the incubator 311. However, the function of the classification model generation device 1 may be implemented in the incubator 311. For example, a program for executing each process of the classification model generating device 1 may be stored in the storage unit 343 illustrated in FIG. 8 and executed by the CPU 342. The same applies to the classification model generation device 2 and the cell classification devices 3 and 4.

なお、第3の実施形態において、インキュベータ311に細胞分類装置3の機能を実装させた場合に、細胞分類装置3の分類結果に基づいて、培養容器319内の細胞又は細胞群の培養条件等を動的に変更するようにしてもよい。これにより、所望の細胞を容易に増殖させることができるようになる。なお、第4の実施形態において、インキュベータ311に細胞分類装置4の機能を実装させる場合についても同様である。     In the third embodiment, when the function of the cell classification device 3 is implemented in the incubator 311, the culture conditions of the cells or cell groups in the culture container 319 are determined based on the classification result of the cell classification device 3. You may make it change dynamically. Thereby, a desired cell can be easily proliferated. In the fourth embodiment, the same applies to the case where the function of the cell classification device 4 is implemented in the incubator 311.

以下、フローチャートを用いて、細胞分類装置4の機能を兼ね備えるインキュベータ311の動作を説明する。図21は、細胞分類装置4の機能を兼ね備えるインキュベータ311の動作の一例を示すフローチャートである。図21に示すフローチャートの開始時において、インキュベータ311には所望の増殖すべき細胞を培養する培養容器319が置かれているものとする。また、上述の如く、インキュベータ311が備える細胞分類装置3は、分類先IDとともに培養条件を含む属性情報を分類結果として出力するものとする。     Hereinafter, the operation of the incubator 311 having the function of the cell classification device 4 will be described using a flowchart. FIG. 21 is a flowchart showing an example of the operation of the incubator 311 having the function of the cell classification device 4. At the start of the flowchart shown in FIG. 21, it is assumed that a culture vessel 319 for culturing desired cells to be proliferated is placed in the incubator 311. Further, as described above, the cell classification device 3 included in the incubator 311 outputs attribute information including the culture condition together with the classification destination ID as the classification result.

図21において、インキュベータ311は、細胞の培養を開始する(ステップS500)。即ち、CPU342は、設定された培養条件(例えば所定の温度、湿度等)で細胞を培養するよう温度調整装置315aと湿度調整装置315bとを制御する。所定期間経過後に、インキュベータ311は、培養中の細胞を分類する(ステップS510)。即ち、CPU342は、撮像装置334を制御して、培養中の細胞を撮像し、次いで、記憶部343から細胞分類装置3の各処理を実行するためのプログラムを読み出し、読み出したプログラムを実行することによって、上記の図17に示すように、培養中の細胞を分類する。     In FIG. 21, the incubator 311 starts cell culture (step S500). That is, the CPU 342 controls the temperature adjustment device 315a and the humidity adjustment device 315b so as to culture the cells under the set culture conditions (for example, predetermined temperature, humidity, etc.). After a predetermined period of time, the incubator 311 classifies the cells in culture (step S510). That is, the CPU 342 controls the imaging device 334 to image cells in culture, and then reads out a program for executing each process of the cell classification device 3 from the storage unit 343 and executes the read program. As shown in FIG. 17 above, the cells in culture are classified.

次いで、インキュベータ311は、分類結果に基づいて、細胞の培養を中止するか否か、または、細胞の培養条件を変更するか否かを制御する。具体的には、まず、CPU342は、分類結果によって示される細胞品質が、ステップS500において設定された目的品質と一致するか否かを判断する(ステップS520)。CPU342は、分類結果によって示される細胞品質が設定された目的品質と一致すると判断した場合(ステップS520:Yes)、分類結果によって示される細胞品質と設定された目的品質とが一致した旨をモニタ等(非図示)に表示させる(ステップS522)。そして後述するステップS560に進む。     Next, the incubator 311 controls whether to stop the cell culture or change the cell culture conditions based on the classification result. Specifically, first, the CPU 342 determines whether or not the cell quality indicated by the classification result matches the target quality set in step S500 (step S520). If the CPU 342 determines that the cell quality indicated by the classification result matches the set target quality (step S520: Yes), the CPU 342 monitors whether the cell quality indicated by the classification result matches the set target quality, etc. (Not shown) is displayed (step S522). And it progresses to step S560 mentioned later.

一方、CPU342は、分類結果に含まれる細胞品質が所定の目的品質と一致しないと判断した場合(ステップS520:No)、分類結果によって示される細胞品質と設定された目的品質とが一致しない旨をモニタ等(非図示)に表示させるとともに(ステップS524)、培養を中止するか否かを判断する(ステップS530)。具体的には、例えば、CPU342は、分類結果によって示される細胞品質と設定された目的品質の一致しない程度が非常に大きい場合に、培養を中止すると判断する。例えば、分類結果によって示される細胞の品質を示す値と設定された目的とする品質を示す値との差が所定の第1の閾値以上である場合に、培養を中止すると判断する。なお、CPU342は、培養を中止する旨の操作者の入力があった場合にも、培養を中止すると判断する。     On the other hand, when the CPU 342 determines that the cell quality included in the classification result does not match the predetermined target quality (step S520: No), the CPU 342 indicates that the cell quality indicated by the classification result does not match the set target quality. It is displayed on a monitor or the like (not shown) (step S524), and it is determined whether or not the culture is stopped (step S530). Specifically, for example, the CPU 342 determines that the culture is to be stopped when the degree of mismatch between the cell quality indicated by the classification result and the set target quality is very large. For example, when the difference between the value indicating the cell quality indicated by the classification result and the set value indicating the target quality is equal to or greater than a predetermined first threshold, it is determined that the culture is to be stopped. Note that the CPU 342 determines that the culture is to be stopped even when there is an input from the operator to stop the culture.

CPU342は、培養を中止すると判断した場合(ステップS530:Yes)、培養を中止する旨をモニタ等(非図示)に表示させ(ステップS532)、培養の処理を終了する。そして、図20に示すフローチャートは終了する。一方、CPU342は、培養を中止しないと判断した場合(ステップS530:No)、培養条件を変更するか否かを判断する(ステップS540)。具体的には、例えば、CPU342は、分類結果によって示される細胞品質と設定された目的品質の一致しない程度が大きい場合に、培養条件を変更すると判断する。例えば、分類結果によって示される細胞の品質を示す値と設定された目的とする品質を示す値との差が所定の第2の閾値(但し、第1の閾値>第2の閾値)以上である場合に、培養条件を変更すると判断する。     When the CPU 342 determines that the culture is to be stopped (step S530: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture is stopped (step S532), and ends the culture process. Then, the flowchart shown in FIG. 20 ends. On the other hand, when determining that the culture is not stopped (step S530: No), the CPU 342 determines whether or not to change the culture conditions (step S540). Specifically, for example, the CPU 342 determines to change the culture condition when the degree of mismatch between the cell quality indicated by the classification result and the set target quality is large. For example, the difference between the value indicating the quality of the cell indicated by the classification result and the value indicating the target quality that has been set is greater than or equal to a predetermined second threshold (where the first threshold is greater than the second threshold). In some cases, it is determined that the culture conditions are changed.

CPU342は、培養条件を変更すると判断した場合(ステップS540:Yes)、培養条件を変更する旨をモニタ等(非図示)に表示させ(ステップS542)、培養条件を変更する(ステップS550)。即ち、CPU342は、新たな培養条件で細胞を培養するよう温度調整装置315aと湿度調整装置315bとを制御する。そしてステップS510に戻る。なお、予め、両品質(分類結果によって示される細胞品質、及び、設定された目的品質)と、新たな培養条件(修正後の培養条件)とを対応付けて記憶部343に記憶し、CPU342は、両細胞品質から新たな培養条件を取得するようにしてもよい。なお、CPU342は、操作者による新たな培養条件の設定値の入力があった場合に、当該設定値に培養条件を変更してもよい。     If the CPU 342 determines that the culture conditions are to be changed (step S540: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture conditions are to be changed (step S542), and changes the culture conditions (step S550). That is, the CPU 342 controls the temperature adjustment device 315a and the humidity adjustment device 315b so that cells are cultured under new culture conditions. Then, the process returns to step S510. Note that both qualities (cell quality indicated by the classification result and set target quality) and new culture conditions (modified culture conditions) are associated with each other and stored in the storage unit 343, and the CPU 342 New culture conditions may be acquired from both cell qualities. Note that the CPU 342 may change the culture condition to the set value when the operator inputs a new set value of the culture condition.

CPU342は、ステップS522に続いて、または、培養条件を変更しないと判断した場合(ステップS540:No)、所定期間経過後に、撮像装置334を制御して、培養中の細胞を撮像し、培養中の細胞数(即ち、細胞オブジェクト数)を計数する(ステップS560)。なお、CPU342は、個々の細胞オブジェクトを認識可能な細胞分類装置3の細胞オブジェクト特徴量算出部126の処理を実行するためのプログラムを憶部343から読み出し、読み出したプログラムを実行することによって細胞数を計数する。     Following step S522 or when determining that the culture conditions are not to be changed (step S540: No), the CPU 342 controls the imaging device 334 to image the cells in culture after the predetermined period has elapsed, The number of cells (that is, the number of cell objects) is counted (step S560). Note that the CPU 342 reads out a program for executing the processing of the cell object feature quantity calculation unit 126 of the cell classification device 3 capable of recognizing individual cell objects from the storage unit 343, and executes the read program to execute the number of cells. Count.

次いで、CPU342は、ステップS560において計数した細胞数が所定の細胞数に到達したか否かを判断する(ステップS570)。CPU342は、計数した細胞数が所定の細胞数に到達していないと判断した場合(ステップS570:No)、所定の時間経過後に、ステップS510に戻る。一方、CPU342は、計数した細胞数が所定の細胞数に到達したと判断した場合(ステップS570:Yes)、当該細胞の培養が完了した旨をモニタ等(非図示)に表示させる(ステップS572)。そして、図21に示すフローチャートは終了する。     Next, the CPU 342 determines whether or not the number of cells counted in step S560 has reached a predetermined number of cells (step S570). When the CPU 342 determines that the counted number of cells has not reached the predetermined number of cells (step S570: No), the CPU 342 returns to step S510 after a predetermined time has elapsed. On the other hand, when the CPU 342 determines that the counted number of cells has reached the predetermined number of cells (step S570: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture of the cells has been completed (step S572). . Then, the flowchart shown in FIG. 21 ends.

以上、図21に示すフローチャートに示すように、細胞分類装置4の分類結果に基づいて、培養容器319内の細胞の培養条件等を動的に変更できるため、所望の細胞を容易に増殖させることができるようになる。     As described above, as shown in the flowchart of FIG. 21, the culture conditions of the cells in the culture vessel 319 can be dynamically changed based on the classification result of the cell classification device 4, so that desired cells can be easily propagated. Will be able to.

なお、本発明の第1の実施形態による分類モデル生成装置1、本発明の第2の実施形態による分類モデル生成装置2、本発明の第3の実施形態による細胞分類装置3、本発明の第3の実施形態による細胞分類装置4の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、分類モデル生成装置1、2、細胞分類装置3、4に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。     The classification model generation device 1 according to the first embodiment of the present invention, the classification model generation device 2 according to the second embodiment of the present invention, the cell classification device 3 according to the third embodiment of the present invention, the first of the present invention. By recording a program for executing each process of the cell classification device 4 according to the third embodiment on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, The above-described various processes related to the classification model generation devices 1 and 2 and the cell classification devices 3 and 4 may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。     Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の第5の実施形態以降の各実施形態における画像処理装置は、上記第1の実施形態から第4の実施形態までと同様に、外部から入力された細胞が撮像された画像データから細胞の画像領域である細胞オブジェクトを抽出する。その抽出の際に、画像処理装置(401、401b)は、所定の閾値以上の面積を有する画像領域を細胞オブジェクトと判定し、当該細胞オブジェクトを抽出する。本発明の第5の実施形態以降の各実施形態では、その閾値の決め方に技術的な特徴があり、その閾値として、細胞種に共通の共通閾値(仮閾値)と細胞種に固有の固有閾値とを用いる。   As in the first to fourth embodiments, the image processing apparatus in each of the fifth and subsequent embodiments of the present invention uses cells from image data obtained by capturing cells input from the outside. A cell object that is an image area of the image is extracted. At the time of the extraction, the image processing device (401, 401b) determines that an image region having an area equal to or larger than a predetermined threshold is a cell object, and extracts the cell object. In each of the fifth and subsequent embodiments of the present invention, there is a technical feature in how to determine the threshold value. As the threshold value, a common threshold value (provisional threshold value) common to cell types and a unique threshold value specific to the cell type are used. And are used.

図22は、本発明における各実施形態の処理の概要を説明するための図である。図22の処理1に示すように、本発明の第5の実施形態では、細胞種が既知の場合において、画像処理装置401が入力された画像データを図22の処理1で示した細胞種に固有の閾値である固有閾値を用いて、細胞の画像領域である細胞オブジェクトを抽出する。   FIG. 22 is a diagram for explaining the outline of the processing of each embodiment in the present invention. As shown in process 1 of FIG. 22, in the fifth embodiment of the present invention, when the cell type is known, the image data input by the image processing apparatus 401 is converted into the cell type shown in process 1 of FIG. A cell object that is an image region of a cell is extracted using a unique threshold that is a unique threshold.

本発明の第6の実施形態では、細胞種が未知でも既知でも、画像処理装置401bは画像データから細胞オブジェクトを抽出する。具体的には、画像処理装置401bは、細胞種が未知であるか既知であるかを判定する。細胞種が既知の場合には、画像処理装置401bは、処理1により固有閾値を用いて、細胞オブジェクトを抽出する。   In the sixth embodiment of the present invention, the image processing device 401b extracts a cell object from image data regardless of whether the cell type is unknown or known. Specifically, the image processing device 401b determines whether the cell type is unknown or known. When the cell type is known, the image processing apparatus 401b extracts a cell object using the unique threshold value in the process 1.

一方、細胞種が未知の場合には、画像処理装置401bは、図22の処理2により全ての細胞種に共通な共通閾値(仮閾値)を用いて、細胞オブジェクトを抽出する。次に、画像処理装置401bは、図22の処理3により抽出した細胞オブジェクトに基づき、細胞種を推定する。次に、画像処理装置401bは、図22の処理1により、推定した細胞種に固有の閾値である固有閾値を用いて細胞オブジェクトを抽出する。   On the other hand, when the cell type is unknown, the image processing apparatus 401b extracts a cell object using the common threshold value (provisional threshold value) common to all the cell types by the process 2 of FIG. Next, the image processing apparatus 401b estimates a cell type based on the cell object extracted by the process 3 in FIG. Next, the image processing apparatus 401b extracts a cell object by using the unique threshold value that is a unique threshold value for the estimated cell type in the process 1 of FIG.

本発明の第7の実施形態では、細胞種が未知であっても既知であっても、細胞分類装置404は、細胞分類装置404内の画像処理装置401bにより抽出された細胞オブジェクトに基づき、画像に撮像された細胞を分類し、画像に撮像された細胞の活性または品質を推定する。   In the seventh embodiment of the present invention, whether the cell type is unknown or known, the cell classification device 404 uses the cell object extracted by the image processing device 401b in the cell classification device 404 to generate an image. The cells imaged in the image are classified and the activity or quality of the cells imaged in the image is estimated.

本発明の第8の実施形態では、細胞種が未知でも既知でも、インキュベータ511内の細胞分類装置404により出力された培養条件に基づいて、その培養条件に合致するように培養条件を変更する。   In the eighth embodiment of the present invention, regardless of whether the cell type is unknown or known, based on the culture condition output by the cell classification device 404 in the incubator 511, the culture condition is changed to match the culture condition.

以下、上述した固有閾値および共通閾値(仮閾値)について説明する。まず、固有閾値について説明する。ここでは、画像データから、所定の閾値に基づき2値化処理することにより、細胞候補オブジェクトが抽出されていることを前提として、以下の説明をする。   Hereinafter, the unique threshold value and the common threshold value (temporary threshold value) described above will be described. First, the unique threshold will be described. Here, the following description will be made on the assumption that a cell candidate object is extracted from image data by performing binarization processing based on a predetermined threshold.

図23(a)は、細胞候補オブジェクトの面積に対する累積度数分布の1例を示した図である。同図において、縦軸は累積度数であり、横軸は細胞候補オブジェクトの面積である。ここで、累積度数について説明する。まず、累積度数分布は、面積の大きさの順に各面積を有する細胞候補オブジェクトの数を順次加え合わせることで得られるものである。   FIG. 23A is a diagram showing an example of the cumulative frequency distribution with respect to the area of the cell candidate object. In the figure, the vertical axis represents the cumulative frequency, and the horizontal axis represents the area of the cell candidate object. Here, the cumulative frequency will be described. First, the cumulative frequency distribution is obtained by sequentially adding the number of cell candidate objects having each area in the order of the area size.

例えば、1pixelの面積を持つ細胞候補オブジェクトがa個存在する場合、横軸の面積が1pixelのところで、縦軸の累積度数がaとなる。更に、面積が2pixelの細胞候補オブジェクトがb個存在する場合、横軸の面積が2pixelのところでは、縦軸の累積度数は、a+bとなる。   For example, when there are a cell candidate objects having an area of 1 pixel, the cumulative frequency on the vertical axis is a where the area of the horizontal axis is 1 pixel. Further, when there are b cell candidate objects having an area of 2 pixels, the cumulative frequency on the vertical axis is a + b when the area of the horizontal axis is 2 pixels.

細胞候補オブジェクトの面積が所定の閾値より小さい場合には、その細胞候補オブジェクトは、細胞ではないノイズのオブジェクトであると考えられる。一方、細胞候補オブジェクトの面積が所定の閾値以上の場合には、その細胞候補オブジェクトは細胞オブジェクトであると考えられる。   When the area of the cell candidate object is smaller than a predetermined threshold, the cell candidate object is considered to be a noise object that is not a cell. On the other hand, when the area of the cell candidate object is greater than or equal to a predetermined threshold, the cell candidate object is considered to be a cell object.

図23(b)は、細胞候補オブジェクトの累積度数分布を面積で微分した微分値の分布の1例を示した図である。同図において、縦軸は累積度数を面積で微分した微分値(累積度数の傾き)であり、横軸は細胞候補オブジェクトの面積である。同図に示された累積度数の面積に対する微分値は、図23(a)の累積度数分布を面積で微分した微分値である。ここで、累積度数を面積に対して微分することで得られる関数(以下、累積度数微分関数と称する)において極小値をとる面積をeとする。   FIG. 23B is a diagram illustrating an example of a distribution of differential values obtained by differentiating the cumulative frequency distribution of cell candidate objects by area. In the figure, the vertical axis represents a differential value obtained by differentiating the cumulative frequency by area (the slope of the cumulative frequency), and the horizontal axis represents the area of the cell candidate object. The differential value with respect to the area of the cumulative frequency shown in the figure is a differential value obtained by differentiating the cumulative frequency distribution of FIG. Here, an area having a minimum value in a function obtained by differentiating the cumulative frequency with respect to the area (hereinafter referred to as a cumulative frequency differential function) is assumed to be e.

ここで、画像処理装置(401、401b)が認識する細胞オブジェクトの数である認識数nと、画像データから実測された細胞オブジェクトの数である視認数nの差の割合を表す誤差の割合ER[%]を、以下の式(4)で表すこととする。 Here, the percentage of error that represents a recognition number n is the number of recognized image processing apparatus (401,401b) cell object, the ratio of the difference in viewing the number n 0 is the number of measured cells object from the image data ER [%] is represented by the following formula (4).

ER=(n−n)/n×100 …(4) ER = (n 0 −n) / n 0 × 100 (4)

なお、細胞の視認数nは、撮像対象である細胞を染色し、その染色画像から人もしくは別の装置が細胞の数を計数した数でもよい。 Note that the number of visible cells n 0 may be a number obtained by staining a cell to be imaged and counting the number of cells by a person or another device from the stained image.

式(4)は、誤差の割合ERが正の値から0[%]に近づくほど、画像処理装置(401、401b)による細胞オブジェクトの認識精度が向上することを示している。一方、誤差の割合ER0[%]から負の方向に小さくなるほど、画像処理装置(401、401b)は、本来細胞ではないオブジェクトを細胞オブジェクトであると誤認識していることを意味する。   Expression (4) indicates that the accuracy of recognition of the cell object by the image processing device (401, 401b) improves as the error ratio ER approaches 0 [%] from a positive value. On the other hand, the smaller the error rate ER0 [%] is in the negative direction, the more the image processing apparatus (401, 401b) means that an object that is not originally a cell is erroneously recognized as a cell object.

図24は、累積度数微分関数を用いて固有閾値(カスタムe値)の算出方法を説明するための図である。同図において、縦軸は累積度数の面積に対する微分値(累積度数の傾き)であり、横軸は細胞候補オブジェクトの面積である。累積度数微分関数の極小値をとる面積eに対して、固有補正情報βを加算した値e+βが固有閾値(カスタムe値)である。   FIG. 24 is a diagram for explaining a method of calculating the intrinsic threshold value (custom e value) using the cumulative frequency differential function. In the figure, the vertical axis represents the differential value (the slope of the cumulative frequency) with respect to the area of the cumulative frequency, and the horizontal axis represents the area of the cell candidate object. A value e + β obtained by adding the specific correction information β to the area e having the minimum value of the cumulative frequency differential function is a specific threshold (custom e value).

図25は、ある3つの細胞において8時間培養したときに得られる固有閾値(e+β)に対する誤差の割合ERの関係を示した概念図である。同図において、縦軸は誤差の割合ER[%]であり、横軸は固有閾値(e+β)である。A細胞では、固有閾値(e+β)が累積度数微分関数の極小値をとる面積eの場合、誤差の割合ERが40[%]になっている。また、固有閾値(e+β)が累積度数微分関数の極小値をとる面積eから50[pixel]引いた値のときに、誤差の割合ERが0[%]になることが示されている。   FIG. 25 is a conceptual diagram showing the relationship of the error ratio ER to the intrinsic threshold (e + β) obtained when culturing for 8 hours in a certain three cells. In the figure, the vertical axis represents the error ratio ER [%], and the horizontal axis represents the inherent threshold value (e + β). In the A cell, when the intrinsic threshold value (e + β) is an area e where the cumulative frequency differential function takes a minimum value, the error ratio ER is 40 [%]. Further, it is shown that the error ratio ER is 0 [%] when the intrinsic threshold value (e + β) is a value obtained by subtracting 50 [pixel] from the area e where the cumulative frequency differential function takes the minimum value.

図25に示すように、画像処理装置(401、401b)が2値化画像データから、累積度数微分関数の極小値をとる面積eを閾値とし、その閾値以上の面積を有する細胞候補オブジェクトを細胞オブジェクトして抽出した場合、誤差の割合ERが0[%]から離れた値をとる。すなわち、抽出した細胞オブジェクトの数である認識数nが、画像データから実測された細胞オブジェクトの数である視認数nと大きく異なってしまい、画像処理装置(401、401b)が画像データ中の細胞オブジェクトを精度良く認識できていないという問題がある。 As shown in FIG. 25, the image processing apparatus (401, 401b) uses, from the binarized image data, an area e that takes the minimum value of the cumulative frequency differential function as a threshold value, and cell candidate objects having an area equal to or larger than the threshold value as cells. When the object is extracted, the error ratio ER takes a value away from 0 [%]. That is, the extracted recognition count n is the number of cells objects, viewing number is the number of measured cells object from the image data n 0 and causes very different, the image processing apparatus (401,401b) of the image data There is a problem that the cell object cannot be recognized accurately.

そこで、画像処理装置(401、401b)が画像データから多くかつ正確に細胞オブジェクトを抽出するために、細胞オブジェクトを抽出する際の面積の閾値を累積度数微分関数において極小値をとる面積eからずらす必要がある。   Therefore, in order for the image processing apparatus (401, 401b) to extract a large number of cell objects accurately from the image data, the threshold value of the area when extracting the cell object is shifted from the area e that takes the minimum value in the cumulative frequency differential function. There is a need.

また、図25において、細胞種毎に細胞オブジェクトを抽出する際の面積の閾値に対する誤差の割合ERの関係は異なっていることが示されている。このことから、画像処理装置(401、401b)は、細胞種毎に、累積度数微分関数において極小値をとる面積eからずらす量である固有補正情報βを算出する必要がある。   Further, FIG. 25 shows that the relationship of the error ratio ER to the area threshold when extracting the cell object for each cell type is different. Therefore, the image processing apparatus (401, 401b) needs to calculate the specific correction information β that is an amount shifted from the area e that takes the minimum value in the cumulative frequency differential function for each cell type.

図26は、A細胞が撮像された画像データにおける誤差の割合ERが、細胞オブジェクトを抽出する際の面積の閾値と培養時間とをパラメータとして表示された図である。同じA細胞であっても、誤差の割合ERは培養時間毎に変化していることが示されている。従って、画像処理装置(401、401b)は、同じ細胞種であっても培養時間毎に、固有補正情報βを算出する必要がある。   FIG. 26 is a diagram in which the error ratio ER in the image data obtained by imaging the A cell is displayed using the area threshold value and the culture time when the cell object is extracted as parameters. It is shown that even for the same A cells, the error rate ER varies with the culture time. Therefore, the image processing apparatus (401, 401b) needs to calculate the unique correction information β every culture time even for the same cell type.

図27は、固有閾値を算出する方法を説明するための図である。同図において、A細胞が撮像された画像データにおける誤差の割合ERが、閾値と培養時間とをパラメータとして表示された図において、誤差の割合ERが0〜20[%]の範囲が示されている。画像処理装置(401、401b)は、培養時間毎に、極小値をとる面積eからずらす量である閾値のずらし量であって、誤差の割合ERが0〜20[%]の範囲となる閾値のずらし量を全て抽出し、抽出した閾値のずらし量のうちの中央値を固有補正情報βとする。   FIG. 27 is a diagram for explaining a method of calculating a unique threshold value. In the figure, the error rate ER in the image data obtained by imaging the A cells is displayed using the threshold value and the culture time as parameters, and the range of the error rate ER is 0 to 20%. Yes. The image processing apparatus (401, 401b) is a threshold shift amount that is an amount shifted from the area e that takes a minimum value for each culture time, and a threshold at which the error ratio ER is in the range of 0 to 20%. All the shift amounts are extracted, and the median value of the extracted threshold shift amounts is set as the inherent correction information β.

続いて、共通閾値(仮閾値)について説明する。図28は、共通閾値(仮閾値)を算出する方法を説明するための図である。図28(a)には、A細胞、B細胞またはC細胞が撮像された画像データにおける誤差の割合ERが、閾値と培養時間とをパラメータとして表示されている。図28(b)には、A細胞における誤差の割合ERが10〜30[%]の範囲、B細胞における誤差の割合ERが10〜30[%]の範囲、C細胞における誤差の割合ERが10〜30[%]の範囲のうち全てに共通の範囲が示されている。   Next, the common threshold (temporary threshold) will be described. FIG. 28 is a diagram for explaining a method of calculating a common threshold (temporary threshold). In FIG. 28A, the error ratio ER in the image data obtained by imaging the A cell, B cell, or C cell is displayed using the threshold value and the culture time as parameters. In FIG. 28 (b), the error rate ER in the A cell is in the range of 10-30 [%], the error rate ER in the B cell is in the range of 10-30 [%], and the error rate ER in the C cell is A common range is shown in all of the ranges of 10 to 30%.

画像処理装置401bは、培養時間毎に、図28(b)に示されるように、全ての細胞で誤差の割合ERが一例として10〜30[%]の範囲にある閾値のずらし量を抽出し、抽出した閾値のずらし量のうちの中央値を共通補正情報γとする。累積度数微分関数の極小値をとる面積eに対して、補正情報γを加算した値e+γが共通閾値(仮閾値)である。
以上で、共通閾値(仮閾値)の説明を終了する。
As shown in FIG. 28B, the image processing apparatus 401b extracts a threshold shift amount in which the error ratio ER is in the range of 10 to 30% as an example for all cells, as shown in FIG. 28 (b). The median value of the extracted threshold shift amounts is set as common correction information γ. A value e + γ obtained by adding correction information γ to the area e that takes the minimum value of the cumulative frequency differential function is a common threshold (temporary threshold).
Above, description of a common threshold value (provisional threshold value) is complete | finished.

<第5の実施形態:画像処理装置>
まず、本発明の第5の実施形態における画像処理装置401について説明する。本発明の第5の実施形態の画像処理装置401は、細胞種が既知の場合に、画像データから細胞の画像領域である細胞オブジェクトを抽出する。図29は、本発明の第5の実施形態における画像処理装置401のブロック構成図である。画像処理装置401は、細胞オブジェクト抽出部420と、固有補正情報生成部440と、固有補正情報記憶部450とを備える。
<Fifth Embodiment: Image Processing Device>
First, an image processing apparatus 401 according to the fifth embodiment of the present invention will be described. The image processing apparatus 401 according to the fifth embodiment of the present invention extracts a cell object that is an image area of a cell from image data when the cell type is known. FIG. 29 is a block diagram of an image processing apparatus 401 according to the fifth embodiment of the present invention. The image processing apparatus 401 includes a cell object extraction unit 420, a unique correction information generation unit 440, and a unique correction information storage unit 450.

<細胞オブジェクト抽出方法>
まず、画像処理装置401の細胞オブジェクト抽出方法について説明する。はじめに、細胞オブジェクト抽出部420の処理の概要を説明する。細胞オブジェクト抽出部420は、外部から入力された細胞が撮像された画像データと、細胞種を示す情報と、細胞が播種された時からの経過時間である培養時間を示す情報とに応じた固有補正情報β(i,t)を、固有補正情報記憶部450に記憶されているテーブルT1から読み出す。ここで、iは細胞種を示す識別情報であり、tは培養時間である。
<Cell object extraction method>
First, the cell object extraction method of the image processing apparatus 401 will be described. First, the outline of the process of the cell object extraction unit 420 will be described. The cell object extraction unit 420 is unique in accordance with image data obtained by imaging an externally input cell, information indicating a cell type, and information indicating a culture time that is an elapsed time since the cell was seeded. The correction information β (i, t) is read from the table T1 stored in the unique correction information storage unit 450. Here, i is identification information indicating a cell type, and t is a culture time.

固有補正情報記憶部450には、固有補正情報βが培養時間tを示す情報と、細胞種を示す識別情報iとに関連付けられたテーブルT1が記憶されている。図30は、固有補正情報βが細胞種を示す識別情報iと培養時間tとに関連付けられて記憶されているテーブルT1の1例を示した図である。テーブルT1では、固有補正情報βが培養時間tと細胞種を示す識別情報iとに応じて1つに決まることが示されている。培養時間tは、0時間を基準として、8時間後から4時間刻みである。細胞種を示す識別情報iは、正常ヒト線維芽細胞(NHDF)、ヒト子宮頸ガン由来ガン細胞(Hela)、正常ヒト臍帯静脈内皮細胞(HUVEC)、神経前駆細胞(PC12)、または間葉系幹細胞(MSC)等である。   The unique correction information storage unit 450 stores a table T1 in which the unique correction information β is associated with information indicating the culture time t and identification information i indicating the cell type. FIG. 30 is a diagram showing an example of the table T1 in which the unique correction information β is stored in association with the identification information i indicating the cell type and the culture time t. The table T1 indicates that the unique correction information β is determined as one according to the culture time t and the identification information i indicating the cell type. The culture time t is in increments of 4 hours from 8 hours on the basis of 0 hours. The identification information i indicating the cell type is normal human fibroblast (NHDF), human cervical cancer-derived cancer cell (Hela), normal human umbilical vein endothelial cell (HUVEC), neural progenitor cell (PC12), or mesenchymal system Stem cells (MSC) and the like.

図29に戻って、細胞オブジェクト抽出部420は、読み出した固有補正情報β(i,t)に基づいて、画像データから後述する2値化データを生成し、細胞オブジェクトを選択し、選択した細胞オブジェクトoを示す情報と2値化画像データとを外部へ出力する。   Returning to FIG. 29, the cell object extraction unit 420 generates binarized data described later from the image data based on the read unique correction information β (i, t), selects a cell object, and selects the selected cell. Information indicating the object o and binarized image data are output to the outside.

続いて、細胞オブジェクト抽出部420の処理の詳細を説明する。図31は、本発明の第5の実施形態における細胞オブジェクト抽出部420の機能ブロック構成図である。細胞オブジェクト抽出部420は、細胞候補オブジェクト抽出部421と、面積算出部422と、累積度数分布算出部(累積分布算出部)423と、固有閾値算出部425と、細胞オブジェクト選択部426とを備える。 Next, details of the processing of the cell object extraction unit 420 will be described. FIG. 31 is a functional block configuration diagram of the cell object extraction unit 420 according to the fifth embodiment of the present invention. The cell object extraction unit 420 includes a cell candidate object extraction unit 421, an area calculation unit 422, a cumulative frequency distribution calculation unit (cumulative distribution calculation unit) 423, a specific threshold value calculation unit 425, and a cell object selection unit 426. .

細胞候補オブジェクト抽出部421は、2値化画像取得部410と、抽出部411とを備える。2値化画像取得部410は、細胞の種類が既知である細胞が複数個培養されている状態が撮像された撮像画像のデータである画像データを外部から取得する。2値化画像取得部410は、取得した画像データを所定の閾値によって2値化処理する。上記所定の閾値は、細胞の種類に応じたものであってもよい。   The cell candidate object extraction unit 421 includes a binarized image acquisition unit 410 and an extraction unit 411. The binarized image acquisition unit 410 acquires image data that is captured image data obtained by capturing a state where a plurality of cells of known cell types are cultured from the outside. The binarized image acquisition unit 410 binarizes the acquired image data with a predetermined threshold. The predetermined threshold may be in accordance with the type of cell.

例えば、2値化画像取得部410は、他の領域に比べて細胞の領域が黒めに撮像された画像データにおいて、培養容器に固着する細胞である接着系細胞が撮像された場合、1つの閾値を用いて画像データを2値化し、2値化画像データを生成する。ここで、画像データの各画素は、それぞれ0〜255のいずれかの値の画素値を取るものとする。例えば、画像データにおいて、0が黒を表し、255が白を表す。
例えば、2値化処理部422は、1つの閾値として画素値84を用いて、画素値84未満の領域を細胞候補の領域(例えば2値化画像データで見ると黒とする)、画素値84以上の領域を細胞候補以外の領域(例えば2値化画像データで見ると白とする)とする。
For example, the binarized image acquisition unit 410 has one threshold value when an adhesive cell that is a cell that adheres to a culture container is imaged in image data in which a cell region is captured in black compared to other regions. Is used to binarize the image data to generate binarized image data. Here, it is assumed that each pixel of the image data takes a pixel value of any value from 0 to 255. For example, in the image data, 0 represents black and 255 represents white.
For example, the binarization processing unit 422 uses the pixel value 84 as one threshold, a region less than the pixel value 84 is a cell candidate region (eg, black when viewed in the binarized image data), the pixel value 84 The above regions are regions other than the cell candidates (for example, white when viewed in the binarized image data).

また、例えば、2値化画像取得部410は、他の領域に比べて細胞候補の領域が黒めに撮像される画像データにおいて、培養容器に固着せずに培養液中を浮遊する細胞である浮遊系細胞が撮像された場合、2つの閾値を用いて画像データを2値化し、2値化画像データを生成する。
例えば、2値化画像取得部410は、2つの閾値として画素値80、149を用いて、画素値80以上149未満の領域を細胞候補の領域、画素値80未満又は149以上の領域を細胞候補以外の領域とする。なお、2値化画像取得部410は、画像データ内に撮像されている細胞が、接着系細胞であるか浮遊系細胞であるかを示す情報を、インキュベータ511から取得し、上記閾値を決定してもよい。
画像データを2値化した2値化画像取得部410は、生成した2値化画像データを細胞オブジェクト抽出部420に出力する。
Further, for example, the binarized image acquisition unit 410 is a floating cell that is floating in the culture solution without sticking to the culture vessel in the image data in which the region of the cell candidate is captured in black compared to other regions. When a system cell is imaged, the image data is binarized using two threshold values, and binarized image data is generated.
For example, the binarized image acquisition unit 410 uses the pixel values 80 and 149 as the two threshold values, and sets the region having the pixel value of 80 or more and less than 149 as the cell candidate region, and the region having the pixel value of less than 80 or 149 or more as the cell candidate. Other areas. The binarized image acquisition unit 410 acquires information indicating whether the cell imaged in the image data is an adhesive cell or a floating cell from the incubator 511, and determines the threshold value. May be.
The binarized image acquisition unit 410 that binarizes the image data outputs the generated binarized image data to the cell object extraction unit 420.

抽出部411は、2値化画像取得部410から入力された2値化画像データから、細胞候補の領域であって1pixel以上の面積を有する領域を、細胞オブジェクトの候補となる細胞候補オブジェクトとして抽出する。抽出部411は、抽出した細胞候補オブジェクトを示す情報を面積算出部422へ出力する。   The extraction unit 411 extracts, from the binarized image data input from the binarized image acquisition unit 410, a cell candidate region that has an area of 1 pixel or more as a cell candidate object that is a cell object candidate. To do. The extraction unit 411 outputs information indicating the extracted cell candidate object to the area calculation unit 422.

面積算出部422は、入力された細胞候補オブジェクトを示す情報から、各細胞候補オブジェクトの面積を算出し、算出した面積を示す情報を累積度数分布算出部423へ出力する。
累積度数分布算出部423は、入力された面積を示す情報から、その面積の大きさの順に、各細胞候補オブジェクトの面積を順次積算することで得られる累積度数分布を算出し、算出した累積度数分布の情報を微分関数算出部424に出力する。
The area calculation unit 422 calculates the area of each cell candidate object from the input information indicating the cell candidate object, and outputs information indicating the calculated area to the cumulative frequency distribution calculation unit 423.
The cumulative frequency distribution calculation unit 423 calculates a cumulative frequency distribution obtained by sequentially integrating the areas of the cell candidate objects in order of the size of the area from the information indicating the input area, and calculates the calculated cumulative frequency Distribution information is output to the differential function calculation unit 424.

なお、累積度数分布算出部423は、最後に算出された累積面積を全体の面積値とし、面積の一番小さいオブジェクトから順次、各累積面積を全体の面積値で割って100を乗じることで得られる累積度数分布を算出してもよい。その場合、累積度数分布算出部423は、算出した累積度数分布の情報を微分関数算出部424へ出力する。   The cumulative frequency distribution calculation unit 423 obtains the cumulative area calculated at the end as the overall area value, and sequentially divides each cumulative area by the overall area value and multiplyes by 100, starting from the object with the smallest area. The accumulated frequency distribution may be calculated. In that case, the cumulative frequency distribution calculation unit 423 outputs information of the calculated cumulative frequency distribution to the differential function calculation unit 424.

図31に戻って、微分関数算出部424は、入力された累積度数分布の情報を用いて、累積度数分布を面積に対して微分することによって、累積度数分布の微分関数を算出する。すなわち微分関数算出部424は、累積度数分布から、面積の大きさを変数とした面積の大きさの変化に対する累積面積の増減率を示す累積度数分布の微分関数を算出する。微分関数算出部424は、算出した累積度数分布の微分関数の情報を固有閾値算出部425へ出力する。   Returning to FIG. 31, the differential function calculation unit 424 calculates a differential function of the cumulative frequency distribution by differentiating the cumulative frequency distribution with respect to the area using the input information of the cumulative frequency distribution. That is, the differential function calculation unit 424 calculates a differential function of the cumulative frequency distribution indicating the increase / decrease rate of the cumulative area with respect to a change in the size of the area using the size of the area as a variable from the cumulative frequency distribution. The differential function calculation unit 424 outputs information on the calculated differential function of the cumulative frequency distribution to the specific threshold value calculation unit 425.

なお、微分関数算出部424は、細胞候補オブジェクトの面積の大きさの変化に対する累積度数の増減率を示す累積度数増減分布を算出してもよい。具体的には、例えば、微分関数算出部424は、図23(a)に示された累積度数を面積に対して微分することにより、累積度数の面積に対する微分値を算出する。これにより、微分関数算出部424は、図23(b)に示されるような累積度数微分関数を得ることができる。   The differential function calculation unit 424 may calculate a cumulative frequency increase / decrease distribution indicating a rate of increase / decrease of the cumulative frequency with respect to a change in the size of the area of the cell candidate object. Specifically, for example, the differential function calculation unit 424 calculates a differential value with respect to the area of the cumulative frequency by differentiating the cumulative frequency shown in FIG. Thereby, the differential function calculation unit 424 can obtain a cumulative frequency differential function as shown in FIG.

固有閾値算出部425は、微分関数算出部424により算出された累積度数微分関数における極小値をとる面積eを算出する。
具体的には、例えば、固有閾値算出部425は、図23(b)に示された累積度数の微分関数から細胞に応じた所定の範囲内で、極小値を取る面積eを算出する。
The inherent threshold value calculation unit 425 calculates an area e that takes a minimum value in the cumulative frequency differential function calculated by the differential function calculation unit 424.
Specifically, for example, the unique threshold value calculation unit 425 calculates an area e that takes a minimum value within a predetermined range according to the cell from the differential function of the cumulative frequency shown in FIG.

培養時間と細胞種に応じた固有閾値を算出するために、固有閾値算出部425は、外部から入力された培養時間を示す情報と、細胞種の情報とに対応する固有補正情報βを固有補正情報記憶部450のテーブルT1から読み出す。固有閾値算出部425は、極小値をとる面積eと固有補正情報βとを加算した値である固有閾値(e+β)を算出し、算出した固有閾値(e+β)を示す情報を細胞オブジェクト選択部426へ出力する。   In order to calculate a specific threshold value according to the culture time and the cell type, the specific threshold value calculation unit 425 performs a specific correction on the specific correction information β corresponding to the information indicating the culture time input from the outside and the cell type information. Read from the table T1 of the information storage unit 450. The unique threshold value calculation unit 425 calculates a unique threshold value (e + β) that is a value obtained by adding the area e having the minimum value and the unique correction information β, and information indicating the calculated unique threshold value (e + β) is the cell object selection unit 426. Output to.

ここで、固有閾値算出部425による固有閾値(カスタムe値)の算出方法について、具体例を用いて説明する。細胞オブジェクト選択部426は、入力された固有閾値(e+β)を示す情報を用いて、2値化画像データから固有閾値(e+β)以上の面積を有する細胞候補オブジェクトを細胞オブジェクトとして選択し、選択した細胞オブジェクトを示す情報と2値化画像取得部410から取得した2値化画像データとを外部へ出力する。
また、細胞オブジェクト選択部426は、固有補正情報βと培養時間を示す情報とともに、細胞オブジェクトを示す情報を固有補正情報生成部440の後述する細胞計数部442へ出力する。
Here, the calculation method of the unique threshold value (custom e value) by the unique threshold value calculation unit 425 will be described using a specific example. The cell object selection unit 426 uses the information indicating the input unique threshold value (e + β) to select a cell candidate object having an area equal to or larger than the unique threshold value (e + β) as the cell object from the binarized image data, and selects the selected cell object. Information indicating the cell object and the binarized image data acquired from the binarized image acquisition unit 410 are output to the outside.
In addition, the cell object selection unit 426 outputs information indicating the cell object to the cell counting unit 442 (to be described later) of the specific correction information generation unit 440 together with the specific correction information β and the information indicating the culture time.

図32は、第5の実施形態における画像処理装置において、ある細胞種がある培養時間において撮像された画像データから細胞オブジェクトを抽出する処理の流れを示したフローチャートである。まず、2値化画像取得部410は、入力された画像データから2値化画像データを生成する(ステップS601)。次に、抽出部411は、2値化画像データから細胞候補オブジェクトを抽出する(ステップS602)。次に、面積算出部422は、各細胞候補オブジェクトの面積を算出する(ステップS603)。次に、累積度数分布算出部423は、細胞候補オブジェクトの面積に係る累積度数分布を算出する(ステップS604)。   FIG. 32 is a flowchart showing a flow of processing for extracting a cell object from image data captured at a certain culture time in a certain cell type in the image processing apparatus according to the fifth embodiment. First, the binarized image acquisition unit 410 generates binarized image data from the input image data (step S601). Next, the extraction unit 411 extracts a cell candidate object from the binarized image data (step S602). Next, the area calculation unit 422 calculates the area of each cell candidate object (step S603). Next, the cumulative frequency distribution calculation unit 423 calculates a cumulative frequency distribution related to the area of the cell candidate object (step S604).

次に、微分関数算出部424は、累積度数微分関数を算出する(ステップS605)。次に、固有閾値算出部425は、累積度数微分関数において極小値をとる面積eを算出する(ステップS606)。次に、固有閾値算出部425は、外部から入力された細胞種を示す情報に応じた固有補正情報βを読み出す(ステップS607)。   Next, the differential function calculation unit 424 calculates a cumulative frequency differential function (step S605). Next, the specific threshold value calculation unit 425 calculates an area e that takes a minimum value in the cumulative frequency differential function (step S606). Next, the unique threshold value calculation unit 425 reads the unique correction information β corresponding to the information indicating the cell type input from the outside (step S607).

次に、固有閾値算出部425は、極小値をとる面積eと固有補正情報βとを加算した固有閾値(e+β)を算出する(ステップS608)。次に、細胞オブジェクト選択部426は、固有閾値(e+β)以上の面積を有する細胞候補オブジェクトを細胞オブジェクトとして選択する(ステップS609)。以上で、本フローチャートの処理を終了する。   Next, the specific threshold value calculation unit 425 calculates a specific threshold value (e + β) obtained by adding the area e having the minimum value and the specific correction information β (step S608). Next, the cell object selection unit 426 selects a cell candidate object having an area equal to or larger than the unique threshold (e + β) as a cell object (step S609). Above, the process of this flowchart is complete | finished.

これにより、画像処理装置401は、細胞種および培養時間に応じた適切な固有閾値(e+β)を用いることができるので、細胞オブジェクトを精度良く抽出することができる。また、画像処理装置401は、細胞種間で細胞の面積が異なっていても、細胞種に応じた固有閾値(e+β)を用いることができるので、細胞オブジェクトを精度良く抽出することができる。
また、画像処理装置401は、培養時間に応じて細胞の面積が変化しても、培養時間に応じた固有閾値(e+β)を用いることができるので、細胞オブジェクトを精度良く抽出することができる。
As a result, the image processing apparatus 401 can use an appropriate inherent threshold value (e + β) according to the cell type and the culture time, and thus can accurately extract the cell object. Further, the image processing apparatus 401 can use the inherent threshold value (e + β) corresponding to the cell type even if the cell area is different among the cell types, and thus can accurately extract the cell object.
Further, the image processing apparatus 401 can use the inherent threshold value (e + β) corresponding to the culture time even if the area of the cell changes according to the culture time, so that the cell object can be extracted with high accuracy.

図33は、単に極小値を取る面積を閾値(図24のe)として細胞オブジェクトを抽出した場合と、固有閾値を閾値(図24のe+β)として細胞オブジェクトを抽出した場合における誤差の割合ERを比較したテーブルである。同図には、ある細胞の3つの培養時間(8時間、12時間、16時間)における画像データを用いた際の、実測した視認数nと、閾値がeの場合の細胞の認識数nおよびその場合の誤差の割合ERと、閾値がe+βの場合の細胞の認識数nおよびその場合の誤差の割合ERと、が比較されて示されている。 FIG. 33 shows the error ratio ER when the cell object is extracted with the area where the minimum value is simply taken as the threshold (e in FIG. 24) and when the cell object is extracted with the unique threshold as the threshold (e + β in FIG. 24). It is the table compared. The figure shows the number of visual recognitions n 0 when using image data in three culture times (8 hours, 12 hours, and 16 hours) of a certain cell, and the number of recognized cells n when the threshold value is e. In addition, the error rate ER in that case is compared with the number n of cells recognized when the threshold is e + β and the error rate ER in that case.

培養時間が8時間の時の画像データを用いた場合、極小値を取る面積eを閾値とした場合には、認識数nが54[個]で誤差の割合ERが60.3[%]であるのに対し、第5の実施形態における固有閾値(e+β)を閾値とした場合、認識数nが136[個]で誤差の割合ERが0.0[%]であるので、細胞オブジェクトの抽出精度が著しく向上している。同様に、培養時間が12時間および16時間の時の画像データを用いた場合においても、第5の実施形態における固有閾値(e+β)を閾値とした場合の方が、細胞オブジェクトの抽出精度が向上している。   When image data when the culture time is 8 hours is used, when the area e that takes the minimum value is used as a threshold, the recognition number n is 54 [pieces] and the error rate ER is 60.3 [%]. On the other hand, when the unique threshold value (e + β) in the fifth embodiment is set as the threshold value, the number n of recognition is 136 [pieces] and the error rate ER is 0.0 [%]. The accuracy is significantly improved. Similarly, in the case of using image data when the culture time is 12 hours and 16 hours, the extraction accuracy of the cell object is improved when the intrinsic threshold value (e + β) in the fifth embodiment is used as the threshold value. doing.

以上により、第5の実施形態における画像処理装置401は、累積度数分布関数の微分関数において極小値を取る面積を閾値として細胞オブジェクトを抽出するよりも、精度良く細胞のオブジェクトを抽出することができる。   As described above, the image processing apparatus 401 according to the fifth embodiment can extract a cell object with higher accuracy than extracting a cell object using an area having a minimum value in a differential function of a cumulative frequency distribution function as a threshold value. .

なお、上記累積度数分布算出部423が算出した累積度数分布関数は一例であり、以下の例のように累積度数分布関数を算出してもよい。累積度数分布算出部423は、各々の細胞候補オブジェクトの面積の大きさ毎に、分類された細胞候補オブジェクトの該当数を算出する。累積度数分布算出部423は、算出した各々の面積の大きさ毎の該当数と当該面積値に基づき、該当数と面積値の積の値を算出し、算出した積の値を面積の大きさの順から順次積算することで得られる累積度数分布関数を算出してもよい。   The cumulative frequency distribution function calculated by the cumulative frequency distribution calculating unit 423 is an example, and the cumulative frequency distribution function may be calculated as in the following example. The cumulative frequency distribution calculation unit 423 calculates the corresponding number of classified cell candidate objects for each size of the area of each cell candidate object. The cumulative frequency distribution calculation unit 423 calculates a product value of the corresponding number and the area value based on the calculated corresponding number for each area size and the area value, and calculates the calculated product value as the area size. The cumulative frequency distribution function obtained by sequentially integrating from the above order may be calculated.

<固有補正情報記憶部のデータ構築方法>
続いて、図29に戻って、固有補正情報記憶部450に記憶されている固有補正情報βの算出方法について説明する。なお、固有補正情報βを算出する場合には、画像データから実測された細胞数である視認数nを示す情報が画像データ処理部1に入力されるものとして説明する。細胞オブジェクト抽出部420は、閾値e+βにおける固有補正情報βの代わりに、閾値のずらし量β´を所定の範囲で、ある間隔でずらしながら、閾値e+β´で細胞オブジェクトを抽出する。具体的には、細胞オブジェクト抽出部420は、閾値のずらし量β´を−100から100の範囲で、閾値のずらし量β´を所定のずらし間隔でずらしながら、閾値e+β´で細胞オブジェクトを抽出する。
<Data construction method of unique correction information storage unit>
Next, returning to FIG. 29, a method for calculating the unique correction information β stored in the unique correction information storage unit 450 will be described. In the case where the unique correction information β is calculated, it is assumed that information indicating the visual recognition number n 0 that is the number of cells actually measured from the image data is input to the image data processing unit 1. The cell object extraction unit 420 extracts the cell object with the threshold e + β ′ while shifting the threshold shift amount β ′ within a predetermined range at a certain interval instead of the inherent correction information β with the threshold e + β. Specifically, the cell object extraction unit 420 extracts the cell object with the threshold e + β ′ while shifting the threshold shift amount β ′ in the range of −100 to 100 and the threshold shift amount β ′ with a predetermined shift interval. To do.

一例としては、細胞オブジェクト抽出部420は、閾値のずらし量β´を−100から100の範囲で、−100から閾値のずらし量β´を順に2ずつ増加させる毎に、閾値e+β´で細胞オブジェクトを抽出する。
細胞オブジェクト抽出部420は、閾値のずらし量β´を示す情報と培養時間tを示す情報と細胞種iを示す情報と細胞オブジェクトを示す情報oとを固有補正情報生成部440の後述する細胞計数部442へ出力する。
As an example, the cell object extraction unit 420 increases the threshold shift amount β ′ in the range from −100 to 100, and increases the threshold shift amount β ′ from −100 to 2 in order by 2 every time, with the threshold e + β ′. To extract.
The cell object extraction unit 420 uses information indicating the threshold shift amount β ′, information indicating the culture time t, information indicating the cell type i, and information o indicating the cell object, which will be described later in the specific correction information generation unit 440. Output to the unit 442.

固有補正情報生成部440は、固有補正情報記憶部450に記憶されているテーブルT1内のデータを生成する。固有補正情報生成部440は、細胞計数部442と、誤差算出部444と、誤差記憶部446と、補正情報設定部448とを備える。
細胞計数部442は、細胞オブジェクト抽出部420が抽出した細胞オブジェクトを計数する。細胞計数部442は、計数した細胞オブジェクトの数である認識数nを示す情報を、閾値のずらし量β´を示す情報と培養時間tを示す情報と細胞種iを示す情報とともに、誤差算出部444に出力する。
The unique correction information generation unit 440 generates data in the table T1 stored in the unique correction information storage unit 450. The unique correction information generation unit 440 includes a cell counting unit 442, an error calculation unit 444, an error storage unit 446, and a correction information setting unit 448.
The cell counting unit 442 counts the cell objects extracted by the cell object extracting unit 420. The cell counting unit 442 includes information indicating the number of recognitions n, which is the number of counted cell objects, together with information indicating the threshold shift amount β ′, information indicating the culture time t, and information indicating the cell type i, an error calculating unit. To 444.

誤差算出部444は、画像データから実測された細胞数である視認数nを示す情報を外部から受け取る。誤差算出部444は、細胞計数部442が認識数nをβ´に応じて計数する毎に、細胞計数部442から入力された認識数nを示す情報と、視認数nを示す情報とに基づいて、認識数nと視認数nの差の割合を表す誤差の割合ERを上述した式(1)により算出する。 Error calculation unit 444 receives information indicating the viewing number n 0 is the number of cells measured from the image data from the outside. Each time the cell counting unit 442 counts the recognition number n according to β ′, the error calculation unit 444 includes information indicating the recognition number n input from the cell counting unit 442 and information indicating the visual recognition number n 0. Based on the above equation (1), an error ratio ER representing the ratio of the difference between the recognition number n and the visual recognition number n 0 is calculated.

続いて、誤差算出部444の処理について、まずは1つの細胞種について説明する。誤差算出部444は、閾値のずらし量β´を示す情報と培養時間を示す情報とに関連付けて、算出した誤差の割合ERを示す情報を誤差記憶部446の細胞種毎のテーブルT2に記憶させる。   Subsequently, regarding the processing of the error calculation unit 444, first, one cell type will be described. The error calculation unit 444 stores the information indicating the calculated error ratio ER in the table T2 for each cell type in the error storage unit 446 in association with the information indicating the threshold shift amount β ′ and the information indicating the culture time. .

誤差算出部444は、全ての閾値のずらし量β´で誤差の割合ERを算出したか否か判定する。誤差算出部444は、全ての閾値のずらし量β´で誤差の割合ERを算出していないと判定した場合、細胞オブジェクト抽出部420の固有閾値算出部425に閾値のずらし量β´を増加させるよう制御する。   The error calculation unit 444 determines whether or not the error ratio ER has been calculated for all threshold shift amounts β ′. If the error calculation unit 444 determines that the error ratio ER is not calculated for all the threshold shift amounts β ′, the error calculation unit 444 causes the inherent threshold calculation unit 425 of the cell object extraction unit 420 to increase the threshold shift amount β ′. Control as follows.

誤差算出部444は、全ての閾値のずらし量β´に基づき抽出された細胞オブジェクトの数(認識数)に対して、上記の一連の処理を行う。これにより、誤差算出部444は、当該培養時間において、すべての閾値のずらし量β´で誤差の割合ERを算出し、誤差記憶部446に記憶させることができる。
さらに、誤差算出部444は、上記と同様の処理を、異なる培養時間において行う。これにより、誤差算出部444は、培養時間毎に誤差の割合ERを算出し、算出した誤差の割合ERを誤差記憶部446に記憶させることができる。
The error calculation unit 444 performs the above-described series of processing on the number (recognition number) of cell objects extracted based on all threshold shift amounts β ′. Thereby, the error calculation unit 444 can calculate the error ratio ER with all the threshold shift amounts β ′ during the culture time, and can store the error ratio ER in the error storage unit 446.
Further, the error calculation unit 444 performs the same processing as described above at different culture times. As a result, the error calculation unit 444 can calculate the error rate ER for each culture time, and store the calculated error rate ER in the error storage unit 446.

上記に説明した処理により、誤差記憶部446には、誤差の割合ERが閾値のずらし量β´を示す情報と培養時間を示す情報とに関連付けられたテーブルが記憶されている。
図34は、所定の細胞種の誤差の割合ERが閾値のずらし量β´と培養時間tとに関連付けられて格納されたテーブルT2の1例を示した図である。同図において、閾値のずらし量と培養時間tとに応じて、誤差の割合ER[%]が定められている。閾値のずらし量β´は、−100から2刻みで100まである。培養時間は、細胞を播種したときを0時間として、8時間後から4時間刻みである。
By the processing described above, the error storage unit 446 stores a table in which the error ratio ER is associated with information indicating the threshold shift amount β ′ and information indicating the culture time.
FIG. 34 is a diagram showing an example of a table T2 in which the error rate ER of a predetermined cell type is stored in association with the threshold shift amount β ′ and the culture time t. In the figure, the error ratio ER [%] is determined according to the shift amount of the threshold and the culture time t. The threshold shift amount β ′ is from −100 to 100 in increments of 2. The culture time is in increments of 4 hours from 8 hours after 0 hours when the cells are seeded.

図29に戻って、当該細胞種について、誤差算出部444により閾値のずらし量β´を示す情報に基づき算出された全ての誤差の割合ERが誤差記憶部446のテーブルT2に記憶された後に、補正情報設定部448は、誤差記憶部446の細胞種毎のテーブルT2から、培養時間毎に、誤差の割合ERが所定の範囲にある閾値のずらし量β´を抽出する。具体的には、例えば、補正情報設定部448は、誤差の割合ERが0[%]から20[%]の範囲にある閾値のずらし量β´を抽出する。   Returning to FIG. 29, for all the cell types, after all the error ratios ER calculated by the error calculation unit 444 based on the information indicating the threshold shift amount β ′ are stored in the table T2 of the error storage unit 446, The correction information setting unit 448 extracts, from the table T2 for each cell type in the error storage unit 446, a threshold shift amount β ′ in which the error ratio ER is within a predetermined range for each culture time. Specifically, for example, the correction information setting unit 448 extracts the threshold shift amount β ′ in which the error ratio ER is in the range of 0 [%] to 20 [%].

補正情報設定部448は、1例として、培養時間毎に抽出した閾値のずらし量β´の中央値を、その培養時間におけるその細胞種の固有補正情報βとして選択する。補正情報設定部448は、選択した固有補正情報βを、その細胞種の情報と培養時間を示す情報とに関連付けて、固有補正情報記憶部450のテーブルT1に記憶させる。   As an example, the correction information setting unit 448 selects the median value of the threshold shift amount β ′ extracted for each culture time as the specific correction information β of the cell type during the culture time. The correction information setting unit 448 stores the selected unique correction information β in the table T1 of the unique correction information storage unit 450 in association with the cell type information and the information indicating the culture time.

例えば、図34において、培養時間が8時間の場合、誤差の割合ERが0[%]から20[%]の範囲にある閾値のずらし量β´は、−6、−4および−2であるので、その中央値である−2が固有補正情報βとなる。   For example, in FIG. 34, when the culture time is 8 hours, the threshold shift amount β ′ when the error rate ER is in the range of 0 [%] to 20 [%] is −6, −4, and −2. Therefore, the median value −2 is the unique correction information β.

なお、補正情報設定部448は、閾値のずらし量の中央値を固有補正情報として選択したが、これに限らず、抽出した閾値のずらし量であればどの値を固有補正情報βとして選択してもよい。   The correction information setting unit 448 selects the median value of the threshold shift amount as the specific correction information. However, the correction information setting unit 448 selects any value as the specific correction information β as long as the extracted threshold shift amount is not limited thereto. Also good.

細胞オブジェクト抽出部420と、細胞計数部442と、誤差算出部444と、補正情報設定部448は、上記と同様の処理を、異なる細胞種の画像データに対して行う。これにより、細胞種毎に、固有補正情報βを生成することができる。   The cell object extraction unit 420, the cell counting unit 442, the error calculation unit 444, and the correction information setting unit 448 perform the same processing as described above on the image data of different cell types. Thereby, the specific correction information β can be generated for each cell type.

図35は、画像処理装置において、所定の培養時間におけるある細胞種の固有補正情報βを算出する処理の流れを示したフローチャートである。ステップS701からステップS706までの処理は、図32のステップS601からステップS606までの処理と同一であるので、説明を省略する。   FIG. 35 is a flowchart showing a flow of processing for calculating specific correction information β of a certain cell type in a predetermined culture time in the image processing apparatus. The processing from step S701 to step S706 is the same as the processing from step S601 to step S606 in FIG.

次に、固有閾値算出部425は、閾値のずらし量β´を初期化し、1例として閾値のずらし量β´を−100にする(ステップS707)。次に、固有閾値算出部425は、閾値のずらし量β´と極小値を取る面積eとの和である固有閾値(カスタムe値)を算出する(ステップS708)。次に、細胞オブジェクト選択部426は、その固有閾値(カスタムe値)以上の面積を有する細胞候補オブジェクトを細胞オブジェクトとして選択する(ステップS709)。   Next, the unique threshold value calculation unit 425 initializes the threshold value shift amount β ′, and sets the threshold value shift amount β ′ to −100 as an example (step S707). Next, the unique threshold value calculation unit 425 calculates a unique threshold value (custom e value) that is the sum of the threshold shift amount β ′ and the area e that takes the minimum value (step S708). Next, the cell object selection unit 426 selects a cell candidate object having an area equal to or larger than the inherent threshold value (custom e value) as a cell object (step S709).

次に、細胞計数部442は、選択された細胞オブジェクトの数である認識数nを算出する(ステップS710)。次に、誤差算出部444は、認識数nを示す情報と外部から入力された視認数nを示す情報とに基づき、誤差の割合ERを算出し、算出した誤差の割合ERを示す情報を誤差記憶部446に記憶させる(ステップS711)。次に、誤差算出部444は、全ての閾値のずらし量β´で誤差の割合ERを算出したか否か判定する(ステップS712)。誤差算出部444が全ての閾値のずらし量β´で誤差の割合ERを算出していないと判定した場合(ステップS712 NO)、固有閾値算出部425は、閾値のずらし量β´を2だけ加算し(ステップS713)、ステップS708の処理に戻す。 Next, the cell counting unit 442 calculates a recognition number n, which is the number of selected cell objects (step S710). Next, the error calculation unit 444, based on the information indicating the viewing number n 0 which is input from the information and the external indicating a recognition number n, and calculates the ratio ER of the error, the information indicating a ratio ER of the calculated error The error is stored in the error storage unit 446 (step S711). Next, the error calculation unit 444 determines whether or not the error ratio ER has been calculated with all threshold shift amounts β ′ (step S712). When the error calculation unit 444 determines that the error ratio ER is not calculated for all threshold shift amounts β ′ (NO in step S712), the unique threshold calculation unit 425 adds the threshold shift amount β ′ by two. (Step S713), and the process returns to Step S708.

一方、誤差算出部444が全ての閾値のずらし量β´で誤差の割合ERを算出したと判定した場合(ステップS712 YES)、補正情報設定部448は、入力された画像データが取得された培養時間におけるその細胞種の固有補正情報βを算出する(ステップS714)。次に、補正情報設定部448は、算出した固有補正情報βを、細胞種を示す情報および培養時間を示す情報と関連付けて、固有補正情報記憶部450のテーブルT1に記憶させる(ステップS715)。以上で、本フローチャートの処理を終了する。   On the other hand, when it is determined that the error calculation unit 444 has calculated the error ratio ER with all the threshold shift amounts β ′ (YES in step S712), the correction information setting unit 448 determines that the input image data has been acquired. The unique correction information β of the cell type in time is calculated (step S714). Next, the correction information setting unit 448 stores the calculated unique correction information β in the table T1 of the unique correction information storage unit 450 in association with information indicating the cell type and information indicating the culture time (step S715). Above, the process of this flowchart is complete | finished.

これにより、画像処理装置401の固有補正情報記憶部450には、細胞の種類および培養時間に応じた適切な固有補正情報βが記憶されるので、画像処理装置401は、その閾値を用いることができ、細胞オブジェクトを精度良く抽出することができる。
以上で、固有補正情報記憶部450に記憶されている固有補正情報βの算出方法についての説明を終了する。
As a result, the unique correction information storage unit 450 of the image processing apparatus 401 stores the proper correction information β according to the cell type and the culture time, and thus the image processing apparatus 401 uses the threshold value. The cell object can be extracted with high accuracy.
Above, description about the calculation method of the specific correction information (beta) memorize | stored in the specific correction information storage part 450 is complete | finished.

<第6の実施形態:画像処理装置>
次に、本発明の第6の実施形態について説明する。第5の実施形態における画像処理装置401は、細胞種が既知の場合に、画像データから細胞オブジェクトを抽出する。第6の実施形態における画像処理装置401bは、細胞種が未知の場合でも既知の場合でも、画像データから細胞オブジェクトを抽出する。そのため、発明の第6の実施形態における画像処理装置401bは、細胞種を示す情報が入力される場合と入力されない場合に分けて、その処理を行う。
<Sixth Embodiment: Image Processing Device>
Next, a sixth embodiment of the present invention will be described. The image processing apparatus 401 in the fifth embodiment extracts a cell object from image data when the cell type is known. The image processing apparatus 401b in the sixth embodiment extracts a cell object from image data regardless of whether the cell type is unknown or known. For this reason, the image processing apparatus 401b according to the sixth embodiment of the invention performs the processing separately when the information indicating the cell type is input and when the information is not input.

図36は、本発明の第6の実施形態における画像処理装置401bのブロック構成図である。なお、図1と共通する要素には同一の符号を付し、その説明を省略する。
図36の画像処理装置401bの構成は、図29の画像処理装置401の構成に対して、細胞オブジェクト抽出部420が細胞オブジェクト抽出部420bに、固有補正情報生成部440が固有補正情報生成部440bに変更され、共通補正情報記憶部452が追加されたものになっている。
FIG. 36 is a block diagram of an image processing apparatus 401b according to the sixth embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the element which is common in FIG. 1, and the description is abbreviate | omitted.
The configuration of the image processing device 401b in FIG. 36 is different from the configuration of the image processing device 401 in FIG. 29 in that the cell object extraction unit 420 is the cell object extraction unit 420b and the unique correction information generation unit 440 is the unique correction information generation unit 440b. The common correction information storage unit 452 is added.

共通補正情報記憶部452には、培養時間に関連付けられた細胞種間で共通の補正情報である共通補正情報γがテーブルT3として記憶されている。
図37は、共通補正情報記憶部に記憶されている培養時間と共通補正情報γとが関連付けられたテーブルT3の1例である。同図において、テーブルT3では、培養時間と共通補正情報γとが1対1に関連付けられている。
In the common correction information storage unit 452, common correction information γ, which is correction information common among cell types associated with the culture time, is stored as a table T3.
FIG. 37 is an example of a table T3 in which the culture time stored in the common correction information storage unit is associated with the common correction information γ. In the figure, in the table T3, the culture time and the common correction information γ are associated one-to-one.

<細胞オブジェクト抽出方法>
図38は、本発明の第6の実施形態における細胞オブジェクト抽出部420bのブロック構成図である。以下、細胞オブジェクト抽出部420bの変更の詳細について説明する。この細胞オブジェクト抽出部420bの構成は、図31の細胞オブジェクト抽出部420の構成に対して、微分関数算出部424が微分関数算出部424bに変更され、固有閾値算出部425が固有閾値算出部425bに変更され、判定部427と細胞種抽出部430とが追加されたものになっている。
<Cell object extraction method>
FIG. 38 is a block configuration diagram of the cell object extraction unit 420b according to the sixth embodiment of the present invention. Details of the change of the cell object extraction unit 420b will be described below. The configuration of the cell object extraction unit 420b is different from the configuration of the cell object extraction unit 420 of FIG. 31 in that the differential function calculation unit 424 is changed to a differential function calculation unit 424b, and the unique threshold value calculation unit 425 is a unique threshold value calculation unit 425b. The determination unit 427 and the cell type extraction unit 430 are added.

微分関数算出部424bは、累積度数微分関数を算出し、算出した累積度数微分関数の情報を判定部427に出力する。
判定部427は、外部から細胞種を示す情報が入力された場合、細胞種が既知であると判定する。一方、外部から細胞種を示す情報が入力されない場合、判定部427は、細胞種が未知であると判定し、判定部427から入力された累積度数微分関数の情報を細胞種抽出部430の後述する仮閾値設定部431に出力する。
The differential function calculation unit 424b calculates a cumulative frequency differential function, and outputs information on the calculated cumulative frequency differential function to the determination unit 427.
The determination unit 427 determines that the cell type is known when information indicating the cell type is input from the outside. On the other hand, when the information indicating the cell type is not input from the outside, the determination unit 427 determines that the cell type is unknown, and uses the cumulative frequency differential function information input from the determination unit 427 as described later in the cell type extraction unit 430. To the temporary threshold setting unit 431.

細胞種抽出部430は、累積度数微分関数において極小値をとる面積eと共通補正情報γとを加算した値を仮閾値として、その仮閾値以上の面積を有する細胞候補オブジェクトをサンプルオブジェクトとして抽出し、抽出したサンプルオブジェクトから細胞種を示す情報を推定する。以下、細胞種抽出部430の詳細について説明する。細胞種抽出部430は、仮閾値設定部431と、サンプルオブジェクト選択部432と、細胞種推定部433とを備える。   The cell type extraction unit 430 extracts, as a sample object, a cell candidate object having an area equal to or larger than the temporary threshold value by using a value obtained by adding the area e having the minimum value in the cumulative frequency differential function and the common correction information γ as a temporary threshold value. The information indicating the cell type is estimated from the extracted sample object. Hereinafter, details of the cell type extraction unit 430 will be described. The cell type extraction unit 430 includes a temporary threshold setting unit 431, a sample object selection unit 432, and a cell type estimation unit 433.

仮閾値設定部431は、外部から入力された培養時間を示す情報に応じた共通補正情報γを共通補正情報記憶部452から読み出す。仮閾値設定部431は、入力された累積度数微分関数の情報を用いて、累積度数微分関数が極小値を取る面積eを算出する。仮閾値設定部431は、算出した極小値を取る面積eに共通補正情報γを加算した仮閾値を算出し、算出した仮閾値をサンプルオブジェクト選択部432に出力する。   The temporary threshold setting unit 431 reads the common correction information γ corresponding to the information indicating the culture time input from the outside from the common correction information storage unit 452. The temporary threshold setting unit 431 calculates an area e where the cumulative frequency differential function takes a minimum value using the input information of the cumulative frequency differential function. The temporary threshold setting unit 431 calculates a temporary threshold obtained by adding the common correction information γ to the area e where the calculated minimum value is taken, and outputs the calculated temporary threshold to the sample object selection unit 432.

サンプルオブジェクト選択部432は、仮閾値以上の面積を有する細胞候補オブジェクトをサンプルオブジェクトとして選択し、サンプルオブジェクトを示す情報を細胞種推定部433へ出力する。
細胞種推定部433は、サンプルオブジェクトを示す情報を用いて、後述する方法により細胞種を推定し、細胞種を示す情報を固有閾値算出部425bに出力する。
The sample object selection unit 432 selects a cell candidate object having an area equal to or larger than the temporary threshold as a sample object, and outputs information indicating the sample object to the cell type estimation unit 433.
The cell type estimation unit 433 uses the information indicating the sample object to estimate the cell type by a method described later, and outputs the information indicating the cell type to the unique threshold value calculation unit 425b.

固有閾値算出部425bは、判定部427により細胞種が既知であると判定された場合または細胞種推定部433から細胞種を示す情報を受け取った場合、細胞種を示す情報と外部から入力された培養時間を示す情報とに応じた固有補正情報βを固有補正情報記憶部450のテーブルT2から読み出す。固有閾値算出部425bは、累積度数微分関数が極小値を取る面積eを算出する。固有閾値算出部425bは、算出した累積度数微分関数が極小値を取る面積eに固有補正情報βを加算した固有閾値(e+β)を算出し、算出した固有閾値(e+β)を細胞オブジェクト選択部426に出力する。   When the determination unit 427 determines that the cell type is known or when receiving information indicating the cell type from the cell type estimation unit 433, the unique threshold value calculation unit 425b is input with information indicating the cell type from the outside The unique correction information β corresponding to the information indicating the culture time is read from the table T2 of the unique correction information storage unit 450. The inherent threshold value calculation unit 425b calculates an area e where the cumulative frequency differential function takes a minimum value. The unique threshold value calculation unit 425b calculates a unique threshold value (e + β) obtained by adding the unique correction information β to the area e where the calculated cumulative frequency differential function takes the minimum value, and the calculated unique threshold value (e + β) is the cell object selection unit 426. Output to.

<細胞種推定部による細胞種の推定方法>
図39は、本発明の第6の実施形態における細胞種推定部のブロック構成図である。細胞種推定部433は、細胞オブジェクト特徴量算出部460と、分類モデル記憶部462と、細胞分類部464とを備える。
<Cell type estimation method by cell type estimation unit>
FIG. 39 is a block configuration diagram of a cell type estimation unit in the sixth embodiment of the present invention. The cell type estimation unit 433 includes a cell object feature amount calculation unit 460, a classification model storage unit 462, and a cell classification unit 464.

細胞オブジェクト特徴量算出部460は、2値化画像取得部から取得した2値化画像データと、サンプルオブジェクト選択部432から取得した細胞オブジェクトを示す情報とを用いて個々の細胞オブジェクトを認識し、認識した個々の細胞オブジェクトの形態的特徴量を算出する。一例として、細胞オブジェクト特徴量算出部460は、各細胞オブジェクトに対して、図3に示された15種類の形態的特徴量をそれぞれ算出する。   The cell object feature amount calculation unit 460 recognizes each cell object using the binarized image data acquired from the binarized image acquisition unit and the information indicating the cell object acquired from the sample object selection unit 432, The morphological feature amount of each recognized cell object is calculated. As an example, the cell object feature value calculation unit 460 calculates the 15 types of morphological feature values shown in FIG. 3 for each cell object.

例えば、細胞オブジェクト特徴量算出部460は、注目する細胞の領域の画素数に基づいて「Total area」の値を算出することができる。
なお、細胞オブジェクト特徴量算出部460は、細胞内における輝度値が閾値以上となる画素のまとまりをHoleとして検出し、このHoleの画素数に基づいて「Hole area」の値を算出すればよい。
For example, the cell object feature amount calculation unit 460 can calculate the value of “Total area” based on the number of pixels in the cell area of interest.
Note that the cell object feature amount calculation unit 460 may detect a group of pixels whose luminance value in the cell is equal to or greater than the threshold value as a Hole, and calculate the value of “Hole area” based on the number of pixels of the Hole.

また、細胞オブジェクト特徴量算出部460は、細胞を抽出するときの輪郭追跡処理により「Perimeter」の値を取得することができる。
また、細胞オブジェクト特徴量算出部460は、式(1)により「Fiber Length」の値を算出する。
また、細胞オブジェクト特徴量算出部460は、式(2)により「Fiber Breadth」の値を算出する。
また、細胞オブジェクト特徴量算出部460は、式(3)により「Shape Factor」の値を算出する。
In addition, the cell object feature amount calculation unit 460 can acquire the value of “Perimeter” by contour tracking processing when extracting cells.
In addition, the cell object feature amount calculation unit 460 calculates the value of “Fiber Length” using Expression (1).
Further, the cell object feature amount calculation unit 460 calculates the value of “Fiber Breath” according to the equation (2).
In addition, the cell object feature amount calculation unit 460 calculates the value of “Shape Factor” using Expression (3).

ここで、細胞オブジェクト特徴量算出部460は、細胞に対応する画素数に誤差分を加味して上記の各形態的特徴量を算出してもよい。このとき、細胞オブジェクト特徴量算出部460は、顕微鏡画像の撮像条件(観察倍率や顕微鏡の光学系の収差等)を考慮して形態的特徴量を算出するようにしてもよい。なお、「Inner radius」、「Outer radius」、「Mean radius」、「Equivalent radius」を算出するときには、細胞オブジェクト特徴量算出部460は、公知の重心演算の手法に基づいて各細胞の重心点を求め、この重心点を基準にして各パラメータを算出すればよい。   Here, the cell object feature value calculation unit 460 may calculate each of the morphological feature values by adding an error to the number of pixels corresponding to the cell. At this time, the cell object feature amount calculation unit 460 may calculate the morphological feature amount in consideration of the imaging condition of the microscope image (observation magnification, aberration of the optical system of the microscope, etc.). When calculating “Inner radius”, “Outer radius”, “Mean radius”, and “Equivalent radius”, the cell object feature amount calculation unit 460 calculates the center of gravity of each cell based on a known center of gravity calculation method. What is necessary is just to obtain | require and calculate each parameter on the basis of this barycentric point.

図39に戻って、個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部460は、細胞分類部464に個々の細胞オブジェクトの形態的特徴量を示す情報を出力する。   Returning to FIG. 39, the cell object feature amount calculation unit 460 that has calculated the morphological feature amount of each cell object outputs information indicating the morphological feature amount of each cell object to the cell classification unit 464.

分類モデル記憶部462には、所定の分類基準に従って、段階的に細胞オブジェクトの属性を分類する分類モデルがその分類モデルの評価を示す評価値と関連付けられて記憶されている。また、分類されたクラスの固有識別情報(ID)である分類先IDを示す情報と細胞種を示す情報とが関連付けられて記憶されている。
図40は、分類モデル記憶部462に記憶されている情報の一例である。同図において、テーブルT4では、決定木を用いた分類モデルとその分類モデルの評価を示す評価値とが1対1に関連づけられている。
In the classification model storage unit 462, a classification model that classifies the attributes of the cell object in stages according to a predetermined classification criterion is stored in association with an evaluation value indicating the evaluation of the classification model. Further, information indicating the classification destination ID, which is unique identification information (ID) of the classified class, and information indicating the cell type are stored in association with each other.
FIG. 40 is an example of information stored in the classification model storage unit 462. In the figure, in the table T4, the classification model using the decision tree and the evaluation value indicating the evaluation of the classification model are associated one-to-one.

図39に戻って、細胞分類部464は、分類モデル記憶部462から評価値が最も高い分類モデルを読み出し、その分類モデルを用いて、入力された個々の形態的特徴量を示す情報をクラスに分類する。
具体的には、例えば、細胞分類部464は、細胞オブジェクトの各形態的特徴量の平均を算出し、分類木で分岐毎に定められた条件と算出した各形態的特徴量の平均とを比較することによって、その分岐でどちらに分岐するか決定する。細胞分類部464は、最終的に分類された枝に対応付けられた分類先IDを示す情報を抽出する。細胞分類部464は、抽出された分類先IDを示す情報に対応する細胞種を示す情報を分類モデル記憶部462から読み出し、読み出した細胞種を示す情報を固有閾値算出部425bへ出力する。
Returning to FIG. 39, the cell classification unit 464 reads out the classification model having the highest evaluation value from the classification model storage unit 462, and uses the classification model to classify information indicating individual input morphological feature amounts. Classify.
Specifically, for example, the cell classification unit 464 calculates the average of each morphological feature amount of the cell object, and compares the condition determined for each branch in the classification tree with the calculated average of each morphological feature amount. By doing so, it is decided which branch to branch at that branch. The cell classification unit 464 extracts information indicating the classification destination ID associated with the finally classified branch. The cell classification unit 464 reads information indicating the cell type corresponding to the information indicating the extracted classification destination ID from the classification model storage unit 462, and outputs the information indicating the read cell type to the unique threshold value calculation unit 425b.

図41は、第6の実施形態における画像処理装置401bにおいて、ある細胞種がある培養時間において撮像された画像データから細胞オブジェクトを抽出する処理の流れを示したフローチャートである。ステップS801からステップS805までの処理は図32のステップS601からステップS605までの処理と同一であるので、その説明を省略する。   FIG. 41 is a flowchart showing a flow of processing for extracting a cell object from image data captured at a certain culture time in a certain cell type in the image processing apparatus 401b according to the sixth embodiment. Since the processing from step S801 to step S805 is the same as the processing from step S601 to step S605 in FIG. 32, the description thereof is omitted.

次に、判定部427は、細胞種を示す情報が入力されているか否かを判定する(ステップS806)。細胞種を示す情報が入力されている場合(ステップS806 NO)、判定部427は細胞種が既知であると判定し、ステップS810の処理に進む。一方、細胞種を示す情報が入力されている場合(ステップS806 YES)、判定部427は細胞種が未知であると判定し、累積度数微分関数の情報を仮閾値設定部431に出力する。   Next, the determination unit 427 determines whether or not information indicating a cell type has been input (step S806). When the information indicating the cell type is input (NO in step S806), the determination unit 427 determines that the cell type is known, and proceeds to the process of step S810. On the other hand, when information indicating the cell type is input (YES in step S806), the determination unit 427 determines that the cell type is unknown, and outputs information on the cumulative frequency differential function to the temporary threshold setting unit 431.

次に、仮閾値設定部431は、仮閾値を算出する(ステップS807)。次に、サンプルオブジェクト選択部432は、細胞候補オブジェクトのうちから仮閾値以上の面積を有する細胞候補オブジェクトをサンプルオブジェクトとして選択する(ステップS808)。次に、細胞種推定部433は、サンプルオブジェクトを示す情報からサンプルオブジェクトの細胞種を推定する(ステップS809)。   Next, the temporary threshold setting unit 431 calculates a temporary threshold (step S807). Next, the sample object selection unit 432 selects a cell candidate object having an area equal to or larger than the temporary threshold from the cell candidate objects as a sample object (step S808). Next, the cell type estimation unit 433 estimates the cell type of the sample object from the information indicating the sample object (step S809).

次に、固有閾値算出部425bは、細胞種を示す情報に基づいて、固有閾値(e+β)を算出する(ステップS810)。次に、細胞オブジェクト選択部426は、細胞候補オブジェクトのうちから固有閾値(e+β)以上の面積を有する細胞候補オブジェクトを細胞オブジェクトとして選択する(ステップS811)。以上で、本フローチャートの処理を終了する。   Next, the unique threshold value calculation unit 425b calculates a unique threshold value (e + β) based on the information indicating the cell type (step S810). Next, the cell object selection unit 426 selects a cell candidate object having an area equal to or larger than the specific threshold (e + β) from the cell candidate objects as a cell object (step S811). Above, the process of this flowchart is complete | finished.

以上により、画像処理装置401bは、細胞種が未知の画像データが入力されても、細胞種を推定し、細胞種を推定した後に、細胞種に固有の固有閾値(e+β)を用いて、細胞オブジェクトを抽出するので、細胞種が未知の場合でも精度良く細胞オブジェクトを抽出することができる。   As described above, even if image data whose cell type is unknown is input to the image processing device 401b, after estimating the cell type and estimating the cell type, the image processing apparatus 401b uses the inherent threshold (e + β) specific to the cell type to Since the object is extracted, the cell object can be accurately extracted even when the cell type is unknown.

画像処理装置401bは、細胞種が未知でも既知でも、画像データから画像データ内の細胞オブジェクトを多くかつ正確に抽出することができる。また、画像処理装置401bは、細胞種が未知でも既知でも、画像データ中に含まれるノイズを細胞オブジェクトとして誤認識することを防ぐことができる。   Regardless of whether the cell type is unknown or known, the image processing apparatus 401b can extract many and accurate cell objects in the image data from the image data. Further, the image processing apparatus 401b can prevent erroneous recognition of noise included in the image data as a cell object regardless of whether the cell type is unknown or known.

<固有補正情報記憶部及び共通補正情報記憶部のデータ構築方法>
図36に戻って、固有補正情報生成部440bの変更の詳細について説明すると、この固有補正情報生成部440bの構成は、図29の固有補正情報生成部440の構成に対して、誤差算出部444が誤差算出部444bに、認識数記憶部46が認識数記憶部446bに、補正情報設定部448が補正情報設定部448bに、変更されたものになっている。
<Data Construction Method of Unique Correction Information Storage Unit and Common Correction Information Storage Unit>
Returning to FIG. 36, the details of the change of the specific correction information generation unit 440b will be described. The configuration of the specific correction information generation unit 440b is different from the configuration of the specific correction information generation unit 440 in FIG. Are changed to an error calculation unit 444b, a recognition number storage unit 46 is changed to a recognition number storage unit 446b, and a correction information setting unit 448 is changed to a correction information setting unit 448b.

細胞オブジェクト抽出部420bは、細胞種毎に、閾値のずらし量β’を初期値(例えば、−100)から所定の刻み幅(例えば、2)で最終値(例えば、100)までずらすたびに、極小値eに閾値のずらし量β’を加算した値e+β’を閾値として、細胞オブジェクトを抽出する。細胞オブジェクト抽出部420bは、細胞種iを示す情報と培養時間tを示す情報と閾値のずらし量β’を示す情報とともに、抽出した細胞オブジェクトoを示す情報を細胞計数部442に出力する。   Each time the cell object extraction unit 420b shifts the threshold shift amount β ′ for each cell type from an initial value (for example, −100) to a final value (for example, 100) with a predetermined step size (for example, 2), A cell object is extracted using a value e + β ′ obtained by adding a threshold shift amount β ′ to the minimum value e as a threshold value. The cell object extraction unit 420b outputs information indicating the extracted cell object o to the cell counting unit 442 together with information indicating the cell type i, information indicating the culture time t, and information indicating the threshold shift amount β ′.

細胞計数部442では、細胞オブジェクトを示す情報に基づいて、その細胞オブジェクトの数である認識数nを計数し、細胞種iを示す情報と培養時間tを示す情報と閾値のずらし量β’を示す情報とともに、認識数nを示す情報を誤差算出部444bに出力する。   Based on the information indicating the cell object, the cell counting unit 442 counts the recognition number n, which is the number of the cell object, and displays the information indicating the cell type i, the information indicating the culture time t, and the threshold shift amount β ′. The information indicating the number of recognition n is output to the error calculation unit 444b together with the information indicating.

続いて、誤差算出部444bの処理について、まずは1つの細胞種について説明する。誤差算出部444bは、細胞計数部442から入力された認識数nを示す情報を式(1)に適用して、誤差の割合ERを算出する。
誤差算出部444bは、誤差の割合ERを示す情報を閾値のずらし量β’を示す情報と培養時間を示す情報とに関係付けて、認識数記憶部446bの細胞種毎のテーブル(例えば、テーブルT2a)に記憶させる。誤差算出部444bは、上記の処理を全ての細胞種に対して行う。
Subsequently, regarding the processing of the error calculation unit 444b, first, one cell type will be described. The error calculation unit 444b applies the information indicating the recognition number n input from the cell counting unit 442 to the equation (1) to calculate the error ratio ER.
The error calculation unit 444b associates the information indicating the error ratio ER with the information indicating the threshold shift amount β ′ and the information indicating the culture time, and stores a table (for example, a table) for each cell type in the recognition number storage unit 446b. Stored in T2a). The error calculation unit 444b performs the above process on all cell types.

図42は、認識数記憶部に記憶されている誤差の割合ERのテーブルの1例を示した図である。図42(a)のテーブルT2a、図42(b)のテーブルT2b、図42(c)のテーブルT2cには、それぞれ異なる細胞種における誤差の割合ER[%]が培養時間と閾値のずらし量とに関連付けられている。培養時間[h]は、細胞が播種された時間を0時間として、8時間後から4時間刻みで示されている。閾値のずらし量β’は、−100から2刻みで100までの数である。   FIG. 42 is a diagram illustrating an example of a table of error ratios ER stored in the recognition number storage unit. In table T2a in FIG. 42 (a), table T2b in FIG. 42 (b), and table T2c in FIG. 42 (c), the error rate ER [%] in each different cell type indicates the culture time and the threshold shift amount. Associated with. The culture time [h] is shown in increments of 4 hours from 8 hours after the time when the cells were seeded as 0 hour. The threshold shift amount β ′ is a number from −100 to 100 in increments of 2.

図36に戻って、認識数記憶部446bは、細胞種毎に、誤差の割合ERを示す情報が閾値のずらし量β’を示す情報と培養時間を示す情報とに関係付けられて記憶されている。具体的には、例えば、図42に示されるように、認識数記憶部446bは、3つの細胞種それぞれに、閾値のずらし量β’を示す情報と培養時間を示す情報とに関係付けられた誤差の割合ERを示す情報のテーブルが記憶されている。   Returning to FIG. 36, the number-of-recognition storage unit 446b stores, for each cell type, information indicating the error ratio ER in relation to information indicating the threshold shift amount β ′ and information indicating the culture time. Yes. Specifically, for example, as shown in FIG. 42, the recognition number storage unit 446b is associated with information indicating the threshold shift amount β ′ and information indicating the culture time for each of the three cell types. A table of information indicating the error ratio ER is stored.

補正情報設定部448bは、認識数記憶部446bに記憶されたある細胞種のテーブルのデータが全て格納された場合、そのテーブルにおいて、培養時間毎に誤差の割合ERが例えば、0[%]から20[%]にあたる閾値のずらし量β’を抽出し、抽出した閾値のずらし量β’の中央値を算出する。補正情報設定部448bは、算出した中央値を固有補正情報βとして、細胞種および培養時間と関連付けて固有補正情報記憶部450に記憶させる。   When all the data of a table of a certain cell type stored in the recognition number storage unit 446b is stored in the correction information setting unit 448b, the error ratio ER for each culture time in the table is, for example, from 0 [%]. The threshold shift amount β ′ corresponding to 20 [%] is extracted, and the median value of the extracted threshold shift amounts β ′ is calculated. The correction information setting unit 448b stores the calculated median value in the specific correction information storage unit 450 as the specific correction information β in association with the cell type and the culture time.

なお、補正情報設定部448bは、抽出した閾値のずらし量β’の中央値を固有補正情報βとしたが、これに限らず、抽出した閾値のずらし量β’のうちのいずれかの値を固有補正情報βに設定してもよい。また、補正情報設定部448bは、抽出した閾値のずらし量β’の平均値を固有補正情報βとしてもよい。   The correction information setting unit 448b sets the median value of the extracted threshold shift amount β ′ as the inherent correction information β, but is not limited thereto, and any one of the extracted threshold shift amounts β ′ is used. The inherent correction information β may be set. Further, the correction information setting unit 448b may use the average value of the extracted threshold shift amounts β ′ as the specific correction information β.

補正情報設定部448bは、認識数記憶部446bに記憶されたn個(nは正の整数)すべての細胞種のテーブルにおいて、ある培養時間の誤差の割合ERが格納されたか否かを判定する。   The correction information setting unit 448b determines whether or not the error rate ER of a certain culture time has been stored in the table of all n cell types (n is a positive integer) stored in the recognition number storage unit 446b. .

認識数記憶部446bに記憶されたM個(Mは正の整数)すべての細胞種のテーブルにおいて、ある培養時間の誤差の割合ERが格納された場合、補正情報設定部448bは、認識数記憶部446bから複数の閾値のずらし量(以下、閾値のずらし量群と称する)を抽出する。具体的には、補正情報設定部448bは、認識数記憶部446bに記憶されている第j番目(jは1からMまでの整数)の細胞種に対応する第j番目のテーブルにおいて、培養時間毎に誤差の割合ERが例えば、10[%]から30[%]にあたる閾値のずらし量群を抽出する。   In the table of all M cell types (M is a positive integer) stored in the recognition number storage unit 446b, when the error rate ER of a certain culture time is stored, the correction information setting unit 448b stores the recognition number storage. A plurality of threshold shift amounts (hereinafter referred to as a threshold shift amount group) are extracted from the unit 446b. Specifically, the correction information setting unit 448b uses the culture time in the jth table corresponding to the jth cell type (j is an integer from 1 to M) stored in the recognition number storage unit 446b. A threshold shift amount group in which the error ratio ER is, for example, 10 [%] to 30 [%] is extracted every time.

補正情報設定部448bは、培養時間毎に、第1から第n番目までのテーブルから抽出されたn個の閾値のずらし量群のうち全てのずらし量群に共通する閾値のずらし量群を抽出する。補正情報設定部448bは、抽出した共通する閾値のずらし量群の中央値を算出し、算出した中央値を共通補正情報γとして、培養時間と関連付けて共通補正情報記憶部452に記憶させる。   The correction information setting unit 448b extracts a threshold shift amount group common to all the shift amount groups among the n threshold shift amount groups extracted from the first to nth tables for each culture time. To do. The correction information setting unit 448b calculates the median value of the extracted common threshold shift amount group, and stores the calculated median value in the common correction information storage unit 452 as the common correction information γ in association with the culture time.

補正情報設定部448bは、全ての培養時間の誤差の割合ERに対して、上記の処理を行うことにより、全ての培養時間における共通補正情報γを算出することができる。   The correction information setting unit 448b can calculate the common correction information γ for all the culture times by performing the above processing on the error ratio ER of all the culture times.

なお、補正情報設定部448bは、共通する閾値のずらし量群β’の中央値を共通補正情報γとしたが、これに限らず、共通する閾値のずらし量β’のうちのいずれかの値を共通補正情報γに設定してもよい。また、補正情報設定部448bは、共通する閾値のずらし量群β’の平均値を共通補正情報γとしてもよい。   The correction information setting unit 448b sets the common value of the common threshold shift amount group β ′ as the common correction information γ, but is not limited thereto, and any value of the common threshold shift amount β ′ is used. May be set in the common correction information γ. The correction information setting unit 448b may use the average value of the common threshold shift amount group β ′ as the common correction information γ.

図43は、第6の実施形態における画像処理装置401bにおいて、所定の培養時間におけるある細胞種の固有補正情報βと共通補正情報γとを算出する処理の流れを示したフローチャートである。まず、画像処理装置401bは、固有補正情報βを算出し、算出した固有補正情報βを細胞種および培養時間と関連付けて固有補正情報記憶部450に記憶させる(ステップS901)。ステップS901の処理の詳細は、図35のステップS701からステップS715と同一であるので、その処理の詳細な説明を省略する。   FIG. 43 is a flowchart showing a flow of processing for calculating specific correction information β and common correction information γ of a certain cell type in a predetermined culture time in the image processing apparatus 401b according to the sixth embodiment. First, the image processing apparatus 401b calculates unique correction information β, and stores the calculated unique correction information β in the unique correction information storage unit 450 in association with the cell type and the culture time (step S901). Details of the processing in step S901 are the same as those in steps S701 to S715 in FIG. 35, and thus detailed description of the processing is omitted.

次に、補正情報設定部448bは、認識数記憶部446bに記憶されたM個(Mは正の整数)すべての細胞種のテーブルにおいて、所定の培養時間の誤差の割合ERが格納されたか否か判定する(ステップS902)。認識数記憶部446bに所定の培養時間の誤差の割合ERがすべて格納されていない場合(ステップS902 NO)、画像処理装置401bは、格納されていない細胞種に対して、ステップS901の処理を行う。   Next, the correction information setting unit 448b stores whether or not the error rate ER of a predetermined culture time is stored in the table of all M cell types (M is a positive integer) stored in the recognition number storage unit 446b. (Step S902). When all the error rates ER of the predetermined culture time are not stored in the recognized number storage unit 446b (NO in step S902), the image processing device 401b performs the process of step S901 on the cell types that are not stored. .

一方、認識数記憶部446bにある培養時間の誤差の割合ERがすべて格納されている場合(ステップS902 YES)、補正情報設定部448bは、共通補正情報γを算出する(ステップS903)。次に、補正情報設定部448bは、算出した共通補正情報γを培養時間と関連付けて共通補正情報記憶部452に記憶させる。以上で、本フローチャートの処理を終了する。   On the other hand, when all the culture time error ratios ER stored in the recognized number storage unit 446b are stored (YES in step S902), the correction information setting unit 448b calculates common correction information γ (step S903). Next, the correction information setting unit 448b stores the calculated common correction information γ in the common correction information storage unit 452 in association with the culture time. Above, the process of this flowchart is complete | finished.

以上により、画像処理装置401bは、固有補正情報βを固有補正情報記憶部450に記憶させ、共通補正情報γを共通補正情報記憶部452に記憶させることができる。これにより、画像処理装置401bは、細胞種に共通の共通補正情報γを用いて、画像データと培養時間を示す情報とから細胞種を推定することができる。
また画像処理装置401bは、推定された細胞種に固有の固有補正情報βを用いて、画像データと培養時間を示す情報と細胞種を示す情報とから細胞オブジェクトを精度良く抽出することができる。
As described above, the image processing apparatus 401b can store the unique correction information β in the unique correction information storage unit 450 and can store the common correction information γ in the common correction information storage unit 452. Thereby, the image processing apparatus 401b can estimate the cell type from the image data and the information indicating the culture time using the common correction information γ common to the cell type.
The image processing apparatus 401b can accurately extract a cell object from the image data, the information indicating the culture time, and the information indicating the cell type by using the inherent correction information β specific to the estimated cell type.

<第7の実施形態:細胞分類装置>
続いて、本発明の第7の実施形態における細胞分類装置について説明する。図44は、本発明の第7の実施形態における細胞分類装置のブロック構成図である。細胞分類装置404は、外部から入力された画像データと、細胞の種類を示す情報と、培養時間を示す情報と、視認数nを示す情報とに基づいて、細胞の情報を推定し、推定した細胞の情報を外部へ出力する。
<Seventh Embodiment: Cell Sorting Apparatus>
Then, the cell classification device in the 7th Embodiment of this invention is demonstrated. FIG. 44 is a block diagram of a cell classification device according to the seventh embodiment of the present invention. Cell sorting apparatus 404 estimates the image data input from the outside, and information indicating the type of cell, and information indicating the incubation time, based on the information indicating the viewing number n 0, the information of the cell, the estimated Output the information of the completed cells to the outside.

細胞分類装置404は、画像処理装置401bと、細胞情報推定部433bとを備える。画像処理装置401bは、外部から入力された画像データと、細胞の種類を示す情報と、培養時間を示す情報と、視認数nを示す情報とに基づいて、細胞オブジェクトを抽出し、細胞オブジェクトの抽出の際に算出した2値化画像データとともに、抽出した細胞オブジェクトを示す情報を細胞種推定部433bに出力する。画像処理装置401bは、図36と同一であるので、その処理内容の詳細な説明を省略する。 The cell classification device 404 includes an image processing device 401b and a cell information estimation unit 433b. The image processing apparatus 401b extracts an image data inputted from outside, and information indicating the type of cell, and information indicating the incubation time, based on the information indicating the viewing number n 0, the cell object, cell object Along with the binarized image data calculated at the time of extraction, information indicating the extracted cell object is output to the cell type estimation unit 433b. Since the image processing apparatus 401b is the same as that in FIG. 36, a detailed description of the processing contents is omitted.

細胞情報推定部433bは、画像処理装置401bから入力された2値化画像データと画像オブジェクトを示す情報とに基づいて、細胞オブジェクトを分類し、分類先IDに対応する細胞の情報を読み出し、読み出した細胞の情報を外部へ出力する。細胞種推定部433bは、図39の細胞種推定部433と同様に、細胞オブジェクト特徴量算出部460bと、分類モデル記憶部462bと、細胞分類部464bとを備える。   The cell information estimation unit 433b classifies the cell object based on the binarized image data input from the image processing device 401b and information indicating the image object, reads out and reads out the cell information corresponding to the classification destination ID. Cell information is output to the outside. Similarly to the cell type estimation unit 433 in FIG. 39, the cell type estimation unit 433b includes a cell object feature amount calculation unit 460b, a classification model storage unit 462b, and a cell classification unit 464b.

細胞オブジェクト特徴量算出部460bは、図39の細胞オブジェクト特徴量算出部460と同様に、入力された2値化画像データと画像オブジェクトを示す情報と用いて個々の細胞オブジェクトを認識し、認識した個々の細胞オブジェクトの形態的特徴量を算出する。一例として、細胞オブジェクト特徴量算出部460bは、各細胞オブジェクトについて上述した15種類の形態的特徴量をそれぞれ算出する。細胞オブジェクト特徴量算出部460bは、算出した個々の細胞オブジェクトの形態的特徴量を示す情報を細胞分類部464bに出力する。   Similar to the cell object feature value calculation unit 460 of FIG. 39, the cell object feature value calculation unit 460b recognizes and recognizes each cell object using the input binary image data and information indicating the image object. The morphological feature amount of each cell object is calculated. As an example, the cell object feature amount calculation unit 460b calculates the 15 types of morphological feature amounts described above for each cell object. The cell object feature amount calculation unit 460b outputs information indicating the calculated morphological feature amount of each cell object to the cell classification unit 464b.

分類モデル記憶部462bには、図39の分類モデル記憶部462と同様に、所定の分類基準に従って、段階的に細胞オブジェクトの属性を分類する分類モデルを示す情報がその分類モデルの評価を示す評価値を示す情報と関連付けられて記憶されている。また、分類されたクラスのIDである分類先IDを示す情報と細胞の情報(例えば、細胞の活性を示す情報又は細胞の品質を示す情報)とが関連付けられて記憶されている。   In the classification model storage unit 462b, as in the case of the classification model storage unit 462 of FIG. 39, information indicating a classification model that classifies the attributes of the cell object step by step according to a predetermined classification criterion is an evaluation indicating the evaluation of the classification model. It is stored in association with information indicating a value. Further, information indicating a classification destination ID that is an ID of a classified class and cell information (for example, information indicating cell activity or information indicating cell quality) are stored in association with each other.

細胞分類部464bは、分類モデル記憶部462bから評価値が最も高い分類モデルを読み出し、その分類モデルを用いて、入力された個々の細胞オブジェクトの形態的特徴量を示す情報を分類する。
具体的には、例えば、細胞分類部464bは、細胞オブジェクトの各形態的特徴量の平均を算出し、分類木で分岐毎に定められた条件と算出した各形態的特徴量の平均を比較することによって、その分岐でどちらに分岐するか決定する。細胞分類部464bは、最終的に分類された枝に設定されている分類先IDを示す情報を読み出す。
The cell classification unit 464b reads out the classification model having the highest evaluation value from the classification model storage unit 462b, and classifies information indicating the morphological feature amount of each input cell object using the classification model.
Specifically, for example, the cell classification unit 464b calculates the average of each morphological feature amount of the cell object, and compares the condition determined for each branch in the classification tree with the calculated average of each morphological feature amount. Depending on the situation, it is decided which branch to branch at that branch. The cell classification unit 464b reads information indicating the classification destination ID set in the finally classified branch.

細胞分類部464bは、読み出した分類先IDを示す情報に対応付けられた細胞の情報を分類モデル記憶部462bから読み出し、読み出した細胞の情報を外部へ出力する。例えば、細胞分類部464bは、分類先IDを示す情報に対応付けられた細胞の活性を示す情報又は細胞の品質を示す情報を分類モデル記憶部462bから読み出し、読み出した細胞の活性を示す情報又は細胞の品質を示す情報を外部へ出力する。   The cell classification unit 464b reads out cell information associated with the information indicating the read classification destination ID from the classification model storage unit 462b, and outputs the read cell information to the outside. For example, the cell classification unit 464b reads information indicating the activity of the cell or information indicating the quality of the cell associated with the information indicating the classification destination ID from the classification model storage unit 462b, and information indicating the read cell activity or Outputs information indicating cell quality to the outside.

以上により、細胞分類装置404は、細胞種が未知でも既知でも画像データから画像データ内の細胞オブジェクトを多くかつ正確に抽出することができるので、細胞分類装置404は、1つの画像データ中に存在する多くの細胞オブジェクトについて分類することができる。また、細胞分類装置404は、細胞種が未知でも既知でも、画像データ中に含まれるノイズを細胞オブジェクトとして誤認識することを防ぐことができる。上記のことから、細胞分類装置404は、画像データに撮像された細胞を精度良く分類することができるので、細胞の活性または細胞の品質を精度良く推定することができる。   As described above, since the cell classification device 404 can extract many and accurate cell objects in the image data from the image data regardless of whether the cell type is unknown or known, the cell classification device 404 exists in one image data. Many cell objects can be classified. In addition, the cell classification device 404 can prevent erroneous recognition of noise included in image data as a cell object regardless of whether the cell type is unknown or known. From the above, the cell classification device 404 can classify the cells captured in the image data with high accuracy, and therefore can estimate the cell activity or the cell quality with high accuracy.

なお、細胞分類部464bは、属性情報が未知である画像データを分類した場合、培養条件を含む属性情報を分類結果として外部に出力してもよい。具体的には、細胞分類部464bは、属性情報が未知である画像データから得られた個々の特徴的検索オブジェクトを分類したときは、少なくとも、個々の特徴的検索オブジェクトの分類先の枝に設定されている分類先IDを外部に出力する。例えば、細胞分類部464bは、個々の特徴的検索オブジェクトの分類先IDに加えて、各分類先IDに対応付けられている属性情報、又は、個々の特徴的検索オブジェクトの形態的特徴量の何れか一方又は両方を外部に出力してもよい。   In addition, when classifying image data with unknown attribute information, the cell classification unit 464b may output attribute information including culture conditions to the outside as a classification result. Specifically, when classifying individual characteristic search objects obtained from image data whose attribute information is unknown, the cell classification unit 464b sets at least the branch destination of the individual characteristic search objects. The classified classification ID is output to the outside. For example, in addition to the classification destination ID of each characteristic search object, the cell classification unit 464b can select either attribute information associated with each classification destination ID or a morphological feature amount of each characteristic search object. Either one or both may be output to the outside.

また、本発明の第7の実施形態における細胞分類装置404内の画像処理装置401bを第5の実施形態における画像処理装置401に置き換えてもよい。その場合、細胞分類装置404は、細胞種が既知の画像データから画像データに撮像された細胞を分類することができる。   In addition, the image processing device 401b in the cell classification device 404 in the seventh embodiment of the present invention may be replaced with the image processing device 401 in the fifth embodiment. In that case, the cell classification device 404 can classify the imaged cells from image data with known cell types into image data.

<第8の実施形態:インキュベータ>
続いて、本発明の第8の実施形態におけるインキュベータについて説明する。図45は、第7の実施形態で示された細胞分類装置404の機能を兼ね備えるインキュベータの概要を示すブロック構成図である。
<Eighth Embodiment: Incubator>
Next, an incubator according to the eighth embodiment of the present invention will be described. FIG. 45 is a block configuration diagram showing an outline of an incubator having the function of the cell classification device 404 shown in the seventh embodiment.

インキュベータ511は、上部ケーシング512と下部ケーシング513と、細胞分類装置404とを有する。インキュベータ511の組立状態において、上部ケーシング512は下部ケーシング513の上に載置される。なお、上部ケーシング512と下部ケーシング513との内部空間は、ベースプレート514によって上下に仕切られている。   The incubator 511 includes an upper casing 512, a lower casing 513, and a cell sorting device 404. In the assembled state of the incubator 511, the upper casing 512 is placed on the lower casing 513. Note that the internal space between the upper casing 512 and the lower casing 513 is vertically divided by a base plate 514.

まず、上部ケーシング512の構成の概要を説明する。図45において、上部ケーシング512の内部には、細胞の培養を行う恒温室515が形成されている。この恒温室515は温度調整装置515a及び湿度調整装置515bを有しており、恒温室515内は細胞の培養に適した環境(例えば温度37℃、湿度90%の雰囲気)に維持されている。   First, an outline of the configuration of the upper casing 512 will be described. In FIG. 45, a temperature-controlled room 515 for culturing cells is formed inside the upper casing 512. The temperature-controlled room 515 includes a temperature adjusting device 515a and a humidity adjusting device 515b. The temperature-controlled room 515 is maintained in an environment suitable for cell culture (for example, an atmosphere having a temperature of 37 ° C. and a humidity of 90%).

培地交換装置523は、恒温室515に配置され、この培地交換装置523は、後述する制御装置(培養条件制御部)541から入力された制御信号に基づいて、細胞が培養されている培養容器の培地を交換する。   The culture medium exchange device 523 is disposed in the temperature-controlled room 515, and the culture medium exchange device 523 is a culture container in which cells are cultured based on a control signal input from a control device (culture condition control unit) 541 described later. Change the medium.

観察ユニット522は、恒温室515に配置され、この観察ユニット522は、培養容器519内の細胞のタイムラプス観察を実行することができる。ここで、観察ユニット522は、上部ケーシング512のベースプレート514の開口部に嵌め込まれて配置される。   The observation unit 522 is disposed in the temperature-controlled room 515, and the observation unit 522 can execute time-lapse observation of cells in the culture vessel 519. Here, the observation unit 522 is disposed by being fitted into the opening of the base plate 514 of the upper casing 512.

観察ユニット522にはLED光源335が内蔵されている。そして、撮像装置534は、試料台の上側から透過照明された培養容器の細胞を、顕微鏡の光学系を介して撮像することで細胞の顕微鏡画像を取得できる。撮像装置534は、取得した顕微鏡画像を画像データに変換し、変換した画像データを細胞分類装置404に出力する。   The observation unit 522 has a built-in LED light source 335. And the imaging device 534 can acquire the microscope image of a cell by imaging the cell of the culture container permeate | transmitted and illuminated from the upper side of the sample stand through the optical system of a microscope. The imaging device 534 converts the acquired microscope image into image data, and outputs the converted image data to the cell classification device 404.

細胞分類装置404は、撮像装置534から入力された画像データに基づいて、その画像データに撮像された細胞を分類し、分類先に設定された分類先IDを取得し、取得した分類先IDに対応する細胞の情報を読み出す。細胞分類装置404は、読み出した細胞の情報を制御装置(培養条件制御部)541に出力する。   The cell classification device 404 classifies the cells imaged in the image data based on the image data input from the imaging device 534, acquires the classification destination ID set as the classification destination, and sets the acquired classification destination ID. Read the corresponding cell information. The cell classification device 404 outputs the read cell information to the control device (culture condition control unit) 541.

制御装置(培養条件制御部)541は、温度調整装置515a、湿度調整装置515b、観察ユニット522及び培地交換装置523とそれぞれ接続されている。この制御装置541は、所定のプログラムに従ってインキュベータ511の各部を統括的に制御する。   The control device (culture condition control unit) 541 is connected to the temperature adjustment device 515a, the humidity adjustment device 515b, the observation unit 522, and the culture medium exchange device 523, respectively. The control device 541 comprehensively controls each unit of the incubator 511 according to a predetermined program.

制御装置(培養条件制御部)541は、CPU542及び記憶部543を有し、細胞分類装置404から入力された細胞の情報を基に、恒温室の環境条件を変更する。具体的には、例えば、制御装置(培養条件制御部)541は、細胞分類装置404から入力された細胞の情報を基に、温度調整装置515aを制御して恒温室の温度を調整するか、または湿度調整装置515bを制御して恒温室の湿度を調整する。これにより、制御装置(培養条件制御部)541は、恒温室515内を所定の環境条件に維持することができる。   The control device (culture condition control unit) 541 includes a CPU 542 and a storage unit 543, and changes the environmental conditions of the temperature-controlled room based on the cell information input from the cell classification device 404. Specifically, for example, the control device (culture condition control unit) 541 adjusts the temperature of the temperature-controlled room by controlling the temperature adjustment device 515a based on the cell information input from the cell classification device 404, or Alternatively, the humidity adjusting device 515b is controlled to adjust the humidity of the temperature-controlled room. Thereby, the control apparatus (culture condition control part) 541 can maintain the inside of the temperature-controlled room 515 to a predetermined environmental condition.

また、制御装置(培養条件制御部)541は、細胞分類装置404で推定された細胞の情報を基に、細胞を培養する培地を変更する。具体的には、例えば、制御装置(培養条件制御部)541は、細胞分類装置404から入力された細胞の情報を基に、培地交換装置523を制御して培養容器中の培地を交換する。これにより、制御装置(培養条件制御部)541は、培養容器中の培地を所定の状態に維持することができる。   In addition, the control device (culture condition control unit) 541 changes the medium in which the cells are cultured based on the cell information estimated by the cell classification device 404. Specifically, for example, the control device (culture condition control unit) 541 controls the medium replacement device 523 to replace the medium in the culture vessel based on the cell information input from the cell classification device 404. Thereby, the control apparatus (culture condition control part) 541 can maintain the culture medium in a culture container in a predetermined state.

記憶部543は、ハードディスクや、フラッシュメモリ等の不揮発性の記憶媒体などで構成される。この記憶部543には、ストッカー521に収納されている各培養容器519に関する管理データと、撮像装置で撮像された顕微鏡画像のデータとが記憶されている。さらに、記憶部543には、CPU542によって実行されるプログラムが記憶されている。   The storage unit 543 is configured by a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 543 stores management data related to each culture vessel 519 stored in the stocker 521 and data of a microscope image captured by the imaging device. Further, the storage unit 543 stores a program executed by the CPU 542.

図46は、第7の実施形態で示された細胞分類装置404の機能を兼ね備えるインキュベータ511の動作の一例を示すフローチャートである。図46に示すフローチャートの開始時において、インキュベータ511には所望の増殖すべき細胞を培養する培養容器が置かれているものとする。また、上述の如く、インキュベータ511が備える細胞分類装置404は、分類先IDとともに培養条件を含む属性情報を分類結果として出力するものとする。   FIG. 46 is a flowchart showing an example of the operation of the incubator 511 having the function of the cell classification device 404 shown in the seventh embodiment. At the start of the flowchart shown in FIG. 46, it is assumed that the incubator 511 is provided with a culture container for culturing cells to be proliferated. Further, as described above, the cell classification device 404 included in the incubator 511 outputs attribute information including the culture condition together with the classification destination ID as the classification result.

図46において、インキュベータ511は、細胞の培養を開始する(ステップS1000)。即ち、CPU542は、設定された培養条件(例えば所定の温度、湿度等)で細胞を培養するよう温度調整装置515aと湿度調整装置515bとを制御する。所定期間経過後に、インキュベータ511は、培養中の細胞を分類する(ステップS1010)。即ち、CPU542は、撮像装置534を制御して、培養中の細胞を撮像し、次いで、記憶部543から細胞分類装置404の各処理を実行するためのプログラムを読み出し、読み出したプログラムを実行することによって、培養中の細胞を分類する。     In FIG. 46, the incubator 511 starts cell culture (step S1000). That is, the CPU 542 controls the temperature adjustment device 515a and the humidity adjustment device 515b so that the cells are cultured under the set culture conditions (for example, predetermined temperature, humidity, etc.). After a predetermined period of time, the incubator 511 classifies the cells in culture (step S1010). That is, the CPU 542 controls the imaging device 534 to image cells in culture, and then reads out a program for executing each process of the cell classification device 404 from the storage unit 543 and executes the read program. Sort the cells in culture.

次いで、インキュベータ511は、分類結果に基づいて、細胞の培養を中止するか否か、または、細胞の培養条件を変更するか否かを制御する。具体的には、まず、CPU542は、分類結果によって示される細胞の品質が、ステップS1000において設定された目的とする品質に合致するか否かを判断する(ステップS1020)。CPU542は、分類結果によって示される細胞の品質が設定された目的とする品質に合致すると判断した場合(ステップS1020 YES)、分類結果によって示される細胞の品質と設定された目的とする品質とが合致した旨をモニタ等(非図示)に表示させる(ステップS1022)。そして後述するステップS1060に進む。     Next, the incubator 511 controls whether or not to stop the cell culture or change the cell culture conditions based on the classification result. Specifically, first, the CPU 542 determines whether or not the cell quality indicated by the classification result matches the target quality set in step S1000 (step S1020). When the CPU 542 determines that the cell quality indicated by the classification result matches the target quality set (YES in step S1020), the cell quality indicated by the classification result matches the target quality set. A message to the effect is displayed on a monitor or the like (not shown) (step S1022). And it progresses to step S1060 mentioned later.

一方、CPU542は、分類結果に含まれる細胞の品質が所定の目的とする品質と合致しないと判断した場合(ステップS1020 NO)、分類結果によって示される細胞の品質と設定された目的とする品質とが合致しない旨をモニタ等(非図示)に表示させるとともに(ステップS1024)、培養を中止するか否かを判断する(ステップS1030)。具体的には、例えば、CPU542は、分類結果によって示される細胞の品質と設定された目的とする品質の一致しない程度が非常に大きい場合に、培養を中止すると判断する。例えば、分類結果によって示される細胞の品質を示す値と設定された目的とする品質を示す値との差が所定の第1の閾値以上である場合に、培養を中止すると判断する。なお、CPU542は、培養を中止する旨の操作者の入力があった場合にも、培養を中止すると判断する。     On the other hand, if the CPU 542 determines that the quality of the cells included in the classification result does not match the predetermined target quality (NO in step S1020), the CPU 542 indicates the cell quality indicated by the classification result and the set target quality. Is displayed on a monitor or the like (not shown) (step S1024), and it is determined whether or not to stop the culture (step S1030). Specifically, for example, the CPU 542 determines that the culture is stopped when the quality of the cell indicated by the classification result and the set target quality do not coincide with each other is very large. For example, when the difference between the value indicating the cell quality indicated by the classification result and the set value indicating the target quality is equal to or greater than a predetermined first threshold, it is determined that the culture is to be stopped. Note that the CPU 542 determines that the culture is to be stopped also when there is an input from the operator to stop the culture.

CPU542は、培養を中止すると判断した場合(ステップS1030 YES)、培養を中止する旨をモニタ等(非図示)に表示させ(ステップS1032)、培養の処理を終了する。そして、CPU542は、本フローチャートの処理を終了する。一方、CPU542は、培養を中止しないと判断した場合(ステップS1030 NO)、培養条件を変更するか否かを判断する(ステップS1040)。具体的には、例えば、CPU542は、分類結果によって示される細胞の品質を示す値と設定された目的とする品質を示す値との一致しない程度が大きい場合に、培養条件を変更すると判断する。例えば、分類結果によって示される細胞の品質を示す値と設定された目的とする品質を示す値との差が所定の第2の閾値(但し、第1の閾値>第2の閾値)以上である場合に、培養条件を変更すると判断する。     If the CPU 542 determines that the culture is to be stopped (YES in step S1030), the CPU 542 displays on the monitor or the like (not shown) that the culture is to be stopped (step S1032) and ends the culture process. Then, the CPU 542 ends the process of this flowchart. On the other hand, when determining that the culture is not stopped (step S1030 NO), the CPU 542 determines whether or not to change the culture conditions (step S1040). Specifically, for example, the CPU 542 determines to change the culture condition when there is a large degree of mismatch between the value indicating the quality of the cell indicated by the classification result and the value indicating the set target quality. For example, the difference between the value indicating the quality of the cell indicated by the classification result and the value indicating the target quality that has been set is greater than or equal to a predetermined second threshold (where the first threshold is greater than the second threshold). In some cases, it is determined that the culture conditions are changed.

CPU542は、培養条件を変更すると判断した場合(ステップS1040 YES)、培養条件を変更する旨をモニタ等(非図示)に表示させ(ステップS1042)、培養条件を変更する(ステップS1050)。即ち、CPU542は、新たな培養条件で細胞を培養するよう温度調整装置515aと湿度調整装置515bとを制御する。そしてステップS1010に戻る。なお、予め、両品質(分類結果によって示される細胞品質、及び、設定された目的品質)と、新たな培養条件(修正後の培養条件)とを対応付けて記憶部543に記憶し、CPU542は、両細胞品質から新たな培養条件を取得するようにしてもよい。なお、CPU542は、操作者による新たな培養条件の設定値の入力があった場合に、当該設定値に培養条件を変更してもよい。     If the CPU 542 determines that the culture conditions are to be changed (YES in step S1040), the CPU 542 displays on the monitor or the like (not shown) that the culture conditions are to be changed (step S1042), and changes the culture conditions (step S1050). That is, the CPU 542 controls the temperature adjustment device 515a and the humidity adjustment device 515b so that the cells are cultured under new culture conditions. Then, the process returns to step S1010. Note that both qualities (cell quality indicated by the classification result and set target quality) and new culture conditions (modified culture conditions) are associated with each other and stored in the storage unit 543 in advance, and the CPU 542 New culture conditions may be acquired from both cell qualities. Note that the CPU 542 may change the culture condition to the set value when the operator inputs a new set value of the culture condition.

CPU542は、ステップS1022に続いて、または、培養条件を変更しないと判断した場合(ステップS1040 NO)、所定期間経過後に、撮像装置534を制御して、培養中の細胞を撮像し、培養中の細胞数(即ち、細胞オブジェクトの数)を計数する(ステップS1060)。なお、CPU542は、個々の細胞オブジェクトを認識可能な細胞分類装置404の細胞オブジェクト特徴量算出部460bの処理を実行するためのプログラムを記憶部543から読み出し、読み出したプログラムを実行することによって細胞数を計数する。     Following step S1022 or when it is determined that the culture conditions are not to be changed (NO in step S1040), the CPU 542 controls the imaging device 534 after a predetermined period of time to image the cells in culture, The number of cells (that is, the number of cell objects) is counted (step S1060). The CPU 542 reads from the storage unit 543 a program for executing the process of the cell object feature amount calculation unit 460b of the cell classification device 404 capable of recognizing individual cell objects, and executes the read program to execute the number of cells. Count.

次いで、CPU542は、ステップS1060において計数した細胞数が所定の細胞数に到達したか否かを判定する(ステップS1070)。CPU542は、計数した細胞数が所定の細胞数に到達していないと判定した場合(ステップS1070 NO)、所定の時間経過後に、ステップS1010に戻る。一方、CPU542は、計数した細胞数が所定の細胞数に到達したと判定した場合(ステップS1070 YES)、当該細胞の培養が完了した旨をモニタ等(非図示)に表示させる(ステップS1072)。そして、CPU542は、本フローチャートの処理を終了する。     Next, the CPU 542 determines whether or not the number of cells counted in step S1060 has reached a predetermined number of cells (step S1070). When the CPU 542 determines that the counted number of cells has not reached the predetermined number of cells (NO in step S1070), the process returns to step S1010 after a predetermined time has elapsed. On the other hand, if the CPU 542 determines that the counted number of cells has reached the predetermined number of cells (YES in step S1070), the CPU 542 displays on the monitor or the like (not shown) that the cell culture has been completed (step S1072). Then, the CPU 542 ends the process of this flowchart.

以上により、細胞種が未知でも既知でも、細胞分類装置404内の画像処理装置401bが画像データから細胞オブジェクトを精度良く抽出できるので、細胞分類装置404による分類の精度が向上する。これにより、インキュベータ511は、細胞分類装置404による精度の高い分類により出力される細胞の品質に基づいて、培養容器内の細胞の培養条件を動的に変更できるため、所望の細胞を品質の良い状態で維持することができる。また、インキュベータ511は、細胞の状態に応じた適正な培養条件で、細胞を培養させることができる。   As described above, even if the cell type is unknown or known, the image processing device 401b in the cell classification device 404 can accurately extract the cell object from the image data, so that the classification accuracy by the cell classification device 404 is improved. Thereby, the incubator 511 can dynamically change the culture conditions of the cells in the culture container based on the quality of the cells output by the high-precision classification by the cell classification device 404, so that the desired cells have high quality. Can be maintained in a state. The incubator 511 can cultivate cells under appropriate culture conditions according to the state of the cells.

なお、本フローチャートでは、CPU542は、分類結果によって示される細胞の品質が目的とする品質に合致するか否かに基づき、培養を中止するかまたは培養条件を変更するか否か判断したが、これに限ったものではない。CPU542は、分類結果によって示される細胞の種類が設定された細胞の種類に合致するか否かに基づき、培養を継続するか培養を中止するか判断をしてもよい。   In this flowchart, the CPU 542 determines whether to stop the culture or change the culture conditions based on whether the cell quality indicated by the classification result matches the target quality. It is not limited to. The CPU 542 may determine whether to continue the culture or stop the culture based on whether or not the cell type indicated by the classification result matches the set cell type.

また、CPU542は、分類結果によって示される細胞操作が設定された細胞操作に合致するか否かに基づき、培養条件を変更して継続するか培養を中止するか判断をしてもよい。その際、分類結果によって示される細胞操作が設定された細胞操作に合致しない場合、CPU542は、培養経過を示すログから培養経過に異常がないか否か判定し、判定結果に基づいて、培養条件を変更して継続するか培養を中止するか判断をしてもよい。また、CPU542は、非同一性である旨を記憶部543に記憶させる。   Further, the CPU 542 may determine whether to continue the culture by changing the culture condition or to stop the culture based on whether the cell operation indicated by the classification result matches the set cell operation. At this time, if the cell operation indicated by the classification result does not match the set cell operation, the CPU 542 determines whether or not there is any abnormality in the culture process from the log indicating the culture process, and based on the determination result, the culture condition It may be determined whether to continue with the change or to stop the culture. In addition, the CPU 542 causes the storage unit 543 to store information indicating non-identity.

また、細胞分類装置404内の画像処理装置401bを画像処理装置401に入れ替えても良い。その場合、細胞種が既知の場合にのみ、インキュベータ511は、細胞分類装置404の分類結果に基づき、培養条件を変更できる。   Further, the image processing device 401b in the cell classification device 404 may be replaced with the image processing device 401. In that case, only when the cell type is known, the incubator 511 can change the culture conditions based on the classification result of the cell classification device 404.

また、本発明の第5の実施形態による画像処理装置401、本発明の第6の実施形態による画像処理装置401b、本発明の第7の実施形態による細胞分類装置404、本発明の第8の実施形態によるインキュベータ511の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、画像処理装置401、画像処理装置401b、細胞分類装置404に係る上述した種々の処理を行ってもよい。   Further, the image processing device 401 according to the fifth embodiment of the present invention, the image processing device 401b according to the sixth embodiment of the present invention, the cell classification device 404 according to the seventh embodiment of the present invention, and the eighth of the present invention. By recording a program for executing each process of the incubator 511 according to the embodiment on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, the image processing apparatus 401 The above-described various processes related to the image processing apparatus 401b and the cell classification apparatus 404 may be performed.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。     Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、本発明の全ての実施形態において、分類モデル生成装置(1、2)、画像処理装置(401、401b)、または細胞分類装置(3、4、404)は、面積を形態的特徴量の代表例として用いてノイズに係るオブジェクトを抽出したが、これに限らず、他の形態的特徴量を用いて、ノイズに係るオブジェクトを抽出してもよい。   In all the embodiments of the present invention, the classification model generation device (1, 2), the image processing device (401, 401b), or the cell classification device (3,4, 404) has an area of a morphological feature amount. Although the object related to noise is extracted as a representative example, the present invention is not limited to this, and the object related to noise may be extracted using another morphological feature amount.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1、2…分類モデル生成装置
3、4…細胞分類装置
10…入出力部
20…細胞オブジェクト認識部
22…2値化処理部
24…ノイズ推定部(2値化データ取得部)
26…細胞オブジェクト特徴量算出部(ノイズ除去部)
30…分類モデル生成部
32…特徴的オブジェクト抽出部
34…候補分類モデル形成部
36…分類モデル決定部
40…分類モデル生成部
42…代表的特徴量計算部
46…分類モデル形成部
72…細胞オブジェクト記憶部
74…抽出条件記憶部
76…候補分類モデル記憶部
80…分類モデル記憶部
110…入出力部
120…細胞オブジェクト認識部
122…2値化処理部
124…ノイズ推定部
126…細胞オブジェクト特徴量算出部
152…特徴的オブジェクト抽出・代表的特徴量計算部
160…細胞分類部
170…検索オブジェクト一時記憶部
174…抽出条件記憶部
180…分類モデル記憶部
190…細胞カタログ記憶部
210…入出力部
220…細胞オブジェクト認識部
222…2値化処理部
224…ノイズ推定部(2値化データ取得部)
226…細胞オブジェクト特徴量算出部(ノイズ除去部)
252…特徴的オブジェクト抽出・代表的特徴量計算部
254…候補分類モデル形成部
256…分類モデル決定・形成部
260…細胞分類部
270…検索オブジェクト一時記憶部
272…細胞オブジェクト記憶部
274…抽出条件記憶部
276…候補分類モデル記憶部
280…分類モデル記憶部
290…細胞カタログ記憶部
311…インキュベータ
319…培養容器
401、401b…画像処理装置
404…細胞分類装置
410…2値化画像取得部
411…抽出部
420、420b…細胞オブジェクト抽出部
421…細胞候補オブジェクト抽出部
422…面積算出部
423…累積度数分布算出部(累積分布算出部)
424…微分関数算出部
425…固有閾値算出部
426…細胞オブジェクト選択部
431…仮閾値設定部
432…サンプルオブジェクト選択部
433…細胞種推定部
442…細胞計数部
446…補正情報設定部
460…細胞オブジェクト特徴量算出部
464b…細胞分類部
511…インキュベータ
515…恒温室
541…制御装置(培養条件制御部)
534…撮像装置
1, 2 ... Classification model generation device
3, 4 ... Cell sorter
10 ... Input / output section
20: Cell object recognition unit
22... Binarization processing unit
24 ... Noise estimation unit (binary data acquisition unit)
26: Cell object feature amount calculation unit (noise removal unit)
30 ... Classification model generation unit
32 ... Characteristic object extraction unit
34 ... Candidate classification model forming unit
36 ... Classification model determination unit
40 ... Classification model generation unit
42 ... Representative feature amount calculation unit
46 ... Classification model forming section
72: Cell object storage unit
74 ... Extraction condition storage unit
76 ... Candidate classification model storage unit
80 ... Classification model storage unit
110 ... Input / output unit
120: Cell object recognition unit
122... Binarization processing unit
124: Noise estimation unit
126 ... Cell object feature amount calculation unit
152 ... Characteristic object extraction / representative feature quantity calculation unit
160 ... cell classification part
170 ... Search object temporary storage unit
174 ... Extraction condition storage unit
180 ... Classification model storage unit
190 ... Cell catalog storage
210 ... Input / output unit
220 ... Cell object recognition unit
222... Binarization processing unit
224 ... Noise estimation unit (binary data acquisition unit)
226 ... Cell object feature amount calculation unit (noise removal unit)
252 ... Characteristic object extraction / representative feature quantity calculation unit
254 ... Candidate classification model formation unit
256 ... Classification model determination / formation part
260 ... cell classification part
270 ... Search object temporary storage unit
272 ... Cell object storage unit
274 ... Extraction condition storage unit
276 ... Candidate classification model storage unit
280 ... Classification model storage unit
290 ... Cell catalog storage unit
311 ... Incubator
319 ... Culture vessel
401, 401b ... Image processing apparatus
404 ... Cell sorting apparatus
410... Binary image acquisition unit
411 ... Extraction unit
420, 420b ... Cell object extraction unit
421 ... Cell candidate object extraction unit
422 ... Area calculation unit
423 ... Cumulative frequency distribution calculation unit (cumulative distribution calculation unit)
424 ... Differential function calculation unit
425 ... Unique threshold value calculation unit
426 ... Cell object selection section
431 ... Temporary threshold setting unit
432 ... Sample object selection section
433 ... Cell type estimation unit
442 ... Cell counting unit
446 ... Correction information setting section
460 ... Cell object feature amount calculation unit
464b ... cell classification part
511 ... Incubator
515 ... constant temperature room
541 ... Control device (culture condition control unit)
534 ... Imaging device

Claims (21)

細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出部と、
前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出部と、
前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出部と、
細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部と、
外部から入力された細胞の種類に応じた前記固有の補正情報を前記固有補正情報記憶部から読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出部と、
前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出するものであって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出部と、
を備えることを特徴とする画像処理装置。
A cell candidate object extraction unit that extracts a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell;
A feature amount extraction unit for extracting a morphological feature amount of the cell candidate object;
Either the frequency of appearance of the value based on the morphological feature amount for each section or the value based on the morphological feature amount for each section when the value based on the morphological feature amount is partitioned at predetermined intervals Cumulative distribution obtained by sequentially adding the cumulative distribution calculation unit for calculating for each cell type ,
Correction information for correcting a threshold value specific to the cell type, and correction information specific to the cell type is stored in association with the cell type;
The unique correction information corresponding to the type of cell input from the outside is read out from the unique correction information storage unit, the morphological feature amount that minimizes the differential value of the cumulative distribution is calculated, and the calculated morphological A unique threshold value calculation unit that calculates a threshold value specific to the cell type from the slope of the cumulative distribution corresponding to the cell type for each cell type based on the feature amount and the read specific correction information When,
Based on the cumulative distribution, the cell object or object other than the cell object is extracted from the cell candidate objects, and the cell candidate object is extracted based on the specific threshold value. An extraction unit for extracting the cell object from :
An image processing apparatus comprising:
前記抽出部は、前記累積分布の微分値を算出し、前記微分値に基づいて、前記細胞候補オブジェクトから前記細胞オブジェクトを抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit calculates a differential value of the cumulative distribution, and extracts the cell object from the cell candidate object based on the differential value. 前記抽出部は、前記微分値の極小値を探索して該極小値に基づく閾値を決定し、前記形態的特徴量が該閾値以上である前記細胞候補オブジェクトを前記細胞オブジェクトとして抽出することを特徴とする請求項2に記載の画像処理装置。   The extraction unit searches for a minimum value of the differential value, determines a threshold value based on the minimum value, and extracts the cell candidate object having the morphological feature amount equal to or greater than the threshold value as the cell object. The image processing apparatus according to claim 2. 前記抽出部は、前記形態的特徴量が所定値以上の範囲において前記微分値の極小値を探索し、該極小値または該極小値の近傍を閾値として決定し、前記形態的特徴量が該閾値以上である前記細胞候補オブジェクトを前記細胞オブジェクトとして抽出することを特徴とする請求項2または請求項3に記載の画像処理装置。   The extraction unit searches for a minimum value of the differential value in a range where the morphological feature value is equal to or greater than a predetermined value, determines the minimum value or a neighborhood of the minimum value as a threshold value, and the morphological feature value is the threshold value The image processing apparatus according to claim 2, wherein the cell candidate object is extracted as the cell object. 前記抽出部が、所定の範囲で仮の固有の補正情報を変更する毎に、仮の固有の補正情報と前記極小となる形態的特徴量とに基づいて、仮の固有閾値を算出し、該算出した仮の固有閾値に基づいて前記細胞オブジェクトを抽出する請求項に記載の画像処理装置であって、
前記抽出部により抽出された前記細胞オブジェクトの数を認識数として前記変更された仮の固有の補正情報毎に計数する細胞計数部と、
前記変更された仮の固有の補正情報毎に、前記認識数と前記画像データ中に含まれる前記細胞オブジェクトの数である細胞の視認数との差を算出する誤差算出部と、
前記差が所定の範囲内となる仮の固有の補正情報のうちから前記固有の補正情報を前記細胞の種類毎に抽出し、前記細胞の種類と該抽出した固有の補正情報とを前記固有補正情報記憶部に関連づけて記憶させる固有補正情報設定部と、
を更に備えることを特徴とする画像処理装置
Each time the extraction unit changes the provisional unique correction information within a predetermined range, the provision unit calculates a provisional unique threshold based on the provisional unique correction information and the minimum morphological feature amount, The image processing apparatus according to claim 4 , wherein the cell object is extracted based on the calculated temporary unique threshold.
A cell counting unit that counts the number of the cell objects extracted by the extraction unit as the number of recognitions for each changed temporary unique correction information;
For each of the changed provisional unique correction information, an error calculation unit that calculates a difference between the number of recognition and the number of visible cells that is the number of the cell objects included in the image data;
The unique correction information is extracted for each cell type from provisional unique correction information within which the difference falls within a predetermined range, and the cell type and the extracted unique correction information are extracted as the unique correction. A unique correction information setting unit to be stored in association with the information storage unit;
An image processing apparatus further comprising:
前記固有閾値算出部は、更に外部から入力された前記細胞の培養時間に応じて、前記固有の閾値を設定することを特徴とする請求項から請求項のいずれか1項に記載の画像処理装置。 The image according to any one of claims 1 to 5 , wherein the unique threshold value calculation unit further sets the unique threshold value according to a culture time of the cell input from the outside. Processing equipment. 前記累積分布算出部により算出された累積分布を基に、複数の前記細胞の種類に共通の閾値を算出する仮閾値算出部と、
前記細胞候補オブジェクトのうちから、前記共通の閾値に基づいて、仮の細胞オブジェクトであるサンプルオブジェクトを抽出するサンプルオブジェクト抽出部と、
前記抽出されたサンプルオブジェクトに基づいて、前記細胞の種類を推定する細胞種推定部と、
を備え、
前記固有閾値算出部は、前記推定された細胞の種類に応じた前記固有の補正情報を前記固有補正情報記憶部から読み出すことを特徴とする請求項から請求項のいずれか1項に記載の画像処理装置。
Based on the cumulative distribution calculated by the cumulative distribution calculator, a temporary threshold calculator that calculates a threshold common to the plurality of cell types,
A sample object extraction unit that extracts a sample object that is a temporary cell object from the cell candidate objects based on the common threshold;
A cell type estimation unit for estimating the type of the cell based on the extracted sample object;
With
Said unique threshold value calculation unit, according to any one of claims 6 to the unique correction information corresponding to the type of the estimated cells from claim 1, characterized in that the reading from the inherent correction information storage unit Image processing apparatus.
複数の前記細胞の種類に共通の補正情報が記憶されている共通補正情報記憶部を備え、
前記仮閾値算出部は、前記共通の補正情報を前記共通補正情報記憶部から読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した共通の補正情報とに基づいて、前記共通の閾値を算出することを特徴とする請求項に記載の画像処理装置。
A common correction information storage unit storing correction information common to a plurality of types of cells,
The temporary threshold value calculation unit reads the common correction information from the common correction information storage unit, calculates the morphological feature value that minimizes the differential value of the cumulative distribution, and calculates the morphological feature value and the calculated morphological feature value The image processing apparatus according to claim 7 , wherein the common threshold value is calculated based on the read common correction information.
前記抽出部が、所定の範囲で仮の共通の補正情報を変更する毎に、仮の共通の補正情報と前記極小となる形態的特徴量とに基づいて、仮の共通の閾値を算出し、該算出した仮の共通の閾値に基づいて前記細胞オブジェクトを抽出する請求項に記載の画像処理装置であって、
各細胞の種類で、前記抽出部により抽出された前記細胞オブジェクトの数を認識数として前記変更された仮の共通の補正情報毎に計数する共通細胞計数部と、
前記各細胞の種類で、前記認識数と前記画像データ中に含まれる前記細胞オブジェクトの数である細胞の視認数との差を前記変更された仮の共通の補正情報毎に算出する共通誤差算出部と、
複数の細胞の種類に共通して前記差が所定の範囲内となる仮の共通の補正情報のうちから共通の補正情報を抽出し、該抽出した共通の補正情報を前記共通補正情報記憶部に記憶させる共通補正情報設定部と、
を更に備えることを特徴とする画像処理装置
Each time the extraction unit changes temporary common correction information within a predetermined range, a temporary common threshold is calculated based on the temporary common correction information and the minimal morphological feature amount, The image processing apparatus according to claim 8 , wherein the cell object is extracted based on the calculated temporary common threshold.
For each cell type, a common cell counting unit that counts the number of cell objects extracted by the extraction unit as a recognition number for each changed temporary common correction information;
For each cell type, a common error calculation that calculates the difference between the number of recognitions and the number of visible cells, which is the number of the cell objects included in the image data, for each changed temporary common correction information. And
Common correction information is extracted from temporary common correction information in which the difference falls within a predetermined range in common with a plurality of cell types, and the extracted common correction information is stored in the common correction information storage unit. A common correction information setting unit to be stored;
An image processing apparatus further comprising:
前記仮閾値算出部は、前記細胞の培養時間に応じて、前記共通の閾値を算出することを特徴とする請求項から請求項のいずれか1項に記載の画像処理装置。 The temporary threshold value calculation unit in accordance with the incubation time of the cells, the image processing apparatus according to any one of claims 7 to 9, characterized in that to calculate the common threshold. 前記抽出部は、
前記累積分布を構成する前記形態的特徴量および前記累積分布の各点のうち、複数点を用いて前記累積分布の傾きを算出することを特徴とする請求項1から請求項1のいずれか1項に記載の画像処理装置。
The extraction unit includes:
Among the morphological features and the points of the cumulative distribution which constitutes the cumulative distribution, any one of claims 1 to 1 0, characterized in that to calculate the slope of the cumulative distribution by using a plurality of points The image processing apparatus according to item 1.
前記抽出部は、
前記累積分布に基づいて、前記ノイズに係るオブジェクトを推定するノイズ推定部と、
前記細胞候補オブジェクトのうちから前記推定された前記ノイズに係るオブジェクトを除去するノイズ除去部と、
を更に備えることを特徴とする請求項1から請求項1のいずれか1項に画像処理装置。
The extraction unit includes:
A noise estimation unit for estimating an object related to the noise based on the cumulative distribution;
A noise removing unit that removes the object related to the estimated noise from the cell candidate objects;
The image processing apparatus according to any one of claims 1 to 11, further comprising:
前記細胞候補オブジェクト抽出部は、
細胞が撮像された画像データを2値化処理した2値化画像データを取得する2値化画像取得部と、
前記2値化画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出部と、
を備えることを特徴とする請求項1から請求項1のいずれか1項に画像処理装置。
The cell candidate object extraction unit includes:
A binarized image acquisition unit that acquires binarized image data obtained by binarizing image data obtained by imaging cells;
A cell candidate object extraction unit that extracts a cell candidate object that is a candidate for a cell object from the binarized image data;
The image processing apparatus according to any one of claims 1 to 12 , further comprising:
請求項1に記載の画像処理装置と、
前記画像処理装置から抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、前記画像データに撮影された細胞を分類する細胞分類部と、
を備えることを特徴とする細胞分類装置。
An image processing apparatus according to claim 1;
A cell classification unit that classifies cells photographed in the image data based on the cell object extracted from the image processing apparatus or the object related to the noise;
A cell sorting apparatus comprising:
細胞又は細胞群を培養する培養容器を収容するとともに、所定の環境条件に内部を維持可能な恒温室と、
前記恒温室内で前記培養容器に含まれる前記細胞又は細胞群の画像を撮像する撮像装置と、
請求項1に記載の画像処理装置と、
を備えることを特徴とするインキュベータ。
Containing a culture vessel for culturing cells or cell groups, and a temperature-controlled room capable of maintaining the interior in a predetermined environmental condition;
An imaging device for capturing an image of the cells or cell groups contained in the culture vessel in the temperature-controlled room;
An image processing apparatus according to claim 1;
An incubator comprising:
前記画像処理装置により抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、前記画像データに撮影された細胞を分類する細胞分類部を更に備えることを特徴とする請求項1に記載のインキュベータ。 16. The cell classification unit according to claim 15 , further comprising a cell classification unit that classifies cells photographed in the image data based on the cell object extracted by the image processing apparatus or the object related to the noise. incubator. 前記細胞分類部で推定された細胞の情報を基に、前記恒温室の環境条件又は前記細胞を培養する培地を変更する培養条件制御部を備えることを特徴とする請求項1に記載のインキュベータ。 17. The incubator according to claim 16 , further comprising a culture condition control unit that changes an environmental condition of the temperature-controlled room or a medium in which the cells are cultured based on information on the cells estimated by the cell classification unit. . 画像処理装置が実行する画像処理方法であって、
細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出手順と、
前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出手順と、
前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出手順と、
細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部から、外部から入力された細胞の種類に応じた前記固有の補正情報を読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出手順と、
前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出する手順であって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出手順と、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
A cell candidate object extraction procedure for extracting a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell;
A feature amount extraction procedure for extracting a morphological feature amount of the cell candidate object;
Either the frequency of appearance of the value based on the morphological feature amount for each section or the value based on the morphological feature amount for each section when the value based on the morphological feature amount is partitioned at predetermined intervals Cumulative distribution calculation procedure to calculate the cumulative distribution obtained by adding together sequentially for each cell type ,
Correction information for correcting a threshold value specific to a cell type, and correction information specific to a cell type is stored in association with the cell type, and stored from an inherent correction information storage unit. Read the specific correction information according to the type, calculate the morphological feature value that minimizes the differential value of the cumulative distribution, and based on the calculated morphological feature value and the read specific correction information A unique threshold calculation procedure for calculating a threshold specific to the cell type from the slope of the cumulative distribution according to the cell type for each cell type;
A procedure for extracting an object related to noise that is an object other than the cell object or the cell object from the cell candidate objects based on the cumulative distribution, the cell candidate object based on the specific threshold value An extraction procedure for extracting the cell object from :
An image processing method comprising:
請求項18の記載の画像処理方法と、
前記画像処理方法により抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、画像データに撮影された細胞を分類する細胞分類手順と、
を有することを特徴とする細胞分類方法。
An image processing method according to claim 18 ,
A cell classification procedure for classifying cells photographed in image data based on the cell object extracted by the image processing method or the object related to the noise;
A cell classification method characterized by comprising:
画像処理装置としてのコンピュータに、
細胞が撮像された画像データから細胞オブジェクトの候補となる細胞候補オブジェクトを抽出する細胞候補オブジェクト抽出ステップと、
前記細胞候補オブジェクトの形態的特徴量を抽出する特徴量抽出ステップと、
前記形態的特徴量に基づく値が所定の間隔毎に区分された際の区分毎の該形態的特徴量に基づく値の出現頻度または該区分毎の該形態的特徴量に基づく値のいずれか一方を順次加え合わせることで得られる累積分布を、細胞の種類毎に算出する累積分布算出ステップと、
細胞の種類に固有の閾値を補正する補正情報であって細胞の種類に固有の補正情報が該細胞の種類と関連付けられて記憶されている固有補正情報記憶部から、外部から入力された細胞の種類に応じた前記固有の補正情報を読み出し、前記累積分布の微分値が極小となる前記形態的特徴量を算出し、該算出した形態的特徴量と前記読み出した固有の補正情報とに基づいて、前記細胞の種類毎に、該細胞の種類に応じた前記累積分布の傾きから該細胞の種類に固有の閾値を算出する固有閾値算出ステップと、
前記累積分布に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトまたは前記細胞オブジェクト以外のオブジェクトであるノイズに係るオブジェクトを抽出するステップであって、前記固有の閾値に基づいて、前記細胞候補オブジェクトのうちから前記細胞オブジェクトを抽出する抽出ステップと、
を実行させるための画像処理プログラム。
In a computer as an image processing device,
A cell candidate object extraction step for extracting a cell candidate object that is a candidate for a cell object from image data obtained by imaging a cell;
A feature amount extracting step of extracting a morphological feature amount of the cell candidate object;
Either the frequency of appearance of the value based on the morphological feature amount for each section or the value based on the morphological feature amount for each section when the value based on the morphological feature amount is partitioned at predetermined intervals The cumulative distribution obtained by sequentially adding the cumulative distribution calculating step for calculating for each cell type ,
Correction information for correcting a threshold value specific to a cell type, and correction information specific to a cell type is stored in association with the cell type, and stored from an inherent correction information storage unit. Read the specific correction information according to the type, calculate the morphological feature value that minimizes the differential value of the cumulative distribution, and based on the calculated morphological feature value and the read specific correction information A unique threshold calculation step for calculating a threshold specific to the cell type from the slope of the cumulative distribution according to the cell type for each cell type;
Extracting a cell object or an object related to noise that is an object other than the cell object from the cell candidate objects based on the cumulative distribution, the cell candidate object based on the specific threshold value An extraction step of extracting the cell object from :
An image processing program for executing
細胞分類装置としてのコンピュータに、
請求項2に記載の画像処理プログラムと、
前記画像処理プログラムから抽出された前記細胞オブジェクトまたは前記ノイズに係るオブジェクトに基づいて、画像データに撮影された細胞を分類するステップと、
を実行させるための細胞分類プログラム。
To a computer as a cell sorter,
And an image processing program according to claim 2 0,
Classifying cells photographed in image data based on the cell object extracted from the image processing program or the object related to the noise;
Cell classification program for running
JP2011042210A 2010-04-23 2011-02-28 Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program Expired - Fee Related JP5745290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011042210A JP5745290B2 (en) 2010-04-23 2011-02-28 Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010100168 2010-04-23
JP2010100168 2010-04-23
JP2011042210A JP5745290B2 (en) 2010-04-23 2011-02-28 Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program

Publications (2)

Publication Number Publication Date
JP2011243188A JP2011243188A (en) 2011-12-01
JP5745290B2 true JP5745290B2 (en) 2015-07-08

Family

ID=45409730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011042210A Expired - Fee Related JP5745290B2 (en) 2010-04-23 2011-02-28 Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program

Country Status (1)

Country Link
JP (1) JP5745290B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5605529B1 (en) * 2013-02-07 2014-10-15 大日本印刷株式会社 Medium inspection device, medium information registration system, hygiene management system, and program
US10641706B2 (en) 2015-06-16 2020-05-05 Konica Minolta, Inc. Cell morphology image processing and corrections
CA3010997C (en) * 2016-03-17 2022-02-22 Nec Corporation Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
EP3517602B1 (en) * 2016-10-17 2020-08-05 Yamaha Hatsudoki Kabushiki Kaisha Cell transfer apparatus and cell transfer method
JP6862538B2 (en) 2017-04-14 2021-04-21 株式会社日立ハイテク Imaging device and morphological feature data display method
JP2019193587A (en) * 2018-05-01 2019-11-07 国立大学法人 筑波大学 Culture environment determination device, method and program
JP7397435B2 (en) * 2019-09-12 2023-12-13 国立大学法人大阪大学 Coating device
JPWO2021100191A1 (en) * 2019-11-22 2021-05-27

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2676089B2 (en) * 1988-12-15 1997-11-12 東亜医用電子株式会社 Particle size distribution processor
JP2008141973A (en) * 2006-12-07 2008-06-26 Foundation For Biomedical Research & Innovation Method for culturing and proliferating cardiac muscle cell
JP5181385B2 (en) * 2007-08-16 2013-04-10 国立大学法人名古屋大学 Prediction model construction method for predicting cell quality, prediction model construction program, recording medium recording the program, and prediction model construction apparatus
WO2009031283A1 (en) * 2007-09-03 2009-03-12 Nikon Corporation Culture apparatus, culture information management method, and program
JP4801025B2 (en) * 2007-09-07 2011-10-26 オリンパス株式会社 Cell image analysis apparatus and cell image analysis software

Also Published As

Publication number Publication date
JP2011243188A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
JP5745290B2 (en) Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program
JP6448129B2 (en) Cell evaluation apparatus, incubator, cell evaluation method, program, and cell culture method
JP5816416B2 (en) Cell evaluation apparatus, incubator, program, and culture method
CN111724433B (en) Crop phenotype parameter extraction method and system based on multi-view vision
CN106373118B (en) The complex curved surface parts point cloud compressing method of border and local feature can be effectively retained
Versari et al. Long-term tracking of budding yeast cells in brightfield microscopy: CellStar and the Evaluation Platform
Williams et al. 3D segmentation of trees through a flexible multiclass graph cut algorithm
Ziamtsov et al. Machine learning approaches to improve three basic plant phenotyping tasks using three-dimensional point clouds
CN109146948A (en) The quantization of crop growing state phenotypic parameter and the correlation with yield analysis method of view-based access control model
JP2011229409A (en) Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method
CN103077529A (en) System for analyzing plant leaf features based on image scanning
CN105868716A (en) Method for human face recognition based on face geometrical features
CN109101864A (en) The upper half of human body action identification method returned based on key frame and random forest
CN106780551B (en) A kind of Three-Dimensional Moving Targets detection method and system
CN205750807U (en) A kind of kindergarten ensuring pick-up safety system based on iris identification
Janssens-Coron et al. Ground point filtering from airborne lidar point clouds using deep learning: A preliminary study
Williams et al. Three-dimensional segmentation of trees through a flexible multi-class graph cut algorithm (MCGC)
KR102084683B1 (en) Analysing method for cell image using artificial neural network and image processing apparatus for cell image
CN117408913B (en) Method, system and device for denoising point cloud of object to be measured
JP6343874B2 (en) Observation apparatus, observation method, observation system, program thereof, and cell manufacturing method
US12000868B2 (en) Waveform segmentation device and waveform segmentation method
Gupta et al. Tree annotations in LiDAR data using point densities and convolutional neural networks
JP5732201B2 (en) Classification model generation device, cell classification device, incubator, cell culture method and program
Jiang et al. Refined aboveground biomass estimation of moso bamboo forest using culm lengths extracted from TLS POINT CLOUD
González-Barbosa et al. Dynamic measurement of portos tomato seedling growth using the kinect 2.0 sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150501

R150 Certificate of patent or registration of utility model

Ref document number: 5745290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees