JP5732201B2 - Classification model generation device, cell classification device, incubator, cell culture method and program - Google Patents

Classification model generation device, cell classification device, incubator, cell culture method and program Download PDF

Info

Publication number
JP5732201B2
JP5732201B2 JP2010100167A JP2010100167A JP5732201B2 JP 5732201 B2 JP5732201 B2 JP 5732201B2 JP 2010100167 A JP2010100167 A JP 2010100167A JP 2010100167 A JP2010100167 A JP 2010100167A JP 5732201 B2 JP5732201 B2 JP 5732201B2
Authority
JP
Japan
Prior art keywords
cell
classification model
unit
classification
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010100167A
Other languages
Japanese (ja)
Other versions
JP2011232051A (en
Inventor
本多 裕之
裕之 本多
竜司 加藤
竜司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nikon Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Nikon Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nikon Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2010100167A priority Critical patent/JP5732201B2/en
Publication of JP2011232051A publication Critical patent/JP2011232051A/en
Application granted granted Critical
Publication of JP5732201B2 publication Critical patent/JP5732201B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Biological Materials (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Micro-Organisms Or Cultivation Processes Thereof (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、分類モデル生成装置、細胞分類装置、インキュベータ、細胞の培養方法及びプログラムに関するものである。   The present invention relates to a classification model generation device, a cell classification device, an incubator, a cell culture method, and a program.

現在、がん研究における自然発生がんの検出、再生医療における治療用細胞以外の異種細胞の検出、間葉系幹細胞(MSC)の臨床研究などにおいて、細胞を染色する技術が用いられている。細胞の種類、状態等は、細胞を染色しなければ、目視では感覚的にしか分類できないからである。なお、転写因子を発現する細胞を染色する技術が開示されている(特許文献1参照)。また、細胞の明視野画像と該細胞の蛍光画像とを2値化処理した両画像を用いて、撮像画像における全細胞中から特定の細胞群を抽出する技術が開示されている(特許文献2参照)。   Currently, techniques for staining cells are used in detection of spontaneous cancer in cancer research, detection of heterogeneous cells other than therapeutic cells in regenerative medicine, clinical research of mesenchymal stem cells (MSC), and the like. This is because cell types, states, and the like can be classified visually only by sensory means without staining the cells. A technique for staining cells expressing a transcription factor has been disclosed (see Patent Document 1). Further, a technique for extracting a specific cell group from all cells in a captured image using both images obtained by binarizing a bright field image of a cell and a fluorescence image of the cell is disclosed (Patent Document 2). reference).

特開2007−195533号公報JP 2007-195533 A 特開平2−12060号公報JP-A-2-12060

しかしながら、細胞は染色によって破壊されるという問題がある。更に、染色試薬が高価であるという問題、細胞の染色自体が面倒であるという問題ある。本発明の目的は、細胞を破壊することなく、また、安価かつ簡便に、細胞の種類、状態等を確認するための技術を提供することにある。   However, there is a problem that cells are destroyed by staining. Furthermore, there is a problem that the staining reagent is expensive and that the cell staining itself is troublesome. An object of the present invention is to provide a technique for confirming the type, state, etc. of a cell without destroying the cell and inexpensively and easily.

上記問題を解決するために、本発明の一態様である分類モデル生成装置は、培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置であって、既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出する特徴的オブジェクト抽出部と、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成する候補分類モデル形成部と、抽出された前記特徴的オブジェクトに応じて前記候補分類モデル形成部が形成した複数の前記候補分類モデルのなかから、前記分類モデルを決定する分類モデル決定部とを備え、前記候補分類モデル形成部は、前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする。 In order to solve the above problem, a classification model generation device according to one aspect of the present invention is an unknown attribute imaging image that is an imaging image of an unknown adhesion-type cell that adheres to a culture vessel, or the unknown attribute imaging. A classification model generation device for generating a classification model for classifying adhesive cells in an image for each attribute based on morphological characteristics of the adhesive cells, and imaging a plurality of adhesive cells having the same attribute A cell object recognizing unit for recognizing an imaging region of each adhesion-related cell as an individual cell object from a known identical attribute captured image that is a captured image, and the cell having a predetermined morphological feature amount from the cell object A characteristic object extracting unit for extracting an object as a characteristic object, a morphological characteristic amount of the characteristic object, and the characteristic object; A candidate classification model forming unit that forms a candidate classification model that is a candidate for the classification model using a plurality of attributes of the adhesion-based cells recognized in the above, and the candidate classification model forming unit according to the extracted characteristic object A classification model determining unit that determines the classification model from among the plurality of candidate classification models formed by the candidate classification model forming unit , wherein the candidate classification model forming unit uses adhesive cells as morphological feature quantities of the characteristic objects. The value indicating the maximum value of the crossing lines, the value indicating the length when the adhesion type cell is assumed to be pseudo linear, the value indicating the width when the adhesion type cell is assumed to be pseudo linear Using at least one of the morphological features, and using a plurality of attributes including name, culture condition, and activity as the plurality of attributes of the adherent cell recognized as the characteristic object And forming an auxiliary classification model.

上記問題を解決するために、本発明の他の一態様である細胞分類装置は、培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する分類モデル記憶部と、前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、前記細胞オブジェクト認識部によって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類部と、前記細胞オブジェクト認識部によって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶部と、前記細胞分類部が前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類するときに、前記細胞オブジェクト記憶部に記憶されている前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出し、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成し、抽出された前記特徴的オブジェクトに応じて生成した複数の前記候補分類モデルのなかから前記分類モデルを決定する分類モデル生成部とを備え、前記分類モデル形成部は、前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする。 In order to solve the above-described problem, a cell classification device according to another aspect of the present invention includes an unknown attribute captured image obtained by capturing an image of an unknown adherent cell that adheres to a culture vessel, or the unknown attribute. A classification model storage unit that stores a classification model for classifying adhesive cells in a captured image for each attribute based on morphological characteristics of the adhesive cells, and imaging individual adhesive cells from the unknown attribute captured image A cell object recognition unit for recognizing a region as an individual cell object, and a morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit or a feature amount calculated from the morphological feature amount and by charging to the classification model, and a cell classification unit which classifies the adhesive system cells of the unknown attributes captured image or the unknown attribute the captured image, wherein A cell object storage unit for storing the cell object recognized from a known identical-attribute captured image, which is a captured image obtained by imaging a plurality of adhesion-type cells with the same attribute known by a cell object recognition unit, and the cell classification unit includes the cell classification unit Characterizing the cell object having a predetermined morphological feature amount from among the cell objects stored in the cell object storage unit when classifying the unknown attribute captured image or the adherent cells in the unknown attribute captured image A candidate classification model that is a candidate for the classification model is extracted by using a morphological feature amount of the characteristic object and a plurality of attributes of the adhesive cells recognized as the characteristic object. Among the plurality of candidate classification models generated according to the characteristic object, And a classification model generating unit for determining a class model, the classification model forming portion, a morphological characteristic of the characteristic objects, the value indicating the maximum value among the line across the adhesive system cells, the adhesive system cells Using at least one morphological feature value of a value indicating a length when assumed to be pseudo-linear, a value indicating a width when assuming that the adherent cell is pseudo-linear, and The candidate classification model is formed using a plurality of attributes including a name, a culture condition, and an activity as a plurality of attributes of the adherent cell recognized as the characteristic object.

上記問題を解決するために、本発明の他の一態様であるインキュベータは、接着系細胞を培養する培養容器を収容するとともに、所定の環境条件に内部を維持可能な恒温室と、前記恒温室内で前記培養容器に含まれる接着系細胞の画像を撮像する撮像装置と、上記細胞分類装置とを備えるインキュベータにおいて、前記分類モデルを用いた前記接着系細胞の分類結果に基づいて前記培養容器内の接着系細胞の培養条件を変更する培養条件変更部を更に備えることを特徴とする。 In order to solve the above problem, an incubator according to another aspect of the present invention contains a culture vessel for culturing adhesive cells, and can maintain the interior at a predetermined environmental condition, in an imaging device for capturing an image of the adhesive system cells contained in the culture vessel, the Louis Nkyubeta a said cell classification device, said culture vessel based on the classification result of the adhesive system cells using the classification model It further comprises a culture condition changing unit that changes the culture conditions of the adhesive cells in the inside.

上記問題を解決するために、本発明の他の一態様である培養方法は、上記インキュベータを用いることを特徴とする。 In order to solve the above problem, a culture method according to another embodiment of the present invention is characterized by using the above incubator.

上記問題を解決するために、本発明の他の一態様であるプログラムは、培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置のコンピュータに、既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識ステップと、前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出する特徴的オブジェクト抽出ステップと、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成する候補分類モデル形成ステップと、抽出された前記特徴的オブジェクトに応じて前記候補分類モデル形成ステップにおいて形成された複数の前記候補分類モデルのなかから、前記分類モデルを決定する分類モデル決定ステップとを実行させるプログラムであって、前記候補分類モデル形成ステップは、前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする。 In order to solve the above-described problem, a program according to another aspect of the present invention is an unknown attribute captured image that is an captured image in which an unknown adhesive cell that adheres to a culture vessel is captured, or the unknown attribute captured image A plurality of adherent cells with the same attribute are imaged by a computer of a classification model generating device that generates a classification model for classifying the adhesive cells in each of the attributes based on the morphological characteristics of the adhesive cells. A cell object recognition step for recognizing an imaging region of each adhesion-related cell as an individual cell object from a known identical-attribute imaging image that is a captured image, and the cell object having a predetermined morphological feature amount from the cell object A characteristic object extracting step of extracting the characteristic object as a characteristic object, a morphological characteristic amount of the characteristic object, and the characteristic A candidate classification model forming step for forming a candidate classification model that is a candidate for the classification model using a plurality of attributes of the adhesion-type cells recognized as objects, and formation of the candidate classification model according to the extracted characteristic object A classification model determination step for determining the classification model from among the plurality of candidate classification models formed in the step, wherein the candidate classification model formation step includes a morphological feature of the characteristic object As a quantity, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, and a case where the adherent cells are assumed to be pseudo linear The adhesive system recognized as the characteristic object using at least one morphological characteristic amount of the value indicating the width of As a plurality of attributes of cells, names, and forming the candidate classification model using culture conditions, a plurality of attributes including activity.

上記問題を解決するために、本発明の他の一態様であるプログラムは、培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する細胞分類装置のコンピュータに、前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識ステップと、前記細胞オブジェクト認識ステップによって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類ステップと、前記細胞オブジェクト認識ステップによって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶ステップと、前記細胞分類ステップによって前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞が分類されるときに、前記細胞オブジェクト記憶ステップに記憶されている前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出し、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成し、抽出された前記特徴的オブジェクトに応じて生成した複数の前記候補分類モデルのなかから前記分類モデルを決定する分類モデル生成ステップとを実行させるプログラムであって、前記分類モデル形成ステップは、前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする。
In order to solve the above-described problem, a program according to another aspect of the present invention is an unknown attribute captured image that is an captured image in which an unknown adhesive cell that adheres to a culture vessel is captured, or the unknown attribute captured image In the computer of the cell classification device that stores a classification model for classifying the adhesion-type cells in each attribute based on the morphological characteristics of the adhesion-type cells, the imaging area of each adhesion-type cell from the unknown attribute imaging image A cell object recognition step for recognizing a cell object as an individual cell object, and a morphological feature amount of the cell object recognized from the captured image of unknown attributes by the cell object recognition step or a feature amount calculated from the morphological feature amount. , Classifying the unknown attribute captured image or the adherent cells in the unknown attribute captured image by entering the classification model A cell sorting step, the cell object storage step of storing the recognized said cell object from the known identity attributes captured image is a plurality of adhesive systems captured image cell is imaged in a known identical attribute by the cell object recognition step, A predetermined morphological feature amount among the cell objects stored in the cell object storing step when the unknown attribute picked-up image or the adherent cell in the unknown attribute picked-up image is classified by the cell classifying step. A candidate classification that is a candidate for the classification model using a morphological feature amount of the characteristic object and a plurality of attributes of adhesion-related cells recognized as the characteristic object. The characteristic object extracted from the model A classification model generation step of determining the classification model from among the plurality of candidate classification models generated according to the classification model, wherein the classification model formation step includes a morphological feature amount of the characteristic object As a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, and when assuming that the adherent cells are pseudo linear A plurality of attributes including a name, a culture condition, and an activity are used as the plurality of attributes of the adherent cell recognized as the characteristic object using at least one morphological feature amount of the value indicating the width. And forming the candidate classification model.

本発明によれば、細胞を破壊することなく、また、安価かつ簡便に、細胞の種類、状態等を確認することができる。   According to the present invention, the type, state, etc. of a cell can be confirmed without destroying the cell and inexpensively and easily.

本発明の第1の実施形態による分類モデル生成装置1の機能ブロック図の一例である。It is an example of the functional block diagram of the classification model production | generation apparatus 1 by the 1st Embodiment of this invention. ノイズ推定部24の動作を説明するための説明図である。6 is an explanatory diagram for explaining an operation of a noise estimation unit 24. FIG. 各特徴値の概要を示す図である。It is a figure which shows the outline | summary of each feature value. 細胞オブジェクト記憶部72に記憶される情報の一例である。4 is an example of information stored in a cell object storage unit 72. 抽出条件記憶部74に記憶される情報の一例である。4 is an example of information stored in an extraction condition storage unit 74. 候補分類モデル記憶部76に記憶される情報の一例である。It is an example of the information memorize | stored in the candidate classification | category model memory | storage part. 分類モデル記憶部80に記憶される情報の一例である。4 is an example of information stored in a classification model storage unit 80. 分類モデル生成装置1と接続するインキュベータ311の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the incubator 311 connected with the classification model production | generation apparatus 1. FIG. インキュベータ311の正面図である。It is a front view of the incubator 311. インキュベータ311の平面図である。It is a top view of the incubator 311. 分類モデル生成装置1の動作の一例を示すフローチャートである。3 is a flowchart showing an example of the operation of the classification model generation device 1. ノイズ推定部24の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of the operation of a noise estimation unit 24. 本発明の第2の実施形態による分類モデル生成装置2の機能ブロック図の一例である。It is an example of the functional block diagram of the classification model production | generation apparatus 2 by the 2nd Embodiment of this invention. 本発明の第3の実施形態による細胞分類装置3の機能ブロック図の一例である。It is an example of the functional block diagram of the cell classification device 3 by the 3rd Embodiment of this invention. 検索オブジェクト一時記憶部170に記憶される情報の一例である。4 is an example of information stored in a search object temporary storage unit 170. 細胞カタログ記憶部190に記憶される情報の一例である。It is an example of the information memorize | stored in the cell catalog memory | storage part 190. FIG. 細胞分類装置3の動作の一例を示すフローチャートである。5 is a flowchart showing an example of the operation of the cell classification device 3. 細胞分類装置4の機能ブロック図の一例である。It is an example of the functional block diagram of the cell classification device 4. 検索オブジェクト一時記憶部270に記憶される情報の一例である。7 is an example of information stored in a search object temporary storage unit 270. 細胞分類装置4の動作の一例を示すフローチャートである。5 is a flowchart showing an example of the operation of the cell classification device 4. 細胞分類装置4の機能を兼ね備えるインキュベータ311の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the incubator 311 which has a function of the cell classification apparatus 4. FIG.

(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について説明する。図1は本発明の第1の実施形態による分類モデル生成装置1の機能ブロック図の一例である。図2は、ノイズ推定部24の動作を説明するための説明図である。図3は、各特徴値の概要を示す図である。図4は、細胞オブジェクト記憶部72に記憶される情報の一例である。図5は、抽出条件記憶部74に記憶される情報の一例である。図6は、候補分類モデル記憶部76に記憶される情報の一例である。図7は、分類モデル記憶部80に記憶される情報の一例である。分類モデル生成装置1は、未知の細胞が撮像された撮像画像(以下、「未知属性撮像画像」という)である未知属性撮像画像、又は、未知属性撮像画像内の細胞を、細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an example of a functional block diagram of a classification model generation device 1 according to the first embodiment of the present invention. FIG. 2 is an explanatory diagram for explaining the operation of the noise estimation unit 24. FIG. 3 is a diagram showing an outline of each feature value. FIG. 4 is an example of information stored in the cell object storage unit 72. FIG. 5 is an example of information stored in the extraction condition storage unit 74. FIG. 6 is an example of information stored in the candidate classification model storage unit 76. FIG. 7 is an example of information stored in the classification model storage unit 80. The classification model generation device 1 converts an unknown attribute captured image, which is a captured image obtained by capturing an unknown cell (hereinafter referred to as “unknown attribute captured image”), or a cell in the unknown attribute captured image into a morphological form of the cell. A classification model is generated for classification for each attribute based on the feature.

分類モデル生成装置1は、図1に示すように、入出力部10、細胞オブジェクト認識部20、分類モデル生成部30、細胞オブジェクト記憶部72、抽出条件記憶部74、候補分類モデル記憶部76及び分類モデル記憶部80を備える。細胞オブジェクト認識部20は、2値化処理部22、ノイズ推定部24及び細胞オブジェクト特徴量算出部26を備える。分類モデル生成部30は、特徴的オブジェクト抽出部32、候補分類モデル形成部34及び分類モデル決定部36を備える。   As shown in FIG. 1, the classification model generation device 1 includes an input / output unit 10, a cell object recognition unit 20, a classification model generation unit 30, a cell object storage unit 72, an extraction condition storage unit 74, a candidate classification model storage unit 76, and A classification model storage unit 80 is provided. The cell object recognition unit 20 includes a binarization processing unit 22, a noise estimation unit 24, and a cell object feature amount calculation unit 26. The classification model generation unit 30 includes a characteristic object extraction unit 32, a candidate classification model formation unit 34, and a classification model determination unit 36.

入出力部10は、既知の同一属性の複数の細胞が撮像された撮像画像(以下、「既知同一属性撮像画像」という)を、当該細胞に係る属性情報とともに外部から取得し、細胞オブジェクト認識部20の2値化処理部22に出力する。属性情報は、当該細胞の名称、培養条件等を含む情報である。従って、既知同一属性撮像画像内に撮像されている細胞は、名称、培養条件等が全て同一の細胞である。既知同一属性撮像画像の取得元である外部は、例えば、インキュベータ311であるが、インキュベータ311については後述する。   The input / output unit 10 obtains, from the outside, a captured image obtained by capturing a plurality of cells having a known identical attribute (hereinafter referred to as “known identical-attribute captured image”) together with attribute information related to the cell, and a cell object recognizing unit 20 to the binarization processing unit 22. The attribute information is information including the name of the cell, culture conditions, and the like. Accordingly, the cells imaged in the known identical attribute captured image are all cells having the same name, culture conditions, and the like. The outside from which the known identical attribute captured image is acquired is, for example, an incubator 311. The incubator 311 will be described later.

また、入出力部10は、既知同一属性撮像画像を、属性情報及び撮像条件情報とともに外部から取得し、2値化処理部22に出力してもよい。撮像条件情報は、観察倍率や顕微鏡の光学系の収差、容器内の観察地点等を含む情報である。   The input / output unit 10 may acquire a known identical attribute captured image from the outside together with the attribute information and the imaging condition information, and output the acquired image to the binarization processing unit 22. The imaging condition information is information including the observation magnification, the aberration of the optical system of the microscope, the observation point in the container, and the like.

細胞オブジェクト認識部20は、既知同一属性撮像画像内の個々の細胞の撮像領域を細胞オブジェクトとして認識する。つまり、細胞オブジェクト認識部20の2値化処理部22が、既知同一属性撮像画像を2値化処理し、細胞オブジェクト認識部20のノイズ推定部24が、2値化処理後のデータ(以下、「2値化データ」という)から得られる全オブジェクトのなかからノイズに係るオブジェクト(以下、「ノイズオブジェクト」という)を推定し、細胞オブジェクト特徴量算出部26が、ノイズオブジェクト以外のオブジェクト(即ち、細胞オブジェクト)を認識する。以下、2値化処理部22、ノイズ推定部24及び細胞オブジェクト特徴量算出部26について順に説明する。   The cell object recognizing unit 20 recognizes an imaging region of each cell in the known identical attribute captured image as a cell object. That is, the binarization processing unit 22 of the cell object recognition unit 20 binarizes the known identical attribute captured image, and the noise estimation unit 24 of the cell object recognition unit 20 performs data after binarization processing (hereinafter referred to as “binary processing”). An object related to noise (hereinafter referred to as a “noise object”) is estimated from all objects obtained from “binary data”), and the cell object feature amount calculation unit 26 determines an object other than the noise object (ie, an object other than the noise object). Cell object). Hereinafter, the binarization processing unit 22, the noise estimation unit 24, and the cell object feature amount calculation unit 26 will be described in order.

2値化処理部22は、入出力部10から取得した既知同一属性撮像画像を所定の閾値によって2値化処理する。上記所定の閾値は、細胞の種類に応じたものであってもよい。例えば、2値化処理部22は、他の領域に比べて細胞の領域が黒めに撮像される既知同一属性撮像画像において、培養容器に固着する細胞である接着系細胞が撮像された場合、1つの閾値を用いて既知同一属性撮像画像を2値化処理する。より詳細には、2値化処理部22は、1つの閾値として画素値84を用いて、画素値84未満の領域を細胞の領域(例えば反転させて白)、画素値84以上の領域を細胞以外の領域(例えば反転させて黒)とする。また、例えば、2値化処理部22は、他の領域に比べて細胞の領域が黒めに撮像される既知同一属性撮像画像において、培養容器に固着せずに培養液中を浮遊する細胞である浮遊系細胞が撮像された場合、2つの閾値を用いて既知同一属性撮像画像を2値化処理する。より詳細には、2値化処理部22は、2つの閾値として画素値80、149を用いて、画素値80以上149未満の領域を細胞の領域(例えば反転させて白)、画素値80未満又は149以上の領域を細胞以外の領域(例えば反転させて黒)とする。なお、2値化処理部22は、既知同一属性撮像画像内に撮像されている細胞が、接着系細胞であるか浮遊系細胞であるかを示す情報を、入出力部10を介してインキュベータ311から取得し、上記閾値を決定してよい。   The binarization processing unit 22 binarizes the known identical attribute captured image acquired from the input / output unit 10 with a predetermined threshold. The predetermined threshold may be in accordance with the type of cell. For example, the binarization processing unit 22 captures an image of an adhesive cell that is a cell that adheres to a culture container in a known identical-attribute captured image in which a cell region is captured in black compared to other regions. A binarization process is performed on a known identical attribute captured image using two threshold values. More specifically, the binarization processing unit 22 uses the pixel value 84 as one threshold value, a region less than the pixel value 84 is a cell region (for example, inverted white), and a region greater than the pixel value 84 is a cell. Regions other than (for example, black by inversion). Further, for example, the binarization processing unit 22 is a cell that floats in the culture solution without being fixed to the culture vessel in a known identical-attribute captured image in which the cell region is imaged blacker than other regions. When a floating cell is imaged, a binarized process is performed on a known identical attribute captured image using two threshold values. More specifically, the binarization processing unit 22 uses the pixel values 80 and 149 as the two threshold values, converts the region of the pixel value 80 or more and less than 149 to the cell region (for example, inverted white), and the pixel value of less than 80. Alternatively, the region of 149 or more is set as a region other than the cell (for example, inverted to black). Note that the binarization processing unit 22 uses the input / output unit 10 to send information indicating whether the cells imaged in the known identical attribute captured image are adhesive cells or floating cells to the incubator 311. And the threshold value may be determined.

既知同一属性撮像画像を2値化処理した2値化処理部22は、入出力部10から取得した属性情報とともに、2値化データをノイズ推定部24に出力する。なお、2値化処理部22は、入出力部10から撮像条件情報を取得した場合には、属性情報及び撮像条件情報とともに、2値化データをノイズ推定部24に出力する。   The binarization processing unit 22 that binarized the known identical attribute captured image outputs the binarized data to the noise estimation unit 24 together with the attribute information acquired from the input / output unit 10. The binarization processing unit 22 outputs the binarized data to the noise estimation unit 24 together with the attribute information and the imaging condition information when acquiring the imaging condition information from the input / output unit 10.

ノイズ推定部24は、2値化処理部22から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する。以下、ノイズ推定部24によるノイズオブジェクトの推定方法について説明する。ノイズ推定部24は、まず、2値化処理部22から取得した2値化データから得られる各オブジェクトのオブジェクトサイズを測定する。   The noise estimation unit 24 estimates a noise object from all objects obtained from the binarized data acquired from the binarization processing unit 22. Hereinafter, a noise object estimation method by the noise estimation unit 24 will be described. The noise estimation unit 24 first measures the object size of each object obtained from the binarized data acquired from the binarization processing unit 22.

各オブジェクトのオブジェクトサイズを測定したノイズ推定部24は、各オブジェクトのオブジェクトサイズの合計値に対する、一のオブジェクトサイズ迄のオブジェクトサイズの累積値の度数である累積度を算出する。例えば、ノイズ推定部24は、図2(a)に示すように、累積度分布を生成する。図2(a)に示す累積度分布において、X軸方向は単位をピクセルとするオブジェクトサイズ、Y軸方向は単位を百分率とする累積度である。   The noise estimation unit 24 that measures the object size of each object calculates a cumulative degree that is the frequency of the cumulative value of the object size up to one object size with respect to the total object size of each object. For example, the noise estimation unit 24 generates a cumulative distribution as shown in FIG. In the cumulative degree distribution shown in FIG. 2A, the X-axis direction is the object size in units of pixels, and the Y-axis direction is the cumulative degree in units.

累積度を算出したノイズ推定部24は、算出した累積度の微分値に基づいて、ノイズオブジェクトを推定する。例えば、ノイズ推定部24は、図2(b)に示すように、図2(a)に示す累積度分布の微分値(傾き)を算出し、当該微分値に基づいて、ノイズオブジェクトを推定する。具体的には、ノイズ推定部24は、微分値の極小値を探索し、該極小値または該極小値の近傍を閾値として決定する。例えば、ノイズ推定部24は、極小値(図2(b)において値A)、または、極小値の近傍の値であって極小値よりも小さい値(図2(b)において値(A−α))から極小値の近傍の値であって極小値よりも大きい値(図2(b)において値(A+α))の範囲内の値を閾値として決定する。なお、経験上、閾値は、極小値の近傍の値であって極小値よりも小さい値とすることが好ましい。   The noise estimation unit 24 that has calculated the cumulative degree estimates a noise object based on the calculated differential value of the cumulative degree. For example, as shown in FIG. 2B, the noise estimation unit 24 calculates a differential value (slope) of the cumulative distribution shown in FIG. 2A, and estimates a noise object based on the differential value. . Specifically, the noise estimation unit 24 searches for the minimum value of the differential value, and determines the minimum value or the vicinity of the minimum value as a threshold value. For example, the noise estimation unit 24 may determine the minimum value (value A in FIG. 2B) or a value near the minimum value and smaller than the minimum value (value (A−α in FIG. 2B)). )) In the vicinity of the minimum value and larger than the minimum value (value (A + α) in FIG. 2B) is determined as the threshold value. From experience, it is preferable that the threshold value is a value near the minimum value and smaller than the minimum value.

ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトをノイズオブジェクトとして推定する。若しくは、ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトにノイズオブジェクトである旨のラベルを付与し、オブジェクトサイズが該閾値以上であるオブジェクトに細胞オブジェクトである旨のラベルを付与する。   The noise estimation unit 24 estimates an object whose object size is less than the threshold as a noise object. Alternatively, the noise estimation unit 24 assigns a label indicating that the object size is less than the threshold value to the object that is a noise object, and assigns a label indicating that the object size is a cell object to an object that the object size is equal to or greater than the threshold value.

なお、図2(a)(b)の上部の「noise」「sell」の語は、値(A−α)以下のオブジェクトサイズでは、オブジェクトサイズが小さければ小さいほどノイズオブジェクトである可能性が高く、値(A+α)以上のオブジェクトサイズでは、オブジェクトサイズが大きければ大きいほど細胞オブジェクトである可能性が高いことを表したものである。   Note that the words “noise” and “cell” at the top of FIGS. 2A and 2B are more likely to be noise objects when the object size is smaller than the value (A−α). The object size equal to or larger than the value (A + α) indicates that the larger the object size, the higher the possibility of being a cell object.

2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定したノイズ推定部24は、属性情報とともに、2値化データ、及び、ノイズ推定部24による推定結果を示す情報(以下、「推定結果情報」という)を細胞オブジェクト特徴量算出部26に出力する。推定結果情報の一例は、ノイズオブジェクトの領域を示す情報、または、ノイズオブジェクトまたは細胞オブジェクトの何れかである旨のラベルが付与された各オブジェクトの領域を示す情報である。なお、ノイズ推定部24は、2値化処理部22から撮像条件情報を取得した場合には、属性情報及び撮像条件情報とともに、2値化データ及び推定結果情報を細胞オブジェクト特徴量算出部26に出力する。   The noise estimation unit 24 that estimated the noise object from all the objects obtained from the binarized data includes the binarized data and information indicating the estimation result by the noise estimation unit 24 (hereinafter referred to as “estimation result”) along with the attribute information. Information ”) is output to the cell object feature amount calculation unit 26. An example of the estimation result information is information indicating the area of the noise object, or information indicating the area of each object to which a label indicating that the object is a noise object or a cell object is given. Note that when the imaging condition information is acquired from the binarization processing unit 22, the noise estimation unit 24 sends the binarized data and the estimation result information to the cell object feature amount calculation unit 26 together with the attribute information and the imaging condition information. Output.

なお、ノイズ推定部24は、最急降下法などの極値探索法を用いて、微分値の極小値を探索してもよいが、オブジェクトサイズが所定値以上の範囲において微分値の極小値を探索してもよい。具体的には、複数枚の数種類の画像を比較検証した結果から、所定値以上の範囲は、100pixel以上とすると好適である。   The noise estimation unit 24 may search for the minimum value of the differential value using an extreme value search method such as the steepest descent method, but searches for the minimum value of the differential value in a range where the object size is equal to or larger than a predetermined value. May be. Specifically, it is preferable that the range of a predetermined value or more is 100 pixels or more based on the result of comparison and verification of several types of images.

また、ノイズ推定部24は、累積度を構成するオブジェクトサイズ及び累積値の各点のうち、所定間隔の2点を用いて微分値を算出してもよい。例えば、ノイズ推定部24は、累積度分布の微分を点、即ち、傾きを算出する点を10点間隔としてもよい。   Moreover, the noise estimation part 24 may calculate a differential value using two points | pieces of a predetermined space | interval among each point of the object size and accumulation value which comprise accumulation degree. For example, the noise estimator 24 may set the differentiation of the cumulative degree distribution as points, that is, the point at which the slope is calculated as 10-point intervals.

細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する。換言すれば、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する。   Based on the binarized data and the estimation result information acquired from the noise estimating unit 24, the cell object feature amount calculating unit 26 removes the noise object from all the objects obtained from the binarized data. In other words, the cell object feature amount calculation unit 26 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 24.

続いて、細胞オブジェクト特徴量算出部26は、認識した個々の細胞オブジェクトの形態的特徴量を算出する。一例として、細胞オブジェクト特徴量算出部26は、各細胞オブジェクトについて以下の15種類の形態的特徴量をそれぞれ算出する。   Subsequently, the cell object feature amount calculation unit 26 calculates the morphological feature amount of each recognized cell object. As an example, the cell object feature amount calculation unit 26 calculates the following 15 types of morphological feature amounts for each cell object.

・Total area(図3の(a)参照)
「Total area」は、注目する細胞の面積を示す値である。例えば、細胞オブジェクト特徴量算出部26は、注目する細胞の領域の画素数に基づいて「Total area」の値を算出することができる。
・ Total area (see (a) of FIG. 3)
“Total area” is a value indicating the area of the cell of interest. For example, the cell object feature amount calculation unit 26 can calculate the value of “Total area” based on the number of pixels in the cell area of interest.

・Hole area(図3の(b)参照)
「Hole area」は、注目する細胞内のHoleの面積を示す値である。ここで、Holeは、コントラストによって、細胞内における画像の明るさが閾値以上となる部分(位相差観察では白に近い状態となる箇所)を指す。例えば、細胞内小器官のリソソームなどがHoleとして検出される。また、画像によっては、細胞核や、他の細胞小器官がHoleとして検出されうる。なお、細胞オブジェクト特徴量算出部26は、細胞内における輝度値が閾値以上となる画素のまとまりをHoleとして検出し、このHoleの画素数に基づいて「Hole area」の値を算出すればよい。
・ Hole area (see (b) of FIG. 3)
“Hole area” is a value indicating the area of Hole in the cell of interest. Here, Hole refers to a portion where the brightness of the image in the cell is equal to or greater than a threshold value due to contrast (a portion that is close to white in phase difference observation). For example, lysosomes of intracellular organelles are detected as Hole. Further, depending on the image, a cell nucleus and other organelles can be detected as Hole. Note that the cell object feature amount calculation unit 26 may detect a group of pixels in which the luminance value in the cell is equal to or greater than the threshold as Hole, and calculate the value of “Hole area” based on the number of pixels of the Hole.

・relative hole area(図3の(c)参照)
「relative hole area」は、「Hole area」の値を「Total area」の値で除した値である(relative hole area=Hole area/Total area)。この「relative hole area」は、細胞の大きさにおける細胞内小器官の割合を示すパラメータであって、例えば細胞内小器官の肥大化や核の形の悪化などに応じてその値が変動する。
・ Relative hole area (see (c) of FIG. 3)
“Relative hole area” is a value obtained by dividing the value of “Hole area” by the value of “Total area” (relative hole area = Hole area / Total area). The “relative hole area” is a parameter indicating the ratio of the organelle in the cell size, and the value varies depending on, for example, enlargement of the organelle or deterioration of the shape of the nucleus.

・Perimeter(図3(d)参照)
「Perimeter」は、注目する細胞の外周の長さを示す値である。例えば、細胞オブジェクト特徴量算出部26は、細胞を抽出するときの輪郭追跡処理により「Perimeter」の値を取得することができる。
・ Perimeter (see Fig. 3 (d))
“Perimeter” is a value indicating the length of the outer periphery of the cell of interest. For example, the cell object feature amount calculation unit 26 can acquire the value of “Perimeter” by the contour tracking process when extracting cells.

・Width(図3の(e)参照)
「Width」は、注目する細胞の画像横方向(X方向)での長さを示す値である。
Width (see (e) of FIG. 3)
“Width” is a value indicating the length of the cell of interest in the horizontal direction (X direction) of the image.

・Height(図3の(f)参照)
「Height」は、注目する細胞の画像縦方向(Y方向)での長さを示す値である。
・ Height (see (f) of FIG. 3)
“Height” is a value indicating the length of the cell of interest in the image vertical direction (Y direction).

・Length(図3の(g)参照)
「Length」は、注目する細胞を横切る線のうちの最大値(細胞の全長)を示す値である。
-Length (see (g) of FIG. 3)
“Length” is a value indicating the maximum value (the total length of the cell) of the lines crossing the cell of interest.

・Breadth(図3の(h)参照)
「Breadth」は、「Length」に直交する線のうちの最大値(細胞の横幅)を示す値である。
・ Breadth (see (h) of FIG. 3)
“Breadth” is a value indicating the maximum value (lateral width of the cell) of lines orthogonal to “Length”.

・Fiber Length(図3の(i)参照)
「Fiber Length」は、注目する細胞を擬似的に線状と仮定した場合の長さを示す値である。細胞オブジェクト特徴量算出部26は、下記式(1)により「Fiber Length」の値を算出する。
・ Fiber Length (see (i) of FIG. 3)
“Fiber Length” is a value indicating the length when the target cell is assumed to be pseudo linear. The cell object feature amount calculation unit 26 calculates the value of “Fiber Length” by the following equation (1).

Figure 0005732201
Figure 0005732201

但し、本明細書の式中において「P」はPerimeterの値を示す。同様に「A」はTotal Areaの値を示す。   However, in the formulas in this specification, “P” indicates the value of Perimeter. Similarly, “A” indicates the value of Total Area.

・Fiber Breadth(図3の(j)参照)
「Fiber Breadth」は、注目する細胞を擬似的に線状と仮定した場合の幅(Fiber Lengthと直交する方向の長さ)を示す値である。細胞オブジェクト特徴量算出部26は、下記式(2)により「Fiber Breadth」の値を算出する。
・ Fiber Breath (see (j) of FIG. 3)
“Fiber Breath” is a value indicating a width (a length in a direction orthogonal to Fiber Length) when the target cell is assumed to be pseudo linear. The cell object feature amount calculation unit 26 calculates the value of “Fiber Breath” by the following equation (2).

Figure 0005732201
Figure 0005732201

・Shape Factor(図3の(k)参照)
「Shape Factor」は、注目する細胞の円形度(細胞の丸さ)を示す値である。細胞オブジェクト特徴量算出部26は、下記式(3)により「Shape Factor」の値を算出する。
Shape Factor (see (k) in FIG. 3)
“Shape Factor” is a value indicating the circularity of the cell of interest (cell roundness). The cell object feature amount calculation unit 26 calculates the value of “Shape Factor” by the following equation (3).

Figure 0005732201
Figure 0005732201

・Elliptical form Factor(図3の(l)参照)
「Elliptical form Factor」は、「Length」の値を「Breadth」の値で除した値(Elliptical form Factor=Length/Breadth)であって、注目する細胞の細長さの度合い(楕円形度)を示すパラメータとなる。
Elliptical form factor (see (l) in FIG. 3)
“Elliptical form Factor” is a value obtained by dividing the value of “Length” by the value of “Breadth” (Elliptical form Factor = Length / Breadth), which indicates the degree of slenderness (ellipticity) of the cell of interest. It becomes a parameter.

・Inner radius(図3の(m)参照)
「Inner radius」は、注目する細胞の内接円の半径を示す値である。
・ Inner radius (see (m) of FIG. 3)
“Inner radius” is a value indicating the radius of the inscribed circle of the cell of interest.

・Outer radius(図3の(n)参照)
「Outer radius」は、注目する細胞の外接円の半径を示す値である。
・ Outer radius (see (n) of FIG. 3)
“Outer radius” is a value indicating the radius of the circumscribed circle of the cell of interest.

・Mean radius(図3の(o)参照)
「Mean radius」は、注目する細胞の輪郭を構成する全点とその重心点との平均距離を示す値である。
・ Mean radius (see (o) of FIG. 3)
“Mean radius” is a value indicating the average distance between all the points constituting the outline of the cell of interest and its center of gravity.

・Equivalent radius(図3の(p)参照)
「Equivalent radius」は、注目する細胞と同面積の円の半径を示す値である。この「Equivalent radius」のパラメータは、注目する細胞を仮想的に円に近似した場合の大きさを示している。
Equivalent radius (see (p) of FIG. 3)
“Equivalent radius” is a value indicating the radius of a circle having the same area as the cell of interest. The parameter “Equivalent radius” indicates the size when the cell of interest is virtually approximated to a circle.

ここで、細胞オブジェクト特徴量算出部26は、細胞に対応する画素数に誤差分を加味して上記の各形態的特徴量を算出してもよい。このとき、細胞オブジェクト特徴量算出部26は、顕微鏡画像の撮像条件(観察倍率や顕微鏡の光学系の収差等)を考慮して形態的特徴量を算出するようにしてもよい。なお、「Inner radius」、「Outer radius」、「Mean radius」、「Equivalent radius」を算出するときには、細胞オブジェクト特徴量算出部26は、公知の重心演算の手法に基づいて各細胞の重心点を求め、この重心点を基準にして各パラメータを算出すればよい。   Here, the cell object feature value calculation unit 26 may calculate each of the morphological feature values by adding an error to the number of pixels corresponding to the cell. At this time, the cell object feature amount calculation unit 26 may calculate the morphological feature amount in consideration of imaging conditions of the microscope image (observation magnification, aberration of the optical system of the microscope, and the like). When calculating “Inner radius”, “Outer radius”, “Mean radius”, and “Equivalent radius”, the cell object feature amount calculation unit 26 calculates the center of gravity of each cell based on a known center of gravity calculation method. What is necessary is just to obtain | require and calculate each parameter on the basis of this barycentric point.

個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部26は、属性情報に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する。なお、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から撮像条件情報を取得した場合には、属性情報及び撮像条件情報に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する。   The cell object feature amount calculation unit 26 that has calculated the morphological feature amount of each cell object stores the morphological feature amount of each cell object in the cell object storage unit 72 in association with the attribute information. When the cell object feature value calculation unit 26 acquires the imaging condition information from the noise estimation unit 24, the cell object feature value calculation unit 26 associates the morphological feature value of each cell object with the cell object storage in association with the attribute information and the imaging condition information. Store in the unit 72.

細胞オブジェクト記憶部72は、種々の属性の細胞を撮像した複数の既知同一属性撮像画像から認識された細胞オブジェクトに関する情報を記憶する。具体的には、細胞オブジェクト記憶部72は、図4に示すように、既知同一属性撮像を識別する画像IDに対応付けて、属性情報、撮像条件情報、及び、個々の細胞オブジェクトの形態的特徴量を記憶する。例えば、図4に示す例において、細胞オブジェクト記憶部72は、画像ID「P001」に対応付けて、名称「A」、培養条件「○○」、活性「××」を含む属性情報、観察倍率「X倍」を含む撮像条件情報、及び、N個の細胞オブジェクトの形態的特徴量を記憶している。 The cell object storage unit 72 stores information related to cell objects recognized from a plurality of known identical attribute captured images obtained by imaging cells having various attributes. Specifically, as shown in FIG. 4, the cell object storage unit 72 associates attribute information, imaging condition information, and morphological characteristics of each cell object with an image ID that identifies known identical attribute imaging. Remember the amount. For example, in the example illustrated in FIG. 4, the cell object storage unit 72 associates the image ID “P001” with the attribute information including the name “A”, the culture condition “OO”, and the activity “XX”, and the observation magnification. The imaging condition information including “X times” and the morphological feature amount of N 1 cell objects are stored.

抽出条件記憶部74は、特徴的オブジェクト抽出部32が細胞オブジェクト記憶部72のなかから分類モデルの候補となるモデル(以下、「候補分類モデル」という)の生成に用いる特徴的なオブジェクト(以下、「特徴的オブジェクト」という)を抽出するときの抽出条件を記憶する。例えば、抽出条件記憶部74は、図5に示すように、個々の細胞オブジェクトが有する複数の形態的特徴量に係る抽出条件情報を記憶する。図5に示す例では、抽出条件記憶部74は、抽出条件1として「面積が平均値より上位25%を抽出」、抽出条件2として「面積が平均値より下位25%を抽出」、…、抽出条件5として「幅が平均値より上位25%を抽出」、抽出条件6として「幅が平均値より下位25%を抽出」を記憶している。   The extraction condition storage unit 74 includes a characteristic object (hereinafter referred to as “candidate classification model”) that is used by the characteristic object extraction unit 32 to generate a model that is a classification model candidate (hereinafter referred to as “candidate classification model”) from the cell object storage unit 72. The extraction condition when extracting “characteristic object”) is stored. For example, as illustrated in FIG. 5, the extraction condition storage unit 74 stores extraction condition information related to a plurality of morphological feature amounts of individual cell objects. In the example shown in FIG. 5, the extraction condition storage unit 74 has the extraction condition 1 “extract the upper 25% from the average value”, the extraction condition 2 “extract the lower 25% from the average value”,. As extraction condition 5, “extract 25% higher than average value” is stored, and as extraction condition 6, “extract 25% lower than average value” is stored.

なお、抽出条件記憶部74は、図5に示す例においては、「面積」「長さ」「幅」の3種類の形態的特徴量に係る抽出条件を記憶しているが、細胞オブジェクト記憶部72に記憶されている形態的特徴量に対応する全ての形態的特徴量に係る抽出条件を記憶することが好ましい。   In the example shown in FIG. 5, the extraction condition storage unit 74 stores extraction conditions relating to three types of morphological feature amounts of “area”, “length”, and “width”, but the cell object storage unit It is preferable to store extraction conditions relating to all the morphological feature amounts corresponding to the morphological feature amounts stored in 72.

また、図5に示す抽出条件は、平均値を基準値としているが、例えば、最大値、中央値などの平均値以外の値を基準としてもよい。また、図5に示す抽出条件は、所定範囲内を規定する値を25%としているが、25%以外の値であってもよい。また例えば、図5に示す抽出条件は、例えば、抽出条件1と抽出条件2に示すように、同一の形態的特徴量については、所定範囲内を規定する値は同一の値であるが、例えば、抽出条件1として「面積が平均値より上位20%を抽出」、抽出条件2として「面積が平均値より下位30%を抽出」というように、同一の形態的特徴量について、所定範囲内を規定する値が異なる値であってもよい。また例えば、図5に示す抽出条件は、例えば、何れの形態的特徴量についても、所定範囲内を規定する値は同一の値であるが、例えば、抽出条件1として「面積が平均値より上位20%を抽出」、抽出条件5として「幅が平均値より上位30%を抽出」というように、異なる形態的特徴量について、所定範囲内を規定する値が異なる値であってもよい。   Further, the extraction condition shown in FIG. 5 uses the average value as a reference value, but may use a value other than the average value such as a maximum value or a median value as a reference. Further, in the extraction condition shown in FIG. 5, the value defining the predetermined range is 25%, but may be a value other than 25%. Further, for example, as shown in the extraction condition 1 and the extraction condition 2, for example, the extraction condition shown in FIG. 5 has the same value for defining the predetermined range for the same morphological feature amount. The same morphological feature amount within a predetermined range, such as “extract the upper 20% of the area from the average value” as the extraction condition 1 and “extract the lower 30% of the area from the average value” as the extraction condition 2 Different values may be specified. Further, for example, in the extraction condition shown in FIG. 5, for example, the value that defines the predetermined range is the same value for any morphological feature amount. For example, as the extraction condition 1, “the area is higher than the average value” For example, “extracting 20%” and “extracting 30% higher than the average value” as the extraction condition 5 may be different values for different morphological feature values that define the predetermined range.

分類モデル生成部30は、細胞オブジェクトの形態的特徴量及び細胞オブジェクトとして認識された細胞の属性に基づいて、分類モデルを生成する。つまり、分類モデル生成部30の特徴的オブジェクト抽出部32が、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトのなかから所定の形態的特徴量を有する細胞オブジェクトを特徴的オブジェクトとして抽出し、分類モデル生成部30の候補分類モデル形成部34が、特徴的オブジェクトの形態的特徴量及び特徴的オブジェクトとして認識された細胞の属性から複数の候補分類モデルを形成し、分類モデル決定部36が複数の候補分類モデルのなかから分類モデルを決定する。以下、特徴的オブジェクト抽出部32、候補分類モデル形成部34及び分類モデル決定部36について順に説明する。   The classification model generation unit 30 generates a classification model based on the morphological feature amount of the cell object and the attribute of the cell recognized as the cell object. That is, the characteristic object extraction unit 32 of the classification model generation unit 30 extracts a cell object having a predetermined morphological feature amount from the cell objects stored in the cell object storage unit 72 as a characteristic object, and classifies it. The candidate classification model formation unit 34 of the model generation unit 30 forms a plurality of candidate classification models from the morphological feature amounts of the characteristic objects and the attributes of the cells recognized as the characteristic objects, and the classification model determination unit 36 includes the plurality of classification model determination units 36. A classification model is determined from the candidate classification models. Hereinafter, the characteristic object extraction unit 32, the candidate classification model formation unit 34, and the classification model determination unit 36 will be described in order.

特徴的オブジェクト抽出部32は、基準値から所定範囲内の値の形態的特徴量を有する細胞オブジェクトを特徴的オブジェクトとして抽出する。具体的には、特徴的オブジェクト抽出部32は、抽出条件記憶部74に記憶されている抽出条件に従って、細胞オブジェクト記憶部72に記憶されている複数の細胞オブジェクトのなかからに特徴的オブジェクトを抽出する。より詳細には、特徴的オブジェクト抽出部32は、抽出条件記憶部74に記憶されている抽出条件を順次に変えて、細胞オブジェクト記憶部72に記憶されている複数の細胞オブジェクトのなかから、抽出条件毎に特徴的オブジェクトを抽出する。   The characteristic object extraction unit 32 extracts a cell object having a morphological characteristic value within a predetermined range from the reference value as a characteristic object. Specifically, the characteristic object extraction unit 32 extracts a characteristic object from a plurality of cell objects stored in the cell object storage unit 72 according to the extraction conditions stored in the extraction condition storage unit 74. To do. More specifically, the characteristic object extraction unit 32 sequentially extracts the extraction conditions stored in the extraction condition storage unit 74 and extracts from the plurality of cell objects stored in the cell object storage unit 72. A characteristic object is extracted for each condition.

特徴的オブジェクト抽出部32が特徴的オブジェクトを抽出する態様は、種々の態様が考えられる。例えば、細胞オブジェクト記憶部72に図4に示すN個の細胞オブジェクト、N個の細胞オブジェクト、N個の細胞オブジェクトのみが記憶され、抽出条件記憶部74に図5に示す抽出条件情報が記憶されている場合を例に、幾つかの抽出態様を説明する。 There are various modes in which the characteristic object extracting unit 32 extracts the characteristic objects. For example, only N 1 cell objects, N 2 cell objects, and N 3 cell objects shown in FIG. 4 are stored in the cell object storage unit 72, and the extraction condition information shown in FIG. Several extraction modes will be described by taking as an example the case where is stored.

(第1の抽出態様)
特徴的オブジェクト抽出部32は、まず、(N+N+N)個の細胞オブジェクトの面積の平均値、長さの平均値及び幅の平均値を算出する。次いで、特徴的オブジェクト抽出部32は、(N+N+N)個の細胞オブジェクトのなかから、面積に関する抽出条件である抽出条件1又2の何れか一方の抽出条件を満たし、かつ、長さに関する抽出条件である抽出条件3又4の何れか一方の抽出条件を満たし、かつ、幅に関する抽出条件である抽出条件5又6の何れか一方の抽出条件を満たす細胞オブジェクトを特徴的オブジェクトとして抽出する。例えば、特徴的オブジェクト抽出部32は、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内(抽出条件1)であって、かつ、長さが平均値〜平均値より25%小さい値の範囲内(抽出条件4)であって、かつ、幅が平均値〜平均値より25%大きい値の範囲内(抽出条件5)である細胞オブジェクトを特徴的オブジェクトとして抽出する。なお、上記のAND条件(即ち「かつ」)をOR(即ち「または」)としてもよい。第1の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2の{形態的特徴量数}乗パターンである。例えば、上記例の場合、形態的特徴量は3であるため8パターンである。
(First extraction mode)
The characteristic object extraction unit 32 first calculates an average area value, an average length value, and an average width value of (N 1 + N 2 + N 3 ) cell objects. Next, the characteristic object extraction unit 32 satisfies either one of the extraction conditions 1 and 2 which are extraction conditions related to the area among (N 1 + N 2 + N 3 ) cell objects, and is long. A cell object that satisfies any one of the extraction conditions 3 and 4 that are extraction conditions related to the depth and that satisfies the extraction condition 5 or 6 that is the extraction conditions related to the width is defined as a characteristic object. Extract. For example, the characteristic object extraction unit 32 has an area within a range of an average value to a value 25% larger than the average value (extraction condition 1) among (N 1 + N 2 + N 3 ) cell objects, In addition, the length is within the range of the average value to 25% smaller than the average value (extraction condition 4), and the width is within the range of the average value to 25% larger than the average value (extraction condition 5). A certain cell object is extracted as a characteristic object. The AND condition (that is, “and”) may be OR (that is, “or”). In the first extraction mode, the number of patterns for extracting a characteristic object from a cell object is a {2 morphological feature quantity} power pattern. For example, in the case of the above example, since the morphological feature amount is 3, there are 8 patterns.

(第2の抽出態様)
特徴的オブジェクト抽出部32は、抽出条件1に従って、(N+N+N)個の細胞オブジェクトの面積の平均値を算出し、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出する。抽出条件2〜抽出条件6の場合も同様である。第2の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2×{形態的特徴量数}パターンである。例えば、上記例の場合、形態的特徴量は3であるため6パターンである。
(Second extraction mode)
The characteristic object extraction unit 32 calculates an average value of the area of (N 1 + N 2 + N 3 ) cell objects according to the extraction condition 1, and from among the (N 1 + N 2 + N 3 ) cell objects, A cell object whose area is in the range of an average value to a value 25% larger than the average value is extracted as a characteristic object. The same applies to extraction conditions 2 to 6. In the second extraction mode, the number of patterns for extracting characteristic objects from cell objects is 2 × {number of morphological feature values} patterns. For example, in the case of the above example, since the morphological feature amount is 3, there are 6 patterns.

(第3の抽出態様)
特徴的オブジェクト抽出部32は、抽出条件1〜6のうち予め定めた抽出条件1に従って、N個、N個、N個の細胞オブジェクトの面積の平均値を算出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出し、N個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。抽出条件2〜6を用いる場合も同様である。第3の抽出態様においては、細胞オブジェクトから特徴的オブジェクトを抽出するパターン数は、2×{画像数}乗パターンである。例えば、上記例の場合、画像数は3であるため8パターンである。
(Third extraction mode)
The characteristic object extraction unit 32 calculates an average value of the areas of the N 1 , N 2 , and N 3 cell objects according to the extraction condition 1 set in advance among the extraction conditions 1 to 6, and N 1 Among the cell objects, a cell object whose area is in the range of an average value to a value 25% larger than the average value is extracted as a characteristic object, and the area is an average value to an average value among the N 2 cell objects. A cell object within a range of 25% larger value is extracted as a characteristic object, and a cell object whose area is within a range of an average value to a value 25% larger than the average value is selected from N 3 cell objects. You may extract as a characteristic object. The same applies when the extraction conditions 2 to 6 are used. In the third extraction mode, the number of patterns for extracting characteristic objects from cell objects is a 2 × {number of images} power pattern. For example, in the case of the above example, since the number of images is 3, there are 8 patterns.

なお、抽出態様1、2、3の説明において、特徴的オブジェクト抽出部32は、抽出条件1に従って、面積が平均値〜平均値より25%大きい値の範囲内にある細胞オブジェクトを特徴的オブジェクトとして抽出しているが、特徴的オブジェクト抽出部32は、抽出条件1に従って、(N+N+N)個の細胞オブジェクトの面積の平均値を算出し、(N+N+N)個の細胞オブジェクトのうちの面積が平均値以上の細胞オブジェクトを母集団とし、母集団のうち面積が小さい方から25%以内の細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。また、特徴的オブジェクト抽出部32は、母集団のうち面積が小さい方から((N+N+N)/4)個迄に含まれる細胞オブジェクトを特徴的オブジェクトとして抽出してもよい。抽出条件2〜抽出条件6についても同様である。 In the description of the extraction modes 1, 2, and 3, the characteristic object extraction unit 32 uses, as the characteristic object, a cell object whose area is in the range of the average value to a value 25% larger than the average value according to the extraction condition 1. Although extracted, the characteristic object extraction unit 32 calculates an average value of the areas of (N 1 + N 2 + N 3 ) cell objects in accordance with the extraction condition 1 and calculates (N 1 + N 2 + N 3 ) Cell objects having an area of the average value or more of the cell objects may be set as a population, and cell objects within 25% from the smaller area of the population may be extracted as characteristic objects. In addition, the characteristic object extraction unit 32 may extract cell objects included in the population from the smallest area ((N 1 + N 2 + N 3 ) / 4) as characteristic objects. The same applies to the extraction conditions 2 to 6.

特徴的オブジェクト抽出部32は、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出した場合、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。例えば、特徴的オブジェクト抽出部32は、抽出条件を変えて特徴的オブジェクトを抽出する都度、夫々の抽出条件に応じて抽出した特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。   When the characteristic object extraction unit 32 extracts the characteristic object from the cell objects stored in the cell object storage unit 72, the characteristic object extraction unit 32 uses the attribute information and the morphological characteristic amount of each characteristic object as a candidate classification model formation unit. 34. For example, each time the characteristic object is extracted by changing the extraction condition, the characteristic object extraction unit 32 extracts the characteristic object attribute information and the morphological characteristic amount extracted according to each extraction condition as the candidate classification model formation unit 34. Output to.

候補分類モデル形成部34は、特徴的オブジェクトの形態的特徴量及び特徴的オブジェクトとして認識された前記細胞の属性、つまり、特徴的オブジェクト抽出部32から取得した特徴的オブジェクトの属性情報及び形態的特徴量を用いて候補分類モデルを形成(生成)する。   The candidate classification model forming unit 34 includes the morphological feature amount of the characteristic object and the attribute of the cell recognized as the characteristic object, that is, the attribute information and the morphological feature of the characteristic object acquired from the characteristic object extraction unit 32. A candidate classification model is formed (generated) using the quantity.

以下、候補分類モデル形成部34による候補分類モデルの形成方法について説明する。候補分類モデル形成部34は、特徴的オブジェクト抽出部32から取得した特徴的オブジェクトから得られる形態的特徴量に係る分類基準(形態的特徴量の種類及び閾値)を設定し、候補分類モデルを形成する。換言すれば、候補分類モデル形成部34は、候補分類モデルを構成する分類基準(形態的特徴量の種類及び閾値)を、特徴的オブジェクトから得られる形態的特徴量のなかから設定(選択)することによって、候補分類モデルを形成する。   Hereinafter, a method for forming a candidate classification model by the candidate classification model forming unit 34 will be described. The candidate classification model forming unit 34 sets classification criteria (the type and threshold value of the morphological feature amount) related to the morphological feature amount obtained from the characteristic object acquired from the characteristic object extraction unit 32, and forms a candidate classification model. To do. In other words, the candidate classification model forming unit 34 sets (selects) the classification standard (the type and the threshold value of the morphological feature value) constituting the candidate classification model from the morphological feature values obtained from the characteristic object. Thus, a candidate classification model is formed.

図6に示す1番目及びM番目の候補分類モデルは、候補分類モデル形成部34が上述の如く形成した候補分類モデルの一例である。1番目の候補分類モデルは、候補分類モデル形成部34によって、第1段階目の分類基準(形態的特徴量「長さ」及び閾値「12」)、第2段階目の分類基準(形態的特徴量「丸さ」及び閾値「0.7」)が設定された候補分類モデル、M番目の候補分類モデルは、候補分類モデル形成部34によって、第1段階目の分類基準(形態的特徴量「丸さ」及び閾値「12」)、第2段階目の分類基準(形態的特徴量「幅」及び「1.2」)が設定された候補分類モデルである。候補分類モデル形成部34は、形成した各候補分類モデルを候補分類モデル記憶部76に記憶する。なお、図6に示すような多段階に分類基準が設定された候補分類モデルは、未知属性撮像画像、又は、未知属性撮像画像内の細胞を段階的に分類するが、段階的に分類する候補分類モデルの形成方法については後述する。   The first and Mth candidate classification models shown in FIG. 6 are examples of candidate classification models formed by the candidate classification model forming unit 34 as described above. The first candidate classification model is classified by the candidate classification model forming unit 34 into the first stage classification standard (morphological feature amount “length” and threshold “12”), and the second stage classification standard (morphological feature). The candidate classification model and the Mth candidate classification model in which the amount “roundness” and the threshold value “0.7” are set are classified by the candidate classification model forming unit 34 into the first-stage classification criterion (morphological feature quantity “ Roundness ”and threshold value“ 12 ”), and the second-stage classification criteria (morphological feature amounts“ width ”and“ 1.2 ”) are set. The candidate classification model forming unit 34 stores each formed candidate classification model in the candidate classification model storage unit 76. Note that the candidate classification model in which the classification criteria are set in multiple stages as shown in FIG. 6 classifies the unknown attribute captured image or the cells in the unknown attribute captured image in stages. A method for forming the classification model will be described later.

なお、候補分類モデル形成部34は、候補分類モデルの各枝に、細胞の分類先を示す分類先ID(分類インデックスとも称する)を設定する。各分類先IDは、細胞の属性情報に対応するものである。従って、未知属性撮像画像又は未知属性撮像画像内の細胞の分類先IDから、当該未知属性撮像画像又は未知属性撮像画像内の細胞の属性情報を得ることができる。なお、図6において、1番目の候補分類モデル及びM番目の候補分類モデルにおいて、分類先ID「N0001」は、図4の名称「A」、培養条件「○○」、活性「××」を含む属性情報と対応し、分類先ID「N0002」は、名称「B」、培養条件「△△」、活性「□□」を含む属性情報と対応し、分類先ID「N0003」は、名称「C」、培養条件「◎◎」、活性「□□」を含む属性情報と対応している。分類先IDと属性とを対応させるために、細胞オブジェクト特徴量算出部26は、新たな属性情報(属性情報及び撮像条件情報)に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する際に、分類先IDを採番し、属性情報(属性情報及び撮像条件情報)に対応付けて採番した分類先IDを記憶するようにしてもよい。   The candidate classification model forming unit 34 sets a classification destination ID (also referred to as a classification index) indicating a cell classification destination in each branch of the candidate classification model. Each classification destination ID corresponds to cell attribute information. Therefore, the attribute information of the cell in the unknown attribute captured image or the unknown attribute captured image can be obtained from the unknown attribute captured image or the cell classification destination ID in the unknown attribute captured image. In FIG. 6, in the first candidate classification model and the Mth candidate classification model, the classification destination ID “N0001” has the name “A”, the culture condition “OO”, and the activity “XX” in FIG. The classification destination ID “N0002” corresponds to the attribute information including the name “B”, the culture condition “ΔΔ”, and the activity “□□”, and the classification destination ID “N0003” has the name “B”. Corresponds to attribute information including “C”, culture condition “「 ”, and activity“ □□ ”. In order to associate the classification destination ID with the attribute, the cell object feature amount calculation unit 26 associates the morphological feature amount of each cell object with the cell object in association with new attribute information (attribute information and imaging condition information). When storing in the storage unit 72, the classification destination ID may be numbered, and the classification destination ID numbered in association with the attribute information (attribute information and imaging condition information) may be stored.

以下、段階的に細胞オブジェクトの属性を分類する候補分類モデルの形成方法について説明する。候補分類モデル形成部34は、決定木法に基づいた変数選択に候補分類モデルを形成する。例えば、Aという属性の10個の特徴的オブジェクト、Bという属性の10個の特徴的オブジェクト、Cという属性の10個の特徴的オブジェクトが与えられ、各特徴的オブジェクトの形態的特徴量(次元)は15種類(特徴量1、特徴量2、…、特徴量15)であったとした場合、候補分類モデル形成部34は、まず、特徴量1の値を最小〜最大まで順次増加させていき、A、B、Cの3種類の特徴的オブジェクトが、最もよく分類されたときの特徴量1の値を特定する。   Hereinafter, a method of forming a candidate classification model that classifies the attributes of cell objects in stages will be described. The candidate classification model forming unit 34 forms a candidate classification model for variable selection based on the decision tree method. For example, ten characteristic objects having an attribute A, ten characteristic objects having an attribute B, and ten characteristic objects having an attribute C are given, and the morphological feature amount (dimension) of each characteristic object is given. Are 15 types (feature amount 1, feature amount 2,..., Feature amount 15), the candidate classification model forming unit 34 first increases the value of feature amount 1 from the minimum to the maximum, The value of the feature amount 1 when the three types of characteristic objects A, B, and C are best classified is specified.

例えば、候補分類モデル形成部34は、特徴量1のある値において、あるノード(枝先)に、特徴的オブジェクトAが10個中9個、特徴的オブジェクトBが10個中1個、特徴的オブジェクトCが10個中1個あるとき、当該ノードの分類精度を90%と算出する。同様に、候補分類モデル形成部34は、特徴量1の当該値において、全てのノードの分類精度を算出する。各ノードの分類精度は、各ノードに各特徴的オブジェクトが振り分けられたときに高くなるため、候補分類モデル形成部34は、特徴量1の当該値における、全ノードの平均の分類精度を算出する。同様に、候補分類モデル形成部34は、特徴量1の値を増加させて、各特徴量1の値における、全ノードの平均分類精度を算出する。そして、候補分類モデル形成部34は、A、B、Cの3種類の特徴的オブジェクトが最もよく分類されたときの特徴量1の値として、全ノードの平均分類精度が最も高い特徴量1の値を特定する。   For example, the candidate classification model forming unit 34 has, for a certain value of the feature amount 1, a certain object (branch destination) has 9 of 10 characteristic objects A and 1 of 10 characteristic objects B. When there is one object C out of ten, the classification accuracy of the node is calculated as 90%. Similarly, the candidate classification model forming unit 34 calculates the classification accuracy of all nodes for the value of the feature quantity 1. Since the classification accuracy of each node becomes higher when each characteristic object is assigned to each node, the candidate classification model forming unit 34 calculates the average classification accuracy of all nodes in the value of the feature amount 1. . Similarly, the candidate classification model forming unit 34 increases the value of the feature quantity 1 and calculates the average classification accuracy of all nodes at each feature quantity 1 value. Then, the candidate classification model forming unit 34 uses the feature quantity 1 having the highest average classification accuracy of all nodes as the value of the feature quantity 1 when the three types of characteristic objects A, B, and C are best classified. Identify the value.

同様に、候補分類モデル形成部34は、全ノードの平均分類精度が最も高い特徴量2の値、特徴量3の値、…、特徴量15の値を特定する。そして、候補分類モデル形成部34は、特定した特徴量1の値、特徴量2の値、…、特徴量15の値のなかから、候補分類モデルにおける第1段階のルールとして、全ノードの平均分類精度が最も高いものを選択する。以下同様に、候補分類モデル形成部34は、第2段階の以降のルールを選択する。   Similarly, the candidate classification model formation unit 34 specifies the value of feature quantity 2, the value of feature quantity 3,..., The value of feature quantity 15 having the highest average classification accuracy of all nodes. Then, the candidate classification model forming unit 34 calculates the average of all nodes as a first-stage rule in the candidate classification model from among the identified feature value 1, feature value 2 value,..., Feature value 15 value. Select the one with the highest classification accuracy. Similarly, the candidate classification model forming unit 34 selects a rule after the second stage.

分類モデル決定部36は、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトを各候補分類モデルに投入し、各候補分類モデルの分類精度を評価する。なお、分類モデル決定部36は、既知同一属性撮像画像を各候補分類モデルに投入し、各候補分類モデルの分類精度を評価してもよい。また、分類モデル決定部36は、最も精度が高い候補分類モデルを以降の分類に用いる分類モデルとして決定し、分類モデル記憶部80に記憶する。例えば、分類モデル決定部36は、図7に示すように、決定した分類モデルとともに、算出した分類精度の評価値を分類モデル記憶部80に記憶してもよい。   The classification model determination unit 36 inputs the cell object stored in the cell object storage unit 72 into each candidate classification model, and evaluates the classification accuracy of each candidate classification model. The classification model determination unit 36 may input a known identical attribute captured image into each candidate classification model and evaluate the classification accuracy of each candidate classification model. Further, the classification model determination unit 36 determines the candidate classification model with the highest accuracy as a classification model to be used for the subsequent classification, and stores it in the classification model storage unit 80. For example, as shown in FIG. 7, the classification model determination unit 36 may store the calculated classification accuracy evaluation value in the classification model storage unit 80 together with the determined classification model.

なお、特徴的オブジェクト抽出部32による特徴的オブジェクトの抽出、候補分類モデル形成部34による候補分類モデルの形成、分類モデル決定部36による分類モデルの決定の関係については、例えば、図1において矢印は省略しているが、以下のように実現すればよい。   For example, the arrows in FIG. 1 indicate the relationship between the characteristic object extraction by the characteristic object extraction unit 32, the formation of the candidate classification model by the candidate classification model formation unit 34, and the determination of the classification model by the classification model determination unit 36. Although omitted, it may be realized as follows.

細胞オブジェクト特徴量算出部26は、細胞オブジェクト記憶部72に形態的特徴量を記憶した後に、形態的特徴量を記憶した旨を候補分類モデル形成部34に通知する。候補分類モデル形成部34は、細胞オブジェクト特徴量算出部26から細胞オブジェクト記憶部72に形態的特徴量を記憶した旨の通知を取得した場合、特徴的オブジェクト抽出部32に抽出を要求する。   After storing the morphological feature amount in the cell object storage unit 72, the cell object feature amount calculation unit 26 notifies the candidate classification model forming unit 34 that the morphological feature amount has been stored. When the candidate classification model forming unit 34 obtains a notification that the morphological feature value is stored in the cell object storage unit 72 from the cell object feature value calculation unit 26, the candidate classification model formation unit 34 requests the characteristic object extraction unit 32 to perform extraction.

特徴的オブジェクト抽出部32は、候補分類モデル形成部34から抽出を要求された場合、未だ、全抽出パターンに従って特徴的オブジェクトを抽出していないときは、未抽出パターンに従って特徴的オブジェクトを抽出し、候補分類モデル形成部34に出力する。一方、特徴的オブジェクト抽出部32は、既に、全抽出パターンに従って特徴的オブジェクトを抽出していたときは、抽出が完了した旨を候補分類モデル形成部34に通知する。   When the candidate classification model forming unit 34 requests extraction, the characteristic object extracting unit 32 extracts the characteristic object according to the unextracted pattern when the characteristic object has not yet been extracted according to the entire extracted pattern. The result is output to the candidate classification model forming unit 34. On the other hand, if the characteristic object extraction unit 32 has already extracted characteristic objects according to the entire extraction pattern, the characteristic object extraction unit 32 notifies the candidate classification model formation unit 34 that extraction has been completed.

候補分類モデル形成部34は、特徴的オブジェクト抽出部32から特徴的オブジェクトを取得した場合、候補分類モデルを形成し、候補分類モデル記憶部76に記憶するとともに、特徴的オブジェクト抽出部32に再度、抽出を要求する。一方、候補分類モデル形成部34は、特徴的オブジェクト抽出部32から抽出が完了した旨の通知を取得した場合、分類モデル決定部36に分類モデルの決定を要求する。分類モデル決定部36は、候補分類モデル形成部34から分類モデルの決定を要求された場合、候補分類モデルを評価して、分類モデルを決定する。   When the candidate classification model formation unit 34 acquires a characteristic object from the characteristic object extraction unit 32, the candidate classification model formation unit 34 forms a candidate classification model, stores the candidate classification model in the candidate classification model storage unit 76, and again stores the characteristic object extraction unit 32 in the characteristic object extraction unit 32. Request extraction. On the other hand, when the candidate classification model forming unit 34 obtains notification from the characteristic object extraction unit 32 that extraction has been completed, the candidate classification model formation unit 34 requests the classification model determination unit 36 to determine a classification model. When the classification model determination unit 36 is requested by the candidate classification model formation unit 34 to determine a classification model, the classification model determination unit 36 evaluates the candidate classification model and determines a classification model.

以下、インキュベータ311について説明する。図8は、分類モデル生成装置1と接続するインキュベータ311の一例である。図9、図10は、インキュベータ311の正面図である。   Hereinafter, the incubator 311 will be described. FIG. 8 shows an example of an incubator 311 connected to the classification model generation device 1. 9 and 10 are front views of the incubator 311. FIG.

インキュベータ311は、上部ケーシング312と下部ケーシング313とを有している。インキュベータ311の組立状態において、上部ケーシング312は下部ケーシング313の上に載置される。なお、上部ケーシング312と下部ケーシング313との内部空間は、ベースプレート314によって上下に仕切られている。   The incubator 311 has an upper casing 312 and a lower casing 313. In the assembled state of the incubator 311, the upper casing 312 is placed on the lower casing 313. Note that the internal space between the upper casing 312 and the lower casing 313 is vertically divided by a base plate 314.

まず、上部ケーシング312の構成の概要を説明する。上部ケーシング312の内部には、細胞の培養を行う恒温室315が形成されている。この恒温室315は温度調整装置315a及び湿度調整装置315bを有しており、恒温室315内は細胞の培養に適した環境(例えば温度37℃、湿度90%の雰囲気)に維持されている(なお、図9、図10での温度調整装置315a、湿度調整装置315bの図示は省略する)。   First, the outline of the configuration of the upper casing 312 will be described. A constant temperature room 315 for culturing cells is formed inside the upper casing 312. The temperature-controlled room 315 includes a temperature adjusting device 315a and a humidity adjusting device 315b, and the temperature-controlled room 315 is maintained in an environment suitable for cell culture (for example, an atmosphere having a temperature of 37 ° C. and a humidity of 90%) ( Note that illustration of the temperature adjusting device 315a and the humidity adjusting device 315b in FIGS. 9 and 10 is omitted).

恒温室315の前面には、大扉316、中扉317、小扉318が配置されている。大扉316は、上部ケーシング312及び下部ケーシング313の前面を覆っている。中扉317は、上部ケーシング312の前面を覆っており、大扉316の開放時に恒温室315と外部との環境を隔離する。小扉318は、細胞を培養する培養容器319を搬出入するための扉であって、中扉317に取り付けられている。この小扉318から培養容器319を搬出入することで、恒温室315の環境変化を抑制することが可能となる。なお、大扉316、中扉317、小扉318は、パッキンP1,P2,P3によりそれぞれ気密性が維持されている。   A large door 316, a middle door 317, and a small door 318 are arranged on the front surface of the temperature-controlled room 315. The large door 316 covers the front surfaces of the upper casing 312 and the lower casing 313. The middle door 317 covers the front surface of the upper casing 312 and isolates the environment between the temperature-controlled room 315 and the outside when the large door 316 is opened. The small door 318 is a door for carrying in / out a culture vessel 319 for culturing cells, and is attached to the middle door 317. By carrying in / out the culture vessel 319 from this small door 318, it becomes possible to suppress the environmental change of the temperature-controlled room 315. The large door 316, the middle door 317, and the small door 318 are kept airtight by the packings P1, P2, and P3, respectively.

また、恒温室315には、ストッカー321、観察ユニット322、容器搬送装置323、搬送台324が配置されている。ここで、搬送台324は、小扉318の手前に配置されており、培養容器319を小扉318から搬出入する。   In the temperature-controlled room 315, a stocker 321, an observation unit 322, a container transport device 323, and a transport base 324 are arranged. Here, the transfer table 324 is disposed in front of the small door 318, and carries the culture container 319 out of the small door 318.

ストッカー321は、上部ケーシング312の前面(図10の下側)からみて恒温室315の左側に配置される。ストッカー321は複数の棚を有しており、ストッカー321の各々の棚には培養容器319を複数収納することができる。なお、各々の培養容器319には、培養の対象となる細胞が培地とともに収容されている。   The stocker 321 is disposed on the left side of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312 (the lower side in FIG. 10). The stocker 321 has a plurality of shelves, and each shelf of the stocker 321 can store a plurality of culture vessels 319. Each culture container 319 contains cells to be cultured together with a medium.

観察ユニット322は、上部ケーシング312の前面からみて恒温室315の右側に配置される。この観察ユニット322は、培養容器319内の細胞のタイムラプス観察を実行することができる。   The observation unit 322 is disposed on the right side of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312. This observation unit 322 can execute time-lapse observation of cells in the culture vessel 319.

ここで、観察ユニット322は、上部ケーシング312のベースプレート314の開口部に嵌め込まれて配置される。観察ユニット322は、試料台331と、試料台331の上方に張り出したスタンドアーム332と、位相差観察用の顕微光学系及び撮像装置334を内蔵した本体部分333とを有している。そして、試料台331及びスタンドアーム332は恒温室315に配置される一方で、本体部分333は下部ケーシング313内に収納される。   Here, the observation unit 322 is disposed by being fitted into the opening of the base plate 314 of the upper casing 312. The observation unit 322 includes a sample stage 331, a stand arm 332 projecting above the sample stage 331, and a main body portion 333 incorporating a microscopic optical system for phase difference observation and an imaging device 334. The sample stage 331 and the stand arm 332 are disposed in the temperature-controlled room 315, while the main body portion 333 is accommodated in the lower casing 313.

試料台331は透光性の材質で構成されており、その上に培養容器319を載置することができる。この試料台331は水平方向に移動可能に構成されており、上面に載置した培養容器319の位置を調整できる。また、スタンドアーム332にはLED光源335が内蔵されている。そして、撮像装置334は、スタンドアーム332によって試料台331の上側から透過照明された培養容器319の細胞を、顕微光学系を介して撮像することで細胞の顕微鏡画像を取得できる。   The sample stage 331 is made of a translucent material, and a culture vessel 319 can be placed thereon. The sample stage 331 is configured to be movable in the horizontal direction, and the position of the culture vessel 319 placed on the upper surface can be adjusted. The stand arm 332 has a built-in LED light source 335. The imaging device 334 can acquire a microscopic image of the cells by imaging the cells in the culture vessel 319 that are transmitted and illuminated from above the sample stage 331 by the stand arm 332 via the microscopic optical system.

容器搬送装置323は、上部ケーシング312の前面からみて恒温室315の中央に配置される。この容器搬送装置323は、ストッカー321、観察ユニット322の試料台331及び搬送台324との間で培養容器319の受け渡しを行う。   The container transport device 323 is disposed at the center of the temperature-controlled room 315 when viewed from the front surface of the upper casing 312. The container transport device 323 delivers the culture container 319 between the stocker 321, the sample table 331 of the observation unit 322, and the transport table 324.

図10に示すように、容器搬送装置323は、多関節アームを有する垂直ロボット334と、回転ステージ335と、ミニステージ336と、アーム部337とを有している。回転ステージ335は、垂直ロボット334の先端部に回転軸335aを介して水平方向に180°回転可能に取り付けられている。そのため、回転ステージ335は、ストッカー321、試料台331及び搬送台324に対して、アーム部337をそれぞれ対向させることができる。   As shown in FIG. 10, the container transport device 323 includes a vertical robot 334 having an articulated arm, a rotary stage 335, a ministage 336, and an arm portion 337. The rotary stage 335 is attached to the tip of the vertical robot 334 via a rotary shaft 335a so that it can rotate 180 ° in the horizontal direction. Therefore, the rotation stage 335 can make the arm unit 337 face the stocker 321, the sample table 331, and the transport table 324, respectively.

また、ミニステージ336は、回転ステージ335に対して水平方向に摺動可能に取り付けられている。ミニステージ336には培養容器319を把持するアーム部337が取り付けられている。   The mini stage 336 is attached to the rotary stage 335 so as to be slidable in the horizontal direction. An arm portion 337 for holding the culture vessel 319 is attached to the mini stage 336.

次に、下部ケーシング313の構成の概要を説明する。下部ケーシング313の内部には、観察ユニット322の本体部分333や、インキュベータ311の制御装置341が収納されている。   Next, an outline of the configuration of the lower casing 313 will be described. In the lower casing 313, the main body portion 333 of the observation unit 322 and the control device 341 of the incubator 311 are housed.

制御装置341は、温度調整装置315a、湿度調整装置315b、観察ユニット322及び容器搬送装置323とそれぞれ接続されている。この制御装置341は、所定のプログラムに従ってインキュベータ311の各部を統括的に制御する。   The control device 341 is connected to the temperature adjustment device 315a, the humidity adjustment device 315b, the observation unit 322, and the container transport device 323, respectively. The control device 341 comprehensively controls each part of the incubator 311 according to a predetermined program.

一例として、制御装置341は、CPU342及び記憶部343を有し、温度調整装置315a及び湿度調整装置315bをそれぞれ制御して恒温室315内を所定の環境条件に維持する。また、制御装置341は、所定の観察スケジュールに基づいて、観察ユニット322及び容器搬送装置323を制御して、培養容器319の観察シーケンスを自動的に実行する。   As an example, the control device 341 includes a CPU 342 and a storage unit 343, and controls the temperature adjustment device 315a and the humidity adjustment device 315b, respectively, to maintain the inside of the temperature-controlled room 315 at predetermined environmental conditions. The control device 341 controls the observation unit 322 and the container transport device 323 based on a predetermined observation schedule, and automatically executes the observation sequence of the culture vessel 319.

記憶部343は、ハードディスクや、フラッシュメモリ等の不揮発性の記憶媒体などで構成される。この記憶部343には、ストッカー321に収納されている各培養容器319に関する管理データと、撮像装置で撮像された顕微鏡画像のデータとが記憶されている。さらに、記憶部343には、CPU342によって実行されるプログラムが記憶されている。   The storage unit 343 is configured with a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 343 stores management data regarding each culture vessel 319 stored in the stocker 321 and data of a microscope image captured by the imaging device. Further, the storage unit 343 stores a program executed by the CPU 342.

なお、上記の管理データには、(a)個々の培養容器319を示すインデックスデータ、(b)ストッカー321での培養容器319の収納位置、(c)培養容器319の種類及び形状(ウェルプレート、ディッシュ、フラスコなど)、(d)培養容器319で培養されている細胞の種類、(e)培養容器319の観察スケジュール、(f)タイムラプス観察時の撮像条件(対物レンズの倍率、容器内の観察地点等)、などが含まれている。また、ウェルプレートのように複数の小容器で同時に細胞を培養できる培養容器319については、各々の小容器ごとにそれぞれ管理データが生成される。   The management data includes (a) index data indicating individual culture containers 319, (b) the storage position of the culture container 319 in the stocker 321 and (c) the type and shape of the culture container 319 (well plate, (Dish, flask, etc.), (d) type of cells cultured in culture vessel 319, (e) observation schedule of culture vessel 319, (f) imaging conditions during time-lapse observation (magnification of objective lens, observation in vessel) Point, etc.). In addition, regarding the culture container 319 that can simultaneously culture cells in a plurality of small containers such as a well plate, management data is generated for each small container.

以下、フローチャートを用いて、分類モデル生成装置1の動作を説明する。図11は、分類モデル生成装置1の動作の一例を示すフローチャートである。図12は、ノイズ推定部24の動作の一例を示すフローチャートである。図11において、入出力部10は、外部から属性情報、撮像条件情報及び既知同一属性撮像画像を取得する(ステップS112)。入出力部10は、外部から取得した属性情報、撮像条件情報及び既知同一属性撮像画像を2値化処理部22に出力する。   Hereinafter, the operation of the classification model generation device 1 will be described using a flowchart. FIG. 11 is a flowchart illustrating an example of the operation of the classification model generation device 1. FIG. 12 is a flowchart illustrating an example of the operation of the noise estimation unit 24. In FIG. 11, the input / output unit 10 acquires attribute information, imaging condition information, and a known identical attribute captured image from the outside (step S112). The input / output unit 10 outputs the attribute information, the imaging condition information, and the known identical attribute captured image acquired from the outside to the binarization processing unit 22.

2値化処理部22は、入出力部10から取得した既知同一属性撮像画像を所定の閾値によって2値化処理する(ステップS114)。2値化処理部22は、属性情報及び撮像条件情報とともに2値化データをノイズ推定部24に出力する。   The binarization processing unit 22 binarizes the known identical attribute captured image acquired from the input / output unit 10 with a predetermined threshold (step S114). The binarization processing unit 22 outputs the binarized data to the noise estimation unit 24 together with the attribute information and the imaging condition information.

ノイズ推定部24は、2値化処理部22から2値化データを取得し、取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS120)。具体的には、ノイズ推定部24は、図12に示す各動作を実行する。   The noise estimation unit 24 acquires the binarized data from the binarization processing unit 22, and estimates the noise object from all the objects obtained from the acquired binarized data (step S120). Specifically, the noise estimation unit 24 executes each operation shown in FIG.

図12において、ノイズ推定部24は、2値化処理部22から2値化データを取得する(ステップS121)。次いで、ノイズ推定部24は、当該2値化データから得られる各オブジェクトのオブジェクトサイズを測定する(ステップS122)。次いで、ノイズ推定部24は、各オブジェクトのオブジェクトサイズの合計値に対する、一のオブジェクトサイズ迄のオブジェクトサイズの累積値の度数を表す累積度分布を生成する(ステップS123)。   In FIG. 12, the noise estimation unit 24 acquires binarized data from the binarization processing unit 22 (step S121). Next, the noise estimation unit 24 measures the object size of each object obtained from the binarized data (step S122). Next, the noise estimation unit 24 generates a cumulative distribution representing the frequency of the cumulative value of the object size up to one object size with respect to the total object size of each object (step S123).

次いで、ノイズ推定部24は、該累積度分布において、所定値以上の範囲内における所定間隔の各2点の傾き(微分値)の極小値を探索する(ステップS124)。次いで、ノイズ推定部24は、該極小値の近傍の値であって該極小値よりも小さい値を閾値として決定する(ステップS125)。次いで、ノイズ推定部24は、オブジェクトサイズが該閾値未満であるオブジェクトをノイズオブジェクトとして推定する(ステップS126)。ノイズ推定部24は、属性情報及び撮像条件情報とともに2値化データ及び推定結果情報を細胞オブジェクト特徴量算出部26に出力する。そして、図12に示すフローチャートは終了する。   Next, the noise estimation unit 24 searches for the minimum value of the slope (differential value) of each two points at predetermined intervals within a range equal to or greater than the predetermined value in the cumulative distribution (step S124). Next, the noise estimating unit 24 determines a value near the minimum value and smaller than the minimum value as a threshold (step S125). Next, the noise estimation unit 24 estimates an object whose object size is less than the threshold as a noise object (step S126). The noise estimation unit 24 outputs the binarized data and the estimation result information to the cell object feature amount calculation unit 26 together with the attribute information and the imaging condition information. Then, the flowchart shown in FIG. 12 ends.

図11に戻り、ノイズ推定部24から属性情報及び撮像条件情報とともに2値化データ及び推定結果情報を取得した細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS130)。換言すれば、細胞オブジェクト特徴量算出部26は、ノイズ推定部24から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS130)。   Returning to FIG. 11, the cell object feature amount calculation unit 26 that has acquired the binarized data and the estimation result information together with the attribute information and the imaging condition information from the noise estimation unit 24, the binarized data and the estimation acquired from the noise estimation unit 24. Based on the result information, the noise object is removed from all the objects obtained from the binarized data (step S130). In other words, the cell object feature quantity calculation unit 26 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 24 (step S130).

次いで、細胞オブジェクト特徴量算出部26は、認識した個々の細胞オブジェクトの形態的特徴量を算出する(ステップS132)。個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部26は、属性情報及び撮像条件情報に対応付けて、算出した個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部72に記憶する(ステップS134)。   Next, the cell object feature amount calculation unit 26 calculates the morphological feature amount of each recognized cell object (step S132). The cell object feature amount calculation unit 26 that calculated the morphological feature amount of each cell object associates the calculated morphological feature amount of each cell object with the attribute information and the imaging condition information in the cell object storage unit 72. Store (step S134).

入出力部10は、既知同一属性撮像画像等の取得を終了したか否かを判断する(ステップS136)。入出力部10は、例えば、インキュベータ311から既知同一属性撮像画像等の出力が終了した旨を示す通知、または、分類モデルを生成すべき旨を示す通知を取得した場合に、既知同一属性撮像画像等の取得を終了したと判断する。入出力部10が既知同一属性撮像画像等の取得を終了していないと判断した場合(ステップS136:No)、ステップS112に戻る。   The input / output unit 10 determines whether or not acquisition of a known identical-attribute captured image or the like has been completed (step S136). For example, when the input / output unit 10 obtains a notification indicating that output of a known identical attribute captured image or the like has been completed from the incubator 311 or a notification indicating that a classification model should be generated, the input / output unit 10 knows the known identical attribute captured image. And so on. If the input / output unit 10 determines that acquisition of a known identical-attribute captured image or the like has not been completed (step S136: No), the process returns to step S112.

一方、入出力部10が既知同一属性撮像画像等の取得を終了したと判断した場合(ステップS136:Yes)、細胞オブジェクト特徴量算出部26は、形態的特徴量を記憶した旨を候補分類モデル形成部34に通知する。形態的特徴量を記憶した旨の通知を取得した候補分類モデル形成部34は、特徴的オブジェクト抽出部32に抽出を要求する。抽出を要求された特徴的オブジェクト抽出部32は、一の抽出パターンに従って、細胞オブジェクト記憶部72に記憶されている細胞オブジェクトから特徴的オブジェクトを抽出する(ステップS142)。特徴的オブジェクトを抽出した特徴的オブジェクト抽出部32は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部34に出力する。   On the other hand, when the input / output unit 10 determines that the acquisition of the known identical attribute captured image or the like has been completed (step S136: Yes), the cell object feature amount calculation unit 26 indicates that the morphological feature amount is stored as a candidate classification model. Notify the forming unit 34. The candidate classification model forming unit 34 that has received the notification that the morphological feature quantity has been stored requests the characteristic object extraction unit 32 to perform extraction. The characteristic object extraction unit 32 requested to extract extracts a characteristic object from the cell objects stored in the cell object storage unit 72 according to one extraction pattern (step S142). The characteristic object extraction unit 32 that has extracted the characteristic object outputs the attribute information and the morphological feature amount of each characteristic object to the candidate classification model formation unit 34.

夫々の特徴的オブジェクトの属性情報及び形態的特徴量を取得した候補分類モデル形成部34は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量に基づいて、候補分類モデルを形成(生成)し、候補分類モデルを候補分類モデル記憶部76に記憶する(ステップS144)。次いで、候補分類モデル形成部34は、全ての候補分類モデルを形成したか否かを判断する(ステップS146)。候補分類モデル形成部34は、例えば、特徴的オブジェクト抽出部32に抽出を要求し、特徴的オブジェクト抽出部32から抽出が完了した旨の通知を取得した場合に、全ての候補分類モデルを形成したと判断する。候補分類モデル形成部34が全ての候補分類モデルを形成していないと判断した場合(ステップS146:No)、ステップS142に戻る。なお、再度実行するステップS142において、特徴的オブジェクト抽出部32は、未抽出パターンに従って特徴的オブジェクトを抽出する。   The candidate classification model forming unit 34 that acquired the attribute information and the morphological feature amount of each characteristic object forms (generates) a candidate classification model based on the attribute information and the morphological feature amount of each characteristic object. The candidate classification model is stored in the candidate classification model storage unit 76 (step S144). Next, the candidate classification model forming unit 34 determines whether all candidate classification models have been formed (step S146). For example, when the candidate classification model forming unit 34 requests extraction from the characteristic object extraction unit 32 and obtains notification from the characteristic object extraction unit 32 that extraction has been completed, all candidate classification models are formed. Judge. If the candidate classification model forming unit 34 determines that not all candidate classification models have been formed (step S146: No), the process returns to step S142. In step S142 to be executed again, the characteristic object extraction unit 32 extracts characteristic objects according to the unextracted pattern.

候補分類モデル形成部34は全ての候補分類モデルを形成したと判断した場合(ステップS146:Yes)、分類モデル決定部36に分類モデルの決定を要求する。分類モデルの決定を要求された分類モデル決定部36は、複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部80に記憶する(ステップS150)。そして、図11に示すフローチャートは終了する。   If the candidate classification model forming unit 34 determines that all candidate classification models have been formed (step S146: Yes), it requests the classification model determination unit 36 to determine a classification model. The classification model determination unit 36 requested to determine the classification model determines a classification model from among a plurality of candidate classification models, and stores the classification model in the classification model storage unit 80 (step S150). Then, the flowchart shown in FIG. 11 ends.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について説明する。図13は本発明の第2の実施形態による分類モデル生成装置2の機能ブロック図の一例である。分類モデル生成装置2は、図13に示すように、入出力部10、細胞オブジェクト認識部20、分類モデル生成部40、細胞オブジェクト記憶部72及び分類モデル記憶部80を備える。分類モデル生成部40は、代表的特徴量計算部42及び分類モデル形成部46を備える。なお、入出力部10、細胞オブジェクト認識部20、細胞オブジェクト記憶部72及び分類モデル記憶部80は、図1に示す第1の実施形態の分類モデル生成装置1の入出力部10、細胞オブジェクト認識部20、細胞オブジェクト記憶部72及び分類モデル記憶部80と同様である。
(Second Embodiment)
The second embodiment of the present invention will be described below with reference to the drawings. FIG. 13 is an example of a functional block diagram of the classification model generation device 2 according to the second embodiment of the present invention. As shown in FIG. 13, the classification model generation device 2 includes an input / output unit 10, a cell object recognition unit 20, a classification model generation unit 40, a cell object storage unit 72, and a classification model storage unit 80. The classification model generation unit 40 includes a representative feature quantity calculation unit 42 and a classification model formation unit 46. The input / output unit 10, the cell object recognition unit 20, the cell object storage unit 72, and the classification model storage unit 80 are the same as the input / output unit 10 and the cell object recognition of the classification model generation device 1 of the first embodiment shown in FIG. The same as the unit 20, the cell object storage unit 72, and the classification model storage unit 80.

代表的特徴量計算部42は、既知同一属性撮像画像から認識された複数の細胞オブジェクトの形態的特徴量を代表する代表的特徴量を計算する。例えば、代表的特徴量計算部42は、既知同一属性撮像画像から抽出された複数の細胞オブジェクトの各形態的特徴量の平均値を計算し、各形態的特徴量の平均値を代表的特徴量とする。代表的特徴量計算部42は、各既知同一属性撮像画像から代表的特徴量を計算した場合、各既知同一属性撮像画像から計算した代表的特徴量、及び、各既知同一属性撮像画像の属性情報を分類モデル形成部46に出力する。換言すれば、代表的特徴量計算部42は、代表的特徴量を自身の形態的特徴量とする仮想的な細胞オブジェクト(以下、「仮想的オブジェクト」という)を既知同一属性撮像画像毎に生成し、夫々の仮想的オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を分類モデル形成部46に出力する。   The representative feature amount calculation unit 42 calculates a representative feature amount that represents the morphological feature amounts of the plurality of cell objects recognized from the known identical attribute captured images. For example, the representative feature amount calculation unit 42 calculates the average value of each morphological feature amount of a plurality of cell objects extracted from the known identical attribute captured image, and calculates the average value of each morphological feature amount as the representative feature amount. And When the representative feature amount calculating unit 42 calculates the representative feature amount from each known identical attribute captured image, the representative feature amount calculated from each known identical attribute captured image, and the attribute information of each known identical attribute captured image Is output to the classification model forming unit 46. In other words, the representative feature quantity calculation unit 42 generates a virtual cell object (hereinafter referred to as “virtual object”) having the representative feature quantity as its morphological feature quantity for each known identical attribute captured image. Then, the attribute information and the morphological feature amount (that is, the representative feature amount) of each virtual object are output to the classification model forming unit 46.

分類モデル形成部46は、代表的特徴量計算部42から取得した、既知同一属性撮像画像毎の複数の仮想的オブジェクトの属性情報及び形態的特徴量を用いて分類モデルを生成する。なお、分類モデル形成部46が分類モデルを生成する方法は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル形成部34が候補分類モデルを生成する方法と同様である。分類モデル形成部46は、生成した分類モデルを分類モデル記憶部80に記憶する。   The classification model formation unit 46 generates a classification model using the attribute information and morphological feature amounts of a plurality of virtual objects for each known identical attribute captured image acquired from the representative feature amount calculation unit 42. The method for generating the classification model by the classification model forming unit 46 is the same as the method for generating the candidate classification model by the candidate classification model forming unit 34 of the classification model generating apparatus 1 according to the first embodiment. The classification model forming unit 46 stores the generated classification model in the classification model storage unit 80.

なお、代表的特徴量計算部42は、各形態的特徴量の平均値を代表的特徴量としているが、平均値以外を代表的特徴量としてもよい。例えば、代表的特徴量計算部42は、各形態的特徴量の中央値、標準偏差を代表的特徴量としてもよい。   Note that the representative feature quantity calculation unit 42 uses the average value of each morphological feature quantity as a representative feature quantity, but other than the average value may be used as the representative feature quantity. For example, the representative feature quantity calculation unit 42 may use the median value and standard deviation of each morphological feature quantity as the representative feature quantity.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について説明する。図14は、本発明の第3の実施形態による細胞分類装置3の機能ブロック図の一例である。図15は、検索オブジェクト一時記憶部170に記憶される情報の一例である。図16は、細胞カタログ記憶部190に記憶される情報の一例である。
(Third embodiment)
The third embodiment of the present invention will be described below with reference to the drawings. FIG. 14 is an example of a functional block diagram of the cell classification device 3 according to the third embodiment of the present invention. FIG. 15 is an example of information stored in the search object temporary storage unit 170. FIG. 16 is an example of information stored in the cell catalog storage unit 190.

細胞分類装置3は、図14に示すように、入出力部110、細胞オブジェクト認識部120、特徴的オブジェクト抽出・代表的特徴量計算部152、細胞分類部160、検索オブジェクト一時期億部170、分類モデル記憶部180及び細胞カタログ記憶部190を備える。細胞オブジェクト認識部120は、2値化処理部122、ノイズ推定部124及び細胞オブジェクト特徴量算出部126を備える。   As shown in FIG. 14, the cell classification device 3 includes an input / output unit 110, a cell object recognition unit 120, a characteristic object extraction / representative feature amount calculation unit 152, a cell classification unit 160, a search object one-time billion unit 170, a classification A model storage unit 180 and a cell catalog storage unit 190 are provided. The cell object recognition unit 120 includes a binarization processing unit 122, a noise estimation unit 124, and a cell object feature amount calculation unit 126.

入出力部110は、未知属性撮像画像を外部から取得する。具体的には、未知の異種属性の複数の細胞が撮像された未知属性撮像画像(以下、「未知異種属性撮像画像」という)、又は、未知の同一属性の複数の細胞が撮像された未知属性撮像画像(以下、「未知同一属性撮像画像」という)を外部から取得する。入出力部110は、外部から取得した未知属性撮像画像を細胞オブジェクト認識部120の2値化処理部122に出力する。なお、未知属性撮像画像の取得元である外部は、例えば、当該細胞分類装置3に接続可能な外部媒体(例えば、USBメモリ)、LAN、インターネットなどのネットワークを介して接続される他の装置、または、インキュベータ311である。   The input / output unit 110 acquires an unknown attribute captured image from the outside. Specifically, an unknown attribute captured image obtained by imaging a plurality of cells with unknown different attributes (hereinafter referred to as “unknown different attribute captured image”), or an unknown attribute obtained by imaging a plurality of unknown identical attributes. A captured image (hereinafter referred to as an “unknown identical attribute captured image”) is acquired from the outside. The input / output unit 110 outputs the unknown attribute captured image acquired from the outside to the binarization processing unit 122 of the cell object recognition unit 120. The outside from which the unknown attribute captured image is acquired is, for example, an external medium (for example, a USB memory) that can be connected to the cell classification device 3, other devices connected via a network such as a LAN, the Internet, Alternatively, the incubator 311 is used.

また、入出力部110は、未知属性撮像画像とともに画像種別情報を外部から取得し、2値化処理部122に出力してもよい。画像種別情報とは、当該未知属性撮像画像が、未知異種属性撮像画像であるか未知同一属性撮像画像であるかを識別する情報である。   Further, the input / output unit 110 may acquire image type information from the outside together with the unknown attribute captured image and output the image type information to the binarization processing unit 122. The image type information is information for identifying whether the unknown attribute captured image is an unknown heterogeneous attribute captured image or an unknown identical attribute captured image.

細胞オブジェクト認識部120は、未知属性撮像画像内の個々の細胞オブジェクト(以下、「検索オブジェクト」という)を認識する。具体的には、細胞オブジェクト認識部120の2値化処理部122は、上記の第1の実施形態による分類モデル生成装置1の2値化処理部22と同様、入出力部110から取得した未知属性撮像画像を所定の閾値によって2値化処理する。2値化処理した2値化処理部122は、2値化データをノイズ推定部124に出力する。なお、2値化処理部122は、入出力部110から画像種別情報を取得している場合には、2値化データ及び画像種別情報をノイズ推定部124に出力する。   The cell object recognition unit 120 recognizes individual cell objects (hereinafter referred to as “search objects”) in the unknown attribute captured image. Specifically, the binarization processing unit 122 of the cell object recognition unit 120 is the same as the binarization processing unit 22 of the classification model generation device 1 according to the first embodiment described above. The attribute captured image is binarized by a predetermined threshold value. The binarization processing unit 122 that has performed binarization processing outputs the binarized data to the noise estimation unit 124. Note that the binarization processing unit 122 outputs the binarized data and the image type information to the noise estimation unit 124 when the image type information is acquired from the input / output unit 110.

ノイズ推定部124は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24と同様、2値化処理部122から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する。ノイズオブジェクトを推定したノイズ推定部124は、2値化データとともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。なお、ノイズ推定部124は、2値化処理部122から画像種別情報を取得している場合には、2値化データ及び画像種別情報とともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。   Similar to the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment, the noise estimation unit 124 is a noise object among all objects obtained from the binarized data acquired from the binarization processing unit 122. Is estimated. The noise estimation unit 124 that has estimated the noise object outputs the estimation result information to the cell object feature amount calculation unit 126 together with the binarized data. When the noise estimation unit 124 acquires the image type information from the binarization processing unit 122, the noise estimation unit 124 outputs the estimation result information to the cell object feature amount calculation unit 126 together with the binarized data and the image type information. To do.

細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する。換言すれば、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する。   Based on the binarized data and the estimation result information acquired from the noise estimating unit 124, the cell object feature amount calculating unit 126 removes the noise object from all the objects obtained from the binarized data. In other words, the cell object feature amount calculation unit 126 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 124.

続いて、細胞オブジェクト特徴量算出部126は、上記の第1の実施形態による分類モデル生成装置1の細胞オブジェクト特徴量算出部26と同様、認識した個々の検索オブジェクトの形態的特徴量を算出する。検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部126は、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する。なお、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から画像種別情報を取得している場合には、画像種別情報及び個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する。   Subsequently, the cell object feature quantity calculation unit 126 calculates the morphological feature quantity of each of the recognized search objects in the same manner as the cell object feature quantity calculation unit 26 of the classification model generation device 1 according to the first embodiment. . The cell object feature amount calculation unit 126 that has calculated the morphological feature amount of the search object stores the morphological feature amount of each search object in the search object temporary storage unit 170. Note that the cell object feature amount calculation unit 126 stores the image type information and the morphological feature amount of each search object in the search object temporary storage unit 170 when the image type information is acquired from the noise estimation unit 124. To do.

検索オブジェクト一時記憶部170は、検索オブジェクトに関する情報を記憶する。具体的には、検索オブジェクト一時記憶部170は、図15(a)(b)に示すように、画像種別情報に対応付けて、個々の検索オブジェクトの形態的特徴量を記憶する。図15(a)に示す例では、検索オブジェクト一時記憶部170は、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報(例えば、値0)に対応付けて、N個の検索オブジェクトの形態的特徴量を記憶している。また、図15(b)に示す例では、検索オブジェクト一時記憶部170は、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報(例えば、値1)に対応付けて、N個の検索オブジェクトの形態的特徴量を記憶している。 The search object temporary storage unit 170 stores information related to the search object. Specifically, as shown in FIGS. 15A and 15B, the search object temporary storage unit 170 stores morphological feature amounts of individual search objects in association with image type information. In the example shown in FIG. 15A, the search object temporary storage unit 170 associates N 4 with image type information (for example, value 0) indicating that the search object extraction source is an unknown heterogeneous attribute captured image. The morphological feature amount of each search object is stored. In the example shown in FIG. 15B, the search object temporary storage unit 170 is associated with image type information (for example, value 1) indicating that the search object extraction source is an unknown same-attribute captured image. N stores the morphological features of the five search objects.

なお、検索オブジェクト一時記憶部170の項目「画像種別情報」の初期値は、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報である。従って、細胞オブジェクト特徴量算出部126がノイズ推定部124から画像種別情報を取得しなかった場合、項目「画像種別情報」には、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶される。   Note that the initial value of the item “image type information” in the search object temporary storage unit 170 is image type information indicating that the extraction source of the search object is an unknown different-attribute captured image. Therefore, when the cell object feature quantity calculation unit 126 does not acquire the image type information from the noise estimation unit 124, the item “image type information” indicates that the search object extraction source is an unknown heterogeneous attribute captured image. Image type information is stored.

抽出条件記憶部174は、検索オブジェクト一時記憶部170に記憶されている複数の検索オブジェクトのなかから、検索オブジェクトを抽出するときの抽出条件を記憶する。以下、検索オブジェクト一時記憶部170から抽出される検索オブジェクトを特徴的検索オブジェクトという。なお、抽出条件記憶部174は、上記の第1の実施形態による分類モデル生成装置1の抽出条件記憶部74が記憶する内容と同様の内容の抽出条件を記憶する。   The extraction condition storage unit 174 stores extraction conditions for extracting a search object from among a plurality of search objects stored in the search object temporary storage unit 170. Hereinafter, the search object extracted from the search object temporary storage unit 170 is referred to as a characteristic search object. The extraction condition storage unit 174 stores extraction conditions having the same contents as the contents stored in the extraction condition storage unit 74 of the classification model generation device 1 according to the first embodiment.

特徴的オブジェクト抽出・代表的特徴量計算部152は、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32、及び、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42の機能を備える。即ち、特徴的オブジェクト抽出・代表的特徴量計算部152は、細胞分類装置3に未知異種属性撮像画像が投入された場合には、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32と同様の処理をし、細胞分類装置3に未知同一属性撮像画像が投入された場合には、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42と同様の処理をする。   The characteristic object extraction / representative feature quantity calculation unit 152 includes the characteristic object extraction unit 32 of the classification model generation device 1 according to the first embodiment and the classification model generation device 2 according to the second embodiment. The representative feature amount calculation unit 42 is provided. In other words, the characteristic object extraction / representative feature amount calculation unit 152, when an unknown heterogeneous attribute captured image is input to the cell classification device 3, is characterized by the classification model generation device 1 according to the first embodiment. When processing similar to that performed by the object extraction unit 32 and an unknown identical attribute captured image is input to the cell classification device 3, the representative feature amount calculation unit 42 of the classification model generation device 2 according to the second embodiment described above. The same processing is performed.

具体的には、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、抽出条件記憶部174に記憶されている抽出条件に従って、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトのなかから特徴的検索オブジェクトを抽出する。なお、特徴的オブジェクト抽出・代表的特徴量計算部152は、何れの抽出条件に従って特徴的検索オブジェクトを抽出するかを示す情報を、入出力部110を介して外部から取得してもよい。特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出した場合、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。   Specifically, the characteristic object extraction / representative feature amount calculation unit 152 stores image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image in the search object temporary storage unit 170. If there is, the characteristic search object is extracted from the search objects stored in the search object temporary storage unit 170 in accordance with the extraction conditions stored in the extraction condition storage unit 174. Note that the feature object extraction / representative feature amount calculation unit 152 may acquire information indicating which feature search object is extracted according to which extraction condition from the outside via the input / output unit 110. When the characteristic object extraction / representative feature quantity calculation unit 152 extracts characteristic search objects from the search objects stored in the search object temporary storage unit 170, the attribute information and morphological features of each characteristic search object are extracted. The amount is output to the cell classification unit 160.

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報が記憶されている場合には、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから、当該検索オブジェクトの形態的特徴量を代表する代表的特徴量を計算する。特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから代表的特徴量を計算した場合、未知同一属性撮像画像から計算した代表的特徴量、及び、未知同一属性撮像画像の属性情報を細胞分類部160に出力する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部152は、代表的特徴量を自身の形態的特徴量とする仮想的オブジェクト(以下、「仮想的検索オブジェクト」という)を生成し、仮想的検索オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を細胞分類部160に出力する。   On the other hand, the characteristic object extraction / representative feature amount calculation unit 152 stores, in the search object temporary storage unit 170, image type information indicating that the search object extraction source is an unknown identical attribute captured image. Calculates a representative feature amount representative of the morphological feature amount of the search object from the search object stored in the search object temporary storage unit 170. When the representative object extraction / representative feature amount calculation unit 152 calculates the representative feature amount from the search object stored in the search object temporary storage unit 170, the representative feature amount calculated from the unknown identical attribute captured image, And the attribute information of an unknown identical attribute picked-up image is output to the cell classification | category part 160. FIG. In other words, the characteristic object extraction / representative feature quantity calculation unit 152 generates a virtual object (hereinafter, referred to as “virtual search object”) having the representative feature quantity as its own morphological feature quantity. The attribute information and the morphological feature amount (that is, the representative feature amount) of the target search object are output to the cell classification unit 160.

分類モデル記憶部180は、未知属性撮像画像、又は、未知属性撮像画像内の細胞を、細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する。例えば、分類モデル記憶部180は、図7に示すように、所定の分類基準に従って、段階的に細胞オブジェクトの属性を分類する分類モデルを記憶してもよい。   The classification model storage unit 180 stores an unknown attribute captured image or a classification model for classifying the cells in the unknown attribute captured image for each attribute based on the morphological characteristics of the cells. For example, as shown in FIG. 7, the classification model storage unit 180 may store a classification model that classifies the attributes of cell objects in stages according to a predetermined classification standard.

細胞カタログ記憶部190は、図16に示すような細胞カタログを記憶する。図16に示す細胞カタログでは、例えば、分類先ID「N0001」と属性情報(名称「A」、培養条件「○○」等)と形態的特徴量(面積「27」、長さ「10.5」等)とを対応付けて記憶している。なお、細胞カタログは、細胞オブジェクトの画像(例えば、細胞オブジェクトを表現する2値化データ)を更に記憶してもよい。   The cell catalog storage unit 190 stores a cell catalog as shown in FIG. In the cell catalog shown in FIG. 16, for example, classification destination ID “N0001”, attribute information (name “A”, culture condition “OO”, etc.), and morphological feature (area “27”, length “10.5”). Etc.) in association with each other. Note that the cell catalog may further store an image of the cell object (for example, binarized data representing the cell object).

細胞分類部160は、細胞オブジェクト認識部120によって未知属性撮像画像から認識された細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、分類モデルに投入することによって、未知属性撮像画像又は未知属性撮像画像内の細胞を分類する。   The cell classification unit 160 inputs the morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit 120 or the feature amount calculated from the morphological feature amount into the classification model, thereby making the unknown The cells in the attribute captured image or the unknown attribute captured image are classified.

例えば、細胞分類部160は、細胞分類装置3に未知異種属性撮像画像が投入された場合には、当該未知異種属性撮像画像から認識された細胞オブジェクト(即ち検索オブジェクト)のなかから抽出された特徴的オブジェクト(即ち、特徴的検索オブジェクト)の形態的特徴量に基づいて、未知異種属性撮像画像内の細胞を分類する。具体的には、細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合、当該複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。   For example, when an unknown heterogeneous attribute captured image is input to the cell classification device 3, the cell classifying unit 160 extracts features extracted from cell objects (that is, search objects) recognized from the unknown heterogeneous attribute captured image. Based on the morphological feature amount of the target object (that is, the characteristic search object), the cells in the unknown heterogeneous attribute captured image are classified. Specifically, when the cell classification unit 160 acquires attribute information and morphological feature amounts of a plurality of characteristic search objects from the characteristic object extraction / representative feature amount calculation unit 152, the plurality of characteristic search objects The attribute information and the morphological feature amount are input into the classification model, and the individual characteristic search objects are classified.

また例えば、細胞分類部160は、細胞分類装置3に未知同一属性撮像画像が投入された場合には、当該未知同一属性撮像画像から認識された細胞オブジェクト(即ち検索オブジェクト)の形態的特徴量から算出される特徴量(即ち、代表的特徴量)に基づいて、当該未知同一属性撮像画像を分類する。具体的には、細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から仮想的検索オブジェクトの属性情報及び形態的特徴量(即ち、代表的特徴量)を取得した場合、当該仮想的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、未知同一属性撮像画像を分類する。即ち、細胞分類部160は、仮想的検索オブジェクトの分類先を未知同一属性撮像画像の分類先とする。   For example, when an unknown identical attribute captured image is input to the cell classification device 3, the cell classification unit 160 uses the morphological feature amount of the cell object (that is, the search object) recognized from the unknown identical attribute captured image. Based on the calculated feature quantity (ie, representative feature quantity), the unknown identical-attribute captured images are classified. Specifically, when the cell classification unit 160 acquires the attribute information and the morphological feature amount (that is, the representative feature amount) of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152, The attribute information and the morphological feature amount of the virtual search object are input to the classification model, and the unknown identical attribute captured image is classified. That is, the cell classification unit 160 sets the classification destination of the virtual search object as the classification destination of the unknown identical-attribute captured image.

細胞分類部160は、未知属性撮像画像、又は、未知属性撮像画像内の細胞を分類した場合、分類結果を入出力部110に出力する。具体的には、細胞分類部160は、未知異種属性撮像画像から得られた個々の特徴的検索オブジェクトを分類したときは、少なくとも、個々の特徴的検索オブジェクトの分類先の枝に設定されている分類先IDを入出力部110に出力する。例えば、細胞分類部160は、個々の特徴的検索オブジェクトの分類先IDに加えて、各分類先IDに対応付けられている属性情報、又は、個々の特徴的検索オブジェクトの形態的特徴量の何れか一方又は両方を入出力部110に出力してもよい。   When classifying the unknown attribute captured image or the cells in the unknown attribute captured image, the cell classification unit 160 outputs the classification result to the input / output unit 110. Specifically, when the individual characteristic search objects obtained from the unknown heterogeneous attribute captured images are classified, the cell classification unit 160 is set to at least the branch destination of the individual characteristic search objects. The classification destination ID is output to the input / output unit 110. For example, in addition to the classification destination IDs of the individual characteristic search objects, the cell classification unit 160 can select either attribute information associated with each classification destination ID or the morphological feature amount of each characteristic search object. Either or both may be output to the input / output unit 110.

なお、細胞分類部160は、個々の特徴的検索オブジェクトを分類したときは、個々の特徴的検索オブジェクトの分類先を示す分類先IDに対応付けて、個々の特徴的検索オブジェクトの形態的特徴量を細胞カタログに追加してもよい。また、細胞分類部160は、特徴的検索オブジェクトを分類したときは、分類結果として分類モデルから得られる情報(例えば、分類先ID、分類先ID毎の属性情報)に加えて、分類結果である各分類先IDに対応する属性情報、形態的特徴量を細胞カタログ記憶部190から取得し、入出力部110に出力してもよい。   Note that when the individual characteristic search objects are classified, the cell classification unit 160 associates the individual characteristic search objects with the classification destination ID indicating the classification destination of the individual characteristic search objects, and the morphological feature amounts of the individual characteristic search objects. May be added to the cell catalog. In addition, when the characteristic search object is classified, the cell classification unit 160 is a classification result in addition to information obtained from the classification model as a classification result (for example, classification destination ID, attribute information for each classification destination ID). The attribute information and morphological feature amount corresponding to each classification destination ID may be acquired from the cell catalog storage unit 190 and output to the input / output unit 110.

細胞分類部160は、未知同一属性撮像画像から得られた仮想的検索オブジェクトに基づいて当該未知同一属性撮像画像を分類したときは、少なくとも、当該未知同一属性撮像画像の分類先の枝に設定されている分類先IDを入出力部110に出力する。例えば、細胞分類部160は、未知同一属性撮像画の分類先IDに加えて、分類先IDに対応付けられている属性情報、又は、仮想的検索オブジェクトの形態的特徴量(即ち、代表的特徴量)の何れか一方又は両方を入出力部110に出力してもよい。   When classifying the unknown identical attribute captured image based on the virtual search object obtained from the unknown identical attribute captured image, the cell classification unit 160 is set to at least the branch to which the unknown identical attribute captured image is classified. The classification destination ID is output to the input / output unit 110. For example, the cell classification unit 160 adds the attribute information associated with the classification destination ID or the morphological feature amount of the virtual search object (that is, the representative feature) in addition to the classification destination ID of the unknown identical attribute captured image. Any one or both of (quantity) may be output to the input / output unit 110.

なお、細胞分類部160は、未知同一属性撮像画像を分類したときは、当該未知属性撮像画像の分類先を示す分類先IDに対応付けて、当該分類に用いた仮想的検索オブジェクトの形態的特徴量を細胞カタログに追加してもよい。また、細胞分類部160は、未知同一属性撮像画像を分類したときは、分類結果として分類モデルから得られる情報に加えて、分類結果である分類先IDに対応する属性情報、形態的特徴量を細胞カタログ記憶部190から取得し、入出力部110に出力してもよい。   In addition, when the cell classification unit 160 classifies the unknown identical attribute captured image, the cell classification unit 160 associates the unknown attribute captured image with the classification destination ID indicating the classification destination of the unknown attribute captured image, and the morphological feature of the virtual search object used for the classification The quantity may be added to the cell catalog. In addition, when classifying an unknown identical-attribute captured image, the cell classification unit 160 adds attribute information and morphological features corresponding to the classification destination ID that is the classification result in addition to the information obtained from the classification model as the classification result. It may be acquired from the cell catalog storage unit 190 and output to the input / output unit 110.

なお、特徴的オブジェクト抽出・代表的特徴量計算部152による特徴的検索オブジェクトの抽出、細胞分類部160による分類の各動作間の関係については、例えば、以下のように実現すればよい。   The relationship between the characteristic object extraction / representative feature amount calculation unit 152 extraction of the characteristic search object and the cell classification unit 160 classification may be realized as follows, for example.

細胞オブジェクト特徴量算出部126は、検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶した後に、形態的特徴量を記憶した旨を細胞分類部160に通知する。細胞分類部160は、細胞オブジェクト特徴量算出部126から形態的特徴量を記憶した旨の通知を取得した場合、特徴的オブジェクト抽出・代表的特徴量計算部152に抽出又は計算を要求する。   After storing the morphological feature amount of the search object in the search object temporary storage unit 170, the cell object feature amount calculation unit 126 notifies the cell classification unit 160 that the morphological feature amount has been stored. When the cell classification unit 160 obtains the notification that the morphological feature amount is stored from the cell object feature amount calculation unit 126, the cell classification unit 160 requests the characteristic object extraction / representative feature amount calculation unit 152 to perform extraction or calculation.

特徴的オブジェクト抽出・代表的特徴量計算部152は、細胞分類部160から抽出又は計算を要求された場合、検索オブジェクト一時記憶部170に記憶されている画像種別情報を参照し、検索オブジェクトの抽出元が未知異種属性撮像画像であるか未知同一属性撮像画像であるかを判断する。具体的には、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている画像種別情報が、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報である場合には、検索オブジェクトの抽出元が未知異種属性撮像画像であると判断し、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報である場合には、検索オブジェクトの抽出元が未知同一属性撮像画像であると判断する。   The feature object extraction / representative feature amount calculation unit 152 refers to the image type information stored in the search object temporary storage unit 170 when extraction or calculation is requested from the cell classification unit 160, and extracts the search object. It is determined whether the original is an unknown different-attribute captured image or an unknown identical-attribute captured image. Specifically, the characteristic object extraction / representative feature amount calculation unit 152 indicates that the image type information stored in the search object temporary storage unit 170 indicates that the search object extraction source is an unknown heterogeneous attribute captured image. If the search object extraction source is an unknown different-attribute captured image, the search object extraction source is image type information indicating that the search object extraction source is an unknown identical-attribute captured image. Determines that the extraction source of the search object is an unknown identical-attribute captured image.

特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクトの抽出元が未知異種属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出し、分類を要求するとともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。   When the characteristic object extraction / representative feature quantity calculation unit 152 determines that the search object extraction source is an unknown heterogeneous attribute captured image, the characteristic search object is extracted from the search object stored in the search object temporary storage unit 170. Are extracted, the classification is requested, and the attribute information and the morphological feature amount of each characteristic search object are output to the cell classification unit 160.

細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から、分類の要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合、夫々の特徴的検索オブジェクトを分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。   When the cell classification unit 160 obtains the attribute information and the morphological feature amount of each characteristic search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the classification request, the cell classification unit 160 Are put into a classification model to classify individual characteristic search objects.

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクトの抽出元が未知同一属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成し、分類を要求するとともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。   On the other hand, when the characteristic object extraction / representative feature quantity calculation unit 152 determines that the extraction source of the search object is an unknown identical-attribute captured image, the characteristic object extraction / representative feature value calculation unit 152 determines whether the search object is stored in the search object temporary storage unit 170 from A search object is generated, classification is requested, and attribute information and morphological feature of the virtual search object are output to the cell classification unit 160.

細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152から、分類の要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部160は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する。   The cell classification unit 160 acquires the attribute information and the morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the classification request, and the cell classification unit 160 acquires the virtual search object. Is input to the classification model, and the unknown identical attribute captured image is classified.

以下、フローチャートを用いて、細胞分類装置3の動作を説明する。図17は、細胞分類装置3の動作の一例を示すフローチャートである。また、図17に示すフローチャートの開始時において、検索オブジェクト一時記憶部170内には何も記憶されていないものとする。   Hereinafter, the operation of the cell classification device 3 will be described using a flowchart. FIG. 17 is a flowchart showing an example of the operation of the cell classification device 3. Further, it is assumed that nothing is stored in the search object temporary storage unit 170 at the start of the flowchart shown in FIG.

図17において、入出力部110は、外部から未知属性撮像画像とともに画像種別情報を取得する(ステップS212)。入出力部110は、外部から取得した未知属性撮像画像及び画像種別情報を細胞オブジェクト認識部120の2値化処理部122に出力する。   In FIG. 17, the input / output unit 110 acquires image type information from the outside together with the unknown attribute captured image (step S212). The input / output unit 110 outputs the unknown attribute captured image and image type information acquired from the outside to the binarization processing unit 122 of the cell object recognition unit 120.

2値化処理部122は、入出力部110から取得した未知属性撮像画像を所定の閾値によって2値化処理する(ステップS214)。2値化処理部122は、2値化データ及び画像種別情報をノイズ推定部124に出力する。ノイズ推定部124は、2値化処理部122から2値化データを取得し、取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS220)。ノイズオブジェクトを推定したノイズ推定部124は、2値化データ及び画像種別情報とともに、推定結果情報を細胞オブジェクト特徴量算出部126に出力する。なお、ノイズ推定部124によるステップS220の処理の詳細は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24によるステップS120の処理の詳細(図12)と同様である。   The binarization processing unit 122 binarizes the unknown attribute captured image acquired from the input / output unit 110 using a predetermined threshold (step S214). The binarization processing unit 122 outputs the binarized data and the image type information to the noise estimation unit 124. The noise estimation unit 124 acquires the binarized data from the binarization processing unit 122, and estimates the noise object from all the objects obtained from the acquired binarized data (step S220). The noise estimation unit 124 that has estimated the noise object outputs estimation result information to the cell object feature amount calculation unit 126 together with the binarized data and the image type information. The details of the process of step S220 by the noise estimation unit 124 are the same as the details of the process of step S120 by the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment (FIG. 12).

ノイズ推定部124から2値化データ及び画像種別情報とともに推定結果情報を取得した細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS230)。換言すれば、細胞オブジェクト特徴量算出部126は、ノイズ推定部124から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS230)。   The cell object feature amount calculation unit 126 that has acquired the estimation result information together with the binarized data and the image type information from the noise estimation unit 124, based on the binarization data and the estimation result information acquired from the noise estimation unit 124, the 2 A noise object is removed from all objects obtained from the valuation data (step S230). In other words, the cell object feature quantity calculation unit 126 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 124 (step S230).

次いで、細胞オブジェクト特徴量算出部126は、認識した個々の検索オブジェクトの形態的特徴量を算出する(ステップS232)。個々の検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部126は、画像種別情報、及び、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部170に記憶する(ステップS234)。また、細胞オブジェクト特徴量算出部126は、形態的特徴量を記憶した旨を細胞分類部160に通知する。形態的特徴量を記憶した旨の通知を取得した細胞分類部160は、特徴的オブジェクト抽出・代表的特徴量計算部152に抽出又は計算を要求する。   Next, the cell object feature value calculation unit 126 calculates the morphological feature value of each recognized search object (step S232). The cell object feature amount calculation unit 126 that has calculated the morphological feature amount of each search object stores the image type information and the morphological feature amount of each search object in the search object temporary storage unit 170 (step S234). . In addition, the cell object feature amount calculation unit 126 notifies the cell classification unit 160 that the morphological feature amount is stored. The cell classification unit 160 that has acquired the notification that the morphological feature amount is stored requests the feature object extraction / representative feature amount calculation unit 152 to perform extraction or calculation.

細胞分類部160から抽出又は計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像であるか否かを判断する(ステップS280)。   The characteristic object extraction / representative feature amount calculation unit 152 requested to extract or calculate from the cell classification unit 160 determines whether or not the unknown attribute captured image acquired in step S212 is an unknown heterogeneous attribute captured image ( Step S280).

特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像であると判断した場合(ステップS280:Yes)、抽出条件記憶部174に記憶されている抽出条件に従って、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出する(ステップ282)。特徴的検索オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部152は、分類を要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。分類を要求とともに、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を特徴的オブジェクト抽出・代表的特徴量計算部152から取得した細胞分類部160は、夫々の特徴的検索オブジェクトを分類モデルに投入し、未知異種属性撮像画像内の個々の特徴的検索オブジェクトを分類する(ステップS284)。   When the characteristic object extraction / representative feature amount calculation unit 152 determines that the unknown attribute captured image acquired in step S212 is an unknown heterogeneous attribute captured image (step S280: Yes), the characteristic object extraction / representative feature amount calculation unit 152 stores the extracted in the extraction condition storage unit 174. The characteristic search object is extracted from the search object stored in the search object temporary storage unit 170 in accordance with the extraction condition (step 282). The characteristic object extraction / representative feature quantity calculation unit 152 that has extracted the characteristic search object requests classification, and outputs attribute information and morphological feature quantity of each characteristic search object to the cell classification unit 160. The cell classification unit 160 that obtains the attribute information and the morphological feature amount of each characteristic search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the request for the classification, classifies each characteristic search object as a classification model. And classifying the individual characteristic search objects in the unknown different-attribute captured image (step S284).

一方、特徴的オブジェクト抽出・代表的特徴量計算部152は、ステップS212において取得した未知属性撮像画像が未知異種属性撮像画像でないと判断した場合(ステップS280:No)、即ち、ステップS212において取得した未知属性撮像画像が未知同一属性撮像画像であると判断した場合、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成する(ステップ286)。仮想的検索オブジェクトを生成した特徴的オブジェクト抽出・代表的特徴量計算部152は、分類を要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力する。分類を要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を特徴的オブジェクト抽出・代表的特徴量計算部152から取得した細胞分類部160は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する(ステップS288)。   On the other hand, the characteristic object extraction / representative feature amount calculation unit 152 determines that the unknown attribute captured image acquired in step S212 is not an unknown heterogeneous attribute captured image (step S280: No), that is, acquired in step S212. If it is determined that the unknown attribute captured image is an unknown identical attribute captured image, a virtual search object is generated from the search object stored in the search object temporary storage unit 170 (step 286). The characteristic object extraction / representative feature quantity calculation unit 152 that has generated the virtual search object outputs a request for classification and the attribute information and the morphological feature quantity of the virtual search object to the cell classification unit 160. The cell classification unit 160 that has acquired the attribute information and morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 152 together with the request for classification, inputs the virtual search object to the classification model, The unknown identical attribute captured images are classified (step S288).

ステップS284またはステップS288に続いて、細胞分類部160は、分類結果を入出力部110に出力する(ステップS290)。具体的には、細胞分類部160は、ステップS284において個々の特徴的検索オブジェクトを分類した場合には、例えば、個々の特徴的検索オブジェクトの分類先を示す分類先ID、各分類先IDに対応付けられている属性情報、個々の特徴的検索オブジェクトの形態的特徴量を入出力部110に出力する。また、細胞分類部160は、ステップS288において未知同一属性撮像画像を分類した場合には、例えば、未知同一属性撮像画像の分類先を示す分類先ID、分類先IDに対応付けられている属性情報、仮想的検索オブジェクトの形態的特徴量を入出力部110に出力する。   Subsequent to step S284 or step S288, the cell classification unit 160 outputs the classification result to the input / output unit 110 (step S290). Specifically, when classifying individual characteristic search objects in step S284, the cell classification unit 160 corresponds to, for example, a classification destination ID indicating a classification destination of each characteristic search object, and each classification destination ID. The attached attribute information and the morphological feature amount of each characteristic search object are output to the input / output unit 110. When the cell classification unit 160 classifies the unknown identical attribute captured image in step S288, for example, the classification destination ID indicating the classification destination of the unknown identical attribute captured image, the attribute information associated with the classification destination ID, for example. The morphological feature amount of the virtual search object is output to the input / output unit 110.

次いで、細胞分類部160は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトを消去し(ステップS292)、図17に示すフローチャートは終了する。なお、細胞分類部160は、例えば、細胞オブジェクト特徴量算出部126に、検索オブジェクト一時記憶部に記憶されている検索オブジェクトを消去すべき旨を要求することによって、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトを消去する。   Next, the cell classification unit 160 deletes the search object stored in the search object temporary storage unit 170 (step S292), and the flowchart shown in FIG. 17 ends. For example, the cell classification unit 160 stores the search object temporary storage unit 170 by requesting the cell object feature amount calculation unit 126 to delete the search object stored in the search object temporary storage unit. Delete the search object that has been deleted.

(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について説明する。図18は、本発明の第4の実施形態による細胞分類装置4の機能ブロック図の一例である。図19は、検索オブジェクト一時記憶部270に記憶される情報の一例である。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below with reference to the drawings. FIG. 18 is an example of a functional block diagram of the cell classification device 4 according to the fourth embodiment of the present invention. FIG. 19 is an example of information stored in the search object temporary storage unit 270.

細胞分類装置4は、図17に示すように、入出力部210、細胞オブジェクト認識部220、特徴的オブジェクト抽出・代表的特徴量計算部252、候補分類モデル形成部254、分類モデル決定・形成部256、細胞分類部260、検索オブジェクト一時記憶部270、細胞オブジェクト記憶部272、抽出条件記憶部274、候補分類モデル記憶部276、分類モデル記憶部280及び細胞カタログ記憶部290を備える。細胞オブジェクト認識部220は、2値化処理部222、ノイズ推定部224及び細胞オブジェクト特徴量算出部226を備える。   As shown in FIG. 17, the cell classification device 4 includes an input / output unit 210, a cell object recognition unit 220, a characteristic object extraction / representative feature amount calculation unit 252, a candidate classification model formation unit 254, a classification model determination / formation unit. 256, a cell classification unit 260, a search object temporary storage unit 270, a cell object storage unit 272, an extraction condition storage unit 274, a candidate classification model storage unit 276, a classification model storage unit 280, and a cell catalog storage unit 290. The cell object recognition unit 220 includes a binarization processing unit 222, a noise estimation unit 224, and a cell object feature amount calculation unit 226.

入出力部210は、撮像画像及び画像種別情報を外部から取得する。具体的には、入出力部210は、上記の第1の実施形態による分類モデル生成装置1、2の入出力部10と同様、属性情報(若しくは属性情報及び撮像条件情報)とともに、既知同一属性撮像画像、及び、既知同一属性撮像画像である旨を示す画像種別情報を外部から取得する。また、入出力部210は、上記の第3の実施形態による細胞分類装置3の入出力部110と同様、未知異種属性撮像画像及び未知異種属性撮像画像である旨を示す画像種別情報、又は、未知同一属性撮像画像及び未知同一属性撮像画像である旨を示す画像種別情報を外部から取得する。入出力部210は、外部から取得した情報を2値化処理部222に出力する。   The input / output unit 210 acquires a captured image and image type information from the outside. Specifically, the input / output unit 210, together with attribute information (or attribute information and imaging condition information), as well as the known identical attributes, is the same as the input / output unit 10 of the classification model generation devices 1 and 2 according to the first embodiment. Image type information indicating that the image is a captured image and a known image having the same attribute is acquired from the outside. Also, the input / output unit 210 is similar to the input / output unit 110 of the cell classification device 3 according to the third embodiment described above, image type information indicating that it is an unknown heterogeneous attribute captured image and an unknown heterogeneous attribute captured image, or Image type information indicating that it is an unknown identical attribute captured image and an unknown identical attribute captured image is acquired from the outside. The input / output unit 210 outputs information acquired from the outside to the binarization processing unit 222.

また、入出力部210は、未知属性撮像画像(未知異種属性撮像画像又は未知同一属性撮像画像)とともに、分類先範囲指定情報を外部から取得し、2値化処理部222に出力してもよい。分類先範囲指定情報とは、未知属性撮像画像の分類先の範囲、または、未知属性撮像画像内の細胞の分類先の範囲を指定した情報である。   Further, the input / output unit 210 may acquire the classification destination range designation information from the outside together with the unknown attribute captured image (unknown different attribute captured image or unknown identical attribute captured image), and output the classification destination range designation information to the binarization processing unit 222. . The classification destination range designation information is information that designates a classification destination range of an unknown attribute captured image or a classification destination range of cells in an unknown attribute captured image.

細胞オブジェクト認識部220は、上記の第1、2の実施形態による分類モデル生成装置1の細胞オブジェクト認識部20と同様、既知同一属性撮像画像内の個々の細胞の撮像領域を細胞オブジェクトとして認識する。また、細胞オブジェクト認識部220は、上記の第3の実施形態による細胞分類装置3の細胞オブジェクト認識部120と同様、未知属性撮像画像内の個々の細胞オブジェクトを検索オブジェクトとして認識する。   Similar to the cell object recognition unit 20 of the classification model generation device 1 according to the first and second embodiments, the cell object recognition unit 220 recognizes an imaging region of each cell in a known identical attribute captured image as a cell object. . In addition, the cell object recognition unit 220 recognizes each cell object in the unknown attribute captured image as a search object, like the cell object recognition unit 120 of the cell classification device 3 according to the third embodiment.

即ち、2値化処理部222は、上記の第1、2の実施形態による分類モデル生成装置1、2の2値化処理部22と同様、既知同一属性撮像画像を所定の閾値によって2値化処理する。また、2値化処理部222は、上記の第3の実施形態による細胞分類装置3の2値化処理部122と同様、未知属性撮像画像を所定の閾値によって2値化処理する。2値化処理部222は、入出力部210から取得した情報とともに、2値化データをノイズ推定部124に出力する。   That is, the binarization processing unit 222 binarizes a known identical attribute captured image with a predetermined threshold as in the binarization processing unit 22 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. Process. Similarly to the binarization processing unit 122 of the cell classification device 3 according to the third embodiment, the binarization processing unit 222 binarizes the unknown attribute captured image with a predetermined threshold. The binarization processing unit 222 outputs the binarized data to the noise estimation unit 124 together with the information acquired from the input / output unit 210.

ノイズ推定部224は、上記の第1、2の実施形態による分類モデル生成装置1、2のノイズ推定部24と同様、既知同一属性撮像画像内の全オブジェクトのなかからノイズオブジェクトを推定する。また、ノイズ推定部224は、上記の第3の実施形態による細胞分類装置3のノイズ推定部124と同様、未知属性撮像画像内の全オブジェクトのなかからノイズオブジェクトを推定する。ノイズ推定部224は、2値化処理部222から取得した情報とともに、推定結果情報をノイズ推定部124に出力する。   The noise estimation unit 224 estimates a noise object from all the objects in the known identical attribute captured image, like the noise estimation unit 24 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. Moreover, the noise estimation part 224 estimates a noise object from all the objects in an unknown attribute picked-up image similarly to the noise estimation part 124 of the cell classification device 3 by said 3rd Embodiment. The noise estimation unit 224 outputs the estimation result information to the noise estimation unit 124 together with the information acquired from the binarization processing unit 222.

細胞オブジェクト特徴量算出部226は、上記の第1、2の実施形態による分類モデル生成装置1、2の細胞オブジェクト特徴量算出部26と同様、既知同一属性撮像画像内の個々の細胞オブジェクトの形態的特徴量を算出する。個々の細胞オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部226は、属性情報(若しくは属性情報及び撮像条件情報)に対応付けて、個々の細胞オブジェクトの形態的特徴量を細胞オブジェクト記憶部272に記憶する。   The cell object feature amount calculation unit 226 is similar to the cell object feature amount calculation unit 26 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments described above, and each cell object form in the known identical attribute captured image. The characteristic feature amount is calculated. The cell object feature amount calculation unit 226 that has calculated the morphological feature amount of each cell object stores the morphological feature amount of each cell object in the cell object in association with the attribute information (or attribute information and imaging condition information). Store in the unit 272.

また、細胞オブジェクト特徴量算出部226は、上記の第3の実施形態による細胞分類装置3の細胞オブジェクト特徴量算出部126と同様、未知属性撮像画像内の個々の細胞オブジェクト(即ち、検索オブジェクト)の形態的特徴量を算出する。個々の検索オブジェクトの形態的特徴量の算出した細胞オブジェクト特徴量算出部226は、画像種別情報に対応付けて、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部270に記憶する。また、細胞オブジェクト特徴量算出部226は、ノイズ推定部224から分類先範囲指定情報を取得している場合には、分類先範囲指定情報を検索オブジェクト一時記憶部270に記憶する。   In addition, the cell object feature quantity calculation unit 226 is similar to the cell object feature quantity calculation unit 126 of the cell classification device 3 according to the third embodiment described above, and each cell object (that is, search object) in the unknown attribute captured image. The morphological feature amount of is calculated. The cell object feature value calculation unit 226 that calculates the morphological feature value of each search object stores the morphological feature value of each search object in the search object temporary storage unit 270 in association with the image type information. In addition, the cell object feature amount calculation unit 226 stores the classification destination range designation information in the search object temporary storage unit 270 when the classification destination range designation information is acquired from the noise estimation unit 224.

検索オブジェクト一時記憶部270は、検索オブジェクトに関する情報を記憶する。具体的には、検索オブジェクト一時記憶部270は、図18(a)(b)に示すように、画像種別情報及び分類先範囲指定情報に対応付けて、個々の検索オブジェクトの形態的特徴量を記憶する。なお、検索オブジェクト一時記憶部270の項目「画像種別情報」の初期値は、上記の第3の実施形態による細胞分類装置3の検索オブジェクト一時記憶部170と同様である。また、検索オブジェクト一時記憶部270の項目「分類先範囲指定情報」の初期値は、分類範囲を何も指定しない旨を示す分類先範囲指定情報である。従って、細胞オブジェクト特徴量算出部226がノイズ推定部224から分類先範囲指定情報を取得しなかった場合、項目「分類先範囲指定情報」には、分類範囲を何も指定しない旨を示す分類先範囲指定情報が記憶される。   The search object temporary storage unit 270 stores information related to the search object. Specifically, as shown in FIGS. 18A and 18B, the search object temporary storage unit 270 associates the morphological feature amount of each search object with the image type information and the classification destination range designation information. Remember. The initial value of the item “image type information” in the search object temporary storage unit 270 is the same as that of the search object temporary storage unit 170 of the cell classification device 3 according to the third embodiment. The initial value of the item “classification destination range designation information” in the search object temporary storage unit 270 is classification destination range designation information indicating that no classification range is designated. Therefore, when the cell object feature quantity calculation unit 226 has not acquired the classification destination range designation information from the noise estimation unit 224, the classification destination indicating that no classification range is designated in the item “classification destination range designation information”. Range designation information is stored.

細胞オブジェクト記憶部272は、上記の第1、2の実施形態による分類モデル生成装置1、2の細胞オブジェクト記憶部72と同様である。また、抽出条件記憶部274は、上記の第1の実施形態による分類モデル生成装置1の抽出条件記憶部74と同様である。なお、抽出条件記憶部274は、細胞オブジェクト記憶部272から特徴的オブジェクトを抽出するための抽出条件(即ち、分類モデル生成時に用いる特徴的オブジェクトを抽出するための抽出条件)と、検索オブジェクト一時記憶部270にから特徴的検索オブジェクトを抽出するための抽出条件(即ち、分類対象である特徴的検索オブジェクトを抽出するための抽出条件)とを別々に記憶してもよい。   The cell object storage unit 272 is the same as the cell object storage unit 72 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. The extraction condition storage unit 274 is the same as the extraction condition storage unit 74 of the classification model generation device 1 according to the first embodiment. The extraction condition storage unit 274 extracts an extraction condition for extracting a characteristic object from the cell object storage unit 272 (that is, an extraction condition for extracting a characteristic object used when generating a classification model), and a search object temporary storage. The extraction condition for extracting the characteristic search object from the unit 270 (that is, the extraction condition for extracting the characteristic search object to be classified) may be stored separately.

候補分類モデル記憶部276は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル記憶部76と同様である。また、分類モデル記憶部280は、上記の第1、2の実施形態による分類モデル生成装置1、2の分類モデル記憶部80と同様である。また、細胞カタログ記憶部290は、上記の第3の実施形態による細胞分類装置3の細胞カタログ記憶部190と同様である。   The candidate classification model storage unit 276 is the same as the candidate classification model storage unit 76 of the classification model generation device 1 according to the first embodiment. The classification model storage unit 280 is the same as the classification model storage unit 80 of the classification model generation apparatuses 1 and 2 according to the first and second embodiments. The cell catalog storage unit 290 is the same as the cell catalog storage unit 190 of the cell classification device 3 according to the third embodiment.

特徴的オブジェクト抽出・代表的特徴量計算部252は、上記の第1の実施形態による分類モデル生成装置1の特徴的オブジェクト抽出部32、及び、上記の第2の実施形態による分類モデル生成装置2の代表的特徴量計算部42の機能を備える。   The characteristic object extraction / representative feature quantity calculation unit 252 includes the characteristic object extraction unit 32 of the classification model generation device 1 according to the first embodiment and the classification model generation device 2 according to the second embodiment. The representative feature amount calculation unit 42 is provided.

具体的には、特徴的オブジェクト抽出・代表的特徴量計算部252は、特徴的オブジェクトを抽出すべき場合には、抽出条件記憶部274に記憶されている抽出条件に従って、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出する。但し、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトのなかから特徴的オブジェクトを抽出する。特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出した場合、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部254に出力する。   Specifically, the characteristic object extraction / representative feature amount calculation unit 252 stores the characteristic object in the cell object storage unit 272 according to the extraction condition stored in the extraction condition storage unit 274 when the characteristic object is to be extracted. A characteristic object is extracted from the stored cell objects. However, when the classification object range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the characteristic object extraction / representative feature amount calculation unit 252 includes the cell object storage unit 272. A characteristic object is extracted from the cell objects in the specified classification range among the cell objects stored in. When the characteristic object extraction / representative feature quantity calculation unit 252 extracts a characteristic object from the cell objects stored in the cell object storage unit 272, the attribute information and the morphological feature quantity of each characteristic object are extracted. Is output to the candidate classification model forming unit 254.

また、特徴的オブジェクト抽出・代表的特徴量計算部252は、代表的特徴量を計算すべき場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから代表的特徴量を計算する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部252は、各既知同一属性撮像画像の仮想的オブジェクトを生成する。但し、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトを用いて代表的特徴量を計算する。特徴的オブジェクト抽出・代表的特徴量計算部252は、各既知同一属性撮像画像の仮想的オブジェクトを生成した場合、夫々の仮想的オブジェクトの属性情報及び形態的特徴量を分類モデル決定・形成部256に出力する。   Further, the characteristic object extraction / representative feature amount calculation unit 252 calculates a representative feature amount from the cell object stored in the cell object storage unit 272 when the representative feature amount is to be calculated. In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual object of each known identical attribute captured image. However, when the classification object range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the characteristic object extraction / representative feature amount calculation unit 252 includes the cell object storage unit 272. The representative feature amount is calculated by using the cell objects in the specified classification range among the cell objects stored in. When the characteristic object extraction / representative feature amount calculation unit 252 generates a virtual object of each known identical attribute captured image, the classification model determination / formation unit 256 determines the attribute information and the morphological feature amount of each virtual object. Output to.

更に、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に、検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、抽出条件記憶部274に記憶されている抽出条件に従って、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトのなかから特徴的検索オブジェクトを抽出する。特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出した場合、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部260に出力する。   Further, the characteristic object extraction / representative feature quantity calculation unit 252 stores the image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image in the search object temporary storage unit 270. Extracts a characteristic search object from the search objects stored in the search object temporary storage unit 270 in accordance with the extraction conditions stored in the extraction condition storage unit 274. When the characteristic object extraction / representative characteristic amount calculation unit 252 extracts characteristic search objects from the search objects stored in the search object temporary storage unit 170, the attribute information and the morphological features of each characteristic search object are extracted. The amount is output to the cell classification unit 260.

また、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に、検索オブジェクトの抽出元が未知同一属性撮像画像である旨を示す画像種別情報が記憶されている場合には、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから代表的特徴量を計算する。換言すれば、特徴的オブジェクト抽出・代表的特徴量計算部252は、未知同一属性撮像画像の仮想的検索オブジェクトを生成する。特徴的オブジェクト抽出・代表的特徴量計算部252は、未知同一属性撮像画像の仮想的検索オブジェクトを生成した場合、仮想的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部260に出力する。   Further, the characteristic object extraction / representative feature amount calculation unit 252 stores, when the search object temporary storage unit 270 stores image type information indicating that the search object extraction source is an unknown same-attribute captured image. Calculates a representative feature amount from the search object stored in the search object temporary storage unit 270. In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual search object for an unknown identical attribute captured image. The characteristic object extraction / representative feature amount calculation unit 252 outputs the attribute information and the morphological feature amount of the virtual search object to the cell classification unit 260 when the virtual search object of the unknown identical attribute captured image is generated.

候補分類モデル形成部254は、上記の第1の実施形態による分類モデル生成装置1の候補分類モデル形成部34と同様、特徴的オブジェクト抽出・代表的特徴量計算部252から取得した特徴的オブジェクトの属性情報及び形態的特徴量を用いて候補分類モデルを形成(生成)する。   The candidate classification model formation unit 254 is the same as the candidate classification model formation unit 34 of the classification model generation device 1 according to the first embodiment described above. A candidate classification model is formed (generated) using the attribute information and the morphological feature amount.

分類モデル決定・形成部256は、上記の第1の実施形態による分類モデル生成装置1の分類モデル決定部36、及び、上記の第2の実施形態による分類モデル生成装置2の分類モデル形成部46の機能を備える。   The classification model determination / formation unit 256 includes the classification model determination unit 36 of the classification model generation device 1 according to the first embodiment and the classification model formation unit 46 of the classification model generation device 2 according to the second embodiment. It has the function of.

具体的には、分類モデル決定・形成部256は、候補分類モデル形成部254によって複数の候補分類モデルが形成された場合には、候補分類モデル記憶部276に記憶されている複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部280に記憶する。   Specifically, the classification model determination / formation unit 256, when a plurality of candidate classification models are formed by the candidate classification model formation unit 254, a plurality of candidate classification models stored in the candidate classification model storage unit 276. A classification model is determined from the above and stored in the classification model storage unit 280.

また、分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252から既知同一属性撮像画像毎の複数の仮想的オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該複数の仮想的オブジェクトの属性情報及び形態的特徴量を用いて分類モデルを生成(形成)する。   In addition, when the classification model determination / formation unit 256 acquires the attribute information and the morphological feature amount of a plurality of virtual objects for each known identical attribute captured image from the characteristic object extraction / representative feature amount calculation unit 252. The classification model is generated (formed) using the attribute information and the morphological feature amount of the plurality of virtual objects.

細胞分類部260は、上記の第3の実施形態による細胞分類装置3の細胞分類部160と同様、未知属性撮像画像、または、未知属性撮像画像内の細胞(具体的には、個々の特徴的検索オブジェクト)を分類し、分類結果を入出力部210に出力する。   Similar to the cell classification unit 160 of the cell classification device 3 according to the third embodiment, the cell classification unit 260 is an unknown attribute captured image or a cell (specifically, individual characteristic captured image). Search object), and the classification result is output to the input / output unit 210.

具体的には、細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252から複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該複数の特徴的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、個々の特徴的検索オブジェクトを分類する。   Specifically, when the cell classification unit 260 acquires attribute information and morphological feature amounts of a plurality of characteristic search objects from the characteristic object extraction / representative feature amount calculation unit 252, the plurality of characteristic features are extracted. The attribute information and the morphological feature amount of the search object are input to the classification model, and the individual characteristic search object is classified.

また、細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252から仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した場合には、当該仮想的検索オブジェクトの属性情報及び形態的特徴量を分類モデルに投入し、未知同一属性撮像画像を分類する。   In addition, when the cell classification unit 260 acquires the attribute information and the morphological feature amount of the virtual search object from the characteristic object extraction / representative feature amount calculation unit 252, the attribute information and the form of the virtual search object The characteristic feature amount is input to the classification model, and the unknown identical attribute captured image is classified.

以下、フローチャートを用いて、細胞分類装置4の動作を説明する。図20は、細胞分類装置4の動作の一例を示すフローチャートである。なお、図20に示すフローチャートの開始時において、細胞オブジェクト記憶部272内には、複数の既知同一属性撮像画像からそれぞれ認識された複数の細胞オブジェクトが記憶されているものとする。また、図20に示すフローチャートの開始時において、検索オブジェクト一時記憶部270内には何も記憶されていないものとする。   Hereinafter, the operation of the cell classification device 4 will be described using a flowchart. FIG. 20 is a flowchart showing an example of the operation of the cell classification device 4. Note that, at the start of the flowchart shown in FIG. 20, it is assumed that a plurality of cell objects respectively recognized from a plurality of known identical attribute captured images are stored in the cell object storage unit 272. Further, it is assumed that nothing is stored in the search object temporary storage unit 270 at the start of the flowchart shown in FIG.

図20において、入出力部210は、外部から画像種別情報及び分類先範囲指定情報とともに、未知属性撮像画像を取得し(ステップS312)、2値化処理部222に出力する。2値化処理部222は、未知属性撮像画像を所定の閾値によって2値化処理する(ステップS314)。2値化処理部222は、2値化データ、画像種別情報及び分類先範囲指定情報をノイズ推定部224に出力する。   In FIG. 20, the input / output unit 210 obtains an unknown attribute captured image together with image type information and classification destination range designation information from the outside (step S312), and outputs it to the binarization processing unit 222. The binarization processing unit 222 binarizes the unknown attribute captured image with a predetermined threshold (step S314). The binarization processing unit 222 outputs the binarized data, the image type information, and the classification destination range designation information to the noise estimation unit 224.

ノイズ推定部224は、2値化処理部222から取得した2値化データから得られる全オブジェクトのなかからノイズオブジェクトを推定する(ステップS320)。ノイズオブジェクトを推定したノイズ推定部224は、2値化データ、画像種別情報及び分類先範囲指定情報とともに、推定結果情報を細胞オブジェクト特徴量算出部226に出力する。なお、ノイズ推定部224によるステップS320の処理の詳細は、上記の第1の実施形態による分類モデル生成装置1のノイズ推定部24によるステップS120の処理の詳細(図12)と同様である。   The noise estimation unit 224 estimates a noise object among all objects obtained from the binarized data acquired from the binarization processing unit 222 (step S320). The noise estimation unit 224 that estimated the noise object outputs the estimation result information to the cell object feature amount calculation unit 226 together with the binarized data, the image type information, and the classification destination range designation information. The details of the process of step S320 by the noise estimation unit 224 are the same as the details of the process of step S120 by the noise estimation unit 24 of the classification model generation device 1 according to the first embodiment (FIG. 12).

ノイズ推定部224から、2値化データ、画像種別情報及び分類先範囲指定情報とともに、推定結果情報を取得した細胞オブジェクト特徴量算出部226は、ノイズ推定部224から取得した2値化データ及び推定結果情報に基づいて、当該2値化データから得られる全オブジェクトのなかからノイズオブジェクトを除去する(ステップS330)。換言すれば、細胞オブジェクト特徴量算出部226は、ノイズ推定部224から取得した2値化データから、ノイズオブジェクト以外の個々の細胞オブジェクトを認識する(ステップS330)。   The cell object feature amount calculation unit 226 that has acquired the estimation result information together with the binarized data, the image type information, and the classification destination range designation information from the noise estimation unit 224 has the binarized data and the estimation acquired from the noise estimation unit 224. Based on the result information, the noise object is removed from all objects obtained from the binarized data (step S330). In other words, the cell object feature quantity calculation unit 226 recognizes individual cell objects other than the noise object from the binarized data acquired from the noise estimation unit 224 (step S330).

次いで、細胞オブジェクト特徴量算出部226は、認識した個々の検索オブジェクトの形態的特徴量を算出する(ステップS332)。個々の検索オブジェクトの形態的特徴量を算出した細胞オブジェクト特徴量算出部226は、画像種別情報、分類先範囲指定情報、及び、個々の検索オブジェクトの形態的特徴量を検索オブジェクト一時記憶部270に記憶する(ステップS334)。また、細胞オブジェクト特徴量算出部226は、検索オブジェクトの形態的特徴量を記憶した旨を細胞分類部260に通知する。検索オブジェクトの形態的特徴量を記憶した旨の通知を取得した細胞分類部260は、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出又は計算を要求する。   Next, the cell object feature value calculation unit 226 calculates the morphological feature value of each recognized search object (step S332). The cell object feature amount calculation unit 226 that has calculated the morphological feature amount of each search object stores the image type information, the classification destination range designation information, and the morphological feature amount of each search object in the search object temporary storage unit 270. Store (step S334). In addition, the cell object feature amount calculation unit 226 notifies the cell classification unit 260 that the morphological feature amount of the search object has been stored. The cell classification unit 260 that has acquired the notification that the morphological feature amount of the search object has been stored requests the feature object extraction / representative feature amount calculation unit 252 to perform extraction or calculation.

細胞分類部260から抽出又は計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像であるか否かを判断する(ステップS340)。特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に検索オブジェクトの抽出元が未知異種属性撮像画像である旨を示す画像種別情報が記憶されている場合には、未知異種属性撮像画像であると判断する。   The characteristic object extraction / representative feature quantity calculation unit 252 requested to extract or calculate from the cell classification unit 260 determines whether or not the unknown attribute captured image acquired in step S312 is an unknown heterogeneous attribute captured image ( Step S340). The characteristic object extraction / representative feature quantity calculation unit 252 is unknown if the search object temporary storage unit 270 stores image type information indicating that the search object extraction source is an unknown heterogeneous attribute captured image. It is determined that the image is a heterogeneous attribute captured image.

特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像であると判断した場合(ステップS340:Yes)、抽出条件記憶部274に記憶されている抽出条件に従って、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出する(ステップS342)。特徴的オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部252は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量を候補分類モデル形成部254に出力する。   When the characteristic object extraction / representative feature amount calculation unit 252 determines that the unknown attribute captured image acquired in step S312 is an unknown heterogeneous attribute captured image (step S340: Yes), the characteristic object extraction / representative feature amount calculation unit 252 stores the extracted attribute attribute image in the extraction condition storage unit 274. In accordance with the extraction conditions, a characteristic object is extracted from the cell objects stored in the cell object storage unit 272 (step S342). The feature object extraction / representative feature amount calculation unit 252 that has extracted the feature object outputs the attribute information and the morphological feature amount of each feature object to the candidate classification model formation unit 254.

夫々の特徴的オブジェクトの属性情報及び形態的特徴量を取得した候補分類モデル形成部254は、夫々の特徴的オブジェクトの属性情報及び形態的特徴量に基づいて、候補分類モデルを形成し、候補分類モデルを候補分類モデル記憶部276に記憶する(ステップS344)。次いで、候補分類モデル形成部254は、全ての候補分類モデルを形成したか否かを判断する(ステップS346)。候補分類モデル形成部254は、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出を要求し、特徴的オブジェクト抽出・代表的特徴量計算部252から抽出が完了した旨の通知を取得した場合に、全ての候補分類モデルを形成したと判断する。候補分類モデル形成部254は、全ての候補分類モデルを形成していないと判断した場合(ステップS346:No)、ステップS342に戻る。候補分類モデル形成部254は、全ての候補分類モデルを形成したと判断した場合(ステップS346:Yes)、分類モデル決定・形成部256に分類モデルの決定を要求する。   The candidate classification model forming unit 254 that has acquired the attribute information and the morphological feature amount of each characteristic object forms a candidate classification model based on the attribute information and the morphological feature amount of each characteristic object. The model is stored in the candidate classification model storage unit 276 (step S344). Next, the candidate classification model forming unit 254 determines whether all candidate classification models have been formed (step S346). For example, the candidate classification model forming unit 254 requests extraction from the characteristic object extraction / representative feature amount calculation unit 252 and obtains notification from the characteristic object extraction / representative feature amount calculation unit 252 that extraction has been completed. If so, it is determined that all candidate classification models have been formed. If the candidate classification model forming unit 254 determines that not all candidate classification models have been formed (step S346: No), the process returns to step S342. If it is determined that all candidate classification models have been formed (step S346: Yes), the candidate classification model forming unit 254 requests the classification model determination / formation unit 256 to determine a classification model.

分類モデルの決定を要求された分類モデル決定・形成部256は、複数の候補分類モデルのなかから分類モデルを決定し、分類モデル記憶部280に記憶する(ステップS350)。なお、分類モデル決定・形成部256は、分類モデル記憶部280に前回の分類モデルが記憶されていた場合には、今回決定した分類モデルによって上書きする。分類モデル記憶部280に分類モデルを記憶した分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252に抽出を要求する。   The classification model determination / formation unit 256 requested to determine the classification model determines a classification model from among a plurality of candidate classification models, and stores the classification model in the classification model storage unit 280 (step S350). If the previous classification model is stored in the classification model storage unit 280, the classification model determination / formation unit 256 overwrites it with the classification model determined this time. The classification model determination / formation unit 256 that stores the classification model in the classification model storage unit 280 requests the characteristic object extraction / representative feature amount calculation unit 252 to perform extraction.

分類モデル決定・形成部256から抽出を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、抽出条件記憶部274に記憶されている抽出条件に従って、検索オブジェクト一時記憶部270から特徴的検索オブジェクトを抽出する(ステップ382)。特徴的検索オブジェクトを抽出した特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞分類部260に、分類を要求するとともに、特徴的検索オブジェクトの属性情報及び形態的特徴量を出力する。特徴的オブジェクト抽出・代表的特徴量計算部252から、分類の要求とともに、特徴的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部260は、夫々の特徴的検索オブジェクトを分類モデルに投入し、未知異種属性撮像画像内の個々の特徴的検索オブジェクトを分類する(ステップS384)。   The characteristic object extraction / representative feature quantity calculation unit 252 requested to be extracted by the classification model determination / formation unit 256 is characterized by the search object temporary storage unit 270 according to the extraction conditions stored in the extraction condition storage unit 274. A search object is extracted (step 382). The characteristic object extraction / representative feature quantity calculation unit 252 that has extracted the characteristic search object requests the cell classification unit 260 to classify and outputs the attribute information and the morphological feature quantity of the characteristic search object. The cell classification unit 260 that has acquired the attribute information and the morphological feature amount of the characteristic search object together with the request for classification from the characteristic object extraction / representative feature amount calculation unit 252, uses each characteristic search object as a classification model. And classifying the individual characteristic search objects in the unknown different-attribute captured image (step S384).

一方、特徴的オブジェクト抽出・代表的特徴量計算部252は、ステップS312において取得した未知属性撮像画像が未知異種属性撮像画像でないと判断した場合(ステップS340:NO)、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから代表的特徴量を計算する(ステップS352)。即ち、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから仮想的オブジェクトを生成する(ステップS352)。各既知同一属性撮像画像から代表的特徴量を計算した特徴的オブジェクト抽出・代表的特徴量計算部252は、夫々の仮想的オブジェクトの属性情報及び形態的特徴量を分類モデル決定・形成部256に出力する。   On the other hand, when the characteristic object extraction / representative feature amount calculation unit 252 determines that the unknown attribute captured image acquired in step S312 is not an unknown heterogeneous attribute captured image (step S340: NO), the characteristic object extraction / representative feature amount calculation unit 252 stores it in the cell object storage unit 272. The representative feature amount is calculated from the cell object that has been set (step S352). In other words, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual object from the cell objects stored in the cell object storage unit 272 (step S352). The characteristic object extraction / representative feature amount calculation unit 252 that calculates the representative feature amount from each of the known identical attribute captured images sends the attribute information and the morphological feature amount of each virtual object to the classification model determination / formation unit 256. Output.

夫々の仮想的オブジェクトの属性情報及び形態的特徴量を取得した分類モデル決定・形成部256は、夫々の仮想的オブジェクトの属性情報及び形態的特徴量に基づいて、分類モデルを形成し、分類モデルを分類モデル記憶部280に記憶する(ステップS360)。なお、分類モデル決定・形成部256は、分類モデル記憶部280に前回の分類モデルが記憶されていた場合には、今回決定した分類モデルによって上書きする。分類モデル記憶部280に分類モデルを記憶した分類モデル決定・形成部256は、特徴的オブジェクト抽出・代表的特徴量計算部252に計算を要求する。   The classification model determination / formation unit 256 that has acquired the attribute information and the morphological feature amount of each virtual object forms a classification model based on the attribute information and the morphological feature amount of each virtual object. Is stored in the classification model storage unit 280 (step S360). If the previous classification model is stored in the classification model storage unit 280, the classification model determination / formation unit 256 overwrites it with the classification model determined this time. The classification model determination / formation unit 256 that stores the classification model in the classification model storage unit 280 requests the characteristic object extraction / representative feature amount calculation unit 252 to calculate.

分類モデル決定・形成部256から計算を要求された特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから代表的特徴量を計算する(ステップS386)。即ち、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成する(ステップS386)。代表的特徴量を計算した特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞分類部260に、分類を要求するとともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を出力する。特徴的オブジェクト抽出・代表的特徴量計算部252から、分類の要求とともに、仮想的検索オブジェクトの属性情報及び形態的特徴量を取得した細胞分類部260は、仮想的検索オブジェクトを分類モデルに投入し、未知同一属性撮像画像を分類する(ステップS388)。   The characteristic object extraction / representative feature amount calculation unit 252 requested to calculate by the classification model determination / formation unit 256 calculates a representative feature amount from the search object stored in the search object temporary storage unit 270 (step S386). That is, the characteristic object extraction / representative characteristic amount calculation unit 252 generates a virtual search object from the search object stored in the search object temporary storage unit 270 (step S386). The characteristic object extraction / representative feature quantity calculation unit 252 that has calculated the representative feature quantity requests the cell classification unit 260 to classify and outputs the attribute information and the morphological feature quantity of the virtual search object. The cell classification unit 260 that has acquired the attribute information and the morphological feature amount of the virtual search object together with the classification request from the characteristic object extraction / representative feature amount calculation unit 252 inputs the virtual search object to the classification model. Then, the unknown identical attribute captured images are classified (step S388).

ステップS384またはステップS388に続いて、細胞分類部260は、分類結果を入出力部210に出力する(ステップS390)。次いで、細胞分類部260は、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトを消去し(ステップS392)、図20に示すフローチャートは終了する。   Subsequent to step S384 or step S388, the cell classification unit 260 outputs the classification result to the input / output unit 210 (step S390). Next, the cell classification unit 260 deletes the search object stored in the search object temporary storage unit 270 (step S392), and the flowchart shown in FIG.

なお、ステップS342において、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトのなかから特徴的オブジェクトを抽出する。同様に、ステップS352において、特徴的オブジェクト抽出・代表的特徴量計算部252は、検索オブジェクト一時記憶部270に分類範囲を指定する旨を示す分類先範囲指定情報が記憶されている場合には、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのうち指定された分類範囲の細胞オブジェクトを用いて代表的特徴量を計算する。   Note that in step S342, the characteristic object extraction / representative feature amount calculation unit 252 determines that the classification destination range designation information indicating that the classification range is designated is stored in the search object temporary storage unit 270, the cell A characteristic object is extracted from the cell objects in the specified classification range among the cell objects stored in the object storage unit 272. Similarly, in step S352, the characteristic object extraction / representative characteristic amount calculation unit 252 stores classification destination range designation information indicating that a classification range is designated in the search object temporary storage unit 270. The representative feature amount is calculated using the cell objects in the designated classification range among the cell objects stored in the cell object storage unit 272.

なお、ステップS382において、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトのなかから特徴的オブジェクトを抽出したときの抽出パターンのうち分類モデルとして決定された候補分類モデルを抽出したときの抽出パターンに従って、検索オブジェクト一時記憶部270から特徴的検索オブジェクトを抽出することが好ましい。例えば、図4、図5に示す例において、特徴的オブジェクト抽出・代表的特徴量計算部252は、(N+N+N)個の細胞オブジェクトのなかから、面積が平均値〜平均値より25%大きい値の範囲内(抽出条件1)であって、かつ、長さが平均値〜平均値より25%大きい値の範囲内(抽出条件3)であって、かつ、幅が平均値〜平均値より25%大きい値の範囲内(抽出条件5)である細胞オブジェクトを特徴的オブジェクトとして抽出し、最終的に、当該特徴的オブジェクトから形成された候補分類モデルが分類モデルとして決定された場合には、検索オブジェクト一時記憶部270から、抽出条件1であって、かつ、抽出条件3であって、かつ、抽出条件5である検索オブジェクトを特徴的検索オブジェクトとして抽出する。即ち、端的に言えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルに反映された抽出パターンと同一の抽出パターンにより、特徴的検索オブジェクトを抽出する。 Note that, in step S382, the characteristic object extraction / representative characteristic amount calculation unit 252 uses a classification object as a classification model among the extracted patterns when the characteristic object is extracted from the cell objects stored in the cell object storage unit 272. It is preferable to extract the characteristic search object from the search object temporary storage unit 270 according to the extraction pattern when the determined candidate classification model is extracted. For example, in the example shown in FIGS. 4 and 5, the characteristic object extraction / representative characteristic amount calculation unit 252 has an area from an average value to an average value among (N 1 + N 2 + N 3 ) cell objects. It is within the range of 25% larger value (extraction condition 1), and the length is within the range of the average value to 25% larger than the average value (extraction condition 3), and the width is the average value. When a cell object that is within a range of 25% larger than the average value (extraction condition 5) is extracted as a characteristic object, and finally a candidate classification model formed from the characteristic object is determined as a classification model The search object temporary storage unit 270 extracts the search object that is the extraction condition 1, the extraction condition 3, and the extraction condition 5 as a characteristic search object. . That is, in short, the characteristic object extraction / representative characteristic amount calculation unit 252 extracts characteristic search objects using the same extraction pattern as the extraction pattern reflected in the classification model.

分類モデルに反映された抽出パターンと同一の抽出パターンにより、特徴的検索オブジェクトを抽出する手法には種々の手法があるが、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252が、抽出パターンを示す情報を候補分類モデル形成部254に出力し、候補分類モデル形成部254が、抽出パターンを示す情報を候補分類モデル記憶部276に記憶し、分類モデル決定・形成部256が、抽出パターンを示す情報を分類モデル記憶部280に記憶する。その後、特徴的オブジェクト抽出・代表的特徴量計算部252は、特徴的検索オブジェクトを抽出する際に、分類モデル記憶部280を参照し、分類モデルとして決定された候補分類モデルを抽出したときの抽出パターンを特定する。   There are various methods for extracting a characteristic search object by using the same extraction pattern as the extraction pattern reflected in the classification model. For example, the characteristic object extraction / representative feature amount calculation unit 252 performs the extraction pattern. Is output to the candidate classification model formation unit 254, the candidate classification model formation unit 254 stores the information indicating the extraction pattern in the candidate classification model storage unit 276, and the classification model determination / formation unit 256 outputs the extraction pattern. Information to be stored is stored in the classification model storage unit 280. After that, the characteristic object extraction / representative feature quantity calculation unit 252 refers to the classification model storage unit 280 when extracting the characteristic search object, and extracts when the candidate classification model determined as the classification model is extracted. Identify the pattern.

同様に、ステップS386において、特徴的オブジェクト抽出・代表的特徴量計算部252は、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから仮想的オブジェクトを生成したときの計算方法に従って、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから仮想的検索オブジェクトを生成することが好ましい。例えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、既知同一属性撮像画像から抽出された複数の細胞オブジェクトの各形態的特徴量の中央値を代表的特徴量として計算し、各形態的特徴量の中央値を自身の形態的特徴量とする仮想的オブジェクトを生成した場合には、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトの各形態的特徴量の中央値を代表的特徴量として計算し、各形態的特徴量の中央値を自身の形態的特徴量とする仮想的検索オブジェクトを生成する。即ち、端的に言えば、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルに反映された代表的特徴量の計算方法と同一の計算方法により、仮想的検索オブジェクトを生成する。   Similarly, in step S386, the characteristic object extraction / representative characteristic amount calculation unit 252 stores the search object temporarily according to the calculation method when the virtual object is generated from the cell object stored in the cell object storage unit 272. It is preferable to generate a virtual search object from the search object stored in the unit 270. For example, the feature object extraction / representative feature amount calculation unit 252 calculates the median value of each morphological feature amount of a plurality of cell objects extracted from the known identical attribute captured image as a representative feature amount, When a virtual object having the median feature value as its morphological feature value is generated, the median value of each morphological feature value of the search object stored in the search object temporary storage unit 270 is a representative feature. As a quantity, a virtual search object is generated in which the median value of each morphological feature quantity is its own morphological feature quantity. That is, in short, the characteristic object extraction / representative feature quantity calculation unit 252 generates a virtual search object by the same calculation method as the representative feature quantity calculation method reflected in the classification model.

分類モデルに反映された代表的特徴量の計算方法と同一の計算方法により、仮想的検索オブジェクトを生成する手法には種々の手法があるが、例えば、特徴的オブジェクト抽出・代表的特徴量計算部252が、仮想的オブジェクトを生成したときの計算方法を示す情報を分類モデル決定・形成部256に出力し、分類モデル決定・形成部256が、上記計算方法を示す情報を分類モデル記憶部280に記憶する。その後、特徴的オブジェクト抽出・代表的特徴量計算部252は、仮想的検索オブジェクトを生成する際に、分類モデル記憶部280を参照し、仮想的オブジェクトを生成したときの計算方法を特定する。   There are various methods for generating a virtual search object by the same calculation method as the representative feature amount reflected in the classification model. For example, a feature object extraction / representative feature amount calculation unit 252 outputs information indicating the calculation method when the virtual object is generated to the classification model determination / formation unit 256, and the classification model determination / formation unit 256 transmits the information indicating the calculation method to the classification model storage unit 280. Remember. After that, the characteristic object extraction / representative feature quantity calculation unit 252 refers to the classification model storage unit 280 when generating the virtual search object, and specifies the calculation method when the virtual object is generated.

以上、第1の実施形態による分類モデル生成装置1、第2の実施形態による分類モデル生成装置2、第3の実施形態による細胞分類装置3、及び、第4の実施形態による細胞分類装置4について説明したが、細胞分類装置3によれば、所定の分類基準に従って、細胞オブジェクトの属性を分類する分類モデルを用いることによって、細胞を破壊することなく、また、安価かつ簡便に、細胞の種類、状態等を確認することができる。また、分類モデル生成装置1、2によれば、細胞分類装置3にて用いる分類モデルを簡便に生成することができる。更に、細胞分類装置4によれば、細胞の確認する都度、最新の分類モデルが生成されるため、より高精度に、細胞の種類、状態等を確認することができる。   As described above, the classification model generation device 1 according to the first embodiment, the classification model generation device 2 according to the second embodiment, the cell classification device 3 according to the third embodiment, and the cell classification device 4 according to the fourth embodiment. As described above, according to the cell classification device 3, by using a classification model that classifies the attributes of the cell object according to a predetermined classification standard, the cell type, The state etc. can be confirmed. Moreover, according to the classification model generation apparatuses 1 and 2, the classification model used in the cell classification apparatus 3 can be easily generated. Furthermore, according to the cell classification device 4, since the latest classification model is generated every time the cell is confirmed, the type and state of the cell can be confirmed with higher accuracy.

また、分類モデル生成装置1、2、細胞分類装置3、4がそれぞれに備えるノイズ推定部によって、ノイズオブジェクトが精度よく除去されるため、細胞オブジェクトを精度よく抽出することができる。   Moreover, since the noise object is accurately removed by the noise estimation units included in the classification model generation devices 1 and 2 and the cell classification devices 3 and 4, the cell object can be extracted with high accuracy.

なお、分類モデル生成装置1が生成する分類モデルとして、段階的に分類する分類モデルの例を説明したが、1段階で一気に分類する分類モデルを生成してもよい。分類モデル生成装置2が生成する分類モデル、細胞分類装置3が利用する分類モデル、細胞分類装置4が生成及び利用する分類モデルも同様である。また、各実施形態に係る分類モデルには、高々、ある属性であるか否かを判別するものも含まれる。   In addition, although the example of the classification model classified in steps was demonstrated as the classification model which the classification model production | generation apparatus 1 produces | generates, you may produce | generate the classification model classified at a stretch in one step. The same applies to the classification model generated by the classification model generation device 2, the classification model used by the cell classification device 3, and the classification model generated and used by the cell classification device 4. In addition, the classification model according to each embodiment includes one that determines whether or not an attribute is at most.

また、第3の実施形態の細胞分類装置3において、特徴的オブジェクト抽出・代表的特徴量計算部152は、検索オブジェクト一時記憶部170に記憶されている検索オブジェクトから特徴的検索オブジェクトを抽出し、夫々の特徴的検索オブジェクトの属性情報及び形態的特徴量を細胞分類部160に出力するが、特徴的オブジェクト抽出・代表的特徴量計算部152は、特徴的検索オブジェクトと特徴的検索オブジェクトではない検索オブジェクト(非特徴的検索オブジェクトという)とを区別できる態様で(例えばラベルを付し)、特徴的検索オブジェクトに加え非特徴的検索オブジェクトも細胞分類部160に出力してもよい。   In the cell classification device 3 according to the third embodiment, the characteristic object extraction / representative characteristic amount calculation unit 152 extracts a characteristic search object from the search objects stored in the search object temporary storage unit 170, and Although the attribute information and the morphological feature amount of each characteristic search object are output to the cell classification unit 160, the characteristic object extraction / representative feature amount calculation unit 152 performs a search that is not a characteristic search object and a characteristic search object. In a manner that can distinguish an object (referred to as a non-characteristic search object) (for example, with a label), in addition to the characteristic search object, a non-characteristic search object may be output to the cell classification unit 160.

特徴的検索オブジェクトに加え非特徴的検索オブジェクトを取得した細胞分類部160は、特徴的検索オブジェクトと同様、非特徴的検索オブジェクトも分類モデルに投入し、分類の確度が高い旨の情報とともに個々の特徴的検索オブジェクトの分類結果を出力し、分類の確度が高くない旨の情報とともに個々の非特徴的検索オブジェクトの分類結果を出力してもよい。また、特徴的検索オブジェクトに加え非特徴的検索オブジェクトを取得した細胞分類部160は、個々の非特徴的検索オブジェクトについて、“分類不能”と出力してもよい。第4の実施形態の細胞分類装置4の特徴的オブジェクト抽出・代表的特徴量計算部252及び細胞分類部260についても同様である。   The cell classification unit 160 that has acquired the non-characteristic search object in addition to the characteristic search object also inputs the non-characteristic search object into the classification model, as well as the characteristic search object. The classification result of the characteristic search object may be output, and the classification result of each non-characteristic search object may be output together with the information that the classification accuracy is not high. Further, the cell classification unit 160 that has acquired the non-characteristic search object in addition to the characteristic search object may output “non-classifiable” for each non-characteristic search object. The same applies to the characteristic object extraction / representative feature amount calculation unit 252 and the cell classification unit 260 of the cell classification device 4 of the fourth embodiment.

また、第4の実施形態において、細胞分類装置4の特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルの生成時において、細胞オブジェクト記憶部272に記憶されている細胞オブジェクトから分類モデルの基礎となるオブジェクトとして仮想的オブジェクトを生成し、また、分類時において、検索オブジェクト一時記憶部270に記憶されている検索オブジェクトから分類対象となる仮想的検索オブジェクトを生成するが、これに代えて、特徴的オブジェクト抽出・代表的特徴量計算部252は、分類モデルの生成時において、仮想的オブジェクトを生成することなく、細胞オブジェクト記憶部272に記憶されている全ての細胞オブジェクトを分類モデルの基礎とし、また、分類時において、仮想的検索オブジェクトを生成することなく、検索オブジェクト一時記憶部270に記憶されている全ての検索オブジェクト(即ち、未知同一属性画像から得られる全ての検索オブジェクト)を分類対象としてもよい。上記場合、細胞分類部260は、例えば、検索オブジェクト一時記憶部270に記憶されている全ての検索オブジェクトを分類モデルに投入し、検索オブジェクトが最も多く分類された枝を当該未知同一属性画像の分類先としてもよい。   In the fourth embodiment, the characteristic object extraction / representative feature amount calculation unit 252 of the cell classification device 4 performs the classification model from the cell objects stored in the cell object storage unit 272 when generating the classification model. A virtual object is generated as an object serving as a basis for the search, and a virtual search object to be classified is generated from a search object stored in the search object temporary storage unit 270 at the time of classification. The characteristic object extraction / representative feature quantity calculation unit 252 generates all the cell objects stored in the cell object storage unit 272 without generating a virtual object when generating the classification model. In addition, the virtual search object is Without growth, all the search objects stored in the retrieval object temporary storage unit 270 (i.e., all search objects obtained from an unknown identity attribute image) may be a classification target. In the above case, for example, the cell classification unit 260 inputs all the search objects stored in the search object temporary storage unit 270 into the classification model, and classifies the branch with the largest number of search objects as the classification of the unknown identical attribute image. It may be the destination.

また、第1の実施形態において、分類モデル生成装置1の細胞オブジェクト記憶部72は、経時的要素を有しない形態的特徴量を記憶する例を説明したが、入出力部10が異なる時間に撮像した複数の既知同一属性撮像画像を入力することによって、細胞オブジェクト記憶部72に経時的要素を有する形態的特徴量を記憶してもよい。例えば、入出力部10は、ある属性を有する細胞について第1の時刻(例えば、培養8時間目)に撮像した既知同一属性撮像画像a、及び、当該細胞について第2の時刻(例えば、培養16時間目)に撮像した既知同一属性撮像画像bを入力する。細胞オブジェクト特徴量算出部26は、既知同一属性撮像画像aの細胞オブジェクトの形態的特徴量を算出し、細胞オブジェクト記憶部72に、当該属性を有する細胞の第1の時刻から第2の時刻迄の形態的特徴量の時間変化量を記憶する。形態的特徴量の時間変化量の一例は、例えば、面積の時間変化量、長さの時間変化量、幅の変化量などの形態的特徴量毎の差分情報である。   In the first embodiment, the cell object storage unit 72 of the classification model generation device 1 has been described as an example of storing morphological feature quantities having no temporal elements. However, the input / output unit 10 captures images at different times. The morphological feature amount having temporal elements may be stored in the cell object storage unit 72 by inputting the plurality of known identical attribute captured images. For example, the input / output unit 10 captures a known identical attribute captured image a captured at a first time (for example, the eighth hour of culture) for a cell having a certain attribute, and a second time (for example, the culture 16) for the cell. A known identical attribute captured image b captured at time) is input. The cell object feature amount calculation unit 26 calculates the morphological feature amount of the cell object of the known identical attribute captured image a, and stores the cell object storage unit 72 in the cell object storage unit 72 from the first time to the second time. The temporal change amount of the morphological feature amount is stored. An example of the temporal change amount of the morphological feature amount is difference information for each morphological feature amount such as an area temporal change amount, a length temporal change amount, and a width change amount.

なお、当然ではあるが、細胞オブジェクト記憶部72に経時的要素を有する形態的特徴量を記憶する場合には、候補分類モデル形成部34が生成する候補分類モデル、及び、分類モデル決定部36が決定し分類モデル記憶部80に記憶する分類モデルは、経時的要素を有するものとなる。例えば、分類モデルにおける各段階のルールは、“第1の時刻から第2の時刻迄における細胞の長さの変化量が値「1」以下である”というように、経時的要素を有する形態的特徴量で表されるものとなる。また、抽出条件記憶部74に記憶する抽出条件、分類モデル決定部36による評価なども経時的要素を有する形態的特徴量に応じたものとなる。   Of course, when the morphological feature quantity having a temporal element is stored in the cell object storage unit 72, the candidate classification model generated by the candidate classification model forming unit 34 and the classification model determining unit 36 are The classification model to be determined and stored in the classification model storage unit 80 has a temporal element. For example, the rule of each stage in the classification model has a morphological element having a temporal component such that “the amount of change in cell length from the first time to the second time is a value“ 1 ”or less”. In addition, the extraction conditions stored in the extraction condition storage unit 74, the evaluation by the classification model determination unit 36, and the like also correspond to the morphological feature amounts having temporal elements.

同様に、第2の実施形態の分類モデル生成装置2、第3の実施形態の細胞分類装置3、第4の実施形態の細胞分類装置4においても、経時的要素を有する分類モデルを用いるようにしてもよい。なお、当然ではあるが、経時的要素を有する分類モデルを用いる場合には、分類(検索)も経時的要素に基づいて行われる。従って、例えば、細胞分類装置3の入出力部110は、第1の時刻に撮像した未知属性撮像画像と、当該撮像画像と被写体が同一の第2の時刻に撮像した未知属性撮像画像とを外部から取得する。   Similarly, in the classification model generation device 2 of the second embodiment, the cell classification device 3 of the third embodiment, and the cell classification device 4 of the fourth embodiment, a classification model having a temporal element is used. May be. Of course, when a classification model having a temporal element is used, classification (retrieval) is also performed based on the temporal element. Therefore, for example, the input / output unit 110 of the cell classification device 3 externally captures the unknown attribute captured image captured at the first time and the unknown attribute captured image captured at the second time when the captured image and the subject are the same. Get from.

なお、第1の実施形態において、分類モデル生成装置1は、インキュベータ311と別体である旨の説明をしたが、インキュベータ311に分類モデル生成装置1の機能を実装させてもよい。例えば、図8に示す記憶部343に、分類モデル生成装置1の各処理を実行するためのプログラムを記憶し、CPU342によって実行するようにしてもよい。分類モデル生成装置2、細胞分類装置3、4についても同様である。   In the first embodiment, it has been described that the classification model generation device 1 is separate from the incubator 311. However, the function of the classification model generation device 1 may be implemented in the incubator 311. For example, a program for executing each process of the classification model generating device 1 may be stored in the storage unit 343 illustrated in FIG. 8 and executed by the CPU 342. The same applies to the classification model generation device 2 and the cell classification devices 3 and 4.

なお、第3の実施形態において、インキュベータ311に細胞分類装置3の機能を実装させた場合に、細胞分類装置3の分類結果に基づいて、培養容器319内の細胞又は細胞群の培養条件等を動的に変更するようにしてもよい。これにより、所望の細胞を容易に増殖させることができるようになる。なお、第4の実施形態において、インキュベータ311に細胞分類装置4の機能を実装させる場合についても同様である。   In the third embodiment, when the function of the cell classification device 3 is implemented in the incubator 311, the culture conditions of the cells or cell groups in the culture container 319 are determined based on the classification result of the cell classification device 3. You may make it change dynamically. Thereby, a desired cell can be easily proliferated. In the fourth embodiment, the same applies to the case where the function of the cell classification device 4 is implemented in the incubator 311.

以下、フローチャートを用いて、細胞分類装置4の機能を兼ね備えるインキュベータ311の動作を説明する。図21は、細胞分類装置4の機能を兼ね備えるインキュベータ311の動作の一例を示すフローチャートである。図21に示すフローチャートの開始時において、インキュベータ311には所望の増殖すべき細胞を培養する培養容器319が置かれているものとする。また、上述の如く、インキュベータ311が備える細胞分類装置3は、分類先IDとともに培養条件を含む属性情報を分類結果として出力するものとする。   Hereinafter, the operation of the incubator 311 having the function of the cell classification device 4 will be described using a flowchart. FIG. 21 is a flowchart showing an example of the operation of the incubator 311 having the function of the cell classification device 4. At the start of the flowchart shown in FIG. 21, it is assumed that a culture vessel 319 for culturing desired cells to be proliferated is placed in the incubator 311. Further, as described above, the cell classification device 3 included in the incubator 311 outputs attribute information including the culture condition together with the classification destination ID as the classification result.

図21において、インキュベータ311は、細胞の培養を開始する(ステップS500)。即ち、CPU342は、設定された培養条件(例えば所定の温度、湿度等)で細胞を培養するよう温度調整装置315aと湿度調整装置315bとを制御する。所定期間経過後に、インキュベータ311は、培養中の細胞を分類する(ステップS510)。即ち、CPU342は、撮像装置334を制御して、培養中の細胞を撮像し、次いで、記憶部343から細胞分類装置3の各処理を実行するためのプログラムを読み出し、読み出したプログラムを実行することによって、上記の図17に示すように、培養中の細胞を分類する。   In FIG. 21, the incubator 311 starts cell culture (step S500). That is, the CPU 342 controls the temperature adjustment device 315a and the humidity adjustment device 315b so as to culture the cells under the set culture conditions (for example, predetermined temperature, humidity, etc.). After a predetermined period of time, the incubator 311 classifies the cells in culture (step S510). That is, the CPU 342 controls the imaging device 334 to image cells in culture, and then reads out a program for executing each process of the cell classification device 3 from the storage unit 343 and executes the read program. As shown in FIG. 17 above, the cells in culture are classified.

次いで、インキュベータ311は、分類結果に基づいて、細胞の培養を中止するか否か、または、細胞の培養条件を変更するか否かを制御する。具体的には、まず、CPU342は、分類結果によって示される培養条件が、ステップS500において設定された培養条件と一致するか否かを判断する(ステップS520)。CPU342は、分類結果によって示される培養条件が設定された培養条件と一致すると判断した場合(ステップS520:Yes)、分類結果によって示される培養条件と設定された培養条件とが一致した旨をモニタ等(非図示)に表示させる(ステップS522)。そして後述するステップS560に進む。   Next, the incubator 311 controls whether to stop the cell culture or change the cell culture conditions based on the classification result. Specifically, first, CPU 342 determines whether or not the culture condition indicated by the classification result matches the culture condition set in step S500 (step S520). If the CPU 342 determines that the culture condition indicated by the classification result matches the set culture condition (step S520: Yes), the CPU 342 monitors whether the culture condition indicated by the classification result matches the set culture condition, or the like. (Not shown) is displayed (step S522). And it progresses to step S560 mentioned later.

一方、CPU342は、分類結果に含まれる培養条件が所定の培養条件と一致しないと判断した場合(ステップS520:No)、分類結果によって示される培養条件と設定された培養条件とが一致しない旨をモニタ等(非図示)に表示させるとともに(ステップS524)、培養を中止するか否かを判断する(ステップS530)。具体的には、例えば、CPU342は、分類結果によって示される培養条件と設定された培養条件の一致しない程度が非常に大きい場合に、培養を中止すると判断する。例えば、分類結果によって示される培養条件の温度等と設定された培養条件の温度等との差が所定の第1の閾値以上である場合に、培養を中止すると判断する。なお、CPU342は、培養を中止する旨の操作者の入力があった場合にも、培養を中止すると判断する。   On the other hand, when the CPU 342 determines that the culture condition included in the classification result does not match the predetermined culture condition (step S520: No), the CPU 342 indicates that the culture condition indicated by the classification result does not match the set culture condition. It is displayed on a monitor or the like (not shown) (step S524), and it is determined whether or not the culture is stopped (step S530). Specifically, for example, the CPU 342 determines to stop the culture when the degree of mismatch between the culture condition indicated by the classification result and the set culture condition is very large. For example, when the difference between the temperature or the like of the culture condition indicated by the classification result and the temperature or the like of the set culture condition is equal to or greater than a predetermined first threshold, it is determined that the culture is to be stopped. Note that the CPU 342 determines that the culture is to be stopped even when there is an input from the operator to stop the culture.

CPU342は、培養を中止すると判断した場合(ステップS530:Yes)、培養を中止する旨をモニタ等(非図示)に表示させ(ステップS532)、培養の処理を終了する。そして、図20に示すフローチャートは終了する。一方、CPU342は、培養を中止しないと判断した場合(ステップS530:No)、培養条件を変更するか否かを判断する(ステップS540)。具体的には、例えば、CPU342は、分類結果によって示される培養条件と設定された培養条件の一致しない程度が大きい場合に、培養条件を変更すると判断する。例えば、分類結果によって示される培養条件の温度等と設定された培養条件の温度等との差が所定の第2の閾値(但し、第1の閾値>第2の閾値)以上である場合に、培養条件を変更すると判断する。   When the CPU 342 determines that the culture is to be stopped (step S530: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture is stopped (step S532), and ends the culture process. Then, the flowchart shown in FIG. 20 ends. On the other hand, when determining that the culture is not stopped (step S530: No), the CPU 342 determines whether or not to change the culture conditions (step S540). Specifically, for example, the CPU 342 determines to change the culture condition when there is a large degree of mismatch between the culture condition indicated by the classification result and the set culture condition. For example, when the difference between the temperature of the culture condition or the like indicated by the classification result and the temperature of the set culture condition is equal to or greater than a predetermined second threshold (where the first threshold is greater than the second threshold), It is judged that the culture conditions are changed.

CPU342は、培養条件を変更すると判断した場合(ステップS540:Yes)、培養条件を変更する旨をモニタ等(非図示)に表示させ(ステップS542)、培養条件を変更する(ステップS550)。即ち、CPU342は、新たな培養条件で細胞を培養するよう温度調整装置315aと湿度調整装置315bとを制御する。そしてステップS510に戻る。なお、予め、両培養条件(分類結果によって示される培養条件、及び、設定された培養条件)と、新たな培養条件(修正後の培養条件)とを対応付けて記憶部343に記憶し、CPU342は、両培養条件から新たな培養条件を取得するようにしてもよい。なお、CPU342は、操作者による新たな培養条件の設定値の入力があった場合に、当該設定値に培養条件を変更してもよい。   If the CPU 342 determines that the culture conditions are to be changed (step S540: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture conditions are to be changed (step S542), and changes the culture conditions (step S550). That is, the CPU 342 controls the temperature adjustment device 315a and the humidity adjustment device 315b so that cells are cultured under new culture conditions. Then, the process returns to step S510. Note that both the culture conditions (the culture conditions indicated by the classification result and the set culture conditions) and the new culture conditions (the culture conditions after correction) are associated with each other and stored in the storage unit 343 in advance, and the CPU 342 May acquire new culture conditions from both culture conditions. Note that the CPU 342 may change the culture condition to the set value when the operator inputs a new set value of the culture condition.

CPU342は、ステップS522に続いて、または、培養条件を変更しないと判断した場合(ステップS540:No)、所定期間経過後に、撮像装置334を制御して、培養中の細胞を撮像し、培養中の細胞数(即ち、細胞オブジェクト数)を計数する(ステップS560)。なお、CPU342は、個々の細胞オブジェクトを認識可能な細胞分類装置3の細胞オブジェクト特徴量算出部126の処理を実行するためのプログラムを憶部343から読み出し、読み出したプログラムを実行することによって細胞数を計数する。   Following step S522 or when determining that the culture conditions are not to be changed (step S540: No), the CPU 342 controls the imaging device 334 to image the cells in culture after the predetermined period has elapsed, The number of cells (that is, the number of cell objects) is counted (step S560). Note that the CPU 342 reads out a program for executing the processing of the cell object feature quantity calculation unit 126 of the cell classification device 3 capable of recognizing individual cell objects from the storage unit 343, and executes the read program to execute the number of cells. Count.

次いで、CPU342は、ステップS560において計数した細胞数が所定の細胞数に到達したか否かを判断する(ステップS570)。CPU342は、計数した細胞数が所定の細胞数に到達していないと判断した場合(ステップS570:No)、所定の時間経過後に、ステップS510に戻る。一方、CPU342は、計数した細胞数が所定の細胞数に到達したと判断した場合(ステップS570:Yes)、当該細胞の培養が完了した旨をモニタ等(非図示)に表示させる(ステップS572)。そして、図21に示すフローチャートは終了する。   Next, the CPU 342 determines whether or not the number of cells counted in step S560 has reached a predetermined number of cells (step S570). When the CPU 342 determines that the counted number of cells has not reached the predetermined number of cells (step S570: No), the CPU 342 returns to step S510 after a predetermined time has elapsed. On the other hand, when the CPU 342 determines that the counted number of cells has reached the predetermined number of cells (step S570: Yes), the CPU 342 displays on the monitor or the like (not shown) that the culture of the cells has been completed (step S572). . Then, the flowchart shown in FIG. 21 ends.

以上、図21に示すフローチャートに示すように、細胞分類装置4の分類結果に基づいて、培養容器319内の細胞の培養条件等を動的に変更できるため、所望の細胞を容易に増殖させることができるようになる。   As described above, as shown in the flowchart of FIG. 21, the culture conditions of the cells in the culture vessel 319 can be dynamically changed based on the classification result of the cell classification device 4, so that desired cells can be easily propagated. Will be able to.

なお、本発明の第1の実施形態による分類モデル生成装置1、本発明の第2の実施形態による分類モデル生成装置2、本発明の第3の実施形態による細胞分類装置3、本発明の第3の実施形態による細胞分類装置4の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、分類モデル生成装置1、2、細胞分類装置3、4に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   The classification model generation device 1 according to the first embodiment of the present invention, the classification model generation device 2 according to the second embodiment of the present invention, the cell classification device 3 according to the third embodiment of the present invention, the first of the present invention. By recording a program for executing each process of the cell classification device 4 according to the third embodiment on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, The above-described various processes related to the classification model generation devices 1 and 2 and the cell classification devices 3 and 4 may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1、2…分類モデル生成装置
3、4…細胞分類装置
10…入出力部
20…細胞オブジェクト認識部
22…2値化処理部
24…ノイズ推定部
26…細胞オブジェクト特徴量算出部
30…分類モデル生成部
32…特徴的オブジェクト抽出部
34…候補分類モデル形成部
36…分類モデル決定部
40…分類モデル生成部
42…代表的特徴量計算部
46…分類モデル形成部
72…細胞オブジェクト記憶部
74…抽出条件記憶部
76…候補分類モデル記憶部
80…分類モデル記憶部
110…入出力部
120…細胞オブジェクト認識部
122…2値化処理部
124…ノイズ推定部
126…細胞オブジェクト特徴量算出部
152…特徴的オブジェクト抽出・代表的特徴量計算部
160…細胞分類部
170…検索オブジェクト一時記憶部
174…抽出条件記憶部
180…分類モデル記憶部
190…細胞カタログ記憶部
210…入出力部
220…細胞オブジェクト認識部
222…2値化処理部
224…ノイズ推定部
226…細胞オブジェクト特徴量算出部
252…特徴的オブジェクト抽出・代表的特徴量計算部
254…候補分類モデル形成部
256…分類モデル決定・形成部
260…細胞分類部
270…検索オブジェクト一時記憶部
272…細胞オブジェクト記憶部
274…抽出条件記憶部
276…候補分類モデル記憶部
280…分類モデル記憶部
290…細胞カタログ記憶部
311…インキュベータ
319…培養容器
DESCRIPTION OF SYMBOLS 1, 2 ... Classification model production | generation apparatus 3, 4 ... Cell classification apparatus 10 ... Input / output part 20 ... Cell object recognition part 22 ... Binarization process part 24 ... Noise estimation part 26 ... Cell object feature-value calculation part 30 ... Classification model Generation unit 32 ... Characteristic object extraction unit 34 ... Candidate classification model formation unit 36 ... Classification model determination unit 40 ... Classification model generation unit 42 ... Representative feature amount calculation unit 46 ... Classification model formation unit 72 ... Cell object storage unit 74 ... Extraction condition storage unit 76 ... candidate classification model storage unit 80 ... classification model storage unit 110 ... input / output unit 120 ... cell object recognition unit 122 ... binarization processing unit 124 ... noise estimation unit 126 ... cell object feature amount calculation unit 152 ... Feature object extraction / representative feature amount calculation unit 160 ... cell classification unit 170 ... search object temporary storage unit 174 ... extraction condition storage 180 ... classification model storage unit 190 ... cell catalog storage unit 210 ... input / output unit 220 ... cell object recognition unit 222 ... binarization processing unit 224 ... noise estimation unit 226 ... cell object feature amount calculation unit 252 ... characteristic object extraction Representative feature amount calculation unit 254 ... candidate classification model formation unit 256 ... classification model determination / formation unit 260 ... cell classification unit 270 ... search object temporary storage unit 272 ... cell object storage unit 274 ... extraction condition storage unit 276 ... candidate classification model Storage unit 280 ... Classification model storage unit 290 ... Cell catalog storage unit 311 ... Incubator 319 ... Culture vessel

Claims (10)

培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置であって、
既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出する特徴的オブジェクト抽出部と、
前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成する候補分類モデル形成部と、
抽出された前記特徴的オブジェクトに応じて前記候補分類モデル形成部が形成した複数の前記候補分類モデルのなかから、前記分類モデルを決定する分類モデル決定部と
を備え、
前記候補分類モデル形成部は、
前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする分類モデル生成装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model generation device that generates a classification model for classification every time,
A cell object recognizing unit for recognizing an imaging region of each adhesive cell as an individual cell object from a known identical attribute captured image that is an image obtained by imaging a plurality of known adhesive cells having the same attribute;
A characteristic object extraction unit that extracts the cell object having a predetermined morphological characteristic amount as a characteristic object from the cell objects;
A candidate classification model forming unit that forms a candidate classification model that is a candidate for the classification model by using a morphological feature amount of the characteristic object and a plurality of attributes of the adhesion type cells recognized as the characteristic object;
A classification model determining unit that determines the classification model from among the plurality of candidate classification models formed by the candidate classification model forming unit according to the extracted characteristic object ;
The candidate classification model forming unit
As the morphological feature amount of the characteristic object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, Using at least one morphological feature value of a value indicating a width when assumed to be linear, and as a plurality of attributes of the adherent cell recognized as the characteristic object, a name, culture A classification model generation device, characterized in that the candidate classification model is formed using a plurality of attributes including conditions and activities.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置であって、
既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクトの形態的特徴量及び前記細胞オブジェクトとして認識された接着系細胞の複数の属性に基づいて、前記分類モデルを生成する分類モデル生成部と
を備え、
前記分類モデル生成部は、
前記細胞オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記細胞オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記分類モデルを形成することを特徴とする分類モデル生成装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model generation device that generates a classification model for classification every time,
A cell object recognizing unit for recognizing an imaging region of each adhesive cell as an individual cell object from a known identical attribute captured image that is an image obtained by imaging a plurality of known adhesive cells having the same attribute;
A classification model generation unit that generates the classification model based on the morphological feature of the cell object and a plurality of attributes of the adhesive cells recognized as the cell object;
The classification model generation unit includes:
As the morphological feature amount of the cell object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, and the adherent cells are simulated. Using at least one of the morphological features of the value indicating the width when assumed to be linear, and as a plurality of attributes of the adherent cells recognized as the cell object, a name, a culture condition, A classification model generation apparatus, wherein the classification model is formed using a plurality of attributes including activity.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置であって、
既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクトの形態的特徴量及び前記細胞オブジェクトとして認識された接着系細胞の複数の属性に基づいて、前記分類モデルを生成する分類モデル生成部と
を備え、
前記細胞オブジェクトとして認識された接着系細胞の複数の属性は、名称、培養条件、活性を含む複数の属性であることを特徴とする分類モデル生成装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model generation device that generates a classification model for classification every time,
A cell object recognizing unit for recognizing an imaging region of each adhesive cell as an individual cell object from a known identical attribute captured image that is an image obtained by imaging a plurality of known adhesive cells having the same attribute;
A classification model generation unit that generates the classification model based on the morphological feature of the cell object and a plurality of attributes of the adhesive cells recognized as the cell object;
The classification model generation apparatus characterized in that the plurality of attributes of the adherent cell recognized as the cell object are a plurality of attributes including a name, a culture condition, and an activity.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する分類モデル記憶部と、
前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクト認識部によって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類部と、
前記細胞オブジェクト認識部によって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶部と、
前記細胞分類部が前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類するときに、前記細胞オブジェクト記憶部に記憶されている前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出し、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成し、抽出された前記特徴的オブジェクトに応じて生成した複数の前記候補分類モデルのなかから前記分類モデルを決定する分類モデル生成部と
を備え、
前記分類モデル形成部は、
前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とする細胞分類装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model storage unit for storing a classification model to be classified every time;
A cell object recognition unit for recognizing an imaging region of each adhesive cell from the unknown attribute captured image as an individual cell object;
By inputting the morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit or the feature amount calculated from the morphological feature amount into the classification model, the unknown attribute imaging A cell classification unit for classifying adhesive cells in the image or the unknown attribute captured image ;
A cell object storage unit that stores the cell object recognized from a known identical-attribute captured image, which is a captured image in which a plurality of adhesion-type cells with the same attribute known by the cell object recognition unit are captured;
When the cell classification unit classifies the unknown attribute picked-up image or the adherent cell in the unknown attribute picked-up image, a predetermined morphological feature amount is selected from the cell objects stored in the cell object storage unit. A candidate classification model that is extracted as a characteristic object and that is a candidate for the classification model using a morphological characteristic amount of the characteristic object and a plurality of attributes of the adhesion-related cells recognized as the characteristic object A classification model generation unit that determines the classification model from among the plurality of candidate classification models generated according to the extracted characteristic object, and
The classification model forming unit
As the morphological feature amount of the characteristic object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, Using at least one morphological feature value of a value indicating a width when assumed to be linear, and as a plurality of attributes of the adherent cell recognized as the characteristic object, a name, culture A cell classification device, wherein the candidate classification model is formed using a plurality of attributes including conditions and activities.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する分類モデル記憶部と、
前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクト認識部によって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類部と、
前記細胞オブジェクト認識部によって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶部と、
前記細胞分類部が前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類するときに、前記細胞オブジェクト記憶部に記憶されている前記細胞オブジェクトの形態的特徴量及び前記細胞オブジェクトとして認識された接着系細胞の複数の属性に基づいて、前記分類モデルを生成する分類モデル生成部と
を備え、
前記分類モデル生成部は、
前記細胞オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記細胞オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記分類モデルを形成することを特徴とする細胞分類装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model storage unit for storing a classification model to be classified every time;
A cell object recognition unit for recognizing an imaging region of each adhesive cell from the unknown attribute captured image as an individual cell object;
By inputting the morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit or the feature amount calculated from the morphological feature amount into the classification model, the unknown attribute imaging A cell classification unit for classifying adhesive cells in the image or the unknown attribute captured image;
A cell object storage unit that stores the cell object recognized from a known identical-attribute captured image, which is a captured image in which a plurality of adhesion-type cells with the same attribute known by the cell object recognition unit are captured;
When the cell classification unit classifies the unknown attribute captured image or the adhesion-related cells in the unknown attribute captured image, the morphological feature amount of the cell object stored in the cell object storage unit and the cell object A classification model generation unit configured to generate the classification model based on a plurality of attributes of the recognized adhesive cells ;
With
The classification model generation unit includes:
As the morphological feature amount of the cell object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, and the adherent cells are simulated. Using at least one of the morphological features of the value indicating the width when assumed to be linear, and as a plurality of attributes of the adherent cells recognized as the cell object, a name, a culture condition, A cell classification device, wherein the classification model is formed using a plurality of attributes including activity.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する分類モデル記憶部と、
前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識部と、
前記細胞オブジェクト認識部によって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類部と、
前記細胞オブジェクト認識部によって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶部と、
前記細胞分類部が前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類するときに、前記細胞オブジェクト記憶部に記憶されている前記細胞オブジェクトの形態的特徴量及び前記細胞オブジェクトとして認識された接着系細胞の複数の属性に基づいて、前記分類モデルを生成する分類モデル生成部と
を備え、
前記細胞オブジェクトとして認識された接着系細胞の複数の属性は、名称、培養条件、活性を含む複数の属性であることを特徴とする細胞分類装置。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell A classification model storage unit for storing a classification model to be classified every time;
A cell object recognition unit for recognizing an imaging region of each adhesive cell from the unknown attribute captured image as an individual cell object;
By inputting the morphological feature amount of the cell object recognized from the unknown attribute captured image by the cell object recognition unit or the feature amount calculated from the morphological feature amount into the classification model, the unknown attribute imaging A cell classification unit for classifying adhesive cells in the image or the unknown attribute captured image;
A cell object storage unit that stores the cell object recognized from a known identical-attribute captured image, which is a captured image in which a plurality of adhesion-type cells with the same attribute known by the cell object recognition unit are captured;
When the cell classification unit classifies the unknown attribute captured image or the adhesion-related cells in the unknown attribute captured image, the morphological feature amount of the cell object stored in the cell object storage unit and the cell object A classification model generation unit configured to generate the classification model based on a plurality of attributes of the recognized adhesive cells ;
With
The cell classification apparatus characterized in that the plurality of attributes of the adherent cell recognized as the cell object are a plurality of attributes including a name, a culture condition, and an activity.
接着系細胞を培養する培養容器を収容するとともに、所定の環境条件に内部を維持可能な恒温室と、前記恒温室内で前記培養容器に含まれる接着系細胞の画像を撮像する撮像装置と、請求項4から請求項6の何れかに記載の細胞分類装置とを備えるインキュベータにおいて、
前記分類モデルを用いた前記接着系細胞の分類結果に基づいて前記培養容器内の接着系細胞の培養条件を変更する培養条件変更部を更に備えることを特徴とするインキュベータ。
Accommodates a culture vessel for culturing adhesive system cells, and an imaging device for imaging a thermostatic chamber capable of maintaining inside a predetermined environmental condition, the image of the adhesive system cells contained in the culture vessel in the thermostatic chamber, wherein in Louis Nkyubeta a cell sorting device according to claim 4 to claim 6,
An incubator further comprising a culture condition changing unit that changes a culture condition of the adherent cells in the culture container based on a result of the classification of the adherent cells using the classification model.
請求項7のインキュベータを用いることを特徴とする細胞の培養方法。 A method for culturing cells, comprising using the incubator according to claim 7 . 培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを生成する分類モデル生成装置のコンピュータに、
既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識ステップと、
前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出する特徴的オブジェクト抽出ステップと、
前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成する候補分類モデル形成ステップと、
抽出された前記特徴的オブジェクトに応じて前記候補分類モデル形成ステップにおいて形成された複数の前記候補分類モデルのなかから、前記分類モデルを決定する分類モデル決定ステップと
を実行させるプログラムであって、
前記候補分類モデル形成ステップは、
前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とするプログラム。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell In the computer of the classification model generation device that generates the classification model to classify every time,
Recognizing cell object recognition step the imaging area of the individual adhesive system cells as individual cells object from a known identity attributes captured image a plurality of adhesive systems cells are image captured Known same attributes,
A characteristic object extracting step of extracting the cell object having a predetermined morphological characteristic amount from the cell object as a characteristic object;
A candidate classification model forming step of forming a candidate classification model that is a candidate for the classification model using a morphological feature amount of the characteristic object and a plurality of attributes of the adhesion-related cells recognized as the characteristic object;
From the plurality of the candidate classification model formed in the candidate classification model formed step in accordance with the extracted said characteristic objects, a program for executing the <br/> a classification model determining step of determining the classification model There,
The candidate classification model forming step includes:
As the morphological feature amount of the characteristic object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, Using at least one morphological feature value of a value indicating a width when assumed to be linear, and as a plurality of attributes of the adherent cell recognized as the characteristic object, a name, culture A program characterized in that the candidate classification model is formed using a plurality of attributes including conditions and activities.
培養容器に固着する未知の接着系細胞が撮像された撮像画像である未知属性撮像画像、又は、前記未知属性撮像画像内の接着系細胞を、当該接着系細胞の形態的な特徴に基づいて属性毎に分類する分類モデルを記憶する細胞分類装置のコンピュータに、
前記未知属性撮像画像から個々の接着系細胞の撮像領域を個々の細胞オブジェクトとして認識する細胞オブジェクト認識ステップと、
前記細胞オブジェクト認識ステップによって前記未知属性撮像画像から認識された前記細胞オブジェクトの形態的特徴量又は当該形態的特徴量から算出される特徴量を、前記分類モデルに投入することによって、前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞を分類する細胞分類ステップと、
前記細胞オブジェクト認識ステップによって既知の同一属性の複数の接着系細胞が撮像された撮像画像である既知同一属性撮像画像から認識された前記細胞オブジェクトを記憶する細胞オブジェクト記憶ステップと、
前記細胞分類ステップによって前記未知属性撮像画像又は前記未知属性撮像画像内の接着系細胞が分類されるときに、前記細胞オブジェクト記憶ステップに記憶されている前記細胞オブジェクトのなかから所定の形態的特徴量を有する前記細胞オブジェクトを特徴的オブジェクトとして抽出し、前記特徴的オブジェクトの形態的特徴量及び前記特徴的オブジェクトとして認識された接着系細胞の複数の属性を用いて前記分類モデルの候補となる候補分類モデルを形成し、抽出された前記特徴的オブジェクトに応じて生成した複数の前記候補分類モデルのなかから前記分類モデルを決定する分類モデル生成ステップと
を実行させるプログラムであって、
前記分類モデル形成ステップは、
前記特徴的オブジェクトの形態的特徴量として、接着系細胞を横切る線のうちの最大値を示す値、接着系細胞を擬似的に線状と仮定した場合の長さ示す値、接着系細胞を擬似的に線状と仮定した場合の幅を示す値、のうちの少なくとも1つの形態的特徴量を用いて、また、前記特徴的オブジェクトとして認識された接着系細胞の複数の属性として、名称、培養条件、活性を含む複数の属性を用いて前記候補分類モデルを形成することを特徴とするプログラム。
An unknown attribute imaging image that is an image obtained by imaging an unknown adhesive cell that adheres to a culture vessel, or an adhesion system cell in the unknown attribute imaging image, based on the morphological characteristics of the adhesion cell In the computer of the cell classification device that stores the classification model to be classified for each,
A cell object recognition step for recognizing an imaging region of each adhesive cell from the unknown attribute captured image as an individual cell object;
The unknown attribute imaging is performed by inputting a morphological feature amount of the cell object recognized from the unknown attribute captured image in the cell object recognition step or a feature amount calculated from the morphological feature amount into the classification model. A cell classification step for classifying adhesive cells in the image or the unknown attribute captured image ;
A cell object storing step of storing the cell object recognized from a known identical attribute captured image, which is a captured image in which a plurality of adhesion-type cells of the same attribute known by the cell object recognition step are captured;
A predetermined morphological feature amount among the cell objects stored in the cell object storing step when the unknown attribute picked-up image or the adherent cell in the unknown attribute picked-up image is classified by the cell classifying step. A candidate classification that is a candidate for the classification model using a morphological feature amount of the characteristic object and a plurality of attributes of adhesion-related cells recognized as the characteristic object. A classification model generation step of forming a model and determining the classification model from among the plurality of candidate classification models generated according to the extracted characteristic object ,
The classification model formation step includes:
As the morphological feature amount of the characteristic object, a value indicating the maximum value of the lines crossing the adherent cells, a value indicating the length when the adherent cells are assumed to be pseudo linear, Using at least one morphological feature value of a value indicating a width when assumed to be linear, and as a plurality of attributes of the adherent cell recognized as the characteristic object, a name, culture A program characterized in that the candidate classification model is formed using a plurality of attributes including conditions and activities.
JP2010100167A 2010-04-23 2010-04-23 Classification model generation device, cell classification device, incubator, cell culture method and program Active JP5732201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010100167A JP5732201B2 (en) 2010-04-23 2010-04-23 Classification model generation device, cell classification device, incubator, cell culture method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010100167A JP5732201B2 (en) 2010-04-23 2010-04-23 Classification model generation device, cell classification device, incubator, cell culture method and program

Publications (2)

Publication Number Publication Date
JP2011232051A JP2011232051A (en) 2011-11-17
JP5732201B2 true JP5732201B2 (en) 2015-06-10

Family

ID=45321528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010100167A Active JP5732201B2 (en) 2010-04-23 2010-04-23 Classification model generation device, cell classification device, incubator, cell culture method and program

Country Status (1)

Country Link
JP (1) JP5732201B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201708082RA (en) 2015-03-30 2017-10-30 Nat Univ Corp Nagoya Univ Device for producing information for cell analysis, method for producing information for cell analysis, and program
WO2021059489A1 (en) * 2019-09-27 2021-04-01 株式会社ニコン Information processing device, information processing method, information processing program, and information processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121220B2 (en) * 1988-07-18 1995-12-25 株式会社日立製作所 Animal cell culture device, culture method and activity diagnostic device
JP2001022929A (en) * 1999-07-07 2001-01-26 Meidensha Corp Method and device for detecting colony microorganism
JP2008212017A (en) * 2007-03-01 2008-09-18 Nikon Corp Apparatus for determining cell state, and method for determining cell state

Also Published As

Publication number Publication date
JP2011232051A (en) 2011-11-17

Similar Documents

Publication Publication Date Title
JP5745290B2 (en) Image processing apparatus, cell classification apparatus, incubator, image processing method, cell classification method, image processing program, and cell classification program
JP6303332B2 (en) Image processing apparatus, image processing method, and image processing program
JP6448129B2 (en) Cell evaluation apparatus, incubator, cell evaluation method, program, and cell culture method
CN101611411B (en) System and method for tracking the movement of biological materials
JP6461128B2 (en) Cell evaluation apparatus, method and program
JP5946516B2 (en) Customer traffic distribution acquisition method and customer traffic distribution acquisition device
US10007834B2 (en) Detection control device, detection system, non-transitory storage medium, and detection control method
US20150071541A1 (en) Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images
JP2011229413A (en) Cell evaluation device, incubator, program, and culture method
US11954926B2 (en) Image feature detection
JP7001060B2 (en) Information processing equipment, information processing methods and information processing systems
JPWO2009031283A1 (en) CULTURE DEVICE, CULTURE INFORMATION MANAGEMENT METHOD, AND PROGRAM
WO2011021391A1 (en) Device for evaluating cultured cells, incubator, and program
Liang et al. StomataScorer: a portable and high‐throughput leaf stomata trait scorer combined with deep learning and an improved CV model
KR102084683B1 (en) Analysing method for cell image using artificial neural network and image processing apparatus for cell image
JP5732201B2 (en) Classification model generation device, cell classification device, incubator, cell culture method and program
JP2014217353A (en) Observation apparatus, observation method, observation system, program thereof, and method for producing cells
CN107194319B (en) Mitosis positioning and identifying method based on support vector machine sequencing
JP2009281742A (en) Discrimination method, discrimination device and program
WO2012099005A1 (en) Method for creating cell-information data
Heiwolt et al. Deep semantic segmentation of 3D plant point clouds
Harikumar et al. An approach to conifer stem localization and modeling in high density airborne LiDAR data
JP2021036830A (en) Image analyzer, cell culture observation device, image analysis method, program and information processing system
JP6721895B2 (en) Cell analysis result output device, cell analysis result output method and program
Qi Individual Tree Detection and Measurement from Terrestrial Point Cloud

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R150 Certificate of patent or registration of utility model

Ref document number: 5732201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250