JP7361395B2 - 表示制御装置、表示制御方法及び表示制御プログラム - Google Patents

表示制御装置、表示制御方法及び表示制御プログラム Download PDF

Info

Publication number
JP7361395B2
JP7361395B2 JP2020137325A JP2020137325A JP7361395B2 JP 7361395 B2 JP7361395 B2 JP 7361395B2 JP 2020137325 A JP2020137325 A JP 2020137325A JP 2020137325 A JP2020137325 A JP 2020137325A JP 7361395 B2 JP7361395 B2 JP 7361395B2
Authority
JP
Japan
Prior art keywords
image
class
gate
display control
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137325A
Other languages
English (en)
Other versions
JP2021002354A (ja
JP2021002354A5 (ja
Inventor
圭介 合田
尚 新田
武昭 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cybo KK
Original Assignee
Cybo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cybo KK filed Critical Cybo KK
Publication of JP2021002354A publication Critical patent/JP2021002354A/ja
Publication of JP2021002354A5 publication Critical patent/JP2021002354A5/ja
Application granted granted Critical
Publication of JP7361395B2 publication Critical patent/JP7361395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、表示制御装置、表示制御方法及び表示制御プログラムに関する。
従来、流路を順次流れる細胞の種類を画像処理によって判別することにより、細胞の種類ごとに細胞を分類するフローサイトメーターや、さらに細胞の種類ごとに細胞を分取するセルソーターに関する技術が開示されている(例えば、再公表WO2013/147114号公報を参照。)。
従来、細胞の種類を判別するために、人工ニューラルネットワークを用いたディープラーニングなどの機械学習手法によるクラス判定結果を用いることがあった。しかし、人工ニューラルネットワークの内部階層における重みづけなどの判別条件について、その意義を人間が解釈することは困難である。このような従来技術によると、人工ニューラルネットワークの判別条件について人間が解釈困難であることから、そのクラス判定性能を評価することができない。
本発明は、人工ニューラルネットワークによるクラス判定性能を、人間が解釈しやすい形式にして提示できる表示制御装置、表示制御方法及び表示制御プログラムを提供することを目的とする。
本発明の一実施形態は、
入力画像のクラス判定結果の確信度を算出する確信度算出部によって算出される前記確信度を取得する確信度取得部と、
前記確信度取得部が取得する前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示させる表示制御部と、を備える表示制御装置である。
本発明の一実施形態は、
入力画像のクラス判定結果の確信度を取得し、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示する、
表示制御方法である。
本発明の一実施形態は、
表示制御装置が備えるコンピュータに、
入力画像のクラス判定結果の確信度を取得するステップと、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を、前記確信度を示す確信度軸にして表示させるステップと、
を実行させるための表示制御プログラムである。
本発明によれば、人工ニューラルネットワークによるクラス判定性能を、人間が解釈しやすい形式にして提示できる。
本実施形態のクラス判定システムの機能構成の一例を示す図 本実施形態のクラス判定部の構成の一例を示す図 本実施形態のクラス判定システムによる確信度の算出結果の一例を示す図 本実施形態のクラス判定システムの動作の一例を示す図 本実施形態の確信度グラフ画像の一例を示す図 本実施形態の表示制御部が表示させるグラフの一例を示す図 本実施形態の表示制御装置によるゲーティングの一例を示す図 本実施形態の表示制御装置によるゲーティングの変形例を示す図 本実施形態の表示制御装置によるゲーティングの他の変形例を示す図 本実施形態のニューラルネットワークの構成の一例を示す図 細胞画像と、各クラスについての確信度との関係の一例を示す図 確信度のヒストグラム及びゲーティング結果の一例を示す図 血小板凝集塊の分類精度を定量した結果の一例を示す図 セルソーターによる分取性能の一例(TRAPによる刺激を与えた場合)を示す図 セルソーターによる分取性能の一例(TRAPによる刺激を与えていない場合)を示す図 血小板凝集塊に分類される確信度のヒストグラム表示の一例を示す図 グラフの表示形式を散布図とした場合の一例を示す図 入力画像を確信度別に分類した結果の一例を示す図
以下、本実施形態のクラス判定システム1について図を参照して説明する。
[クラス判定システム1の機能構成]
図1は、本実施形態のクラス判定システム1の機能構成の一例を示す。クラス判定システム1は、一例として、フローサイトメーター(Flow Cytometer;FCM)(不図示)の一形態であるイメージングサイトメーター(Imaging Cytometer)(不図示)に備えられる。この場合、クラス判定システム1は、細胞画像を取得し、取得した細胞画像に撮像されている細胞の種類を判定する。ここで、クラス判定システム1の判定対象であるクラスCLとは、「細胞の種類」である。すなわち、クラス判定システム1は、細胞の種類をクラスCLとしてクラス判定を行い、その判定結果として各クラスCLに対する確信度PR(つまり、細胞の種類を推定した結果)を取得して、確信度出力部230に表示する。さらに確信度出力部230上にゲートGTを設定し、取得した画像が設定したゲートGTに含まれるか否かの判定(ゲート判定)を行う。細胞分取機能がついたセルソーターでは、このゲート判定結果GRをソート機構(不図示)に出力する。セルソーターのソート機構は、クラス判定システム1が出力するゲート判定結果GRに基づいて細胞を分取する。
なお、以下の説明では、クラス判定システム1が、イメージングサイトメトリー装置のセルソーターに接続され、細胞の種類を判定するものであるとして説明するが、これに限られない。クラス判定システム1は、例示したイメージングサイトメトリーに利用されるものに限られず、例えば、一般的なフローサイトメーターや質量サイトメーター(Mass Cytometer)、顕微鏡などの他の細胞観察用途や、細胞以外の画像のクラス分け用途に利用されてもよい。
クラス判定システム1は、表示制御装置10と、クラス判定装置20とを備える。表示制御装置10及びクラス判定装置20は、1台のコンピュータ装置によって実現されてもよいし、別々のコンピュータ装置によって実現されてもよい。
また、クラス判定システム1は、操作検出部30と、表示部40とを備える。
操作検出部30は、例えば、コンピュータ装置のキーボードやマウス、タッチパネルなどの操作デバイスであり、操作者による操作を検出する。
表示部40は、例えば、液晶ディスプレイなどの表示デバイスであり、画像を表示する。
[クラス判定装置20の機能構成]
クラス判定装置20は、画像取得部210と、クラス判定部220と、確信度出力部230とを備える。
画像取得部210は、セルソーターの撮像部(不図示)において撮像された細胞画像を入力画像IPとして取得する。画像取得部210は、取得した入力画像IPをクラス判定部220に出力する。
クラス判定部220は、入力画像IPに撮像されている細胞の種類をクラスCLとして判定する。クラス判定部220は、一例として、コンボリューショナル・ニューラルネットワーク(convolutional neural network;CNN/以下、ニューラルネットワークCNNとも称する。)による学習済みモデルとして実現される。
なお、クラス判定部220がニューラルネットワークCNNによって実現されることは一例である。クラス判定部220は、例えば、深層ニューラルネットワーク(deep neural network;DNN)、確率的ニューラルネットワーク(Probabilistic neural network;PNN)、順伝搬型ニューラルネットワーク(フィードフォワードニューラルネットワーク;FFNN)、再起型ニューラルネットワーク(Recurrent neural networks;RNNs)、Autoassociator、Deep Belief Networks(DBNs)、Radial basis function(RBF) network、ボルツマンマシン、制約付きボルツマンマシンなどによって実現されていてもよい。ここに例示したネットワークのことを、以下の説明において人工ニューラルネットワークとも称する。
図2は、本実施形態のクラス判定部220の構成の一例を示す。クラス判定部220に供給される入力画像IPには、例えば、血小板凝集塊PA、血小板SP、白血球LKなどの各種の細胞(又は組織)のうち、いずれかが撮像されている。この一例において、血小板凝集塊PAはクラスCLaに、血小板SPはCLbに、白血球LKはクラスCLcにそれぞれ対応づけられている。白血球LKには、顆粒球GL(好中球、好酸球及び好塩基球)、リンパ球LC、単球MCなどが含まれる。本実施形態の一例では、リンパ球LCはクラスCLdに、リンパ球LCのうちTリンパ球LCはクラスCLd1に、Bリンパ球LCはクラスCLd2に、それぞれ対応付けられている。また、顆粒球GLはクラスCLeに対応付けられている。
この一例の場合、クラス判定部220は、入力画像IPに撮像されている細胞の種類が、上述したクラスCLのうちのいずれのクラスCLに該当するのかを判定し、各クラスCLに対する確信度PRを出力する。
[確信度について]
クラス判定部220は、クラスCLに対する確信度(Probability)を出力する。ここで、確信度PRについて説明する。確信度PRは、複数の種類のクラスCLに対し、それぞれ1:1にして対応づけられている。例えば、上述したクラスCLのうち、クラスCLa~クラスCLcの3種類のクラスCLについて、クラスCLaには確信度PRaが、クラスCLbには確信度PRbが、クラスCLcには確信度PRcが、それぞれ対応づけられている。
あるクラスCLの確信度PRは、その値が大きいほど、ニューラルネットワークCNNへの入力信号(例えば、入力画像IP)がそのクラスCLに該当する尤度が高いことを示し、その値が小さいほど、入力信号がそのクラスCLに該当する尤度が低いことを示す。例えば、クラスCLa(上述の例では、血小板凝集塊PA)の確信度PRは、入力画像IPが血小板凝集塊PAの画像である場合には高く、入力画像IPが血小板凝集塊PA以外の画像である場合には低く算出される。
確信度PRは、ある値の範囲(例えば、0~1)に正規化されていてもよい。この場合、あるクラスCLの確信度PRは、値が1に近いほど、入力信号がそのクラスCLに該当する尤度が高く、値が0に近いほど、入力信号がそのクラスCLに該当する尤度が低いことを示す。また、各クラスCLの確信度PRをクラスCLごとに加算した総和は、ある値(例えば、1)である。例えば、ある入力画像IPについて、上述した3種類のクラスCLに分類する場合、これらのクラスCLに対応する確信度PRa~確信度PRcの総和は、1である。
なお、上述した人工ニューラルネットワークにおいては、クラスCLの種類数に対応したベクトル値を出力値とする。この人工ニューラルネットワークを構成する各層のうち、例えば最終層にSoftmax層を採用することにより、最終層からの出力値が確信度PRとなりうる。また、確信度PRは、ある入力信号があるクラスCLに該当する尤度を、クラスCL相互間の比較によって表現できればよく、その単位は任意である。
図3は、本実施形態のクラス判定システム1による確信度PRの算出結果の一例を示す。
クラス判定部220は、入力画像IPごとに、各クラスCLの確信度PRを算出する。具体的な一例として、クラスCLa~クラスCLcの3種類のクラスCLに分類される場合、クラス判定部220は、第1の入力画像IP1について、入力画像IP1がクラスCLaに該当する尤度を確信度PRaとして、入力画像IP1がクラスCLbに該当する尤度を確信度PRbとして、入力画像IP1がクラスCLcに該当する尤度を確信度PRcとして、それぞれ算出する。図3に示す一例では、クラス判定部220は、確信度PRaを95%、確信度PRbを4%、確信度PRcを1%として、それぞれ算出する。
図1に戻り、確信度出力部230は、クラス判定部220が算出した確信度PRを表示制御装置10に対して出力する。
[表示制御装置10の機能構成]
表示制御装置10は、確信度取得部110と、表示制御部120と、設定値取得部130と、ゲート判定部140とを備える。
確信度取得部110は、入力画像IPのクラス判定結果RCLの確信度PRを算出するクラス判定部220(確信度算出部)によって算出される確信度PRを取得する。
表示制御部120は、確信度取得部110が取得する確信度PRの入力画像IP毎の分布に基づいて、グラフGの画像を生成する。表示制御部120が生成するグラフGの画像には、グラフGの表示軸DAXとして確信度軸PAXが含まれる。ここで、表示軸DAXとは、表示部40に表示されるグラフGの軸をいう。また、確信度軸PAXとは、グラフGの軸のうち、確信度PRの大きさを示す軸をいう。表示制御部120は、グラフGの表示軸DAXのうち、少なくとも一軸を、確信度軸PAXにして表示させる。例えば、グラフGがX軸及びY軸の2軸による直交座標平面を示す場合、クラス判定システム1は、これら2軸のうち、X軸を確信度軸PAXにして表示させる。なお、表示制御部120は、これら2軸(すなわち、X軸及びY軸)をいずれも確信度軸PAXにして表示させてもよい。また、グラフGは必ずしも2軸でなくてもよく、クラス判定部220が判定するクラスCLの種類の数に応じた数の軸を有するものであってもよい。例えば、クラス判定部220が判定するクラスCLの種類数が3種類である場合には、表示制御部120は、3軸のグラフGを表示させてもよい。この場合、クラス判定システム1は、グラフGの3軸のうち、すべての軸を確信度軸PAXとしてもよい。
すなわち、表示制御部120は、確信度取得部110が取得する確信度PRの入力画像IP毎の分布を、グラフGの表示軸DAXのうち少なくとも一軸を、確信度PRを示す確信度軸PAXにして表示させる。
なお、以下の説明において、この表示制御部120が生成するグラフGの画像のことを、確信度グラフ画像PGとも称する。
設定値取得部130は、グラフGに表示される確信度PRについてのゲート設定値GVを取得する。
ゲート判定部140は、設定値取得部130が取得するゲート設定値GVに基づいて、入力画像IPがゲート設定値GVの内部にあるか否かを判定する。
次に、これら各部の動作の一例について、図4を参照して説明する。
[クラス判定システム1の動作]
図4は、本実施形態のクラス判定システム1の動作の一例を示す。
画像取得部210は、細胞(又は組織)が撮像された画像を、フローサイトメトリー装置(不図示)から、入力画像IPとして取得する(ステップS210)。画像取得部210は、取得した入力画像IPをクラス判定部220に出力する。
クラス判定部220は、ステップS210において取得された入力画像IPについて、判定対象のクラスCLごとに確信度PRを算出する(ステップS220)。
確信度出力部230は、ステップS220において算出した確信度PRを、表示制御装置10に対して出力する(ステップS230)。
確信度取得部110は、ステップS230において算出された確信度PRを取得する(ステップS110)。
表示制御部120は、ステップS110において取得された確信度PRに基づいて、グラフGの画像を生成する(ステップS120)。
表示制御部120は、ステップS120において生成した確信度グラフ画像PGを表示部40に対して出力する(ステップS130)。この結果、表示部40には、ステップS120において生成された確信度グラフ画像PGが表示される。
設定値取得部130は、ゲート設定値GVを取得する(ステップS140)。ゲート設定値GVとは、キーボードやマウス、タッチパネルなどの手動によって与えられるものであってもよく、確信度グラフ画像PGの分布状況などに基づいて自動的に計算されるものであってもよい。設定値取得部130は、取得したゲート設定値GVを表示制御部120に出力する。ゲート設定値GVとは、ステップS130において表示された確信度グラフ画像PGに対してゲートGTを設定するための値である。
なお、表示制御部120は、取得されたゲート設定値GVに基づくゲート画像GPを確信度グラフ画像PG上に表示する。
また、表示制御部120は、ステップS130において生成した確信度グラフ画像PGと、確信度グラフ画像PGについてのゲート設定値GVとを、ゲート判定部140に対して出力する。
ゲート判定部140は、ステップS210において取得された入力画像IPが、ステップS140において作成されたゲート設定値GVの内部にあるか否かの判定を行い、その判定結果としてのゲート判定結果GRを生成する(ステップS150)。ここで、入力画像IPがゲート設定値GVの内部にあるか否かとは、確信度グラフ画像PG上においてゲート設定値GVが示す確信度PRの範囲内に、入力画像IPの確信度PRがプロットされるか否かを意味する。本実施形態の一例として、ゲート判定部140は、ステップS140において表示制御部120から出力される確信度グラフ画像PGと、確信度グラフ画像PGについてのゲート設定値GVとに基づいて、入力画像IPがゲート設定値GVの内部にあるか否かを判定する。
ゲート判定部140は、生成したゲート判定結果GRをセルソーター(不図示)に出力する。このように構成することにより、クラス判定システム1は、ゲート設定値GVに含まれる細胞(あるいは含まれない細胞)を選択的に分取するようにプログラムできる。また、クラス判定システム1は、ゲート判定結果GRに基づいて、ゲート設定値GVに含まれる細胞(あるいは含まれない細胞)のデータ(画像、数値データ、プロットなど)を選択的に表示できる。
表示制御部120は、ゲート判定部140によるゲート判定結果GRを用いて所望の細胞に対応した入力画像IPやグラフGなどのデータを表示させることもできる。また、表示制御部120は、ゲート判定結果GRに基づいて、ゲートGTに含まれる入力画像IPの個数や割合などの統計値を計算して出力させたり、グラフG上に表示させたりすることも可能である。また、表示制御部120は、個々の入力画像IPがゲートGTに含まれるか否かのゲート判定結果GRに基づいて、ゲートGTに含まれる入力画像に対応したデータ点について、データ点の位置を示すポイントの色や形状を変えることも可能である。
表示制御部120が生成する確信度グラフ画像PGの一例について、図5を参照して説明する。
[確信度グラフ画像PGの一例]
図5は、本実施形態の確信度グラフ画像PGの一例を示す。上述したように、表示制御部120は、確信度PRの入力画像IP毎の分布を、グラフGの表示軸DAXのうち少なくとも一軸を、確信度軸PAXにして表示させる。図5(A)に示す一例では、表示制御部120は、グラフGの表示軸DAXのうち、X軸を確信度軸PAXとし、Y軸を確信度PRの出現頻度として、グラフGを表示させる。ここでY軸の確信度PRの出現頻度とは、複数の入力画像IPについてクラス判定部220がクラスCLをそれぞれ判定した場合において、あるクラスCLの確信度PRを入力画像IPごとに計数した値である。確信度PRの出現頻度のことを、ある確信度PRにおける入力画像IPの度数Fとも称する。図5(A)に示す一例の場合、確信度グラフ画像PGとは、X軸が確信度軸PAXを示し、Y軸が度数Fを示すヒストグラムである。
具体的な一例として、クラス判定部220が、入力画像IPが血小板凝集塊PAの画像であるか否かを判定する場合について説明する。クラス判定部220は、入力画像IPに撮像されている細胞(又は組織)が血小板凝集塊PAであることの確信度PRaを算出する。例えば、血小板凝集塊PAの画像が入力画像IPとして与えられた場合、クラス判定部220は、入力画像IPが血小板凝集塊PAの画像であることの確信度PR(つまり、確信度PRa)を95%と算出する。すなわちこの場合、クラス判定部220は、与えられた入力画像IPが血小板凝集塊PAの画像である尤度が高いと判定する。また、白血球LKの画像が入力画像IPとして与えられた場合、クラス判定部220は、確信度PRaを4%と算出する。すなわちこの場合、クラス判定部220は、与えられた入力画像IPが血小板凝集塊PAの画像である尤度が低いと判定する。
クラス判定部220は、複数の入力画像IPについて確信度PRaをそれぞれ算出し、算出した確信度PRaの分布を、X軸を確信度軸PAXにし、Y軸を度数Fを示す軸にしたグラフGを、確信度グラフ画像PGとして表示部40に表示させる。
ここで、図5(A)~(C)には、クラス判定部220によるクラス判定性能の違いを示す。クラス判定性能が比較的高い場合には、図5(A)に示すように確信度PRが分布する。すなわち、クラス判定性能が比較的高い場合には、確信度PRの分布が、確信度PRが比較的低い「分布DS1A」の領域と、確信度PRが比較的高い「分布DS1B」の領域とに明確に分かれる。換言すれば、図5(A)に示す確信度グラフ画像PGが表示部40に表示された場合には、操作者は、クラス判定性能が比較的高い状態であると解釈できる。
また、クラス判定性能が比較的低い場合には、図5(B)に示すように確信度PRが分布する。すなわち、クラス判定性能が比較的低い場合には、確信度PRの分布が、確信度PRが比較的低い「分布DS1C」の領域と、確信度PRが比較的高い「分布DS1D」の領域とに分かれるが、これら2つの領域どうしが、図5(A)に示す場合に比べて接近する。つまり、クラス判定性能が比較的低い場合には、確信度PRが比較的低い領域と、確信度PRが比較的高い領域とを明確に分離し難い状態になる。換言すれば、図5(B)に示す確信度グラフ画像PGが表示部40に表示された場合には、操作者は、クラス判定性能が比較的低い状態であると解釈できる。
また、クラス判定性能がさらに低い場合には、図5(C)に示すように確信度PRが分布する。すなわち、クラス判定性能がさらに低い場合には、確信度PRの分布が、分布DS1Eの領域のみになり、確信度PRの高い領域と、確信度PRの低い領域とを判別できなくなる。換言すれば、図5(C)に示す確信度グラフ画像PGが表示部40に表示された場合には、操作者は、クラス判定性能が、図5(B)の状態に比べてさらに低い状態であると解釈できる。
なお、「クラス判定性能」のことを「クラスCLの分類精度」とも称する。
上述したように、グラフGの少なくとも1軸を確信度軸PAXとすることにより、クラス判定部220の判定性能が、操作者(すなわち人間)にとって解釈しやすい形式になる。すなわち、本実施形態のクラス判定システム1によれば、ニューラルネットワークCNNによるクラスCLの判定性能を操作者が解釈しやすい形式にして提示できる。
ところで、ニューラルネットワークCNNの内部の各層における重みづけの意味について、人間が解釈することは一般的に困難である。このため、ニューラルネットワークCNNが、入力画像IPのクラスCLをどのような判定条件によって判定しているのかについて、人間が解釈することは一般的に困難である。したがって、ニューラルネットワークCNNの学習状態が妥当であるか否か(つまり、ニューラルネットワークCNNのクラス判定性能)を評価する場合において、ニューラルネットワークCNNの内部の状態を観察することによって評価することは、一般的に困難である。このため従来、ニューラルネットワークCNNのクラス判定性能を評価する場合において、ニューラルネットワークCNNに与えた入力信号(例えば、入力画像IP)と、入力信号に基づいてニューラルネットワークCNNが出力するクラス判定結果RCLとを照合して、その当否を判定する手法が行われている。例えば、ニューラルネットワークCNNに対して「血小板凝集塊PA」の入力画像IPを与えた場合において、ニューラルネットワークCNNが出力するクラス判定結果RCLが「血小板凝集塊PA」を示していれば、このニューラルネットワークCNNは妥当に学習されている、と判定する。しかし、この従来手法によると、ニューラルネットワークCNNが出力するクラス判定結果RCLが正しいか誤っているかの2択として判定するにとどまり、クラス判定結果RCLの妥当性の程度、つまりニューラルネットワークCNNのクラス判定性能までは判定できなかった。
本実施形態のクラス判定システム1は、ニューラルネットワークCNNがクラス判定に用いる確信度PRをニューラルネットワークCNNから出力させ、確信度PRをグラフGの表示軸DAXとして表示させる。上述したように、確信度PRは、ある入力信号があるクラスCLに該当する尤度を示す指標としてニューラルネットワークCNNが算出する値であることから、ニューラルネットワークCNNによるクラス判定の妥当性の程度を示している。したがって、確信度PRの分布は、ニューラルネットワークCNNのクラス判定性能を示す指標となりうる。ここで、図5を参照して説明したように、確信度PRの分布をグラフGの軸にすることにより、ニューラルネットワークCNNの内部の状況を人間にも解釈させやすい形式にすることができる。
本実施形態のクラス判定システム1は、確信度PRの分布を軸にしたグラフGに示すことにより、ニューラルネットワークCNNによるクラス判定性能を、人間が解釈しやすい形式にして提示できる。
上記ではニューラルネットワークCNNによるクラス判定性能を人間が解釈する場合について説明したが、ゲート判定部140がクラス判定性能を評価してもよい。
なお、図5(C)に示すように、クラス判定性能が低くなる場合の原因としては、クラス判定を行ったニューラルネットワークCNNのモデルの性能が悪いことや、入力した画像の画質が低いことが原因として考えられる。ニューラルネットワークCNNのモデルの性能を向上させるためには、再学習を行うことが有効である。
以下、再学習の方法を例示する。例えば、ある特定のパラメータについての確信度の分布より、ゲートが有効ではないことが判明した場合、当該パラメータのクラスに対して、新規で学習に使用する画像を追加し、再学習することが有効である。
また、学習に使用した既存画像に対して、反転や回転などの画像処理を行うことにより、学習に使用する画像を生成して追加し、再学習することが有効である。
また、図5(C)に示すように、確信度の高い領域と確信度の低い領域を判別することができない場合、一つのクラスに分類されていた集団の中に、複数の異なる形状の細胞が存在することが明らかとなる場合がある。このような場合、既存の分類を分割して新しい分類を追加し、再学習することが有効である。
また、2つ以上の既存の分類を統合して1つの分類とし、再学習することが有効な場合もある。
また、クラス判定部のモデル(レイヤー数、各層を接続する構造など)を変更し、再学習することが有効な場合もある。
必要に応じて、上記再学習の方法を適宜組み合わせることにより、ニューラルネットワークCNNのモデルの性能が向上することが期待できる。
なお、ゲート判定部140は、クラス判定性能の評価結果に基づき、再学習の要否判断や再学習方法の決定を行ってもよい。
[表示形式の変形例]
図6は、本実施形態の表示制御部120が表示させるグラフGの一例を示す。本変形例において、表示制御部120は、グラフGの表示軸DAXのうち、クラスCLdの確信度PRdをX軸、クラスCLeの確信度PReをY軸にして、確信度グラフ画像PGを表示させる。上述した一例では、クラスCLdはリンパ球LC、クラスCLeは顆粒球GLにそれぞれ対応する。この場合、分布DS2Aは、クラス判定部220が、入力画像IPをリンパ球LCの画像であるとクラス判定した領域を示している。分布DS2Bは、クラス判定部220が、入力画像IPを顆粒球GLの画像であるとクラス判定した領域を示している。また、分布DS2Cは、クラス判定部220が、入力画像IPをリンパ球LC及び顆粒球GLのいずれの画像でもないとクラス判定した領域を示している。
すなわち、同図に示す一例では、表示制御部120は、グラフGの表示軸DAXのうちの複数の表示軸DAXを確信度軸PAXにして表示させる。
このように、複数の表示軸DAXを確信度軸PAXにしてグラフGを表示させることにより、クラス判定システム1は、ニューラルネットワークCNNによるクラス判定性能を、人間が解釈しやすい形式にして提示できる。
なお、上述した各例においては、確信度軸PAXが、あるクラスCLの確信度PRをそのまま示す軸であるとして説明したが、これに限られない。確信度軸PAXは、複数のクラスCLの確信度PRどうしの組み合わせによる確信度PR(すなわち、組み合わせ確信度PRCB)を示す軸であってもよい。例えば、グラフGのX軸が、確信度PRaと確信度PRbとが多項式によって加算された組み合わせ確信度PRCBとされていてもよい。例えば、組み合わせ確信度PRCBが、確信度PRaに重みを掛け合わせた値と、確信度PRbに重みを掛け合わせた値との和によって表される。すなわちこの場合、表示制御部120は、クラス判定結果RCLが示す複数のクラスCLの確信度PRどうしの組み合わせによる組み合わせ確信度PRCBを示す軸を、確信度軸PAXとして表示させる。
なお、操作者が操作検出部30に対してゲート設定値GVを入力する操作を行うことにより、表示制御装置10は、グラフGにゲート画像GPを重ねて表示できる。ここで「ゲート」とは、ヒストグラムなどのグラフGの中から、特定の領域を抽出するためのしきい値をいう。また「ゲーティング」とは、グラフGに対してゲートを行い特定の領域を抽出する作業をいう。
例えば、あるグラフGから特定の種類の細胞の情報だけを抽出したい場合には、このゲーティングが有効である。
また、例えば、ゲーティングしたいクラスCLが複数のクラスCLにまたがる場合には、上述したような複数の確信度PRどうしを多項式によって加算した組み合わせ確信度PRCBを用いることが有効である。
このゲーティングの一例について、図7を参照して説明する。
[ゲーティングの一例]
図7は、本実施形態の表示制御装置10によるゲーティングの一例を示す。図7(A)には、図6に示した確信度グラフ画像PGを再度示す。表示制御装置10は、この確信度グラフ画像PGのうち、分布DS2Aについての確信度グラフ画像PG(図7(B))を表示させることができる。
操作者は、操作検出部30に対してゲート設定値GVを入力する操作を行う。ゲート設定値GVを入力する操作には、例えば、数値入力、グラフGの画像に対する矩形、円形又は多角形などの形状入力などがある。操作検出部30は、ゲート設定値GVを入力する操作を検出すると、検出した操作を示す情報を表示制御装置10に出力する。
設定値取得部130は、操作検出部30が出力する情報からゲート設定値GVを取得する。
表示制御部120は、設定値取得部130が取得するゲート設定値GVに基づくゲートGTを示すゲート画像GPを、グラフGに表示させる。
図7(A)に示す一例では、設定値取得部130は、ゲート設定値GV1を取得する。また、表示制御部120は、ゲート画像GP1(すなわち、多角形のゲート画像GP)を確信度グラフ画像PGに重ねて、表示部40に表示させる。
図7(A)に示すゲート画像GP1は、分布DS2Aの領域を囲っている。分布DS2Aは、クラスCLdの確信度PRdが比較的高い領域(すなわち、入力画像IPがリンパ球LCの画像である尤度が高い領域)を示している。
表示制御部120は、ゲート画像GPによって囲まれた領域が、クラスCLdの確信度PRdが比較的高い領域であると判定した場合、新たなグラフGの画像を生成し、表示部40に表示させる(図7(B))。図7(B)に示すグラフGとは、X軸を確信度PRdとし、Y軸を度数Fとする確信度グラフ画像PGである。
すなわち、表示制御部120は、グラフGの表示領域におけるゲート画像GPの位置に基づいて、新たなグラフGを表示させることができる。
図7(B)に示されるグラフGの一例の場合、確信度PRdが比較的低い「分布DS2D」の領域と、確信度PRdが比較的高い「分布DS1E」の領域とに分かれて示される。図7(B)のグラフGに対してもゲートを設定できる。
すなわち、操作者は、図7(B)に示されるグラフGに対してゲートを設定するために、操作検出部30に対してゲート設定値GV2を入力する操作を行う。この一例の場合、ゲート設定値GV2とは、確信度PRdの幅を示す数値である。操作検出部30は、ゲート設定値GV2を入力する操作を検出すると、検出した操作を示す情報を表示制御装置10に出力する。
設定値取得部130は、操作検出部30からゲート設定値GV2を取得する。
表示制御部120は、設定値取得部130が取得するゲート設定値GV2に基づくゲートGTを示すゲート画像GP2を、グラフGに表示させる。ゲート画像GP2とは、図7(B)に示す一例では、分布DS2Eを囲む画像である。ここで、分布DS2Eは、確信度PRdが比較的高い領域(すなわち、入力画像IPがリンパ球LCの画像である尤度が高い領域)である。つまり、図7(B)に示す一例では、リンパ球LCに対するゲーティングが行われている。
このようにして表示制御装置10は、操作検出部30が検出する操作に基づいて、複数のグラフGを段階的に表示させることができる。すなわち、表示制御装置10は、いわゆるゲートリージョンによる絞り込みをグラフGの画像によって視覚的に表現することにより、人間が解釈しやすい形式にして提示できる。
[ゲーティングの変形例(1)]
図8は、本実施形態の表示制御装置10によるゲーティングの変形例を示す。上述した図7に示す例においては、ゲーティング前のグラフG(図7(A))が確信度グラフ画像PGであった。本変形例においては、ゲーティング前のグラフGが確信度グラフ画像PGではない点において、上述した一例と異なる。
図8(A)に示すグラフGとは、パラメータPM-AをX軸、パラメータPM-BをY軸にした分布図である。一例として、パラメータPM-Aとは、抗体(例えば、CD45-FITC)についての各細胞の反応の程度を示すパラメータである。また、パラメータPM-Bとは、各細胞の散乱光(例えば、側方散乱光)の程度を示すパラメータである。同図に示すグラフGには、顆粒球GL、単球MC、及びリンパ球LCの分布が示される。この一例では、リンパ球LCに対してゲーティングがなされる。操作者は、グラフGのうち、リンパ球LCの領域を囲む範囲をゲート設定値GV3として設定する。操作検出部30は、ゲート設定値GV3の設定操作を検出して、表示制御装置10に出力する。表示制御部120は、ゲート設定値GV3に対応するゲート画像GP3を表示する。また、表示制御部120は、ゲート設定値GV3に基づいて、図8(B)に示すグラフGの画像を生成し、表示部40に表示させる。
図8(B)に示すグラフGとは、X軸を確信度PRd1とし、Y軸を確信度PRd2とする確信度グラフ画像PGである。ここで、確信度PRd1とは、一例として、クラスCLd1(Tリンパ球LCT)についての確信度PRである。また、確信度PRd2とは、一例として、クラスCLd2(Bリンパ球LCB)についての確信度PRである。同図に示すグラフGには、Tリンパ球LCTである尤度が比較的高い領域(分布DS3A)と、Bリンパ球LCBである尤度が比較的高い領域(分布DS3B)と、いずれの尤度も比較的低い領域(分布DS3C)とが含まれる。
なお、このグラフGに対してもゲート設定値GV4及びゲート画像GP4によってゲーティングが可能である。
[ゲーティングの変形例(2)]
図9は、本実施形態の表示制御装置10によるゲーティングの他の変形例を示す。本変形例においても、上述した図7(B)の一例と同様にして、ゲート設定値GVによってゲーティング可能である。なお、本変形例の場合、ゲーティングの目的に応じて、ゲート設定値GVを変更できる点で、上述した一例と異なる。ここで、ゲーティングの目的の一例として、スクリーニングがある。スクリーニングにおいて、陽性を取りこぼさないようにするために偽陽性をより多く含んでも構わない場合には、ゲート設定値GVがより広く設定される(例えば、図9(C)に示すゲート設定値GV23)。また、偽陽性を極力排除するために陽性が取りこぼされても構わないとされる場合には、ゲート設定値GVがより狭く設定される(例えば、図9(A)に示すゲート設定値GV21)。
なお、上記実施形態では、クラス判定システム1としてイメージングサイトメトリーの場合について説明したが、顕微鏡を用いる場合のように、一つの画像中に複数の細胞が存在する場合には、まず全体の画像から個別の細胞画像を切り出し、切り出した画像をクラス判定システム1に与えてもよい。
また、共焦点顕微鏡や2光子顕微鏡など、対象物の3次元構造を撮像する顕微鏡と組み合わせてもよい。また、奥行き方向(Z方向)ではなく、時間軸方向にタイムラプス撮像したり、波長を切り替えて撮像するなど、各種の多次元撮像を行う顕微鏡と組み合わせてもよい。多次元撮像で得られた多次元画像でも、個々の細胞を切り出した画像をクラス判定システム1に与えることができる。
クラス判定システム1を3次元以上の多次元撮像可能な顕微鏡と組み合わせて用いる場合、多次元画像データを本発明に適用するために、以下の方法が考えられる。
(方法1) 奥行き方向(Z方向)の異なる複数の撮像画像に対して、画像間の演算(単純加算、デコンボリューション、ピクセルごとの最大値など)を行い、単一の画像に合成する。そして、得られた単一の画像を対象として確信度を得て、クラス判定を行う。
(方法2) 奥行き方向(Z方向)の異なる複数の撮像画像を、Z方向を含む単一のボクセル画像とし、ボクセル画像を対象として確信度を得て、クラス判定を行う。
(方法3) 奥行き方向(Z方向)の異なる複数の撮像画像を、別々にクラス判定システム1に入力し、Z位置ごとに確信度を得る。
方法1、方法2によれば、一つの細胞に対して一式の確信度が得られる。これに対し、方法3では、Z位置ごとに確信度が得られる。そのため、方法3では、確信度の分布に基づいて最適なZ位置の画像を選択することもできる。
なお、上記の例では奥行き方向(Z方向)の多次元画像を説明しているが、時間や波長を異ならせる場合も同様である。
また、表示制御部120は、多次元撮像で得られた多次元画像に対して得られた確信度を、元の多次元画像にマッピングして表示させてもよい。ここでマッピングとは、例えば、等高線プロットやヒートマップ、ドットプロット、棒グラフなどの手法を用いて確信度の分布を元の多次元画像上に表示させることを指す。
また、表示制御部120は、ゲーティングしたクラスの細胞を、元の多次元画像にマッピングして表示させてもよい。例えば、ゲーティングしたクラスの細胞の位置を元の多次元画像上にドットとして表現したり、ゲーティングしたクラスの細胞が存在する領域を曲線で囲ったり色調を変えて表現することなどが考えられる。
上記のような表示方法により、時間分布や空間分布を有する細胞画像に対して、クラス判定結果を人間がより解釈しやすくなる。
[実施例]
図10から図18を参照して、本実施形態のクラス判定システム1の実施例について説明する。
図10は、本実施形態のニューラルネットワークCNNの構成の一例を示す。
図11は、細胞画像と、各クラスCLについての確信度PRとの関係の一例を示す。
図12は、確信度PRのヒストグラム及びゲーティング結果の一例を示す。
図12に示す一例では、ヒストグラムが、白血球LKに分類される確信度PRを示す。同図において確信度PRが所定値以下の領域をゲーティングしている。すなわち、白血球LKの尤度が低いものをゲーティングしている。このゲーティングの結果、白血球LK以外の細胞(又は組織)が抽出される。この一例では、ゲーティングの結果、血小板凝集塊PAを含む細胞(又は組織)が抽出される。次に、抽出された結果に基づき、血小板凝集塊PAの確信度PRをX軸にしてグラフGを表示させ、血小板凝集塊PAの尤度が高い領域をゲーティングする。またゲート近傍には、ゲートに含まれる細胞(又は組織)の個数および割合が表示されている。このようにゲーティングの結果を示す統計値を表示することは、分類の結果を定量的に認知できるようになるため有用である。
一連のゲーティングによって、すべての入力画像IP中から血小板凝集塊PAである尤度が高い入力画像IPの群を限定している。すなわち、入力画像IPのうち、白血球LKに対する適合度が低いものをまず選択している。続いて、選択された入力画像IPのうち、血小板凝集塊PAに属する確信度PRのヒストグラムを描画し、確信度PRの値が一定値以上の入力画像IPの群をゲートで指定している。
図13は、血小板凝集塊PAの分類精度を定量した結果の一例を示す。この一例においては、あらかじめ人為的にクラス分類されたデータセットを用いて、図12において示したゲート設定による血小板凝集塊PAの分類精度を定量した結果を示す。
図14は、セルソーターによる分取性能の一例(TRAPによる刺激を与えた場合)を示す。
図15は、セルソーターによる分取性能の一例(TRAPによる刺激を与えていない場合)を示す。
図14及び図15に示す一例では、セルソーター(不図示)を用いて分取する細胞集団を、図12において示したゲート設定によって指定し、そのゲーティング設定に即して細胞分取を行い、分取したサンプルを顕微鏡で確認して、分取性能を確かめた実験例である。図14及び図15に示す一例のヒストグラムどうしの比較から、TRAP刺激によって血小板凝集塊が増加していることが分かる。さらに設定したアルゴリズムに基づいてセルソーターで細胞分取によって、血小板凝集塊が濃縮できたことも確認された。
図16は、血小板凝集塊PAに分類される確信度PRのヒストグラム表示の一例を示す。図16(A)に示す一例では、比較的にヒストグラムの両端に集団が偏っている。これと比較すると、図16(B)に示す一例では、ヒストグラムの中間領域により多くの集団が属している。分類が高精度で行われる場合においては、ヒストグラム両端近傍に集団が偏在すると期待されることから、図16(B)のように中間領域に多数の画像が含まれるケースでは分類の品質があまり高くないと言える。このように、本発明を用いることで分類の精度や正確性についての情報を得ることができる。
図17は、グラフGの表示形式を散布図とした場合の一例を示す。図17は、横軸(X軸)に血小板凝集塊PAに対する確信度PR、縦軸(Y軸)に単一血小板(血小板SP)に対する確信度PRを示した散布図の例である。このように多次元のプロットで表示することも可能である。
図18は、入力画像IPを確信度PR別に分類した結果の一例を示す図である。血小板凝集塊PAのヒストグラム上に異なる範囲でゲートを設定し、そこに含まれる入力画像IPの一例を列挙したデータである。図18(A)は確信度が0.999より大きい入力画像IPの群、図18(B)は確信度が0.99から0.999の間に含まれる入力画像IPの群、図18(C)は確信度が0.98から0.99の間に含まれる入力画像IPの群を示したものである。
このように、ヒストグラム上でゲート設定を変化させることで、分類対象とする入力画像IPの群を絞り込むことが可能となる。
なお、上述した実施形態及び変形例において、クラス判定部220がニューラルネットワークCNNによって実現される例について説明したが、これに限られない。
クラス判定部220は、決定木学習、サポートベクタマシン、クラスタリング、ベイジアンネットワーク、隠れマルコフモデル、アンサンブル学習、ブースティングなどの既存の手段によって実現されていてもよい。
以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
なお、上述の各装置は内部にコンピュータを有している。そして、上述した各装置の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…クラス判定システム、10…表示制御装置、110…確信度取得部、120…表示制御部、130…設定値取得部、20…クラス判定装置、210…画像取得部、220…クラス判定部、230…確信度出力部、PR…確信度、IP…入力画像IP、PG…確信度グラフ画像

Claims (5)

  1. 人工ニューラルネットワークにより入力画像のクラス判定結果の確信度を判定対象となるクラス毎に算出する確信度算出部と、
    前記確信度算出部によって算出される前記確信度を取得する確信度取得部と、
    前記確信度について、二次元以上の形状入力によるゲートの設定値を取得する設定値取得部と、
    前記設定値取得部が取得する前記ゲートの設定値に基づいて、前記入力画像が二次元以上の形状入力による前記ゲートの設定値の内部にあるか否かを判定するゲート判定部と、
    を備える画像分類装置。
  2. 前記確信度算出部は、前記人工ニューラルネットワークのSoftmax層からの出力値を前記確信度とする、
    請求項1に記載の画像分類装置。
  3. 前記入力画像が細胞を撮像した細胞画像である場合において、
    前記細胞画像に対する前記ゲート判定部の判定に基づいて、前記細胞の分取を行う細胞分取部をさらに備える、
    請求項1又は2に記載の画像分類装置。
  4. 画像分類装置が備えるコンピュータに、
    人工ニューラルネットワークにより入力画像のクラス判定結果の確信度を判定対象となるクラス毎に取得するステップと、
    前記確信度についてのゲートの設定値を取得する設定値取得ステップと、
    前記ゲートの設定値に基づいて、前記入力画像が前記ゲートの設定値の内部にあるか否かを判定するゲート判定ステップと、
    を実行させるための画像分類プログラム。
  5. 前記確信度を取得するステップは、前記人工ニューラルネットワークのSoftmax層からの出力値を前記確信度とする、
    請求項4に記載の画像分類プログラム。
JP2020137325A 2018-06-27 2020-08-17 表示制御装置、表示制御方法及び表示制御プログラム Active JP7361395B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018122096 2018-06-27
JP2018122096 2018-06-27
JP2019554569A JP6753622B2 (ja) 2018-06-27 2019-06-17 表示制御装置、表示制御方法及び表示制御プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019554569A Division JP6753622B2 (ja) 2018-06-27 2019-06-17 表示制御装置、表示制御方法及び表示制御プログラム

Publications (3)

Publication Number Publication Date
JP2021002354A JP2021002354A (ja) 2021-01-07
JP2021002354A5 JP2021002354A5 (ja) 2022-06-06
JP7361395B2 true JP7361395B2 (ja) 2023-10-16

Family

ID=68986491

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019554569A Active JP6753622B2 (ja) 2018-06-27 2019-06-17 表示制御装置、表示制御方法及び表示制御プログラム
JP2020137325A Active JP7361395B2 (ja) 2018-06-27 2020-08-17 表示制御装置、表示制御方法及び表示制御プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019554569A Active JP6753622B2 (ja) 2018-06-27 2019-06-17 表示制御装置、表示制御方法及び表示制御プログラム

Country Status (7)

Country Link
US (1) US20210232869A1 (ja)
EP (1) EP3816935A4 (ja)
JP (2) JP6753622B2 (ja)
CN (2) CN117496511A (ja)
AU (1) AU2019293020B2 (ja)
CA (1) CA3102749A1 (ja)
WO (1) WO2020004101A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115335681A (zh) * 2020-03-25 2022-11-11 合同会社予幸集团中央研究所 门区推定程序、门区推定方法和门区推定装置
JP6830561B1 (ja) * 2020-09-17 2021-02-17 株式会社スペースリー 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム
US12056944B2 (en) 2020-11-19 2024-08-06 Sony Group Corporation Efficient and robust high-speed neural networks for cell image classification
US12078597B2 (en) 2020-11-19 2024-09-03 Sony Group Corporation Framework for image based unsupervised cell clustering and sorting
CN113536884A (zh) * 2021-03-29 2021-10-22 内蒙古卫数数据科技有限公司 一种基于机器视觉的虎红平板结果识别方法及系统
WO2024014102A1 (ja) * 2022-07-12 2024-01-18 株式会社レゾナック 欠陥分析装置、欠陥分析方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235033A (ja) 2013-05-31 2014-12-15 富士ゼロックス株式会社 画像処理装置及びプログラム
WO2017214572A1 (en) 2016-06-10 2017-12-14 The Regents Of The University Of California Image-based cell sorting systems and methods
US20180060722A1 (en) 2016-08-30 2018-03-01 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning
WO2018039216A1 (en) 2016-08-22 2018-03-01 Iris International, Inc. System and method of classification of biological particles

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293025A (ja) * 1995-04-20 1996-11-05 Olympus Optical Co Ltd 画像分類装置
US6947586B2 (en) * 2000-04-24 2005-09-20 International Remote Imaging Systems, Inc. Multi-neural net imaging apparatus and method
JP2006318405A (ja) * 2005-05-16 2006-11-24 Mitsubishi Electric Building Techno Service Co Ltd 設備機器の情報提供装置
WO2007139929A2 (en) * 2006-05-25 2007-12-06 The Burnham Institute For Medical Research Methods for culture and production of single cell populations of human embryonic stem cells
CN101187985B (zh) * 2006-11-17 2012-02-01 东软集团股份有限公司 确定对象分类器分类边界的方法及装置
US20080208015A1 (en) * 2007-02-09 2008-08-28 Morris Margaret E System, apparatus and method for real-time health feedback on a mobile device based on physiological, contextual and self-monitored indicators of mental and physical health states
JP5075111B2 (ja) * 2008-12-29 2012-11-14 株式会社日立ハイテクノロジーズ 画像分類基準更新方法、プログラムおよび画像分類装置
US20150132766A1 (en) 2012-03-30 2015-05-14 On-Chip Cellomics Consortium Imaging cell sorter
US9430460B2 (en) * 2013-07-12 2016-08-30 Microsoft Technology Licensing, Llc Active featuring in computer-human interactive learning
US9886669B2 (en) * 2014-02-26 2018-02-06 Microsoft Technology Licensing, Llc Interactive visualization of machine-learning performance
JP2015176588A (ja) * 2014-03-18 2015-10-05 株式会社東芝 表示装置、画像表示システムおよび情報処理方法
WO2017072854A1 (ja) * 2015-10-27 2017-05-04 株式会社日立製作所 監視装置、監視システムおよび監視方法
WO2017081829A1 (ja) * 2015-11-13 2017-05-18 富士通株式会社 行動検知装置、行動検知方法及び行動検知プログラム
WO2017154706A1 (ja) * 2016-03-09 2017-09-14 株式会社ニコン 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム
US10460256B2 (en) * 2016-08-09 2019-10-29 Microsot Technology Licensing, LLC Interactive performance visualization of multi-class classifier
US10945864B2 (en) * 2016-08-17 2021-03-16 Teledyne Scientific & Imaging, Llc System and method for noninvasive identification of cognitive and behavioral goals
JP7054787B2 (ja) * 2016-12-22 2022-04-15 パナソニックIpマネジメント株式会社 制御方法、情報端末、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235033A (ja) 2013-05-31 2014-12-15 富士ゼロックス株式会社 画像処理装置及びプログラム
WO2017214572A1 (en) 2016-06-10 2017-12-14 The Regents Of The University Of California Image-based cell sorting systems and methods
WO2018039216A1 (en) 2016-08-22 2018-03-01 Iris International, Inc. System and method of classification of biological particles
US20180060722A1 (en) 2016-08-30 2018-03-01 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
片渕小夜他,CNNを用いた細胞輪郭抽出について,電気学会研究会資料,日本,一般社団法人電気学会,2017年03月27日,pp.67-71

Also Published As

Publication number Publication date
CN112313702B (zh) 2023-12-29
JP2021002354A (ja) 2021-01-07
JPWO2020004101A1 (ja) 2020-07-02
CN112313702A (zh) 2021-02-02
CN117496511A (zh) 2024-02-02
EP3816935A4 (en) 2022-03-23
US20210232869A1 (en) 2021-07-29
JP6753622B2 (ja) 2020-09-09
EP3816935A1 (en) 2021-05-05
AU2019293020A1 (en) 2021-01-07
WO2020004101A1 (ja) 2020-01-02
CA3102749A1 (en) 2020-01-02
AU2019293020B2 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
JP7361395B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
JP7428994B2 (ja) 測定システム
US11994459B2 (en) Adaptive sorting for particle analyzers
US6947586B2 (en) Multi-neural net imaging apparatus and method
US7236623B2 (en) Analyte recognition for urinalysis diagnostic system
JP5425814B2 (ja) サポートベクタマシンを用いてフローサイトメトリーデータを分析するための方法及びシステム
CN104156945B (zh) 基于多目标粒子群算法的灰度图像分割方法
Mohapatra et al. Lymphocyte image segmentation using functional link neural architecture for acute leukemia detection
JP2016511419A (ja) 血球の撮像
CN111062296B (zh) 一种基于计算机的白细胞自动识别分类方法
JPWO2005050479A1 (ja) 類似パターン検索装置、類似パターン検索方法、類似パターン検索プログラム、および分画分離装置
US20230066976A1 (en) Systematic characterization of objects in a biological sample
US20110167029A1 (en) Method and device for classifying, displaying and exploring biological data
EP1301894B1 (en) Multi-neural net imaging apparatus and method
CA2377602C (en) Multi-neural net imaging apparatus and method
JP7445672B2 (ja) ゲート領域推定プログラム、ゲート領域推定装置、学習モデルの生成方法
Divekar et al. Automated detection of tuberculosis on sputum smeared slides using stepwise classification
JP2006163562A (ja) 画像処理装置、および画像処理方法
WO2014112567A1 (ja) 細胞群分類装置及び、細胞群分類方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R150 Certificate of patent or registration of utility model

Ref document number: 7361395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150