JPWO2020004101A1 - 表示制御装置、表示制御方法及び表示制御プログラム - Google Patents
表示制御装置、表示制御方法及び表示制御プログラム Download PDFInfo
- Publication number
- JPWO2020004101A1 JPWO2020004101A1 JP2019554569A JP2019554569A JPWO2020004101A1 JP WO2020004101 A1 JPWO2020004101 A1 JP WO2020004101A1 JP 2019554569 A JP2019554569 A JP 2019554569A JP 2019554569 A JP2019554569 A JP 2019554569A JP WO2020004101 A1 JPWO2020004101 A1 JP WO2020004101A1
- Authority
- JP
- Japan
- Prior art keywords
- certainty factor
- display control
- graph
- gate
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 abstract description 47
- 210000004027 cell Anatomy 0.000 description 62
- 238000013527 convolutional neural network Methods 0.000 description 33
- 210000004698 lymphocyte Anatomy 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 241000282412 Homo Species 0.000 description 8
- 210000000265 leukocyte Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 210000003714 granulocyte Anatomy 0.000 description 6
- 230000000638 stimulation Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 210000001744 T-lymphocyte Anatomy 0.000 description 3
- 210000003719 b-lymphocyte Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004163 cytometry Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- PDICCECAPKBDBB-UHFFFAOYSA-N Thelephoric acid Chemical compound O1C2=CC(O)=C(O)C=C2C(C2=O)=C1C(=O)C1=C2OC2=C1C=C(O)C(O)=C2 PDICCECAPKBDBB-UHFFFAOYSA-N 0.000 description 2
- UMJFGLNAUQKBET-UHFFFAOYSA-N [2,4,5-triacetyloxy-3,6-bis(4-hydroxyphenyl)phenyl] acetate Chemical compound CC(=O)OC=1C(OC(C)=O)=C(C=2C=CC(O)=CC=2)C(OC(=O)C)=C(OC(C)=O)C=1C1=CC=C(O)C=C1 UMJFGLNAUQKBET-UHFFFAOYSA-N 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000001616 monocyte Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 210000003651 basophil Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003979 eosinophil Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000684 flow cytometry Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000440 neutrophil Anatomy 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
Description
入力画像のクラス判定結果の確信度を算出する確信度算出部によって算出される前記確信度を取得する確信度取得部と、
前記確信度取得部が取得する前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示させる表示制御部と、を備える表示制御装置である。
入力画像のクラス判定結果の確信度を取得し、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示する、
表示制御方法である。
表示制御装置が備えるコンピュータに、
入力画像のクラス判定結果の確信度を取得するステップと、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を、前記確信度を示す確信度軸にして表示させるステップと、
を実行させるための表示制御プログラムである。
図1は、本実施形態のクラス判定システム1の機能構成の一例を示す。クラス判定システム1は、一例として、フローサイトメーター(Flow Cytometer;FCM)(不図示)の一形態であるイメージングサイトメーター(Imaging Cytometer)(不図示)に備えられる。この場合、クラス判定システム1は、細胞画像を取得し、取得した細胞画像に撮像されている細胞の種類を判定する。ここで、クラス判定システム1の判定対象であるクラスCLとは、「細胞の種類」である。すなわち、クラス判定システム1は、細胞の種類をクラスCLとしてクラス判定を行い、その判定結果として各クラスCLに対する確信度PR(つまり、細胞の種類を推定した結果)を取得して、確信度出力部230に表示する。さらに確信度出力部230上にゲートGTを設定し、取得した画像が設定したゲートGTに含まれるか否かの判定(ゲート判定)を行う。細胞分取機能がついたセルソーターでは、このゲート判定結果GRをソート機構(不図示)に出力する。セルソーターのソート機構は、クラス判定システム1が出力するゲート判定結果GRに基づいて細胞を分取する。
なお、以下の説明では、クラス判定システム1が、イメージングサイトメトリー装置のセルソーターに接続され、細胞の種類を判定するものであるとして説明するが、これに限られない。クラス判定システム1は、例示したイメージングサイトメトリーに利用されるものに限られず、例えば、一般的なフローサイトメーターや質量サイトメーター(Mass Cytometer)、顕微鏡などの他の細胞観察用途や、細胞以外の画像のクラス分け用途に利用されてもよい。
また、クラス判定システム1は、操作検出部30と、表示部40とを備える。
操作検出部30は、例えば、コンピュータ装置のキーボードやマウス、タッチパネルなどの操作デバイスであり、操作者による操作を検出する。
表示部40は、例えば、液晶ディスプレイなどの表示デバイスであり、画像を表示する。
クラス判定装置20は、画像取得部210と、クラス判定部220と、確信度出力部230とを備える。
画像取得部210は、セルソーターの撮像部(不図示)において撮像された細胞画像を入力画像IPとして取得する。画像取得部210は、取得した入力画像IPをクラス判定部220に出力する。
この一例の場合、クラス判定部220は、入力画像IPに撮像されている細胞の種類が、上述したクラスCLのうちのいずれのクラスCLに該当するのかを判定し、各クラスCLに対する確信度PRを出力する。
クラス判定部220は、クラスCLに対する確信度(Probability)を出力する。ここで、確信度PRについて説明する。確信度PRは、複数の種類のクラスCLに対し、それぞれ1:1にして対応づけられている。例えば、上述したクラスCLのうち、クラスCLa〜クラスCLcの3種類のクラスCLについて、クラスCLaには確信度PRaが、クラスCLbには確信度PRbが、クラスCLcには確信度PRcが、それぞれ対応づけられている。
あるクラスCLの確信度PRは、その値が大きいほど、ニューラルネットワークCNNへの入力信号(例えば、入力画像IP)がそのクラスCLに該当する尤度が高いことを示し、その値が小さいほど、入力信号がそのクラスCLに該当する尤度が低いことを示す。例えば、クラスCLa(上述の例では、血小板凝集塊PA)の確信度PRは、入力画像IPが血小板凝集塊PAの画像である場合には高く、入力画像IPが血小板凝集塊PA以外の画像である場合には低く算出される。
確信度PRは、ある値の範囲(例えば、0〜1)に正規化されていてもよい。この場合、あるクラスCLの確信度PRは、値が1に近いほど、入力信号がそのクラスCLに該当する尤度が高く、値が0に近いほど、入力信号がそのクラスCLに該当する尤度が低いことを示す。また、各クラスCLの確信度PRをクラスCLごとに加算した総和は、ある値(例えば、1)である。例えば、ある入力画像IPについて、上述した3種類のクラスCLに分類する場合、これらのクラスCLに対応する確信度PRa〜確信度PRcの総和は、1である。
クラス判定部220は、入力画像IPごとに、各クラスCLの確信度PRを算出する。具体的な一例として、クラスCLa〜クラスCLcの3種類のクラスCLに分類される場合、クラス判定部220は、第1の入力画像IP1について、入力画像IP1がクラスCLaに該当する尤度を確信度PRaとして、入力画像IP1がクラスCLbに該当する尤度を確信度PRbとして、入力画像IP1がクラスCLcに該当する尤度を確信度PRcとして、それぞれ算出する。図3に示す一例では、クラス判定部220は、確信度PRaを95%、確信度PRbを4%、確信度PRcを1%として、それぞれ算出する。
図1に戻り、確信度出力部230は、クラス判定部220が算出した確信度PRを表示制御装置10に対して出力する。
表示制御装置10は、確信度取得部110と、表示制御部120と、設定値取得部130と、ゲート判定部140とを備える。
表示制御部120は、確信度取得部110が取得する確信度PRの入力画像IP毎の分布に基づいて、グラフGの画像を生成する。表示制御部120が生成するグラフGの画像には、グラフGの表示軸DAXとして確信度軸PAXが含まれる。ここで、表示軸DAXとは、表示部40に表示されるグラフGの軸をいう。また、確信度軸PAXとは、グラフGの軸のうち、確信度PRの大きさを示す軸をいう。表示制御部120は、グラフGの表示軸DAXのうち、少なくとも一軸を、確信度軸PAXにして表示させる。例えば、グラフGがX軸及びY軸の2軸による直交座標平面を示す場合、クラス判定システム1は、これら2軸のうち、X軸を確信度軸PAXにして表示させる。なお、表示制御部120は、これら2軸(すなわち、X軸及びY軸)をいずれも確信度軸PAXにして表示させてもよい。また、グラフGは必ずしも2軸でなくてもよく、クラス判定部220が判定するクラスCLの種類の数に応じた数の軸を有するものであってもよい。例えば、クラス判定部220が判定するクラスCLの種類数が3種類である場合には、表示制御部120は、3軸のグラフGを表示させてもよい。この場合、クラス判定システム1は、グラフGの3軸のうち、すべての軸を確信度軸PAXとしてもよい。
すなわち、表示制御部120は、確信度取得部110が取得する確信度PRの入力画像IP毎の分布を、グラフGの表示軸DAXのうち少なくとも一軸を、確信度PRを示す確信度軸PAXにして表示させる。
なお、以下の説明において、この表示制御部120が生成するグラフGの画像のことを、確信度グラフ画像PGとも称する。
ゲート判定部140は、設定値取得部130が取得するゲート設定値GVに基づいて、入力画像IPがゲート設定値GVの内部にあるか否かを判定する。
次に、これら各部の動作の一例について、図4を参照して説明する。
図4は、本実施形態のクラス判定システム1の動作の一例を示す。
画像取得部210は、細胞(又は組織)が撮像された画像を、フローサイトメトリー装置(不図示)から、入力画像IPとして取得する(ステップS210)。画像取得部210は、取得した入力画像IPをクラス判定部220に出力する。
クラス判定部220は、ステップS210において取得された入力画像IPについて、判定対象のクラスCLごとに確信度PRを算出する(ステップS220)。
確信度出力部230は、ステップS220において算出した確信度PRを、表示制御装置10に対して出力する(ステップS230)。
表示制御部120は、ステップS110において取得された確信度PRに基づいて、グラフGの画像を生成する(ステップS120)。
表示制御部120は、ステップS120において生成した確信度グラフ画像PGを表示部40に対して出力する(ステップS130)。この結果、表示部40には、ステップS120において生成された確信度グラフ画像PGが表示される。
設定値取得部130は、ゲート設定値GVを取得する(ステップS140)。ゲート設定値GVとは、キーボードやマウス、タッチパネルなどの手動によって与えられるものであってもよく、確信度グラフ画像PGの分布状況などに基づいて自動的に計算されるものであってもよい。設定値取得部130は、取得したゲート設定値GVを表示制御部120に出力する。ゲート設定値GVとは、ステップS130において表示された確信度グラフ画像PGに対してゲートGTを設定するための値である。
なお、表示制御部120は、取得されたゲート設定値GVに基づくゲート画像GPを確信度グラフ画像PG上に表示する。
また、表示制御部120は、ステップS130において生成した確信度グラフ画像PGと、確信度グラフ画像PGについてのゲート設定値GVとを、ゲート判定部140に対して出力する。
ゲート判定部140は、ステップS210において取得された入力画像IPが、ステップS140において作成されたゲート設定値GVの内部にあるか否かの判定を行い、その判定結果としてのゲート判定結果GRを生成する(ステップS150)。ここで、入力画像IPがゲート設定値GVの内部にあるか否かとは、確信度グラフ画像PG上においてゲート設定値GVが示す確信度PRの範囲内に、入力画像IPの確信度PRがプロットされるか否かを意味する。本実施形態の一例として、ゲート判定部140は、ステップS140において表示制御部120から出力される確信度グラフ画像PGと、確信度グラフ画像PGについてのゲート設定値GVとに基づいて、入力画像IPがゲート設定値GVの内部にあるか否かを判定する。
図5は、本実施形態の確信度グラフ画像PGの一例を示す。上述したように、表示制御部120は、確信度PRの入力画像IP毎の分布を、グラフGの表示軸DAXのうち少なくとも一軸を、確信度軸PAXにして表示させる。図5(A)に示す一例では、表示制御部120は、グラフGの表示軸DAXのうち、X軸を確信度軸PAXとし、Y軸を確信度PRの出現頻度として、グラフGを表示させる。ここでY軸の確信度PRの出現頻度とは、複数の入力画像IPについてクラス判定部220がクラスCLをそれぞれ判定した場合において、あるクラスCLの確信度PRを入力画像IPごとに計数した値である。確信度PRの出現頻度のことを、ある確信度PRにおける入力画像IPの度数Fとも称する。図5(A)に示す一例の場合、確信度グラフ画像PGとは、X軸が確信度軸PAXを示し、Y軸が度数Fを示すヒストグラムである。
クラス判定部220は、複数の入力画像IPについて確信度PRaをそれぞれ算出し、算出した確信度PRaの分布を、X軸を確信度軸PAXにし、Y軸を度数Fを示す軸にしたグラフGを、確信度グラフ画像PGとして表示部40に表示させる。
また、クラス判定性能が比較的低い場合には、図5(B)に示すように確信度PRが分布する。すなわち、クラス判定性能が比較的低い場合には、確信度PRの分布が、確信度PRが比較的低い「分布DS1C」の領域と、確信度PRが比較的高い「分布DS1D」の領域とに分かれるが、これら2つの領域どうしが、図5(A)に示す場合に比べて接近する。つまり、クラス判定性能が比較的低い場合には、確信度PRが比較的低い領域と、確信度PRが比較的高い領域とを明確に分離し難い状態になる。換言すれば、図5(B)に示す確信度グラフ画像PGが表示部40に表示された場合には、操作者は、クラス判定性能が比較的低い状態であると解釈できる。
また、クラス判定性能がさらに低い場合には、図5(C)に示すように確信度PRが分布する。すなわち、クラス判定性能がさらに低い場合には、確信度PRの分布が、分布DS1Eの領域のみになり、確信度PRの高い領域と、確信度PRの低い領域とを判別できなくなる。換言すれば、図5(C)に示す確信度グラフ画像PGが表示部40に表示された場合には、操作者は、クラス判定性能が、図5(B)の状態に比べてさらに低い状態であると解釈できる。
なお、「クラス判定性能」のことを「クラスCLの分類精度」とも称する。
ところで、ニューラルネットワークCNNの内部の各層における重みづけの意味について、人間が解釈することは一般的に困難である。このため、ニューラルネットワークCNNが、入力画像IPのクラスCLをどのような判定条件によって判定しているのかについて、人間が解釈することは一般的に困難である。したがって、ニューラルネットワークCNNの学習状態が妥当であるか否か(つまり、ニューラルネットワークCNNのクラス判定性能)を評価する場合において、ニューラルネットワークCNNの内部の状態を観察することによって評価することは、一般的に困難である。このため従来、ニューラルネットワークCNNのクラス判定性能を評価する場合において、ニューラルネットワークCNNに与えた入力信号(例えば、入力画像IP)と、入力信号に基づいてニューラルネットワークCNNが出力するクラス判定結果RCLとを照合して、その当否を判定する手法が行われている。例えば、ニューラルネットワークCNNに対して「血小板凝集塊PA」の入力画像IPを与えた場合において、ニューラルネットワークCNNが出力するクラス判定結果RCLが「血小板凝集塊PA」を示していれば、このニューラルネットワークCNNは妥当に学習されている、と判定する。しかし、この従来手法によると、ニューラルネットワークCNNが出力するクラス判定結果RCLが正しいか誤っているかの2択として判定するにとどまり、クラス判定結果RCLの妥当性の程度、つまりニューラルネットワークCNNのクラス判定性能までは判定できなかった。
本実施形態のクラス判定システム1は、ニューラルネットワークCNNがクラス判定に用いる確信度PRをニューラルネットワークCNNから出力させ、確信度PRをグラフGの表示軸DAXとして表示させる。上述したように、確信度PRは、ある入力信号があるクラスCLに該当する尤度を示す指標としてニューラルネットワークCNNが算出する値であることから、ニューラルネットワークCNNによるクラス判定の妥当性の程度を示している。したがって、確信度PRの分布は、ニューラルネットワークCNNのクラス判定性能を示す指標となりうる。ここで、図5を参照して説明したように、確信度PRの分布をグラフGの軸にすることにより、ニューラルネットワークCNNの内部の状況を人間にも解釈させやすい形式にすることができる。
本実施形態のクラス判定システム1は、確信度PRの分布を軸にしたグラフGに示すことにより、ニューラルネットワークCNNによるクラス判定性能を、人間が解釈しやすい形式にして提示できる。
上記ではニューラルネットワークCNNによるクラス判定性能を人間が解釈する場合について説明したが、ゲート判定部140がクラス判定性能を評価してもよい。
また、学習に使用した既存画像に対して、反転や回転などの画像処理を行うことにより、学習に使用する画像を生成して追加し、再学習することが有効である。
また、図5(C)に示すように、確信度の高い領域と確信度の低い領域を判別することができない場合、一つのクラスに分類されていた集団の中に、複数の異なる形状の細胞が存在することが明らかとなる場合がある。このような場合、既存の分類を分割して新しい分類を追加し、再学習することが有効である。
また、2つ以上の既存の分類を統合して1つの分類とし、再学習することが有効な場合もある。
また、クラス判定部のモデル(レイヤー数、各層を接続する構造など)を変更し、再学習することが有効な場合もある。
必要に応じて、上記再学習の方法を適宜組み合わせることにより、ニューラルネットワークCNNのモデルの性能が向上することが期待できる。
なお、ゲート判定部140は、クラス判定性能の評価結果に基づき、再学習の要否判断や再学習方法の決定を行ってもよい。
図6は、本実施形態の表示制御部120が表示させるグラフGの一例を示す。本変形例において、表示制御部120は、グラフGの表示軸DAXのうち、クラスCLdの確信度PRdをX軸、クラスCLeの確信度PReをY軸にして、確信度グラフ画像PGを表示させる。上述した一例では、クラスCLdはリンパ球LC、クラスCLeは顆粒球GLにそれぞれ対応する。この場合、分布DS2Aは、クラス判定部220が、入力画像IPをリンパ球LCの画像であるとクラス判定した領域を示している。分布DS2Bは、クラス判定部220が、入力画像IPを顆粒球GLの画像であるとクラス判定した領域を示している。また、分布DS2Cは、クラス判定部220が、入力画像IPをリンパ球LC及び顆粒球GLのいずれの画像でもないとクラス判定した領域を示している。
すなわち、同図に示す一例では、表示制御部120は、グラフGの表示軸DAXのうちの複数の表示軸DAXを確信度軸PAXにして表示させる。
このように、複数の表示軸DAXを確信度軸PAXにしてグラフGを表示させることにより、クラス判定システム1は、ニューラルネットワークCNNによるクラス判定性能を、人間が解釈しやすい形式にして提示できる。
例えば、あるグラフGから特定の種類の細胞の情報だけを抽出したい場合には、このゲーティングが有効である。
また、例えば、ゲーティングしたいクラスCLが複数のクラスCLにまたがる場合には、上述したような複数の確信度PRどうしを多項式によって加算した組み合わせ確信度PRCBを用いることが有効である。
このゲーティングの一例について、図7を参照して説明する。
図7は、本実施形態の表示制御装置10によるゲーティングの一例を示す。図7(A)には、図6に示した確信度グラフ画像PGを再度示す。表示制御装置10は、この確信度グラフ画像PGのうち、分布DS2Aについての確信度グラフ画像PG(図7(B))を表示させることができる。
操作者は、操作検出部30に対してゲート設定値GVを入力する操作を行う。ゲート設定値GVを入力する操作には、例えば、数値入力、グラフGの画像に対する矩形、円形又は多角形などの形状入力などがある。操作検出部30は、ゲート設定値GVを入力する操作を検出すると、検出した操作を示す情報を表示制御装置10に出力する。
表示制御部120は、設定値取得部130が取得するゲート設定値GVに基づくゲートGTを示すゲート画像GPを、グラフGに表示させる。
図7(A)に示す一例では、設定値取得部130は、ゲート設定値GV1を取得する。また、表示制御部120は、ゲート画像GP1(すなわち、多角形のゲート画像GP)を確信度グラフ画像PGに重ねて、表示部40に表示させる。
表示制御部120は、ゲート画像GPによって囲まれた領域が、クラスCLdの確信度PRdが比較的高い領域であると判定した場合、新たなグラフGの画像を生成し、表示部40に表示させる(図7(B))。図7(B)に示すグラフGとは、X軸を確信度PRdとし、Y軸を度数Fとする確信度グラフ画像PGである。
すなわち、表示制御部120は、グラフGの表示領域におけるゲート画像GPの位置に基づいて、新たなグラフGを表示させることができる。
すなわち、操作者は、図7(B)に示されるグラフGに対してゲートを設定するために、操作検出部30に対してゲート設定値GV2を入力する操作を行う。この一例の場合、ゲート設定値GV2とは、確信度PRdの幅を示す数値である。操作検出部30は、ゲート設定値GV2を入力する操作を検出すると、検出した操作を示す情報を表示制御装置10に出力する。
表示制御部120は、設定値取得部130が取得するゲート設定値GV2に基づくゲートGTを示すゲート画像GP2を、グラフGに表示させる。ゲート画像GP2とは、図7(B)に示す一例では、分布DS2Eを囲む画像である。ここで、分布DS2Eは、確信度PRdが比較的高い領域(すなわち、入力画像IPがリンパ球LCの画像である尤度が高い領域)である。つまり、図7(B)に示す一例では、リンパ球LCに対するゲーティングが行われている。
このようにして表示制御装置10は、操作検出部30が検出する操作に基づいて、複数のグラフGを段階的に表示させることができる。すなわち、表示制御装置10は、いわゆるゲートリージョンによる絞り込みをグラフGの画像によって視覚的に表現することにより、人間が解釈しやすい形式にして提示できる。
図8は、本実施形態の表示制御装置10によるゲーティングの変形例を示す。上述した図7に示す例においては、ゲーティング前のグラフG(図7(A))が確信度グラフ画像PGであった。本変形例においては、ゲーティング前のグラフGが確信度グラフ画像PGではない点において、上述した一例と異なる。
図8(A)に示すグラフGとは、パラメータPM−AをX軸、パラメータPM−BをY軸にした分布図である。一例として、パラメータPM−Aとは、抗体(例えば、CD45−FITC)についての各細胞の反応の程度を示すパラメータである。また、パラメータPM−Bとは、各細胞の散乱光(例えば、側方散乱光)の程度を示すパラメータである。同図に示すグラフGには、顆粒球GL、単球MC、及びリンパ球LCの分布が示される。この一例では、リンパ球LCに対してゲーティングがなされる。操作者は、グラフGのうち、リンパ球LCの領域を囲む範囲をゲート設定値GV3として設定する。操作検出部30は、ゲート設定値GV3の設定操作を検出して、表示制御装置10に出力する。表示制御部120は、ゲート設定値GV3に対応するゲート画像GP3を表示する。また、表示制御部120は、ゲート設定値GV3に基づいて、図8(B)に示すグラフGの画像を生成し、表示部40に表示させる。
なお、このグラフGに対してもゲート設定値GV4及びゲート画像GP4によってゲーティングが可能である。
図9は、本実施形態の表示制御装置10によるゲーティングの他の変形例を示す。本変形例においても、上述した図7(B)の一例と同様にして、ゲート設定値GVによってゲーティング可能である。なお、本変形例の場合、ゲーティングの目的に応じて、ゲート設定値GVを変更できる点で、上述した一例と異なる。ここで、ゲーティングの目的の一例として、スクリーニングがある。スクリーニングにおいて、陽性を取りこぼさないようにするために偽陽性をより多く含んでも構わない場合には、ゲート設定値GVがより広く設定される(例えば、図9(C)に示すゲート設定値GV23)。また、偽陽性を極力排除するために陽性が取りこぼされても構わないとされる場合には、ゲート設定値GVがより狭く設定される(例えば、図9(A)に示すゲート設定値GV21)。
(方法1) 奥行き方向(Z方向)の異なる複数の撮像画像に対して、画像間の演算(単純加算、デコンボリューション、ピクセルごとの最大値など)を行い、単一の画像に合成する。そして、得られた単一の画像を対象として確信度を得て、クラス判定を行う。
(方法2) 奥行き方向(Z方向)の異なる複数の撮像画像を、Z方向を含む単一のボクセル画像とし、ボクセル画像を対象として確信度を得て、クラス判定を行う。
(方法3) 奥行き方向(Z方向)の異なる複数の撮像画像を、別々にクラス判定システム1に入力し、Z位置ごとに確信度を得る。
なお、上記の例では奥行き方向(Z方向)の多次元画像を説明しているが、時間や波長を異ならせる場合も同様である。
また、表示制御部120は、ゲーティングしたクラスの細胞を、元の多次元画像にマッピングして表示させてもよい。例えば、ゲーティングしたクラスの細胞の位置を元の多次元画像上にドットとして表現したり、ゲーティングしたクラスの細胞が存在する領域を曲線で囲ったり色調を変えて表現することなどが考えられる。
上記のような表示方法により、時間分布や空間分布を有する細胞画像に対して、クラス判定結果を人間がより解釈しやすくなる。
図10から図18を参照して、本実施形態のクラス判定システム1の実施例について説明する。
図10は、本実施形態のニューラルネットワークCNNの構成の一例を示す。
図11は、細胞画像と、各クラスCLについての確信度PRとの関係の一例を示す。
図12は、確信度PRのヒストグラム及びゲーティング結果の一例を示す。
図12に示す一例では、ヒストグラムが、白血球LKに分類される確信度PRを示す。同図において確信度PRが所定値以下の領域をゲーティングしている。すなわち、白血球LKの尤度が低いものをゲーティングしている。このゲーティングの結果、白血球LK以外の細胞(又は組織)が抽出される。この一例では、ゲーティングの結果、血小板凝集塊PAを含む細胞(又は組織)が抽出される。次に、抽出された結果に基づき、血小板凝集塊PAの確信度PRをX軸にしてグラフGを表示させ、血小板凝集塊PAの尤度が高い領域をゲーティングする。またゲート近傍には、ゲートに含まれる細胞(又は組織)の個数および割合が表示されている。このようにゲーティングの結果を示す統計値を表示することは、分類の結果を定量的に認知できるようになるため有用である。
一連のゲーティングによって、すべての入力画像IP中から血小板凝集塊PAである尤度が高い入力画像IPの群を限定している。すなわち、入力画像IPのうち、白血球LKに対する適合度が低いものをまず選択している。続いて、選択された入力画像IPのうち、血小板凝集塊PAに属する確信度PRのヒストグラムを描画し、確信度PRの値が一定値以上の入力画像IPの群をゲートで指定している。
図14は、セルソーターによる分取性能の一例(TRAPによる刺激を与えた場合)を示す。
図15は、セルソーターによる分取性能の一例(TRAPによる刺激を与えていない場合)を示す。
図14及び図15に示す一例では、セルソーター(不図示)を用いて分取する細胞集団を、図12において示したゲート設定によって指定し、そのゲーティング設定に即して細胞分取を行い、分取したサンプルを顕微鏡で確認して、分取性能を確かめた実験例である。図14及び図15に示す一例のヒストグラムどうしの比較から、TRAP刺激によって血小板凝集塊が増加していることが分かる。さらに設定したアルゴリズムに基づいてセルソーターで細胞分取によって、血小板凝集塊が濃縮できたことも確認された。
図16は、血小板凝集塊PAに分類される確信度PRのヒストグラム表示の一例を示す。図16(A)に示す一例では、比較的にヒストグラムの両端に集団が偏っている。これと比較すると、図16(B)に示す一例では、ヒストグラムの中間領域により多くの集団が属している。分類が高精度で行われる場合においては、ヒストグラム両端近傍に集団が偏在すると期待されることから、図16(B)のように中間領域に多数の画像が含まれるケースでは分類の品質があまり高くないと言える。このように、本発明を用いることで分類の精度や正確性についての情報を得ることができる。
図17は、グラフGの表示形式を散布図とした場合の一例を示す。図17は、横軸(X軸)に血小板凝集塊PAに対する確信度PR、縦軸(Y軸)に単一血小板(血小板SP)に対する確信度PRを示した散布図の例である。このように多次元のプロットで表示することも可能である。
図18は、入力画像IPを確信度PR別に分類した結果の一例を示す図である。血小板凝集塊PAのヒストグラム上に異なる範囲でゲートを設定し、そこに含まれる入力画像IPの一例を列挙したデータである。図18(A)は確信度が0.999より大きい入力画像IPの群、図18(B)は確信度が0.99から0.999の間に含まれる入力画像IPの群、図18(C)は確信度が0.98から0.99の間に含まれる入力画像IPの群を示したものである。
このように、ヒストグラム上でゲート設定を変化させることで、分類対象とする入力画像IPの群を絞り込むことが可能となる。
クラス判定部220は、決定木学習、サポートベクタマシン、クラスタリング、ベイジアンネットワーク、隠れマルコフモデル、アンサンブル学習、ブースティングなどの既存の手段によって実現されていてもよい。
Claims (9)
- 入力画像のクラス判定結果の確信度を算出する確信度算出部によって算出される前記確信度を取得する確信度取得部と、
前記確信度取得部が取得する前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示させる表示制御部と、
を備える表示制御装置。 - 前記表示制御部は、
前記グラフの表示軸のうちの複数の表示軸を前記確信度軸にして表示させる
請求項1に記載の表示制御装置。 - 前記表示制御部は、
前記クラス判定結果が示す複数のクラスの前記確信度どうしの組み合わせによる組み合わせ確信度を示す軸を、前記確信度軸として表示させる
請求項1又は請求項2に記載の表示制御装置。 - 前記グラフに表示される前記確信度についてのゲートの設定値を取得する設定値取得部
をさらに備え、
前記表示制御部は、
前記設定値取得部が取得する前記設定値に基づくゲートを示すゲート画像を、前記グラフに表示させる
請求項1から請求項3のいずれか一項に記載の表示制御装置。 - 前記設定値取得部が取得する前記ゲートの設定値に基づいて、前記入力画像が前記ゲートの設定値の内部にあるか否かを判定するゲート判定部
を更に備える請求項4に記載の表示制御装置。 - 入力画像のクラス判定結果の確信度を取得し、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を前記確信度を示す確信度軸にして表示する、
表示制御方法。 - 前記グラフに表示される前記確信度についてのゲートの設定値を取得し、
前記設定値に基づくゲートを示すゲート画像を、前記グラフに表示する、
請求項6に記載の表示制御方法。 - 前記クラス判定結果の確信度に基づき、ゲート判定部が再学習の要否判断、又は、再学習方法の決定を行う、
請求項6又は7に記載の画像表示方法。 - 表示制御装置が備えるコンピュータに、
入力画像のクラス判定結果の確信度を取得するステップと、
前記確信度の前記入力画像毎の分布を、グラフの表示軸のうち少なくとも一軸を、前記確信度を示す確信度軸にして表示させるステップと、
を実行させるための表示制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020137325A JP7361395B2 (ja) | 2018-06-27 | 2020-08-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122096 | 2018-06-27 | ||
JP2018122096 | 2018-06-27 | ||
PCT/JP2019/023833 WO2020004101A1 (ja) | 2018-06-27 | 2019-06-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020137325A Division JP7361395B2 (ja) | 2018-06-27 | 2020-08-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020004101A1 true JPWO2020004101A1 (ja) | 2020-07-02 |
JP6753622B2 JP6753622B2 (ja) | 2020-09-09 |
Family
ID=68986491
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019554569A Active JP6753622B2 (ja) | 2018-06-27 | 2019-06-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
JP2020137325A Active JP7361395B2 (ja) | 2018-06-27 | 2020-08-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020137325A Active JP7361395B2 (ja) | 2018-06-27 | 2020-08-17 | 表示制御装置、表示制御方法及び表示制御プログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210232869A1 (ja) |
EP (1) | EP3816935A4 (ja) |
JP (2) | JP6753622B2 (ja) |
CN (2) | CN117496511A (ja) |
AU (1) | AU2019293020B2 (ja) |
CA (1) | CA3102749A1 (ja) |
WO (1) | WO2020004101A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115335681A (zh) * | 2020-03-25 | 2022-11-11 | 合同会社予幸集团中央研究所 | 门区推定程序、门区推定方法和门区推定装置 |
JP6830561B1 (ja) * | 2020-09-17 | 2021-02-17 | 株式会社スペースリー | 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム |
US12056944B2 (en) | 2020-11-19 | 2024-08-06 | Sony Group Corporation | Efficient and robust high-speed neural networks for cell image classification |
US12078597B2 (en) | 2020-11-19 | 2024-09-03 | Sony Group Corporation | Framework for image based unsupervised cell clustering and sorting |
CN113536884A (zh) * | 2021-03-29 | 2021-10-22 | 内蒙古卫数数据科技有限公司 | 一种基于机器视觉的虎红平板结果识别方法及系统 |
WO2024014102A1 (ja) * | 2022-07-12 | 2024-01-18 | 株式会社レゾナック | 欠陥分析装置、欠陥分析方法及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08293025A (ja) * | 1995-04-20 | 1996-11-05 | Olympus Optical Co Ltd | 画像分類装置 |
US6947586B2 (en) * | 2000-04-24 | 2005-09-20 | International Remote Imaging Systems, Inc. | Multi-neural net imaging apparatus and method |
JP2006318405A (ja) * | 2005-05-16 | 2006-11-24 | Mitsubishi Electric Building Techno Service Co Ltd | 設備機器の情報提供装置 |
WO2007139929A2 (en) * | 2006-05-25 | 2007-12-06 | The Burnham Institute For Medical Research | Methods for culture and production of single cell populations of human embryonic stem cells |
CN101187985B (zh) * | 2006-11-17 | 2012-02-01 | 东软集团股份有限公司 | 确定对象分类器分类边界的方法及装置 |
US20080208015A1 (en) * | 2007-02-09 | 2008-08-28 | Morris Margaret E | System, apparatus and method for real-time health feedback on a mobile device based on physiological, contextual and self-monitored indicators of mental and physical health states |
JP5075111B2 (ja) * | 2008-12-29 | 2012-11-14 | 株式会社日立ハイテクノロジーズ | 画像分類基準更新方法、プログラムおよび画像分類装置 |
US20150132766A1 (en) | 2012-03-30 | 2015-05-14 | On-Chip Cellomics Consortium | Imaging cell sorter |
JP6070420B2 (ja) * | 2013-05-31 | 2017-02-01 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
US9430460B2 (en) * | 2013-07-12 | 2016-08-30 | Microsoft Technology Licensing, Llc | Active featuring in computer-human interactive learning |
US9886669B2 (en) * | 2014-02-26 | 2018-02-06 | Microsoft Technology Licensing, Llc | Interactive visualization of machine-learning performance |
JP2015176588A (ja) * | 2014-03-18 | 2015-10-05 | 株式会社東芝 | 表示装置、画像表示システムおよび情報処理方法 |
WO2017072854A1 (ja) * | 2015-10-27 | 2017-05-04 | 株式会社日立製作所 | 監視装置、監視システムおよび監視方法 |
WO2017081829A1 (ja) * | 2015-11-13 | 2017-05-18 | 富士通株式会社 | 行動検知装置、行動検知方法及び行動検知プログラム |
WO2017154706A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
WO2017214572A1 (en) * | 2016-06-10 | 2017-12-14 | The Regents Of The University Of California | Image-based cell sorting systems and methods |
US10460256B2 (en) * | 2016-08-09 | 2019-10-29 | Microsot Technology Licensing, LLC | Interactive performance visualization of multi-class classifier |
US10945864B2 (en) * | 2016-08-17 | 2021-03-16 | Teledyne Scientific & Imaging, Llc | System and method for noninvasive identification of cognitive and behavioral goals |
EP3500964A1 (en) * | 2016-08-22 | 2019-06-26 | Iris International, Inc. | System and method of classification of biological particles |
US11200483B2 (en) * | 2016-08-30 | 2021-12-14 | Lunit Inc. | Machine learning method and apparatus based on weakly supervised learning |
JP7054787B2 (ja) * | 2016-12-22 | 2022-04-15 | パナソニックIpマネジメント株式会社 | 制御方法、情報端末、及びプログラム |
-
2019
- 2019-06-17 CN CN202311687873.XA patent/CN117496511A/zh active Pending
- 2019-06-17 WO PCT/JP2019/023833 patent/WO2020004101A1/ja unknown
- 2019-06-17 US US15/733,808 patent/US20210232869A1/en active Pending
- 2019-06-17 JP JP2019554569A patent/JP6753622B2/ja active Active
- 2019-06-17 CA CA3102749A patent/CA3102749A1/en active Pending
- 2019-06-17 AU AU2019293020A patent/AU2019293020B2/en active Active
- 2019-06-17 CN CN201980041251.5A patent/CN112313702B/zh active Active
- 2019-06-17 EP EP19824977.3A patent/EP3816935A4/en active Pending
-
2020
- 2020-08-17 JP JP2020137325A patent/JP7361395B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN112313702B (zh) | 2023-12-29 |
JP2021002354A (ja) | 2021-01-07 |
CN112313702A (zh) | 2021-02-02 |
CN117496511A (zh) | 2024-02-02 |
EP3816935A4 (en) | 2022-03-23 |
US20210232869A1 (en) | 2021-07-29 |
JP6753622B2 (ja) | 2020-09-09 |
JP7361395B2 (ja) | 2023-10-16 |
EP3816935A1 (en) | 2021-05-05 |
AU2019293020A1 (en) | 2021-01-07 |
WO2020004101A1 (ja) | 2020-01-02 |
CA3102749A1 (en) | 2020-01-02 |
AU2019293020B2 (en) | 2024-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6753622B2 (ja) | 表示制御装置、表示制御方法及び表示制御プログラム | |
US11994459B2 (en) | Adaptive sorting for particle analyzers | |
Vaickus et al. | Automating the Paris System for urine cytopathology—A hybrid deep‐learning and morphometric approach | |
JP5425814B2 (ja) | サポートベクタマシンを用いてフローサイトメトリーデータを分析するための方法及びシステム | |
US20240044904A1 (en) | System, method, and article for detecting abnormal cells using multi-dimensional analysis | |
US11748981B2 (en) | Deep learning method for predicting patient response to a therapy | |
WO2016094720A1 (en) | Automated flow cytometry analysis method and system | |
CN104156945B (zh) | 基于多目标粒子群算法的灰度图像分割方法 | |
US20230066976A1 (en) | Systematic characterization of objects in a biological sample | |
US20230393048A1 (en) | Optimized Sorting Gates | |
EP3230887A1 (en) | Automated flow cytometry analysis method and system | |
US20110167029A1 (en) | Method and device for classifying, displaying and exploring biological data | |
US20220334043A1 (en) | Non-transitory computer-readable storage medium, gate region estimation device, and method of generating learning model | |
Sánchez-Aragón et al. | A new image segmentation algorithm with applications in confocal microscopy analysis | |
Das et al. | Survey on detection of Leukemia and its subtypes using Machine Learning techniques | |
Röhrl et al. | Towards Interpretable Classification of Leukocytes based on Deep Learning | |
WO2023105249A1 (en) | Automatic assessment of histological indices | |
Mohamed | Using Probability Binning and Bayesian Inference to measure Euclidean Distance of Flow Cytometric data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6753622 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |