JP7412321B2 - オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 - Google Patents
オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 Download PDFInfo
- Publication number
- JP7412321B2 JP7412321B2 JP2020203538A JP2020203538A JP7412321B2 JP 7412321 B2 JP7412321 B2 JP 7412321B2 JP 2020203538 A JP2020203538 A JP 2020203538A JP 2020203538 A JP2020203538 A JP 2020203538A JP 7412321 B2 JP7412321 B2 JP 7412321B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- classification
- image
- object classification
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 55
- 238000000605 extraction Methods 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 46
- 238000003384 imaging method Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 14
- 230000035945 sensitivity Effects 0.000 claims description 9
- 210000004027 cell Anatomy 0.000 description 73
- 239000000463 material Substances 0.000 description 31
- 210000000170 cell membrane Anatomy 0.000 description 25
- 238000010586 diagram Methods 0.000 description 25
- 210000000805 cytoplasm Anatomy 0.000 description 24
- 238000001000 micrograph Methods 0.000 description 23
- 210000003855 cell nucleus Anatomy 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 239000012528 membrane Substances 0.000 description 10
- 230000001086 cytosolic effect Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 5
- 230000024245 cell differentiation Effects 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 239000010408 film Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000000427 antigen Substances 0.000 description 1
- 102000036639 antigens Human genes 0.000 description 1
- 108091007433 antigens Proteins 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法に関する。
細胞や材料の観察を行う場合、一般的に光学顕微鏡や電子顕微鏡等が用いられる。しかし、肉眼による顕微鏡画像の観察は、非常に時間がかかり、かつ、専門的な知識を必要とする場合が多い。そこで、顕微鏡画像を用いた細胞や材料の評価を支援するために、画像処理を用いて一部の処理を自動化する技術が開発されている。
例えば、特許文献1には、2種類の異なる種類の細胞の形態的特徴の時間的変化を用いて、細胞の状態を判定する手法が開示されている。しかし、細胞や材料の表面は不定形である場合が多く、手動設計した特徴量だけでは精度良く判定できない場合がある。
一方で、近年、深層学習をはじめとする機械学習を用いることで、従来よりも顕微鏡画像解析の精度を向上した例が報告されている。深層学習の場合、特徴量を機械が自動的に学習するため、手動では設計が難しい特徴量を獲得可能な場合がある。
深層学習を用いてオブジェクトの分類器を作成することで、特徴量を手動設計するよりも、分類精度向上に有効な特徴量を自動学習できる可能性がある。
しかし、一般的な深層学習を用いた分類器の場合、ユーザーが得られる出力は分類結果のみである。例えば人間の目で顕微鏡画像を観察した際に、オブジェクト内の特定の部位に分類に有効と思われる特徴があったとしても、その部位から正しく特徴量を学習および抽出しているかは確証がない。このため、精度良く画像内のオブジェクトを分類することは困難である。
本発明の目的は、オブジェクト分類装置において、精度良く画像内のオブジェクトを分類することにある。
本発明の一態様のオブジェクト分類装置は、画像内のオブジェクトを分類して前記オブジェクトの種類又は状態を判別するオブジェクト分類装置であって、前記画像内の前記オブジェクトのオブジェクト領域を算出するオブジェクト領域算出部と、前記オブジェクト領域を用いて、前記オブジェクトの特徴量を選択して特徴量選択信号を出力する特徴量選択部と、前記特徴量選択信号に基づいて、前記画像の中から複数の前記特徴量を抽出する特徴量抽出部と、複数の前記特徴量を分類して、前記オブジェクトの前記種類又は前記状態を決定する代表的な特徴量である代表特徴量を抽出する特徴分類部と、前記代表特徴量に基づいて、前記オブジェクトの前記種類又は前記状態を判別して前記オブジェクトを分類し、前記オブジェクトの分類結果を出力するオブジェクト分類部と、前記画像に前記オブジェクトの前記分類結果と前記代表特徴量を紐づけて出力する出力部と、を有することを特徴とする。
本発明の一態様によれば、オブジェクト分類装置において、精度良く画像内のオブジェクトを分類することができる。
以下、添付図面に従って本発明に係るオブジェクト分類装置、方法、およびシステムの実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1を用いて実施例1に係る画像内のオブジェクト分類システムの一例について説明する。
オブジェクト分類システム100は、オブジェクト分類装置101と、インターフェース部110と、演算部111と、メモリ112と、バス113とを備え、インターフェース部110、演算部111、メモリ112はバス113を介して情報の送受信を行う。また、オブジェクト分類装置101はインターフェース部110を介して撮像装置120、表示装置121に接続する。
オブジェクト分類システム100は、オブジェクト分類装置101と、インターフェース部110と、演算部111と、メモリ112と、バス113とを備え、インターフェース部110、演算部111、メモリ112はバス113を介して情報の送受信を行う。また、オブジェクト分類装置101はインターフェース部110を介して撮像装置120、表示装置121に接続する。
オブジェクト分類装置101の各部について説明する。
インターフェース部110は、オブジェクト分類装置101の外部にある装置と信号の送受信を行う通信装置である。インターフェース部110と通信を行う装置としては撮像装置120、表示装置121がある。撮像装置120および表示装置121の詳細は後述する。
インターフェース部110は、オブジェクト分類装置101の外部にある装置と信号の送受信を行う通信装置である。インターフェース部110と通信を行う装置としては撮像装置120、表示装置121がある。撮像装置120および表示装置121の詳細は後述する。
演算部111は、オブジェクト分類装置101内での各種の処理を実行する装置であり、例えばCPU(Central Processing Unit)やFPGA(Field-Programmable Gate Array)等である。演算部111によって実行される機能については、図2を用いて後述する。
メモリ112は、演算部111が実行するプログラムや、パラメタ、係数、処理結果等を保存する装置であり、HDD、SSD、RAM、ROM、フラッシュメモリ等である。
撮像装置120はオブジェクトの画像を撮像する装置であり、例えばカメラや顕微鏡等である。撮像装置120は撮像した画像をオブジェクト分類装置101に送信する。
表示装置121はオブジェクト分類装置101が出力するオブジェクト分類情報を表示するための装置であり、例えばディスプレイやプリンタ等である。
以降、オブジェクト分類装置101について詳しく説明する。
図2はオブジェクト分類装置101の実施例1に係る機能ブロック図の一例である。なおこれらの機能は、専用のハードウェアで構成されても良いし、演算部111上で動作するソフトウェアで構成されても良い。
オブジェクト分類装置101は、画像入力部201と、オブジェクト領域算出部202と、特徴量選択部203と、特徴量抽出部204と、特徴量分類部205と、オブジェクト分類部206と、出力部207と、を備える。以下、各部について説明する。
画像入力部201はインターフェース部110より入力されたオブジェクトを撮像した画像を受付ける。入力画像はメモリ112を介してオブジェクト領域算出部202、特徴量抽出部204、出力部207に入力する。
オブジェクト領域算出部202について説明する。
オブジェクト領域算出部202は、画像入力部201が受付けた入力画像を用いて分類対象となるオブジェクト領域を抽出する。オブジェクト領域の抽出方法の一例として、領域分割器を用いた場合を説明する。領域分割とは画像処理手法の一つであり、ピクセル単位で画像を意味的な集合に分割する手法である。例えば分類対象のオブジェクトが存在するピクセルを前景、それ以外のピクセルを背景として二値分類し、前景として分類された領域の結合領域を検出することでオブジェクト毎に領域を検出する。
オブジェクト領域算出部202は、画像入力部201が受付けた入力画像を用いて分類対象となるオブジェクト領域を抽出する。オブジェクト領域の抽出方法の一例として、領域分割器を用いた場合を説明する。領域分割とは画像処理手法の一つであり、ピクセル単位で画像を意味的な集合に分割する手法である。例えば分類対象のオブジェクトが存在するピクセルを前景、それ以外のピクセルを背景として二値分類し、前景として分類された領域の結合領域を検出することでオブジェクト毎に領域を検出する。
図3にES細胞の顕微鏡画像の例を示す。
シャーレ301の上にES細胞群が存在しているとする。撮像装置120がシャーレの上方から細胞群を撮影した画像が顕微鏡画像302である。顕微鏡画像302には、細胞303、細胞304が写っている。ES細胞は様々な組織に分化できる分化多能性を有する。しかし、一度分化してしまうと分化多能性は損なわれてしまうため、ES細胞が分化済みか否かを確認する必要がある。そして、ES細胞は分化した場合、細胞質が多くなり、細胞膜が厚くなる傾向があるため、これらの特徴を用いてES細胞の分化を判定する方法を説明する。
シャーレ301の上にES細胞群が存在しているとする。撮像装置120がシャーレの上方から細胞群を撮影した画像が顕微鏡画像302である。顕微鏡画像302には、細胞303、細胞304が写っている。ES細胞は様々な組織に分化できる分化多能性を有する。しかし、一度分化してしまうと分化多能性は損なわれてしまうため、ES細胞が分化済みか否かを確認する必要がある。そして、ES細胞は分化した場合、細胞質が多くなり、細胞膜が厚くなる傾向があるため、これらの特徴を用いてES細胞の分化を判定する方法を説明する。
顕微鏡画像302に領域分割を適用した結果の一例を図4に示す。
領域分割結果401では細胞の領域が前景領域(オブジェクト領域)として黒で表されており、それ以外が背景領域として白で表されている。顕微鏡画像302内の細胞303、細胞304に対応するオブジェクト領域がそれぞれオブジェクト領域402、オブジェクト領域403である。
このようにオブジェクト領域算出部202は、分類または判定対象オブジェクトの領域情報を算出して出力する。図3の例では細胞の分化判定を行うため、オブジェクト領域情報として細胞の領域情報を算出している。
次に、図16に素材の品質判定の一例を示す。素材1601の表面の状態を観察することで素材1601の品質を判定する例について説明する。
図16の例では素材1601の表面のテクスチャが円形かつ大きな要素で構成されている場合、品質が良いと判定する。顕微鏡画像1602は素材1601を撮像装置120で撮像した画像である。顕微鏡画像1602には素材1601の表面の背景1604と、テクスチャを構成する要素1603が含まれている。図を簡潔にするため顕微鏡画像1602内の全ての要素1603に対して記号を付与していないが、顕微鏡画像1602内の背景1604以外の領域は要素1603である。領域分割結果1605は顕微鏡画像1602の領域分割結果の一例である。図16の例における対象オブジェクトは要素1603であり、要素1603の領域が黒、背景1604の領域が白で示されている。
上記では前景と背景の二値分類を例示したが、オブジェクト領域算出方法はこれに限らない。例えば上述のES細胞の例において、顕微鏡画像内で細胞が接触している場合、上記の領域分割手法ではオブジェクト領域同士も接触する可能性がある。接触したオブジェクト領域は以降の機能部において一つの細胞であると判断され、正確な特徴量抽出や分類を阻害する要因になる。
そこで、個々のオブジェクト領域を分離して抽出するために、領域分割時に前景と背景の二値ではなく、各前景ピクセルから背景ピクセルまでの最短距離を輝度値として表した距離画像を推定する等してもよい。距離画像ではオブジェクトの中心付近の輝度は高くなり、背景に近い領域程輝度は低くなる。そこで、推定した距離画像に対して閾値処理を適用することで接触オブジェクトの分離精度が向上する。
図5に距離画像推定による接触オブジェクトの分離の一例を示す。
顕微鏡画像501内に互いに接触した細胞502と細胞503が写っている。上述の通り、従来の二値領域分割を行った場合、細胞502と細胞503のオブジェクト領域は結合してしまう可能性が高い。距離画像504は顕微鏡画像501に距離画像推定を適用した結果の一例である。細胞の中心に近づく程、輝度が高くなっていることが分かる。
顕微鏡画像501内に互いに接触した細胞502と細胞503が写っている。上述の通り、従来の二値領域分割を行った場合、細胞502と細胞503のオブジェクト領域は結合してしまう可能性が高い。距離画像504は顕微鏡画像501に距離画像推定を適用した結果の一例である。細胞の中心に近づく程、輝度が高くなっていることが分かる。
閾値処理後画像505は距離画像504に対して閾値処理を行い、閾値未満の輝度値の領域を白、閾値以上の輝度値の領域を黒に置き換えた結果である。細胞502と細胞503のオブジェクト領域が分離されていることが分かる。ただし、閾値処理後画像502では細胞502と細胞503のオブジェクト領域が実際の細胞よりも若干小さく推定されている。そこで、Water shed法やGraph cut法等の処理を用いてオブジェクト領域を補間しても良い。
補間後画像506は閾値処理後画像505と、距離画像504を用いてWater shed法による補間処理を行った結果である。補間後画像506に示す通り、オブジェクト領域を分離しつつ、オブジェクト領域の全形を得ることが可能である。
上記によりオブジェクト領域算出部202は、画像入力部201が受付けた入力画像から分類対象となるオブジェクト領域を抽出する。
次に特徴量選択部203について説明する。
特徴量選択部203はオブジェクト領域算出部202の出力するオブジェクト領域情報と、画像入力部が受付けた入力画像に基づいて、特徴量選択信号を生成し、特徴量抽出部204に出力する。特徴量選択信号は、抽出する特徴量の種類とサイズ、および特徴量を抽出する領域情報を含む。
特徴量選択部203はオブジェクト領域算出部202の出力するオブジェクト領域情報と、画像入力部が受付けた入力画像に基づいて、特徴量選択信号を生成し、特徴量抽出部204に出力する。特徴量選択信号は、抽出する特徴量の種類とサイズ、および特徴量を抽出する領域情報を含む。
前述のES細胞の分化判定の例を用いて説明する。オブジェクト領域算出部202の説明の中でも触れた通り、ES細胞の分化判定においては細胞質の量と細胞膜の厚みが重要な特徴量となる。細胞質の量を判定する一つの方法として、細胞領域に対する細胞核の大きさを評価する方法を説明する。図6に細胞核の大きさを特徴として抽出する例を示す。顕微鏡画像601および顕微鏡画像602は同一の対象を撮像したものである。
ただし、顕微鏡画像602は顕微鏡画像601よりも撮像時の倍率が高いとする。撮像対象は細胞603および細胞604であり、細胞603は細胞質の量が少なく、細胞604は細胞質の量が多い。フィルタ610、フィルタ611、フィルタ612、フィルタ613、フィルタ614、フィルタ615、フィルタ616は細胞核の特徴量を抽出するためのフィルタである。各フィルタの中央にある黒丸が細胞核を表しており、フィルタ610が最も小さな細胞核であり、フィルタ616になるにつれて細胞核の大きさが大きくなる。
顕微鏡画像内の細胞に対して、細胞核の大きさが最も近いフィルタを適用した場合、最も高いスコアが得られるとする。図6の例では顕微鏡画像601内の細胞603と細胞604の細胞核に最も適合するフィルタはフィルタ613、顕微鏡画像602内の細胞603と細胞604の細胞核に最も適合するフィルタはフィルタ616である。
ここで、例えば顕微鏡画像601内の細胞604と顕微鏡画像602内の細胞603は、細胞全体の大きさはほぼ同じである。しかし細胞に対して細胞核が占める割合は顕微鏡画像602内の細胞603の方が多く、従って細胞603は細胞質が少なく、細胞604は細胞質が多いと言える。
これを自動的に判定するためには、細胞全体の大きさに応じて、細胞核の特徴量抽出フィルタを選択する必要がある。例えば顕微鏡画像601の細胞604の場合には、フィルタ613からフィルタ616までを選択して、フィルタ613を細胞核が小さい(すなわち細胞質が多い)として、フィルタ616に向かうにつれて細胞核が大きい(すなわち細胞質が少ない)と判定するように、特徴量選択部203がフィルタを自動的に選択する。
同様に、例えば細胞領域の大きさが顕微鏡画像601内の細胞603程度であれば、フィルタ610からフィルタ613までを選択して、フィルタ610を細胞核が小さい(すなわち細胞質が多い)として、フィルタ613に向かうにつれて細胞核が大きい(すなわち細胞質が少ない)と判定するように、特徴量選択部203がフィルタを自動的に選択する。
フィルタの自動選択方法としては、例えば予め細胞領域の面積に対して複数の閾値を設定しておく方法がある。図6に示す例の場合、予め第一から第四の閾値を設定しておく。ただし第一の閾値が最も低く、第四の閾値に向かうにつれて値が大きくなるとする。
まず、オブジェクト領域算出部202が出力した細胞領域から、各細胞の面積を算出する。細胞の面積が第一の閾値未満である場合は、フィルタ610からフィルタ613を選択し、細胞の面積が第一の閾値以上かつ第二の閾値未満である場合は、フィルタ611からフィルタ614を選択し、細胞の面積が第二の閾値以上かつ第三の閾値未満である場合は、フィルタ612からフィルタ615を選択し、細胞の面積が第三の閾値以上である場合は、フィルタ613からフィルタ616を選択することで、自動的にフィルタを選択する。
尚、前述の方法に限らず、オブジェクト領域算出部202が出力するオブジェクト領域から得られる情報に基づいて、複数の特徴の内、一部を選択する手法であれば良い。
このようにオブジェクト領域の大きさに基づいて特徴量選択部203は特徴量のサイズを自動的に選択する。特徴量のサイズ情報は特徴量選択信号の一部として出力する。
また、特徴量選択部203はどの特徴量をどの領域から抽出するかを選択する。例えばフィルタを用いて細胞膜の厚みに関する特徴量を抽出する際、細胞内の細胞膜以外の領域にフィルタを適用すると、細胞膜の特徴量を正しく得られない可能性がある。
そこで、特徴量選択部203はオブジェクト領域算出部202が算出したオブジェクト領域情報に基づいて、細胞膜周辺領域を抽出し、細胞膜周辺領域のみに細胞膜の特徴量を抽出するフィルタを適用するように特徴量選択信号を出力する。
細胞膜周辺領域の抽出方法の一例として、エッジ抽出手法を利用する方法を説明する。図7にオブジェクト領域から細胞膜領域と細胞質領域を抽出した結果の一例を示す。
細胞膜領域702は図4の領域分割結果401に対してエッジを抽出することで細胞膜の領域を算出した結果である。また、細胞質領域703はオブジェクト領域全体から細胞膜領域702を減算することで求めた細胞質の領域である。関心領域704と関心領域705は細胞質の特徴量を抽出する領域の一例である。エッジの抽出方法の一例としてはソベルフィルタやラプラシアンフィルタなどがある。特徴量選択部203は細胞膜に関する特徴量を抽出する領域として細胞膜領域702を特徴量選択信号として出力する。
また、特徴量選択部203はオブジェクト領域の局所的な情報に基づいて、フィルタの大きさや種類を位置に応じて選択しても良い。例えば細胞質領域703に対してフィルタを用いて細胞質の特徴量を抽出する際、正確に細胞質の特徴量を抽出するためには、フィルタ内に細胞膜の領域が含まれないことが望ましい。そこで細胞膜から遠い場所では関心領域704のようにサイズの大きなフィルタを選択し、細胞膜に近い場所では関心領域705のようにサイズの小さなフィルタを選択する等してもよい。
次に、前述の素材の品質判定の例における特徴量選択部203の動作の一例について説明する。
素材の品質判定においては、テクスチャを構成する各要素の形状と大きさを特徴量として選択する。形状と大きさの特徴量抽出方法は後述する。また、特徴量抽出領域としては図16に示した領域分割結果1605を出力する。
上記のように、特徴量選択部203は抽出する特徴量の種類とサイズ、および特徴量を抽出する領域情報を含んだ特徴量選択信号を出力する。これらの特徴量選択信号は抽出する特徴量のカテゴリの数だけ出力される。例えば、上述のES細胞の分化判定の例では、特徴量カテゴリは細胞膜と細胞質である。
よって、細胞膜および細胞質に関する特徴量選択信号を出力する。素材の品質判定の例であれば、特徴量カテゴリは素材表面のテクスチャを構成する各要素の円形度と大きさである。よって、円形度および大きさに関する特徴量選択信号を出力する。
上記特徴量抽出領域の算出方法について、画像補正または変換処理を組合せても良い。例えば上記細胞膜領域の例では、エッジ領域を拡張するために膨張や平滑化を用いたり、二値化するために閾値処理等を組合せたりしてもよい。また、前述の距離画像を用いて、境界部分やオブジェクトの中心部分、あるいはその中間等を指定しても良い。
また、オブジェクト領域における入力画像の輝度値やRGB値に基づいて特徴量抽出領域を選択しても良い。例えば組織や細胞が染色されている場合、部位(細胞核や細胞膜等)または性質(抗原有無等)に応じて特定の色に発色する。そこでRGB値や色相に対して一定の範囲を設定することで特徴量抽出領域を抽出する等しても良い。
特徴量抽出部204について説明する。
特徴量抽出部204は特徴量選択部203が出力する特徴量選択信号に基づいて、選択された特徴量を用いて、入力画像やオブジェクト領域情報内の選択された領域から、オブジェクト分類のための特徴量を抽出する。
特徴量抽出部204は特徴量選択部203が出力する特徴量選択信号に基づいて、選択された特徴量を用いて、入力画像やオブジェクト領域情報内の選択された領域から、オブジェクト分類のための特徴量を抽出する。
例えば前述のES細胞の分化判定の例では、特徴量抽出部204は、特徴量選択部203が選択した細胞質を評価するための特徴量フィルタ(例えばフィルタ613、フィルタ614、フィルタ615、フィルタ616)を用いて、特徴量選択部203が指定した領域から特徴量を抽出する。尚、細胞質の特徴量抽出領域としてはオブジェクト領域算出部202が算出したオブジェクト領域を使用する。特徴量抽出フィルタは例えばDeep Learning等の機械学習を用いることで作成してもよいし、手動で設計してもよい。
また、特徴量抽出部204は、特徴量選択部203の選択に基づいて、オブジェクト領域算出部202が出力するオブジェクト領域情報から特徴量を抽出しても良い。例えば前述の素材の品質判定の例では円形度や大きさをオブジェクト領域情報から抽出する。円形度の算出方法としては、
例えば(数1)に示す円形度の指標等がある。
例えば(数1)に示す円形度の指標等がある。
Lはオブジェクト領域の円周、Sは面積を表す。指標Icはオブジェクト領域が円に近い程1に近付く。また、詳細は後述するが円形度以外にも(数2)に示す矩形度の指標等を円形度の指標と併用してオブジェクトの形状を判定しても良い。
WとHはオブジェクト領域全体を含む最小の矩形における幅と高さ、Sは(数1)と同様にオブジェクト領域の面積である。また、大きさはオブジェクト領域の面積を用いる。他にもオブジェクト領域の長さ、幅、縦横比等をオブジェクト領域情報から特徴量として抽出してもよい。
特徴量分類部205について説明する。
特徴量分類部205はオブジェクト領域算出部202が算出するオブジェクト領域情報と、特徴量選択部203が算出する特徴量選択信号と、特徴量抽出部204が出力する特徴量抽出結果とに基づいて、各オブジェクトの代表特徴量を算出する。
特徴量分類部205はオブジェクト領域算出部202が算出するオブジェクト領域情報と、特徴量選択部203が算出する特徴量選択信号と、特徴量抽出部204が出力する特徴量抽出結果とに基づいて、各オブジェクトの代表特徴量を算出する。
一例として図8を用いて前述のES細胞の状態判定の例を説明する。顕微鏡画像801はES細胞804を撮像した顕微鏡画像である。ES細胞804の膜の内、大部分は厚い膜805で構成されているが、一部薄い膜806で構成されているとする。特徴量抽出領域802は特徴量選択部203が出力した特徴量抽出領域、特徴量抽出結果803は特徴量の抽出結果を視覚化した図であり、特徴807は厚い膜805が特徴量抽出部204により検出されたことを示しており、特徴808は薄い膜806が検出されたことを示している。
図8のように、実際の顕微鏡画像においては、一つのオブジェクトの中で常に一様な特徴量が検出されるとは限らず、部分的に異なる特徴量が得られる場合がある。しかし、後述するオブジェクト分類のためにこの細胞の膜に対する総合的な特徴量を得る必要がある。この総合的な特徴量を代表特徴量と呼ぶ。
代表特徴量の決定方法は、例えば特徴量抽出領域802の中で、各特徴量がどの程度の割合、あるいはスコアで検出されたかを累積し、最も検出されたピクセル数が多い、あるいはスコアが高い特徴量を代表特徴量として出力する方法がある。例えば図8の例では割合が最も多い特徴807(厚い膜)が代表特徴量として選出される。
代表特徴量は特徴量選択部203が選択する特徴量カテゴリにつき一つ以上選出される。上記では代表特徴量を一つ選出したが、スコアや割合に対して予め閾値を設定し、閾値を超えたもの全てを代表特徴量としても良い。
また、代表特徴量は特徴量の強度や尤もらしさを表す連続値を付加して出力しても良い。例えば図8の例であれば特徴807が特徴量抽出領域に占める割合や、特徴量スコアの総和等である。
また、特徴量抽出領域全体から求められる複数の指標に基づいて、代表特徴量を決定するなどしても良い。例えば、前述した素材の品質判定の例において、特徴量分類部205がオブジェクトの形状に関する代表特徴量を抽出する方法の一例について説明する。
素材の品質判定の例において、特徴量抽出部204ではオブジェクト領域全体から円形度と矩形度を特徴量として抽出する。特徴量分類部205は円形度が矩形度よりも高ければ円、そうでなければ矩形と分類し、代表特徴量として出力する。また、円形度や矩形度の値に応じて、円(円形度高)や円(円形度低)のようにクラス分けしてもよい。また、オブジェクトの大きさに関しては、例えば面積に対する閾値1と閾値2を予め定めておき、オブジェクト領域の大きさが閾値1より小さければ小、閾値1以上かつ閾値2未満であれば中、閾値2以上であれば大のように分類し、代表特徴量として出力する。
オブジェクト分類部206について説明する
オブジェクト分類部206は特徴量分類部205が算出する代表特徴量に基づいてオブジェクトの分類を行う。オブジェクトの分類方法は、例えば一つ以上の前記代表特徴量とオブジェクトクラスの組合せを記録した、オブジェクト分類テーブルをメモリ112に予め格納しておき、得られた特徴量と前記オブジェクト分類テーブルとを照合することで、オブジェクトクラスを判定する。
オブジェクト分類部206は特徴量分類部205が算出する代表特徴量に基づいてオブジェクトの分類を行う。オブジェクトの分類方法は、例えば一つ以上の前記代表特徴量とオブジェクトクラスの組合せを記録した、オブジェクト分類テーブルをメモリ112に予め格納しておき、得られた特徴量と前記オブジェクト分類テーブルとを照合することで、オブジェクトクラスを判定する。
図9は先述のES細胞の分化判定におけるオブジェクト分類テーブルの一例である。
代表特徴量として膜と細胞質に関する判定結果が特徴量分類部205から出力されている。図9の表では膜が薄く、細胞質が少なければ未分化、膜が厚く、細胞質が多ければ分化済と判定されることを示している。この時、例えば膜が薄く、細胞質が多い等の、オブジェクト分類テーブル内のどの代表特徴量の組合せとも合致しないオブジェクトが表れた場合には、未知オブジェクトと判定して出力する。
代表特徴量として膜と細胞質に関する判定結果が特徴量分類部205から出力されている。図9の表では膜が薄く、細胞質が少なければ未分化、膜が厚く、細胞質が多ければ分化済と判定されることを示している。この時、例えば膜が薄く、細胞質が多い等の、オブジェクト分類テーブル内のどの代表特徴量の組合せとも合致しないオブジェクトが表れた場合には、未知オブジェクトと判定して出力する。
図17は先述の素材の品質判定におけるオブジェクト分類テーブルの一例である。
代表特徴量として要素領域のサイズと形状に関する判定結果が特徴量分類部205から出力されている。図17の表では、サイズが大きく、形状が円の場合は品質が高く、サイズが小さく、形状が矩形の場合は品質が低いと判定される。
代表特徴量として要素領域のサイズと形状に関する判定結果が特徴量分類部205から出力されている。図17の表では、サイズが大きく、形状が円の場合は品質が高く、サイズが小さく、形状が矩形の場合は品質が低いと判定される。
また少数の特徴量の誤判定を許容するために、例えば一致特徴量数に対して許容範囲を定めても良い。例えば許容範囲を1と設定した場合は、オブジェクト分類テーブル内の代表特徴量の内、1つの代表特徴量が不一致でも、残りが一致していれば該当オブジェクトクラスを結果として出力する。この場合、組合せによっては複数のオブジェクトに一致する場合がある。
例えば図9の例において、膜が薄く、細胞質が多いという代表特徴量の組合せは、未分化および分化済のどちらに対しても1つの代表特徴量が一致しており、1つの代表特徴量が不一致である。
このような場合には、例えば代表特徴量の一致数に差がある場合は一致数に基づいて決定しても良いし、特徴量の重要度に基づいて代表特徴量に重みづけすることで決定しても良いし、あるいは、特徴量の尤もらしさ等を特徴量分類部205が出力している場合は、各特徴量の尤もらしさを重み付け加算するなどして、決定しても良い。もしくは許容範囲内のオブジェクトクラスを全て候補としてユーザーに提示してもよい。
以上の様にオブジェクト分類部206はオブジェクトクラスの分類結果と、分類に用いた代表特徴量の抽出結果を出力する。また、上述の不一致特徴量に対する許容範囲が設定された場合には、各代表特徴量が判定されたオブジェクトクラスの条件と一致する特徴量であるか否かを表すフラグを付加情報として出力しても良い。
また、ユーザーが出力部207を介して表示された分類結果と分類根拠を確認して、新たなオブジェクトクラスを追加したい、あるいは既存のオブジェクトクラスの条件を編集したい場合には、メモリ内部のオブジェクト分類テーブルを編集することが可能である。オブジェクト分類テーブルの書き換えはPC等の外部装置で編集した上でメモリ112に上書きしても良いし、特に図1には記載していないが、キーボードなどの入力装置を用いてメモリ112内のオブジェクト分類テーブルを直接編集しても良い。
また、オブジェクト分類部206は未知オブジェクトを代表特徴量の組合せに応じてグルーピングしてもよい。例えばオブジェクト分類テーブルとの照合を行った結果、オブジェクトが未知オブジェクトに分類された場合には、その代表特徴量の組合せを未知オブジェクトAとしてオブジェクト分類テーブルに追加する。
これにより、次に同じ特徴量を有する未知オブジェクトが表れた場合は、その未知オブジェクトは未知オブジェクトAと判定される。一方、既知オブジェクトとも未知オブジェクトAとも一致しない特徴量を有するオブジェクトが出現した場合には、再びオブジェクト分類テーブルに特徴量の組合せを追加し、未知オブジェクトBとする。これを繰り返すことで未知オブジェクトをグルーピングできる。
出力部207について説明する。出力部207は入力画像にオブジェクトの分類結果と分類の根拠となった代表特徴量の情報を付加して表示する。図10に表示の一例として前述のES細胞の分化判定の例を示す。顕微鏡画像1001はES細胞を顕微鏡により撮像した画像の例であり、細胞1002は未分化細胞、細胞1003および細胞1004は分化済み細胞であるとする。
夫々の細胞にはオブジェクト分類結果と分類結果の根拠となった代表特徴量が吹き出し1005に表示されている。例えば細胞1002は膜が薄く、細胞質が少ないと判断されて、未分化に分類されたことが分かる。また、細胞1004は分化済み細胞であるが、分化済み細胞の条件に合致しなかったため未知に誤分類されている。ユーザーは吹き出し1005の特徴量を確認することで、分化済み細胞の条件に合致しなかった理由は細胞質が少ないと判断されたためであることが容易に理解できる。
また、ユーザーは細胞1004の判定結果を鑑みて、細胞質の判定結果に「中」と追加した上で、膜が厚く、細胞質が中の場合は分化済みと判定するように、オブジェクト分類テーブルの内容を編集する。このように未知の特徴の組合せに対しても、比較的容易に分類規則を追加可能である。
従来の機械学習であれば細胞1004に類する画像を学習データに追加して、再学習を行うことで対応する。しかし、識別器が細胞1004を何故誤識別したのか、どのような特徴を有する画像を追加すべきかが分からないため、識別器の識別精度向上に時間がかかる場合がある。また、全ての特徴量が再学習されるため、問題の無かった膜に関する特徴量まで変化してしまう可能性がある。本発明の手法によれば、再学習が必要な特徴量が明確であるため、再学習に効果的な学習データの収集が容易であり、かつ、その他の特徴抽出器には影響を及ぼさず再学習が可能である。
前述した素材の品質判定における表示の一例を図18に示す。顕微鏡画像1801は素材の表面を顕微鏡により撮像した画像の例であり、素材表面のテクスチャを構成する要素1802は素材の品質が高い場合に現れる要素、要素1803は素材の品質が高い場合にも低い場合にも現れる要素、要素1804は素材の品質が低い場合に現れる要素であるとする。夫々の要素には品質判定結果と判定結果の根拠となった代表特徴量が吹き出し1805に表示されている。
ただし、図18では各要素に対して品質が高い場合に現れる要素であるか否かを表示しているのみであり、素材全体としての品質評価結果は提示されていない。素材全体としての品質評価については実施例3にて説明する。
また、代表特徴量に基準一致情報が付与されている場合、基準に対する一致、不一致によってテキストの色を変えるなど、一致または不一致が分かるように表示しても良い。これにより条件を満たさなかった特徴量をより容易に判別できる。
また、上記の例では判定結果や特徴量の抽出結果をテキストで表示したが、それぞれに色やテクスチャ、記号等を割り当てることで表示したり、テキストと組合せて表示したりしても良い。また、視認性を向上するため、マウスをオブジェクト上にポイントしたときだけ分類および特徴量の情報を表示する等してもよい。また、出力方法は画像に限らず、オブジェクト領域情報を例えば始点と終点の座標で表すなどしてテキストやバイナリデータとして出力しても良い。
上記では、実施例1の詳細について機能ブロック毎に説明した。しかし、本発明の実施形態は必ずしも図2の機能ブロックで構成される必要はなく、各機能ブロックの動作を実現する処理が実現できればよい。図15に実施例1に係る処理フロー図の一例を示す。各ステップは図2に示した機能ブロック図の各要素と対応している。
画像入力ステップ1501ではオブジェクトを撮像した画像を受付ける。
オブジェクト領域算出ステップ1502では、画像入力ステップ1501にて受付けた入力画像を用いて分類対象となるオブジェクト領域を抽出する。オブジェクト領域の抽出方法については、前述のオブジェクト領域算出部202にて説明した通りである。
特徴量選択ステップ1503ではオブジェクト領域算出ステップ1502にて算出したオブジェクト領域情報と、画像入力ステップ1501にて受付けた入力画像に基づいて、特徴量選択信号を生成する。特徴量選択信号の生成方法については、前述の特徴量選択部203にて説明した通りである。
特徴量抽出ステップ1504では特徴量選択ステップ1503にて生成した特徴量選択信号に基づいて、選択された特徴量を用いて、入力画像やオブジェクト領域情報内の選択された領域から、オブジェクト分類のための特徴量を抽出する。特徴量の抽出方法については、前述の特徴量抽出部204にて説明した通りである。
特徴量分類ステップ1505では、オブジェクト領域算出ステップ1502にて算出したオブジェクト領域情報と、特徴量選択ステップ1503にて算出した特徴量選択信号と、特徴量抽出ステップ1504にて算出した特徴量抽出結果とに基づいて、各オブジェクトの代表特徴量を算出する。代表特徴量の算出方法については、前述の特徴量分類部205にて説明した通りである。
オブジェクト分類ステップ1506では、特徴量分類ステップ1505にて算出した代表特徴量に基づいてオブジェクトの分類を行う。オブジェクトの分類方法については、前述のオブジェクト分類部206にて説明した通りである。
出力ステップ1507では、オブジェクト分類ステップ1506にて算出したオブジェクト分類結果と、特徴量分類ステップ1505にて算出した代表特徴量を、入力画像に紐づけてユーザーに提示する。ユーザーへの提示方法については、前述の出力部207にて説明した通りである。
以上により、オブジェクトの大きさに応じて自動的に特徴量を選択することで、より頑健性の高い特徴量抽出と判定が可能となる。また、オブジェクトの分類結果と代表特徴量を入力画像と紐づけて出力することで、ユーザーがオブジェクトの分類結果だけでなく代表特徴量の抽出結果を確認することが可能となる。
実施例2は実施例1に記載のオブジェクト分類装置が出力するオブジェクトの分類結果や特徴量の情報を用いて、特定のオブジェクトを強調または表示する、オブジェクト分類システムである。
実施例2に係るハードウェア構成図を図11に示す。実施例2に係るハードウェア構成と実施例1に係るハードウェア構成との違いは入力装置1101と、GUI生成装置1102が追加されている点のみである。そのため、以下では入力装置1101と、GUI生成装置1102についてのみ説明する。オブジェクト分類装置101、撮像装置120、表示装置121は実施例1のハードウェア構成要素と同様であるため説明を省略する。
入力装置1101はユーザーの操作を受付ける装置であり、例えばキーボードやマウスなどである。入力装置1101が受付けたユーザー操作情報は後述のGUI生成装置1102に入力される。
GUI生成装置1102はユーザーがオブジェクトの分類結果や特徴量を指定し、前記指定と分類結果や特徴量が合致するオブジェクトのみを強調または表示するGUIを生成し、表示装置121に表示する。
GUI生成装置1102が生成するGUIの例を図12Aに示す。GUIウィンドウ1201は表示部1202と選択部1203から構成される。表示部1202はデフォルトでは入力画像がそのまま表示されている。選択部1203にはオブジェクト分類装置101の出力に含まれる分類結果および特徴量の抽出結果が選択肢として列挙されている。
各選択肢の先頭にはチェックボックスが設けてある。GUI生成装置1102は選択部1203内のチェックボックス群の状態からオブジェクトの検索条件を作成し、検索条件に合致するオブジェクトを抽出する。そして、表示部1202内の合致したオブジェクトの領域を強調表示する。チェックボックス群の状態からオブジェクトの検索条件を作成する方法としては、例えば、まず、カテゴリ毎にチェックされている項目をORで結合し、OR結合結果をANDで結合することで検索条件を得る方法がある。
例えば図12Aのチェックボックスの状態であれば「(特徴量=厚い)AND(判定結果=未知)」が検索条件となる。もし、図12Aのチェックボックスの状態に対して、更に、“細胞膜”の“薄い”にもチェックを入れた場合、「(特徴量=厚い OR 薄い)AND(判定結果=未知)」が検索条件となる。
図12Aの例では表示部1202内の条件に合致するオブジェクトの領域を点線で強調表示している。図12Aの表示方法は一例であり、色や吹き出し等で強調表示しても良いし、条件に合致するオブジェクトの領域を切り取って表示部1202にリスト状に表示する等しても良い。
また、図12BにGUI生成装置1102が生成するGUIの別の例を示す。構成内容は図12Aとほぼ同様であるが、選択部1203の各特徴量の末尾に感度調整バー1204が設置されている。感度調整バー1204は各特徴量の抽出感度を調整するユーザーインターフェースである。感度調整バー1204で調整した値に応じて、例えばオブジェクト分類装置101内の特徴量抽出部203において、該当の特徴量フィルタの出力にバイアスを加える等して抽出感度を調整する。これにより各オブジェクトの特徴量がどの程度の尤度で算出されているか等を観察することが可能となる。
また、特に図12Aや図12Bには示していないが、条件に合致するオブジェクトの数や全オブジェクト数に対する割合等の情報をGUIに表示しても良い。また、選択部1203を複数設ける等して、複数条件を同時にセットできるようにしても良い。その場合、条件毎に色を変える等して視覚的に結果を区別できるようにしてもよい。
図12Aおよび図12Bに示したGUIは一例であり、各要素の配列や表示方法はこれに限定されず、同様のユーザー操作および表示が実現できるGUIであれば良い。
これにより、ユーザーは画像内から特定の特徴量を有するオブジェクトを容易に発見することが可能になる。
実施例3は実施例1に記載のオブジェクト分類装置が出力する、複数の入力画像に対するオブジェクトの分類結果や特徴量の情報を用いて、特定の分類結果や特徴量を有するオブジェクトの数や割合等を算出する、オブジェクト分類システムである。
実施例3に係るハードウェア構成図を図13に示す。実施例3に係るハードウェア構成と実施例2に係るハードウェア構成との違いは統計情報算出装置1302が追加されている点のみである。そのため、以下では統計情報算出装置1302についてのみ説明する。オブジェクト分類装置101、撮像装置120、表示装置121、入力装置1101は実施例2のハードウェア構成要素と同様であるため説明を省略する。
統計情報算出装置1302はオブジェクト分類装置101が出力したオブジェクト分類および特徴量抽出結果を累積して記憶し、入力装置1101を介して受付けるユーザーの選択に基づいて統計情報を算出して、表示装置121に表示する。本実施例においては撮像装置120から一枚以上の入力画像がオブジェクト分類装置101に入力されるとする。
統計情報算出装置1302はオブジェクト分類装置101が入力画像に対する結果を出力する度に、統計情報算出装置1302内のメモリに保存する。メモリに保存した複数のオブジェクト分類結果および特徴量抽出結果全体を用いて統計情報を算出する。
図19に統計情報表示結果の一例を示す。統計情報表示ウィンドウ1901は統計情報算出装置1302が生成した、統計情報をユーザーに提示するためのウィンドウであり、表示装置121に表示される。統計情報表示ウィンドウ1901には、1枚以上の画像内に存在する複数のオブジェクトから算出した、判定結果と特徴量の統計情報が表示されている。
尚、図19は前述した素材の品質判定における統計情報表示の一例を示している。また、図19には特に記載していないが、判定結果あるいは特徴量の統計情報から総合的な判定を決定して、統計情報表示ウィンドウ1901に表示しても良い。例えば素材の品質判定の例であれば、素材表面のテクスチャを構成する要素の品質判定結果について、“高”の割合に対する閾値と、“中”の割合に対する閾値を予め定めておき、要素の品質判定結果の統計情報の内、“高”と“中”の各割合が閾値を超えた場合、総合的な素材の品質を“高”と判定して、統計情報表示ウィンドウ1901に表示する等しても良い。
また、算出する統計情報をユーザーの選択に基づいて決定しても良い。ユーザーの選択および結果の表示は統計情報算出装置1302が生成するGUIを介して行う。図14にユーザーの選択に基づいて統計情報を算出するためのGUIの一例を示す。GUIウィンドウ1401は、分母条件設定部1402、分子条件設定部1403、統計情報表示部1404の3つの部分から構成されている。分母条件設定部1402と分子条件設定部1403は同様の表示内容であり、オブジェクトの分類結果および特徴量が列挙されている。
また、各項目の先頭にはチェックボックスが設置されている。統計情報算出装置1302はチェックボックスがONになっている分類結果および特徴量を有するオブジェクトの数をカウントする。統計情報表示部1404内の分母または分子の欄に、分母条件設定部1402または分子条件設定部1403で指定した条件に一致するオブジェクト数が表示される。また、分子の数を分母の数で除算した結果を割合の項目に表示する。これにより特定の分類結果や特徴量を有するオブジェクトが、複数の入力画像の中にどの程度の割合で存在するかを算出することが可能となる。
実施例3によれば、1枚以上の入力画像の中に存在するオブジェクトについて、特定の分類結果や特徴量を有するオブジェクトの数や割合を算出することができる。これにより分類対象オブジェクトのより詳細な評価や、傾向観察、分類のために有効な特徴量の検討等を支援することが可能となる。
<変形例>
オブジェクト領域算出部202において、オブジェクト検出方法の一例として領域分割手法を用いたが、YOLOやSSD等、個々のオブジェクトを囲む矩形を推定する手法を用いてオブジェクト領域情報を算出しても良いし、オブジェクトを囲む矩形を推定した後に、領域分割を適用する等、上述の手法を組み合わせても良い。また、距離画像を推定するのではなく、前景と背景を二値分類した結果から距離画像を算出する等しても良い。
オブジェクト領域算出部202において、オブジェクト検出方法の一例として領域分割手法を用いたが、YOLOやSSD等、個々のオブジェクトを囲む矩形を推定する手法を用いてオブジェクト領域情報を算出しても良いし、オブジェクトを囲む矩形を推定した後に、領域分割を適用する等、上述の手法を組み合わせても良い。また、距離画像を推定するのではなく、前景と背景を二値分類した結果から距離画像を算出する等しても良い。
特徴量選択部203において、オブジェクト領域の大きさに基づいて選択する特徴量のスケールを決定する旨を説明したが、オブジェクト領域の大きさに基づいて入力画像を拡大および縮小しても良い。また、オブジェクト領域の形状に基づいて、回転および変形しても良い。
オブジェクト分類部206において、オブジェクト分類の際に一致特徴量の数に対して許容範囲を設定する方法を説明したが、不一致の特徴量の数に対する許容範囲を設定しても良いし、条件となっている特徴量数を分母とする一致率や不一致率に対して許容範囲を設定しても良い。
実施例2のGUI生成装置1102において、感度を調整する方法の一例として特徴量フィルタの出力にバイアス値を加算する方法を説明したが、加算だけでなく乗算や指数演算等を用いても良いし、これらを組合せても良い。
上記実施例では、画像内の各オブジェクトの領域情報を算出し、オブジェクトの領域情報に基づいて抽出する特徴量の種類、サイズ、適用領域を自動的に選択し、特徴量の選択結果に基づいてオブジェクトの分類に必要な特徴量を抽出する。そして、抽出した特徴量を分類し、オブジェクトの状態を決定する代表的な特徴量(以下、代表特徴量と呼ぶ)を算出し、代表特徴量の組合せに基づいてオブジェクトの分類を行う。これによりオブジェクト内の部位に応じた特徴量抽出が可能となり、より精度よく画像内のオブジェクトを分類することが可能となる。
また、オブジェクトの分類結果と代表特徴量を入力画像と紐づけて出力することで、ユーザーにオブジェクトの分類結果、および、分類の根拠となった代表特徴量を提示することが可能となる。
上記実施例によれば、オブジェクト内の部位に応じた特徴量の抽出が可能となり、より精度良く画像内のオブジェクトを分類可能となる。また、分類結果と分類の根拠となった特徴量をユーザーに提示することが可能となる。
100:オブジェクト分類システム
101:オブジェクト分類装置
110:インターフェース部
111:演算部
112:メモリ
113:バス
120:撮像装置
121:表示装置
201:画像入力部
202:オブジェクト領域算出部
203:特徴量選択部
204:特徴量抽出部
205:特徴量分類部
206:オブジェクト分類部
207:出力部
301:シャーレ
1101:入力装置
1102:GUI生成装置
1201:GUIウィンドウ
1202:表示部
1203:選択部
1204:感度調整バー
1302:統計情報算出装置
1401:GUIウィンドウ
1402:分母条件設定部
1403:分子条件設定部
1404:統計情報表示部
1901:統計情報表示ウィンドウ
101:オブジェクト分類装置
110:インターフェース部
111:演算部
112:メモリ
113:バス
120:撮像装置
121:表示装置
201:画像入力部
202:オブジェクト領域算出部
203:特徴量選択部
204:特徴量抽出部
205:特徴量分類部
206:オブジェクト分類部
207:出力部
301:シャーレ
1101:入力装置
1102:GUI生成装置
1201:GUIウィンドウ
1202:表示部
1203:選択部
1204:感度調整バー
1302:統計情報算出装置
1401:GUIウィンドウ
1402:分母条件設定部
1403:分子条件設定部
1404:統計情報表示部
1901:統計情報表示ウィンドウ
Claims (15)
- 画像内のオブジェクトを分類して前記オブジェクトの種類又は状態を判別するオブジェクト分類装置であって、
前記画像内の前記オブジェクトのオブジェクト領域を算出するオブジェクト領域算出部と、
前記オブジェクト領域を用いて、前記オブジェクトの特徴量を選択して特徴量選択信号を出力する特徴量選択部と、
前記特徴量選択信号に基づいて、前記画像の中から複数の前記特徴量を抽出する特徴量抽出部と、
複数の前記特徴量を分類して、前記オブジェクトの前記種類又は前記状態を決定する代表的な特徴量である代表特徴量を抽出する特徴分類部と、
前記代表特徴量に基づいて、前記オブジェクトの前記種類又は前記状態を判別して前記オブジェクトを分類し、前記オブジェクトの分類結果を出力するオブジェクト分類部と、
前記画像に前記オブジェクトの前記分類結果と前記代表特徴量を紐づけて出力する出力部と、
を有することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置であって、
前記特徴量選択部は、
前記オブジェクト領域を用いて、複数の前記特徴量の中から一部の前記特徴量を選択し、前記特徴量の種類とサイズ及び前記特徴量を抽出する領域情報を含む特徴量選択信号を出力し、
前記特徴量抽出部は、
前記オブジェクトの部位に応じた前記特徴量を抽出し、
前記オブジェクト分類部は、
前記代表特徴量の組合せに基づいて、前記オブジェクトを分類し、
前記出力部は、
前記代表特徴量ごとに、前記オブジェクトの前記分類結果と前記代表特徴量とを紐づけて出力することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置であって、
前記特徴量分類部は、
前記オブジェクト領域算出部が算出する前記オブジェクト領域、前記特徴量選択部が算出する前記特徴量選択信号及び前記特徴量抽出部が抽出する前記特徴量に基づいて、前記オブジェクトの前記代表特徴量を抽出することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置であって、
前記特徴量選択部は、
前記オブジェクト領域の大きさに基づいて、前記画像に適用する前記特徴量の種類を選択することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置であって、
前記オブジェクト領域算出部は、
距離画像を推定することにより、互いに接触する前記オブジェクトを分離することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置であって、
前記オブジェクト分類部は、
前記代表特徴量と前記オブジェクトの種類又は状態を対応させて格納したオブジェクト分類テーブルを参照することにより、前記オブジェクトを分類することを特徴とするオブジェクト分類装置。 - 請求項1に記載のオブジェクト分類装置と、
前記オブジェクト分類装置に入力する前記画像を撮像する撮像装置と、
前記オブジェクトの前記分類結果と前記代表特徴量とを紐づけて前記画像中に表示する表示装置と、
を有することを特徴とするオブジェクト分類システム。 - 請求項1に記載のオブジェクト分類装置と、
前記オブジェクト分類装置に入力する前記画像を撮像する撮像装置と、
ユーザーの操作情報を受付ける入力装置と、
前記入力装置から前記ユーザーが選択した前記オブジェクトの前記分類結果と前記代表特徴量の少なくとも一つに基づいて、所定の前記オブジェクトを強調表示するためのGUIを生成するGUI生成装置と、
前記GUI生成装置が生成した前記GUIを表示する表示装置と、
を有することを特徴とするオブジェクト分類システム。 - 請求項8に記載のオブジェクト分類システムであって、
前記GUI生成装置は、
前記代表特徴量の抽出感度を調整可能な感度調整バーを有する前記GUIを生成することを特徴とするオブジェクト分類システム。 - 請求項1に記載のオブジェクト分類装置と、
前記オブジェクト分類装置に入力する前記画像を撮像する撮像装置と、
前記オブジェクト分類装置から出力された前記オブジェクトの前記分類結果と前記代表特徴量に基づいて、前記オブジェクトの数又は分布を含む統計情報を算出する統計情報算出装置と、
前記統計情報算出装置が出力する前記統計情報を表示する表示装置と、
を有することを特徴とするオブジェクト分類システム。 - 画像内のオブジェクトを分類しての前記オブジェクトの種類又は状態を判別するオブジェクト分類方法であって、
前記画像内の前記オブジェクトのオブジェクト領域を算出するオブジェクト領域算出ステップと、
前記オブジェクト領域を用いて、前記オブジェクトの特徴量を選択して特徴量選択信号を出力する特徴量選択ステップと、
前記特徴量選択信号に基づいて、前記画像の中から複数の前記特徴量を抽出する特徴量抽出ステップと、
複数の前記特徴量を分類して、前記オブジェクトの前記種類又は前記状態を決定する代表的な特徴量である代表特徴量を抽出する特徴分類ステップと、
前記代表特徴量に基づいて、前記オブジェクトの前記種類又は前記状態を判別して前記オブジェクトを分類し、前記オブジェクトの分類結果を出力するオブジェクト分類ステップと、
前記画像に前記オブジェクトの前記分類結果と前記代表特徴量を紐づけて出力する出力ステップと、
を有することを特徴とするオブジェクト分類方法。 - 請求項11に記載のオブジェクト分類方法であって、
前記特徴量選択ステップは、
前記オブジェクト領域を用いて、複数の前記特徴量の中から一部の前記特徴量を選択し、前記特徴量の種類とサイズ及び前記特徴量を抽出する領域情報を含む特徴量選択信号を出力し、
前記特徴量抽出ステップは、
前記オブジェクトの部位に応じた前記特徴量を抽出し、
前記オブジェクト分類ステップは、
前記代表特徴量の組合せに基づいて、前記オブジェクトを分類し、
前記出力ステップは、
前記代表特徴量の組合せの中の前記代表特徴量ごとに、前記オブジェクトの前記分類結果と前記代表特徴量とを紐づけて出力することを特徴とするオブジェクト分類方法。 - 請求項11に記載のオブジェクト分類方法であって、
前記特徴量分類ステップは、
前記オブジェクト領域算出ステップが算出する前記オブジェクト領域、前記特徴量選択ステップが算出する前記特徴量選択信号及び前記特徴量抽出ステップが抽出する前記特徴量に基づいて、前記オブジェクトの前記代表特徴量を抽出することを特徴とするオブジェクト分類方法。 - 請求項11に記載のオブジェクト分類方法であって、
前記特徴量選択ステップは、
前記オブジェクト領域の大きさに基づいて、前記画像に適用する前記特徴量の種類を選択することを特徴とするオブジェクト分類方法。 - 請求項11に記載のオブジェクト分類方法であって、
前記オブジェクト領域算出ステップは、
距離画像を推定することにより、互いに接触する前記オブジェクトを分離することを特徴とするオブジェクト分類方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203538A JP7412321B2 (ja) | 2020-12-08 | 2020-12-08 | オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 |
EP21903111.9A EP4261774A4 (en) | 2020-12-08 | 2021-11-12 | OBJECT CLASSIFICATION DEVICE, OBJECT CLASSIFICATION SYSTEM, AND OBJECT CLASSIFICATION PROGRAM |
PCT/JP2021/041775 WO2022124007A1 (ja) | 2020-12-08 | 2021-11-12 | オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 |
US18/037,278 US20240005682A1 (en) | 2020-12-08 | 2021-11-12 | Object classifying apparatus, object classification system, and object classification method |
CN202180080950.8A CN116547708A (zh) | 2020-12-08 | 2021-11-12 | 对象分类装置、对象分类系统以及对象分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203538A JP7412321B2 (ja) | 2020-12-08 | 2020-12-08 | オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022090930A JP2022090930A (ja) | 2022-06-20 |
JP7412321B2 true JP7412321B2 (ja) | 2024-01-12 |
Family
ID=81974345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020203538A Active JP7412321B2 (ja) | 2020-12-08 | 2020-12-08 | オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240005682A1 (ja) |
EP (1) | EP4261774A4 (ja) |
JP (1) | JP7412321B2 (ja) |
CN (1) | CN116547708A (ja) |
WO (1) | WO2022124007A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024025442A (ja) * | 2022-08-12 | 2024-02-26 | 株式会社日立ハイテク | オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011229409A (ja) | 2010-04-23 | 2011-11-17 | Nagoya Univ | 細胞評価装置、インキュベータ、細胞評価方法、細胞評価プログラムおよび細胞の培養方法 |
JP2015121985A (ja) | 2013-12-24 | 2015-07-02 | 富士通株式会社 | 対象線検出装置、方法、及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2500805A1 (en) * | 2002-09-13 | 2004-03-25 | Arcturus Bioscience, Inc. | Interactive and automated tissue image analysis |
EP3054279A1 (en) * | 2015-02-06 | 2016-08-10 | St. Anna Kinderkrebsforschung e.V. | Methods for classification and visualization of cellular populations on a single cell level based on microscopy images |
-
2020
- 2020-12-08 JP JP2020203538A patent/JP7412321B2/ja active Active
-
2021
- 2021-11-12 EP EP21903111.9A patent/EP4261774A4/en active Pending
- 2021-11-12 US US18/037,278 patent/US20240005682A1/en active Pending
- 2021-11-12 CN CN202180080950.8A patent/CN116547708A/zh active Pending
- 2021-11-12 WO PCT/JP2021/041775 patent/WO2022124007A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011229409A (ja) | 2010-04-23 | 2011-11-17 | Nagoya Univ | 細胞評価装置、インキュベータ、細胞評価方法、細胞評価プログラムおよび細胞の培養方法 |
JP2015121985A (ja) | 2013-12-24 | 2015-07-02 | 富士通株式会社 | 対象線検出装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4261774A1 (en) | 2023-10-18 |
JP2022090930A (ja) | 2022-06-20 |
US20240005682A1 (en) | 2024-01-04 |
CN116547708A (zh) | 2023-08-04 |
WO2022124007A1 (ja) | 2022-06-16 |
EP4261774A4 (en) | 2024-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230419696A1 (en) | Image analysis method, apparatus, program, and learned deep learning algorithm | |
US11462032B2 (en) | Stain normalization for automated whole-slide image classification | |
Ramoser et al. | Leukocyte segmentation and classification in blood-smear images | |
Putzu et al. | White blood cells identification and counting from microscopic blood images | |
EP2889618B1 (en) | Image processing device, program, image processing method, computer-readable medium, and image processing system | |
Lee et al. | Segmentation of overlapping cervical cells in microscopic images with superpixel partitioning and cell-wise contour refinement | |
JP4948647B2 (ja) | 尿中粒子画像の領域分割方法及び装置 | |
CN109829882B (zh) | 一种糖尿病视网膜病变分期预测方法 | |
Ragothaman et al. | Unsupervised segmentation of cervical cell images using Gaussian mixture model | |
US20100040276A1 (en) | Method and apparatus for determining a cell contour of a cell | |
US20220156931A1 (en) | Image processing method, apparatus, and system | |
US20210390278A1 (en) | System for co-registration of medical images using a classifier | |
JP2014235494A (ja) | 画像処理装置及びプログラム | |
Foucart et al. | Artifact identification in digital pathology from weak and noisy supervision with deep residual networks | |
US11887355B2 (en) | System and method for analysis of microscopic image data and for generating an annotated data set for classifier training | |
JP7412321B2 (ja) | オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法 | |
Palokangas et al. | Segmentation of folds in tissue section images | |
CN110210578B (zh) | 基于图论的宫颈癌组织病理学显微图像聚类系统 | |
Khong et al. | A novel approach for efficient implementation of nucleus detection and segmentation using correlated dual color space | |
Friedrich et al. | Removing defocused objects from single focal plane scans of cytological slides | |
Restif | Towards safer, faster prenatal genetic tests: Novel unsupervised, automatic and robust methods of segmentation of nuclei and probes | |
CN116977805A (zh) | 基于特征融合的宫颈液基细胞检测方法及存储介质 | |
CN117809301A (zh) | 基于ascus宫颈样本病理结果的分析方法 | |
CN118679501A (zh) | 用于检测图像中的伪影像素的机器学习技术 | |
CN112236827A (zh) | 用于数字病理学的灵敏度分析 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7412321 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |