JP3539581B2 - Particle image analysis method - Google Patents
Particle image analysis method Download PDFInfo
- Publication number
- JP3539581B2 JP3539581B2 JP22302794A JP22302794A JP3539581B2 JP 3539581 B2 JP3539581 B2 JP 3539581B2 JP 22302794 A JP22302794 A JP 22302794A JP 22302794 A JP22302794 A JP 22302794A JP 3539581 B2 JP3539581 B2 JP 3539581B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- classification
- identification
- particle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000002245 particle Substances 0.000 title claims description 81
- 238000003703 image analysis method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000010191 image analysis Methods 0.000 claims 1
- 239000007788 liquid Substances 0.000 claims 1
- 210000004027 cell Anatomy 0.000 description 10
- 238000002372 labelling Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008602 contraction Effects 0.000 description 4
- 230000010339 dilation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000002700 urine Anatomy 0.000 description 4
- 239000013049 sediment Substances 0.000 description 3
- 210000000601 blood cell Anatomy 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 241000894006 Bacteria Species 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 238000005119 centrifugation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 238000011206 morphological examination Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Description
【0001】
【産業上の利用分野】
本発明は粒子の形態情報を用いた粒子の分類方法に係り、特に血液や尿中の粒子画像を分類するのに好適な解析方法に関する。
【0002】
【従来の技術】
尿中の粒子を形態学的に検査するには、従来目視で行うものでは、尿試料を遠心分離し、沈渣物を染色してスライドガラス上に標本を作り、顕微鏡観察することで行っていた。その際、遠心分離の濃縮の度合いを常に一定にし、観察する試料の量も一定にすることで、元の尿試料中にどういう沈渣物がどれだけの濃度で含まれているかを知ることができる。沈渣物の中には、血球細胞や細菌などのように大きさが数マイクロメ−トルの粒子から、円柱などのように数百マイクロメートルの粒子まであり、顕微鏡の倍率を高倍率と低倍率に切り替えて観察する。
連続的に流れているサンプル試料中の粒子画像を撮影し、個々の粒子画像から粒子を分析・分類する試みとしては、特表昭57−500995号、特開昭63−94156号、特開平5−296915号等が知られている。
特表昭57−500995号では、サンプル試料を特別な形状の流路に通し、そこで試料中の粒子を幅広の撮像領域中に流し、フラッシュランプによる静止画像を撮影し、その画像を用い粒子分析する方法が示されている。顕微鏡を用いてサンプル粒子の拡大像をCCDカメラ上に投影するとき、パルス光源であるフラッシュランプがCCDカメラの動作に同期して周期的に発光する。パルス光源の発光時間は短く、粒子が連続的に流れていても静止画像を得ることができ、かつCCDカメラは毎秒30枚の静止画像を撮影することができる。
特開昭63−94156号では、静止画像撮影系とは別にサンプル流れ中の粒子画像撮影領域より上流に粒子検出用光学系を有している。あらかじめ粒子検出部で粒子通過を知り、丁度その粒子が粒子撮像領域に達したとき適当なタイミングでフラッシュランプを点灯させる方法である。この方法ではパルス光源の発光を周期的に行なわず粒子の通過を検出してその時だけタイミングを合わせて静止画像を撮影することができ、効率的に粒子画像が集められ、濃度の薄いサンプル試料でも無意味な粒子の存在しない画像を処理することはない。
特開平5−296915号では、さらに粒子検出用光学系を粒子画像撮像系の中に組み込んだ方法が示されている。すなわち、粒子検出用レーザ光束が、顕微鏡画像撮像系の顕微鏡コンデンサレンズを通してサンプル試料流れに照射する方法が述べられている。これは、粒子検出用の光学系を別に用意する必要がないこと、粒子検出位置をできるだけ粒子画像取り込み領域に近づけて配置できる特徴がある。
従来この種の解析方法は、まず、撮像された画像について対象物(解析対象の粒子)が占める領域と解析対象の粒子が存在しない背景領域とを見分け、撮像された画像を意味を持つ部分画像に分割する。この意味を持つ部分画像に分割する操作を画像の領域分割と言い、その方法については、例えば「画像処理:共立出版、1983年刊」に記載されている。領域分割によって解析対象の2値画像を作成し、ノイズ除去、穴埋め処理によって2値画像を整形する。ノイズ除去、穴埋め処理は画像の収縮と膨張処理の組み合わせによって行うことができ、例えば「コンピュータ画像処理入門:総研出版、1985年刊」に記載されている。2値画像の整形処理を行なったのち、2値画像に含まれる同じ連結成分に属する全ての画素に同じラベル(番号)を割り当て、異なった連結成分には異なったラベルを割り当てる。従って、ラベル数は連結成分の数を示す。この様な操作を連結成分のラベリング(ラベル処理)と言い、例えば「コンピュータ画像処理入門:総研出版、1985年刊」に記載されている。なお、連結成分とは、2値画像の画素点(1の領域)の連なり(領域)を意味し、例えばある点から順次8近傍を辿って次の点へ到達可能であるような点全てを8連結成分と言う。次に、解析対象の幾何学的特徴を示す特徴量(連結成分ごとの領域の大きさ、形、あるいは元の画像での領域に対応する濃度情報など)を求め、分析・分類を行う。例えば、血球像等においては特公昭58−29872号に記載のように細胞の形態情報、濃度情報を用いて画像中の細胞一個一個について分類しカテゴリー毎の出現細胞割合で報告していた。
【0003】
【発明が解決しようとする課題】
しかしながら、この方法では必ずしも適確に分類が行えないという欠点があった。特に無染色細胞(染色剤に染まらない細胞)や淡染色(染色剤に濃く染まらない細胞)細胞のような場合背景と区別がつかず、画像中の細胞領域を完全に抽出できないために対象が小領域に分割され、連結成分数が多く検出されることによって、見かけ上分類対象が多くなるという問題があった。
本発明の目的は、画像中で複数個存在する連結成分について最適な分析・分類すべき粒子数および画像中の粒子の状態を記述することにより安定な粒子画像の解析方法を提供することにある。
【0004】
【課題を解決するための手段】
上記目的は、まず、画像中で分割された領域の個数と、各領域毎の画像中での位置情報から全体の粒子の分布状態を求め、最大値を持つ粒子領域の面積から識別分類すべき粒子数を決定することによって達成される。
より具体的には、計算機(図2の109)の制御により領域分割回路(図2の105)にて、撮像した画像中から分類対象毎の領域を分割するステップ(図3のS10)と、計算機の制御により画像処理回路(図2の106)にて、前記分割した領域の処理対象となる連結成分をラベリング処理し、ラベル毎の特徴量(例えば面積等)を求めるステップ(図3のS20,30)と、計算機の制御により識別制御回路(図2の111)にて、前記ラベル数と特徴量を基に識別方式を決定するステップ(図3の40)と、その識別制御回路にて、前記方式で粒子毎の識別分類を行うステップ(図3の50)と、計算機にて、前記識別分類結果に応じた粒子単位のカテゴリ別加算あるいは画像単位のランク別加算を行い、出力装置にて画像中の粒子の出現状況を出力させるステップ(図3のS60)と有する。また、前記分割領域数を決定するステップでは、1画像中に抽出された領域の連結成分数(前記S20のラベリング処理で付与されたラベル数)が複数の場合は、1画像中での識別分類を行う領域の連結成分数を限定し、あるいは、1画像中に抽出された領域の連結成分数が規定の値以下のときにのみ検出された領域の粒子すべての識別分類を行い、あるいは、1画像中に抽出された領域の連結成分の大きさの順に識別分類を行う(例えば、ラベルの面積の大きい順に処理個数を設定する)。また、前記出現状況を出力するステップでは、粒子個々の分類結果(カテゴリ別の出現粒子数)を出力するとともに、複数の粒子が存在した画像数をラベル数に応じてランク別に出力する。
【0005】
【作用】
本発明においては、計算機の指示により識別制御回路にて、予め抽出した領域の連結成分数および連結成分毎の領域の特徴量(空間的な広がり)を基に識別方式を決定し(識別前処理)、その方式で粒子単位あるいは画像単位に識別を行う。さらに、計算機にて、識別結果を画像単位および粒子単位に記述し、それを出力装置に出力させる。これにより、オペレータは1サンプルの画像全体の粒子出現状況を適確に把握することができる。
すなわち、円柱を例に取ると、撮像された画像中における染色された円柱を領域分割処理によって2値化処理し、2値画像の整形処理を行えば図1(a)に示すようになる。この場合、2値画像における解析対象の連結成分数は1(ラベル数1)であり、処理対象となる領域10の情報を求めることによって識別できる。検出粒子が、淡染色された場合は図1(b)のように全体が均一に領域分割されずに濃度の淡いところ(背景と区別がつけにくい部分)が複数の領域に分割されてしまい、ラベリング処理で求めたラベル数(連結成分数)は複数個となる。このような場合は、各ラベルの分布状態と検出領域の大きさにより処理すべき対象の個数を定めて分類し、さらに画像中の検出粒子数を記憶する。また、染色剤に染まらなかった場合は、図1(c)のように円柱の全体が微小領域に分割され、ラベリング処理による検出領域数が図1(b)にくらべて非常に多くラベル付けされることになる。このような場合は、画像上での分布の広がり方はある一定の広がり方を持っているので、ラベル付けされた個々の粒子の分類結果よりも画像単位の結果を報告する。このことは、画像において検出粒子数が少ないときはラベル付けされた検出粒子を全て分類対象とし、画像中において検出粒子が多く存在した場合は検出粒子の分布状態により画像単位の分類か細胞単位の分類かを決定することにより行なう。これより、粒子画像の分類が正確かつ安定に行える。
【0006】
【実施例】
以下、本発明を実施例により詳細に説明する。図2は、本発明を実施するための装置構成を示す。まず、流体中の粒子はパルスランプによって照射され光学的拡大手段よって拡大され、色フィルタを介して光電変換器101によりアナログ電気信号に変換される。光電変換器101の出力は画像入力部102に導かれディジタル信号に変換さる。画像入力部102の出力は画像データバス107を経由して画像メモリ103に記憶される。この時、画像メモリ103は複数のフレームで構成されおり各色フィルタに対応する画像と演算画像などを記憶する。画像入力部102の出力は画像データバス107を経由して領域分割回路105に導かれ濃度情報を利用した領域分割方法により対象領域を抽出し、領域分割画像を画像メモリ104に出力し記憶する。画像メモリ104に記憶された画像は画像処理回路106に導かれ、画像の太め、細め処理などのフィルタリング処理とラベリング処理を行ない画像メモリ104に記憶する。さらに画像処理回路106はラベリング処理した画像の各領域毎に特徴量を求め、CPUバス108を経由して識別制御回路111に転送する。識別制御回路111は計算機109の指示により各領域毎の特徴量から識別処理を行ない、識別結果をCPU109に転送する。計算機109は規定量の処理が終了した時点で処理結果を出力装置110に出力する。以上の、処理の制御、データの転送はすべて計算機109がCPUバス109を経由して制御する。また、識別結果に応じて画像メモリ103の内容を画像記憶装置112に記憶する。ここで、画像記憶装置112はデジタル信号が記憶できる半導体メモリ装置、磁気あるいは光磁気記憶装置、およびデジタルビデオテープ記録装置、また、デジタル信号をアナログ信号に変換してビデオテープ記憶装置などが考えられる。
【0007】
以下、計算機109で行う処理手順について図4から図6を用いて説明する。なお、図3は計算機109の処理手順を示すフローチャート、図4およびから図6は図3における処理の詳細フローを示す図、図5は分布状態のひとつの指標を示す図である。
まず、計算機109は画像入力した後の画像から濃度情報を利用した領域分割処理により画像中の対象領域を抽出させる(ステップS10)。画像中の対象領域の抽出は、画像の濃度ヒストグラムを作成し、濃度ヒストグラム上で背景の平均濃度と対象の平均濃度付近にあるピークを検出し、この2つのピーク位置の間にある谷の底を求め、谷の底の濃度値をしきい値とする2値化によって2値画像を作成するものである。
【0008】
この後、画像処理回路106に指示しノイズ除去、穴埋め処理によって2値画像の整形処理を行い、処理対象となる連結成分のラベリング処理によって連結成分をラベル付けさせる(ステップS20)。2値画像のノイズ除去、穴埋め処理は、画像の収縮と膨張処理を繰り返す(膨張→収縮→収縮→膨張を1動作とし、これを繰り返す)ことによって行う。
【0009】
次に、各連結成分(ラベル)毎の領域の特徴量を算出させる(ステップS30)。ここで言う特徴量とは例えば「画像処理:共立出版、1983年刊」に記載のように、領域の画像上での面積、周囲長、円形度、各波長成分の平均濃度などを指す。
【0010】
次に、識別前処理では識別制御回路111にてステップ30で求めた特徴量を基に識別方式を決定させる(ステップS40)。ステップS40の詳細は図4に示すように、ステップS30で求めた特徴量のうち面積情報の大きさで並べ替え(ソーティング)(ステップS41)、次に、統計量を算出する(ステップS42)。ここで得る統計量とは、例えばラベル数分の領域の偏差値σx、σyと、図5に示すように座標の水平方向の偏差値σxと垂直方向の偏差値σyから角度θを次式(1)によって求める。
θ=tan-1(σy/σx)…(1)
次に、ステップS42で求めた統計量から識別方法を決定する(ステップS43)。まず、ラベル数がk0未満の場合は、ラベル全部について処理する粒子単位識別を行なう方式とする。ラベル数がk0以上k1未満の場合は、最大面積によって処理個数を設定し、例えば最大面積がs以下で角度θがt0〜t1の場合は面積の大きい順にm1個処理し、角度θがt0〜t1以外の場合はm2個処理する。最大面積がs以上の場合はm3個処理する。ラベル数がk1以上の場合は画像単位識別として粒子単位の識別を行わない。ここで、k0は実験的に定まる値であり通常10を設定し、k1は20を設定する。またsは、領域分割処理によって定まる値であり通常1000程度を設定する。角度範囲t0、t1はそれぞれ0.5、0.7を設定する。粒子の処理個数m1、m2、m3はそれぞれ10、5、3を設定する。
【0011】
次に、識別制御回路111にてステップS40で決定された方式に沿って識別させる(ステップS50)。識別処理の詳細は、図6に示すように、まず、粒子単位の識別か否かの判定により(ステップS51)粒子単位ではない場合は本処理はスキップする。粒子単位識別の場合は指定された粒子各々について識別する(ステップS52、S53)。
【0012】
次に、計算機109はステップS50の識別結果を基に図7に示すような表を記憶・更新し、出力装置110にて出力させる(S60)。例えば粒子単位識別の場合は、計算機109にて識別結果に応じたカテゴリー毎の加算を行うと共に、画像のラベル数に応じたランクの加算を行う。また、画像単位識別の場合はラベル数により各ランク毎の加算を行なう。画像単位のランクの設定はラベル数により、例えば、ランクAはラベル数が1、ランクBはラベル数が2〜5、ランクCはラベル数が5〜9、ランクDはラベル数が10〜19のように設定する。また、この時画像単位の識別結果に応じて画像記憶装置112に画像メモリ103の内容を記憶する指示を出すことも可能である。
以上が入力した1画像の処理である。この処理を定められた画像数分だけ行なうことによって1つのシーケンスが終了し、図7で示すような表を出力することによって一連の処理は終了する。このように画像単位の情報を持ち、1サンプル全体の構成を把握することによって、データの信頼性が高まり解析結果の裏づけにも役立つ。
【0013】
【発明の効果】
本発明によれば、画像中に複数の粒子が存在していたり、また、背景部と濃度差のない無染色細胞や淡染色細胞が領域分割処理で複数部分に分割されても、画像全体を記述できるので、効率の良い粒子の解析を安定に行うことができる。
【図面の簡単な説明】
【図1】本発明の原理説明図である。
【図2】本発明の一実施例における粒子画像解析装置の構成図である。
【図3】本発明の一実施例における識別処理を示すフローチャートである。
【図4】本発明の一実施例における識別前処理の詳細を示すフローチャートである。
【図5】本発明の一実施例における粒子の広がりを記述するための説明図である。
【図6】本発明の一実施例における識別処理の詳細を示すフローチャートである。
【図7】本発明の一実施例における識別結果を説明するための図である。
【符号の説明】
10:基本的な粒子像、101:光電変換器、102:画像入力部、103,104:画像メモリ、105:領域分割回路、106:画像処理回路、107:画像データバス、108:CPUバス、109:計算機、110:出力装置、111:識別制御回路、112:画像記憶装置。[0001]
[Industrial applications]
The present invention relates to a method for classifying particles using morphological information of particles, and more particularly to an analysis method suitable for classifying blood or urine particle images.
[0002]
[Prior art]
Conventionally, morphological examination of particles in urine has been carried out by visual inspection, in which a urine sample is centrifuged, the sediment is stained, a specimen is prepared on a slide glass, and observed under a microscope. . At this time, by keeping the concentration of centrifugation constant and the amount of the sample to be observed constant, it is possible to know what kind of sediment is contained in the original urine sample and at what concentration. . In the sediment, there are particles ranging in size from a few micrometers, such as blood cells and bacteria, to particles, hundreds of micrometers, such as cylinders. Switch and observe.
Attempts to take images of particles in a continuously flowing sample sample and analyze and classify the particles from individual particle images include JP-A-57-500995, JP-A-63-94156, and JP-A-5-59156. No. 296915 is known.
In Japanese Patent Publication No. 57-500995, a sample sample is passed through a specially shaped flow path, in which particles in the sample are caused to flow through a wide imaging area, a still image is taken with a flash lamp, and particle analysis is performed using the image. How to do is shown. When an enlarged image of sample particles is projected on a CCD camera using a microscope, a flash lamp as a pulse light source periodically emits light in synchronization with the operation of the CCD camera. The light emission time of the pulse light source is short, a still image can be obtained even when particles are continuously flowing, and the CCD camera can capture 30 still images per second.
In Japanese Patent Application Laid-Open No. 63-94156, a particle detection optical system is provided upstream of a particle image photographing area in a sample flow separately from a still image photographing system. This is a method in which the particle detection unit detects the passage of particles in advance and turns on the flash lamp at an appropriate timing when the particles reach the particle imaging region. In this method, the passage of particles is detected without periodic light emission of the pulse light source, and a still image can be taken at the same time only at that time. It does not process images without meaningless particles.
Japanese Patent Application Laid-Open No. 5-296915 discloses a method in which a particle detection optical system is further incorporated into a particle image pickup system. That is, a method of irradiating a sample sample flow with a laser beam for particle detection through a microscope condenser lens of a microscope image capturing system is described. This is characterized in that it is not necessary to separately prepare an optical system for detecting particles, and the particle detection position can be arranged as close to the particle image capturing area as possible.
Conventionally, this type of analysis method first distinguishes between a region occupied by an object (particles to be analyzed) and a background region where no particles to be analyzed exist in a captured image, and converts the captured image into a partial image having a meaning. Divided into The operation of dividing the image into partial images having this meaning is called image region division, and the method is described in, for example, "Image Processing: Kyoritsu Shuppan, 1983". A binary image to be analyzed is created by region division, and the binary image is shaped by noise removal and filling processing. The noise removal and fill processing can be performed by a combination of image contraction and dilation processing, and are described, for example, in "Introduction to Computer Image Processing: Soken Shuppan, 1985". After shaping the binary image, the same label (number) is assigned to all pixels belonging to the same connected component included in the binary image, and different labels are assigned to different connected components. Therefore, the number of labels indicates the number of connected components. Such an operation is called labeling of connected components (label processing), and is described in, for example, "Introduction to Computer Image Processing: Soken Shuppan, 1985". The connected component means a series (area) of pixel points (area 1) of the binary image. For example, all points that can reach the next point by sequentially tracing eight neighborhoods from a certain point are considered. It is called eight connected components. Next, a feature amount (a size and a shape of a region for each connected component, or density information corresponding to a region in the original image, etc.) indicating a geometric feature to be analyzed is obtained, and analysis and classification are performed. For example, in a blood cell image and the like, as described in JP-B-58-29872, each cell in an image is classified using the morphological information and density information of the cell, and the appearance cell ratio for each category is reported.
[0003]
[Problems to be solved by the invention]
However, this method has a disadvantage that classification cannot always be performed accurately. In particular, in the case of unstained cells (cells that do not stain the stain) or lightly stained (cells that do not stain the stain deeply), the target cannot be distinguished from the background because the cell region in the image cannot be completely extracted. There is a problem that the number of connected components is apparently increased due to division into small regions and detection of a large number of connected components.
An object of the present invention is to provide a stable particle image analysis method by describing the number of particles to be optimally analyzed / classified and the state of particles in the image for a plurality of connected components in an image. .
[0004]
[Means for Solving the Problems]
The above purpose is to first obtain the distribution state of the whole particles from the number of divided regions in the image and the position information in the image for each region, and to classify and classify from the area of the particle region having the maximum value Achieved by determining the number of particles.
More specifically, a step (S10 in FIG. 3) of dividing a region for each classification target from the captured image by the region dividing circuit (105 in FIG. 2) under the control of the computer (109 in FIG. 2); Under the control of the computer, the image processing circuit (106 in FIG. 2) performs labeling processing on the connected components to be processed in the divided area, and obtains a feature amount (for example, area or the like) for each label (S20 in FIG. 3). , 30), a step of determining an identification method based on the number of labels and the feature amount (40 in FIG. 3) in an identification control circuit (111 in FIG. 2) under the control of a computer, and the identification control circuit A step of performing classification and classification for each particle by the above-mentioned method (50 in FIG. 3), and performing, by a computer, addition by category of each particle or addition by rank of each image in accordance with the result of the classification and classification; Particles in the image A step (S60 of FIG. 3) to output the appearance status. In the step of determining the number of divided areas, when the number of connected components of the area extracted in one image (the number of labels given in the labeling process in S20) is plural, the identification classification in one image is performed. The number of connected components of the region to be performed is limited, or the identification and classification of all particles in the detected region is performed only when the number of connected components of the region extracted in one image is equal to or less than a predetermined value. Identification and classification are performed in the order of the size of the connected components of the regions extracted in the image (for example, the number of processes is set in the order of the area of the label). In the step of outputting the appearance status, the classification result of each particle (the number of appearance particles for each category) is output, and the number of images in which a plurality of particles exist is output for each rank according to the number of labels.
[0005]
[Action]
According to the present invention, the identification control circuit determines the identification method based on the number of connected components of the region extracted in advance and the feature amount (spatial spread) of the region for each connected component in accordance with a computer instruction (pre-identification processing). ), Identification is performed in particle units or image units in that manner. Further, the computer describes the identification result in image units and particle units, and outputs the result to an output device. As a result, the operator can accurately grasp the appearance of particles in the entire image of one sample.
That is, taking a cylinder as an example, a stained cylinder in a captured image is binarized by a region division process, and a binary image is shaped as shown in FIG. 1A. In this case, the number of connected components to be analyzed in the binary image is 1 (the number of labels is 1) and can be identified by obtaining information on the
[0006]
【Example】
Hereinafter, the present invention will be described in detail with reference to examples. FIG. 2 shows an apparatus configuration for carrying out the present invention. First, particles in a fluid are irradiated by a pulse lamp, expanded by an optical expansion unit, and converted into an analog electric signal by a
[0007]
Hereinafter, a processing procedure performed by the
First, the
[0008]
Thereafter, the
[0009]
Next, the feature amount of the region for each connected component (label) is calculated (step S30). The feature amount referred to here refers to, for example, the area of the region on the image, the perimeter, the circularity, the average density of each wavelength component, and the like, as described in “Image Processing: Kyoritsu Shuppan, 1983”.
[0010]
Next, in the pre-identification processing, the identification method is determined by the
θ = tan −1 (σy / σx) (1)
Next, an identification method is determined from the statistics obtained in step S42 (step S43). First, when the number of labels is less than k0, a method of performing particle unit identification for processing all labels is adopted. When the number of labels is k0 or more and less than k1, the processing number is set according to the maximum area. For example, when the maximum area is s or less and the angle θ is t0 to t1, m1 processing is performed in the descending order of the area. In cases other than t1, m2 processing is performed. If the maximum area is s or more, m3 processing is performed. When the number of labels is equal to or larger than k1, identification of particle units is not performed as identification of image units. Here, k0 is a value determined experimentally and is usually set to 10, and k1 is set to 20. S is a value determined by the area dividing process, and is usually set to about 1000. The angle ranges t0 and t1 are set to 0.5 and 0.7, respectively. The processing numbers m1, m2, and m3 of the particles are set to 10, 5, and 3, respectively.
[0011]
Next, the identification is performed by the
[0012]
Next, the
The above is the processing of one input image. One sequence is completed by performing this process for a predetermined number of images, and a series of processes is completed by outputting a table as shown in FIG. As described above, by holding the information of each image and grasping the configuration of one sample as a whole, the reliability of the data is enhanced and the analysis result is useful.
[0013]
【The invention's effect】
According to the present invention, even if a plurality of particles are present in the image, or even if unstained cells or lightly stained cells having no density difference from the background portion are divided into a plurality of portions by the region dividing process, the entire image is Since it can be described, efficient particle analysis can be stably performed.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a configuration diagram of a particle image analyzer according to one embodiment of the present invention.
FIG. 3 is a flowchart illustrating an identification process according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating details of pre-identification processing according to an embodiment of the present invention.
FIG. 5 is an explanatory diagram for describing the spread of particles in one embodiment of the present invention.
FIG. 6 is a flowchart illustrating details of an identification process according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining an identification result in one embodiment of the present invention.
[Explanation of symbols]
10: basic particle image, 101: photoelectric converter, 102: image input unit, 103, 104: image memory, 105: area dividing circuit, 106: image processing circuit, 107: image data bus, 108: CPU bus, 109: computer, 110: output device, 111: identification control circuit, 112: image storage device.
Claims (6)
撮像した画像を領域分割して分類対象毎の領域を抽出する第1のステップと、
該第1のステップで抽出した領域の個数と各領域の画像上での位置および面積を含む領域毎の特徴量を求める第2のステップと、
該第2のステップで求めた領域数と各領域毎の特徴量とに基づき、前記第1のステップで抽出した領域に対する識別方式を決定する第3のステップと、
該第3のステップで決定された識別方式に沿って当該領域に対する識別分類を行う第4のステップと
を有することを特徴とする粒子画像の解析方法。Flowing a particle sample suspended in a liquid into a flow cell, detecting particles passing through a particle detection region in the flow cell, capturing a still image of the detected particles passing through the imaging region in the flow cell, and capturing the captured particle image In a particle image analysis method for performing morphological classification of particles by image analysis of
A first step of extracting an area of each classification target images captured by the area dividing,
A second step of obtaining a feature quantity for each region including a position and area on the image of the number and the area of the region extracted in the first step,
A third step of determining, based on the number of regions obtained in the second step and the feature amount of each region, an identification scheme for said first region extracted in step,
And a fourth step of performing classification and classification on the area in accordance with the classification method determined in the third step .
前記第3のステップで決定された識別方式に沿って前記第4のステップで行われた識別分類結果として、各領域が識別分類されたカテゴリー毎の加算値と、領域数に応じて設定される画像のランク毎の加算値とを出力する第5のステップを有することを特徴とする粒子画像の解析方法。A method for analyzing a particle image according to any one of claims 2 to 4,
As a result of the classification performed in the fourth step according to the classification method determined in the third step, each area is set in accordance with an addition value for each category in which each area is classified and classified, and the number of areas. 5. A method for analyzing a particle image, comprising: a fifth step of outputting an added value for each rank of an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22302794A JP3539581B2 (en) | 1994-09-19 | 1994-09-19 | Particle image analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22302794A JP3539581B2 (en) | 1994-09-19 | 1994-09-19 | Particle image analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0886736A JPH0886736A (en) | 1996-04-02 |
JP3539581B2 true JP3539581B2 (en) | 2004-07-07 |
Family
ID=16791698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22302794A Expired - Fee Related JP3539581B2 (en) | 1994-09-19 | 1994-09-19 | Particle image analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3539581B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5906623B2 (en) * | 2011-09-09 | 2016-04-20 | コニカミノルタ株式会社 | Biological substance expression level evaluation system |
JP2022051447A (en) * | 2020-09-18 | 2022-03-31 | シスメックス株式会社 | Cell analysis method and cell analysis device |
-
1994
- 1994-09-19 JP JP22302794A patent/JP3539581B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0886736A (en) | 1996-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7268939B1 (en) | Tracking of cells with a compact microscope imaging system with intelligent controls | |
US7869641B2 (en) | System and method for finding regions of interest for microscopic digital montage imaging | |
JP3822242B2 (en) | Method and apparatus for evaluating slide and sample preparation quality | |
US6137899A (en) | Apparatus for the identification of free-lying cells | |
US5933519A (en) | Cytological slide scoring apparatus | |
CA2130340C (en) | Method for identifying objects using data processing techniques | |
US8064678B2 (en) | Automated detection of cell colonies and coverslip detection using hough transforms | |
US8600143B1 (en) | Method and system for hierarchical tissue analysis and classification | |
US5566249A (en) | Apparatus for detecting bubbles in coverslip adhesive | |
WO2012169088A1 (en) | Image processing apparatus, image processing method and image processing system | |
US20180053299A1 (en) | Method of Detecting Tissue Area of Interest in Digital Pathology Imaging by Executing Computer-Executable Instructions Stored on a Non-Transitory Computer-Readable Medium | |
JPH10506462A (en) | Method and apparatus for detecting inappropriate conditions for automated cytological scoring | |
JP3539581B2 (en) | Particle image analysis method | |
JP3653804B2 (en) | Particle image region segmentation method and apparatus | |
US11501543B2 (en) | System and method for automatic real-time localization of license plate of vehicle from plurality of images of the vehicle | |
JPS5830049B2 (en) | Automatic reticulocyte measurement device | |
EP1095357B1 (en) | Automatic masking of objects in images | |
JPH1090163A (en) | Particle analyzer | |
JP4229325B2 (en) | Peak detection image processing method, program, and apparatus | |
CN116563237B (en) | Deep learning-based chicken carcass defect hyperspectral image detection method | |
WO2000004497A1 (en) | Automatic masking of objects in images | |
JPH0610676B2 (en) | Automatic reticulocyte counter | |
Ting et al. | Automatic Optical Inspection for Millimeter Scale Probe Surface Stripping Defects Using Convolutional Neural Network | |
JPH0125104B2 (en) | ||
WO2023112002A1 (en) | Photomicrographic image-processing method for automatic scanning, detection and classification of particles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040318 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110402 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120402 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120402 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |