JP3539581B2 - Particle image analysis method - Google Patents

Particle image analysis method Download PDF

Info

Publication number
JP3539581B2
JP3539581B2 JP22302794A JP22302794A JP3539581B2 JP 3539581 B2 JP3539581 B2 JP 3539581B2 JP 22302794 A JP22302794 A JP 22302794A JP 22302794 A JP22302794 A JP 22302794A JP 3539581 B2 JP3539581 B2 JP 3539581B2
Authority
JP
Japan
Prior art keywords
image
area
classification
identification
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22302794A
Other languages
Japanese (ja)
Other versions
JPH0886736A (en
Inventor
順 本池
訓 光山
明英 橋詰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP22302794A priority Critical patent/JP3539581B2/en
Publication of JPH0886736A publication Critical patent/JPH0886736A/en
Application granted granted Critical
Publication of JP3539581B2 publication Critical patent/JP3539581B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は粒子の形態情報を用いた粒子の分類方法に係り、特に血液や尿中の粒子画像を分類するのに好適な解析方法に関する。
【0002】
【従来の技術】
尿中の粒子を形態学的に検査するには、従来目視で行うものでは、尿試料を遠心分離し、沈渣物を染色してスライドガラス上に標本を作り、顕微鏡観察することで行っていた。その際、遠心分離の濃縮の度合いを常に一定にし、観察する試料の量も一定にすることで、元の尿試料中にどういう沈渣物がどれだけの濃度で含まれているかを知ることができる。沈渣物の中には、血球細胞や細菌などのように大きさが数マイクロメ−トルの粒子から、円柱などのように数百マイクロメートルの粒子まであり、顕微鏡の倍率を高倍率と低倍率に切り替えて観察する。
連続的に流れているサンプル試料中の粒子画像を撮影し、個々の粒子画像から粒子を分析・分類する試みとしては、特表昭57−500995号、特開昭63−94156号、特開平5−296915号等が知られている。
特表昭57−500995号では、サンプル試料を特別な形状の流路に通し、そこで試料中の粒子を幅広の撮像領域中に流し、フラッシュランプによる静止画像を撮影し、その画像を用い粒子分析する方法が示されている。顕微鏡を用いてサンプル粒子の拡大像をCCDカメラ上に投影するとき、パルス光源であるフラッシュランプがCCDカメラの動作に同期して周期的に発光する。パルス光源の発光時間は短く、粒子が連続的に流れていても静止画像を得ることができ、かつCCDカメラは毎秒30枚の静止画像を撮影することができる。
特開昭63−94156号では、静止画像撮影系とは別にサンプル流れ中の粒子画像撮影領域より上流に粒子検出用光学系を有している。あらかじめ粒子検出部で粒子通過を知り、丁度その粒子が粒子撮像領域に達したとき適当なタイミングでフラッシュランプを点灯させる方法である。この方法ではパルス光源の発光を周期的に行なわず粒子の通過を検出してその時だけタイミングを合わせて静止画像を撮影することができ、効率的に粒子画像が集められ、濃度の薄いサンプル試料でも無意味な粒子の存在しない画像を処理することはない。
特開平5−296915号では、さらに粒子検出用光学系を粒子画像撮像系の中に組み込んだ方法が示されている。すなわち、粒子検出用レーザ光束が、顕微鏡画像撮像系の顕微鏡コンデンサレンズを通してサンプル試料流れに照射する方法が述べられている。これは、粒子検出用の光学系を別に用意する必要がないこと、粒子検出位置をできるだけ粒子画像取り込み領域に近づけて配置できる特徴がある。
従来この種の解析方法は、まず、撮像された画像について対象物(解析対象の粒子)が占める領域と解析対象の粒子が存在しない背景領域とを見分け、撮像された画像を意味を持つ部分画像に分割する。この意味を持つ部分画像に分割する操作を画像の領域分割と言い、その方法については、例えば「画像処理:共立出版、1983年刊」に記載されている。領域分割によって解析対象の2値画像を作成し、ノイズ除去、穴埋め処理によって2値画像を整形する。ノイズ除去、穴埋め処理は画像の収縮と膨張処理の組み合わせによって行うことができ、例えば「コンピュータ画像処理入門:総研出版、1985年刊」に記載されている。2値画像の整形処理を行なったのち、2値画像に含まれる同じ連結成分に属する全ての画素に同じラベル(番号)を割り当て、異なった連結成分には異なったラベルを割り当てる。従って、ラベル数は連結成分の数を示す。この様な操作を連結成分のラベリング(ラベル処理)と言い、例えば「コンピュータ画像処理入門:総研出版、1985年刊」に記載されている。なお、連結成分とは、2値画像の画素点(1の領域)の連なり(領域)を意味し、例えばある点から順次8近傍を辿って次の点へ到達可能であるような点全てを8連結成分と言う。次に、解析対象の幾何学的特徴を示す特徴量(連結成分ごとの領域の大きさ、形、あるいは元の画像での領域に対応する濃度情報など)を求め、分析・分類を行う。例えば、血球像等においては特公昭58−29872号に記載のように細胞の形態情報、濃度情報を用いて画像中の細胞一個一個について分類しカテゴリー毎の出現細胞割合で報告していた。
【0003】
【発明が解決しようとする課題】
しかしながら、この方法では必ずしも適確に分類が行えないという欠点があった。特に無染色細胞(染色剤に染まらない細胞)や淡染色(染色剤に濃く染まらない細胞)細胞のような場合背景と区別がつかず、画像中の細胞領域を完全に抽出できないために対象が小領域に分割され、連結成分数が多く検出されることによって、見かけ上分類対象が多くなるという問題があった。
本発明の目的は、画像中で複数個存在する連結成分について最適な分析・分類すべき粒子数および画像中の粒子の状態を記述することにより安定な粒子画像の解析方法を提供することにある。
【0004】
【課題を解決するための手段】
上記目的は、まず、画像中で分割された領域の個数と、各領域毎の画像中での位置情報から全体の粒子の分布状態を求め、最大値を持つ粒子領域の面積から識別分類すべき粒子数を決定することによって達成される。
より具体的には、計算機(図2の109)の制御により領域分割回路(図2の105)にて、撮像した画像中から分類対象毎の領域を分割するステップ(図3のS10)と、計算機の制御により画像処理回路(図2の106)にて、前記分割した領域の処理対象となる連結成分をラベリング処理し、ラベル毎の特徴量(例えば面積等)を求めるステップ(図3のS20,30)と、計算機の制御により識別制御回路(図2の111)にて、前記ラベル数と特徴量を基に識別方式を決定するステップ(図3の40)と、その識別制御回路にて、前記方式で粒子毎の識別分類を行うステップ(図3の50)と、計算機にて、前記識別分類結果に応じた粒子単位のカテゴリ別加算あるいは画像単位のランク別加算を行い、出力装置にて画像中の粒子の出現状況を出力させるステップ(図3のS60)と有する。また、前記分割領域数を決定するステップでは、1画像中に抽出された領域の連結成分数(前記S20のラベリング処理で付与されたラベル数)が複数の場合は、1画像中での識別分類を行う領域の連結成分数を限定し、あるいは、1画像中に抽出された領域の連結成分数が規定の値以下のときにのみ検出された領域の粒子すべての識別分類を行い、あるいは、1画像中に抽出された領域の連結成分の大きさの順に識別分類を行う(例えば、ラベルの面積の大きい順に処理個数を設定する)。また、前記出現状況を出力するステップでは、粒子個々の分類結果(カテゴリ別の出現粒子数)を出力するとともに、複数の粒子が存在した画像数をラベル数に応じてランク別に出力する。
【0005】
【作用】
本発明においては、計算機の指示により識別制御回路にて、予め抽出した領域の連結成分数および連結成分毎の領域の特徴量(空間的な広がり)を基に識別方式を決定し(識別前処理)、その方式で粒子単位あるいは画像単位に識別を行う。さらに、計算機にて、識別結果を画像単位および粒子単位に記述し、それを出力装置に出力させる。これにより、オペレータは1サンプルの画像全体の粒子出現状況を適確に把握することができる。
すなわち、円柱を例に取ると、撮像された画像中における染色された円柱を領域分割処理によって2値化処理し、2値画像の整形処理を行えば図1(a)に示すようになる。この場合、2値画像における解析対象の連結成分数は1(ラベル数1)であり、処理対象となる領域10の情報を求めることによって識別できる。検出粒子が、淡染色された場合は図1(b)のように全体が均一に領域分割されずに濃度の淡いところ(背景と区別がつけにくい部分)が複数の領域に分割されてしまい、ラベリング処理で求めたラベル数(連結成分数)は複数個となる。このような場合は、各ラベルの分布状態と検出領域の大きさにより処理すべき対象の個数を定めて分類し、さらに画像中の検出粒子数を記憶する。また、染色剤に染まらなかった場合は、図1(c)のように円柱の全体が微小領域に分割され、ラベリング処理による検出領域数が図1(b)にくらべて非常に多くラベル付けされることになる。このような場合は、画像上での分布の広がり方はある一定の広がり方を持っているので、ラベル付けされた個々の粒子の分類結果よりも画像単位の結果を報告する。このことは、画像において検出粒子数が少ないときはラベル付けされた検出粒子を全て分類対象とし、画像中において検出粒子が多く存在した場合は検出粒子の分布状態により画像単位の分類か細胞単位の分類かを決定することにより行なう。これより、粒子画像の分類が正確かつ安定に行える。
【0006】
【実施例】
以下、本発明を実施例により詳細に説明する。図2は、本発明を実施するための装置構成を示す。まず、流体中の粒子はパルスランプによって照射され光学的拡大手段よって拡大され、色フィルタを介して光電変換器101によりアナログ電気信号に変換される。光電変換器101の出力は画像入力部102に導かれディジタル信号に変換さる。画像入力部102の出力は画像データバス107を経由して画像メモリ103に記憶される。この時、画像メモリ103は複数のフレームで構成されおり各色フィルタに対応する画像と演算画像などを記憶する。画像入力部102の出力は画像データバス107を経由して領域分割回路105に導かれ濃度情報を利用した領域分割方法により対象領域を抽出し、領域分割画像を画像メモリ104に出力し記憶する。画像メモリ104に記憶された画像は画像処理回路106に導かれ、画像の太め、細め処理などのフィルタリング処理とラベリング処理を行ない画像メモリ104に記憶する。さらに画像処理回路106はラベリング処理した画像の各領域毎に特徴量を求め、CPUバス108を経由して識別制御回路111に転送する。識別制御回路111は計算機109の指示により各領域毎の特徴量から識別処理を行ない、識別結果をCPU109に転送する。計算機109は規定量の処理が終了した時点で処理結果を出力装置110に出力する。以上の、処理の制御、データの転送はすべて計算機109がCPUバス109を経由して制御する。また、識別結果に応じて画像メモリ103の内容を画像記憶装置112に記憶する。ここで、画像記憶装置112はデジタル信号が記憶できる半導体メモリ装置、磁気あるいは光磁気記憶装置、およびデジタルビデオテープ記録装置、また、デジタル信号をアナログ信号に変換してビデオテープ記憶装置などが考えられる。
【0007】
以下、計算機109で行う処理手順について図4から図6を用いて説明する。なお、図3は計算機109の処理手順を示すフローチャート、図4およびから図6は図3における処理の詳細フローを示す図、図5は分布状態のひとつの指標を示す図である。
まず、計算機109は画像入力した後の画像から濃度情報を利用した領域分割処理により画像中の対象領域を抽出させる(ステップS10)。画像中の対象領域の抽出は、画像の濃度ヒストグラムを作成し、濃度ヒストグラム上で背景の平均濃度と対象の平均濃度付近にあるピークを検出し、この2つのピーク位置の間にある谷の底を求め、谷の底の濃度値をしきい値とする2値化によって2値画像を作成するものである。
【0008】
この後、画像処理回路106に指示しノイズ除去、穴埋め処理によって2値画像の整形処理を行い、処理対象となる連結成分のラベリング処理によって連結成分をラベル付けさせる(ステップS20)。2値画像のノイズ除去、穴埋め処理は、画像の収縮と膨張処理を繰り返す(膨張→収縮→収縮→膨張を1動作とし、これを繰り返す)ことによって行う。
【0009】
次に、各連結成分(ラベル)毎の領域の特徴量を算出させる(ステップS30)。ここで言う特徴量とは例えば「画像処理:共立出版、1983年刊」に記載のように、領域の画像上での面積、周囲長、円形度、各波長成分の平均濃度などを指す。
【0010】
次に、識別前処理では識別制御回路111にてステップ30で求めた特徴量を基に識別方式を決定させる(ステップS40)。ステップS40の詳細は図4に示すように、ステップS30で求めた特徴量のうち面積情報の大きさで並べ替え(ソーティング)(ステップS41)、次に、統計量を算出する(ステップS42)。ここで得る統計量とは、例えばラベル数分の領域の偏差値σx、σyと、図5に示すように座標の水平方向の偏差値σxと垂直方向の偏差値σyから角度θを次式(1)によって求める。
θ=tan-1(σy/σx)…(1)
次に、ステップS42で求めた統計量から識別方法を決定する(ステップS43)。まず、ラベル数がk0未満の場合は、ラベル全部について処理する粒子単位識別を行なう方式とする。ラベル数がk0以上k1未満の場合は、最大面積によって処理個数を設定し、例えば最大面積がs以下で角度θがt0〜t1の場合は面積の大きい順にm1個処理し、角度θがt0〜t1以外の場合はm2個処理する。最大面積がs以上の場合はm3個処理する。ラベル数がk1以上の場合は画像単位識別として粒子単位の識別を行わない。ここで、k0は実験的に定まる値であり通常10を設定し、k1は20を設定する。またsは、領域分割処理によって定まる値であり通常1000程度を設定する。角度範囲t0、t1はそれぞれ0.5、0.7を設定する。粒子の処理個数m1、m2、m3はそれぞれ10、5、3を設定する。
【0011】
次に、識別制御回路111にてステップS40で決定された方式に沿って識別させる(ステップS50)。識別処理の詳細は、図6に示すように、まず、粒子単位の識別か否かの判定により(ステップS51)粒子単位ではない場合は本処理はスキップする。粒子単位識別の場合は指定された粒子各々について識別する(ステップS52、S53)。
【0012】
次に、計算機109はステップS50の識別結果を基に図7に示すような表を記憶・更新し、出力装置110にて出力させる(S60)。例えば粒子単位識別の場合は、計算機109にて識別結果に応じたカテゴリー毎の加算を行うと共に、画像のラベル数に応じたランクの加算を行う。また、画像単位識別の場合はラベル数により各ランク毎の加算を行なう。画像単位のランクの設定はラベル数により、例えば、ランクAはラベル数が1、ランクBはラベル数が2〜5、ランクCはラベル数が5〜9、ランクDはラベル数が10〜19のように設定する。また、この時画像単位の識別結果に応じて画像記憶装置112に画像メモリ103の内容を記憶する指示を出すことも可能である。
以上が入力した1画像の処理である。この処理を定められた画像数分だけ行なうことによって1つのシーケンスが終了し、図7で示すような表を出力することによって一連の処理は終了する。このように画像単位の情報を持ち、1サンプル全体の構成を把握することによって、データの信頼性が高まり解析結果の裏づけにも役立つ。
【0013】
【発明の効果】
本発明によれば、画像中に複数の粒子が存在していたり、また、背景部と濃度差のない無染色細胞や淡染色細胞が領域分割処理で複数部分に分割されても、画像全体を記述できるので、効率の良い粒子の解析を安定に行うことができる。
【図面の簡単な説明】
【図1】本発明の原理説明図である。
【図2】本発明の一実施例における粒子画像解析装置の構成図である。
【図3】本発明の一実施例における識別処理を示すフローチャートである。
【図4】本発明の一実施例における識別前処理の詳細を示すフローチャートである。
【図5】本発明の一実施例における粒子の広がりを記述するための説明図である。
【図6】本発明の一実施例における識別処理の詳細を示すフローチャートである。
【図7】本発明の一実施例における識別結果を説明するための図である。
【符号の説明】
10:基本的な粒子像、101:光電変換器、102:画像入力部、103,104:画像メモリ、105:領域分割回路、106:画像処理回路、107:画像データバス、108:CPUバス、109:計算機、110:出力装置、111:識別制御回路、112:画像記憶装置。
[0001]
[Industrial applications]
The present invention relates to a method for classifying particles using morphological information of particles, and more particularly to an analysis method suitable for classifying blood or urine particle images.
[0002]
[Prior art]
Conventionally, morphological examination of particles in urine has been carried out by visual inspection, in which a urine sample is centrifuged, the sediment is stained, a specimen is prepared on a slide glass, and observed under a microscope. . At this time, by keeping the concentration of centrifugation constant and the amount of the sample to be observed constant, it is possible to know what kind of sediment is contained in the original urine sample and at what concentration. . In the sediment, there are particles ranging in size from a few micrometers, such as blood cells and bacteria, to particles, hundreds of micrometers, such as cylinders. Switch and observe.
Attempts to take images of particles in a continuously flowing sample sample and analyze and classify the particles from individual particle images include JP-A-57-500995, JP-A-63-94156, and JP-A-5-59156. No. 296915 is known.
In Japanese Patent Publication No. 57-500995, a sample sample is passed through a specially shaped flow path, in which particles in the sample are caused to flow through a wide imaging area, a still image is taken with a flash lamp, and particle analysis is performed using the image. How to do is shown. When an enlarged image of sample particles is projected on a CCD camera using a microscope, a flash lamp as a pulse light source periodically emits light in synchronization with the operation of the CCD camera. The light emission time of the pulse light source is short, a still image can be obtained even when particles are continuously flowing, and the CCD camera can capture 30 still images per second.
In Japanese Patent Application Laid-Open No. 63-94156, a particle detection optical system is provided upstream of a particle image photographing area in a sample flow separately from a still image photographing system. This is a method in which the particle detection unit detects the passage of particles in advance and turns on the flash lamp at an appropriate timing when the particles reach the particle imaging region. In this method, the passage of particles is detected without periodic light emission of the pulse light source, and a still image can be taken at the same time only at that time. It does not process images without meaningless particles.
Japanese Patent Application Laid-Open No. 5-296915 discloses a method in which a particle detection optical system is further incorporated into a particle image pickup system. That is, a method of irradiating a sample sample flow with a laser beam for particle detection through a microscope condenser lens of a microscope image capturing system is described. This is characterized in that it is not necessary to separately prepare an optical system for detecting particles, and the particle detection position can be arranged as close to the particle image capturing area as possible.
Conventionally, this type of analysis method first distinguishes between a region occupied by an object (particles to be analyzed) and a background region where no particles to be analyzed exist in a captured image, and converts the captured image into a partial image having a meaning. Divided into The operation of dividing the image into partial images having this meaning is called image region division, and the method is described in, for example, "Image Processing: Kyoritsu Shuppan, 1983". A binary image to be analyzed is created by region division, and the binary image is shaped by noise removal and filling processing. The noise removal and fill processing can be performed by a combination of image contraction and dilation processing, and are described, for example, in "Introduction to Computer Image Processing: Soken Shuppan, 1985". After shaping the binary image, the same label (number) is assigned to all pixels belonging to the same connected component included in the binary image, and different labels are assigned to different connected components. Therefore, the number of labels indicates the number of connected components. Such an operation is called labeling of connected components (label processing), and is described in, for example, "Introduction to Computer Image Processing: Soken Shuppan, 1985". The connected component means a series (area) of pixel points (area 1) of the binary image. For example, all points that can reach the next point by sequentially tracing eight neighborhoods from a certain point are considered. It is called eight connected components. Next, a feature amount (a size and a shape of a region for each connected component, or density information corresponding to a region in the original image, etc.) indicating a geometric feature to be analyzed is obtained, and analysis and classification are performed. For example, in a blood cell image and the like, as described in JP-B-58-29872, each cell in an image is classified using the morphological information and density information of the cell, and the appearance cell ratio for each category is reported.
[0003]
[Problems to be solved by the invention]
However, this method has a disadvantage that classification cannot always be performed accurately. In particular, in the case of unstained cells (cells that do not stain the stain) or lightly stained (cells that do not stain the stain deeply), the target cannot be distinguished from the background because the cell region in the image cannot be completely extracted. There is a problem that the number of connected components is apparently increased due to division into small regions and detection of a large number of connected components.
An object of the present invention is to provide a stable particle image analysis method by describing the number of particles to be optimally analyzed / classified and the state of particles in the image for a plurality of connected components in an image. .
[0004]
[Means for Solving the Problems]
The above purpose is to first obtain the distribution state of the whole particles from the number of divided regions in the image and the position information in the image for each region, and to classify and classify from the area of the particle region having the maximum value Achieved by determining the number of particles.
More specifically, a step (S10 in FIG. 3) of dividing a region for each classification target from the captured image by the region dividing circuit (105 in FIG. 2) under the control of the computer (109 in FIG. 2); Under the control of the computer, the image processing circuit (106 in FIG. 2) performs labeling processing on the connected components to be processed in the divided area, and obtains a feature amount (for example, area or the like) for each label (S20 in FIG. 3). , 30), a step of determining an identification method based on the number of labels and the feature amount (40 in FIG. 3) in an identification control circuit (111 in FIG. 2) under the control of a computer, and the identification control circuit A step of performing classification and classification for each particle by the above-mentioned method (50 in FIG. 3), and performing, by a computer, addition by category of each particle or addition by rank of each image in accordance with the result of the classification and classification; Particles in the image A step (S60 of FIG. 3) to output the appearance status. In the step of determining the number of divided areas, when the number of connected components of the area extracted in one image (the number of labels given in the labeling process in S20) is plural, the identification classification in one image is performed. The number of connected components of the region to be performed is limited, or the identification and classification of all particles in the detected region is performed only when the number of connected components of the region extracted in one image is equal to or less than a predetermined value. Identification and classification are performed in the order of the size of the connected components of the regions extracted in the image (for example, the number of processes is set in the order of the area of the label). In the step of outputting the appearance status, the classification result of each particle (the number of appearance particles for each category) is output, and the number of images in which a plurality of particles exist is output for each rank according to the number of labels.
[0005]
[Action]
According to the present invention, the identification control circuit determines the identification method based on the number of connected components of the region extracted in advance and the feature amount (spatial spread) of the region for each connected component in accordance with a computer instruction (pre-identification processing). ), Identification is performed in particle units or image units in that manner. Further, the computer describes the identification result in image units and particle units, and outputs the result to an output device. As a result, the operator can accurately grasp the appearance of particles in the entire image of one sample.
That is, taking a cylinder as an example, a stained cylinder in a captured image is binarized by a region division process, and a binary image is shaped as shown in FIG. 1A. In this case, the number of connected components to be analyzed in the binary image is 1 (the number of labels is 1) and can be identified by obtaining information on the region 10 to be processed. When the detection particles are lightly stained, as shown in FIG. 1 (b), the whole is not uniformly divided into regions, and a portion having a low concentration (a portion that is difficult to distinguish from the background) is divided into a plurality of regions. The number of labels (the number of connected components) obtained by the labeling process is plural. In such a case, the number of targets to be processed is determined and classified based on the distribution state of each label and the size of the detection area, and the number of detected particles in the image is stored. In addition, when the dye was not stained, the entire cylinder was divided into minute regions as shown in FIG. 1 (c), and the number of detection regions by the labeling process was labeled much more than in FIG. 1 (b). Will be. In such a case, since the spread of the distribution on the image has a certain spread, the result of the image unit is reported rather than the classification result of the labeled individual particles. This means that when the number of detected particles is small in the image, all labeled detection particles are to be classified, and when there are many detected particles in the image, the classification of image units or the cell unit depending on the distribution state of detected particles. This is done by deciding whether to classify. Thereby, the classification of the particle images can be performed accurately and stably.
[0006]
【Example】
Hereinafter, the present invention will be described in detail with reference to examples. FIG. 2 shows an apparatus configuration for carrying out the present invention. First, particles in a fluid are irradiated by a pulse lamp, expanded by an optical expansion unit, and converted into an analog electric signal by a photoelectric converter 101 via a color filter. The output of the photoelectric converter 101 is guided to an image input unit 102 and converted into a digital signal. The output of the image input unit 102 is stored in the image memory 103 via the image data bus 107. At this time, the image memory 103 is composed of a plurality of frames and stores an image corresponding to each color filter, a calculated image, and the like. The output of the image input unit 102 is guided to a region dividing circuit 105 via an image data bus 107, and a target region is extracted by a region dividing method using density information, and the region divided image is output to an image memory 104 and stored. The image stored in the image memory 104 is guided to the image processing circuit 106, where the image processing circuit 106 performs filtering processing such as thickening and thinning of the image and labeling processing, and stores the processed image in the image memory 104. Further, the image processing circuit 106 obtains a characteristic amount for each area of the image subjected to the labeling processing, and transfers the characteristic amount to the identification control circuit 111 via the CPU bus 108. The discrimination control circuit 111 performs a discrimination process based on the feature amount of each area according to an instruction from the computer 109, and transfers a discrimination result to the CPU 109. The computer 109 outputs the processing result to the output device 110 when the processing of the specified amount is completed. The above-described processing control and data transfer are all controlled by the computer 109 via the CPU bus 109. The content of the image memory 103 is stored in the image storage device 112 according to the identification result. Here, the image storage device 112 may be a semiconductor memory device capable of storing digital signals, a magnetic or magneto-optical storage device, a digital video tape recording device, or a video tape storage device that converts a digital signal into an analog signal. .
[0007]
Hereinafter, a processing procedure performed by the computer 109 will be described with reference to FIGS. 3 is a flowchart showing the processing procedure of the computer 109, FIGS. 4 to 6 are diagrams showing a detailed flow of the process in FIG. 3, and FIG. 5 is a diagram showing one index of the distribution state.
First, the computer 109 extracts a target area in the image from the image after the image input by the area dividing process using the density information (step S10). To extract the target area in the image, a density histogram of the image is created, the average density of the background and the peak near the target average density are detected on the density histogram, and the bottom of the valley between these two peak positions is detected. And a binary image is created by binarization using the density value at the bottom of the valley as a threshold value.
[0008]
Thereafter, the image processing circuit 106 is instructed to perform a binary image shaping process by a noise removal and a filling process, and the connected components are labeled by a connected component labeling process (step S20). The noise removal and filling processing of the binary image are performed by repeating the contraction and dilation processing of the image (dilation → contraction → contraction → dilation is performed as one operation, and this is repeated).
[0009]
Next, the feature amount of the region for each connected component (label) is calculated (step S30). The feature amount referred to here refers to, for example, the area of the region on the image, the perimeter, the circularity, the average density of each wavelength component, and the like, as described in “Image Processing: Kyoritsu Shuppan, 1983”.
[0010]
Next, in the pre-identification processing, the identification method is determined by the identification control circuit 111 based on the feature amount obtained in step 30 (step S40). As shown in FIG. 4, details of step S40 are rearranged (sorted) by the size of the area information among the feature amounts obtained in step S30 (step S41), and then a statistic is calculated (step S42). The statistics obtained here are, for example, the angle θ from the deviation values σx and σy of the number of labels and the horizontal deviation value σx and the vertical deviation value σy of the coordinates as shown in FIG. Determined by 1).
θ = tan −1 (σy / σx) (1)
Next, an identification method is determined from the statistics obtained in step S42 (step S43). First, when the number of labels is less than k0, a method of performing particle unit identification for processing all labels is adopted. When the number of labels is k0 or more and less than k1, the processing number is set according to the maximum area. For example, when the maximum area is s or less and the angle θ is t0 to t1, m1 processing is performed in the descending order of the area. In cases other than t1, m2 processing is performed. If the maximum area is s or more, m3 processing is performed. When the number of labels is equal to or larger than k1, identification of particle units is not performed as identification of image units. Here, k0 is a value determined experimentally and is usually set to 10, and k1 is set to 20. S is a value determined by the area dividing process, and is usually set to about 1000. The angle ranges t0 and t1 are set to 0.5 and 0.7, respectively. The processing numbers m1, m2, and m3 of the particles are set to 10, 5, and 3, respectively.
[0011]
Next, the identification is performed by the identification control circuit 111 according to the method determined in step S40 (step S50). As shown in FIG. 6, the details of the identification processing are as follows. First, when it is determined that the identification is not a particle unit (step S51), the processing is skipped if the identification is not a particle unit. In the case of the particle unit identification, each specified particle is identified (steps S52 and S53).
[0012]
Next, the computer 109 stores and updates a table as shown in FIG. 7 based on the identification result of step S50, and causes the output device 110 to output the table (S60). For example, in the case of particle-based identification, the computer 109 performs addition for each category according to the identification result, and also adds rank according to the number of labels of the image. In the case of image unit identification, addition is performed for each rank according to the number of labels. The rank of each image is set according to the number of labels. For example, rank A has 1 label, rank B has 2 to 5 labels, rank C has 5 to 9 labels, and rank D has 10 to 19 labels. Set as follows. At this time, it is also possible to instruct the image storage device 112 to store the contents of the image memory 103 according to the identification result of each image.
The above is the processing of one input image. One sequence is completed by performing this process for a predetermined number of images, and a series of processes is completed by outputting a table as shown in FIG. As described above, by holding the information of each image and grasping the configuration of one sample as a whole, the reliability of the data is enhanced and the analysis result is useful.
[0013]
【The invention's effect】
According to the present invention, even if a plurality of particles are present in the image, or even if unstained cells or lightly stained cells having no density difference from the background portion are divided into a plurality of portions by the region dividing process, the entire image is Since it can be described, efficient particle analysis can be stably performed.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a configuration diagram of a particle image analyzer according to one embodiment of the present invention.
FIG. 3 is a flowchart illustrating an identification process according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating details of pre-identification processing according to an embodiment of the present invention.
FIG. 5 is an explanatory diagram for describing the spread of particles in one embodiment of the present invention.
FIG. 6 is a flowchart illustrating details of an identification process according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining an identification result in one embodiment of the present invention.
[Explanation of symbols]
10: basic particle image, 101: photoelectric converter, 102: image input unit, 103, 104: image memory, 105: area dividing circuit, 106: image processing circuit, 107: image data bus, 108: CPU bus, 109: computer, 110: output device, 111: identification control circuit, 112: image storage device.

Claims (6)

液体中に懸濁する粒子サンプルをフローセル中に流し、フローセル中の粒子検出領域を通過する粒子を検出し、前記フローセル中の撮像領域を通過した検出粒子の静止画像を撮像し、撮像した粒子画像を画像解析することにより粒子の形態学的分類を行う粒子画像の解析方法において、
撮像した画像を領域分割し分類対象毎の領域を抽出する第1のステップと、
該第1のステップで抽出した領域の個数と各領域の画像上での位置および面積を含む領域の特徴量を求める第2のステップと、
該第2のステップで求めた領域数と領域毎の特徴量とに基づき、前記第1のステップで抽出した領域に対する識別方式を決定する第3のステップと、
該第3のステップで決定された識別方式に沿って当該領域に対する識別分類を行う第4のステップと
を有することを特徴とする粒子画像の解析方法。
Flowing a particle sample suspended in a liquid into a flow cell, detecting particles passing through a particle detection region in the flow cell, capturing a still image of the detected particles passing through the imaging region in the flow cell, and capturing the captured particle image In a particle image analysis method for performing morphological classification of particles by image analysis of
A first step of extracting an area of each classification target images captured by the area dividing,
A second step of obtaining a feature quantity for each region including a position and area on the image of the number and the area of the region extracted in the first step,
A third step of determining, based on the number of regions obtained in the second step and the feature amount of each region, an identification scheme for said first region extracted in step,
And a fourth step of performing classification and classification on the area in accordance with the classification method determined in the third step .
前記第2のステップで求めた前記領域数が規定の値k0以上の場合、前記第3のステップでは、識別分類を行う領域数を限定する識別方式に決定することを特徴とする請求項1記載の粒子画像の解析方法。If the said number of areas obtained in the second step is a value k0 more defined, in the third step, claims and determines the detection method to limit the realm that make their identification and categorization 1 Analysis method of the described particle image. 前記第2のステップで求めた前記領域が規定の値k0未満の場合、前記第3のステップでは、前記第1のステップで抽出した領域すべてについて識別分類を行う識別方式に決定することを特徴とする請求項1記載の粒子画像の解析方法。If the said number of areas obtained in the second step is less than the prescribed value k0, wherein in the third step, determining the identification system in which the identification and categorization for realm all extracted in the first step 2. The method for analyzing a particle image according to claim 1, wherein: 前記第2のステップで求めた前記領域数が規定の値k0以上k1未満の場合、前記第3のステップでは、前記第2のステップで求めた最大面積および位置によって決定される数分、面積の大き順に領域に対する識別分類を行う識別方式に決定することを特徴とする請求項1記載の粒子画像の解析方法。 When the number of regions obtained in the second step is equal to or more than a prescribed value k0 and less than k1, in the third step, the number of areas determined by the maximum area and the position obtained in the second step is equal to the number of areas . analyzing method according to claim 1, wherein the particle image and determining the identification method of performing have magnitude order identification classification for the area. 請求項2から請求項4のいずれかに記載の粒子画像の解析方法であって、
前記第3のステップで決定された識別方式に沿って前記第4のステップで行われた識別分類結果として、各領域が識別分類されたカテゴリー毎の加算値と、領域数に応じて設定される画像のランク毎の加算値とを出力する第5のステップを有することを特徴とする粒子画像の解析方法。
A method for analyzing a particle image according to any one of claims 2 to 4,
As a result of the classification performed in the fourth step according to the classification method determined in the third step, each area is set in accordance with an addition value for each category in which each area is classified and classified, and the number of areas. 5. A method for analyzing a particle image, comprising: a fifth step of outputting an added value for each rank of an image.
前記第2のステップで求めた前記領域数が規定の値k1以上の場合、前記第3のステップでは、領域数に応じて設定される画像のランク毎の加算を行い、該ランク毎の加算値を出力する画像単位の分類識別方式に決定することを特徴とする請求項1記載の粒子画像の解析方法。When the number of regions obtained in the second step is equal to or more than a prescribed value k1, in the third step, addition is performed for each rank of an image set according to the number of regions, and the added value for each rank is calculated. 2. The particle image analysis method according to claim 1, wherein the method is determined as a classification and identification method for each image to be output.
JP22302794A 1994-09-19 1994-09-19 Particle image analysis method Expired - Fee Related JP3539581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22302794A JP3539581B2 (en) 1994-09-19 1994-09-19 Particle image analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22302794A JP3539581B2 (en) 1994-09-19 1994-09-19 Particle image analysis method

Publications (2)

Publication Number Publication Date
JPH0886736A JPH0886736A (en) 1996-04-02
JP3539581B2 true JP3539581B2 (en) 2004-07-07

Family

ID=16791698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22302794A Expired - Fee Related JP3539581B2 (en) 1994-09-19 1994-09-19 Particle image analysis method

Country Status (1)

Country Link
JP (1) JP3539581B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5906623B2 (en) * 2011-09-09 2016-04-20 コニカミノルタ株式会社 Biological substance expression level evaluation system
JP2022051447A (en) * 2020-09-18 2022-03-31 シスメックス株式会社 Cell analysis method and cell analysis device

Also Published As

Publication number Publication date
JPH0886736A (en) 1996-04-02

Similar Documents

Publication Publication Date Title
US7268939B1 (en) Tracking of cells with a compact microscope imaging system with intelligent controls
US7869641B2 (en) System and method for finding regions of interest for microscopic digital montage imaging
JP3822242B2 (en) Method and apparatus for evaluating slide and sample preparation quality
US6137899A (en) Apparatus for the identification of free-lying cells
US5933519A (en) Cytological slide scoring apparatus
CA2130340C (en) Method for identifying objects using data processing techniques
US8064678B2 (en) Automated detection of cell colonies and coverslip detection using hough transforms
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
US5566249A (en) Apparatus for detecting bubbles in coverslip adhesive
WO2012169088A1 (en) Image processing apparatus, image processing method and image processing system
US20180053299A1 (en) Method of Detecting Tissue Area of Interest in Digital Pathology Imaging by Executing Computer-Executable Instructions Stored on a Non-Transitory Computer-Readable Medium
JPH10506462A (en) Method and apparatus for detecting inappropriate conditions for automated cytological scoring
JP3539581B2 (en) Particle image analysis method
JP3653804B2 (en) Particle image region segmentation method and apparatus
US11501543B2 (en) System and method for automatic real-time localization of license plate of vehicle from plurality of images of the vehicle
JPS5830049B2 (en) Automatic reticulocyte measurement device
EP1095357B1 (en) Automatic masking of objects in images
JPH1090163A (en) Particle analyzer
JP4229325B2 (en) Peak detection image processing method, program, and apparatus
CN116563237B (en) Deep learning-based chicken carcass defect hyperspectral image detection method
WO2000004497A1 (en) Automatic masking of objects in images
JPH0610676B2 (en) Automatic reticulocyte counter
Ting et al. Automatic Optical Inspection for Millimeter Scale Probe Surface Stripping Defects Using Convolutional Neural Network
JPH0125104B2 (en)
WO2023112002A1 (en) Photomicrographic image-processing method for automatic scanning, detection and classification of particles

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040318

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees