JP3653804B2 - Particle image region segmentation method and apparatus - Google Patents

Particle image region segmentation method and apparatus Download PDF

Info

Publication number
JP3653804B2
JP3653804B2 JP17178795A JP17178795A JP3653804B2 JP 3653804 B2 JP3653804 B2 JP 3653804B2 JP 17178795 A JP17178795 A JP 17178795A JP 17178795 A JP17178795 A JP 17178795A JP 3653804 B2 JP3653804 B2 JP 3653804B2
Authority
JP
Japan
Prior art keywords
image
region
density
value
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17178795A
Other languages
Japanese (ja)
Other versions
JPH08145871A (en
Inventor
訓 光山
順 本池
明英 橋詰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP17178795A priority Critical patent/JP3653804B2/en
Publication of JPH08145871A publication Critical patent/JPH08145871A/en
Application granted granted Critical
Publication of JP3653804B2 publication Critical patent/JP3653804B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C04CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
    • C04BLIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
    • C04B37/00Joining burned ceramic articles with other burned ceramic articles or other articles by heating
    • C04B37/001Joining burned ceramic articles with other burned ceramic articles or other articles by heating directly with other burned ceramic articles

Description

【0001】
【産業上の利用分野】
本発明は、色彩情報、及び濃度情報を用いた画像の領域分割方法に関し、特に血液や尿中の粒子像を分割するのに好適な領域分割方法、及び装置に関する。
【0002】
【従来の技術】
尿中の粒子を形態学的に検査するには、従来、目視で行なう方法では、尿試料を遠心分離し、沈渣物を染色してスライドガラス上に標本を作り、顕微鏡観察して行っていた。その際、遠心分離での試料の濃縮の度合い、及び観察する試料の量を一定にして、元の尿試料中の、沈渣物の種類とその濃度が求められていた。
【0003】
沈渣物の中には、血球細胞や細菌等のように、大きさが数マイクロメートルの粒子から、円柱などのように数百マイクロメートルの粒子まであり、顕微鏡の倍率を高倍率と低倍率に切り替えて、これら大きさの異なる粒子を観察していた。
【0004】
従来の、顕微鏡観察による目視の検査では、(1)スライドガラスを使用した方法ではスループットが悪く、(2)腐敗の早い尿標本の取り扱いが困難である等、の問題がある。
【0005】
近年、血液像検査は、スライドガラス標本を用いた方式から、血液サンプルを直接に液体試料のままで検査するフロー方式へと移行されつつある。フロー方式では、検体の高速処理が実現できるものと期待されている。
【0006】
連続的に流れているサンプル試料中の粒子画像を撮影し、個々の粒子画像から粒子を分析・分類する試みが、特表昭57−500995号公報、特開昭63−94156号公報に記載されている。
【0007】
特表昭57−500995号公報には、サンプル試料を特別な形状の流路に通し、試料中の粒子を幅広の撮像領域中に流し、フラッシュランプを使用して静止画像を撮影し、この静止画像を用いて粒子分析する方法が記載されている。顕微鏡を用いて、サンプル粒子の拡大像をCCDカメラ上に投影するとき、パルス光源であるフラッシュランプが、CCDカメラの動作に同期して周期的に発光する。パルス光源の発光時間は短く、粒子が連続的に流れていても静止画像を得ることができ、CCDカメラは毎秒30枚の静止画像を撮影できる。
【0008】
特開昭63−94156号公報には、静止画像撮影系とは別に、サンプル流の粒子画像撮影領域よりも上流に、粒子の通過を検出する粒子検出用の光学系を配置する記載がある。予め、粒子検出部で粒子の通過を検出して、丁度その粒子が、粒子撮像領域に達したとき、適当なタイミングでフラッシュランプが点灯する方法である。この方法では、パルス光源の発光を周期的に行なわず、粒子の通過を検出して、その時だけタイミングを合わせてフラッシュランプが点灯して、静止画像を撮影できる。この結果、効率的に粒子画像が集められ、濃度の薄いサンプル試料の場合には、粒子の存在しないサンプル流れの部分では、静止画像は撮影しないので、無駄な画像処理を行なわないで済む。
【0009】
特開平5−296915号公報には、粒子を検出する粒子検出用の光学系を、粒子画像撮像系の中に組み込んだ方法が記載されている。即ち、粒子を検出する粒子検出用のレーザ光束が、顕微鏡画像撮像系の顕微鏡コンデンサレンズを通して、サンプル流れに照射する方法が記載されている。この方法では、粒子を検出する粒子検出用の光学系を、別に用意する必要がなく、粒子検出位置を、できるだけ粒子画像の取り込み領域に近づけて配置できる。
【0010】
このようにして得られる画像の領域分割方法の従来技術として、例えば、血球像の分類を行なう領域分割方法に関する記載が、特開平1−119765号公報にある。この技術では、画像の濃度ヒストグラムにより求めた閾値を用いて色彩空間で、画像の領域を分割する。
【0011】
【発明が解決しようとする課題】
しかし、領域分割の対象となる画像において、分析対象の粒子像の濃度分布が、濃度の小さい値から大きい値まで広く分布する濃度分布の場合には、従来技術では、必ずしも正確な領域分割ができないという問題があった。さらに、分析対象の濃度分布特性が粒子の色調により異なるため、複数の粒子像の領域分割を、同一の画像処理で行なうと、必ずしも正確な領域にならないという問題があった。
【0012】
尿沈渣では、沈渣成分の誤認防止、細胞判定を容易に行なうために、通常、試料は染色される。染色された生体試料の画像を撮影して、色空間で対象粒子を抽出する方法は、幾つかの方法が知られている。しかし、尿沈渣検査装置では、領域分割を行なう対象粒子が、以下のように変化に富んだ性質をもっている。
【0013】
(1)対象粒子の大きさの分布の範囲が、数μmから数百μmと幅広い。
【0014】
(2)色調の異なる複数個の粒子が、同一の画像内に存在する。
【0015】
(3)対象粒子の濃度が、小さい値から大きい値まで変化する場合がある。
【0016】
(4)同一種類の細胞でも、濃く染まる細胞と淡く染まる細胞とがある。
【0017】
(5)対象粒子の濃度が、背景部の濃度と同程度の濃度、又は低い濃度である場合がある。
【0018】
(6)試料の染色により、十分に染色される粒子、染色されにくい粒子(十分に染色されない粒子、ほとんど染色されない粒子)が混在する。
【0019】
以上のように、尿沈渣検査装置での、対象粒子は、変化に富んだ性質をもつため、従来の領域分割方法を、単純に適用できないという問題があった。
【0020】
とくに、対象粒子が十分に染色されない場合には、細胞質濃度と背景濃度に差がほとんどなく、対象粒子が存在する領域の全てが同じ値をもつ、正確な2値画像として抽出できないという問題があった。
【0021】
さらに、活性度の高い細胞は染色性が悪く、ほとんど染色されない細胞が存在し、このような細胞を含む画像では、対象粒子が存在する対象領域と背景領域との色調がほとんど同じで、対象領域の内部に、背景領域と同程度の濃度をもつ部分が多数存在するため、正確にこのような細胞を抽出できないという問題があった。
【0022】
このように、対象粒子が十分(良好に)に染色されず、正確な2値画像が得られない場合には、対象領域の特徴量が正確に求められず、対象粒子の分類を誤る原因となるとういう問題があった。
【0023】
染色性が悪く、ほとんど染色されない細胞等の対象粒子は、高い頻度で発生するため、従来技術では、試料に含まれる全ての粒子について、必ずしも正確な領域分割ができず、沈渣成分の識別精度の向上の妨げとなるという問題があった。
【0024】
上記問題点を解決するため、流体中に点在する粒子を、静止画像として撮影記録し、この静止画像の中から目的とする対象粒子を抽出する領域分割法において、 本発明の第1の目的は、静止画像の中から、濃度差のある粒子像や色調差のある粒子像をも、安定して領域分割して、正確に抽出できる領域分割法を提供することにある。
【0025】
本発明の第2の目的は、静止画像の中から、背景領域との色調差が小さく、対象粒子が存在する対象領域内に、背景領域と同程度の濃度をもつ領域を多数含む粒子像の場合にも、粒子像を安定して、正確に分割できる領域分割方法を提供することにある。
【0026】
本発明の第3の目的は、静止画像の中から、濃度差のある粒子像、色調差のある粒子像、及び、背景領域との色調差が小さく、対象粒子が存在する対象領域内に背景領域と同程度、又は以下の濃度をもつ領域を多数含む粒子像、が混在する場合にも、各粒子像を安定して、正確に分割できる領域分割方法を提供することにある。
【0027】
【課題を解決するための手段】
上記目的は、以下の構成とすることによって、達成される。即ち、粒子画像を入力する画像入力光学系により得た、染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、静止画像として撮影記憶し、前記R画像、前記G画像、及び前記B画像の中の1又は複数の画像を使用して、背景領域と、前記対象粒子が存在する対象領域とを識別する粒子画像の領域分割法であり、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第1群の画像の、それぞれの画像の前記濃度値に対し、前記背景領域と濃度差の大きい領域を分割するための第1群の閾値を設定して、前記第1群の画像から、2値化された第1の2値画像を得る第1の工程と、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第2群の画像の、それぞれの画像を構成する各画素の近傍領域内での、前記濃度値の変化の大きさを表す量を、前記各画素で計算し、前記各画素で求めた前記濃度値の変化の大きさを表わす量に、前記背景領域における前記濃度値の変化と比較し前記濃度値の変化の大きい領域を分割するための第2群の閾値を設定し、前記第2群の画像から、2値化された第2の2値画像を得る第2の工程と、前記第1の2値画像と、前記第2の2値画像との論理演算によって、前記背景領域と、前記対象領域とを表す2値化された第3の2値画像を求める第3の工程と、を有する粒子画像の領域分割法とする。
以下、各構成要件について説明する。まず、本願発明の構成の一部である、濃度値に基づいて、背景領域と対象領域とを識別する構成について、具体的に説明する。<1>即ち、前記第1の目的は、染色された試料が流体とともに流される流れの中から、画像を入力する画像入力光学系により、波長別に分離されて得た、流れの中に点在する目的とする染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、それぞれ静止画像として撮影記憶し、R画像、G画像、及びB画像の中の複数の画像を使用し、背景領域と、対象粒子が存在する対象領域とを識別する、粒子画像の領域分割法であり、R画像、G画像、及びB画像の中から、少なくとも2つの画像を選択して、この2つの画像の各画像に含まれる、画像入力光学系の歪みによる濃度むらを補正する工程と、2つの画像と、複数の閾値(T1、T2、T3、T4)を使用し、背景領域を識別して、2つの画像から、背景領域と、背景領域以外の領域であり対象粒子が存在する対象領域とを表わす、2値化された2値画像を得る工程と、を有し、対象粒子が存在する対象領域を抽出することを特徴とする領域分割法により達成される。この構成により、2値画像に変換された上記の画像から目的とする沈渣成分である対象粒子を抽出することができる。
【0028】
画像入力光学系の歪みによる濃度むらの補正により、上記の少なくとも2つの画像における濃度変動の偏差は小さくなり、背景領域を安定して識別し、正確に抽出できる。上記の2つの画像として、G画像、R画像を選択するのが好ましい。 尿沈渣検査装置で得られる画像では、背景領域は、通常、安定に存在することが判明しているので、背景領域を基準として、対象粒子が存在する対象領域を識別することができる。即ち、背景領域が安定に抽出できるので、背景領域以外の領域に、背景領域と区別して検出すべき対象粒子を表す信号成分が、全て含まれていると考えることができる。
【0029】
上記の2値画像に変換する工程を、上記2つの画像として、G画像、R画像を選択した具体的な場合を例にとって、以下に説明する。G画像、R画像のそれぞれの画像の濃度ヒストグラムを求め、ヒストグラムの最大のピーク値を持つ濃度値を求める。次いで、R画像の濃度ヒストグラムから、閾値T1、T2を求め、G画像の濃度ヒストグラムから、閾値T3、T4求め、背景領域を抽出する。
以下に、各閾値を求め、背景領域を抽出する手順の概要を説明する。
【0030】
(手順1)各画像(G画像、R画像)の濃度ヒストグラムを作成する。
【0031】
(手順2)各濃度ヒストグラムの頻度の最大値をもつ濃度値(最大濃度値)を求める。
【0032】
(手順3)各濃度ヒストグラムのピークの半値幅の位置を与える濃度を求める。
【0033】
(手順4)(手順1)〜(手順3)で求めた、最大濃度値、ピークの半値幅の位置を与える濃度、及び予め定めれらたパラメータから、閾値T1、T2、T3、T4を算出する。
【0034】
(手順5)(手順1)〜(手順4)で算出した閾値T1、T2、T3、T4をもとに、画像空間で2値画像を作成する。背景領域は(数1)により、得られる。
【0035】
{T1≦R(i,j)<T2}∩{T3≦G(i,j)<T4} …(数1)
ここで、∩は論理積、(i,j)は画素の位置を表わし、R(i,j)、G(i,j)はそれぞれ、画像入力光学系の歪みによる濃度むらの補正がなされたR画像、G画像を表わす。
【0036】
〈2〉続いて、本願発明の構成要件の一部である、濃度値の変化の大きさに基づいて、背景領域と対象領域とを識別する構成について、説明する。即ち、前記第2の目的を実現するための、第2の構成について以下説明する。第2の目的は、染色された試料が流体とともに流される流れの中から、画像を入力する画像入力光学系により、波長別に分離されて得た、流れの中に点在する目的とする染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、それぞれ静止画像として撮影記憶し、R画像、G画像、及びB画像の中の1つの画像を使用し、背景領域と、対象粒子が存在する対象領域とを識別する、粒子画像の領域分割法であり、R画像、G画像、及びB画像の中から、所定の1つの画像を選択して、この所定の画像に含まれる、画像入力光学系の歪みによる濃度むらを補正する工程と、前記の所定の画像の濃度値に、背景領域と濃度差の大きい領域を分割するための第1群の閾値(第1、及び第2の閾値)を設定して、2値化された第1の2値画像を得る工程と、上記所定の画像を構成する各点の近傍領域内での、濃度値の変化の大きさを表す量を上記の各点で計算し、これらの各点で求めた濃度値の変化の大きさを表わす量に、背景領域での濃度値の変化と比較し、濃度値の変化の大きい領域を分割するための第2群の閾値(第3の閾値、もしくは第4、及び第5の閾値)を設定して、2値化された第2の2値画像を得る工程と、第1の2値画像と、第2の2値画像との論理演算、例えば、論理和により、背景領域と、背景領域以外の領域であり対象粒子が存在する対象領域とを表わす2値化された第3の2値画像を求める第3の工程と、を有し、第3の2値画像から、背景領域を検出して、対象領域を検出することを特徴とする領域分割法により達成される。
【0037】
なお、上記濃度値の変化の大きさを表す量としては、例えば、▲1▼画像中の近接する2か所の小領域内のそれぞれの濃度値の和の差、又はその絶対値、▲2▼画像中の小領域内での濃度値の分布の分散値、又は標準偏差、▲3▼画像中の小領域に含まれる画素の濃度値の荷重和、又はその絶対値、あるいは▲4▼▲1▼〜▲3▼の何れかの値(濃度値の変化の大きさを表す量)を、新たに濃度値とみなし、再度、▲1▼〜▲3▼の方法を適用する処理を、一回、又は複数回実施して得られる値、を使用する。上記の所定の画像として、G画像を選択するのが好ましい。
【0038】
〈3〉本発明の第3の目的を実現するための、第3の構成について以下説明する。第3の目的は、染色された試料が流体とともに流される流れの中から、画像を入力する画像入力光学系により、波長別に分離されて得た、流れの中に点在する目的とする染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、それぞれ静止画像として撮影記憶し、R画像、G画像、及びB画像の中の複数の画像を使用し、背景領域と、対象粒子が存在する対象領域とを識別する、粒子画像の領域分割法であり、R画像、G画像、及びB画像の中から、少なくとも2つの画像を選択して、この2つの画像に含まれる、画像入力光学系の歪みによる濃度むらを補正するステップAと、上記2つの画像の内の一方の所定の画像を選択して、上記所定の画像を構成する各点の近傍領域内での、濃度値の変化の大きさを表す量を上記の各点で計算し、これらの各点で求めた濃度値の変化の大きさを表わす量に、背景領域での濃度値の変化と比較し、濃度値の変化の大きい領域を分割するための第1の閾値(第1の閾値、もしくは第2、及び第3の閾値)を設定して、2値化された第1の2値画像を得る工程を有するステップBと、上記2つの画像の濃度値に、複数の閾値(T1、T2、T3、T4)を設け、上記所定の画像において、背景領域を識別して、上記所定の画像を、背景領域と、対象粒子が存在する対象領域とを表わす、2値化された第2の2値画像を得る工程を有する、ステップCと、第1の2値画像と、第2の2値画像との論理演算(論理和)により、2値化された第3の2値画像を得る工程を有する、ステップDと、を有し、上記第3の2値画像から、対象粒子が存在する対象領域を検出することを特徴とする領域分割法により達成される。
【0039】
なお、上記ステップAにおいて、上記2つの画像としてG画像、R画像を、上記ステップBにおいて、上記の所定の画像としてG画像を、選択するのが好ましい。上記ステップB、及び上記ステップCの実行は、どちらを先に実行してもよいことは言うまでもない。もちろん、上記ステップB、及び上記ステップCを、同時に平行して実行して、処理時間を短縮するのがより好ましい。
【0040】
〈4〉 本発明の第3の目的を実現するための、第4の構成について以下説明する。上記第1から第3の構成とから得られた2値画像のいずれか2つの2値画像、もしくは3つの2値画像論理演算(論理和)から、新しい領域分割の結果を得る構成とする。上記第1の構成において、所定の画像として、G画像、R画像、B画像の中から異なる2又は3つの画像を順次選択して実行し、得られる複数の第3の2値画像の論理演算、例えば論理和から対象粒子が存在する対象領域を検出する構成としてもよい。
【0041】
【作用】
本発明の第1の構成では、上記の手順により、領域分割の対象となる画像(染色された試料の画像)において、目的とする粒子像の濃度の分布が、濃度の小さい値から大きい値まで広く分布する濃度分布である場合にも、正確な領域分割ができる。さらに、分析対象の濃度分布特性が色調により異なる場合にも領域分割ができる。即ち、染色された試料の画像から、目的とする対象粒子の抽出に際し、濃度差のある粒子像や色調差のある粒子像でも、濃度差、色調差に影響されることなく、安定して正確に領域分割でき、この結果、複数の粒子の領域分割を、同一の画像処理で行なっても、正確な領域として認識できる。
【0042】
本発明の第2の構成では、濃度値の変化の大きさを表す量(上記▲1▼〜▲4▼の方法にて得られた値)として、正値のみをとる量を用いた場合、画像の各点における濃度値を横軸、濃度値の変化の大きさを表す量を縦軸とすると、図1に示すように、背景領域はBG、背景領域よりも高い濃度値をもった対象はA1、背景領域よりも低い濃度値をもった対象はA2、背景領域との濃度差は低く、かつ背景領域に比較し濃度値の変化の大きい対象はB、でそれぞれ示されるように分布する。そこで、濃度値に関し閾値T1’、T2’を、濃度値の変化の大きさに関し閾値T3’を設定して、画像を背景領域と対象領域とに分割できる。
【0043】
また、濃度値の変化の大きさを表す量として、負値も取り得る量を用いた場合、図2に示すように、背景領域はBG、背景領域よりも高い濃度値をもった対象はA1、背景領域よりも低い濃度値をもった対象はA2、背景領域との濃度差は低く、かつ背景領域に比較し濃度値の変化の大きい対象はB1、B2、でそれぞれ示されるように分布する。この場合には、濃度値に関し閾値T1’、T2’を、濃度値の変化の大きさに関し閾値T3”、T4’を設定して、背景領域と対象領域を分割できる。なお、上記▲4▼の方法を用いた場合には、上記濃度値の変化の大きさの閾値により、対象領域をより正確に抽出できる。
【0044】
また、本発明の第2の構成によれば、先に説明したような変化に富んだ性質をもつ対象粒子の領域分割が要求される尿沈渣検査装置において、試料の染色により、対象粒子が十分に染色されず、対象粒子の濃度が背景濃度とほとんど差がなく、このような対象粒子を高い頻度で多数含む試料の場合にも、対象粒子の抽出ができる。試料中に、ほとんど染色されない細胞を含み、対象粒子が存在する対象領域と背景領域との色調差が小さく、対象粒子が存在する対象領域内に、背景領域と同程度の濃度、又は背景領域の濃度より低い濃度をもつ部分(領域)が多数存在する場合にも、対象粒子の抽出を処理速度を低下させることなく、簡単な演算によって、このような対象粒子を、各粒子像毎に安定して正確に抽出し、領域分割を行うことができる。
【0045】
本発明の第3、第4の構成では、試料の染色により、十分に染色される粒子、染色されにくい粒子(十分に染色されない粒子、ほとんど染色されない粒子)が混在する場合にも、各粒子像毎に安定して分割でき、より正確な2値画像が得られ、この結果、対象領域の特徴量がより正確に求められ、対象粒子の分類の誤り防止が可能となる。このように、染色の程度が異なる対象粒子が混在し、染色性が悪く、ほとんど染色されない対象粒子が試料に含まれる場合にも、各粒子像毎に正確な領域分割ができ、各種の沈渣成分の識別精度が向上できるという特徴がある。
【0046】
【実施例】
はじめに、本発明の方法が、好適に適用できる尿沈渣検査について説明する。
【0047】
尿沈渣では、沈渣成分の誤認防止、細胞判定を容易に行なうために、試料は染色されることが多い。代表的な染色法としては、Sternheimer−Malbin(SM)染色と、Sternheimer(S)染色変法とがある。SM染色は、主に白血球の染色性に広く利用されている。一方、S染色変法(以下S染色と略す)は、塩基性色素であるアルシャンブルー、あるいはアストラルブルーと、塩基性色素であるピロニンBを用いた染色法でる。この染色法では、細胞核、及び円柱基質が明瞭に青染され、細胞質やRNA成分が、ピロニンBにより赤染されるため、赤と青のコントラストが高くなるという利点がある。この他にも、各種の染色法が知られている。尿沈渣検査では、染色された試料を使用して、血球細胞、円柱上皮細胞の分類と個数の計数、結晶の種類の識別、酵母様真菌を含む細菌の有無の識別と細菌の種類の判定、等が実行される。
【0048】
以下の各実施例では、一例として、Sternheimer染色変法で染色された尿中の固形物(尿沈渣)を、自動的に分析する尿沈渣検査装置における画像の領域分割について説明する。
【0049】
また、以下の各実施例では、尿試料から遠心分離せずに、染色した試料を、平坦なシースフローを形成するフローセルに流し、フローセルを流れる沈渣粒子に同期させて、パルス光をフローセルに照射して静止画を得て、TVカメラで撮像し、画像処理によって、尿沈渣を識別分類する。以下の各実施例で説明される画像処理は、撮影記録された画像中に存在する複数の沈渣物(検査対象粒子)の識別を、最大でTVカメラの撮像周期(1/30秒)に合わせて、高速処理できる画像処理である。
【0050】
図3に、尿沈渣検査装置の構成例を示す。尿試料22は、染色液24と混合され染色され、フローセル26内で、所定の寸法の厚さ、幅をもつ平坦な形状に整形された後、シース液に包まれ所定の寸法をもつ空間を、等速度で流れる。この装置では、半導体レーザ32からの光が、撮像領域の手前に存在する粒子検出領域に照射され、粒子検出領域を通過する粒子が粒子検出器34で検出され、この粒子検出器34による検出信号に基づいて、一定時間の遅れ(粒子が粒子検出領域から撮像領域に侵入するまでの時間)の後、フラッシュランプ(Xeランプ)30を所定の短時間だけ発光させて、撮像光学系(対物レンズ、リレーレンズ)を通して、撮影領域がTVカメラ36で撮像される。カメラ36の出力信号は、パーソナルコンピュータ28に装填されている画像処理ボードで、赤画像、緑画像、青画像(以下、R画像、G画像、B画像と略す)の波長毎にA/D変換され、各画像とも、512画素×512画素×8ビットに量子化(合計786,432バイトのデータとなる)されて、画像メモリ38に記憶される。この時、A/D変換器(図示せず)の出力は、カメラの黒レベルが0に白レベルが255となる。但し、以下の処理では、処理の都合上、対象を光吸収率で表現するために、黒レベルを255に、白レベルを0とする。
【0051】
画像の入力系において、対物レンズとカメラ間には、倍率拡大用のレンズ移動機構が配置されるため、撮像光学系の歪みによる濃度むらが発生する。この濃度むらを、補正して、除去するために、領域分割の処理を行なう前に、濃度補正処理を行なう。この補正は、R画像、G画像、B画像毎に独立に行なうが、濃度補正処理を行なう対象となる画像は、試料の染色法に従って、最も好ましい条件を満たす画像が予め選択される。
【0052】
本来、対象がない時、又は、光吸収率が無限小の一様な光学特性をもつ対象を撮影した時の画像(白画像)、及び光吸収率が無限大の対象を撮影した時の画像(黒画像)では、理想的には、画像の各画素の値が均一であるが、実際には、光学系の歪みによって、背景の濃度むらが発生する。そこで、実際に測定した、白画像W(i,j)と黒画像B(i,j)とを使用して、入力画像f(i,j)を補正し変換して、歪みが補正された画像f’(i,j)を得る。画像fは、R画像、G画像、B画像のいずれかであり、(i,j)は、画像の画素の位置を表わす。黒レベルの基準値をβ0、白レベルの基準値をα0とし、入力画像f(i,j)の相対値を[β0、α0]の振幅の範囲で表現するものすれば、歪みが補正された画像f’(i,j)は、次の(数2)で表すことができる。
【0053】

Figure 0003653804
但し、i=0,1,2,…,510,511、j=0,1,2,…,510,511である。
【0054】
また近似的に、黒画像B(i,j)の分散が、A/D変換された値で1レベル以下であれば、黒画像B(i,j)をその平均値Bavで置き換え、白画像W(i,j)も各画素毎を参照することなく、小領域の白画像W’(i’,j’)での画素を参照するものとすれば、次の(数3)により、上記と同様の補正ができる。
【0055】
Figure 0003653804
ここで、参照する白画像の小領域の大きさをM×Nとすると、(i’,j’)は参照する座標を示し、
i’=[i/M]
j’=[j/N] …(数4)
であり、[ ]はガウス記号である。例えば、M=N=8とすれば、白画像W’の大きさは、64×64画素分の大きさでよいことになる。
【0056】
黒レベルの基準値β0、白レベルの基準値α0は、各々R画像、G画像、B画像ともに、β0=230、α=40程度の値に設定する。
【0057】
また、白画像は、その画像内で平滑化処理を行なうか、あるいは複数の白画像を計測して、画像の平均処理、又は平滑化処理を行ない、ノイズの影響が低減できる。この補正により、撮影された色画像は、画像全面に渡って濃度が、ほぼ均一になる。以上説明した、画像の補正は、光学系の歪みが、実質的に無視できるときには、省略できることは言うまでもない。
【0058】
以上の説明は、以下の各実施例において、領域分割を行なうに先立って実行される共通する処理である。
【0059】
(実施例1)
実施例1は、本願発明の構成の一部を示す実施例であり、濃度値に基づいて、背景領域と対象領域とを識別する構成について、具体的に説明する。本実施例では、フロー方式で撮像した画像中に存在する、大きさの異なる(数μm〜数百μm)複数個の粒子を効率よく分割するために、TVカメラで波長別に入力した画像から、光学系の濃度むらを補正した後に、赤画像、緑画像の色空間で、背景領域と、対象粒子が存在する対象領域を分割し、背景領域と、対象粒子が存在する対象領域を表わす2値画像を得る。
【0060】
本実施例では、検査対象粒子の自動識別に好適な、青と赤のコントラストが高いS染色で染色した試料の画像から、画像中の沈渣成分の領域を分割する。領域分割は、画像の背景領域を基準として行なう。予め上記で説明した補正処理を行ない、光学系の濃度むらを補正し、濃度変動の偏差を小さくして、背景領域の安定な抽出を行なう。
【0061】
以下、領域分割方法の詳細について説明する。
【0062】
以下に説明する領域分割方法では、S染色で染色された試料の画像から、目的とする対象粒子の対象領域の抽出に際し、濃度差のある粒子像や色調差のある粒子像でも、安定に分割できる特徴がある。
【0063】
染色された生体試料の画像を撮影して、色空間で対象物質(粒子)を抽出する方法は、幾つかの方法が知られている。しかし、尿沈渣検査装置では、領域分割を行なう対象が、先に説明したように、変化に富んた性質を有しており、従来法の領域分割方法は、そのまま単純に適用できない。
【0064】
本発明の発明者の研究によれば、尿沈渣検査装置で得られる画像では、背景領域は、通常、安定に存在することが判明しているので、目的とする対象粒子を検出するために、本発明では、安定に存在する背景領域を先ず識別して、これを基準とする方法を採用した。即ち、背景領域が安定に抽出できれば、背景領域以外の領域に、背景領域と区別して検出すべき対象粒子を表す信号成分が、全て含まれていると考えることができる。
【0065】
顕微分光光度計による、代表的な沈渣粒子を測定した結果から、染色剤の吸収ピークが550nm近辺にあり、波長領域400〜500nm(青成分)での感度に比較し、波長領域500〜700nm(緑成分、赤成分)での感度が高いことが判明した。この結果から、S染色で染色された試料の画像の場合には、領域分割を、G画像、及びR画像空間で行なうことが好ましいことが明らかとなった。 図4は、色空間における背景部の抽出を行なう領域分割を模式的に示す。x軸をG画像の濃度、y軸をR画像の濃度とする。ここで、閾値T1、T2は、R画像の濃度ヒストグラム40から、閾値T3、T4は、G画像の濃度ヒストグラム40’から、それぞれ求められる(なお、図4に示す領域分割法と類似する方法が、特開平6−314338号公報に記載されているが、特開平6−314338号公報では、先に説明した撮像光学系の歪みによる濃度むらの補正はなされていない)。
【0066】
具体的には、各々の画像の濃度ヒストグラムを求め、ヒストグラムの最大のピーク値を持つ濃度値、半幅を与える濃度の値を求める。次いで、これらの値を基にして、対象領域を抽出するに必要な背景領域を識別して取り出す。
【0067】
以下、各閾値を算出し、背景領域を識別し、識別された目的とする対象粒子のパターンについての特徴量を求める手順について、説明する。
【0068】
(手順1):各画像(G画像、R画像)の濃度ヒストグラムを作成する。各画像の画素の位置を(i,j)で表わし、G画像をG(i,j)、R画像をR(i,j)と、それぞれ表わす。
【0069】
(手順2):各濃度ヒストグラムで、図5に示すように頻度の最大値Pmax(*)をもつ濃度値Pd(*)を求める。なお、*は、R、Gのをいずれかを表わす。
【0070】
(手順3):各濃度ヒストグラムで、ピークの半値幅を与える濃度、PhL(*)、Phh(*)を求める。*は、R、Gのをいずれかを表わす。
【0071】
(手順4):(手順1)〜(手順3)で求めた濃度値Pd(*)、PhL(*)、Phh(*)を使用して、次の(数5)〜(数8)により、閾値T1、T2、T3、T4を、それぞれ算出する。R画像から、
T1=Pd(R)−{Pd(R)−PhL(R)}・σ …(数5)
T2=Pd(R)−{Pd(R)−Phh(R)}・σ …(数6)
G画像から、
T3=Pd(G)−{Pd(G)−PhL(G)}・σ …(数7)
T4=Pd(G)−{Pd(G)−Phh(G)}・σ …(数8)
を得る。ここで、σは、予め定められる、実験的に決められるパラメータであり、σは、通常、3.0〜3.5に設定される。
【0072】
(手順5):(手順1)〜(手順4)で算出された閾値T1〜T4をもとに、次の(数9)に従い、画像空間で2値画像を作成する。背景領域(BG)は、
{T1≦R(i,j)<T2}∩{T3≦G(i,j)<T4} …(数9)
により、得られる。ここで、∩は論理積を表す。
【0073】
(手順6):(手順5)で求めた2値画像の修正、整形の処理を行なう。
【0074】
(手順7):(手順5)で求めた背景領域以外の、それぞれ互いに独立した領域に、対象粒子が存在する対象領域として、ラベリングを行なう。
【0075】
(手順8):(手順7)でラベリングされた対象領域のパターンについて、特徴量を求め、対象領域のパターンを識別する。なお、周知の特徴量を、周知の技術によって求め、個々の対象領域のパターンの識別を行なうが、色調別に抽出した対象パターンを、対象粒子の染色程度や、複数の対象粒子の位置状態(接触や重畳の程度)により、(手順6)で得たパターンを合成すれば、さらに安定な対象パターンを得ることができる。
【0076】
本実施例での処理の工程を整理すると、以下のようになる。
【0077】
(1)濃度補正処理:G画像、及びR画像で、光学系の歪みに由来する濃度むらを除去する。
【0078】
(2)領域分割:G画像、及びR画像で複数の閾値を使用して、背景領域と対象領域とに分割し、背景領域を0、対象領域を1とする2値画像を作成する。
【0079】
(3)修正処理:対象領域の穴埋め、背景領域のノイズ除去等の2値画像の修正、整形を行なう。
【0080】
(4)ラベリング:2値画像の連結成分毎にラベリング処理を行い、画像中の複数の対象に番号をつける。
【0081】
(5)特徴量算出:番号をつけたそれぞれの対象につき、面積、周囲長、平均濃度等の特徴量を求める。
【0082】
(6)識別:求めた特徴量をもとに、それぞれの対象が、どのような尿沈渣成分であるかを判断し、分類する。
【0083】
なお、(3)〜(6)では、太め処理、細め処理等のフィルタ処理を含め、周知の従来技術を使用できる。
【0084】
本実施例を、実際の4サンプルから得た99画像に適用した結果、99画像中の93画像において、対象粒子を領域分割して抽出できた。抽出できなかった6画像は、対象粒子が無染色状態の画像、焦点位置の調整不良による画像等であった。
【0085】
図6、図7に本実施例を、実際のサンプルに適用した結果(上記(3)の処理済み)を示す。なお、図6、図7では、横(x)軸、縦(y)軸は、それぞれ0〜511の512画素からなっている。図6は、対象粒子の染色が良好な染色細胞の画像の領域分割結果例、図7は、対象粒子の染色がほとんどされていない細胞の画像の領域分割結果例である。本実施例によれば、図7に示す例のように、対象粒子の染色が十分でない場合、例えば、細胞質濃度と背景濃度に差がなく、完全に抽出できない場合あるが、このような粒子は、以下で説明する、実施例2、実施例3、実施例4による方法により、抽出できる。
【0086】
(実施例2)
以下では、簡単のため、染色液でほとんど染色されない細胞(粒子)を、無染色細胞(粒子)、また、良好に染色された細胞(粒子)を、染色細胞(粒子)と略記する。なお、淡く染色されるが、染色が不十分で、染色が良好でない細胞(粒子)も、以下では無染色細胞(粒子)と呼ぶことにする。
【0087】
目的とする対象粒子が、染色剤により良好に染色される染色粒子の場合には、先に説明した実施例1の領域分割方法により、良好な領域分割ができる。
【0088】
しかし、実際には活性度の高い細胞は染色性が悪く、ほとんど染色されない細胞(無染色細胞)が存在する場合がある。このような無染色細胞は、尿試料中に、高い頻度で存在することが判明している。また、尿試料中には、染色性が良好ではなく、染色が不十分である粒子も存在する。
【0089】
無染色細胞を含む画像では、対象領域と背景領域との色調が、ほぼ同じであり、対象領域の内部に、背景領域と同程度、又は以下の濃度をもつ部分が多数存在する。無染色細胞が、画像の中に存在する場合、実施例1の領域分割方法では、例えば、先に示したように、図7に示す程度の領域分割しかできず、細胞が存在する領域が同じ値をもつ画素で連結されていない。図7のように、正確な2値画像が得られない場合には、対象領域の特徴量が正確に求められず、分類を誤る可能性が非常に高くなる。沈渣成分の識別精度を向上させるには、染色性が悪く、ほとんど染色されない細胞、その他粒子等の対象を、正確に識別する領域分割が、必要となる。
【0090】
無染色細胞(染色液でほとんど染色されない細胞)は、ほぼ透明であり、細胞が存在する領域(対象領域)は、背景領域とほぼ同じ色調をしており、対象領域の内部に、背景領域とほぼ同程度の濃度領域を多数含んでいる。まず、無染色細胞を含む画像と、染色細胞を含む画像との差異について説明する。
【0091】
図8、図9に、それぞれ染色細胞、無染色細胞を含む画像の濃度値の例を示す。
【0092】
以下に示す図8から図13における、横軸は、画像のy方向での、0〜511の512画素の位置を示す。
【0093】
図8に、染色細胞(良好に染色された細胞)を含む画像での、染色細胞を含む領域を通るy方向での1ライン(x=300)についての濃度値のプロットを示す。図9に、無染色細胞を含む画像での、無染色細胞を含む領域を通るy方向での1ライン(x=340)についての濃度値のプロットを示す。
【0094】
図8、図9において、横軸は、画像中での位置(y座標値)、縦軸は濃度値である。濃度値は、0に近いほど色が濃く、255に近いほど色が薄い。図8では、染色細胞の領域の濃度値が、背景領域に比較して、低い値となっている様子が、G画像に顕著に表れている。この場合、図8に示すように、濃度値に、例えば、〜180、〜220の値の閾値を設定すると、G画像において、背景領域と対象領域とを、明確に分割できることが分かる(図8には、参考のために、〜190の閾値を同じに図示してある)。図9と、実際の画像(図示せず)との比較から、周囲に比べ、濃度変化の大きい部分(y=400の近傍)に、細胞が存在することが判明した。図9から、無染色細胞の領域(対象領域)では、背景の領域に比較し、濃度値の大きな部分、及び小さな部分を、それぞれ多数含み、背景の領域と同程度の濃度値をもつ部分も多数含み、図8の場合のように、濃度値に、単に図9に示すように、同じ閾値を設定するだけでは、正確な領域分割ができないことを示している(図9には、図8と同じ閾値を図示してある)。
【0095】
さらに、図9から、無染色細胞を含む画像では、背景領域の濃度値の変動は小さいが、無染色細胞の領域(対象領域)の濃度値の変動は大きいことが分かる。
【0096】
本実施例では、この濃度値の変動に着目して、画像中の濃度値の変化の大きさを計算し、濃度値、及び濃度値の変化の大きさに、それぞれ閾値を設け、領域分割を行ない、無染色細胞(染色液でほとんど染色されない細胞)を含む画像の領域分割を正確に行なう。
【0097】
まず、濃度値の変化の大きさを表わす指標として、局所的な小領域における、濃度値の分散を考える。画像上の(x,y)における濃度値をP(x,y)、局所的分散をq(x,y)として、q(x,y)を次の(数10)で定義する。
【0098】
q(x,y)={1/(2n+1)2}ΣΣ{P(i,j)}2−{1/(2n+1)4}{ΣΣP(i,j)}2 …(数10)
(数10)において、加算Σは、i=x−nからi=x+n、及びj=y−nからj=y+nについて行なう。
【0099】
図10、図11に、それぞれ染色細胞、無染色細胞を含む画像の分散値の例(n=2とした時のq(x,y)の例)を示す。図10、図11は、それぞれ図8、図9と同じ位置(1ライン)における、分散値q(x,y)をプロットしたもので、横軸は画像のy座標値、縦軸は(数10)により計算される分散値である。
【0100】
また、図10、図11において、横軸、y=490近辺の大きなピークは、画像の端部の不連続成分によるもので、画像中の認識対象(細胞)とは無関係である。図11は、無染色細胞を含む画像の分散値q(x,y)であり、図8と比較すると、背景領域の分散値は0に近く、細胞の存在する領域の分散値は、大きい値となっている。そこで、分散値に、閾値qthを設定し、qthより大きい分散値をとる領域を、目的とする対象領域とみなし、無染色細胞を含む画像の領域分割を行なうことにする。図11には、閾値qthを、〜200とする例を示してある。
【0101】
図10は、染色細胞を含む画像の分散値q(x,y)を示し、図8と比較すると、細胞の存在する領域のエッジ部分(横軸、y=200、及びy=300近辺)において、分散値が大きな値を示している。しかし、細胞の内部は、一様な色調で染色されているため、分散値は小さく、分散値に閾値を設定し領域分割を行なうと、細胞のエッジ部分だけが、対象領域として分割されてしまう(図10には、図11と同様に、閾値qthを、〜200とする例を示してある。)。そこで、分散値に閾値を設定し領域分割を行なうとともに、濃度値に閾値を設定し領域分割を行い、両方の領域分割の結果を重ね合わせることにより、染色細胞と無染色細胞の両方の領域分割を正確に行なうことができる。
【0102】
以上で述べた方法では、画像における濃度変動の大きさを検出するために、(数10)で定義される濃度の局所的分散値を用いたが、装置構成をより単純するため、より簡便に濃度変動の大きさを検出する方法として、次の(数11)で定義される濃度差分値を用いることにする。(x,y)における濃度値をP(x,y)、濃度差分値をr(x,y)とする。
【0103】
r(x,y)=ΣP(x,y+i)−ΣP(x,y−i) …(数11)
(数11)において、加算Σは、i=1からi=nについ行なう。この(数11)の計算は、加算と減算のみで実行でき、画像の一点で、差分値を計算するために使用する濃度値は、画像上で1次元的に配列する画素の濃度値であるので、簡便な装置構成により、画像信号の転送に同期した高速な処理を実行できる。
【0104】
図12、図13に、それぞれ染色細胞、無染色細胞を含む画像の濃度差分値(n=2とした時の濃度差分値)の例を示す。図12、図13は、それぞれ図8、図9と同じ位置(1ライン)における濃度差分値をプロットしたものである。分散値の場合と同様、横軸490近辺のピーク値は、画像端の不連続部分による。
【0105】
図12は、染色細胞を含む画像の差分値を示しており、図8と比較すると、対象領域のエッジ部分で、差分値は正負に大きく変化する値をとり、対象領域の内部、及び背景領域では、差分値は0に近い値をとっている。
【0106】
図13は、無染色細胞を含む画像の差分値を示し、図9と比較すると分かるように、差分値は背景領域で0に近い値をとり、差分値は、対象(細胞)領域で正負に大きく変化する値をとっている。
【0107】
ただし、対象領域の内部でも、差分値が0に近い値をとる部分が、多数含まれているため、差分値に正負の2つの閾値、rth1、rth2(rth1<0<rth2)を設定し、rth1<r(x,y)<rth2なる領域を、背景領域とする領域分割を行なうと、対象領域の内部で、差分値が0に近い値をとる領域は、背景領域として分割されてしまう。また、この方法を、染色細胞を含む画像に適用すると、細胞のエッジ部分のみを、対象領域として分割することになってしまう。図12、図13では、閾値を、rth1が〜−20、rth2が〜20の場合を、示している。
【0108】
ここで、濃度値と濃度差分値との関係を考えてみる。濃度差分値が0をとる点は、濃度値が極大値あるいは極小値をとっている点であり、このような点における濃度値は、背景領域の平均の濃度値より比較的大きな値、あるいは小さい値をとる可能性が高い。つまり、濃度差分値に閾値を設定して領域分割を行なった結果、正確に領域分割できない部分(背景領域として分割されてしまう対象領域の内部の部分)は、濃度値に閾値を設定し、領域分割を行えば対象領域として分割できる。そこで、差分値に閾値を設定し領域分割を行なうとともに、濃度値に閾値を設定し領域分割を行ない、両方の領域分割の結果を重ね合わせること(論理ORをとる)により、無染色細胞を含む画像、染色細胞を含む画像の両方を、正確に領域分割することができる。
【0109】
以上説明した方法を、実際にフロー方式で撮像した画像に適用した結果について説明する。最も無染色となりやすい偏平上皮細胞を含む画像の51例を調べたところ、無染色粒子を含む画像が、8例出現した。実施例1の方法では、正確な領域分割が困難であった無染色粒子を含む8例の画像に、以上説明した方法を適用した結果、染色粒子を含む画像の場合に得られる処理結果と、同等の結果を得ることができた。以下では、これらの画像のうち、典型的な染色粒子を含む画像と、無染色粒子を含む画像とを、それぞれ一例ずつとって説明する。
【0110】
図14、図15に、濃度の局所的分散を用いた2値化による方法を用いて、それぞれ染色細胞、無染色細胞を含む画像を領域分割を行った結果(2値画像(領域分割された2値画像に修正処理を行なった画像))を示す。
【0111】
なお、図14から図17において、横(x)軸、及び縦(y)軸は、それぞれ0〜511の512画素からなっている。
【0112】
G画像の濃度値を使用して、(数10)で、n=2として計算される分散値と、G画像の濃度値を、領域分割の処理で用いた。具体的には、(x,y)における濃度値をP(x,y)、分散値をq(x,y)、2値化結果をs(x,y)とすると、
th1<P(x,y)<Pth2 and q(x,y)<qth
s(x,y)=0(背景:白)
otherwise:s(x,y)=1(対象領域:黒) …(数12)
として、s(x,y)で表される2値画像を求めた後、修正処理(背景領域のノイズ除去処理、対象領域の穴埋め処理)として、対象領域の太め処理を1回行い、細め処理を2回行った後、さらに太め処理を1回行った(これらの各処理は周知技術である)。
【0113】
濃度値に設定する閾値Pth1、th2は、濃度ヒストグラムの最大値を与える濃度値Pm、最大値の1/2の値を与える濃度値、Ps1、s2(Ps1<Pm<Ps2)を求め、
th1=Pm−3.5(Pm−Ps1
th2=Pm+3.5(Ps2-m) …(数13)
とした。また、分散値に設定する閾値はqth=30とした。
【0114】
図15より、明らかに、無染色細胞を含む画像の領域分割の結果は、図7に示す、実施例1による結果に比較し、大きく改善されている。
【0115】
また、染色細胞を含む画像(図14)において、細菌が、細胞の領域の右側の2箇所(50、51)に、無染色細胞を含む画像(図15)において、細菌が、細胞の領域の右側の1箇所(52)に、それぞれ検出されている。これらの細菌は、実施例1の方法による結果(図6、図7)では、検出できなかった細菌である。
【0116】
染色細胞を含む画像(図14)の細胞の領域の左側の2箇所(60、61)に、無染色細胞を含む画像(図15)の細胞の領域の左側に1箇所(62)に、細菌より小さな点があるが、これは背景領域のノイズ成分と思われる。
【0117】
図16、図17に、濃度差分値を用いた2値化による方法を用いて、それぞれ染色細胞、無染色細胞を含む画像を領域分割を行った結果(2値画像(領域分割された2値画像に修正処理を行なった画像))を示す。G画像の濃度値を使用して、(数11)で、n=2として計算される差分値、及びG画像の濃度値を、領域分割の処理で用いた。具体的には、(x,y)における濃度値をP(x,y)、差分値をr(x,y)、2値化結果をs(x,y)とすると、
th1<P(x,y)<Pth and rth1<r(x,y)<rth2
s(x,y)=0(背景:白)
otherwise:s(x,y)=1(対象領域:黒) …(数14)
として、s(x,y)で表される2値画像を求めた後、修正処理を行った。
【0118】
修正処理、及び濃度閾値Pth1、Pth2の設定は、上記の濃度の局所的分散を用いた2値化による方法を用いた領域分割の場合と、同じ方法を用いた。また、差分値に設定する閾値は、│rth1│、│rth2│は15〜25程度に設定すればよく、rth1=−20、rth2=20とした。
【0119】
図17より、明らかに、無染色細胞を含む画像の領域分割の結果は、図7に示す、実施例1による結果に比較し、大きく改善されている。
【0120】
また、染色細胞を含む画像(図16)において、細菌が、細胞の領域の右側の2箇所(50、51)に、無染色細胞を含む画像(図17)において、細菌が、細胞の領域の右側の1箇所(52)に、それぞれ検出されている。これらの細菌は、実施例1の方法のよる結果(図6、図7)では、検出できなかった細菌である。
【0121】
図7、図15、図17を比較すると、実施例1の領域分割法に比較し、上記の濃度の局所的分散、差分値を用いた2値化による方法を用いた2種類の領域分割法は、無染色細胞の領域分割に効果的であることが分かる。また、2種類の方法のうち、濃度の分散値を用いる方法の方が、無染色細胞の領域分割に、より効果的である。しかし、濃度の差分値を用いる方法の方が、装置が単純に構成できる。そこで、差分値を用いた領域分割法の詳細を説明する。
【0122】
図16、図17に示す結果は、差分値の計算(数11)において、n=2とした時の結果である。ある画素の差分値を計算する際に用いる近傍画素の個数は2n+1で表され、この個数を、ここではマスクサイズと呼ぶことにする。例えば、n=2の時、ある画素の差分値の計算には、その画素を中心とし、y方向に前後2画素、合計5画素が必要であり、マスクサイズ=5である。マスクサイズ=1の場合は、差分処理を行なわないことを意味する。
【0123】
図18に、マスクサイズの変化による領域分割の結果を示す。図18では、512×512画素からなる画像を示している。マスクサイズが、領域分割に与える影響を調べるために、nの値を変化させて、領域分割を行った。図18の例は、図7、図15、図17とそれぞれ同じ無染色細胞を含む画像の領域分割の結果である。図8における、マスクサイズ=5の結果は、図17の結果に相当する。図18の例では、マスクサイズ=9による結果が、もっとも良好な領域分割の結果を与えている(しかし、細胞が存在する領域の内部の一部分に、誤って識別された背景を示す白い領域が混在している)。
【0124】
また、図15、図17の結果と同様に、図18においても、細胞52が、検出されている。なお、マスクサイズ=1による差分処理を行なわない場合の結果は、図7に示す、実施例1による結果に類似した結果である。
【0125】
次に、このマスクサイズの大きさの影響を周波数軸上で考えてみる。
【0126】
図19に、点線で、背景領域のy方向に1ライン(512画素)のG画像の信号成分(濃度値)を、離散フーリエ変換した結果を、実線で、無染色細胞の領域を通るy方向の1ライン(512画素)のG画像の信号成分(濃度値)を、離散フーリエ変換した結果を、それぞれ示す。横軸は、画像の1辺(512画素)を単位長として表現した空間周波数、縦軸は、濃度値の最大値を0.1に正規化したときの信号のパワーを表わしている。
【0127】
図19から、背景領域の信号はノイズ成分であるため、直流成分を除き、ほぼ全域に同等のパワーをもち分布していること、無染色細胞の領域を通過するラインの画像信号は、背景領域に比較し、周波数1〜150の信号成分が強い、ということが分かる。
【0128】
無染色細胞の領域を強調するために用いた(数11)を、ディジタルフィルタとみなすと、伝達関数はz変換を用いて、
H(z)=Σ{z↑(k)−z↑(−k)} …(数15)
と表される。ここでz↑(y)は、zのべき(y)乗を示す(y=k、y=−k)。(数15)において、加算Σは、k=1からk=nについて行なう。また、この時の周波数応答は、
Figure 0003653804
と表される。Ωは、画像上の2画素を単位長とする空間周波数を表わし、jは虚数単位である。
【0129】
図20に、n=1、2、3の場合の周波数振幅特性|H(Ω)|)を示す。
【0130】
図20の横軸は、画像の1辺の長さ(512画素)を単位長として表現した空間周波数を表し、縦軸は、フィルタの応答をマスクサイズを用いて正規化した値を表している。また、位相特性はπ/2で一定であり、このフィルタの作用は、無染色細胞を含む画像に特有の周波数成分を強調し、背景から分離する作用と、位相を90度ずらすことにより、濃度で2値化したとき0になる部分と、差分値を用いて2値化したとき0になる部分とをずらす作用と、を有している。
【0131】
図20から、n=2(マスクサイズ5)、n=3(マスクサイズ7)の場合には、無染色細胞を含む画像に特有の中周波領域〜低周波領域の信号成分が強められるが、マスクサイズが過大になると、図20には、図示していないが、n=5の場合のように、nの値を大きしていくに従い、無染色細胞を含む画像に特有の信号成分のうち、低周波領域が弱められてしまう。このため、nの値は、2〜4(マスクサイズ5〜9)程度が適当である。
【0132】
図21(A)、図21(B)に、染色された赤血球の画像を用いて、対象領域として分割される領域の形状の、マスクサイズによる影響を、調べた結果を示す。図21(A)、図21(B)において、長さの単位は、画素数である。
【0133】
分類すべき対象のうち、赤血球は、細菌に次いで小さく、その形状がほぼ円形であるので、赤血球像を、マスクサイズを変化させて領域分割し、抽出された対象領域の形状の変化を評価することにより、画像処理過程における劣化(対象粒子がもつ真の形状と、領域分割された対象領域の形状との差)を評価できる。
【0134】
図21(A)は、種々のマスクサイズ(図中に数字で示す)を用いた場合について得た、対象領域(赤血球)の面積、周囲長のプロットである。マスクサイズが大きくなるにつれ、面積、周囲長ともに大きくなり、対象領域が広がっていく。
【0135】
また、図21(B)は、領域分割された赤血球を、それぞれx軸、y軸へ投影した時に得る、x、及びy方向の投影長のプロットである。赤血球はほぼ円形をしているので、差分処理を用いない場合(マスクサイズ=1)には、x軸、y軸への投影長が、ほぼ同じ値である。しかし、差分処理を行なうと、x軸方向への投影長に比べ、差分処理の方向であるy軸方向の投影長が、より大きくなり、対象領域が、縦長の楕円形になっている。これは、図20から分かるように、差分処理により、高周波成分が抑制され、対象のエッジが広がるため、処理方向へ伸張されるためである。
【0136】
また、マスクサイズが大きくなる程この傾向は強くなる。このように、無染色細胞を含む画像の2値化における改善、染色細胞を含む画像の2値画像の劣化、という2点を考慮して、マスクサイズを決定する必要がある。
【0137】
無染色細胞を含む画像の2値化の改善は、より正確な特徴パラメータの算出を可能にし、後段でのパターン認識の認識率の向上につながるが、染色細胞を含む画像の2値画像の劣化は、特徴パラメータを不正確にし、特にサイズの小さな対象の分類精度に影響する。また、2値化の際に用いる閾値によって、得られる2値画像は変化する。一般に、閾値の絶対値が、小さいほど無染色細胞の領域分割は良好に実行できるが、背景領域のノイズ成分を拾いやすくなる。この点に注意して最適な閾値を設定する必要がある。
【0138】
図22に、本実施例の粒子画像の領域分割の手順を説明する処理のフローチャートを示す。先に説明したように、処理の対象となる粒子画像は、画像メモリに記憶されている。本実施例で、使用する画像はG画像であり、各画素の位置(x,y)における濃度値P(x,y)で表わすものとする。
【0139】
以下、図22に示す、処理のステップに従って、処理過程を説明する。
【0140】
(ステップS1): まず、画素(x,y)における濃度値P(x,y)を画像メモリより読み出す。
【0141】
(ステップS2): 濃度値P(x,y)を、以下に示す2値画像を表す変数u(x,y)に変換する。
【0142】
T2’<P(x,y)<T1’の時:u(x,y)=0 …(数17)
otherwise :u(x,y)=1 …(数18)
ここで、T1’、T2’は閾値を表し、例えば、次のようにしてT1’、T2’を定める。まず、画像メモリに記憶された画像の濃度値P(x,y)を読み出し、濃度値のヒストグラムを作成し、ヒストグラムの形状から濃度閾値T1’、T2’を決定する。通常、画像上で背景部分の面積が最も大きいので、背景の平均濃度がヒストグラム上での最大値をとる。図5に示すように、このヒストグラムの最大値を与える濃度値Pdを検出し、この最大値をPmaxとする。次に、Pmax/2の値を与える濃度値を検出し、PhL、Phh(PhL<Pd<Phh)とする。
【0143】
適当な定数kを定め、閾値T1’、T2’を、(数19)、(20)から、決定する。
【0144】
T1’=Pd+k(PhL−Pd) …(数19)
T2’=Pd+k(Phh−Pd) …(数20)
定数kは、あらかじめ実験的に求めておく。
【0145】
(数17)に示すように、T2’<P(x,y)<T1’の時、画素(x,y)は背景領域にあるとみなし((数17))、T2’≧P(x,y)、又はP(x,y)≧T1’の時、画素(x,y)は対象領域(背景領域以外の領域であり、背景領域と識別しようとする粒子が存在する領域をさす)にあるとみなす((数18))。
【0146】
(ステップS3): 画素(x,y)の近傍の複数の画素の濃度値を、メモリより読み出す。
【0147】
(ステップS4): 濃度値の変化の大きさ(画素(x,y)における濃度値の変化の大きさをq(x,y)とする。)を、下記(a)〜(d)の何れかの方法を用いて、計算する。
【0148】
(a);(数21)、又は(数22)に示すように、ステップS3で読み出した、画素(x,y)の近傍の複数の画素の濃度値を、画像上で近接する2つの領域に属する画素に分け、それぞれの領域に属する画素の濃度値の和を求め、次に、得られた2つの和の値の差((数21))、又はその絶対値((数22))を求める。
【0149】
q(x,y)=Σ{P(x,y+i)−P(x,y−i)} …(数21)
q(x,y)=│Σ(P(x,y+i)−P(x,y−i))│ …(数22)
例えば、ステップS3で読み出した画素(x,y)の近傍の4個の画素の濃度値、P(x,y−2)、P(x,y−1)、P(x,y+1)、P(x,y+2)から、(数21)、又は(数22)によって、q(x,y)を計算する。(数21)、(数22)において、加算Σはi=1からi=nについて行なう。
【0150】
(b);ステップS3で読み出した、画素(x,y)の近傍の複数の画素の濃度値の分散((数23))、又は標準偏差((数24))を求め、濃度値の変化の大きさq(x,y)とする。
【0151】
q(x,y)={1/(2n+1)2}ΣΣ{P(x+i,y+j)}2−{1/(2n+1)22{ΣΣP(x+i,y+j)}2 …(数23)
q(x,y)=√〈{1/(2n+1)2}ΣΣ{P(x+i,y+j)}2 −{1/(2n+1)22{ΣΣP(x+i,y+j)}2〉 …(数24)
なお、√〈 〉は、〈 〉内の平方根を示す。(数23)、(数24)において加算Σは、それぞれi=−nからi=n、j=−nからj=nについて行なう。
【0152】
例えば、ステップS3において、x−1≦i≦x+1、y−1≦j≦y+1を満たす9個の画素の濃度値P(i,j)を読み出し、(数23)、又は(数24)によって、q(x,y)を計算する。
【0153】
(c);ステップS3で得た画素(x,y)の近傍の複数の画素の濃度値と、それぞれの画素の幾何学的配置に対応した重み値wと、の積をとり、得られた積の総和を濃度値の変化の大きさq(x,y)((数25))とする。
【0154】
q(x,y)={ΣΣw(i,j)P(x+i,y+j)} …(数25)
(数25)において、加算Σはそれぞれi=−nからi=n、及びj=−nからj=nについて行なう。例えば、9個の重み値w(k,m)(k,m=−1、0、1)をあらかじめ設定し、ステップS3において、9個の画素の濃度値P(i,j)(x−1≦i≦x+1、y−1≦j≦y+1)を読み出し、(数25)によってq(x,y)を計算する。重み値は、例えば、w(0,0)=4、w(−1,0)=w(1,0)=w(0,−1)=w(0,1)=1、w(−1,−1)=w(−1,1)=w(1,−1)=w(1,1)=0とする。
【0155】
(d);上記(a)〜(c)の方法のうち、何れかの方法を用いて濃度値の変化の大きさq(x,y)を求めた後、得られた濃度値の変化の大きさを濃度値P(x,y)とみなし、
P(x,y)=q(x,y) …(数26)
とおいて、上記(a)〜(c)の何れかの方法により、濃度値の変化の大きさq(x,y)を計算してもよい。
【0156】
例えば、上記(a)の方法により、すべての画素(x,y)について、q(x,y)の値を計算した後、(数26)を適用して、次いで、上記(b)の方法を用いて、再度q(x,y)を計算する。
【0157】
(ステップS5): 濃度値の変化の大きさq(x,y)を、以下に示す2値画像を表す変数v(x,y)に変換する。
【0158】
q(x,y)が正値のみを取る場合は、閾値T3’を使用して、
q(x,y)<T3’の時:v(x,y)=0 …(数27)
q(x,y)≧T3’の時:v(x,y)=1 …(数28)
とし、q(x,y)<T3’の時、画素(x,y)は背景領域にあるとみなし((数27))、q(x,y)≧T3’の時、画素(x,y)は対象領域にあるとみなす((数28))。なお、上記の閾値T3’は、予め実験的に求めておくことができる。
【0159】
q(x,y)が負値も取る場合(ステップS5’)は、閾値T3”、閾値T4’を使用して、
T4’<q(x,y)<T3”の時:v(x,y)=0 …(数29)
otherwise :v(x,y)=1 …(数30)
とし、T4’<q(x,y)<T3”の時、画素(x,y)は背景領域にあるとみなし((数29))、T4’≧q(x,y)、又はq(x,y)≧T3”の時、画素(x,y)は対象領域にあるとみなす((数30))。なお、上記の閾値T3”、閾値T4’は、予め実験的に求めておくことができる。
【0160】
(ステップS4’)でのS5、S5’の選択は、(ステップS4)において、どのようにq(x,y)が定義されるかにより、自動的に定まる。
【0161】
(ステップS6): (ステップS2)で得られたu、と(ステップS5)、又は(ステップS5’)で得られたvの論理和を、画素(x,y)における2値化の結果とする。
【0162】
(ステップS7、S8): 画素(x,y)が処理すべき最終の画素の点であれば、処理をステップS9に移し、そうでなければ画素(x,y)を、次の画素の点に移動して、ステップS1〜S6の処理を繰り返す(ステップS7、S8)。
【0163】
(ステップS9): 以上の処理により得た、対象領域を1、背景領域を0とする2値画像に対して、対象領域の穴埋め、背景領域のノイズ除去等の処理を行なう修正処理を行なう。
【0164】
(ステップS10): 2値画像の連結成分毎に、周知技術によるラべリング処理を行ない、画像中の複数の対象に番号を付ける。
【0165】
(ステップS11): 番号が付けられた各対象について、面積、周囲長、平均濃度、投影長等の、周知技術による特徴量を求める。
【0166】
(ステップS12): 求められた特徴量を使用して、各対象を、尿沈渣成分のいずれかの種類に分類識別する。
【0167】
図23に、本実施例を実施するための装置構成を示す。液体中の粒子はパルスランプ101により照射され、光学拡大系(図示せず)によって拡大された後、テレビカメラ102により撮影され、アナログ電気信号に変換される。テレビカメラ102の出力は、A/D変換器103によりディジタル信号に変換された後、データバス110を介して、画像メモリ104に記憶される。閾値計算部105では、データバス110を介して、画像メモリ104に記憶された画像の濃度値を読み出し、濃度値のヒストグラムを作成し、(数19)、(数20)に従って、ヒストグラム形状より領域分割部106で用いる濃度閾値T1’、T2’を決定する。
【0168】
領域分割部106は、データバス110を介して、画像メモリ104より得た濃度値と、閾値計算部105より得た閾値T1’、T2’と、を用いて領域分割を行ない、対象領域を1、背景領域を0とする2値化を行った後、データバス110を介して、2値化の結果を、画像メモリ107に記憶する。以上の処理の制御は、全て計算機108が、CPUバス109を介して行う。
【0169】
図24は、図23における領域分割部106の構成を示す。入力部200は、図23のデータバス110に接続しており、データバス110を介したデータの入力を制御する。濃度2値化回路300では、まず、入力部200を介して、閾値計算部105(図23)より、閾値T1’、T2’を読み出し、閾値メモリ310に、T1’、T2’の値を記憶する。次に、入力部200を介して、画像メモリ104から、画像上の一点の画素の濃度値を読み出し、比較器320で、この濃度値と閾値T1’、T2’とを比較する。画像上の一点を(x,y)、その点における濃度値をP(x,y)とすると、比較器320では、濃度値P(x,y)と閾値T1’、T2’とを比較し、T2’<P(x,y)<T1’であれば、その画素は背景領域であるとみなして、0を出力し、それ以外の時には、対象領域であるとみなして、1を出力する。
【0170】
また、上記の濃度の2値化と並行して、濃度変化2値化回路400が働く。濃度変化2値化回路400では、まず入力部200を介して、画像メモリ104(図23)から、画像上(x,y)の複数の近傍画素の濃度値を読み出し、メモリ410に記憶する。濃度変化計算部420では、メモリ410に保持された(x,y)の近傍画素の濃度値を利用して、下記(a)〜(d)の何れかの方法を用いて濃度値の変化の大きさを計算する。(x,y)における濃度値の変化の大きさをq(x,y)とする。
【0171】
(a)メモリ410に記憶されている画素の濃度値を、画像上で近接する2つの領域に属する画素に分け、それぞれの領域に属する画素の濃度値の和を求める。次に、得られた2つの和の値の差、又はその絶対値を求め、濃度値の変化の大きさをq(x,y)とする。例えば、4個の画素の濃度値P(x,y−2)、P(x,y−1)、P(x,y+1)、P(x,y+2)を、メモリ410に記憶しておき、(数31)、又は(数32)によって、q(x,y)を計算する。
【0172】
q(x,y)=ΣP(x,y+i)−ΣP(x,y−i) …(数31)
q(x,y)=│ΣP(x,y+i)−ΣP(x,y−i)│ …(数32)
(数31)、(数32)において、加算Σはそれぞれi=1からi=2について行なう。図25に、この場合の濃度変化2値化回路400の具体的な構成例を示す。メモリ410は、1個の濃度値をそれぞれ記憶する4個のメモリ411〜414から構成される。メモリ411〜414に、濃度値P(x,y−2)、P(x,y−1)、P(x,y+1)、P(x,y+2)を、それぞれ記憶する。
【0173】
濃度変化計算部420は、2個の加算器421、422と1個の減算器423より構成され、(数31)で示される計算を行う。加算器421の出力は、(数31)の右辺の第2項で計算される値を出力し、加算器422は、(数31)の右辺の第1項で計算される値を出力する。減算器423の出力は、(数31)の右辺で計算される値を出力する。減算器423に、絶対値を出力する機能を持たせた場合、(数32)で示される計算をできる。
【0174】
(b)メモリ410に記憶された濃度値の分散、又は標準偏差を求め、濃度値の変化の大きさq(x,y)とする。例えばx−1≦i≦x+1、y−1≦j≦y+1を満たす、9個の画素の濃度値P(i,j)をメモリ410に記憶しておき、次の(数33)、又は(数34)によってq(x,y)を計算する。
【0175】
q(x,y)={1/9}ΣΣ{P(x+i,y+j)}2−{1/81}{ΣΣP(x+i,y+j)}2 …(数33)
q(x,y)=√〈{1/9}ΣΣ{P(x+i,y+j)}2−{1/81}{ΣΣP(x+i,y+j)}2〉 …(数34)
なお、√〈 〉は、〈 〉内の平方根を示す。(数33)、(数34)において、加算Σはそれぞれ、i=−1からi=1、及びj=−1からj=1について行なう。
【0176】
図26に、この場合のメモリ410と濃度変化計算部420の具体的な回路構成例を示す。メモリ410は、1個の濃度値をそれぞれ記憶する9個のメモリ811〜819から構成される。メモリ811〜819には、x−1≦i≦x+1、y−1≦j≦y+1を満たす、9個の画素の濃度値P(i,j)を記憶させる。
【0177】
濃度変化計算部420は、9個の2乗演算器からなる2乗演算部821、加算器822、824、除算器823、825、2乗演算器826、減算器827から構成される。メモリ811〜819から読み出された値は、それぞれ2つに分けられ、一方は、2乗演算部821に入力され、他方は、加算器824に入力される。加算器822で2乗演算部821の9個の2乗演算器の出力の和を計算し、除算器823で、加算器822の出力値を9で割る。除算器823は、(数33)の右辺の第1項で計算される値を出力する。
【0178】
加算器824は、メモリ811〜819から読み出された9個の濃度値の和を計算し、除算器825で加算器824の出力値を9で割る。2乗演算器826は、(数33)の右辺の第2項で計算される値を出力する。減算器827では、除算器823の出力と2乗演算器826の出力の差を計算する。減算器827は、(数33)の右辺で計算される値を出力する。減算器827の後に平方根を計算する回路を設けると、(数34)の右辺で計算される値を出力できる。
【0179】
(c)メモリ410に記憶された画素の濃度値と、画素の画像上の幾何学的位置に対応した重み値wとの積をとり、得られた積の総和を濃度値の変化の大きさq(x,y)とする。例えば、9個の重み値w(k,m)(k,m=−1、0、1)を予め設定し、メモリ410には、9個の画素の濃度値P(i,j)(x−1≦i≦x+1、y−1≦j≦y+1)を保持しておき、次の(数35)によって、q(x,y)を計算する。
【0180】
q(x,y)={ΣΣw(i,j)P(x+i,y+j)} …(35)
重み値は、例えば、w(0,0)=−4、w(−1,0)=w(1,0)=w(0,−1)=w(0,1)=1、w(−1,−1)=w(−1,1)=w(1,−1)=w(1,1)=0とする。(数35)において、加算Σは、それぞれ、i=−1からi=1、及びj=−1からj=1について行なう。
【0181】
図27に、この場合のメモリ410と濃度変化計算部420の具体的な回路構成例を示す。メモリ410は、1個の濃度値をそれぞれ記憶する9個のメモリ931〜939から構成される。メモリ931〜939には、濃度値P(x−1,y−1)、P(x,y−1)、P(x+1,y−1)、P(x−1,y)、P(x,y)、P(x+1,y)、P(x−1,y+1)、P(x,y+1)、P(x+1,y+1)が、それぞれ記憶される。重み値メモリ941〜949には、重み値w(−1,−1)、w(0,−1)、w(1,−1)、w(−1,0)、w(0,0)、w(1,0)、w(−1,1)、w(0,1)、w(1,1)を、それぞれ予め設定しておく。乗算器951〜959により、濃度値と重み値の積を計算し、得られた9個の積の和を加算器961により求める。
【0182】
(d)上記(a)〜(c)の方法のうち、何れかの方法を用いて、濃度値の変化の大きさを求めた後、得られた濃度値の変化の大きさを、濃度値とみなし、上記(a)〜(c)の方法のうち、何れかの方法を用いて再度濃度値の変化の大きさを計算し、得られた値をq(x,y)としてもよい。
【0183】
例えば、上記(c)の方法ですべての画素(例えば、512×512画素)について、q(x,y)の値を計算した後、このq(x,y)を用いて、
P(x,y)=q(x,y) …(36)
とおいて、更に上記(b)の方法を用いて、再度q(x,y)を計算する。この場合、メモリ410と濃度変化計算部420は、図28で示される構成の濃度変化計算部の回路に置き換えられる。
【0184】
まず、荷重和計算回路900によって、全ての画素について(数35)の右辺の値を計算し、得られた値を画像メモリ1000に記憶する。次に、画像メモリ1000に記憶された値を、濃度値として分散計算回路800により、(数33)の右辺の値を計算し出力する。荷重和計算回路900、分散計算回路800の構成の構成は、それぞれ図27、図26に示される構成である。
【0185】
図24の比較部430は、図25に示すように、閾値メモリ431と比較器432とからなる。閾値メモリ431には、予め閾値T3’、又はT3”、T4’が記憶されており、濃度変化の大きさq(x,y)が正値のみを取る場合、q(x,y)<T3’であれば、その画素は背景領域であるとみなし、0を出力し、それ以外の時には対象領域であるとみなし、1を出力する。
【0186】
また、q(x,y)が負値も取る場合には、T4’<q(x,y)<T3”ならば0、それ以外の時には1を出力する。閾値T3’、T3”、T4’は、予め実験的に求めておくことができる。次に、論理和回路500で、濃度2値化回路300の出力と、濃度変化2値化回路400の出力との論理和をとる。以上の処理を、全ての画素に適用して、対象領域を1、背景領域を0とする2値画像を得る。このようにして得られた2値画像に、さらにフィルタ部600で、太め処理等による対象領域の穴埋め、細め処理等による背景領域のノイズ除去の処理を行なうフイルタリングを施して、2値画像の修正を行ない、修正された2値画像が、出力部700よりデータバス110に出力される(図24)。
【0187】
本実施例での処理の工程を整理すると、以下のようになる。
【0188】
(1)濃度補正処理:G画像で、光学系の歪みに由来する濃度むらを除去する。
【0189】
(2)領域分割:G画像での、濃度と、濃度変化を表わす量とから、G画像を背景領域と対象領域とに分割し、背景領域を0、対象領域を1とする2値画像を作成する。
【0190】
(3)修正処理:対象領域の穴埋め、背景領域のノイズ除去等の2値画像の修正、整形を行なう。
【0191】
(4)ラベリング:2値画像の連結成分毎にラベリング処理を行ない、画像中の複数の対象に番号をつける。
【0192】
(5)特徴量算出:番号をつけたそれぞれの対象につき、面積、周囲長、平均濃度等の特徴量を求める。
【0193】
(6)識別:求めた特徴量をもとに、それぞれの対象が、どのような尿沈渣成分であるかを判断し、分類する。
【0194】
なお、(3)〜(6)では、太め処理、細め処理等のフィルタ処理を含め、周知の従来技術を使用できる。
【0195】
(実施例3)
本実施例では、実施例2の構成において、G画像の濃度に閾値を設けて領域分割する構成の代わりに、実施例1の構成(G画像、及びR画像の濃度に閾値を設けて領域分割する構成)を使用して、より正確に、対象粒子を抽出するものである。
【0196】
実際の多数のサンプルに対して適用した結果によれば、実施例1の領域分割の方法では、どちらかというと、染色細胞が、無染色細胞よりも正確に抽出でき、実施例2の領域分割の方法では、G画像のみを使用するので、染色された粒子画像のG画像が不鮮明である場合には、染色細胞の抽出は実施例1よりも劣ることが判明した。本実施例では、G画像、及びR画像の濃度に閾値を設けて領域分割するので、G画像が不鮮明である場合にも、R画像の情報が利用され、実施例1、実施例2のいずれよりも、より正確に対象粒子を抽出できることになる。
【0197】
本実施例での処理の工程を整理すると、以下のようになる。
【0198】
(1)濃度補正処理:G画像、及びR画像で、光学系の歪みに由来する濃度むらを除去する。
【0199】
(2)領域分割:G画像、及びR画像で複数の閾値を使用して、背景領域と対象領域とに分割し、背景領域を0、対象領域を1とする2値画像を作成する。
【0200】
(3)領域分割:G画像での、濃度変化を表わす量から、G画像を背景領域と対象領域とに分割し、背景領域を0、対象領域を1とする2値画像を作成する。
【0201】
(4)領域分割:(2)、(3)で得た2値画像の論理和をとる。
【0202】
(5)修正処理:対象領域の穴埋め、背景領域のノイズ除去等の2値画像の修正、整形を行なう。
【0203】
(6)ラベリング:2値画像の連結成分毎にラベリング処理を行ない、画像中の複数の対象に番号をつける。
【0204】
(7)特徴量算出:番号をつけたそれぞれの対象につき、面積、周囲長、平均濃度等の特徴量を求める。
【0205】
(8)識別:求めた特徴量をもとに、それぞれの対象が、どのような尿沈渣成分であるかを判断し、分類する。
【0206】
なお、(5)〜(6)では、太め処理、細め処理等のフィルタ処理を含め、周知の従来技術を使用できる。さらに、(2)、(3)の処理結果にたいして、(5)の処理を行ない、(5)の処理を省略して実行してもよい。
【0207】
上記の(2)、(3)の領域分割を行なう処理は、いずれを先に行なってもよいし、平行処理してもよいことは言うまでもない。
【0208】
対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、青成分の画像(B画像)から、実施例1と同様に、対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)を選択し、さらに実施例2と同様に、緑成分の画像(G画像)を選択して、実施例2の構成の一部に、実施例1の構成を組み込んで、実施例2において説明した、最も無染色となりやすい偏平上皮細胞を含む画像の51例に適用した結果、8例の無染色粒子を含め、51例の画像のすべてにおいて、良好な領域分割結果を得た。即ち、実施例2の構成の一部に、実施例1の構成を組み込み、実施例1、実施例2の単独の方法では得られなかった、良好な領域分割を行なうことができた。この結果、単独の方法では、1つの領域として理想的に分割することが困難であった無染色細胞を含め、ほとんどすべての対象粒子を、1つの連結した対象領域として分割できるようになり、沈渣成分の識別の精度を向上させることができた。
【0209】
本実施例では、試料の染色により、十分に染色される粒子、染色されにくい粒子(十分に染色されない粒子、ほとんど染色されない粒子)が混在する場合にも、背景領域を正確に識別して、各粒子像毎に安定して領域分割でき、より正確な2値画像が得られ、この結果、対象領域の特徴量がより正確に求められ、対象粒子の分類の誤りを少なくできる。このように、染色の程度が異なる対象粒子が混在し、染色性が悪く、ほとんど染色されない対象粒子が試料に含まれる場合にも、各粒子像毎について正確な領域分割ができ、各種の沈渣成分の識別精度が向上できる。
【0210】
図30、図31は、本実施例による、実際の試料における処理結果例を示す。
【0211】
図30における試料は、図6、図14、図16に示す例と同じ試料であり、染色が良好な細胞(染色細胞)の例を示す。図31における試料は、図7、図15、図17に示す例と同じ試料であり、染色が良好でない細胞(無染色細胞)の例を示す。
【0212】
図30、図31において、2値画像251、261は、それぞれ実施例1のG画像の濃度値とR画像の濃度値に閾値を設定する方法による領域分割の結果、2値画像252、262は、それぞれ実施例2のG画像の濃度値の変化を表わす量に閾値を設定する方法(n=2として、差分値を使用)による領域分割の結果を示す。2値画像253は、2値画像251と252との論理和をとった結果を示し、2値画像263は、2値画像261と262との論理和をとった結果を示す。なお、これら、2値画像251、261、252、262、253、263の領域分割の結果では、修正処理(対象領域の穴埋め、背景領域のノイズ除去等の2値画像の修正、整形処理)を行なっていない。2値画像254、264は、2値画像253、263の対して、それぞれ修正処理を行なって得た画像である。2値画像251に対して、修正処理を行なうと図6の画像が得られ、2値画像261に対して、修正処理を行なうと図7の画像が得られる。
【0213】
実施例3の方法では、実施例1、2の単独の方法では、試料中の粒子を理想的に抽出することは困難であっても、ほぼ見落としなく画像中の粒子を抽出することが可能となる。
【0214】
(実施例4)
本実施例は、実施例1から実施例3で説明した領域分割の方法により得た2値画像のいずれか2つの2値画像、もしくは3つの2値画像の論理演算(論理和)により、新たな2値画像を得て、より正確に、対象粒子を抽出するものである。
【0215】
図29は、本実施例における、2つの異なる方法(実施例1、及び実施例2に基づく領域分割法)により領域分割された2つの2値画像の合成を、模式的に説明する図である。実施例1に基づく領域分割法から得た2値画像210と、実施例2のG画像の濃度値の変化を表わす量から得た2値画像220とから、新しい2値画像230が合成される。この合成は、上記2つの2値画像210、220の論理和によって得られる。2値画像210の粒子像212では、2値画像220で得られている粒子像222の周辺の一部しか抽出されておらず、逆に2値画像220の粒子像221では、2値画像210で得られている粒子像211(但し、粒子像211の内部の一部が、背景領域として識別されている)の内部の一部しか抽出されていない。
【0216】
2つの2値画像210、220の論理和によって、合成された新しい2値画像230では、粒子像231、232が求められ、それぞれの領域分割法の欠点を互いに補いあって、より質の向上した2値画像が得られ、より正確に目的とする対象粒子が抽出できる。以上の説明では、合成の方法として論理和をとったが、画像処理する試料の処理条件(染色条件等)、試料の種類、対象粒子の種類等により、適宜設定される。
【0217】
以上の各実施例において、領域分割に用いる画像として、赤画像、緑画像、青画像のどの画像を選択するかの決定は、分析対象とする試料の分光特性、背景信号のレベルやバラツキ、対象粒子が存在する領域での信号のレベルやバラツキ等を考慮して、各実施例で説明した領域分割の方法に対して、それぞれ行なえばよい。さらに、目的とする対象粒子が抽出する領域分割を行なうための論理演算として、論理和をとったが、画像処理する試料の処理条件(染色条件等)、試料の種類、対象粒子の種類等により、適宜変更されることは言うまでもない。
【0218】
尿試料には、通常、染色液が添加され、沈渣成分のうち細胞類は、通常、青、赤、赤紫等の色に染色される。背景は白色をしているため、単純に、背景と沈渣成分との色の違いに着目し、赤画像、緑画像、青画像、それぞれの画像信号に閾値を設け、白色に近い部分を背景領域、それ以外の領域を、目的とする粒子が存在する対象領域とする、従来の領域分割法では、染色が十分にできなかった粒子は、正確に検出することはできない。その理由は、細胞のうち、完全に死んでいない、活性度の高い細胞は、染色剤を吸収しにくい性質をもち、染色されず透明であるため、画像中の細胞の存在する領域は、背景領域とほぼ同じ色調となっているため、従来の単純な領域分割法では、正確に細胞領域を抽出できない。
【0219】
十分に染色されない細胞は、無色透明であり、細胞内部、及び細胞表面の不均一性により、光の屈折、散乱が生じ、細胞が存在する領域の画像の濃度値の変化は大きい。このため、単純な領域分割法では、本来、1つの細胞の存在する領域が、複数の小さな領域として分割されてしまい、それぞれの独立した領域が、異なる沈渣成分として誤って識別されてしまい、沈渣成分の識別の精度を低下させてしまう。
【0220】
本発明では、このような細胞像の濃度値の位置による細かな変化に着目して、画像中の各点における濃度の変化を表す量を計算し、濃度値に閾値を設けると同時に、濃度の変化を表す量に閾値を設け、領域分割を行うことにより、対象粒子が十分に染色されない場合でも、正確な領域分割を可能にするものである。
【0221】
(実施例5)
実施例1から実施例4において説明した方法が適用される、粒子画像の領域分割を行なう装置を、図32を使用して以下に説明する。
【0222】
TVカメラ102からの、所定の撮影領域(図3)の、G画像、R画像、及びB画像の画像信号は、A/D変換器103により、例えば512×512画素に関するデジタルの画像データに変換される。これらの画像データの各画素に対して、以下に説明する各処理が実行され、粒子が存在する領域と、背景領域とが識別され、領域分割された2値画像が得られる。
【0223】
濃度補正回路72は、補正用データメモリ70に予め記憶されている、撮像光学系の歪みによる濃度むらを補正する補正用データを使用して、(数2)、又は(数3)に基づいて、濃度むらの補正を実行する。この補正結果は、画像メモリ90に格納される。以上の構成は、実施例1から実施例3を実行する装置に共通の構成である。
【0224】
以下、実施例1から実施例4を実行する装置構成の例を説明する。
【0225】
(a) 実施例1を実行する装置は、図32に示す構成のうち、ヒストグラム計算回路74と、閾値計算回路76と、濃度2値化回路78と、2値画像メモリ80とを有している。ヒストグラム計算回路74は、濃度補正回路72により、濃度むらが補正されたR画像データ、G画像データを使用して、G画像、及びR画像のヒストグラムを求める。閾値計算回路76は、(数5)から(数8)に基づいて、閾値T1、T2、T3、T4をそれぞれ算出する。濃度2値化回路78は、これら閾値T1、T2、T3、T4を使用して、G画像、及びR画像データから、(数9)に基づいて背景領域を検出して2値化された画像データを、2値画像メモリ80格納する。実施例1を実行する装置では、濃度2値化回路78、2値画像メモリ80は、それぞれ2値化回路96、2値画像メモリ98を兼ねている。(b) 実施例2を実行する装置の構成は、図32に示す構成のうち、画像メモリ90から読み出した濃度むらが補正されたR画像データにおける画素間での濃度の変化の大きさを検出して2値化する濃度変化2値化回路92と、その結果を記憶する2値画像メモリ94と、上記(a)で説明した濃度むらが補正されたR画像、G画像データのうち、G画像データを使用する、ヒストグラム計算回路74と、閾値計算回路76と、濃度2値化回路78と、2値画像メモリ80とを有している。濃度変化2値化回路92の具体的な構成は、実施例2においてすでに詳細に説明した、図25、図26、図27、及び図28のいずれかに示す構成と同様である。2値化回路96は、2値画像メモリ80と2値画像メモリ94に格納されたデータ間での論理和(論理OR)により、領域分割を行ない、その結果を2値画像メモリ98に格納する。
【0226】
なお、ヒストグラム計算回路74と、閾値計算回路76と、濃度2値化回路78とからなる処理は、濃度変化2値化回路92の処理と平行して実行されており、高速化が可能である。
【0227】
以上では、G画像、及びR画像データの濃度を使用する場合について説明したが、この構成に限定されることなく、2つの画像データは、R、G、B画像データから適宜選択される。選択された画像データを使用して、閾値計算回路76により、複数の閾値が算出され、濃度2値化回路78により2値化された画像データを、2値画像メモリ80に格納する。
【0228】
さらに上記では、G画像データの画素間での濃度の変化の大きさを検出する濃度変化2値化回路92と、検出された結果を格納する2値画像メモリ94の構成について説明したが、濃度変化2値化回路92と2値画像メモリ94からなる構成を、さらに1、もしくは2つ並列に接続配置して、G画像データの他に、B画像データ又はR画像データの1画像データの、もしくはB画像データ、R画像データの2画像データの、画素間での濃度の変化の大きさを、平行して検出する構成とし、このように並列に接続配置された複数の濃度変化2値化回路92からそれぞれ検出され、複数の2値画像メモリ94に格納されている画像と2値画像メモリ80に格納されている画像との間で、論理演算、例えば論理和を2値化回路96で実行し、得られる2値化された画像を2値画像メモリ98に格納する構成としてもよい。
【0229】
このような構成によれば、R、G、B画像データの中から複数の画像を使用して、それぞれの画像において、画素間での濃度の変化の大きさを検出して、2値化された画像データを得るので、R、G、B画像データの中の単独の画像を使用し、画素間での濃度の変化の大きさを検出して、2値化された画像データを得る場合に比較して、より正確に粒子が存在する粒子領域を識別できる。
【0230】
(c) 実施例3を実行する装置は、図32に示す構成を有している。即ち、上記(a)、及び(b)の構成が結合された構成を有している。即ち、画像メモリ90から読み出した濃度むらが補正されたG画像データにおける、画素間での濃度の変化の大きさを検出して2値化された画像データを得る濃度変化2値化回路92と、2値化された画像データを格納する2値画像メモリ94と、濃度むらが補正されたR画像データ、G画像データを使用して、G画像、及びR画像のヒストグラムを求めるヒストグラム計算回路74と、G画像、及びR画像データから、閾値T1、T2、T3、T4を使用して、(数9)に基づいて背景領域を検出して2値化された画像データを得る濃度2値化回路78と、2値化された画像データを格納する2値画像メモリ80と、2値画像メモリ80と2値画像メモリ94に格納されたデータ間での論理和(論理OR)演算を行なう2値化回路96と、論理和(論理OR)演算の結果であり、領域分割された結果を格納する2値画像メモリ98と、から構成される。なお、濃度変化2値化回路92の具体的な構成は、実施例2においてすでに詳細に説明した、図25、図26、図27、及び図28のいずれかに示す構成と同様である。
【0231】
なお、ヒストグラム計算回路74と、閾値計算回路76と、濃度2値化回路78とからなる処理は、濃度変化2値化回路92の処理と平行して実行されており、高速化が可能である。
【0232】
以上では、G画像、及びR画像データの濃度を使用する場合について説明したが、この構成に限定されることなく、2つの画像データは、R、G、B画像データから適宜選択される。選択された画像データを使用して、閾値計算回路76により、複数の閾値が算出され、濃度2値化回路78により2値化された画像データを、2値画像メモリ80に格納する。また、ヒストグラム計算回路74と、閾値計算回路76と、濃度2値化回路78、2値画像メモリ80とからなる構成を複数個並列接続して、G画像、及びR画像データの濃度にさらに、例えばG画像、及びB画像データの濃度を使用して、複数の2値画像メモリ80に2値化された画像を得て、2値画像メモリ80に格納されている画像と、複数の2値画像メモリ80に格納されている画像との間で、論理演算、例えば論理和を2値化回路96で実行し、得られる2値化された画像を2値画像メモリ98に格納する構成としてもよい。
【0233】
さらに、上記では、G画像データの画素間での濃度の変化の大きさを検出する濃度変化2値化回路92と、検出された結果を格納する2値画像メモリ94の構成について説明したが、濃度変化2値化回路92と2値画像メモリ94からなる構成を、さらに1、もしくは2つ並列に接続配置して、G画像データの他に、B画像データ又はR画像データの1画像データの、もしくはB画像データ、R画像データの2画像データの、画素間での濃度の変化の大きさを、平行して検出する構成とし、このように並列に接続配置された複数の濃度変化2値化回路92からそれぞれ検出され、複数の2値画像メモリ80に格納されている画像と、1又は複数の2値画像メモリ94に格納されている画像との間で、論理演算、例えば論理和を2値化回路96で実行し、得られる2値化された画像を2値画像メモリ98に格納する構成としてもよい。
【0234】
このような構成によれば、R、G、B画像データの中から複数の画像を使用して、それぞれの画像において、画素間での濃度の変化の大きさを検出して、2値化された画像データを得るので、R、G、B画像データの中の単独の画像を使用し、画素間での濃度の変化の大きさを検出して、2値化された画像データを得る場合に比較してより正確に粒子が存在する粒子領域を識別できる。
【0235】
(d) 実施例4を実行する装置の構成は、上記で説明した(a)、(b)の装置構成を備えており、(a)、(b)で説明した装置構成部分から得られた結果を、2値化回路96によって、論理演算(論理和)をとり、領域分割された2値画像を得て、2値画像メモリ98に格納する。
【0236】
以上説明した(a)から(d)の装置構成の2値画像メモリ98に得られた、領域分割された2値画像を使用して、粒子が存在する対象領域に関して特徴量が、演算処理手段(図32には図示せず)によって演算検出され、尿沈渣粒子の識別が実行される。
【0237】
【発明の効果】
本発明によれば、特に、変化に富んだ性質をもつ対象粒子の検出が要求される尿沈渣検査装置で得る画像の領域分割において、試料の染色により、対象粒子が十分に染色されず、対象粒子の濃度が背景濃度とほとんど差がなく、このような対象粒子を高い頻度で多数含む試料の場合にも、対象粒子の抽出ができる。即ち、試料の染色により、十分に染色される粒子、染色されにくい粒子(十分に染色されない粒子、ほとんど染色されない粒子)が混在する場合にも、各粒子像毎に安定して分割でき、より正確な2値画像が得られ、この結果、対象領域の特徴量がより正確に求められ、対象粒子の分類の誤り防止が可能となり、各種の沈渣成分の識別精度が向上できる。
【図面の簡単な説明】
【図1】本発明の第2の実施例の粒子画像の像領域分割方法の原理を説明する図。
【図2】本発明の第2の実施例の粒子画像の像領域分割方法の原理を説明する図。
【図3】本発明の領域分割方法が適用される尿沈渣検査装置の構成例を示す図。
【図4】本発明の色空間での背景部の抽出を行なう領域分割を模式的に示す図。
【図5】本発明での、閾値の決定に使用するパラメータを求めるための濃度ヒストグラムを説明する図。
【図6】本発明の実施例1での、対象粒子の染色が良好な染色細胞の画像、対象粒子の染色がほとんどされていない細胞の画像、の領域分割結果の例を示す図。
【図7】本発明の実施例1での、対象粒子の染色が良好な染色細胞の画像、対象粒子の染色がほとんどされていない細胞の画像、の領域分割結果の例を示す図。
【図8】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の濃度値の例を示す図。
【図9】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の濃度値の例を示す図。
【図10】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の分散値の例を示す図。
【図11】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の分散値の例を示す図。
【図12】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の濃度差分値の例を示す図。
【図13】本発明の実施例2での、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の濃度差分値の例を示す図。
【図14】本発明の実施例2での、濃度の局所的分散を用いた2値化による方法を用いて行なった、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の領域分割の結果例を示す図。
【図15】本発明の実施例2での、濃度の局所的分散を用いた2値化による方法を用いて行なった、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の領域分割の結果例を示す図。
【図16】本発明の実施例2での、濃度差分値を用いた2値化による方法を用いた、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の領域分割の結果例を示す図。
【図17】本発明の実施例2での、濃度差分値を用いた2値化による方法を用いた、染色が良好な細胞を含む画像、染色がほとんどされていない細胞を含む画像、の領域分割の結果例を示す図。
【図18】本発明の実施例2での、マスクサイズの変化による領域分割の結果例を示す図。
【図19】本発明の実施例2での、1走査線における背景領域、及び対象領域における、離散フーリエ変換した結果例を示す図。
【図20】本発明の実施例2での、フイルタの周波数振幅特性(|H(Ω)|)の例を示す図。
【図21】本発明の実施例2での、染色された赤血球の画像を用いて、分割される領域の形状のマスクサイズによる影響を調べた結果例を示す図。
【図22】本発明の実施例2での、粒子画像の領域分割の手順を説明する処理のフローチャート。
【図23】本発明の実施例2を実施するための装置の構成例を示す図。
【図24】図23における領域分割部の構成例を示す図。
【図25】本発明の実施例2での、濃度変化計算部の具体的な回路構成例を示す図。
【図26】本発明の実施例2での、濃度変化計算部の具体的な回路構成例を示す図。
【図27】本発明の実施例2での、濃度変化計算部の具体的な回路構成例を示す図。
【図28】本発明の実施例2での、濃度変化計算部の具体的な回路構成例を示す図。
【図29】本発明の実施例4での、2つの異なる方法により領域分割された2つの2値画像の合成を、模的に説明する図。
【図30】本発明の実施例3での、実際の試料における領域分割の結果例を示す図。
【図31】本発明の実施例3での、実際の試料における領域分割の結果例を示す図。
【図32】本発明の粒子画像の像領域分割方法が適用される装置の構成例を示す図。
【符号の説明】
22…尿試料、24…染色液、26…フローセル、28…パーソナルコンピュータ、30…フラッシュランプ(Xeランプ)、32…半導体レーザ、34…粒子検出器、36…TVカメラ、40…R画像の濃度ヒストグラム、40’…G画像の濃度ヒストグラム、50、51、52…細胞、60、61、62…ノイズ成分、70…補正用データメモリ、72…濃度補正回路、74…ヒストグラム計算回路、76…閾値計算回路、78…濃度2値化回路、80…2値画像メモリ、90…画像メモリ、92…濃度変化2値化回路、94…2値画像メモリ、96…2値化回路、98…2値画像メモリ、102…TVカメラ、103…A/D変換器、101…パルスランプ、102…テレビカメラ、103…A/D変換器、104…画像メモリ、105…閾値計算部、106…領域分割部、107…画像メモリ、108…計算機、109…CPUバス、110…データバス、200…入力部、210、220、230…2値画像、211、212、221、222、231、232…粒子像、300…濃度2値化回路、310…閾値メモリ、320…比較器、400…濃度変化2値化回路、410…メモリ、411〜414…、420…濃度変化計算部、421、422…加算器、423…減算器、430…比較部、431…閾値メモリ、432…比較器、500…論理和回路、600…フィルタ部、700…出力部、800…分散計算回路、811〜819…メモリ、821…2乗演算部、822、824…加算器、823、825…除算器、826…2乗演算器、827…減算器、900…荷重和計算回路、931〜939…メモリ、941〜949…重み値メモリ、951〜959…乗算器、961…加算器、1000…画像メモリ。[0001]
[Industrial application fields]
The present invention relates to an image area dividing method using color information and density information, and more particularly to an area dividing method and apparatus suitable for dividing a particle image in blood or urine.
[0002]
[Prior art]
Conventionally, in order to morphologically examine particles in urine, a visual method has been performed by centrifuging a urine sample, staining a sediment, preparing a specimen on a slide glass, and observing under a microscope. . At that time, the kind of the sediment and its concentration in the original urine sample were determined with the degree of concentration of the sample by centrifugation and the amount of the sample to be observed constant.
[0003]
Some sediments range from particles of a few micrometers, such as blood cells and bacteria, to particles of a few hundred micrometers, such as a cylinder. These particles with different sizes were observed by switching.
[0004]
In the conventional visual inspection by microscopic observation, there is a problem that (1) a method using a slide glass has a low throughput, and (2) it is difficult to handle a urine sample that is quickly rotted.
[0005]
In recent years, the blood image test is shifting from a system using a slide glass specimen to a flow system in which a blood sample is directly tested as a liquid sample. The flow method is expected to realize high-speed sample processing.
[0006]
Attempts to take images of particles in a continuously flowing sample specimen and analyze and classify the particles from the individual particle images are described in JP-T-57-500995 and JP-A-63-94156. ing.
[0007]
In Japanese Patent Publication No. 57-500995, a sample specimen is passed through a specially shaped flow path, particles in the specimen are allowed to flow through a wide imaging area, and a still image is taken using a flash lamp. A method for particle analysis using images is described. When a magnified image of sample particles is projected onto a CCD camera using a microscope, a flash lamp, which is a pulse light source, periodically emits light in synchronization with the operation of the CCD camera. The light emission time of the pulse light source is short, a still image can be obtained even if particles flow continuously, and the CCD camera can capture 30 still images per second.
[0008]
Japanese Patent Application Laid-Open No. 63-94156 discloses a separate particle detection optical system for detecting the passage of particles upstream of the particle image capturing region of the sample flow, in addition to the still image capturing system. In this method, the passage of particles is detected in advance by the particle detection unit, and when the particles reach the particle imaging region, the flash lamp is turned on at an appropriate timing. In this method, the pulsed light source is not periodically emitted, the passage of particles is detected, and the flash lamp is turned on only at that time, and a still image can be taken. As a result, particle images are efficiently collected, and in the case of a sample sample having a low concentration, a still image is not photographed in a portion of the sample flow where particles are not present, and therefore unnecessary image processing is not required.
[0009]
Japanese Patent Application Laid-Open No. 5-296915 describes a method in which a particle detection optical system for detecting particles is incorporated in a particle image pickup system. That is, a method of irradiating a sample flow with a laser beam for particle detection for detecting particles through a microscope condenser lens of a microscope image pickup system is described. In this method, it is not necessary to prepare a separate particle detection optical system for detecting particles, and the particle detection position can be arranged as close to the particle image capturing region as possible.
[0010]
As a prior art of the region dividing method of the image thus obtained, for example, Japanese Unexamined Patent Application Publication No. 1-119765 discloses a region dividing method for classifying blood cell images. In this technique, a region of an image is divided in a color space using a threshold value obtained from an image density histogram.
[0011]
[Problems to be solved by the invention]
  However, when the density distribution of the particle image to be analyzed is a density distribution that is widely distributed from a low density value to a high value in an image to be subjected to area division, the conventional technique cannot always perform accurate area division. There was a problem. In addition, the concentration distribution characteristics of the analysis targetParticulateBecause it depends on the color tone, DoubleNumber of particle imagesRegion divisionIf the same image processing is performed, there is a problem that the area is not necessarily accurate.
[0012]
In urine sediments, samples are usually stained to prevent misidentification of sediment components and facilitate cell determination. There are several known methods for taking an image of a stained biological sample and extracting target particles in a color space. However, in the urine sediment examination apparatus, the target particles to be divided into regions have a variety of properties as follows.
[0013]
(1) The range of the size distribution of the target particles is as wide as several μm to several hundred μm.
[0014]
(2) A plurality of particles having different color tones are present in the same image.
[0015]
(3) The concentration of target particles may change from a small value to a large value.
[0016]
(4) Even with the same type of cells, there are cells that are darkly stained and cells that are lightly stained.
[0017]
(5) The concentration of the target particles may be the same as or lower than the concentration of the background portion.
[0018]
(6) Particles that are sufficiently dyed and particles that are difficult to be dyed (particles that are not dyed sufficiently, particles that are hardly dyed) coexist by staining the sample.
[0019]
As described above, since the target particles in the urine sediment examination apparatus have a variety of properties, there has been a problem that the conventional region segmentation method cannot be simply applied.
[0020]
In particular, when the target particles are not sufficiently stained, there is almost no difference between the cytoplasm concentration and the background concentration, and there is a problem in that it cannot be extracted as an accurate binary image in which all the regions where the target particles exist have the same value. It was.
[0021]
Furthermore, cells with high activity have poor staining properties, and there are cells that are hardly stained, and in images containing such cells, the target area where the target particles are present and the background area have almost the same color tone, and the target area Since there are many portions having the same density as the background region, there is a problem that such cells cannot be extracted accurately.
[0022]
As described above, when the target particles are not sufficiently (satisfactorily) dyed and an accurate binary image cannot be obtained, the feature amount of the target region cannot be obtained accurately, and the target particles are misclassified. There was a problem.
[0023]
Since target particles such as cells that are poorly stained and hardly stained are generated at a high frequency, the conventional technique cannot always accurately divide all the particles contained in the sample, and the accuracy of sediment component identification is not high. There was a problem that hindered improvement.
[0024]
In order to solve the above problems, in a region segmentation method in which particles scattered in a fluid are captured and recorded as a still image, and target target particles are extracted from the still image, the first object of the present invention An object of the present invention is to provide a region dividing method that can stably extract and accurately extract a particle image having a difference in density and a particle image having a color tone difference from a still image.
[0025]
The second object of the present invention is to generate a particle image including a large number of regions having a density similar to that of the background region in the target region where the target particle is present and the color difference from the background region is small. Even in this case, an object of the present invention is to provide a region dividing method capable of dividing a particle image stably and accurately.
[0026]
The third object of the present invention is to provide a background image in a target area where there is a small difference in color tone from a static image, a particle image having a density difference, a particle image having a color tone difference, and a background area. An object of the present invention is to provide a region dividing method that can stably and accurately divide each particle image even when particle images including a large number of regions having the same or lower density than the regions are mixed.
[0027]
[Means for Solving the Problems]
  The above object is achieved by the following configuration. That is, a red component image (R image), a green component image (G image), and a blue component image (B image) of a stained target particle obtained by an image input optical system that inputs a particle image. Particles that are captured and stored as still images, and that use one or more of the R image, the G image, and the B image to identify a background region and a target region where the target particles exist An image region segmentation method, wherein the background of the first group of one or more images selected from the R image, the G image, and the B image with respect to the density value of each image A first step of obtaining a binarized first binary image from the first group image by setting a first group threshold value for dividing the region and a region having a large density difference; and It consists of one or more selected from the R image, the G image, and the B image. An amount representing the magnitude of the change in the density value in the vicinity region of each pixel constituting each image of the second group of images is calculated for each pixel, and the density obtained for each pixel is calculated. A threshold value of the second group for dividing the region having a large change in the density value is set as an amount representing the magnitude of the change in the value in comparison with the change in the density value in the background region. A second step of obtaining a binarized second binary image from the image, a logical operation of the first binary image and the second binary image, and the background region; And a third step of obtaining a binarized third binary image representing the target region.
Hereinafter, each component will be described. First, the configuration for identifying the background region and the target region based on the density value, which is a part of the configuration of the present invention, will be specifically described. <1> That is, the aboveThe first purpose is that the dyed sample is separated by wavelength by the image input optical system for inputting an image from the stream in which the dyed sample flows together with the fluid, and the target dyed in the stream is stained. The red component image (R image), the green component image (G image), and the blue component image (B image) of each target particle are captured and stored as still images, and the R image, the G image, and the B image are stored. A particle image region segmentation method that uses a plurality of images in an image to identify a background region and a target region where target particles exist, and includes at least one of an R image, a G image, and a B image. A step of selecting two images and correcting density unevenness due to distortion of the image input optical system included in each of the two images, two images, and a plurality of threshold values (T1, T2, T3, T4) ) To identify the background area and from the two images Obtaining a binarized binary image representing a background region and a region other than the background region and containing the target particle, and extracting the target region where the target particle exists Is achieved by a region segmentation method characterized by With this configuration, target particles that are target sediment components can be extracted from the above-described image converted into a binary image.
[0028]
By correcting the density unevenness due to the distortion of the image input optical system, the deviation of the density fluctuation in the at least two images is reduced, and the background region can be stably identified and accurately extracted. It is preferable to select a G image and an R image as the two images. In the image obtained by the urine sediment examination apparatus, it is known that the background region usually exists stably, and therefore the target region where the target particles are present can be identified on the basis of the background region. That is, since the background region can be stably extracted, it can be considered that the signal components representing the target particles to be detected separately from the background region are included in the region other than the background region.
[0029]
  The process of converting to the above binary image will be described below by taking a specific case where a G image and an R image are selected as the two images as an example. A density histogram of each of the G image and the R image is obtained, and a density value having the maximum peak value of the histogram is obtained. Next, threshold values T1 and T2 are obtained from the density histogram of the R image, and threshold values T3 and T4 are obtained from the density histogram of the G image.TheObtain the background area.
  Below, the outline | summary of the procedure which calculates | requires each threshold value and extracts a background area | region is demonstrated.
[0030]
(Procedure 1) A density histogram of each image (G image, R image) is created.
[0031]
(Procedure 2) A density value (maximum density value) having the maximum frequency value of each density histogram is obtained.
[0032]
(Procedure 3) The density giving the position of the half width of the peak of each density histogram is obtained.
[0033]
(Procedure 4) Threshold values T1, T2, T3, and T4 are calculated from the maximum density value, the density that gives the position of the half-width of the peak, and the predetermined parameters obtained in (Procedure 1) to (Procedure 3). To do.
[0034]
(Procedure 5) A binary image is created in the image space based on the threshold values T1, T2, T3, and T4 calculated in (Procedure 1) to (Procedure 4). The background area is obtained by (Equation 1).
[0035]
{T1 ≦ R (i, j) <T2} ∩ {T3 ≦ G (i, j) <T4} (Equation 1)
Here, ∩ represents the logical product, (i, j) represents the pixel position, and R (i, j) and G (i, j) were each corrected for density unevenness due to distortion of the image input optical system. R image and G image are represented.
[0036]
<2>Next, a configuration for identifying the background region and the target region based on the magnitude of the density value change, which is a part of the configuration requirement of the present invention, will be described. That is, the aboveA second configuration for realizing the second object will be described below. The second purpose is that the dyed sample is separated by wavelength by the image input optical system that inputs an image from the flow in which the dyed sample flows along with the fluid. The red component image (R image), the green component image (G image), and the blue component image (B image) of each target particle are captured and stored as still images, and the R image, the G image, and the B image are stored. This is a particle image region segmentation method that uses one image in an image to identify a background region and a target region in which target particles exist, and is a predetermined method from among R, G, and B images. A step of correcting the density unevenness caused by distortion of the image input optical system included in the predetermined image, and an area having a large density difference between the background area and the density value of the predetermined image. A first group of thresholds for dividing (first and second thresholds) To obtain a binarized first binary image, and the amount representing the magnitude of the change in density value in the vicinity region of each point constituting the predetermined image Compared with the change in the density value in the background area, the first value for dividing the area having the large change in the density value into an amount representing the magnitude of the change in the density value obtained at each point. Setting two groups of threshold values (third threshold value, or fourth and fifth threshold values) to obtain a binarized second binary image; a first binary image; A binarized third binary image representing a background region and a target region that is a region other than the background region and includes target particles is obtained by a logical operation with the binary image of 2, for example, a logical sum. A region dividing method comprising: detecting a background region from a third binary image, and detecting a target region. More is achieved.
[0037]
The amount representing the magnitude of the change in density value is, for example, (1) the difference between the sums of density values in two adjacent small regions in the image, or the absolute value thereof, (2) ▼ Dispersion value or standard deviation of density value distribution in small area in image, (3) Load sum of density value of pixels included in small area in image, or absolute value thereof, or (4) ▲ Any one of the values (1) to (3) (amount representing the magnitude of the change in the density value) is newly regarded as a density value, and the process of applying the methods (1) to (3) is performed once again. The value obtained by performing the operation once or a plurality of times is used. It is preferable to select a G image as the predetermined image.
[0038]
<3> A third configuration for realizing the third object of the present invention will be described below. The third purpose is that the dyed sample is separated by wavelength by the image input optical system that inputs an image from the flow in which the dyed sample flows along with the fluid. The red component image (R image), the green component image (G image), and the blue component image (B image) of each target particle are captured and stored as still images, and the R image, the G image, and the B image are stored. A particle image region segmentation method that uses a plurality of images in an image to identify a background region and a target region where target particles exist, and includes at least one of an R image, a G image, and a B image. Select two images, correct the density unevenness due to distortion of the image input optical system included in the two images, select one of the two images, and select the image The darkness in the vicinity of each point constituting a given image The amount representing the magnitude of the change in the value is calculated at each of the above points, and the amount representing the magnitude of the change in the density value obtained at each point is compared with the change in the density value in the background region. A process for obtaining a binarized first binary image by setting a first threshold value (first threshold value, or second and third threshold values) for dividing an area having a large value change.AboutA plurality of threshold values (T1, T2, T3, T4) are provided in the density values of the two images and the density values of the two images, the background region is identified in the predetermined image, and the predetermined image is And a second binarized image representing the target area where the target particles existAboutStep C, the first binary image, and the second binary imageWithA process to obtain a binarized third binary image by logical operation (logical sum)AboutAnd the step D. The method is achieved by a region dividing method characterized by detecting a target region in which target particles exist from the third binary image.
[0039]
In step A, it is preferable to select a G image and an R image as the two images, and in step B, select a G image as the predetermined image. It goes without saying that either of the execution of Step B and Step C may be executed first. Of course, it is more preferable that the processing time is shortened by executing Step B and Step C in parallel at the same time.
[0040]
<4> A fourth configuration for realizing the third object of the present invention will be described below. A new region division result is obtained from any two binary images or three binary image logical operations (logical sums) of the binary images obtained from the first to third configurations. In the first configuration, as the predetermined image, two or three different images are sequentially selected and executed from the G image, the R image, and the B image, and a logical operation of a plurality of third binary images obtained is obtained. For example, a configuration may be adopted in which a target region where target particles exist is detected from a logical sum.
[0041]
[Action]
  In the first configuration of the present invention, according to the above procedure, the distribution of the concentration of the target particle image in the image to be divided (image of the stained sample) is from a low value to a high value. Even when the concentration distribution is widely distributed, accurate region division can be performed. Further, the region can be divided even when the density distribution characteristic of the analysis object varies depending on the color tone. In other words, when extracting target particles of interest from a stained sample image, even a particle image with a difference in density or a particle image with a difference in color tone can be stably and accurately affected by the difference in density and color difference. Can be divided into regions, and as a result,Of multiple particlesAreaDiscountEven if the same image processing is performed, it can be recognized as an accurate region.
[0042]
In the second configuration of the present invention, when an amount that takes only a positive value is used as an amount (a value obtained by the methods (1) to (4) above) representing the magnitude of the change in density value, If the horizontal axis represents the density value at each point of the image and the vertical axis represents the amount of change in the density value, the background area is BG, and the object having a higher density value than the background area, as shown in FIG. Is distributed as shown by A1, A2 is a target having a density value lower than that of the background area, and B is a target whose density difference is small compared to the background area and whose density value is larger than that of the background area. . Therefore, the threshold value T1 'and T2' can be set for the density value, and the threshold value T3 'can be set for the magnitude of the density value change, so that the image can be divided into the background area and the target area.
[0043]
Further, when an amount that can take a negative value is used as the amount representing the magnitude of the change in the density value, as shown in FIG. 2, the background area is BG, and the object having a density value higher than the background area is A1. An object having a density value lower than that of the background area is distributed as indicated by A2, and objects whose density difference from the background area is low and whose density value changes compared to the background area are indicated by B1 and B2, respectively. . In this case, the background area and the target area can be divided by setting the threshold values T1 ′ and T2 ′ for the density value and the threshold values T3 ″ and T4 ′ for the magnitude of the change in the density value. When this method is used, the target region can be extracted more accurately by using the threshold value of the magnitude of the density value change.
[0044]
In addition, according to the second configuration of the present invention, in the urine sediment inspection apparatus that requires region division of target particles having various properties as described above, the target particles are sufficiently obtained by staining the sample. The target particles can be extracted even in the case of a sample that is not stained and the concentration of the target particles is almost the same as the background concentration and includes a large number of such target particles. The sample contains cells that are hardly stained, the color difference between the target area where the target particles are present and the background area is small, and within the target area where the target particles are present, the density of the background area is the same as the background area. Even when there are many parts (regions) with a density lower than the density, such target particles can be stabilized for each particle image by simple calculation without reducing the processing speed of target particle extraction. Can be extracted accurately and divided into regions.
[0045]
In the third and fourth configurations of the present invention, each particle image is obtained even when particles that are sufficiently dyed and particles that are difficult to dye (particles that are not dyed sufficiently, particles that are hardly dyed) are mixed due to the dyeing of the sample. Each image can be divided stably and a more accurate binary image can be obtained. As a result, the feature amount of the target region can be obtained more accurately, and the target particle classification error can be prevented. In this way, even when target particles with different degrees of staining are mixed, target particles that are poorly dyeable and hardly stained are included in the sample, accurate segmentation can be performed for each particle image, and various sediment components It has the feature that the identification accuracy of can be improved.
[0046]
【Example】
First, urine sediment examination to which the method of the present invention can be preferably applied will be described.
[0047]
In urine sediment, samples are often stained to prevent misidentification of sediment components and facilitate cell determination. As typical staining methods, there are Sternheimer-Malbin (SM) staining and Sternheimer (S) staining modification method. SM staining is widely used mainly for staining of leukocytes. On the other hand, a modified S staining method (hereinafter abbreviated as S staining) is a staining method using Alcian blue or Astral blue as a basic dye and pyronin B as a basic dye. This staining method has an advantage that the contrast between red and blue is increased because the cell nucleus and the columnar substrate are clearly blue-stained and the cytoplasm and RNA components are red-stained by pyronin B. In addition, various dyeing methods are known. In the urine sediment test, the stained sample is used to classify and count blood cells and columnar epithelial cells, identify the type of crystals, identify the presence of bacteria including yeast-like fungi, and determine the type of bacteria. Etc. are executed.
[0048]
In the following embodiments, as an example, image segmentation in a urine sediment examination apparatus that automatically analyzes solid matter (urine sediment) in urine stained by a modified Sternheimer staining method will be described.
[0049]
In each of the following examples, the stained sample is flowed to the flow cell forming a flat sheath flow without being centrifuged from the urine sample, and the flow cell is irradiated with pulsed light in synchronization with the sediment particles flowing through the flow cell. Then, a still image is obtained, captured by a TV camera, and urinary sediments are identified and classified by image processing. In the image processing described in each of the following examples, the identification of a plurality of sediments (inspection target particles) present in the recorded image is matched with the imaging cycle (1/30 second) of the TV camera at the maximum. Thus, the image processing can be performed at high speed.
[0050]
FIG. 3 shows a configuration example of the urine sediment examination apparatus. The urine sample 22 is mixed with the staining liquid 24 and stained, and after being shaped into a flat shape having a predetermined thickness and width in the flow cell 26, the urine sample 22 is wrapped in a sheath liquid and a space having the predetermined dimension is formed. , Flowing at the same speed. In this apparatus, the light from the semiconductor laser 32 is irradiated to the particle detection region existing in front of the imaging region, and particles passing through the particle detection region are detected by the particle detector 34, and the detection signal from the particle detector 34 is detected. After that, after a certain time delay (time until the particles enter the imaging region from the particle detection region), the flash lamp (Xe lamp) 30 emits light for a predetermined short time, and the imaging optical system (objective lens) , The relay lens), the shooting area is imaged by the TV camera 36. An output signal of the camera 36 is an A / D conversion for each wavelength of a red image, a green image, and a blue image (hereinafter abbreviated as R image, G image, and B image) by an image processing board loaded in the personal computer 28. Each image is quantized to 512 pixels × 512 pixels × 8 bits (a total of 786,432 bytes of data) and stored in the image memory 38. At this time, the output of the A / D converter (not shown) is such that the black level of the camera is 0 and the white level is 255. However, in the following processing, for the convenience of processing, the black level is set to 255 and the white level is set to 0 in order to express the target by the light absorption rate.
[0051]
In the image input system, since a lens moving mechanism for magnification enlargement is disposed between the objective lens and the camera, density unevenness due to distortion of the imaging optical system occurs. In order to correct and remove this uneven density, a density correction process is performed before the area division process. This correction is performed independently for each of the R image, the G image, and the B image. As an image to be subjected to the density correction process, an image that satisfies the most preferable condition is selected in advance according to the staining method of the sample.
[0052]
Originally, when there is no target, or when shooting an object with uniform optical characteristics with an infinitesimal light absorption rate (white image), and an image when shooting an object with an infinite light absorption rate In (black image), ideally, the value of each pixel of the image is uniform, but in reality, density unevenness of the background occurs due to distortion of the optical system. Therefore, the distortion was corrected by correcting and converting the input image f (i, j) using the actually measured white image W (i, j) and black image B (i, j). An image f ′ (i, j) is obtained. The image f is any one of an R image, a G image, and a B image, and (i, j) represents a pixel position of the image. Set the black level reference value to β0, White level reference value α0And the relative value of the input image f (i, j) is [β0, Α0], The image f ′ (i, j) whose distortion is corrected can be expressed by the following (Equation 2).
[0053]
Figure 0003653804
However, i = 0, 1, 2,..., 510, 511, j = 0, 1, 2,.
[0054]
Approximately, if the variance of the black image B (i, j) is 1 level or less as a result of A / D conversion, the black image B (i, j) is averaged BavIf the pixel in the white image W ′ (i ′, j ′) in the small area is referred to without referring to each pixel in the white image W (i, j), the following (number According to 3), the same correction as described above can be performed.
[0055]
Figure 0003653804
Here, if the size of the small area of the white image to be referred to is M × N, (i ′, j ′) indicates the coordinates to be referred to,
i '= [i / M]
j ′ = [j / N] (Expression 4)
And [] is a Gaussian symbol. For example, if M = N = 8, the size of the white image W ′ may be 64 × 64 pixels.
[0056]
Black level reference value β0, White level reference value α0Is β for both R, G, and B images.0= 230 and α = about 40.
[0057]
Further, the white image is subjected to smoothing processing within the image, or a plurality of white images are measured, and the average processing or smoothing processing of the image is performed to reduce the influence of noise. With this correction, the density of the photographed color image becomes almost uniform over the entire image. It goes without saying that the image correction described above can be omitted when the distortion of the optical system can be substantially ignored.
[0058]
The above description is common processing executed prior to area division in each of the following embodiments.
[0059]
Example 1
  Example 1 is an example showing a part of the configuration of the present invention, and a configuration for identifying a background region and a target region based on a density value will be specifically described.In this embodiment, in order to efficiently divide a plurality of particles having different sizes (several μm to several hundred μm) present in an image captured by the flow method, from an image input by wavelength with a TV camera, After correcting the density unevenness of the optical system, the background region and the target region where the target particle exists are divided in the color space of the red image and the green image, and a binary value representing the background region and the target region where the target particle exists Get an image.
[0060]
In the present embodiment, the sediment component region in the image is divided from the image of the sample stained with S staining having a high blue and red contrast, which is suitable for automatic identification of the inspection target particles. The area division is performed based on the background area of the image. The correction process described above is performed in advance to correct the density unevenness of the optical system, to reduce the deviation of the density fluctuation, and to stably extract the background region.
[0061]
The details of the region dividing method will be described below.
[0062]
In the region division method described below, even when a target image of a target particle of interest is extracted from an image of a sample stained with S staining, a particle image having a density difference or a particle image having a color difference is stably divided. There are features that can be done.
[0063]
There are several known methods for taking an image of a stained biological sample and extracting a target substance (particles) in a color space. However, in the urine sediment examination apparatus, the object to be subjected to area division has a variety of properties as described above, and the conventional area division method cannot be simply applied as it is.
[0064]
According to the research of the inventor of the present invention, in the image obtained by the urine sediment examination apparatus, it has been found that the background region usually exists stably, so in order to detect the target particles of interest, In the present invention, a stable background area is first identified and a method based on this is adopted. That is, if the background region can be extracted stably, it can be considered that all signal components representing target particles to be detected separately from the background region are included in the region other than the background region.
[0065]
From the result of measuring typical sediment particles with a microspectrophotometer, the absorption peak of the staining agent is in the vicinity of 550 nm, and compared with the sensitivity in the wavelength region 400 to 500 nm (blue component), the wavelength region 500 to 700 nm ( It was found that the sensitivity of the green component and the red component was high. From this result, in the case of an image of a sample stained with S staining, it is clear that the region division is preferably performed in the G image and R image spaces. FIG. 4 schematically shows area division for extracting the background portion in the color space. The x-axis is the density of the G image, and the y-axis is the density of the R image. Here, the threshold values T1 and T2 are obtained from the density histogram 40 of the R image, and the threshold values T3 and T4 are obtained from the density histogram 40 ′ of the G image (a method similar to the region division method shown in FIG. 4 is used). However, in Japanese Patent Laid-Open No. 6-314338, the uneven density due to the distortion of the imaging optical system described above is not corrected).
[0066]
  Specifically, the density histogram of each image is obtained, and the density value having the maximum peak value of the histogram, the half valuevalueThe density value giving the width is obtained. Next, based on these values, a background area necessary for extracting the target area is identified and extracted.
[0067]
Hereinafter, a procedure for calculating each threshold value, identifying a background region, and obtaining a feature amount of the identified target particle pattern will be described.
[0068]
(Procedure 1): A density histogram of each image (G image, R image) is created. The pixel position of each image is represented by (i, j), the G image is represented by G (i, j), and the R image is represented by R (i, j).
[0069]
(Procedure 2): In each density histogram, the density value P having the maximum frequency value Pmax (*) as shown in FIG.dFind (*). Note that * represents one of R and G.
[0070]
(Procedure 3): In each density histogram, the density giving the half width of the peak, PhL(*), PhhFind (*). * Represents either R or G.
[0071]
(Procedure 4): Density value P obtained in (Procedure 1) to (Procedure 3)d(*), PhL(*), PhhUsing (*), threshold values T1, T2, T3, and T4 are respectively calculated by the following (Equation 5) to (Equation 8). From the R image,
T1 = Pd(R)-{Pd(R) -PhL(R)} · σ (Expression 5)
T2 = Pd(R)-{Pd(R) -Phh(R)} · σ (Expression 6)
From the G image,
T3 = Pd(G)-{Pd(G) -PhL(G)} · σ (Expression 7)
T4 = Pd(G)-{Pd(G) -Phh(G)} · σ (Expression 8)
Get. Here, σ is a predetermined experimentally determined parameter, and σ is normally set to 3.0 to 3.5.
[0072]
(Procedure 5): Based on the threshold values T1 to T4 calculated in (Procedure 1) to (Procedure 4), a binary image is created in the image space according to the following (Equation 9). The background area (BG) is
{T1 ≦ R (i, j) <T2} ∩ {T3 ≦ G (i, j) <T4} (Equation 9)
Is obtained. Here, ∩ represents a logical product.
[0073]
(Procedure 6): The binary image obtained in (Procedure 5) is corrected and shaped.
[0074]
(Procedure 7): Labeling is performed as a target region where target particles exist in regions independent of each other other than the background region obtained in (Procedure 5).
[0075]
(Procedure 8): A feature amount is obtained for the pattern of the target area labeled in (Procedure 7), and the pattern of the target area is identified. In addition, a known feature amount is obtained by a well-known technique, and the pattern of each target region is identified, but the target pattern extracted for each color tone is determined based on the degree of staining of the target particle and the position state of multiple target particles (contact If the pattern obtained in (Procedure 6) is synthesized according to (the degree of superposition), a more stable target pattern can be obtained.
[0076]
The processing steps in this embodiment are summarized as follows.
[0077]
(1) Density correction processing: removes density unevenness derived from distortion of the optical system in the G image and the R image.
[0078]
(2) Region division: A G image and an R image are divided into a background region and a target region using a plurality of thresholds, and a binary image is created with the background region set to 0 and the target region set to 1.
[0079]
(3) Correction processing: Correction and shaping of a binary image, such as filling a target area and removing noise from a background area, are performed.
[0080]
(4) Labeling: A labeling process is performed for each connected component of a binary image, and a plurality of objects in the image are numbered.
[0081]
(5) Feature amount calculation: For each numbered object, a feature amount such as area, perimeter, average density, etc. is obtained.
[0082]
(6) Identification: Based on the obtained feature quantity, it is determined and classified what kind of urine sediment component each object is.
[0083]
In (3) to (6), known conventional techniques can be used including filter processing such as thickening processing and thinning processing.
[0084]
As a result of applying this example to 99 images obtained from four actual samples, the target particles could be extracted by dividing the region into 93 images out of 99 images. The six images that could not be extracted were images in which the target particles were unstained, images due to poor adjustment of the focal position, and the like.
[0085]
  FIG. 6 and FIG. 7 show the results of applying this example to actual samples (the processing of (3) above). 6 and 7, the horizontal (x) axis and the vertical (y) axis are each composed of 512 pixels of 0 to 511. FIG. 6 shows an example of a region division result of an image of a stained cell with good staining of the target particle, and FIG. 7 shows an example of a region division result of an image of a cell that is hardly stained with the target particle. According to the present embodiment, as in the example shown in FIG. 7, when the target particles are not sufficiently stained, for example, when there is no difference between the cytoplasm concentration and the background concentration and extraction is not complete.ButHowever, such particles can be extracted by the methods according to Example 2, Example 3, and Example 4 described below.
[0086]
(Example 2)
Hereinafter, for the sake of simplicity, cells (particles) that are hardly stained with a staining solution are abbreviated as unstained cells (particles), and cells that are stained well (particles) are abbreviated as stained cells (particles). Note that cells (particles) that are lightly stained but insufficiently stained and poorly stained are hereinafter referred to as unstained cells (particles).
[0087]
In the case where the target target particles are stained particles that are satisfactorily dyed with a staining agent, the region can be divided satisfactorily by the region dividing method of Example 1 described above.
[0088]
However, in fact, cells with high activity have poor staining properties, and there are cases where cells that are hardly stained (unstained cells) exist. Such unstained cells have been found to be frequently present in urine samples. In addition, there are particles in the urine sample that have poor staining properties and insufficient staining.
[0089]
In an image including unstained cells, the color tone of the target area and the background area are substantially the same, and there are many portions having the same or lower density as the background area in the target area. When unstained cells are present in the image, the region dividing method of Example 1 can only perform region division as shown in FIG. 7, for example, as described above, and the region where the cells exist is the same. Not connected by pixels with values. As shown in FIG. 7, when an accurate binary image cannot be obtained, the feature amount of the target region cannot be obtained accurately, and the possibility of erroneous classification becomes very high. In order to improve the identification accuracy of sediment components, it is necessary to divide the region accurately to identify cells and other particles that are poorly stained and hardly stained.
[0090]
Unstained cells (cells that are hardly stained with the staining solution) are almost transparent, and the area where the cells are present (target area) has almost the same color as the background area. It contains many density regions of almost the same level. First, the difference between an image containing unstained cells and an image containing stained cells will be described.
[0091]
8 and 9 show examples of density values of images including stained cells and unstained cells, respectively.
[0092]
8 to 13 shown below, the horizontal axis indicates the position of 512 pixels from 0 to 511 in the y direction of the image.
[0093]
FIG. 8 shows a plot of concentration values for one line (x = 300) in the y direction passing through a region containing stained cells in an image containing stained cells (cells that are well stained). FIG. 9 shows a plot of concentration values for one line (x = 340) in the y direction passing through a region containing unstained cells in an image containing unstained cells.
[0094]
8 and 9, the horizontal axis represents the position in the image (y coordinate value), and the vertical axis represents the density value. As the density value is closer to 0, the color is darker, and as the density value is closer to 255, the color is lighter. In FIG. 8, the G image shows that the density value of the stained cell region is lower than that of the background region. In this case, as shown in FIG. 8, it can be seen that, when a threshold value of, for example, −180 and −220 is set as the density value, the background region and the target region can be clearly divided in the G image (FIG. 8). For reference, the threshold value of ~ 190 is also shown). From a comparison between FIG. 9 and an actual image (not shown), it has been found that cells exist in a portion where the density change is large compared to the surroundings (in the vicinity of y = 400). From FIG. 9, the unstained cell region (target region) includes a portion having a large density value and a small portion each having a density value comparable to that of the background region, compared to the background region. As shown in FIG. 8, as shown in FIG. 8, it is indicated that accurate area division cannot be performed only by setting the same threshold value in the density value as shown in FIG. The same threshold is shown in the figure).
[0095]
Furthermore, it can be seen from FIG. 9 that in the image including unstained cells, the variation in the density value in the background region is small, but the variation in the density value in the region (target region) of the unstained cell is large.
[0096]
In the present embodiment, paying attention to the fluctuation of the density value, the magnitude of the density value change in the image is calculated, a threshold value is provided for each of the density value and the density value change, and the region division is performed. Then, the image is accurately segmented including unstained cells (cells that are hardly stained with the staining solution).
[0097]
First, as an index representing the magnitude of the change in density value, the distribution of density values in a small local area is considered. The density value at (x, y) on the image is defined as P (x, y), the local variance is defined as q (x, y), and q (x, y) is defined by the following (Equation 10).
[0098]
q (x, y) = {1 / (2n + 1)2} ΣΣ {P (i, j)}2-{1 / (2n + 1)Four} {ΣΣP (i, j)}2 ... (10)
In (Equation 10), addition Σ is performed for i = x−n to i = x + n and j = y−n to j = y + n.
[0099]
FIG. 10 and FIG. 11 show examples of dispersion values of images including stained cells and unstained cells, respectively (example of q (x, y) when n = 2). 10 and 11 are plots of the variance value q (x, y) at the same position (one line) as in FIGS. 8 and 9, respectively. The horizontal axis is the y-coordinate value of the image, and the vertical axis is (number 10 is a variance value calculated by 10).
[0100]
10 and 11, the large peak around y = 490 on the horizontal axis is due to the discontinuous component at the edge of the image and is irrelevant to the recognition target (cell) in the image. FIG. 11 shows a variance value q (x, y) of an image including unstained cells. Compared with FIG. 8, the variance value of the background region is close to 0, and the variance value of the region where cells are present is a large value. It has become. Therefore, the variance q is the threshold qthSet qthA region having a larger variance value is regarded as a target region of interest, and an image including unstained cells is divided into regions. FIG. 11 shows the threshold qthIs shown as ~ 200.
[0101]
FIG. 10 shows a variance value q (x, y) of an image including stained cells. Compared with FIG. 8, the edge portion (horizontal axis, y = 200 and around y = 300) of the region where the cells exist is shown. The variance value shows a large value. However, since the inside of the cell is dyed with a uniform color tone, the variance value is small, and if the threshold value is set for the variance value and the region is divided, only the edge portion of the cell is divided as the target region. (In FIG. 10, as in FIG. 11, the threshold qthIs shown as ~ 200. ). Therefore, the threshold value is set for the variance value, and the region is divided, and the threshold value is set for the concentration value, the region is divided, and the result of both the region divisions is overlapped, thereby dividing the region of both stained cells and unstained cells. Can be performed accurately.
[0102]
In the method described above, the local dispersion value of the density defined by (Equation 10) is used to detect the magnitude of density fluctuation in the image. However, since the apparatus configuration is simpler, it is more convenient. As a method for detecting the magnitude of density fluctuation, the density difference value defined by the following (Equation 11) is used. The density value at (x, y) is P (x, y), and the density difference value is r (x, y).
[0103]
r (x, y) = ΣP (x, y + i) −ΣP (x, y−i) (Equation 11)
In (Expression 11), addition Σ is performed for i = 1 to i = n. The calculation of (Equation 11) can be executed only by addition and subtraction, and the density value used to calculate the difference value at one point of the image is the density value of the pixels arranged one-dimensionally on the image. Therefore, high-speed processing synchronized with image signal transfer can be executed with a simple apparatus configuration.
[0104]
FIGS. 12 and 13 show examples of density difference values (density difference values when n = 2) of images including stained cells and unstained cells, respectively. 12 and 13 plot the density difference values at the same position (one line) as in FIGS. 8 and 9, respectively. As in the case of the variance value, the peak value near the horizontal axis 490 is due to the discontinuous portion at the image end.
[0105]
FIG. 12 shows a difference value of an image including stained cells. Compared with FIG. 8, the difference value takes a value that greatly changes in positive and negative at the edge portion of the target region, and the inside of the target region and the background region. Then, the difference value takes a value close to zero.
[0106]
FIG. 13 shows a difference value of an image including unstained cells. As can be seen from comparison with FIG. 9, the difference value takes a value close to 0 in the background region, and the difference value is positive or negative in the target (cell) region. The value is changing greatly.
[0107]
However, since there are many portions where the difference value takes a value close to 0 even within the target region, the difference value has two positive and negative thresholds, rth1, Rth2(Rth1<0 <rth2) And set rth1<R (x, y) <rth2When region division is performed with the region to be a background region, a region having a difference value close to 0 within the target region is divided as a background region. Further, when this method is applied to an image including stained cells, only the edge portion of the cell is divided as a target region. In FIG. 12 and FIG.th1~ -20, rth2Shows the case of ~ 20.
[0108]
Here, consider the relationship between the density value and the density difference value. The point where the density difference value is 0 is a point where the density value takes a maximum value or a minimum value, and the density value at such a point is relatively larger or smaller than the average density value of the background region. It is likely to take a value. That is, as a result of performing region division by setting a threshold value for the density difference value, a portion that cannot be accurately divided (a portion inside the target region that is divided as a background region) is set with a threshold value for the region. If the division is performed, the target area can be divided. Therefore, by setting a threshold value for the difference value and performing region division, by setting a threshold value for the density value and performing region division, the results of both region divisions are superimposed (logical OR) to include unstained cells. Both an image and an image including stained cells can be accurately segmented.
[0109]
A result of applying the method described above to an image actually captured by the flow method will be described. When 51 examples of images containing squamous epithelial cells that were most likely to be unstained were examined, 8 images containing unstained particles appeared. In the method of Example 1, as a result of applying the above-described method to the images of 8 examples including unstained particles that were difficult to accurately divide into regions, the processing results obtained in the case of an image including stained particles; Equivalent results could be obtained. Hereinafter, among these images, an image including typical stained particles and an image including unstained particles will be described as examples.
[0110]
FIGS. 14 and 15 show the results of region segmentation of images containing stained cells and unstained cells, respectively, using a binarization method using local dispersion of concentrations (binary images (region segmented images)). An image in which correction processing is performed on a binary image)) is shown.
[0111]
14 to 17, the horizontal (x) axis and the vertical (y) axis are each composed of 512 pixels of 0 to 511.
[0112]
Using the density value of the G image, the variance value calculated as n = 2 in (Equation 10) and the density value of the G image were used in the region division processing. Specifically, if the density value at (x, y) is P (x, y), the variance value is q (x, y), and the binarization result is s (x, y),
Pth1<P (x, y) <Pth2 and q (x, y) <qth:
s (x, y) = 0 (background: white)
otherwise: s (x, y) = 1 (target area: black) (Equation 12)
After obtaining a binary image represented by s (x, y), as a correction process (background area noise removal process, target area hole filling process), the target area is thickened once to be thinned. Was performed twice, and then a thickening process was further performed once (each of these processes is a well-known technique).
[0113]
Threshold value P set for density valueth1,Pth2Is the density value P giving the maximum value of the density histogramm, Density value giving half the maximum value, Ps1,Ps2(Ps1<Pm<Ps2)
Pth1= Pm-3.5 (Pm-Ps1)
Pth2= Pm+3.5 (Ps2-Pm(...)
It was. The threshold value set for the variance value is qth= 30.
[0114]
From FIG. 15, it is apparent that the result of region segmentation of the image including unstained cells is greatly improved compared to the result of Example 1 shown in FIG.
[0115]
Further, in the image including the stained cells (FIG. 14), the bacterium is present at the two positions (50, 51) on the right side of the cell region. It is detected at one place (52) on the right side. These bacteria were bacteria that could not be detected in the results of the method of Example 1 (FIGS. 6 and 7).
[0116]
Bacteria are present in two places (60, 61) on the left side of the cell area of the image (FIG. 14) containing the stained cells and in one place (62) on the left side of the cell area of the image (FIG. 15) containing the unstained cells. There is a smaller point, but this seems to be a noise component in the background area.
[0117]
FIGS. 16 and 17 show results of region segmentation of images including stained cells and unstained cells, respectively, using a binarization method using density difference values (binary image (binary segmented binaries)). An image in which correction processing is performed on the image)) is shown. Using the density value of the G image, the difference value calculated as n = 2 in (Equation 11) and the density value of the G image were used in the region division processing. Specifically, if the density value at (x, y) is P (x, y), the difference value is r (x, y), and the binarization result is s (x, y),
Pth1<P (x, y) <Pth and rth1<R (x, y) <rth2:
s (x, y) = 0 (background: white)
otherwise: s (x, y) = 1 (target area: black) (Expression 14)
Then, after obtaining a binary image represented by s (x, y), correction processing was performed.
[0118]
Correction processing and density threshold Pth1, Pth2The same method as in the case of area division using the binarization method using the local dispersion of the density was used. The threshold value set for the difference value is | rth1│, │rth2│ can be set to about 15-25, rth1= -20, rth2= 20.
[0119]
FIG. 17 clearly shows that the result of segmentation of an image including unstained cells is greatly improved as compared to the result of Example 1 shown in FIG.
[0120]
In addition, in the image including the stained cells (FIG. 16), the bacteria are present at the two locations (50, 51) on the right side of the cell region. It is detected at one place (52) on the right side. These bacteria are those that could not be detected in the results of the method of Example 1 (FIGS. 6 and 7).
[0121]
When comparing FIG. 7, FIG. 15 and FIG. 17, compared with the region dividing method of the first embodiment, two types of region dividing methods using the above-described local distribution of density and binarization method using difference values are used. It can be seen that this is effective for the region division of unstained cells. Of the two types of methods, the method using the dispersion value of concentration is more effective for the region division of unstained cells. However, the method using the difference value of the density can simply configure the apparatus. Therefore, details of the region division method using the difference value will be described.
[0122]
The results shown in FIG. 16 and FIG.Calculation (This is the result when n = 2 in Equation 11). The number of neighboring pixels used when calculating a difference value of a certain pixel is represented by 2n + 1, and this number is referred to as a mask size here. For example, when n = 2, the calculation of the difference value of a certain pixel requires a total of 5 pixels, centering on that pixel, 2 pixels before and after in the y direction, and the mask size = 5. When the mask size = 1, it means that the difference process is not performed.
[0123]
FIG. 18 shows the result of area division by changing the mask size. FIG. 18 shows an image made up of 512 × 512 pixels. In order to investigate the influence of the mask size on the area division, the value of n was changed and the area division was performed. The example of FIG. 18 is a result of region segmentation of an image including the same unstained cells as in FIGS. 7, 15, and 17. The result of mask size = 5 in FIG. 8 corresponds to the result of FIG. In the example of FIG. 18, the result with mask size = 9 gives the best region segmentation result (however, a white region indicating an erroneously identified background is present in a part inside the region where cells exist. Mixed).
[0124]
Moreover, the cell 52 is detected also in FIG. 18 similarly to the result of FIG. 15, FIG. Note that the result when the difference processing is not performed with the mask size = 1 is similar to the result according to the first embodiment shown in FIG.
[0125]
Next, let us consider the influence of the mask size on the frequency axis.
[0126]
FIG. 19 shows the result of discrete Fourier transform of the signal component (density value) of one line (512 pixels) of the G image in the y direction of the background area as a dotted line, and the y direction passing through the unstained cell area as a solid line. The result of discrete Fourier transform of the signal component (density value) of the G image of one line (512 pixels) is shown. The horizontal axis represents the spatial frequency expressed as a unit length of one side (512 pixels) of the image, and the vertical axis represents the signal power when the maximum density value is normalized to 0.1.
[0127]
From FIG. 19, since the signal in the background area is a noise component, it is distributed with almost the same power except for the DC component, and the image signal of the line passing through the unstained cell area is the background area. It can be seen that the signal components of frequencies 1 to 150 are stronger than
[0128]
If (Equation 11) used to emphasize the region of unstained cells is regarded as a digital filter, the transfer function uses the z-transform,
H (z) = Σ {z ↑ (k) −z ↑ (−k)} (Equation 15)
It is expressed. Here, z ↑ (y) indicates the power (y) of z (y = k, y = −k). In (Expression 15), addition Σ is performed for k = 1 to k = n. The frequency response at this time is
Figure 0003653804
It is expressed. Ω represents a spatial frequency whose unit length is two pixels on the image, and j is an imaginary unit.
[0129]
FIG. 20 shows the frequency amplitude characteristics | H (Ω) |) when n = 1, 2, and 3.
[0130]
The horizontal axis in FIG. 20 represents the spatial frequency expressed as the unit length of the length of one side (512 pixels) of the image, and the vertical axis represents the value obtained by normalizing the filter response using the mask size. . In addition, the phase characteristic is constant at π / 2, and the effect of this filter is to emphasize the frequency component peculiar to the image containing unstained cells and to separate it from the background, and by shifting the phase by 90 degrees, And a portion that becomes 0 when binarized and a portion that becomes 0 when binarized using the difference value.
[0131]
From FIG. 20, in the case of n = 2 (mask size 5) and n = 3 (mask size 7), the signal components in the medium frequency region to the low frequency region peculiar to the image including unstained cells are strengthened. When the mask size becomes excessive, although not shown in FIG. 20, the value of n is increased as in the case of n = 5.TheAs the process proceeds, the low frequency region of the signal components peculiar to the image including unstained cells is weakened. For this reason, the value of n is suitably about 2 to 4 (mask size 5 to 9).
[0132]
FIG. 21A and FIG. 21B show the results of examining the influence of the mask size on the shape of the region divided as the target region, using stained red blood cell images. In FIGS. 21A and 21B, the unit of length is the number of pixels.
[0133]
Among the objects to be classified, red blood cells are the second smallest after bacteria, and the shape is almost circular. Therefore, the red blood cell image is divided into regions by changing the mask size, and changes in the shape of the extracted target regions are evaluated. Thus, it is possible to evaluate deterioration in the image processing process (difference between the true shape of the target particle and the shape of the target region divided into regions).
[0134]
FIG. 21A is a plot of the area and perimeter of the target region (red blood cells) obtained for various mask sizes (shown as numbers in the figure). As the mask size increases, both the area and the perimeter increase, and the target area expands.
[0135]
FIG. 21B is a plot of the projection lengths in the x and y directions obtained when the red blood cells divided into regions are projected onto the x axis and the y axis, respectively. Since erythrocytes are almost circular, the projection lengths on the x-axis and y-axis are almost the same value when the difference processing is not used (mask size = 1). However, when the difference process is performed, the projection length in the y-axis direction, which is the direction of the difference process, is larger than the projection length in the x-axis direction, and the target area is a vertically long ellipse. This is because, as can be seen from FIG. 20, the high-frequency component is suppressed and the target edge is expanded by the difference processing, and is thus expanded in the processing direction.
[0136]
In addition, this tendency becomes stronger as the mask size increases. As described above, it is necessary to determine the mask size in consideration of two points of improvement in binarization of an image including unstained cells and deterioration of a binary image of an image including stained cells.
[0137]
Improvement of binarization of an image containing unstained cells enables more accurate calculation of feature parameters and leads to an improvement in recognition rate of pattern recognition at a later stage, but deterioration of the binary image of an image containing stained cells. Makes the feature parameters inaccurate and affects the classification accuracy, especially for small objects. Further, the obtained binary image changes depending on the threshold value used for binarization. In general, the smaller the absolute value of the threshold, the better the region division of the unstained cells, but the easier it is to pick up noise components in the background region. It is necessary to set an optimum threshold value while paying attention to this point.
[0138]
FIG. 22 shows a flowchart of processing for explaining the procedure for dividing the region of the particle image of this embodiment. As described above, the particle image to be processed is stored in the image memory. In this embodiment, the image to be used is a G image and is represented by a density value P (x, y) at the position (x, y) of each pixel.
[0139]
Hereinafter, the process will be described according to the process steps shown in FIG.
[0140]
(Step S1): First, the density value P (x, y) at the pixel (x, y) is read from the image memory.
[0141]
(Step S2): The density value P (x, y) is converted into a variable u (x, y) representing the binary image shown below.
[0142]
When T2 '<P (x, y) <T1': u (x, y) = 0 (Equation 17)
otherwise: u (x, y) = 1 (Expression 18)
Here, T1 'and T2' represent threshold values. For example, T1 'and T2' are determined as follows. First, the density value P (x, y) of the image stored in the image memory is read, a histogram of density values is created, and density threshold values T1 'and T2' are determined from the shape of the histogram. Usually, since the area of the background portion is the largest on the image, the average density of the background takes the maximum value on the histogram. As shown in FIG. 5, the density value P giving the maximum value of this histogram.dIs detected, and this maximum value is defined as Pmax. Next, the density value giving the value of Pmax / 2 is detected, and PhL, Phh(PhL<Pd<Phh).
[0143]
An appropriate constant k is determined, and threshold values T1 'and T2' are determined from (Equation 19) and (20).
[0144]
T1 '= Pd+ K (PhL-Pd(Equation 19)
T2 '= Pd+ K (Phh-Pd) (Equation 20)
The constant k is obtained experimentally in advance.
[0145]
As shown in (Expression 17), when T2 ′ <P (x, y) <T1 ′, the pixel (x, y) is considered to be in the background area ((Expression 17)), and T2 ′ ≧ P (x , Y) or P (x, y) ≧ T1 ′, the pixel (x, y) is a target region (a region other than the background region, which indicates a region where particles to be distinguished from the background region exist). ((Equation 18)).
[0146]
(Step S3): The density values of a plurality of pixels near the pixel (x, y) are read from the memory.
[0147]
(Step S4): The magnitude of the density value change (the magnitude of the density value change at the pixel (x, y) is q (x, y)) is any of the following (a) to (d). Use one of these methods to calculate.
[0148]
(A); As shown in (Expression 21) or (Expression 22), the density values of a plurality of pixels in the vicinity of the pixel (x, y) read out in step S3 are two regions adjacent to each other on the image. The sum of the density values of the pixels belonging to the respective areas is obtained, and then the difference between the two obtained sums ((Equation 21)) or its absolute value ((Equation 22)) Ask for.
[0149]
q (x, y) = Σ {P (x, y + i) −P (x, y−i)} (Expression 21)
q (x, y) = | Σ (P (x, y + i) −P (x, y−i)) | (Equation 22)
For example, the density values of four pixels near the pixel (x, y) read out in step S3, P (x, y-2), P (x, y-1), P (x, y + 1), P From (x, y + 2), q (x, y) is calculated by (Equation 21) or (Equation 22). In (Expression 21) and (Expression 22), addition Σ is performed for i = 1 to i = n.
[0150]
(B): The variance ((Equation 23)) or standard deviation ((Equation 24)) of the plurality of pixels in the vicinity of the pixel (x, y) read out in step S3 is obtained, and the density value change Let q (x, y) be the magnitude of.
[0151]
q (x, y) = {1 / (2n + 1)2} ΣΣ {P (x + i, y + j)}2-{1 / (2n + 1)2}2{ΣΣP (x + i, y + j)}2... (Equation 23)
q (x, y) = √ <{1 / (2n + 1)2} ΣΣ {P (x + i, y + j)}2 -{1 / (2n + 1)2}2{ΣΣP (x + i, y + j)}2> (Equation 24)
Note that √ <> indicates the square root in <>. In (Expression 23) and (Expression 24), addition Σ is performed for i = −n to i = n and j = −n to j = n, respectively.
[0152]
For example, in step S3, the density values P (i, j) of nine pixels satisfying x-1 ≦ i ≦ x + 1 and y−1 ≦ j ≦ y + 1 are read out, and (Equation 23) or (Equation 24) , Q (x, y).
[0153]
(C); obtained by taking the product of the density value of a plurality of pixels in the vicinity of the pixel (x, y) obtained in step S3 and the weight value w corresponding to the geometric arrangement of each pixel. The sum of the products is defined as the magnitude q (x, y) ((Equation 25)) of the density value change.
[0154]
q (x, y) = {ΣΣw (i, j) P (x + i, y + j)} (Equation 25)
In (Equation 25), addition Σ is performed for i = −n to i = n and j = −n to j = n, respectively. For example, nine weight values w (k, m) (k, m = −1, 0, 1) are set in advance, and the density values P (i, j) (x−) of the nine pixels are set in step S3. 1 ≦ i ≦ x + 1, y−1 ≦ j ≦ y + 1) is read, and q (x, y) is calculated by (Equation 25). The weight values are, for example, w (0,0) = 4, w (-1,0) = w (1,0) = w (0, -1) = w (0,1) = 1, w (− 1, -1) = w (-1,1) = w (1, -1) = w (1,1) = 0.
[0155]
(D): After obtaining the magnitude q (x, y) of the density value change using any one of the above methods (a) to (c), the density value change obtained Considering the magnitude as a density value P (x, y),
P (x, y) = q (x, y) (Equation 26)
The density value change magnitude q (x, y) may be calculated by any one of the methods (a) to (c).
[0156]
For example, after calculating the value of q (x, y) for all the pixels (x, y) by the method of (a) above, applying (Equation 26), and then the method of (b) above Q (x, y) is calculated again using.
[0157]
(Step S5): The magnitude q (x, y) of change in density value is converted into a variable v (x, y) representing the binary image shown below.
[0158]
When q (x, y) takes only a positive value, the threshold T3 'is used,
When q (x, y) <T3 ′: v (x, y) = 0 (Equation 27)
When q (x, y) ≧ T3 ′: v (x, y) = 1 (Equation 28)
When q (x, y) <T3 ′, the pixel (x, y) is considered to be in the background area (Equation 27), and when q (x, y) ≧ T3 ′, the pixel (x, y) y) is considered to be in the target area ((Equation 28)). The threshold value T3 'can be obtained experimentally in advance.
[0159]
When q (x, y) takes a negative value (step S5 '), the threshold value T3 "and the threshold value T4' are used,
When T4 ′ <q (x, y) <T3 ″: v (x, y) = 0 (Equation 29)
otherwise: v (x, y) = 1 (Expression 30)
When T4 ′ <q (x, y) <T3 ″, the pixel (x, y) is considered to be in the background area (Equation 29), and T4 ′ ≧ q (x, y) or q ( When x, y) ≧ T3 ″, the pixel (x, y) is considered to be in the target area ((Expression 30)). The threshold values T3 ″ and T4 ′ can be experimentally obtained in advance.
[0160]
The selection of S5 and S5 'in (Step S4') is automatically determined depending on how q (x, y) is defined in (Step S4).
[0161]
(Step S6): The logical sum of u obtained in (Step S2) and v obtained in (Step S5) or (Step S5 ′) is obtained as a result of binarization at the pixel (x, y). To do.
[0162]
(Steps S7, S8): If the pixel (x, y) is the last pixel point to be processed, the process proceeds to step S9; otherwise, the pixel (x, y) is the next pixel point. To repeat the process of steps S1 to S6 (steps S7 and S8).
[0163]
(Step S9): A correction process is performed on the binary image obtained by the above processing with the target area set to 1 and the background area set to 0, such as filling the target area and removing noise from the background area.
[0164]
(Step S10): For each connected component of the binary image, a labeling process by a well-known technique is performed, and a plurality of objects in the image are numbered.
[0165]
(Step S11): For each numbered object, a feature amount by a known technique such as area, perimeter, average density, projection length, etc. is obtained.
[0166]
(Step S12): Using the obtained feature amount, each object is classified and identified as any kind of urine sediment component.
[0167]
FIG. 23 shows an apparatus configuration for carrying out this embodiment. Particles in the liquid are irradiated by a pulse lamp 101, magnified by an optical magnification system (not shown), photographed by a television camera 102, and converted into an analog electrical signal. The output of the television camera 102 is converted into a digital signal by the A / D converter 103 and then stored in the image memory 104 via the data bus 110. The threshold value calculation unit 105 reads out the density value of the image stored in the image memory 104 via the data bus 110 and creates a histogram of the density value. According to (Equation 19) and (Equation 20), an area based on the histogram shape is obtained. Density threshold values T1 ′ and T2 ′ used in the dividing unit 106 are determined.
[0168]
The area dividing unit 106 divides the area using the density value obtained from the image memory 104 and the threshold values T1 ′ and T2 ′ obtained from the threshold calculating unit 105 via the data bus 110, and sets the target area as 1 After binarization with the background area set to 0, the binarization result is stored in the image memory 107 via the data bus 110. All of the above processing is controlled by the computer 108 via the CPU bus 109.
[0169]
FIG. 24 shows a configuration of the area dividing unit 106 in FIG. The input unit 200 is connected to the data bus 110 in FIG. 23 and controls data input via the data bus 110. In the density binarization circuit 300, first, the threshold values T1 ′ and T2 ′ are read from the threshold value calculation unit 105 (FIG. 23) via the input unit 200, and the values of T1 ′ and T2 ′ are stored in the threshold value memory 310. To do. Next, the density value of one pixel on the image is read from the image memory 104 via the input unit 200, and the density value is compared with the threshold values T1 'and T2' by the comparator 320. Assuming that one point on the image is (x, y) and the density value at that point is P (x, y), the comparator 320 compares the density value P (x, y) with the threshold values T1 ′ and T2 ′. , T2 ′ <P (x, y) <T1 ′, the pixel is regarded as a background area and 0 is output, otherwise it is regarded as a target area and 1 is output. .
[0170]
In parallel with the above binarization of density, the density change binarization circuit 400 operates. In the density change binarization circuit 400, first, density values of a plurality of neighboring pixels on the image (x, y) are read from the image memory 104 (FIG. 23) via the input unit 200 and stored in the memory 410. The density change calculation unit 420 uses the density values of the (x, y) neighboring pixels held in the memory 410 to change the density value using any one of the following methods (a) to (d). Calculate the size. Let q (x, y) be the magnitude of the change in density value at (x, y).
[0171]
(A) The density value of the pixel stored in the memory 410 is divided into pixels belonging to two adjacent areas on the image, and the sum of the density values of the pixels belonging to each area is obtained. Next, the difference between the two obtained sums or the absolute value thereof is obtained, and the magnitude of change in the density value is defined as q (x, y). For example, the density values P (x, y−2), P (x, y−1), P (x, y + 1), and P (x, y + 2) of four pixels are stored in the memory 410, Q (x, y) is calculated by (Equation 31) or (Equation 32).
[0172]
q (x, y) = ΣP (x, y + i) −ΣP (x, y−i) (Equation 31)
q (x, y) = | ΣP (x, y + i) −ΣP (x, y−i) |
In (Expression 31) and (Expression 32), addition Σ is performed for i = 1 to i = 2, respectively. FIG. 25 shows a specific configuration example of the density change binarization circuit 400 in this case. The memory 410 is composed of four memories 411 to 414 each storing one density value. Concentration values P (x, y−2), P (x, y−1), P (x, y + 1), and P (x, y + 2) are stored in the memories 411 to 414, respectively.
[0173]
The density change calculation unit 420 includes two adders 421 and 422 and one subtracter 423, and performs the calculation represented by (Equation 31). The output of the adder 421 outputs the value calculated by the second term on the right side of (Equation 31), and the adder 422 outputs the value calculated by the first term on the right side of (Equation 31). The output of the subtracter 423 outputs a value calculated on the right side of (Equation 31). When the subtracter 423 has a function of outputting an absolute value, the calculation shown in (Expression 32) can be performed.
[0174]
(B) The variance or standard deviation of the density values stored in the memory 410 is obtained and set as the magnitude q (x, y) of the density value change. For example, the density values P (i, j) of nine pixels that satisfy x−1 ≦ i ≦ x + 1 and y−1 ≦ j ≦ y + 1 are stored in the memory 410, and the following (Expression 33) or ( Q (x, y) is calculated by Equation 34).
[0175]
q (x, y) = {1/9} ΣΣ {P (x + i, y + j)}2− {1/81} {ΣΣP (x + i, y + j)}2 ... (Expression 33)
q (x, y) = √ {{1/9} ΣΣ {P (x + i, y + j)}2− {1/81} {ΣΣP (x + i, y + j)}2> (Formula 34)
Note that √ <> indicates the square root in <>. In (Expression 33) and (Expression 34), addition Σ is performed for i = −1 to i = 1 and j = −1 to j = 1, respectively.
[0176]
FIG. 26 shows a specific circuit configuration example of the memory 410 and the density change calculation unit 420 in this case. The memory 410 is composed of nine memories 811 to 819 each storing one density value. The memories 811 to 819 store the density values P (i, j) of nine pixels that satisfy x−1 ≦ i ≦ x + 1 and y−1 ≦ j ≦ y + 1.
[0177]
The density change calculator 420 includes a square calculator 821 including nine square calculators, adders 822 and 824, dividers 823 and 825, a square calculator 826, and a subtractor 827. The values read from the memories 811 to 819 are each divided into two, one being input to the square calculator 821 and the other being input to the adder 824. The adder 822 calculates the sum of the outputs of the nine square calculators of the square calculator 821, and the divider 823 divides the output value of the adder 822 by 9. The divider 823 outputs the value calculated by the first term on the right side of (Expression 33).
[0178]
The adder 824 calculates the sum of the nine density values read from the memories 811 to 819, and the divider 825 divides the output value of the adder 824 by 9. The square calculator 826 outputs the value calculated by the second term on the right side of (Expression 33). The subtractor 827 calculates the difference between the output of the divider 823 and the output of the square calculator 826. The subtracter 827 outputs the value calculated on the right side of (Equation 33). If a circuit for calculating the square root is provided after the subtractor 827, the value calculated on the right side of (Equation 34) can be output.
[0179]
(C) The product of the density value of the pixel stored in the memory 410 and the weight value w corresponding to the geometric position of the pixel image is taken, and the total sum of the obtained products is the magnitude of the change in the density value. Let q (x, y). For example, nine weight values w (k, m) (k, m = −1, 0, 1) are set in advance, and the density values P (i, j) (x −1 ≦ i ≦ x + 1, y−1 ≦ j ≦ y + 1) is held, and q (x, y) is calculated by the following (Equation 35).
[0180]
q (x, y) = {ΣΣw (i, j) P (x + i, y + j)} (35)
The weight values are, for example, w (0,0) = − 4, w (−1,0) = w (1,0) = w (0, −1) = w (0,1) = 1, w ( −1, −1) = w (−1,1) = w (1, −1) = w (1,1) = 0. In (Expression 35), the addition Σ is performed for i = −1 to i = 1 and j = −1 to j = 1, respectively.
[0181]
FIG. 27 shows a specific circuit configuration example of the memory 410 and the density change calculation unit 420 in this case. The memory 410 is composed of nine memories 931 to 939 each storing one density value. In the memories 931 to 939, density values P (x-1, y-1), P (x, y-1), P (x + 1, y-1), P (x-1, y), P (x , Y), P (x + 1, y), P (x-1, y + 1), P (x, y + 1), and P (x + 1, y + 1) are stored. In the weight value memories 941 to 949, the weight values w (-1, -1), w (0, -1), w (1, -1), w (-1, 0), w (0, 0) are stored. , W (1, 0), w (-1, 1), w (0, 1), w (1, 1) are set in advance. The multipliers 951 to 959 calculate the product of the density value and the weight value, and the adder 961 obtains the sum of the nine obtained products.
[0182]
(D) Using any one of the methods (a) to (c) described above, the magnitude of the change in the density value is obtained, and then the magnitude of the obtained density value change is expressed as the density value. Therefore, the magnitude of the change in the density value may be calculated again using any one of the methods (a) to (c), and the obtained value may be set to q (x, y).
[0183]
For example, after calculating the value of q (x, y) for all pixels (for example, 512 × 512 pixels) by the method of (c), using this q (x, y),
P (x, y) = q (x, y) (36)
In addition, q (x, y) is calculated again using the method (b). In this case, the memory 410 and the density change calculation unit 420 are replaced with a circuit of the density change calculation unit having the configuration shown in FIG.
[0184]
First, the load sum calculation circuit 900 calculates the value of the right side of (Equation 35) for all pixels, and stores the obtained value in the image memory 1000. Next, the value stored in the image memory 1000 is calculated as a density value, and the value on the right side of (Expression 33) is calculated and output by the variance calculation circuit 800. The configurations of the load sum calculation circuit 900 and the variance calculation circuit 800 are the configurations shown in FIGS. 27 and 26, respectively.
[0185]
The comparison unit 430 in FIG. 24 includes a threshold memory 431 and a comparator 432 as shown in FIG. In the threshold memory 431, threshold values T3 ′, T3 ″, and T4 ′ are stored in advance, and when the magnitude q (x, y) of the density change takes only a positive value, q (x, y) <T3 If ', the pixel is regarded as a background region and 0 is output, otherwise it is regarded as the target region and 1 is output.
[0186]
When q (x, y) takes a negative value, 0 is output if T4 ′ <q (x, y) <T3 ″, and 1 is output otherwise. Threshold values T3 ′, T3 ″, T4 'Can be obtained experimentally in advance. Next, the logical sum circuit 500 takes a logical sum of the output of the density binarization circuit 300 and the output of the density change binarization circuit 400. The above processing is applied to all the pixels to obtain a binary image in which the target area is 1 and the background area is 0. The binary image obtained in this way is further filtered by the filter unit 600 to perform processing for filling the target region by thickening processing or the like, and for removing noise from the background region by thinning processing or the like. Correction is performed, and the corrected binary image is output from the output unit 700 to the data bus 110 (FIG. 24).
[0187]
The processing steps in this embodiment are summarized as follows.
[0188]
(1) Density correction processing: removes density unevenness derived from distortion of the optical system in the G image.
[0189]
(2) Region division: A binary image in which the G image is divided into a background region and a target region based on the density and the amount representing density change in the G image, and the background region is 0 and the target region is 1. create.
[0190]
(3) Correction processing: Correction and shaping of a binary image, such as filling a target area and removing noise from a background area, are performed.
[0191]
(4) Labeling: A labeling process is performed for each connected component of the binary image, and a plurality of objects in the image are numbered.
[0192]
(5) Feature amount calculation: For each numbered object, a feature amount such as area, perimeter, average density, etc. is obtained.
[0193]
(6) Identification: Based on the obtained feature quantity, it is determined and classified what kind of urine sediment component each object is.
[0194]
In (3) to (6), known conventional techniques can be used including filter processing such as thickening processing and thinning processing.
[0195]
(Example 3)
In this embodiment, instead of the configuration in which the threshold is set for the density of the G image in the configuration of the second embodiment and the region is divided, the configuration of the first embodiment (the threshold is set in the density of the G image and the R image is divided into regions The target particles are extracted more accurately using the above-described configuration.
[0196]
According to the results applied to a large number of samples, the region division method of Example 1 can extract the stained cells more accurately than the unstained cells. In this method, since only the G image is used, it was found that the extraction of the stained cells is inferior to that in Example 1 when the G image of the stained particle image is unclear. In this embodiment, the threshold value is provided for the density of the G image and the R image to divide the region. Therefore, even when the G image is unclear, the information of the R image is used, and either the first embodiment or the second embodiment is used. This makes it possible to extract target particles more accurately.
[0197]
The processing steps in this embodiment are summarized as follows.
[0198]
(1) Density correction processing: removes density unevenness derived from distortion of the optical system in the G image and the R image.
[0199]
(2) Region division: A G image and an R image are divided into a background region and a target region using a plurality of thresholds, and a binary image is created with the background region set to 0 and the target region set to 1.
[0200]
(3) Region division: A G image is divided into a background region and a target region based on an amount representing density change in the G image, and a binary image is created with the background region set to 0 and the target region set to 1.
[0201]
(4) Region division: Logical sum of the binary images obtained in (2) and (3).
[0202]
(5) Correction processing: Correction and shaping of a binary image such as hole filling of a target region and noise removal of a background region are performed.
[0203]
(6) Labeling: A labeling process is performed for each connected component of a binary image, and a plurality of objects in the image are numbered.
[0204]
(7) Feature amount calculation: A feature amount such as an area, a perimeter, an average density, etc. is obtained for each numbered target.
[0205]
(8) Identification: Based on the obtained feature quantity, it is determined and classified what kind of urinary sediment component each object is.
[0206]
In (5) to (6), known conventional techniques including filter processing such as thickening processing and thinning processing can be used. Further, the processing of (5) may be performed on the processing results of (2) and (3), and the processing of (5) may be omitted.
[0207]
It goes without saying that either of the processes (2) and (3) for dividing the area may be performed first or in parallel.
[0208]
From the red component image (R image), green component image (G image), and blue component image (B image) of the target particle, the red component image (R image) of the target particle in the same manner as in Example 1. ), A green component image (G image) is selected, and, similarly to the second embodiment, a green component image (G image) is selected, and the configuration of the first embodiment is partially included in the configuration of the second embodiment. As a result of applying to 51 examples of images including the flattened epithelial cells that are most likely to be unstained, as described in Example 2, a good region was obtained in all 51 images including 8 unstained particles. The division result was obtained. In other words, the configuration of Example 1 was incorporated in a part of the configuration of Example 2, and satisfactory region division that could not be obtained by the single method of Example 1 and Example 2 could be performed. As a result, almost all target particles, including unstained cells that were difficult to be divided as one region, can be divided as one connected target region by a single method. The accuracy of component identification could be improved.
[0209]
In this example, even when particles that are sufficiently stained and particles that are difficult to be dyed (particles that are not sufficiently stained, particles that are hardly stained) are mixed together, the background region is accurately identified, The region can be stably divided for each particle image, and a more accurate binary image can be obtained. As a result, the feature amount of the target region can be obtained more accurately, and the classification error of the target particle can be reduced. In this way, even when target particles with different degrees of staining are mixed, target particles that are poorly dyeable and hardly stained are included in the sample, accurate segmentation can be performed for each particle image, and various sediment components The identification accuracy can be improved.
[0210]
FIG. 30 and FIG. 31 show examples of processing results on actual samples according to this example.
[0211]
The sample in FIG. 30 is the same sample as the examples shown in FIGS. 6, 14, and 16, and shows an example of cells (stained cells) with good staining. The sample in FIG. 31 is the same sample as the example shown in FIGS. 7, 15, and 17, and shows an example of cells (stained cells that are not stained well).
[0212]
30 and 31, binary images 251 and 261 are binary images 252 and 262, respectively, which are obtained as a result of region segmentation by setting threshold values for the density values of the G image and the R image of the first embodiment. The results of region segmentation by the method of setting a threshold value for the amount representing the change in the density value of the G image in Example 2 (n = 2 and using the difference value) are shown. The binary image 253 shows the result of taking the logical sum of the binary images 251 and 252, and the binary image 263 shows the result of taking the logical sum of the binary images 261 and 262. It should be noted that, based on the result of region division of these binary images 251, 261, 252, 262, 253, and 263, correction processing (binary image correction and shaping processing such as target region filling and background region noise removal) is performed. Not done. The binary images 254 and 264 are images obtained by performing correction processing on the binary images 253 and 263, respectively. 6 is obtained when the binary image 251 is corrected, and the image of FIG. 7 is obtained when the binary image 261 is corrected.
[0213]
In the method of Example 3, even if it is difficult to ideally extract the particles in the sample by the single methods of Examples 1 and 2, it is possible to extract the particles in the image with almost no oversight. Become.
[0214]
Example 4
In this embodiment, any two binary images obtained by the region dividing method described in the first to third embodiments, or a logical operation (logical sum) of three binary images is newly added. A binary image is obtained, and target particles are extracted more accurately.
[0215]
FIG. 29 is a diagram schematically illustrating the synthesis of two binary images obtained by area division by two different methods (area division methods based on the first embodiment and the second embodiment) in the present embodiment. . A new binary image 230 is synthesized from the binary image 210 obtained from the region dividing method based on the first embodiment and the binary image 220 obtained from the amount representing the change in density value of the G image in the second embodiment. . This composition is obtained by the logical sum of the two binary images 210 and 220. In the particle image 212 of the binary image 210, only a part of the periphery of the particle image 222 obtained in the binary image 220 is extracted. Conversely, in the particle image 221 of the binary image 220, the binary image 210 is extracted. Only the part of the inside of the particle image 211 obtained in (the part of the inside of the particle image 211 is identified as the background region) is extracted.
[0216]
In the new binary image 230 synthesized by the logical sum of the two binary images 210 and 220, the particle images 231 and 232 are obtained, and the quality of the image is improved by compensating for the drawbacks of the respective region segmentation methods. A binary image is obtained, and target target particles can be extracted more accurately. In the above description, a logical sum is taken as the synthesis method, but it is appropriately set depending on the processing conditions (staining conditions, etc.) of the sample to be image-processed, the type of sample, the type of target particle, and the like.
[0217]
In each of the above-described embodiments, the determination of which image to select among red, green, and blue images as the image to be used for region segmentation depends on the spectral characteristics of the sample to be analyzed, the level and variations of the background signal, and the target In consideration of the signal level and variation in the region where the particles exist, the region division method described in each embodiment may be performed. Furthermore, a logical sum is used as a logical operation for performing region segmentation to extract the target particles of interest, but depending on the processing conditions (staining conditions, etc.) of the sample to be image processed, the type of sample, the type of target particle, etc. Needless to say, it is changed as appropriate.
[0218]
The urine sample is usually added with a staining solution, and the cells among the sediment components are usually stained in colors such as blue, red, and magenta. Since the background is white, simply focus on the color difference between the background and the sediment component, set threshold values for the image signals of the red image, green image, and blue image. In the conventional region dividing method in which the other region is the target region where the target particles are present, particles that cannot be sufficiently stained cannot be detected accurately. The reason is that, among the cells, cells that are not completely dead and highly active have the property of being difficult to absorb the stain and are transparent without being stained. Since the color tone is almost the same as that of the area, the conventional simple area division method cannot accurately extract the cell area.
[0219]
Cells that are not sufficiently stained are colorless and transparent, and light is refracted and scattered due to non-uniformity inside and on the cell surface, and the density value of the image of the area where the cells are present varies greatly. For this reason, in the simple area division method, an area where one cell exists is divided into a plurality of small areas, and each independent area is erroneously identified as a different sediment component, and sediment is generated. The accuracy of component identification is reduced.
[0220]
In the present invention, paying attention to such a small change depending on the position of the density value of the cell image, an amount representing the change in density at each point in the image is calculated, and at the same time as setting a threshold value for the density value, By providing a threshold for the amount representing the change and performing region division, accurate region division can be performed even when the target particles are not sufficiently stained.
[0221]
(Example 5)
An apparatus for segmenting a particle image to which the method described in the first to fourth embodiments is applied will be described below with reference to FIG.
[0222]
Image signals of G image, R image, and B image in a predetermined shooting area (FIG. 3) from the TV camera 102 are converted into digital image data related to, for example, 512 × 512 pixels by the A / D converter 103. Is done. Each process described below is executed for each pixel of the image data, and a region where particles are present and a background region are identified, and a binary image divided into regions is obtained.
[0223]
The density correction circuit 72 uses correction data stored in advance in the correction data memory 70 to correct density unevenness due to distortion of the imaging optical system, and is based on (Equation 2) or (Equation 3). Then, correction of density unevenness is executed. The correction result is stored in the image memory 90. The above configuration is a configuration common to apparatuses that execute the first to third embodiments.
[0224]
Hereinafter, an example of an apparatus configuration for executing the first to fourth embodiments will be described.
[0225]
(A) The apparatus for executing the first embodiment includes a histogram calculation circuit 74, a threshold value calculation circuit 76, a density binarization circuit 78, and a binary image memory 80 in the configuration shown in FIG. Yes. The histogram calculation circuit 74 obtains a histogram of the G image and the R image using the R image data and the G image data whose density unevenness has been corrected by the density correction circuit 72. The threshold calculation circuit 76 calculates thresholds T1, T2, T3, and T4 based on (Equation 5) to (Equation 8), respectively. The density binarization circuit 78 uses these threshold values T1, T2, T3, and T4 to detect a background area based on (Equation 9) from the G image and R image data, and binarize the image. The data is stored in the binary image memory 80.InStore. In the apparatus that executes the first embodiment, the density binarization circuit 78 and the binary image memory 80 also serve as the binarization circuit 96 and the binary image memory 98, respectively. (B) The configuration of the apparatus that executes the second embodiment detects the magnitude of the change in density between pixels in the R image data in which the density unevenness read out from the image memory 90 is corrected in the configuration shown in FIG. Of the density change binarization circuit 92 for binarization, the binary image memory 94 for storing the result, and the R image and G image data in which the density unevenness described in (a) above is corrected. A histogram calculation circuit 74, a threshold value calculation circuit 76, a density binarization circuit 78, and a binary image memory 80 that use image data are included. The specific configuration of the density change binarization circuit 92 is the same as the configuration shown in any of FIGS. 25, 26, 27, and 28 described in detail in the second embodiment. The binarization circuit 96 divides the area by logical OR (logical OR) between the data stored in the binary image memory 80 and the binary image memory 94 and stores the result in the binary image memory 98. .
[0226]
Note that the processing including the histogram calculation circuit 74, the threshold value calculation circuit 76, and the density binarization circuit 78 is executed in parallel with the processing of the density change binarization circuit 92, and can be speeded up. .
[0227]
The case where the density of the G image and the R image data is used has been described above, but the present invention is not limited to this configuration, and the two image data are appropriately selected from the R, G, and B image data. Using the selected image data, the threshold value calculation circuit 76 calculates a plurality of threshold values, and the image data binarized by the density binarization circuit 78 is stored in the binary image memory 80.
[0228]
Further, in the above description, the configuration of the density change binarization circuit 92 that detects the magnitude of the density change between the pixels of the G image data and the binary image memory 94 that stores the detected results have been described. A configuration including the change binarization circuit 92 and the binary image memory 94 is further connected in parallel to one or two, and in addition to the G image data, one image data of B image data or R image data, Alternatively, the two image data of B image data and R image data are configured to detect in parallel the magnitude of the change in density between pixels, and a plurality of density change binarizations connected in parallel in this way are arranged. A binarization circuit 96 performs a logical operation, for example, a logical sum, between the image detected from the circuit 92 and stored in the plurality of binary image memories 94 and the image stored in the binary image memory 80. Run and get The binarized image may be stored in the binary image memory 98.
[0229]
According to such a configuration, a plurality of images are used from the R, G, and B image data, and in each image, the magnitude of the change in density between pixels is detected and binarized. In order to obtain binarized image data by using a single image in R, G, B image data and detecting the magnitude of density change between pixels. In comparison, the particle region where the particle exists can be identified more accurately.
[0230]
(C) The apparatus which performs Example 3 has the configuration shown in FIG. That is, it has a configuration in which the above configurations (a) and (b) are combined. That is, a density change binarization circuit 92 that detects the magnitude of density change between pixels in the G image data corrected from density unevenness read out from the image memory 90 and obtains binarized image data; A binary image memory 94 for storing binarized image data, and a histogram calculation circuit 74 for obtaining a histogram of a G image and an R image using R image data and G image data in which density unevenness is corrected. Then, density binarization that obtains binarized image data from the G image and R image data using the threshold values T1, T2, T3, and T4 to detect the background region based on (Equation 9) A circuit 78, a binary image memory 80 for storing binarized image data, and a logical OR operation between the data stored in the binary image memory 80 and the binary image memory 94 2 A value circuit 96; Liwa a (logical OR) the result of the operation, a binary image memory 98 for storing the result of the area division, and a. The specific configuration of the density change binarization circuit 92 is the same as the configuration shown in any of FIGS. 25, 26, 27, and 28 described in detail in the second embodiment.
[0231]
Note that the processing including the histogram calculation circuit 74, the threshold value calculation circuit 76, and the density binarization circuit 78 is executed in parallel with the processing of the density change binarization circuit 92, and can be speeded up. .
[0232]
The case where the density of the G image and the R image data is used has been described above, but the present invention is not limited to this configuration, and the two image data are appropriately selected from the R, G, and B image data. Using the selected image data, the threshold value calculation circuit 76 calculates a plurality of threshold values, and the image data binarized by the density binarization circuit 78 is stored in the binary image memory 80. In addition, a plurality of configurations including a histogram calculation circuit 74, a threshold value calculation circuit 76, a density binarization circuit 78, and a binary image memory 80 are connected in parallel to further increase the density of the G image and R image data. For example, by using the density of the G image and B image data, a binarized image is obtained in a plurality of binary image memories 80, an image stored in the binary image memory 80, and a plurality of binaries A logic operation, for example, a logical sum, is executed by the binarization circuit 96 between the images stored in the image memory 80 and the obtained binarized image is stored in the binary image memory 98. Good.
[0233]
Further, in the above description, the configuration of the density change binarization circuit 92 that detects the magnitude of the density change between the pixels of the G image data and the binary image memory 94 that stores the detected results have been described. Further, one or two components including a density change binarization circuit 92 and a binary image memory 94 are connected in parallel so that one image data of B image data or R image data can be stored in addition to G image data. Alternatively, the two image data of B image data and R image data are configured to detect in parallel the magnitude of the change in density between pixels, and a plurality of density change binary values connected in parallel in this way A logical operation, for example, a logical sum, between the images detected from the conversion circuit 92 and stored in the plurality of binary image memories 80 and the image stored in the one or more binary image memories 94. Binary circuit 96 Run, binarized image obtained may be stored in the binary image memory 98.
[0234]
According to such a configuration, a plurality of images are used from the R, G, and B image data, and in each image, the magnitude of the change in density between pixels is detected and binarized. In order to obtain binarized image data by using a single image in R, G, B image data and detecting the magnitude of density change between pixels. In comparison, it is possible to more accurately identify the particle region where the particle exists.
[0235]
(D) The configuration of the apparatus that executes Example 4 includes the apparatus configurations of (a) and (b) described above, and was obtained from the apparatus configuration portions described in (a) and (b). The binarization circuit 96 performs a logical operation (logical sum) on the result, obtains a binary image divided into regions, and stores it in the binary image memory 98.
[0236]
Using the binary image divided into regions obtained in the binary image memory 98 having the apparatus configuration of (a) to (d) described above, the feature amount is calculated with respect to the target region where the particles are present. (Not shown in FIG. 32) is calculated and detected, and urine sediment particles are identified.
[0237]
【The invention's effect】
According to the present invention, in particular, in the region segmentation of an image obtained with a urine sediment examination apparatus that requires detection of target particles having a variety of properties, the target particles are not sufficiently stained due to the staining of the sample. Even in the case of a sample containing a large number of such target particles at a high frequency, the concentration of the particles can be extracted. That is, even when particles that are sufficiently stained or difficult to be stained (particles that are not sufficiently stained or particles that are hardly stained) are mixed due to the staining of the sample, each particle image can be divided stably and more accurately. As a result, the feature quantity of the target region can be obtained more accurately, the target particle classification error can be prevented, and the accuracy of identifying various sediment components can be improved.
[Brief description of the drawings]
FIG. 1 is a view for explaining the principle of a particle image image region dividing method according to a second embodiment of the present invention;
FIG. 2 is a view for explaining the principle of a particle image image region dividing method according to a second embodiment of the present invention;
FIG. 3 is a diagram showing a configuration example of a urine sediment examination apparatus to which the region dividing method of the present invention is applied.
FIG. 4 is a diagram schematically showing region division for extracting a background portion in a color space according to the present invention.
FIG. 5 is a diagram for explaining a density histogram for obtaining a parameter used to determine a threshold in the present invention.
FIG. 6 is a diagram showing an example of region division results of an image of a stained cell with good staining of target particles and an image of a cell with little staining of target particles in Example 1 of the present invention.
FIG. 7 is a diagram showing an example of region segmentation results of an image of a stained cell with good staining of target particles and an image of a cell with little staining of target particles in Example 1 of the present invention.
FIG. 8 is a diagram showing examples of density values of an image including cells that are well stained and an image including cells that are hardly stained in Example 2 of the present invention.
FIGS. 9A and 9B are diagrams showing examples of density values of an image including cells with good staining and an image including cells with little staining in Example 2 of the present invention. FIGS.
FIG. 10 is a diagram showing an example of dispersion values of an image including cells with good staining and an image including cells with little staining in Example 2 of the present invention.
FIGS. 11A and 11B are diagrams illustrating examples of dispersion values of an image including cells with good staining and an image including cells with little staining in Example 2 of the present invention. FIGS.
FIGS. 12A and 12B are diagrams showing examples of density difference values of an image including cells with good staining and an image including cells with little staining in Example 2 of the present invention.
FIG. 13 is a diagram showing examples of density difference values of an image including cells with good staining and an image including cells with little staining in Example 2 of the present invention.
FIG. 14 shows images including well-stained cells and cells that are hardly stained, using the binarization method using local dispersion of concentration in Example 2 of the present invention. The figure which shows the example of a result of area | region division | segmentation of an image.
FIG. 15 shows images including well-stained cells and cells that are hardly stained, using the binarization method using local dispersion of concentration in Example 2 of the present invention. The figure which shows the example of a result of area | region division | segmentation of an image.
FIGS. 16A and 16B are regions of an image including cells that are well stained and an image including cells that are hardly stained using the method based on binarization using density difference values in Example 2 of the present invention. The figure which shows the example of a result of a division | segmentation.
FIGS. 17A and 17B are regions of an image including cells that are well stained and an image including cells that are hardly stained using the method based on binarization using density difference values in Example 2 of the present invention. The figure which shows the example of a result of a division | segmentation.
FIG. 18 is a diagram illustrating an example of a result of area division according to a change in mask size according to the second embodiment of the present invention.
FIG. 19 is a diagram illustrating an example of a result of discrete Fourier transform in a background area and a target area in one scanning line in Embodiment 2 of the present invention.
FIG. 20 is a diagram illustrating an example of a frequency amplitude characteristic (| H (Ω) |) of a filter according to the second embodiment of the present invention.
FIG. 21 is a diagram showing an example of a result of examining the influence of a mask size on the shape of a divided region using an image of stained red blood cells in Example 2 of the present invention.
FIG. 22 is a flowchart of a process for explaining a procedure for dividing a region of a particle image in Embodiment 2 of the present invention.
FIG. 23 is a diagram showing a configuration example of an apparatus for carrying out a second embodiment of the present invention.
24 is a diagram showing a configuration example of an area dividing unit in FIG.
FIG. 25 is a diagram illustrating a specific circuit configuration example of a density change calculation unit according to the second embodiment of the present invention.
FIG. 26 is a diagram illustrating a specific circuit configuration example of a density change calculation unit according to the second embodiment of the present invention.
FIG. 27 is a diagram illustrating a specific circuit configuration example of a density change calculation unit according to the second embodiment of the present invention.
FIG. 28 is a diagram illustrating a specific circuit configuration example of a density change calculation unit according to the second embodiment of the present invention.
FIG. 29 is a diagram schematically illustrating the synthesis of two binary images divided into regions by two different methods according to the fourth embodiment of the present invention.
FIG. 30 is a diagram showing an example of the result of region division in an actual sample in Example 3 of the present invention.
FIG. 31 is a diagram showing an example of the result of region division in an actual sample in Example 3 of the present invention.
FIG. 32 is a diagram showing a configuration example of an apparatus to which the particle image image region dividing method of the present invention is applied.
[Explanation of symbols]
22 ... Urine sample, 24 ... Staining solution, 26 ... Flow cell, 28 ... Personal computer, 30 ... Flash lamp (Xe lamp), 32 ... Semiconductor laser, 34 ... Particle detector, 36 ... TV camera, 40 ... Density of R image Histogram, 40 '... G image density histogram, 50, 51, 52 ... Cell, 60, 61, 62 ... Noise component, 70 ... Correction data memory, 72 ... Density correction circuit, 74 ... Histogram calculation circuit, 76 ... Threshold Calculation circuit 78 ... Density binarization circuit, 80 ... Binary image memory, 90 ... Image memory, 92 ... Density change binarization circuit, 94 ... Binary image memory, 96 ... Binary circuit, 98 ... Binary Image memory, 102 ... TV camera, 103 ... A / D converter, 101 ... Pulse lamp, 102 ... TV camera, 103 ... A / D converter, 104 ... Image memory, 10 ... threshold value calculation unit, 106 ... area division unit, 107 ... image memory, 108 ... computer, 109 ... CPU bus, 110 ... data bus, 200 ... input unit, 210, 220, 230 ... binary image, 211, 212, 221 , 222, 231, 232 ... particle image, 300 ... density binarization circuit, 310 ... threshold memory, 320 ... comparator, 400 ... density change binarization circuit, 410 ... memory, 411-414, 420 ... density change Calculation unit, 421, 422 ... adder, 423 ... subtractor, 430 ... comparison unit, 431 ... threshold memory, 432 ... comparator, 500 ... logical sum circuit, 600 ... filter unit, 700 ... output unit, 800 ... variance calculation Circuit, 811 to 819 ... Memory, 821 ... Square calculation unit, 822, 824 ... Adder, 823, 825 ... Divider, 826 ... Square calculator, 827 ... Subtractor, 90 ... weighted sum calculation circuit, 931 to 939 ... memory, 941 to 949 ... weight value memory, 951-959 ... multiplier, 961 ... adder, 1000 ... image memory.

Claims (5)

粒子画像を入力する画像入力光学系により得た、染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、静止画像として撮影記憶し、前記R画像、前記G画像、及び前記B画像の中の1又は複数の画像を使用して、背景領域と、前記対象粒子が存在する対象領域とを識別する粒子画像の領域分割法であり、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第1群の画像の、それぞれの画像の前記濃度値に対し、前記背景領域と濃度差の大きい領域を分割するための第1群の閾値を設定して、前記第1群の画像から、2値化された第1の2値画像を得る第1の工程と、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第2群の画像の、それぞれの画像を構成する各画素の近傍領域内での、前記濃度値の変化の大きさを表す量を、前記各画素で計算し、前記各画素で求めた前記濃度値の変化の大きさを表わす量に、前記背景領域における前記濃度値の変化と比較し前記濃度値の変化の大きい領域を分割するための第2群の閾値を設定し、前記第2群の画像から、2値化された第2の2値画像を得る第2の工程と、前記第1の2値画像と、前記第2の2値画像との論理演算によって、前記背景領域と、前記対象領域とを表す2値化された第3の2値画像を求める第3の工程と、を有することを特徴とする粒子画像の領域分割法。A red component image (R image), a green component image (G image), and a blue component image (B image) of a stained target particle obtained by an image input optical system that inputs particle images are stationary. An image of a particle image that is captured and stored as an image, and that uses one or more of the R image, the G image, and the B image to identify a background region and a target region where the target particle exists. A region dividing method, wherein the background region and the density value of each image of a first group of one or more images selected from the R image, the G image, and the B image; A first step of setting a first group threshold for dividing a region having a large density difference and obtaining a binarized first binary image from the first group image; and the R image , A second composed of one or a plurality selected from the G image and the B image The amount of change in density value calculated in each pixel is calculated for each pixel by calculating the amount representing the magnitude of the change in density value in the vicinity region of each pixel constituting each image. A threshold value of the second group for dividing the region having a large change in the density value compared to the change in the density value in the background region, to an amount representing the size of the background region, from the image of the second group, A second step of obtaining a binarized second binary image, a logical operation of the first binary image and the second binary image, and the background region and the target region And a third step of obtaining a binarized third binary image representing the region of the particle image. 請求項1に記載の粒子画像の領域分割方法において、前記粒子画像が、流れの中に点在する染色された尿沈渣粒子の画像であることを特徴とする粒子画像の領域分割法。2. The particle image region dividing method according to claim 1, wherein the particle image is an image of stained urinary sediment particles scattered in a flow. 粒子画像を入力する画像入力光学系により得た、染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を、静止画像として撮影記憶し、前記R画像、前記G画像、及び前記B画像の中の1又は複数の画像を使用して、背景領域と、前記対象粒子が存在する対象領域とを識別する粒子画像の領域分割法であり、前記R画像、前記G画像、及び前記B画像のうちの複数の画像に含まれる、前記画像入力光学系の歪みによる濃度値むらの補正を行なう第1の工程と前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第1群の画像の、それぞれの画像の前記濃度値に対し、前記背景領域と濃度差の大きい領域を分割するための第1群の閾値を設定して、前記第1群の画像から、2値化された第1の2値画像を得る第2の工程と、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第2群の画像の、それぞれの画像を構成する各画素の近傍領域内での、前記濃度値の変化の大きさを表す量を、前記各画素で計算し、前記各画素で求めた前記濃度値の変化の大きさを表わす量に、前記背景領域における前記濃度値の変化と比較し前記濃度値の変化の大きい領域を分割するための第2群の閾値を設定し、前記第2群の画像から2値化された第2の2値画像を得る、前記第2の工程と平行して行なわれる、第3の工程と、前記第1の2値画像と、前記第2の2値画像との論理和演算によって、前記背景領域と、前記対象領域とを表す2値化された第3の2値画像を求める第3の工程と、を有することを特徴とする粒子画像の領域分割法。A red component image (R image), a green component image (G image), and a blue component image (B image) of a stained target particle obtained by an image input optical system that inputs particle images are stationary. An image of a particle image that is captured and stored as an image, and that uses one or more of the R image, the G image, and the B image to identify a background region and a target region where the target particle exists. A first step of correcting a density value unevenness due to distortion of the image input optical system included in a plurality of images among the R image, the G image, and the B image; A region having a large density difference from the background region is divided with respect to the density value of each of the first group of images selected from the image, the G image, and the B image. Setting a first group threshold for the first group A second step of obtaining a binarized first binary image from the image, and a second group of images consisting of one or more selected from the R image, the G image, and the B image The amount representing the magnitude of the change in the density value in the vicinity region of each pixel constituting each image is calculated for each pixel, and the magnitude of the change in the density value obtained for each pixel. A threshold value of the second group for dividing an area where the change of the density value is large compared to the change of the density value in the background area is set as an amount representing the brightness, and binarization is performed from the image of the second group OR operation of the third step, the first binary image, and the second binary image, performed in parallel with the second step, to obtain a second binary image obtained A third step of obtaining a binarized third binary image representing the background area and the target area by: Segmentation methods of particle images which is characterized by having a. 粒子画像を入力する画像入力光学系と、染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を静止画像として得る手段と、前記R画像、前記G画像、及び前記B画像の画像データを記憶する記憶手段と、を有し、前記R画像、前記G画像、及び前記B画像の中の1又は複数の画像を使用して、背景領域と、前記対象粒子が存在する対象領域とを識別する粒子画像の領域分割装置であり、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第1群の画像の、それぞれの画像の前記濃度値に対し、前記背景領域と濃度差の大きい領域を分割するための第1群の閾値を設定して、前記第1群の画像から、2値化された第1の2値画像を得る第1の2値化手段と、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第2群の画像の、それぞれの画像を構成する各画素の近傍領域内での、前記濃度値の変化の大きさを表す量を、前記各画素で計算し、前記各画素で求めた前記濃度値の変化の大きさを表わす量に、前記背景領域における前記濃度値の変化と比較し前記濃度値の変化の大きい領域を分割するための第2群の閾値を設定し、前記第2群の画像から、2値化された第2の2値画像を得る第2の2値化手段と、前記第1の2値画像と、前記第2の2値画像との論理演算によって、前記背景領域と、前記対象領域とを表す2値化された第3の2値画像を求める第3の2値化手段と、を有することを特徴とする粒子画像の領域分割装置。An image input optical system for inputting a particle image and a red component image (R image), a green component image (G image), and a blue component image (B image) of the stained target particles are obtained as still images. Storage means for storing image data of the R image, the G image, and the B image, and one or a plurality of images among the R image, the G image, and the B image are stored. A particle image region dividing device for identifying a background region and a target region in which the target particles are present, one or more selected from the R image, the G image, and the B image For the density value of each image of the first group of images, a threshold value of the first group for dividing the background region and a region having a large density difference is set. First binarization means for obtaining a binarized first binary image; The change of the density value in the vicinity region of each pixel constituting each image of the second group of one or more images selected from the R image, the G image, and the B image The amount representing the magnitude of the density value is calculated for each pixel, and the amount representing the magnitude of the change in the density value obtained for each pixel is compared with the change in the density value in the background region. A second binarization unit that sets a second group threshold value for dividing a region having a large change, and obtains a binarized second binary image from the second group image; A third binarization for obtaining a binarized third binary image representing the background region and the target region by a logical operation of the binary image of 1 and the second binary image Means for segmenting a particle image. 粒子画像を入力する画像入力光学系と、染色された対象粒子の、赤成分の画像(R画像)、緑成分の画像(G画像)、及び青成分の画像(B画像)を静止画像として得る手段と、前記R画像、前記G画像、及び前記B画像の画像データを記憶する記憶手段と、を有し、前記R画像、前記G画像、及び前記B画像の中の1又は複数の画像を使用して、背景領域と、前記対象粒子が存在する対象領域とを識別する粒子画像の領域分割装置であり、前記R画像、前記G画像、及び前記B画像のうちの複数の画像に含まれる、前記画像入力光学系の歪みによる濃度値むらの補正を行なう手段と、前記濃度値むらの補正が行なわれた、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第1群の画像の、それぞれの画像の前記濃度値に対し、前記背景領域と濃度差の大きい領域を分割するための第1群の閾値を設定して、前記第1群の画像から、2値化された第1の2値画像を得る第1の2値化手段と、前記R画像、前記G画像、及び前記B画像の中から選択される1又は複数からなる第2群の画像の、それぞれの画像を構成する各画素の近傍領域内での、前記濃度値の変化の大きさを表す量を、前記各画素で計算し、前記各画素で求めた前記濃度値の変化の大きさを表わす量に、前記背景領域における前記濃度値の変化と比較し前記濃度値の変化の大きい領域を分割するための第2群の閾値を設定し、前記第2群の画像から2値化された第2の2値画像を得る、前記第1の2値化手段と平行して動作する、第2の2値化手段と、前記第1の2値画像と、前記第2の2値画像との論理和演算によって、前記背景領域と、前記対象領域とを表す2値化された第3の2値画像を求める第3の2値化手段と、を有することを特徴とする粒子画像の領域分割装置。An image input optical system for inputting a particle image and a red component image (R image), a green component image (G image), and a blue component image (B image) of the stained target particles are obtained as still images. Storage means for storing image data of the R image, the G image, and the B image, and one or a plurality of images among the R image, the G image, and the B image are stored. A particle image region dividing device that uses and distinguishes a background region and a target region where the target particles exist, and is included in a plurality of images among the R image, the G image, and the B image A means for correcting density value unevenness due to distortion of the image input optical system; and one or more selected from the R image, the G image, and the B image that have been corrected for the density value unevenness Each of the images of the first group of images For the density value, a first group threshold value for dividing the background area and the area having a large density difference is set, and a binarized first binary image is obtained from the first group image. The first binarization means to be obtained, and the vicinity of each pixel constituting each image of the second group of one or more images selected from the R image, the G image, and the B image An amount representing the magnitude of the change in the density value in the region is calculated for each pixel, and the amount representing the magnitude of the change in the density value obtained in each pixel is converted into the density in the background region. Setting a second group threshold value for dividing a region having a large change in density value compared with a change in value, and obtaining a binarized second binary image from the second group image, Second binarizing means operating in parallel with the first binarizing means; the first binary image; and And a third binarization means for obtaining a binarized third binary image representing the background region and the target region by a logical sum operation with the binary image of Particle image segmentation device.
JP17178795A 1994-09-19 1995-07-07 Particle image region segmentation method and apparatus Expired - Fee Related JP3653804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17178795A JP3653804B2 (en) 1994-09-19 1995-07-07 Particle image region segmentation method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-223028 1994-09-19
JP22302894 1994-09-19
JP17178795A JP3653804B2 (en) 1994-09-19 1995-07-07 Particle image region segmentation method and apparatus

Publications (2)

Publication Number Publication Date
JPH08145871A JPH08145871A (en) 1996-06-07
JP3653804B2 true JP3653804B2 (en) 2005-06-02

Family

ID=26494392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17178795A Expired - Fee Related JP3653804B2 (en) 1994-09-19 1995-07-07 Particle image region segmentation method and apparatus

Country Status (1)

Country Link
JP (1) JP3653804B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766046B1 (en) 1998-02-19 2004-07-20 Asahi Glass Company Ltd. Plate glass shatter testing method, device, imaging method for glass testing and image signal processing method
GB0218909D0 (en) * 2002-08-15 2002-09-25 Qinetiq Ltd Histological assessment
ES2435535T3 (en) 2007-03-02 2013-12-20 Becton, Dickinson And Company Method and apparatus for automated staining of biological materials
WO2009125678A1 (en) 2008-04-07 2009-10-15 株式会社日立ハイテクノロジーズ Method and device for dividing area of image of particle in urine
JP5001231B2 (en) * 2008-07-11 2012-08-15 大日本スクリーン製造株式会社 Region extraction method, region extraction device, and program
JP6473580B2 (en) * 2013-07-29 2019-02-20 学校法人 東洋大学 Particle size measuring apparatus and particle size measuring method
JP7160047B2 (en) * 2017-11-06 2022-10-25 コニカミノルタ株式会社 Biological substance quantification method, image processing device and program
WO2020197785A1 (en) 2019-03-27 2020-10-01 Becton, Dickinson And Company Systems for cell sorting based on frequency-encoded images and methods of use thereof
CN113139934A (en) * 2021-03-26 2021-07-20 上海师范大学 Rice grain counting method

Also Published As

Publication number Publication date
JPH08145871A (en) 1996-06-07

Similar Documents

Publication Publication Date Title
US5768412A (en) Region segmentation method for particle images and apparatus thereof
US8135202B2 (en) Automated method and system for nuclear analysis of biopsy images
CA2130340C (en) Method for identifying objects using data processing techniques
US5933519A (en) Cytological slide scoring apparatus
JP4948647B2 (en) Urine particle image region segmentation method and apparatus
US4175860A (en) Dual resolution method and apparatus for use in automated classification of pap smear and other samples
CN107977682B (en) Lymphocyte classification method and device based on polar coordinate transformation data enhancement
US6137899A (en) Apparatus for the identification of free-lying cells
US5987158A (en) Apparatus for automated identification of thick cell groupings on a biological specimen
JP5717647B2 (en) Multinuclear cell classification and micronucleus scoring
KR102140385B1 (en) Cell-zone labeling apparatus and cell-zone detecting system including the same apparatus
JPH11510282A (en) Apparatus and method for measuring robustness of classification
Son et al. Morphological change tracking of dendritic spines based on structural features
NL2024777B1 (en) Blood leukocyte segmentation method based on color component combination and contour fitting
CN109975196B (en) Reticulocyte detection method and system
JP3653804B2 (en) Particle image region segmentation method and apparatus
WO2006113979A1 (en) Method for identifying guignardia citricarpa
US11068740B2 (en) Particle boundary identification
Deepak et al. Computer assisted pap smear analyser for cervical cancer screening using quantitative microscopy
Tomari et al. Red blood cell counting analysis by considering an overlapping constraint
Vromen et al. Red blood cell segmentation from SEM images
Inchur et al. Implementation of blood cell counting algorithm using digital image processing techniques
US10453189B2 (en) Process and device for direct measurements of plant stomata
KR20200136004A (en) Method for detecting cells with at least one malformation in a cell sample
JPS5830049B2 (en) Automatic reticulocyte measurement device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees