JP2005214682A - Discrimination system of object to be detected, and discrimination system of image - Google Patents

Discrimination system of object to be detected, and discrimination system of image Download PDF

Info

Publication number
JP2005214682A
JP2005214682A JP2004019141A JP2004019141A JP2005214682A JP 2005214682 A JP2005214682 A JP 2005214682A JP 2004019141 A JP2004019141 A JP 2004019141A JP 2004019141 A JP2004019141 A JP 2004019141A JP 2005214682 A JP2005214682 A JP 2005214682A
Authority
JP
Japan
Prior art keywords
mahalanobis
detected
space
distance
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004019141A
Other languages
Japanese (ja)
Inventor
Tomoyuki Hida
朋之 飛田
Hiroyuki Suzuki
博之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2004019141A priority Critical patent/JP2005214682A/en
Publication of JP2005214682A publication Critical patent/JP2005214682A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a deciding and comfirming processing method, constituted so as to enhance the decision and confirmation rate of an object to be detected, enabling automatic processing and which is capable of performing real-time processing and which is a simple algorithm. <P>SOLUTION: This discrimination system of an object to be detected is equipped with a Maharanobis space calculating means for forming a Maharanobis space (reference space), with respect to each of a plurality of the objects to be detected, on the basis of the known characteristic parameters of a plurality of the objects to be detected and applying the characteristic parameters, extracted from an unknown object to be detected, to the Maharanobis space formed by the Maharanobis space calculating means for calculating the Maharanobis space of the unknown object to be detected, a comparison means for performing the comparison with the Maharanobis distance calculated by the Maharanobis distance operating means and a discrimination means for discriminating the object to be detected, on the basis of the comparison result in the comparison means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、被検出体を既知の検出体と比較して、同一性を判別・判断・認識するための方法,装置に係わり、特に検出体の情報から抽出した特徴パラメータから作成したマハラノビス空間の情報を被検出体と既知の検出体で比較することにより、目的に応じて同一性の判定基準を変えることのできる判別・判断・認識方法,装置に関する。   The present invention relates to a method and apparatus for discriminating / determining / recognizing identity by comparing an object to be detected with a known object, and in particular, a Mahalanobis space created from feature parameters extracted from information on the object to be detected. The present invention relates to a determination / judgment / recognition method and apparatus capable of changing the determination criterion of identity according to the purpose by comparing information between a detection object and a known detection object.

被検出体と既知の検出体の同定・認識の方法には種々のものが提案されているが、その一つの例としてニューラルネットワーク手法を用いて画像データから被検出体を検出・判別する方法について以下説明する。   Various methods for identifying and recognizing detected objects and known detected objects have been proposed. As an example, a method for detecting and distinguishing detected objects from image data using a neural network technique is one example. This will be described below.

特許文献1には、原画像を撮像する撮像部と検出処理部とから成り、更に当検出処理部は、画素の明度をデジタル量化する量子化部,記憶部,処理領域設定部と、この検出処理領領中の画素の抽出部、抽出された各画素を明度に基づいてヒストグラム化する分類部と、ここで得られたヒストグラムにおける画素の分布状態の特徴を統計手法を用いて数値化する演算部、更には当演算部によって得られた数値をニューラルネットワーク手法による学習処理を行う処理部、などより構成され、当処理部は最終的に各検出領域に物体が存在するか否かの判断を行う判断・認識手法が開示されている。   Patent Document 1 includes an imaging unit that captures an original image and a detection processing unit. The detection processing unit further includes a quantization unit that digitizes pixel brightness, a storage unit, a processing region setting unit, and a detection unit. An extraction unit for pixels in the processing region, a classification unit that forms a histogram of each extracted pixel based on lightness, and an operation that quantifies the characteristics of the pixel distribution state in the obtained histogram using a statistical method And a processing unit that performs learning processing using the neural network technique on the numerical values obtained by the calculation unit, and the processing unit finally determines whether or not an object exists in each detection region. The judgment / recognition technique to be performed is disclosed.

特許文献2には、尿中に存在する粒子成分を撮像する撮像部と、前記撮像された粒子画像を解析し、前記粒子を分類表示する画像処理部とを備えている。前記撮像部はカラー粒子画像を撮像し、前記画像処理部は、前記カラー粒子画像を色基準により少なくとも一以上の2値化信号に変換し、前記2値化画像信号より前記各粒子の特徴量を計算し、前記特徴量から自動的に前記各粒子を分類し、前記分類結果に従い、前記各カラー粒子画像を表示する技術が開示されている。   Patent Document 2 includes an imaging unit that captures particle components present in urine and an image processing unit that analyzes the captured particle image and classifies and displays the particles. The imaging unit captures a color particle image, and the image processing unit converts the color particle image into at least one binary signal based on a color reference, and the feature amount of each particle from the binary image signal , And automatically classifying each particle from the feature amount, and displaying each color particle image according to the classification result is disclosed.

前記画像処理部は、カラー粒子画像と自動分類結果とを記憶する機能と、前記カラー粒子画像と前記自動分類結果とを関連づけて記憶する機能とを具備させたものであり、前記画像処理部は、カラー粒子画像と自動分類結果のいずれかと、操作者が入力した検体に関する任意のデータとをあわせて記憶する機能を具備させたものである。   The image processing unit includes a function of storing a color particle image and an automatic classification result, and a function of storing the color particle image and the automatic classification result in association with each other. In addition, a function of storing either the color particle image or the automatic classification result and any data related to the specimen input by the operator is provided.

前記画像処理部は、カラー粒子画像と自動分類結果の両方と操作者が入力した検体に関する任意のデータとを合わせて記憶する機能を具備させたものであり、前記画像処理部は少なくとも一以上のカラー粒子画像を自動分類結果の所定順序の配列により、同一画面上に表示する機能を具備させたものである。前記画像処理部は、カラー粒子画像と自動分類結果とを同一画面上に対応させて表示する機能を具備させたものであった。カラー粒子画像と自動分類結果との表示に基づき、再分類・学習をできるように構成したものである。前記再分類・学習の識別手法としてニューラルネットワーク法を用い、前記再分類・学習を手動により行うことをできるように構成したものである。   The image processing unit has a function of storing both the color particle image and the automatic classification result and arbitrary data related to the specimen input by the operator, and the image processing unit includes at least one or more It has a function of displaying color particle images on the same screen according to a predetermined sequence of automatic classification results. The image processing unit has a function of displaying a color particle image and an automatic classification result in correspondence with each other on the same screen. Based on the display of the color particle image and the automatic classification result, reclassification / learning can be performed. A neural network method is used as the reclassification / learning identification method, and the reclassification / learning can be performed manually.

特許文献3には、半導体ウェハ上のパターンの欠陥を検出・分類する方法が開示されている。欠陥画像の画像特徴を抽出する手段と、前記画像に対応する欠陥の基板に設けられた座標系における欠陥座標から座標特徴量を算出する手段と、予め分類結果が判明している欠陥につき前記画像特徴量および座標特徴量を学習する手段とを具備して、前記学習結果に基づき未知の欠陥を判別・分類するものである。かかる判別・分類する手法として、先ず多変数(特徴量)からなる欠陥毎の教示データを学習(作成)し、各欠陥間にて境界線(各群の重心から等しい)を定義し、判別関数にて判断・分類を行う。この判別関数としてはマハラノビス距離を使用し、被検出体と既知学習データ間のマハラノビス距離の差で行っている(特許文献3,図4)。   Patent Document 3 discloses a method for detecting and classifying a pattern defect on a semiconductor wafer. Means for extracting an image feature of a defect image; means for calculating a coordinate feature amount from a defect coordinate in a coordinate system provided on a substrate of a defect corresponding to the image; and the image for a defect whose classification result is known in advance. Means for learning feature quantities and coordinate feature quantities, and discriminating / classifying unknown defects based on the learning results. As a method for discriminating and classifying, first, teaching data for each defect consisting of multiple variables (features) is learned (created), a boundary line (equal from the center of gravity of each group) is defined between each defect, and a discriminant function Judge and classify at. As this discriminant function, Mahalanobis distance is used, and it is performed by the difference of Mahalanobis distance between the detected object and the known learning data (Patent Document 3, FIG. 4).

更に近年では、前述の特許文献3でも公開されているように、二つ以上の群(母集団)から取り出した多変量のデータに基づいて、所属不明のサンプルをその何れかの群に判別するため、多変量間の相関を考慮したマハラノビス距離にて判別関数が定義され、活用されている。一方、このマハラノビス距離を利用した新たな方法として、「品質工学学会誌第3巻 No.1:{多次元情報による総合評価とSN比}」に開示された方法がある。この方法は、医学分野の健康診断に適用され、その測度としてマハラノビス空間を用いる方法である。かかる場合のマハラノビス空間は健康人の集団であり、健康人のみが均一な集団を作っており、医学的に決められた計測項目でマハラノビス空間(健康人のマハラノビス距離の集団)を基準点としている。前述のマハラノビス空間に属する人たちの距離の平均は1.0 であり、その空間に属する人たちのマハラノビス距離は精々2〜4の値しか取らない。そして、健康かどうか不明な被験者に対するマハラノビス距離を調べてその値がある閾値(例えば4)より小さければ、健康と判断し、そうでなければ異常と判断する考え方である。かかる方法は、適用範囲が広く、種々の分野で公開されている。例えば特許文献4:環境監視システム及び異常検出法および異常検出装置である。   Further, in recent years, as disclosed in the above-mentioned Patent Document 3, based on multivariate data extracted from two or more groups (populations), an unknown sample is discriminated as one of the groups. Therefore, the discriminant function is defined and used by Mahalanobis distance considering the correlation between multivariate. On the other hand, as a new method using this Mahalanobis distance, there is a method disclosed in “Journal of Quality Engineering, Vol. 3, No. 1: {Comprehensive evaluation and multi-dimensional information and SN ratio}”. This method is applied to medical examinations in the medical field and uses the Mahalanobis space as a measure. In this case, the Mahalanobis space is a group of healthy people, and only healthy people make a uniform group, and the Mahalanobis space (group of healthy people's Mahalanobis distance) is the reference point with medically determined measurement items. . The average distance of the people belonging to the Mahalanobis space is 1.0, and the Mahalanobis distance of the people belonging to the space takes only a value of 2 to 4. Then, the Mahalanobis distance with respect to a subject whose health is unknown is examined, and if the value is smaller than a certain threshold value (for example, 4), it is determined to be healthy, otherwise it is determined to be abnormal. Such a method has a wide range of applications and has been published in various fields. For example, Patent Document 4: Environment monitoring system, abnormality detection method, and abnormality detection device.

特開平9−102032号公報Japanese Patent Laid-Open No. 9-102032 特開平7−55688号公報JP-A-7-55688 特開2000−200356号公報JP 2000-200366 A 特許第3280872号Japanese Patent No. 3280872

前記特許文献1記載の物体検出方法は、画像中に設定された検出処理領域における各画素の明度をヒストグラム化し、これによって得られたヒストグラムに対して統計手法を用いて画素の分布状態の特徴を数値化し、これによって得られた数値に基づいて検出処理領域に何らかの物体が存在するか否かを判断する方法であった。前記判断法は、統計手法によって得られた数値を入力データとし、この入力データが得られた検出処理領域の実際のデータを教師データとし、前記入力データに対して所定の演算を実行して得られた出力データと前記教師データとを比較し、出力データが教師データと合致するように、前記学習しそれに基づいて処理するニューラルネットワーク法で行っていた。   In the object detection method described in Patent Document 1, the brightness of each pixel in the detection processing area set in the image is histogrammed, and the characteristics of the pixel distribution state are obtained using a statistical method on the histogram obtained thereby. This is a method of digitizing and determining whether or not any object is present in the detection processing region based on the numerical value obtained thereby. The determination method is obtained by using a numerical value obtained by a statistical method as input data, using actual data in a detection processing region from which the input data is obtained as teacher data, and executing a predetermined operation on the input data. The obtained output data is compared with the teacher data, and the learning is performed and the processing is performed based on the neural network method so that the output data matches the teacher data.

このため、教師データを新たに追加する場合、再度ニューラルネットワークを再構築しなければならず、多大な工数を必要としていた。   For this reason, when new teacher data is added, the neural network must be reconstructed again, which requires a great amount of man-hours.

又、特許文献2記載の粒子分類表示装置では、粒子の特徴パラメータを検出し、それぞれの粒子毎に自動的に判定させ、分類結果と粒子画像とをあわせて記憶表示させると共に、前記パラメータの変更が容易であるとともに、学習データの作成,再学習を行うことができるので、省力化には大いに貢献している。しかし、前記再学習或いは自動分類を実行するための処理部に、教師データを新たに追加する場合は、前記従来例と同様に、ニューラルネットワークを再構築しなければならない。従って、多大な工数が必要であるという課題は解決されていない。   In the particle classification display device described in Patent Document 2, the characteristic parameter of the particle is detected, automatically determined for each particle, the classification result and the particle image are stored and displayed, and the parameter is changed. Is easy, and learning data can be created and re-learned, which greatly contributes to labor saving. However, when new teacher data is added to the processing unit for executing re-learning or automatic classification, a neural network must be reconstructed as in the conventional example. Therefore, the problem that a great number of man-hours is required has not been solved.

又、かかる検出物の検知や尿中の粒子分類においては、検知機能や分類機能という単一の機能の向上を目指したものであり、当面の改善の効果はあった。しかし、その結果を一つの情報として、より確度が高く、より総合的に物体の“性状”やその“状態変化”を的確に捉え、より総合的な観点で被検出体の“性状”や“状態変化”を判断・認識するという観点では大幅な改良が望まれている。   Further, in the detection of the detected object and the classification of particles in urine, the aim is to improve a single function such as a detection function and a classification function, and there is an immediate improvement effect. However, using the results as one piece of information, it is more accurate and more comprehensively captures the “property” of the object and its “state change” more accurately, and the “property” and “ From the viewpoint of judging and recognizing the “state change”, significant improvement is desired.

前記特許文献3、及び特許文献4記載の既学習データとのマハラノビス距離を使用した判別関数、或いは均一なマハラノビス空間からのマハラノビス距離による判別・判断・認識では種々の成果が開示されており、その応用範囲も広い。しかし、本法を例えば、尿中の赤血球,白血球、硝子細胞粒子等の分類或いは判別に応用する場合、下記のような問題が発生していた。   Various results have been disclosed in the discriminant function using the Mahalanobis distance with the already learned data described in Patent Document 3 and Patent Document 4, or the discrimination / judgment / recognition based on the Mahalanobis distance from the uniform Mahalanobis space. Wide application range. However, when this method is applied to, for example, classification or discrimination of red blood cells, white blood cells, and glass cell particles in urine, the following problems have occurred.

既知の認知された母集団が多数存在する。いずれも母集団も測度の基準となるマハラノビス空間の作成候補である。例えば、上記尿中の粒子であれば赤血球,白血球、硝子粒子細胞のいずれでも良いということである。仮に、赤血球の母集団を基準のマハラノビス空間(基準空間)とすると、この空間に白血球、硝子粒子細胞等の粒子を宛がい、そのマハラノビス距離にて前記白血球,硝子粒子細胞等が分類・判別される。このとき、当然、白血球群と硝子細胞群間でも明確な判別・分類がなさなければならない。又、白血球を基準空間とした場合にも同様な結果が得られなければならないが、バラツキの大きき粒子群を基準空間にすると、その分類や判別結果が悪化し、確度が低下した。   There are many known perceived populations. Both populations are candidates for creating the Mahalanobis space that serves as the basis for the measure. For example, the urine particles may be any of red blood cells, white blood cells, and glass particle cells. If the population of red blood cells is a standard Mahalanobis space (standard space), particles such as white blood cells and glass particle cells are assigned to this space, and the white blood cells and glass particle cells are classified and discriminated at the Mahalanobis distance. The At this time, of course, a clear discrimination / classification must be made between the leukocyte group and the vitreous cell group. In addition, when white blood cells are used as a reference space, the same result must be obtained. However, when a particle group having a large variation is used as a reference space, the classification and discrimination results deteriorate and accuracy decreases.

既知の認知された母集団が多数存在しているにも係わらず、その分散や共分散や相関係数は各母集団に共通であると仮定して成り立っている(距離算出の原点としているため)。このため、分類・判別・認識の能力を向上するためには、被検出体の母集団データは個々にバラツキが小さく、平均値が大きく変化しているサンプルのみが学習データとなる。従って、特定の限られた粒子のみが判別・認識されるが一般的には、その認識率が低下してしまう。   Despite the fact that there are many known recognized populations, the variance, covariance, and correlation coefficient are assumed to be common to each population (because it is the origin of distance calculation) ). For this reason, in order to improve the ability of classification / discrimination / recognition, the population data of the detected objects has small variations individually, and only the sample whose average value greatly changes becomes the learning data. Therefore, only specific limited particles are discriminated / recognized, but generally the recognition rate is lowered.

本発明は、従来技術の問題点を解決するために成されたもので、被検出体の情報から抽出した特徴パラメータから作成したマハラノビス距離の情報を、複数の既知の検出体のそれと比較して、被検出体がいずれと同一であるかを判断・認識することにより、被検出体の判断・認識率を向上し、且つ自動的に処理可能な処理法であって、且つ簡単なアルゴリズムであって、リアルタイム処理が可能な判断・認識の処理方法及び処理装置を提供することを目的とする。   The present invention has been made to solve the problems of the prior art, and the Mahalanobis distance information created from the feature parameters extracted from the information of the detected object is compared with that of a plurality of known detected objects. It is a processing method that can improve the judgment / recognition rate of the detected object by determining / recognizing which object is the same, and can be processed automatically, and is a simple algorithm. An object of the present invention is to provide a determination / recognition processing method and processing apparatus capable of real-time processing.

又、前記判断や認識のためのパラメータの変更が容易であるとともに、別途学習データの作成,再学習を行うことができ、被検出体の判断・認識の確度を随時向上させることができる処理方法及び装置を提供することを目的とする。   In addition, the processing method can easily change the parameters for the determination and recognition, can separately create learning data and re-learn, and can improve the accuracy of determination and recognition of the detected object as needed. And an apparatus.

更には、検出機器単体の情報を統合して、より確度が高く、且つ付加価値の高い情報を創出できるシステムを提供することを目的としている。   It is another object of the present invention to provide a system capable of integrating information of a single detection device to create information with higher accuracy and high added value.

上記課題を達成するための本発明の構成は以下の通りである。   The configuration of the present invention for achieving the above object is as follows.

既知の複数の被検体から多変数の特徴パラメータを抽出する特徴パラメータ抽出手段と、該特徴パラメータ抽出手段により抽出された特徴パラメータに基づき前記複数の被検体のそれぞれでマハラノビス空間(基準空間)を形成するマハラノビス空間演算手段と、形成された複数の基準空間の情報を予め記憶しておく記憶手段と、未知の検出体から特徴パラメータを抽出する特徴パラメータ抽出手段と、該特徴パラメータ抽出手段により抽出された特徴パラメータを前記マハラノビス空間演算手段で形成されたマハラノビス空間にあてがい、前記未知の検出体のマハラノビス距離を算出するマハラノビスの距離演算手段と、該マハラノビスの距離演算手段により算出されたマハラノビス距離とを比較する比較手段と、前記比較手段での比較結果に基づいて被検出体の判別を行う判別手段と、を備えた被検出体の判別システム。   Feature parameter extraction means for extracting multivariate feature parameters from a plurality of known subjects, and a Mahalanobis space (reference space) formed by each of the plurality of subjects based on the feature parameters extracted by the feature parameter extraction means Mahalanobis space computing means, storage means for preliminarily storing information of a plurality of reference spaces formed, feature parameter extraction means for extracting feature parameters from an unknown detector, and feature parameter extraction means The Mahalanobis space calculated by the Mahalanobis space calculation means, the Mahalanobis distance calculation means for calculating the Mahalanobis distance of the unknown detector, and the Mahalanobis distance calculation means Comparison means for comparison and comparison result by the comparison means Detection object discrimination system comprising determining means for discriminating the object to be detected, a based on.

以上詳細に説明したように、本発明の構成によれば、
(1)画像処理部において複数の既知の個体差を含んだ多数の被検出体の画像を取り込み、その画像から多数の特徴パラメータと当該マハラノビス空間を作成し、未知の被検出体の入力に対して、前記当該マハラノビス空間との隔離距離にて、前記未知の被検出体が既知検出体と“異質”或いは“同質”あるかを自動的に判断・認識する。このため、人手がかからず、操作者或いは専門家の業務を軽減できる。
(2)被検出体の判別・認識力を向上することができ、その確度が向上するので、より総合的な判別・認識を行うことが可能となる。
(3)判定・認識結果と画像データとを合わせて記憶させることにより、教示データを作成することが容易にでき、又前記パラメータの変更が容易であり、判別・認識の確度を随時向上させることができる。このため、益々操作者や専門家の業務を省力化できる。又、安価に構成することができる。
(4)判別・認識論理に複数のマハラノビス空間とその距離を用いると、当該検出体間の境界付近の検出体サンプルに関しても、その誤差を最小化することができる。このため、確度が向上し、信頼性が向上する。
(5)特徴パラメータの変更時や、新たなカテゴリー化を追加する場合でも、前記マハラノビス空間情報を付加或いは修正するのみで実施でき、判別・認識のネットワークの再構築を実施する必要がなく、立ち上げ工数の大幅な低減が可能となる。
(6)管理機器では、単一機器からの結果や情報と他の機器からの結果や情報をネットワークを介して収集されるので、より総合的な判断・認識に必要な特徴パラメータを収集できる。又、これらの特徴パラメータから当該マハラノビス空間を作成でき、被検出体と当該マハラノビス空間との距離の差異にて、被検出体の性状やその時間的状態変化を、より確度が高く且つ細分化した性状変化をも判別・認識することができる。従って、より確度が高く、且つ総合的な判断・認識に寄与できる付加価値の高い情報を提供することが可能であり、診断支援を達成できる。
As described in detail above, according to the configuration of the present invention,
(1) The image processing unit captures images of a large number of detected objects including a plurality of known individual differences, creates a large number of feature parameters and the Mahalanobis space from the images, and responds to an input of an unknown detected object. Thus, it is automatically determined / recognized whether the unknown object to be detected is “different” or “same” from the known object at the separation distance from the Mahalanobis space. For this reason, manpower is not required, and the operations of the operator or the specialist can be reduced.
(2) The discrimination / recognition ability of the detected object can be improved and the accuracy is improved, so that more comprehensive discrimination / recognition can be performed.
(3) By storing the determination / recognition result together with the image data, it is possible to easily create teaching data, and to easily change the parameters, and to improve the accuracy of determination / recognition as needed. Can do. For this reason, it is possible to save labor for operators and specialists. Further, it can be configured at low cost.
(4) When a plurality of Mahalanobis spaces and their distances are used for the discrimination / recognition logic, the error can be minimized even for the detection object samples near the boundary between the detection objects. For this reason, accuracy is improved and reliability is improved.
(5) Even when characteristic parameters are changed or new categorization is added, it can be performed simply by adding or modifying the Mahalanobis spatial information, and there is no need to reconstruct the discrimination / recognition network. It is possible to significantly reduce the man-hours for raising.
(6) Since the management device collects results and information from a single device and results and information from other devices via a network, it can collect characteristic parameters necessary for more comprehensive judgment and recognition. Moreover, the Mahalanobis space can be created from these characteristic parameters, and the property of the detected object and its temporal state change are more accurately and subdivided by the difference in the distance between the detected object and the Mahalanobis space. It is also possible to distinguish and recognize property changes. Therefore, it is possible to provide information with high accuracy and high added value that can contribute to comprehensive judgment and recognition, and diagnosis support can be achieved.

理解しやすくするため、上記構成を被検出体を画像処理にて認識する例により、以下説明する。   In order to facilitate understanding, the above configuration will be described below with an example of recognizing an object to be detected by image processing.

被検出体を撮影する撮影部と、前記撮影された画像データをデジタル量化して前記被検出体の特徴を表現する多数の項目(長さ,面積,濃度等)を抽出する抽出部と、これらの特徴パラメータから既存或いは既知の学習された検出体群の多数の特徴パラメータからマハラノビス空間を複数形成し、被検出体の入力に対して、前記既知の空間とのマハラノビス距離を算出しその隔離距離にて、前記被検出体との類似度或いは一致度(同質度)を算出し、その結果として未知の検出体が既存或いは既知の何れかのグループ(母集団)やカテゴリーに属するか否かを判別・認識する処理部と、その結果を開示又は表示する出力部とから構成し、前記かかる構成要素を検出機器として構成し、前記処理部にて処理された結果又は情報を上位の管理機器に伝送する通信部を前記検出器に具備し、前記結果やその情報を開示できる構成とし、前記管理機器では前記検出器や他の検出機器からの結果や情報から前記検出機器と同様な処理を行う処理部を具備する構成とした。   An imaging unit for imaging the object to be detected; an extraction unit for extracting a number of items (length, area, density, etc.) expressing the characteristics of the object to be detected by digitizing the captured image data; and A plurality of Mahalanobis spaces are formed from a large number of feature parameters of an existing or known learned object group from the feature parameters of the object, and the Mahalanobis distance from the known space is calculated for the input of the detected object, and the separation distance is calculated. Then, the degree of similarity or coincidence (homogeneity) with the detected object is calculated, and as a result, whether or not the unknown detected object belongs to any existing or known group (population) or category. It comprises a processing unit for discriminating and recognizing and an output unit for disclosing or displaying the result. The component is configured as a detection device, and the result or information processed by the processing unit is an upper management device. The detector is provided with a communication unit for transmission, and the result and information thereof can be disclosed. The management device performs the same processing as the detection device from the result and information from the detector and other detection devices. It was set as the structure which comprises a process part.

以下、かかる判別・認識法の処理部の手順を示す。
(1)既知の複数の当該検出体の固有空間(基準空間)を形成する学習データの収集
第一には、前記既知或いは既存の同質或いは同じグループに属するn個の被検出体群サンプル(1〜mグループ)から、グループ毎に、特徴パラメータk個(例えば形状の場合:長さ,面積,濃度等)でn個のデータを収集する。かかるデータ群は前述の如く、既知或いは所定の認識されている被検出体であり、その個体差(ばらつき)をも考慮しているn個のデータ群となっている。前記特徴パラメータ毎(k個)の平均値,標準偏差等の基本的な統計量も同時に算出し、これらの情報は機器の記憶部内に格納する。
(2)前記(1)項の“当該検出体の固有空間”のマハラノビス空間のデータの作成
(1)項データ群から、前記特徴パラメータ毎の平均値と標準偏差で前記データ群を正規化し、“当該被検出体の固有空間”のマハラノビス距離:D2 を算出する。マハラノビス距離は前記各特徴要素数(k個)の相関係数又は分散共分散行列と、使用したデータ数(n個)に対応して、その距離が計算される。その平均値はD2≒1.0で、その標準偏差は1〜2程度のχ2分布を呈する空間(マハラノビス空間)であり、被検出体のグループ毎に作成しておく。前記マハラノビス空間毎(m個)の平均値、標準偏差等の基本的な統計量も同時に算出し、これらの情報は機器の記憶部内に格納する。
(3)処理法
未知の検出体或いは判別・認識すべき被検出体のデータを撮影し、特徴パラメータ(x={x1,x2,…,xk})を抽出する。抽出された特徴パラメータのデータを前述の(1),(2)項と同様な方法でデータ加工を行い、前述の(1),(2)項と同様な方法でデータ加工を行い、前記(1),(2)項で形成された当該検出体の固有空間(マハラノビス空間)に宛がい、その隔離距離(マハラノビス距離):D2(x) を算出する。即ち、前記D2(x) と、前記“当該検出体の固有空間”である基準空間の値:D2(0) (マハラノビス空間)とを逐次比較するか、あるいは一つの“当該検出体の固有空間”を固定(基準)し、その空間との差分距離で比較を行う。
The procedure of the processing unit of this discrimination / recognition method is shown below.
(1) Collection of learning data forming eigenspaces (reference spaces) of a plurality of known detection objects First, n detection target group samples (1) belonging to the known or existing homogeneous or the same group ˜m groups), n pieces of data are collected for each group with k characteristic parameters (for example, in the case of shape: length, area, density, etc.). As described above, these data groups are known or predetermined recognized objects, and are n data groups that take into account individual differences (variations). Basic statistics such as an average value and standard deviation for each feature parameter (k) are also calculated at the same time, and these pieces of information are stored in the storage unit of the device.
(2) Creation of Mahalanobis space data of “the eigenspace of the detected object” in (1), (1) From the data group, normalize the data group with an average value and standard deviation for each feature parameter; A Mahalanobis distance: D 2 of “the eigenspace of the detected object” is calculated. The Mahalanobis distance is calculated according to the correlation coefficient or variance-covariance matrix of each feature element number (k) and the number of data used (n). The average value is D 2 ≈1.0, and the standard deviation is a space (Mahalanobis space) exhibiting a χ2 distribution of about 1 to 2, and is created for each group of detected objects. At the same time, basic statistics such as an average value and standard deviation for each Mahalanobis space (m pieces) are calculated, and these pieces of information are stored in the storage unit of the device.
(3) Processing method Data of an unknown detected object or a detected object to be discriminated / recognized is photographed, and feature parameters (x = {x1, x2,..., Xk}) are extracted. The extracted feature parameter data is processed by the same method as the above-mentioned items (1) and (2), and the data is processed by the same method as the above-mentioned items (1) and (2). Address the eigenspace (Mahalanobis space) of the detection object formed in the items 1) and (2), and calculate its isolation distance (Mahalanobis distance): D 2 (x). That is, the D 2 (x) and the reference space value D 2 (0) (Mahalanobis space) which is the “eigenspace of the detection object” are sequentially compared, or one “ “Eigenspace” is fixed (reference), and a comparison is made based on the difference distance from that space.

上記、一つの“当該検出体の固有空間”を固定(基準)とした場合、D2(x) とD2(0)の空間距離に差異がない場合は、即ちD2(x) =0〜4の範囲内であれば、かかる被検出体は前記“当該検出体”と同じ(“同質”)と判断・認識する。一方、差異がある場合には、前記被検出体は前記“当該検出体”とは相違する(“異質”)と判断・認識する。 In the case where one of the above-mentioned “eigenspaces of the detection object” is fixed (reference), when there is no difference in the spatial distance between D 2 (x) and D 2 (0), that is, D 2 (x) = 0. If it is within the range of ˜4, it is determined and recognized that the detected object is the same (“same quality”) as the “detected object”. On the other hand, if there is a difference, the detected object is judged and recognized as being different from the “detected object” (“different”).

或いは、“当該検出体の固有空間”の基準空間のD2(0) (マハラノビス空間距離)をm個にした場合、
これらの値を逐次比較し、その最小距離を有する“当該検出体の固有空間”の基準空間に“同質”であると判断・認識する。従って、未知の被検出体は前記当該検出体の固有空間と“同質”或いは“異質”の何れかに属するかを判別・認識し、カテゴリー化される。
(4)再構築時の処理法
前記(3)項で、“同質”或いは“異質”であるとの判別・認識が不可の被検出体、即ち前記当該検出体の固有空間のいずれにも該当しない検出体に関しては、前記記憶部にその画像情報と特徴パラメータを逐次格納して蓄積を行い、データ群を収集する。かかるデータ群は所定の間隔或いは必要に応じて再学習することで、新しいグループ或いはカテゴリー化を作成する。
Or, when D 2 (0) (Mahalanobis space distance) of the reference space of “the eigenspace of the detected object” is m,
These values are sequentially compared, and it is determined and recognized as being “homogeneous” in the reference space of “the eigenspace of the detected object” having the minimum distance. Therefore, an unknown object to be detected is categorized by determining and recognizing whether it belongs to the same space or “heterogeneous” of the eigenspace of the detected object.
(4) Processing method at the time of reconstruction In the above item (3), it corresponds to any object to be detected that cannot be distinguished / recognized as “homogeneous” or “heterogeneous”, that is, the eigenspace of the detected object. For the detection object that does not, the image information and feature parameters are sequentially stored in the storage unit and accumulated, and a data group is collected. Such a data group is re-learned at a predetermined interval or as necessary to create a new group or categorization.

その処理法は上述の(1),(2)項と同様であるが、既に、前記特徴パラメータのデータ群が収集されているので、マハラノビス空間を新たに作成し、その空間の統計量と特徴パラメータの統計量のみを前記記憶部に格納する処理のみでその処理が完了する。   The processing method is the same as the above-mentioned items (1) and (2). However, since the data group of the feature parameters has already been collected, a Mahalanobis space is newly created, and the statistics and features of the space are created. The process is completed only by the process of storing only the parameter statistics in the storage unit.

更に、前記管理機器と前記機器とはネットワークを介して接続され、前記管理機器では前記機器の結果と他の検出機器の結果や情報を収集する機能を有している。且つ前記機器と同様に、多項目の種々の特徴パラメータから、被検出体の固有空間である当該マハラノビス空間を作成し前述の(3)項と同様な処理法を具備することにより、前記被検出体の状態変化や時間経緯を前記マハラノビス距離にて判断・認識する。   Further, the management device and the device are connected via a network, and the management device has a function of collecting results of the device and results and information of other detection devices. As in the case of the device, the Mahalanobis space, which is the eigenspace of the detected object, is created from various characteristic parameters of a plurality of items, and the processing method similar to the above item (3) is provided. Judging and recognizing changes in body condition and time based on the Mahalanobis distance.

上記の各技術的手段の働きは以下のとおりである。   The functions of the above technical means are as follows.

本発明の構成によれば、画像処理部において既知の個体差を含んだ多数の被検出体の画像を取り込み、その画像から多数の特徴パラメータを求め、この特徴パラメータより被検出体が何であるかを、それぞれの被検出体毎にマハラノビス空間を作成して、被検出体とのマハラノビス距離の隔離距離にて、当該既知検出物と“異質”或いは“同質”であるかを、自動的に判別・認識する。   According to the configuration of the present invention, the image processing unit captures images of a large number of detected objects including known individual differences, obtains a large number of feature parameters from the images, and what the detected object is based on the feature parameters. Create a Mahalanobis space for each detected object, and automatically determine whether it is “foreign” or “homogeneous” with the known detected object at the separation distance of the Mahalanobis distance from the detected object. ·recognize.

また、記憶部に保存した既知データ以外の被検出体を新たに再学習して追加する場合でも、画像データと特徴パラメータからマハラノビス空間を作成して逐次記憶部に追加,保存するだけで、新たなグループやカテゴリー化を短時間で増やすことができ、判別・認識の性能が向上する。   In addition, even when a new object to be detected other than known data stored in the storage unit is re-learned and added, a Mahalanobis space is created from the image data and feature parameters, and is added to and stored in the storage unit. Group and categorization can be increased in a short time, and discrimination / recognition performance is improved.

また、判別・認識論理にマハラノビス空間とその距離を用いると、当該検出体間の境界付近の未知の検出体サンプルに関し、その誤差を最小化することができる。このため、判別・認識の確度が向上する。   In addition, when the Mahalanobis space and its distance are used for the discrimination / recognition logic, the error can be minimized with respect to an unknown detector sample near the boundary between the detectors. For this reason, the accuracy of discrimination / recognition is improved.

更に、前述の如く、特徴パラメータの変更時や、新たなカテゴリー化を追加する場合でも、前記マハラノビス空間の情報を付加或いは修正するのみで対応でき、従来のニューラルネットワーク法におけるネットワークの再学習と再構築を行う必要がない。   Furthermore, as described above, even when the characteristic parameter is changed or when a new categorization is added, it is possible to cope with it simply by adding or correcting the information of the Mahalanobis space. There is no need to build.

また、前記管理機器では、単一機器からの結果や情報と他の機器からの結果や情報をネットワークを介して収集されるので、より総合的な判別・認識に必要な特徴パラメータを収集できる。又、これらの特徴パラメータから当該マハラノビス空間を容易に作成でき、被検出体と当該マハラノビス空間とのマハラノビス距離の差異にて、被検出体の“性状”やその時間的“状態変化”をも判別・認識する。   Further, since the management device collects results and information from a single device and results and information from other devices via a network, it can collect characteristic parameters necessary for more comprehensive discrimination and recognition. In addition, the Mahalanobis space can be easily created from these characteristic parameters, and the “property” of the detected object and its temporal “state change” can also be determined based on the difference in Mahalanobis distance between the detected object and the Mahalanobis space. ·recognize.

以下に本発明を実施例を用いて説明する。   The present invention will be described below with reference to examples.

図1は、本発明の一実施例に係る検出機器の構成を示すブロック図とその構成図、図2は、図1の実施例に係る検出機器の撮影部の説明図、図3は、図1の実施例に係る処理部の基本フローを説明する図、図4は、図1,図3の実施例に係る検出機器における処理フローを示す図、図5は、図4の実施例に係る検出機器における判別・認識処理法を詳細に説明する図、図6は、図5の実施例に係る検出機器における判別・認識例とその説明図である。   FIG. 1 is a block diagram showing the configuration of a detection device according to an embodiment of the present invention and its configuration diagram, FIG. 2 is an explanatory diagram of a photographing unit of the detection device according to the embodiment of FIG. 1, and FIG. FIG. 4 is a diagram illustrating a basic flow of a processing unit according to the first embodiment, FIG. 4 is a diagram illustrating a processing flow in the detection device according to the embodiment of FIGS. 1 and 3, and FIG. 5 is according to the embodiment of FIG. FIG. 6 is a diagram for explaining in detail the discrimination / recognition processing method in the detection device, and FIG. 6 is an example of discrimination / recognition in the detection device according to the embodiment of FIG.

図1,図2に従い、本発明の一実施例に係る判別・認識の方法を、尿中の赤血球,白血球,硝子細胞粒子,癌細胞粒子等の粒子を自動的に判別・認識・分類する機器に適用した場合を例にして説明する。   1 and 2, the discrimination / recognition method according to an embodiment of the present invention is a device that automatically discriminates / recognizes / classifies particles such as red blood cells, white blood cells, glass cell particles, and cancer cell particles in urine. A case where this is applied to will be described as an example.

本発明の実施の形態に係る検出機器は、被検出体:8を撮影する撮像部:1と、前記撮影部:1で撮像された原画像からの映像信号をデジタル量化(画素化)する画像抽出部:5と、前記画素から検出体の形状や面積や濃度等の特徴項目を抽出する特徴パラメータ算出部:6と、前記特徴パラメータを保持する記憶部:4と、前記特徴パラメータから被検出体を判別・認識する処理部1:2から構成している。   The detection apparatus according to the embodiment of the present invention includes an imaging unit: 1 that captures an object to be detected: 8, and an image that digitalizes (pixels) a video signal from an original image captured by the imaging unit: 1. Extraction unit: 5, feature parameter calculation unit for extracting feature items such as the shape, area, and density of the detection object from the pixel, storage unit for storing the feature parameter: 4, and detection from the feature parameter The processing unit 1: 2 is configured to recognize and recognize the body.

前記被検出体:8は、CCDカメラ等により前記撮影部:1にて取り込まれ、電気信号に変換される(図2参照)。変換された画像信号はAD変換回路によってディジタル信号に変換され、機器のメモリに記憶される。前記特徴項目のデジタル量化は、例えば8ビットのA/D変換素子を使用する場合、各画素は256(=28 )階調にデジタル量子化される。 The detected object 8 is captured by the photographing unit 1 by a CCD camera or the like and converted into an electric signal (see FIG. 2). The converted image signal is converted into a digital signal by the AD conversion circuit and stored in the memory of the device. For example, when an 8-bit A / D conversion element is used, each pixel is digitally quantized to 256 (= 2 8 ) gradations.

前記被検出体:8の量子化された画像は、前記特徴パラメータ算出部:6により前記被検出体毎に面積,周囲長,平均RGB各色の濃度等の特徴パラメータが抽出される(図2参照)。抽出された前記特徴パラメータは、前記処理部1:2に入力される。   From the quantized image of the detected object 8, feature parameters such as area, perimeter, and average RGB density are extracted for each detected object by the feature parameter calculation unit 6 (see FIG. 2). ). The extracted feature parameters are input to the processing unit 1: 2.

上記の撮影部:1,画像抽出部:5,特徴パラメータ算出部:6,処理部1:2は、
CPUにより制御されており、前記CPUにはメモリ(図示せず)、記憶部:4と、前記結果を出力或いは表示する出力部:3等がCPUバスを介して接続されている。
The photographing unit: 1, the image extracting unit: 5, the characteristic parameter calculating unit: 6, and the processing unit 1: 2
Controlled by a CPU, a memory (not shown), a storage unit: 4 and an output unit: 3 for outputting or displaying the result are connected to the CPU via a CPU bus.

又、前記CPUには通信部:21を通し、ネットワーク:130を介して上位の管理機器:110と通信できるようになっており、前記検出機器:100で得られた結果を前記管理機器:110にその結果や情報を伝送できるようになっている。   Further, the CPU can communicate with a higher-level management device: 110 via a communication unit: 21 and a network: 130, and the result obtained by the detection device: 100 is used as the management device: 110. The result and information can be transmitted.

次に前記処理部1:2に適用している処理法について、図3を参照しながら説明する。尚、本図は単一の基準空間をベースにして被検出体を判別・分類・認識する従来の手順である。マハラノビス距離とは多変量(多次元)空間における距離の尺度の一つである。従来、多変量解析の判断分析で用いられているものであり、予測や診断のためのパターン認識の一つの手法であり、物事の状態の正常さ加減等を測れる指標となっている。これは従来の多変量解析とは異なり、基準となる多変量のデータ群からどれだけ離れているかを示し、或いはどれだけ似ているかを示す尺度となっている。   Next, a processing method applied to the processing unit 1: 2 will be described with reference to FIG. This figure shows a conventional procedure for discriminating, classifying, and recognizing an object to be detected based on a single reference space. Mahalanobis distance is a measure of distance in multivariate (multidimensional) space. Conventionally, it is used in judgment analysis of multivariate analysis, is a pattern recognition method for prediction and diagnosis, and is an index that can measure the normality of the state of things. Unlike the conventional multivariate analysis, this is a scale indicating how far away or similar to the reference multivariate data group.

例えば、判断の原点(基準)を製品の正常品(例えば検査試験にての合格品群集団であり、図3ではG1としている)とする。一般の判断分析や重回帰分析では、異常の情報を与えなければ尺度はつくれないが、その異常さが多様であれば有るほど全て考慮するわけにはいかないので、事実上は限定された尺度でしかない。しかし、マハラノビス距離を使用することにより基準からだけで、その隔離距離を作れるため、どのくらい基準と違うかが判る。   For example, the starting point (reference) of the determination is a normal product (for example, a group of acceptable products in the inspection test, which is G1 in FIG. 3). In general judgment analysis and multiple regression analysis, a scale cannot be created unless information on abnormalities is given. However, as the abnormalities are diverse, not all of them can be considered. There is only. However, by using the Mahalanobis distance, the separation distance can be created just from the reference, so it can be seen how much it differs from the reference.

図3にはその処理の過程を示す。
(1):当該固有空間(基準空間)の選定と特徴パラメータの選択を行う。
FIG. 3 shows the process.
(1): The eigenspace (reference space) is selected and feature parameters are selected.

例えば、既知の性状を有する検出体群を当該空間と定義して、多数のデータを収集する。
(2):データベース(マハラノビス空間)を作る。
For example, a group of detectors having known properties is defined as the space, and a large amount of data is collected.
(2): Create a database (Mahalanobis space).

前記データの個数をn個、その特徴パラメータ数をTk個とすると、項目毎の平均,標準偏差,相関係数を作る。項目毎の平均値をμ(1),μ(2),…,μ(k)とし、標準偏差をσ(1),σ(2),…,σ(k)とし、下記の如くデータを正規化する。   If the number of data is n and the number of feature parameters is Tk, the average, standard deviation, and correlation coefficient for each item are created. The average value for each item is μ (1), μ (2),..., Μ (k), the standard deviation is σ (1), σ (2),. Normalize.

Y(i,j)={X(i,j)−μ(j)}/σ(j) i=1〜n,j=1〜k
(3):次に、特徴パラメータ間の相関行列:ρ(i,j)(又は共分散)を求め、その逆行列a(i,j)を求める。
(4):マハラノビス距離(D2)を求める。
Y (i, j) = {X (i, j) -μ (j)} / σ (j) i = 1 to n, j = 1 to k
(3): Next, a correlation matrix between feature parameters: ρ (i, j) (or covariance) is obtained, and its inverse matrix a (i, j) is obtained.
(4): The Mahalanobis distance (D 2 ) is obtained.

2(i)=(1/k)*Σy(i,jk)*a(jk,jk)*y(jk,i)
i=1〜n,jk=1〜k
この距離は全データ数n個に対して、平均は約1.0となる分布を示し、この空間(マハラノビス空間)がゼロ点となり、総合計測としての尺度の単位量となる。
(5):検出体の距離を求める。
D 2 (i) = (1 / k) * Σy (i, jk) * a (jk, jk) * y (jk, i)
i = 1 to n, jk = 1 to k
This distance shows a distribution with an average of about 1.0 with respect to the total number of data n, and this space (Mahalanobis space) becomes a zero point, which is a unit amount of a scale as a total measurement.
(5): The distance of the detection body is obtained.

任意の未知の被検出体の観測データX(i,j)に対して、D2(x) を算出する。図3に示すように、被検体1のマハラノビス距離は当該基準空間内(G1と定義)に位置するので、その性状は“同質”と判別・認識され、前記基準空間作成時の当該空間と同じ性状を呈しているものと判別・認識する。一方、被検体2,3では前記基準空間から隔離しているので、“異質”と判別・認識される。その異質度は被検体2と被検体3では、被検体3の方が前記基準空間との性状とは異なっている。この距離が増加すると、その異質度も増加する。 D 2 (x) is calculated for observation data X (i, j) of an arbitrary unknown object. As shown in FIG. 3, since the Mahalanobis distance of the subject 1 is located in the reference space (defined as G1), its property is discriminated / recognized as “homogeneous” and is the same as the space at the time of creating the reference space. Identify / recognize that it is exhibiting properties. On the other hand, since the objects 2 and 3 are isolated from the reference space, they are determined and recognized as “foreign”. The degree of heterogeneity between the subject 2 and the subject 3 is different from that of the reference space in the subject 3. As this distance increases, the degree of heterogeneity also increases.

本実施例に即して説明する。G1は尿中の粒子の内、赤血球群とする。被検体1は赤血球であり、被検体2は白血球、被検体3は硝子細胞粒子であると判断・認識される。この時、被検体2,3は前記基準空間である赤血球に比して、その特徴パラメータのバラツキが大きい。このため、図3の如く、数を重ねるに従い、白血球の集団(G2)と硝子細胞粒子の集団(G3)とにカテゴリーされるようになるのが理想である。しかし、前述の如く特徴量のバラツキが多きので、必ずしも完全にG1,G2集団を分離することは出来ない。このため、認識率が低下する。この理由は前述の如く、基準となる赤血球の基準空間を構成するパターンは普遍であると仮定しているためである。一方、この問題を解決するため、被検出体のバラツキを縮小したデータのみを使用すれば良いが、これは被検出体を限定してしまうことになり、結果として、不明粒子が増加し、認識率が低下してしまう。マハラノビス距離,空間を適用した場合の前述の問題点を解決し、更に、ニューラルネットワーク法に比して、より効率の良い判別・認識法とそれによる認識率向上を行うのが本願の目的である。   This will be described with reference to this embodiment. G1 is a group of red blood cells among particles in urine. It is determined and recognized that the subject 1 is a red blood cell, the subject 2 is a white blood cell, and the subject 3 is a glass cell particle. At this time, the subjects 2 and 3 have large variation in characteristic parameters as compared with the red blood cells which are the reference space. For this reason, as shown in FIG. 3, it is ideal that the number of white blood cells (G2) and the vitreous cell particles (G3) are categorized as the number increases. However, as described above, since there are many variations in the feature values, it is not always possible to completely separate the G1 and G2 groups. For this reason, a recognition rate falls. This is because, as described above, it is assumed that the pattern constituting the reference space of the reference red blood cells is universal. On the other hand, in order to solve this problem, it is only necessary to use data obtained by reducing the variation of the detected object, but this limits the detected object, resulting in an increase in unknown particles and recognition. The rate will drop. The purpose of this application is to solve the above-mentioned problems when applying the Mahalanobis distance and space, and to improve the recognition rate and the recognition method that is more efficient than the neural network method. .

図4は本発明の処理フローを示す。図1を参照しながら説明する。   FIG. 4 shows the processing flow of the present invention. This will be described with reference to FIG.

S1(ステップ1):既知被検出体空間の設定
先ず、検出機器の稼動前或いはオフライン時に、図1に示すように既知の検出体群:
90,91,92(1〜m群)、或いは既知のカテゴリー化している検出体群:90(例えば赤血球),91(例えば白血球),92(例えば硝子細胞粒子)(1〜m群)毎に、上述に示した手順にて(図3参照)マハラノビス空間をm個作成し、前記記憶部:4内に各被検出体群の特徴パラメータ(k個)の平均値,標準偏差、相関行列或いは共分散行列の逆行列と、前記マハラノビス距離の平均値とその標準偏差を格納する(図1では7の部分)。この時点で、被検出体の1〜m群のカテゴリー化された被検出体グループ(1〜m群)が作成される。
S1 (Step 1): Setting of a known detected object space First, as shown in FIG.
90, 91, 92 (1 to m group) or known categorized detector groups: 90 (for example, red blood cells), 91 (for example, white blood cells), 92 (for example, vitreous cell particles) (1 to m groups) Then, m Mahalanobis spaces are created by the procedure described above (see FIG. 3), and the average value, standard deviation, correlation matrix or the characteristic parameter (k) of each detected object group is stored in the storage unit 4. The inverse matrix of the covariance matrix, the average value of the Mahalanobis distance, and its standard deviation are stored (part 7 in FIG. 1). At this point, categorized detected object groups (1 to m groups) of 1 to m groups of detected objects are created.

S2(ステップ2):未知の被検出体のデータ収集
未知の被検出体:8(尿中に存在する赤血球,白血球,硝子細胞粒子,m個の他粒子)が入力されると、前述の如く、被検出体の一画像を前記撮影部:1のCCDカメラによって取り込み、画像抽出部:5,特徴パラメータ算出部:6にて2値化し特徴パラメータ
(k個)を抽出する。
S2 (Step 2): Data collection of unknown detection object Unknown detection object: When 8 (red blood cells, white blood cells, glass cell particles, m other particles present in urine) is input, as described above Then, one image of the detected object is captured by the CCD camera of the photographing unit: 1 and binarized by the image extraction unit: 5 and the feature parameter calculation unit: 6 to extract feature parameters (k).

S3(ステップ3):処理法
ステップ:2で得られた特徴パラメータを前記記憶部:4に格納してある各グループの空間を構成する情報に当てはめ、マハラノビス距離:D2(x) を算出する。この算出された距離にて、被検出体を判別・認識する。処理1:41では、前記1〜m群のいずれかと同質であるか或いは異質であるかをマハラノビス距離にて判別・認識し、或いは既存の何れかにも異質であるかを判別・認識する。本図の例では前記被検出体はカテゴリー「◎
(例えば白血球)」と判別している(ステップ3−1)。
S3 (Step 3): The characteristic parameter obtained in the processing method step: 2 is applied to the information constituting the space of each group stored in the storage unit: 4, and the Mahalanobis distance: D 2 (x) is calculated. . The detected object is discriminated / recognized at the calculated distance. In the process 1:41, it is discriminated / recognized based on the Mahalanobis distance whether it is the same or different from any of the groups 1 to m, or it is discriminated / recognized whether any of the existing groups is different. In the example shown in the figure, the detected object has a category “◎”.
(For example, white blood cells) "(step 3-1).

一方、何れにも異質のカテゴリー「?(既知m個のカテゴリーに属さない)」即ち、該当がなく判別・認識が不可の場合には、その前記特徴パラメータ情報:93,94,95と画像データを前記記憶部:4に保存して行く(ステップ3−2)。   On the other hand, if any of the different categories “? (Does not belong to m known categories)”, that is, if there is no corresponding and discrimination / recognition is impossible, the characteristic parameter information: 93, 94, 95 and image data Is stored in the storage unit 4 (step 3-2).

観測する被検出体が多数あるときには、前述のステップ2から3の手順が繰り返され、被検出体が皆無になるまで実行される。被検出物体がなくなった時点を確認してこの処理フローは停止する。   When there are a large number of detected objects to be observed, the above steps 2 to 3 are repeated until there are no detected objects. This processing flow stops after confirming the point in time when the object to be detected disappears.

S4(ステップ4):出力処理
前記ステップ3の結果に基づき、その結果を機器内の出力部:3のCRTディスプレイ等に出力する。
S4 (Step 4): Output processing Based on the result of Step 3, the result is output to the CRT display or the like of the output unit 3 in the device.

或いは、前記記憶部:4に格納しても良い。   Or you may store in the said memory | storage part: 4.

S5(ステップ5):開示処理
更に、前記結果は逐次或いは所定の間隔で、前記通信部:21を介して上位の管理機器:110にその結果が伝送される。
S5 (Step 5): Disclosure processing Further, the result is transmitted to the upper management device 110 via the communication unit 21 in the order or at predetermined intervals.

以上、ステップ2からステップ5までは、一連の処理フローにて自動的に実施される。このため、機器のオペレーターや検査の専門者等の業務を低減できる。   As described above, Step 2 to Step 5 are automatically performed in a series of processing flows. For this reason, it is possible to reduce the work of equipment operators and inspection specialists.

S3−2(ステップ3−2):再学習
一方、前述の如く、本発明では複数の既知検出体の情報がなく、異質と判断された特徴パラメータと量子化された画像データは前記記憶部:4に蓄積している。従って、所定の期間で、或いはその蓄積量を環視して、必要に応じて前記特徴パラメータ:93,94,95と量子化された画像データから新たなグループやカテゴリーを創出することが可能である。即ち、前述のステップ1で実施したように、新たな空間の情報を前記記憶部:4にその平均値,標準偏差,相関行列或いは共分散行列の逆行列と、前記マハラノビス距離の平均値とその標準偏差を格納する。図に掲げた例示では未知検出体:93と同じ画像が多数あり、更に未知検出体94,95は一つのグループ或いはカテゴリー化か可能であることが判明したので、再定義を行い前記記憶部:4に登録している。
S3-2 (Step 3-2): Re-learning On the other hand, as described above, in the present invention, there is no information on a plurality of known detectors, and feature parameters determined to be heterogeneous and quantized image data are stored in the storage unit: 4 has accumulated. Accordingly, it is possible to create a new group or category from the feature parameters 93, 94, 95 and the quantized image data as needed, during a predetermined period or by looking at the accumulated amount. . That is, as implemented in step 1 described above, the new space information is stored in the storage unit 4 as an average value, a standard deviation, an inverse matrix of a correlation matrix or a covariance matrix, an average value of the Mahalanobis distance, and its Stores the standard deviation. In the example shown in the figure, since there are many images that are the same as the unknown detector 93, and it has been found that the unknown detectors 94 and 95 can be grouped or categorized, redefinition is performed, and the storage unit: 4 is registered.

かかる作業が終了した以後の被検出体の検出では、新たに登録したカテゴリーが動作するので、ステップ2から5の一連の処理フロー内で自動的に判別されるようになる。   In detection of an object to be detected after the completion of such work, the newly registered category operates, so that the determination is automatically made within a series of processing flows from Step 2 to Step 5.

このように、上記手順によって、判別或いは認識情報の再学習や再構築が必要に応じて行われ、短時間でしかも手間を掛けないで、蓄積されたデータから新たなカテゴリー数を増やすことが可能となっている。このため、機器の判別・認識能力が向上するとともに、信頼性も向上する。   In this way, according to the above procedure, discrimination or re-learning and reconstruction of recognition information is performed as necessary, and it is possible to increase the number of new categories from the accumulated data in a short time and without trouble. It has become. For this reason, the discrimination / recognition ability of the device is improved and the reliability is also improved.

一方、かかる場合の従来のニューラルネットワーク法においては、ネットワーク全体を再学習,再構築する必要があるため、多大な工数が必要であった。しかし、本発明では上述の如く、ステップS−2で既にデータ収集が完了しており、又ステップ1の処理のみで完了するので、その工数は非常に少なくなっている。   On the other hand, in the conventional neural network method in such a case, since it is necessary to re-learn and reconstruct the entire network, a great amount of man-hours are required. However, in the present invention, as described above, data collection has already been completed in step S-2, and since only the processing in step 1 is completed, the number of steps is very small.

以下、本実施例において使用する判別・認識法について説明する。   Hereinafter, the discrimination / recognition method used in the present embodiment will be described.

図5,図6は、図4の実施例に係る判断・認識法を詳細に説明する図である。   5 and 6 are diagrams for explaining in detail the determination / recognition method according to the embodiment of FIG.

前記、ステップ1にて作成された各カテゴリーの平均値,標準偏差,相関係数或いは共分散行列の逆行列とマハラノビス空間の平均値と標準偏差から、下記のステップにて、各カテゴリー間を判別・認識する。
{Ss1;ステップ}
前記各グループの各特徴パラメータの平均ベクトル:xμをグループ数(m個)作成する。
From the average value, standard deviation, correlation coefficient or inverse coefficient of the covariance matrix created in step 1 above, and the average value and standard deviation of the Mahalanobis space, each category is distinguished in the following steps. ·recognize.
{Ss1; Step}
An average vector: x μ of each feature parameter of each group is created as the number of groups (m).

μ(i)={xμ1,xμ2,…,xμk} i=1〜m
{Ss2;ステップ}
かかるベクトルを各グループに入力し、マハラノビス距離を算出し、前記記憶部:4に格納する。算出の結果例を図5,表5−1に示す。表5−1に示すように、入力ベクトルをG1グループの平均ベクトルとすると、G1グループのマハラノビス距離は“0”,
G2グループのマハラノビス距離は“4”、Gmグループのマハラノビス距離は“100”と算出される。以下同様な計算をm回行う。いずれの行においても、各グループの特徴パラメータの平均ベクトルに対して、該当グループのマハラノビス距離は“0”となり、他のグループは任意のマハラノビス距離を有している。つまり、この距離は各グループの重心からの距離であり、その異質度の平均的な順位を示している。又、被検出体は、これらの距離の内最小距離を示す当該空間(グループ)に属することを示唆している。
x μ (i) = {x μ 1, x μ 2,..., x μ k} i = 1 to m
{Ss2; Step}
The vector is input to each group, the Mahalanobis distance is calculated, and stored in the storage unit: 4. Examples of calculation results are shown in FIG. 5 and Table 5-1. As shown in Table 5-1, when the input vector is an average vector of the G1 group, the Mahalanobis distance of the G1 group is “0”,
The Mahalanobis distance of the G2 group is calculated as “4”, and the Mahalanobis distance of the Gm group is calculated as “100”. Thereafter, the same calculation is performed m times. In any row, the Mahalanobis distance of the corresponding group is “0” with respect to the average vector of the characteristic parameters of each group, and the other groups have arbitrary Mahalanobis distances. That is, this distance is the distance from the center of gravity of each group, and shows the average rank of the heterogeneity. Further, it is suggested that the detected object belongs to the space (group) indicating the minimum distance among these distances.

表5−2は未知の被検出体をn個入力した結果を示したものである。未知の被検出体を入力すると、本ステップSs2では、G1〜Gmに対して個々のマハラノビス距離が自動的に算出され、その順位が決定される。順位が決定されると、上述の如く、これらの最小距離を示す当該空間に属することが判明する。   Table 5-2 shows the result of inputting n unknown objects. When an unknown object is input, in this step Ss2, individual Mahalanobis distances are automatically calculated for G1 to Gm, and their ranks are determined. When the rank is determined, as described above, it is determined that the rank belongs to the space indicating the minimum distance.

例えば、被検出体No.3の被検出体のデータは、その距離の順位はG1(例えば赤血球)<G2(例えば白血球)<…となり、G1との“同質度”が最も高く、次にG2と判別される。即ち、G1〜Gmのm個のマハラノビス距離において、その距離の値が最も小さいグループと被検出体とは“同質”である。
{Ss3;ステップ}
前記ステップが完了した時点で、未知の被検出体の同質度の高い二つのグループ(G1:赤血球,G2:白血球)が選択されたので、次に、かかる二つのグループ間の何れに近いかを再度認識あるいは確定すれば良いことになる。当然ながら、最も距離の小さいグループには属するものと推定されるが、本発明では、前記表5−1のマハラノビス距離の順位表を使用して、その確度を高めている。もし、認識すべき二つのグループが明確にカテゴリー化が成立した場合、一方のグループから他のグループを認識した場合とその逆の場合では、その認識は同じでなければならない。しかし表5−1に示すように、実際の個々のマハラノビス空間は相違(特徴パラメータの共分散行列,空間の平均値,標準偏差)するので、距離が一致しない。このため、表5−1の各選択された二つのグループ間における距離、即ち重心間の距離を適用し、被検出体のマハラノビス距離が前記二つの境界線の何れかに位置するかで最終的な判別・認識を実施し、その確度と信頼性を向上させている。
For example, in the data of the detection object of detection object No. 3, the order of the distance is G1 (for example, red blood cells) <G2 (for example, white blood cells) <... Is determined. That is, in m Mahalanobis distances from G1 to Gm, the group having the smallest distance value and the detected object are “same”.
{Ss3; Step}
When the above steps are completed, two groups (G1: red blood cells, G2: white blood cells) having a high degree of homogeneity of unknown objects to be detected have been selected. It only has to be recognized or confirmed again. Naturally, it is estimated that it belongs to the group with the shortest distance, but in the present invention, the Mahalanobis distance ranking table of Table 5-1 is used to increase the accuracy. If the two groups to be recognized are clearly categorized, the recognition must be the same when one group recognizes the other and vice versa. However, as shown in Table 5-1, the actual individual Mahalanobis spaces are different (covariance matrix of feature parameters, average value of space, standard deviation), and the distances do not match. For this reason, the distance between the two selected groups in Table 5-1, that is, the distance between the centroids, is applied, and the final is determined by whether the Mahalanobis distance of the detected object is located at one of the two boundary lines. Discriminating and recognizing and improving its accuracy and reliability.

図6では、具体的な例を用いて上述のかかる認識・判別法を説明する。   In FIG. 6, the above-described recognition / discrimination method will be described using a specific example.

図6において、特徴パラメータはX1,X2の2変数とし、三つの既知のカテゴリー化されたグループが存在しているものとする。
(1)未知の検出体サンプル「△」(特徴パラメータ{X1,X2})が入力されると、図5,表5−2の如く、各グループG1,G2,G3の重心までの距離Gx1,Gx2,Gx3を算出する。その結果、その距離はGx2<Gx1<Gx3となる。従って、本サンプルはG2,G1の何れかに属し、いずれかでいうとG2に属するものと判断できる。
(2)G1とG2のマハラノビス空間分布は図6−2に示すように、その重心間距離は
√D2x だけ離れている。例えば、説明上図5,図6ではその特徴パラメータ数は相違しているが、前記図5,表5−1の例ではG1とG2との重心間距離は√D2x=2.24である。又、かかる空間の各標準偏差(σ(g1),σ(g2))は、前述の如く、前記記憶部:4に格納されている。
In FIG. 6, it is assumed that feature parameters are two variables X1 and X2, and three known categorized groups exist.
(1) When an unknown detector sample “Δ” (feature parameter {X1, X2}) is input, as shown in FIG. 5 and Table 5-2, the distance Gx1, to the center of gravity of each group G1, G2, G3 Gx2 and Gx3 are calculated. As a result, the distance becomes Gx2 <Gx1 <Gx3. Therefore, it can be determined that this sample belongs to either G2 or G1, and in other words belongs to G2.
(2) As shown in FIG. 6B, the Mahalanobis spatial distributions of G1 and G2 are separated by a distance √D 2 x. For example, the number of feature parameters is different in FIGS. 5 and 6 for explanation, but in the example of FIG. 5 and Table 5-1, the distance between the centers of gravity of G1 and G2 is √D 2 x = 2.24. is there. Each standard deviation (σ (g1), σ (g2)) of the space is stored in the storage unit 4 as described above.

かかる距離と標準偏差から、その境界値は{D2(g1)−D2(g2)=0}から求められる。 From the distance and the standard deviation, the boundary value is obtained from {D 2 (g1) −D 2 (g2) = 0}.

即ち、{√D2(g1)}=√D2(g2)}となり、この位置をXdとすると、
(Xd−0.0)/σ(g1)=(√D2(g2)−Xd)/σ(g2)
となり、容易にその値を算出できる。即ち、本図の例では、G2を基準として、サンプル位置(XΔ)はXd>XΔとなり、境界線の内側に位置し、間違いなくG2と同質であることを確認或いは検証できる。
That is, {√D 2 (g1)} = √D 2 (g2)}, and when this position is Xd,
(Xd−0.0) / σ (g1) = (√D 2 (g2) −Xd) / σ (g2)
Thus, the value can be easily calculated. That is, in the example of the figure, based on the G2, sample position (X delta) is Xd> X delta becomes located inside the boundary line can be confirmed or verified as G2 and homogeneous definitely.

従って、最終的には、本サンプルはG2グループ内の標本であると判断・認識される。又、本発明においては、もし前記距離が境界線上であっても、かかる位置での確率は最悪でも50%以下にはならない。従って、本質的に〔削除:第一種〕、過ちが起こらないようになっており、信頼性が非常に高い。   Therefore, finally, this sample is judged and recognized as a specimen in the G2 group. In the present invention, even if the distance is on the boundary line, the probability at such a position is not 50% or less at worst. Therefore, essentially [deletion: type 1], no mistakes are made and the reliability is very high.

一方、図6−1に示すように、G1とG2間の境界線G1−2を関数的に求めておいて、直接計算することも可能である。前者に比べ、計算時間が幾分増加するが、その確度と信頼性は変わらないので、使用する機器の能力に応じて、取捨・選択することが可能である。   On the other hand, as shown in FIG. 6A, a boundary line G1-2 between G1 and G2 can be obtained functionally and directly calculated. Compared to the former, the calculation time increases somewhat, but the accuracy and reliability do not change, so it is possible to select and select according to the capability of the equipment to be used.

更に、図4の手順にて、新たなグループが学習された場合でも、前述の順位表(図5の表5−1)のみを再構築するだけで、新たなグループの判別・認識を容易に達成できるのは明白である。   Furthermore, even when a new group is learned by the procedure of FIG. 4, it is easy to discriminate and recognize a new group simply by reconstructing the above-described ranking table (Table 5-1 of FIG. 5). It is clear that this can be achieved.

以上、本発明の判別・認識法は判断・認識の確度が高く、且つ第1種の誤りを起こさないので信頼性を大いに向上させることができる。更には、複雑な論理演算を行っていないので、リアルタイム性を十分確保でき、且つ生産性にも優れている。   As described above, the determination / recognition method of the present invention has high accuracy of determination / recognition and does not cause the first type of error, so that the reliability can be greatly improved. Furthermore, since complex logical operations are not performed, the real-time property can be sufficiently secured and the productivity is excellent.

以下、本発明による認識・判別法と従来からかかる分野で広く適用されているニューラルネットワーク法との相違を確認したので説明する。   Hereinafter, the difference between the recognition / discrimination method according to the present invention and the neural network method that has been widely applied in this field will be described.

確認実験で用いたニューラルネットワーク法は、ランメルハート形であり、中間層を一つ有する3層構造のネットワーク構成とした。   The neural network method used in the confirmation experiment is a Rammel heart shape and has a three-layer network configuration having one intermediate layer.

前記ニューラルネットワークへの学習データの入力は、図7に示すように、変数X1,X2から構成されるデータ群とし、明白にG1からG4の4つのカテゴリー化されたデータとした。   As shown in FIG. 7, the input of learning data to the neural network is a data group composed of variables X1 and X2, and is clearly four categorized data G1 to G4.

このニューラルネットワークは、入力データに対して正解である結果、すなわち教師データを出力に提示し、中間層(隠れ層)の結合係数を変化させて、入力データと教師データとの誤差が最小になるように結合係数を操作するようになっている。このように構成されたニューラルネットワークには、予めの学習が必要である。すなわち、予めの学習を通じて結合係数を決定しておく必要がある。このため、表1に示すように、学習データとして各100個の入力データを準備し、それに対応した4組の教師データとを予め与えることによって、前記中間層(隠れ層)の結合係数を求めた。出力データの教師データに対する累計誤差を0.005以下になるまで学習を継続した。   This neural network presents a result that is correct with respect to the input data, that is, presents the teacher data to the output, changes the coupling coefficient of the intermediate layer (hidden layer), and minimizes the error between the input data and the teacher data. So that the coupling coefficient is manipulated. The neural network configured in this way requires prior learning. That is, it is necessary to determine the coupling coefficient through learning in advance. Therefore, as shown in Table 1, 100 input data are prepared as learning data, and four sets of teacher data corresponding to the input data are provided in advance to obtain the coupling coefficient of the intermediate layer (hidden layer). It was. Learning was continued until the cumulative error of the output data with respect to the teacher data was 0.005 or less.

Figure 2005214682
Figure 2005214682

尚、中間層のノード数は、2,3,4,6として増加させ、そのノード数を評価,確認した。その結果、ノード数は2とした。   The number of nodes in the intermediate layer was increased as 2, 3, 4 and 6, and the number of nodes was evaluated and confirmed. As a result, the number of nodes was 2.

又、確認用データとしては前記学習時使用したデータ(100個)そのものと、上図に示す各グループのデータ群の最大,最小値と平均値を選択し、組み合わせて5個(上図1〜図5)とした。かかるデータをニューラルネットワーク法と本処理法に入力した。その結果を表1に示す。   Further, as the data for confirmation, the data (100) used at the time of learning and the maximum, minimum and average values of the data group of each group shown in the above figure are selected and combined to be 5 pieces (1 to 1 in the above figure). Fig. 5). Such data was input to the neural network method and this processing method. The results are shown in Table 1.

表1から、従来方式と本方式の相違点を以下に纏める。   From Table 1, the differences between the conventional method and this method are summarized below.

ニューラルネットワーク法の場合、各グループの端部に位置するサンプルは誤差が大きく、虚報を生じている。これに対し、本処理法では全く生じていない。従って、本処理法では各グループの端部或いは境界近傍に位置する被検出体サンプルでも、全く虚報を発することがなく、判別・認識の確度が向上していることが明らかである。又、かかる場合のニューラルネットワーク法と本処理法における学習時間を、同コンピュータで処理した場合の時間を比較すると、前者の場合は約120分/4グループ以上を要したが、後者の場合は約1分/4グループ以内で完了している。これは、ニューラルネットワーク法では基本的にネットワーク自体を、その加重係数や中間層数等を考慮して、再構築しなければならないためである。本発明では単に、新たなマハラノビス空間の形成とその統計量を再構築すれば良いためである。従って、本処理法では、新たなカテゴリーを追加する場合や、再学習時にも単時間でその処理を完了することが出来、大幅な立ち上げ工数の低減が可能であることを確認できた。   In the case of the neural network method, a sample located at the end of each group has a large error and generates false information. In contrast, this treatment method does not occur at all. Therefore, in this processing method, it is clear that the detection target sample located at the end of each group or in the vicinity of the boundary does not generate any false information and the accuracy of discrimination / recognition is improved. Moreover, when the learning time in the neural network method in this case and this processing method is compared with the time in the case of processing with the same computer, in the former case, it took about 120 minutes / 4 groups or more. Completed within 1 minute / 4 groups. This is because in the neural network method, the network itself basically needs to be reconstructed in consideration of the weighting coefficient, the number of intermediate layers, and the like. This is because in the present invention, the formation of a new Mahalanobis space and its statistics need only be reconstructed. Therefore, in this processing method, when adding a new category or re-learning, the processing can be completed in a single time, and it was confirmed that the start-up man-hours can be greatly reduced.

以上、前記機器:100の処理部の判別・認識法をついて詳細に説明した。以下、再度、図4を参照して前記管理機器:110に具備している機能ついて説明する。   The method for determining and recognizing the processing unit of the device 100 has been described in detail above. Hereinafter, the functions of the management device 110 will be described again with reference to FIG.

図4,図1に示すように、前記管理機器:110には前記機器:100の通信部:21を介し、また他の機器:200〜202も同様にネットワーク:130を介して接続している。更にネットワーク上に端末機器:120を設置することにより、前記管理機器:
110との接続が可能となり、離れた場所からも容易にその結果を見ることが可能となっている。かかる構成においては、前記管理機器:110では前記個々の機器:100,
200,201,202の検出結果や判定・認識結果の情報を収集できる。かかる情報は管理機器に具備した記憶部:114に蓄積され、保存される。
As shown in FIGS. 4 and 1, the management device 110 is connected to the management device 110 via the communication unit 21 of the device 100, and other devices 200 to 202 are also connected to the management device 110 via the network 130. . Further, by installing the terminal device 120 on the network, the management device:
110 can be connected, and the result can be easily seen from a remote place. In such a configuration, the management device 110 includes the individual devices 100,
Information on the detection results 200, 201, and 202 and the determination / recognition results can be collected. Such information is accumulated and stored in the storage unit 114 provided in the management device.

例えば、かかる構成において、前記機器:100は実施例の如く、尿中の有形粒子を判別・認識する尿分析機器とする。一方、他の機器:200としては尿中の蛋白,糖や潜血等を測定する尿定性分析機器として、更に他の機器として血液を分析する血液分析機器:201等とする。かかる機器群にて収集されたデータは図4,表4−1に示すようなデータ形式となる。このデータ形式は前述の機器:100における判断・認識法のデータ形式と全く同じである。しかし、その質は大いに相違している。例えば、個々の機器からの単一の計測値である血圧測定を考える。血圧測定では、その正常範囲を決めて被検者を低血圧,高血圧と判断・認識する。しかし、専門家は高血圧或いは低血圧と判断した場合でも、肥満度や最近の食生活の変化状況等を加味し、緊急の場合以外は、総合的な判断を行い、極端な処置を実施していないのは周知である。   For example, in this configuration, the instrument 100 is a urine analyzer that recognizes and recognizes tangible particles in urine as in the embodiment. On the other hand, the other device: 200 is a urine qualitative analysis device that measures protein, sugar, occult blood, etc. in urine, and a blood analysis device that analyzes blood as another device: 201. Data collected by such a device group has a data format as shown in FIG. 4 and Table 4-1. This data format is exactly the same as the data format of the determination / recognition method in the aforementioned device 100. But the quality is very different. For example, consider blood pressure measurement, which is a single measurement from individual devices. In blood pressure measurement, the normal range is determined and the subject is judged / recognized as low blood pressure or high blood pressure. However, even if it is determined that the blood pressure is high or low, the specialist takes into account the degree of obesity and recent changes in diet, etc. Not known is well known.

従って、前記データ形式は、個々の機器により確度が高く、且つ信頼性の高い状態にて判断・認識された結果から構成され、これらを収集して特徴パラメータとしているので、より総合的な観点での、判断を行う際の好適なデータとなっている。これは上述の血圧測定時に、専門家が最終判断を行うためのデータ収集と同等である。更に、このデータ形式によれば、管理機器の処理部2:111にも、前記機器:100に適用した処理法がそのまま適用できるので好都合である。   Therefore, the data format is composed of results determined and recognized with high accuracy and high reliability by individual devices, and these are collected and used as characteristic parameters. This data is suitable for making a judgment. This is equivalent to data collection for the expert to make a final judgment at the time of blood pressure measurement. Furthermore, this data format is advantageous because the processing method applied to the device: 100 can be applied to the processing unit 2: 111 of the management device as it is.

更に、本発明では前述の如く、当初から既知のm個のグループ或いはカテゴリー毎に基準空間を形成してある。医用分野では、このカテゴリーが個人に相当している。つまり、前述の健康人という大きなカテゴリーではなく、より細分化した集団との比較が可能になる。つまり、従来では単に、健康人との差異しか判らないが、本法を応用拡張することにより、「健康人であり且つ運動を良くする集団」との差異、或いは「健康人でありその食生活は野菜主体である集団」との差異等までも認識できるようになり、より確度が高く、且つ総合的な判断・認識に寄与できる付加価値の高い情報を提供することが可能であり、診断支援を達成できる。又、高精度なシステムをより安価に提供することができる。   Furthermore, in the present invention, as described above, a reference space is formed for each of m groups or categories known from the beginning. In the medical field, this category corresponds to an individual. In other words, it is possible to make a comparison with a more subdivided group rather than the large category of healthy people mentioned above. In other words, in the past, only the difference from healthy people can be known, but by applying and expanding this method, the difference from “a group of healthy people and good exercise” or “healthy people and their eating habits” It is possible to recognize differences from “groups that are mainly vegetable”, providing high-value-added information that is more accurate and can contribute to comprehensive judgment and recognition. Can be achieved. In addition, a highly accurate system can be provided at a lower cost.

以上、上述した説明では、被検出体の検知や尿中の粒子の判別・認識と医用分野における診断支援におけるものとして説明したが、本発明がこれに限定されることはない。例えば、製造工程の監視・検査システムや、プラントのプロセス監視システムや、他の医用分野における種々の診断支援システムや、検査システム等にも応用することが可能である。   In the above description, the detection object detection, the determination / recognition of particles in urine, and diagnosis support in the medical field have been described. However, the present invention is not limited to this. For example, the present invention can be applied to manufacturing process monitoring / inspection systems, plant process monitoring systems, various diagnosis support systems in other medical fields, inspection systems, and the like.

又、上述した説明では、本判別・認識法を前記管理機器:110と前記検出機器:100にそれぞれ具備させるものとして説明した。しかし本発明では、その処理法並びにデータ形式とを共有化しているので、前記機器の内管理機器:110のみに具備させても良い。かかる実施例では、前記検出機器:100では単に前記特徴パラメータの算出結果を前記通信部:21を介して前記管理機器に送信するだけで良いことになる。   In the above description, the discrimination / recognition method is described as being provided in the management device 110 and the detection device 100, respectively. However, in the present invention, the processing method and the data format are shared, and therefore, only the internal management device 110 of the device may be provided. In this embodiment, the detection device: 100 simply transmits the characteristic parameter calculation result to the management device via the communication unit 21.

なお、前記機器:100の出力部:3はその動作状況のみを表示するか、前記管理機器:110からその結果を伝送して、表示しても良い。このため、本実施例では個々の機器としてより高速化でき、リアルタイム性が向上するという効果がある。更に、個々の機器としてはより安価に製作できるので、経済性が向上するという効果がある。   Note that the output unit: 3 of the device: 100 may display only the operation status, or may transmit the result from the management device: 110 and display it. For this reason, in this embodiment, the speed of each device can be increased, and the real-time property is improved. Furthermore, since individual devices can be manufactured at a lower cost, there is an effect that the economy is improved.

本発明に係る検出機器のブロック構成とシステム構成図。FIG. 2 is a block diagram and a system configuration diagram of a detection device according to the present invention. 本発明に係る検出機器の撮影部の詳細説明図。Detailed explanatory drawing of the imaging | photography part of the detection apparatus which concerns on this invention. 本発明に係る検出機器の処理部の基本フローを説明する図。The figure explaining the basic flow of the process part of the detection apparatus which concerns on this invention. 本発明に係る検出機器のシステムの処理フローを説明する図。The figure explaining the processing flow of the system of the detection apparatus which concerns on this invention. 本発明に係る判別・認識処理法を説明する図。The figure explaining the discrimination | determination / recognition processing method concerning this invention. 本発明に係るマハラノビス空間による判別・認識例とその処理法を説明する図。The figure explaining the discrimination / recognition example by Mahalanobis space which concerns on this invention, and its processing method. 本発明とニューラルネットワーク手法との比較。Comparison between the present invention and a neural network technique.

符号の説明Explanation of symbols

1…撮影部、2…処理部1、3…出力部、4…記憶部、5…画像抽出部、6…特徴パラメータ算出部、7…特徴パラメータ群、8…被検出体、21…通信部、41…処理1、
43…再学習データ群、90,91,92…既知検出体1,2,3、93,94,95…再学習用の検出体データ、100…検出機器、110…管理機器、111…管理機器の処理部、114…管理機器の記憶部、120…端末機器、130…ネットワーク、200…機器2、201…機器3、202…機器4。


DESCRIPTION OF SYMBOLS 1 ... Imaging | photography part, 2 ... Processing part 1, 3 ... Output part, 4 ... Memory | storage part, 5 ... Image extraction part, 6 ... Feature parameter calculation part, 7 ... Feature parameter group, 8 ... Detected object, 21 ... Communication part 41 ... Process 1,
43 ... Re-learning data group, 90, 91, 92 ... Known detectors 1, 2, 3, 93, 94, 95 ... Detector data for relearning, 100 ... Detection device, 110 ... Management device, 111 ... Management device Processing unit 114... Management device storage unit 120... Terminal device 130 130 network 200 device 2 201 device 3 202 device 4


Claims (6)

既知の複数の被検体から多変数の特徴パラメータを抽出する特徴パラメータ抽出手段と、
該特徴パラメータ抽出手段により抽出された特徴パラメータに基づき前記複数の被検体のそれぞれでマハラノビス空間(基準空間)を形成するマハラノビス空間演算手段と、
形成された複数の基準空間の情報を予め記憶しておく記憶手段と、
未知の検出体から特徴パラメータを抽出する特徴パラメータ抽出手段と、
該特徴パラメータ抽出手段により抽出された特徴パラメータを前記マハラノビス空間演算手段で形成されたマハラノビス空間にあてがい、前記未知の検出体のマハラノビス距離を算出するマハラノビスの距離演算手段と、
該マハラノビスの距離演算手段により算出されたマハラノビス距離とを比較する比較手段と、
前記比較手段での比較結果に基づいて被検出体の判別を行う判別手段と、
を備えた被検出体の判別システム。
Feature parameter extraction means for extracting multivariate feature parameters from a plurality of known subjects;
Mahalanobis space computing means for forming a Mahalanobis space (reference space) with each of the plurality of subjects based on the feature parameters extracted by the feature parameter extracting means;
Storage means for preliminarily storing information on a plurality of formed reference spaces;
Feature parameter extraction means for extracting feature parameters from an unknown detector;
Mahalanobis distance calculation means for applying the feature parameter extracted by the feature parameter extraction means to the Mahalanobis space formed by the Mahalanobis space calculation means, and calculating the Mahalanobis distance of the unknown detector;
A comparison means for comparing the Mahalanobis distance calculated by the Mahalanobis distance calculation means;
A discriminating means for discriminating a detected object based on a comparison result in the comparing means;
A system for identifying an object to be detected.
請求項1記載の比較手段は前記被検出体のマハラノビス距離と前記複数の既知の検出体のマハラノビス空間との隔離距離を演算し、それらの隔離距離(マハラノビス距離)に基づいて、その類似度或いは異質度を算出し、前記被検出体が既存或いは既知の何れかのグループやカテゴリに属するかを判断することを特徴とする被検出体の判別システム。   The comparison means according to claim 1 calculates a separation distance between the Mahalanobis distance of the detected object and the Mahalanobis space of the plurality of known detection objects, and based on the separation distance (Mahalanobis distance), the similarity or A system for determining an object to be detected, wherein a degree of heterogeneity is calculated and it is determined whether the object to be detected belongs to an existing or known group or category. 請求項2記載の判別手段は、複数の既知の検出体のマハラノビス空間と、被検出体の特徴パラメータから算出された複数のマハラノビス距離(D2(x) )をそれらの距離にて逐次比較し、それらの距離の内の最小距離を有する既知の検出体と同質であり、それ以外は異質であると判断・認識することを特徴とする被検出体の判別システム。 The discriminating means according to claim 2 sequentially compares the Mahalanobis space of a plurality of known detection objects and a plurality of Mahalanobis distances (D 2 (x)) calculated from the characteristic parameters of the detected object at those distances. A system for discriminating an object to be detected, characterized in that it is judged and recognized as being of the same quality as a known detecting body having the smallest distance among these distances and being otherwise heterogeneous. 請求項2項記載の被検出体の判別システムにおいて、
前記記憶手段には、複数(m個)の既知検出体の特徴パラメータから算出された複数の基準空間を予めそれらのマハラノビス距離(m個のD2(x) )にて二次元化してマップ化(m×mの距離の順位の二次元表)された情報を記憶しておき、
前記比較手段により被検出体の特徴から算出されたマハラノビス距離とが逐次比較され、
前記判別手段により記憶手段に記憶されたマップにおいてそれらの距離の内の第一の最小距離と第二の最小距離を有する既知の検出体の固有空間を抽出・認識して判別・認識することを特徴とする被検出体の判別システム。
In the system for discriminating an object to be detected according to claim 2,
In the storage means, a plurality of reference spaces calculated from feature parameters of a plurality (m) of known detectors are preliminarily converted into two-dimensional maps by their Mahalanobis distances (m D 2 (x)). Memorized information (two-dimensional table of rank order of m × m),
The comparison means sequentially compares the Mahalanobis distance calculated from the characteristics of the detected object,
Extracting and recognizing the eigenspace of a known detection body having the first minimum distance and the second minimum distance among the distances in the map stored in the storage means by the determination means to determine and recognize A distinction system for a featured object.
請求項1〜4のいずれかに記載の被検出体の判別システムにおいて、
前記被検出体が同質又は異質であるとの判断・認識ができない場合には、前記記憶手段に記憶された被検出体の情報と、該情報から抽出された特徴パラメータを前記記憶手段に記憶し、新しいグループ又はカテゴリーを作成することを特徴とする被検出体の判別システム。
In the discrimination system of the detected object according to any one of claims 1 to 4,
When it is impossible to judge / recognize that the detected object is homogeneous or heterogeneous, information on the detected object stored in the storage means and feature parameters extracted from the information are stored in the storage means. A system for discriminating an object to be detected, characterized by creating a new group or category.
被検出体を画像化して取り込む撮影手段と、
前記撮影部で撮像された画像から複数の特徴パラメータを抽出する特徴パラメータ抽出手段と、
該特徴パラメータ抽出手段により抽出された特徴パラメータに基づき前記複数の被検体のそれぞれでマハラノビス空間(基準空間)を形成するマハラノビス空間演算手段と、
形成された複数の基準空間の情報を予め記憶しておく記憶手段と、
未知の検出体から特徴パラメータを抽出する特徴パラメータ抽出手段と、
該特徴パラメータ抽出手段により抽出された特徴パラメータを前記マハラノビス空間演算手段で形成されたマハラノビス空間にあてがい、前記未知の検出体のマハラノビス距離を算出するマハラノビスの距離演算手段と、
該マハラノビスの距離演算手段により算出されたマハラノビス距離とを比較する比較手段と、
前記比較手段での比較結果に基づいて被検出体の判別を行う判別手段と、
を備えた画像の判別システム。

Imaging means for capturing and capturing the detected object;
Feature parameter extracting means for extracting a plurality of feature parameters from the image captured by the imaging unit;
Mahalanobis space computing means for forming a Mahalanobis space (reference space) with each of the plurality of subjects based on the feature parameters extracted by the feature parameter extracting means;
Storage means for preliminarily storing information on a plurality of formed reference spaces;
Feature parameter extraction means for extracting feature parameters from an unknown detector;
Mahalanobis distance calculation means for applying the feature parameter extracted by the feature parameter extraction means to the Mahalanobis space formed by the Mahalanobis space calculation means, and calculating the Mahalanobis distance of the unknown detector;
A comparison means for comparing the Mahalanobis distance calculated by the Mahalanobis distance calculation means;
A discriminating means for discriminating a detected object based on a comparison result in the comparing means;
Image discrimination system with

JP2004019141A 2004-01-28 2004-01-28 Discrimination system of object to be detected, and discrimination system of image Pending JP2005214682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004019141A JP2005214682A (en) 2004-01-28 2004-01-28 Discrimination system of object to be detected, and discrimination system of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004019141A JP2005214682A (en) 2004-01-28 2004-01-28 Discrimination system of object to be detected, and discrimination system of image

Publications (1)

Publication Number Publication Date
JP2005214682A true JP2005214682A (en) 2005-08-11

Family

ID=34903442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004019141A Pending JP2005214682A (en) 2004-01-28 2004-01-28 Discrimination system of object to be detected, and discrimination system of image

Country Status (1)

Country Link
JP (1) JP2005214682A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022857A (en) * 2009-07-16 2011-02-03 Tokyo Women's Medical College Apparatus for analyzing and displaying clinical test data
JP2012013624A (en) * 2010-07-02 2012-01-19 Tokyo Electron Ltd Particle distribution analysis support method and recording medium on which program for performing the method is recorded
JP2012133683A (en) * 2010-12-22 2012-07-12 Tokyo Metropolitan Univ Personal authentication device and personal authentication system
JP2014520253A (en) * 2011-05-04 2014-08-21 アボット・ラボラトリーズ Basophil analysis system and method
JPWO2017017722A1 (en) * 2015-07-24 2018-05-24 オリンパス株式会社 Processing apparatus, processing method, and program
JP2019124633A (en) * 2018-01-18 2019-07-25 Jfeスチール株式会社 Flaw inspection apparatus and flaw inspection method for steel sheet

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022857A (en) * 2009-07-16 2011-02-03 Tokyo Women's Medical College Apparatus for analyzing and displaying clinical test data
JP2012013624A (en) * 2010-07-02 2012-01-19 Tokyo Electron Ltd Particle distribution analysis support method and recording medium on which program for performing the method is recorded
JP2012133683A (en) * 2010-12-22 2012-07-12 Tokyo Metropolitan Univ Personal authentication device and personal authentication system
JP2014520253A (en) * 2011-05-04 2014-08-21 アボット・ラボラトリーズ Basophil analysis system and method
JPWO2017017722A1 (en) * 2015-07-24 2018-05-24 オリンパス株式会社 Processing apparatus, processing method, and program
US10395092B2 (en) 2015-07-24 2019-08-27 Olympus Corporation Processing device, processing method, and information storage device
JP2019124633A (en) * 2018-01-18 2019-07-25 Jfeスチール株式会社 Flaw inspection apparatus and flaw inspection method for steel sheet

Similar Documents

Publication Publication Date Title
CN114549522B (en) Textile quality detection method based on target detection
Demir et al. Learning the topological properties of brain tumors
US20200111212A1 (en) Chromosome Abnormality Detecting Model, Detecting System Thereof, And Method For Detecting Chromosome Abnormality
CN116563641A (en) Surface defect identification method and system based on small target detection
CN114430850A (en) Artificial intelligence scalp image diagnosis and analysis system using big data and product recommendation system using same
EP3767582A1 (en) Inspection system, discrimination system, and learning data generator
CN115909006B (en) Mammary tissue image classification method and system based on convolution transducer
CN115994907B (en) Intelligent processing system and method for comprehensive information of food detection mechanism
CN117576100B (en) Surface defect grading detection and evaluation method for FPC connector
CN117565284A (en) Automatic control system and method for PVC film processing
CN113130050B (en) Medical information display method and display system
US20220304617A1 (en) System and method for diagnosing small bowel cleanliness
JP2005214682A (en) Discrimination system of object to be detected, and discrimination system of image
CN115362445A (en) Data sorting device, data sorting method, and data sorting program
JP3020973B2 (en) Image processing method
CN112927215A (en) Automatic analysis method for digestive tract biopsy pathological section
CN112419243A (en) Power distribution room equipment fault identification method based on infrared image analysis
CN117218680A (en) Scenic spot abnormity monitoring data confirmation method and system
Jardeleza et al. Detection of Common Types of Eczema Using Gray Level Co-occurrence Matrix and Support Vector Machine
CN115937085A (en) Nuclear cataract image processing method based on neural network learning
CN115661042A (en) Hierarchical classification defect detection method based on attention mechanism guidance
US11966842B2 (en) Systems and methods to train a cell object detector
Wiling Identification of mouth cancer laceration using machine learning approach
CN115100187B (en) Glaucoma image detection method based on federal learning
CN117196832B (en) Animal husbandry living mortgage supervision system and method thereof

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060509