JPH08293025A - Image sorting device - Google Patents

Image sorting device

Info

Publication number
JPH08293025A
JPH08293025A JP7095082A JP9508295A JPH08293025A JP H08293025 A JPH08293025 A JP H08293025A JP 7095082 A JP7095082 A JP 7095082A JP 9508295 A JP9508295 A JP 9508295A JP H08293025 A JPH08293025 A JP H08293025A
Authority
JP
Japan
Prior art keywords
classification
information
image
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7095082A
Other languages
Japanese (ja)
Inventor
Yoshinobu Komata
芳信 小俣
Yasuhiro Komiya
康宏 小宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7095082A priority Critical patent/JPH08293025A/en
Publication of JPH08293025A publication Critical patent/JPH08293025A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide an image sorting device which can sort such parts that are hard to be extracted out of the input images only through the binarization or the three-dimensional display and then can give the instructions that are visually and easily understood. CONSTITUTION: An image sorting device is provided with an image input device 1 which fetches the image data, a filing device 2 which stores the input image data and then reads out, retrieves and edits the image data through every prescribed operation, and a normalization part 3 which corrects the variance caused by various conditions of an image input mode or the device 1 and secures the coincidence of input conditions between the execution and learning modes. Furthermore, a feature extraction part 4 is added to extract the feature value that is effective to the sorting of images, together with a sorting decision part 5 which decides the sorting based on the feature value extracted by the part 4, a display part 6 which synthesizes the sorting decision result and displays it on the input image, and a learning control part 7 which controls both parts 4 and 5 based on the prescribed learning data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像情報を入力して、分
類判定を行なう装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for inputting image information and making a classification decision.

【0002】[0002]

【従来の技術】一般に、カメラ、赤外線カメラ等の撮影
装置や内視鏡画像,顕微鏡画像,超音波画像入力装置、
X線画像入力装置、MRI(Magnetic Resonance Imagi
ng)装置、CT (Computer Tomography)装置等からの画
像を予め定めた幾つかの種類に分類し表示する画像入力
装置がある。
2. Description of the Related Art Generally, photographing devices such as cameras and infrared cameras, endoscope images, microscope images, ultrasonic image input devices,
X-ray image input device, MRI (Magnetic Resonance Imagi
ng) device, CT (Computer Tomography) device, and the like, there are image input devices that classify and display images from several predetermined types.

【0003】例えば、第1の例としては、「画像ラボ」
(1993年2月号,P19)に、2値化により悪性腫
瘍を抽出する装置に応用した例が記載されている。また
これには原発性肝癌を3次元表示する例において、映し
出された画像における不規則性から判断するものが記載
されている。
For example, as a first example, "image laboratory"
(February 1993, p. 19) describes an example applied to a device for extracting a malignant tumor by binarization. In addition, in this example, in the case where the primary liver cancer is displayed three-dimensionally, the judgment is made from the irregularity in the projected image.

【0004】その他、第2の例としては、「Konik
a Technical Report」,Vol.
6,1993,P55に、病変部の特定パターンを強調
した画像と、減弱した画像との差を特徴解析する例が記
載されている。
In addition, as a second example, "Konik"
a Technical Report ", Vol.
6, 1993, P55, an example of performing a feature analysis of a difference between an image in which a specific pattern of a lesion part is emphasized and an image in which the pattern is attenuated is described.

【0005】[0005]

【発明が解決しようとする課題】しかし、前述した第1
の例による2値化された画像から悪性腫瘍を抽出する装
置例では、悪性として検出する2値化レベルの設定が難
しく、元々、目で見て差が明かな腫瘍にのみ有効であ
る。
However, the above-mentioned first problem
In the example of a device for extracting a malignant tumor from a binarized image according to the above example, it is difficult to set the binarization level to detect as malignant, and it is effective only for a tumor that originally has a clear difference.

【0006】また、第2の例においては、画像内での病
変部の形状が限定されているが、実際には様々な形状で
ある。従って、検出できるパターンが決まっており、パ
ターンが多少異なるだけでも検出精度が低下してしまう
問題がある。
Also, in the second example, the shape of the lesion in the image is limited, but in reality, there are various shapes. Therefore, the pattern that can be detected is fixed, and there is a problem that the detection accuracy is lowered even if the pattern is slightly different.

【0007】そこで本発明は、入力した画像において2
値化や3次元表示だけでは抽出しにくい部分をも適確に
分類し、視覚的に分かり易く指示することを可能とした
画像分類装置を提供することを目的とする。
Therefore, the present invention uses 2 in the input image.
An object of the present invention is to provide an image classification device capable of accurately classifying even a portion that is difficult to extract only by binarization or three-dimensional display and giving an instruction visually easily understandable.

【0008】[0008]

【課題を解決するための手段】本発明は上記目的を達成
するために、以下の構成の画像分類装置を提供する。第
1に、分類すべき情報を入力する情報入力手段と、前記
情報入力手段により入力された情報の有効領域とそれ以
外の領域とを分割して、特徴情報を抽出する特徴抽出手
段と、少なくとも前記特徴抽出手段で抽出された特徴情
報に基づき情報の種別を判別し、この種別毎に分類わけ
する分類判定手段とで構成される画像分類装置を提供す
る。
In order to achieve the above object, the present invention provides an image classification device having the following configuration. First, at least information input means for inputting information to be classified, feature extraction means for dividing the effective area of the information input by the information input means and other areas, and extracting the feature information, There is provided an image classification device including a classification determination unit that determines the type of information based on the characteristic information extracted by the characteristic extraction unit and classifies the information for each type.

【0009】第2に、分類すべき情報を入力する情報入
力手段と、前記情報入力手段により入力された情報か
ら、パワースペクトル、差分統計量、同時生起行列、ラ
ンレングス行列の中から少なくとも一つを使用して、特
徴情報を抽出する特徴抽出手段と、少なくとも前記特徴
抽出手段で抽出された特徴情報に基づき情報の種別を判
別し、この種別毎に分類わけする分類判定手段とで構成
された画像分類装置を提供する。
Secondly, at least one of a power spectrum, a difference statistic, a co-occurrence matrix and a run length matrix is selected from the information input means for inputting information to be classified and the information input by the information input means. Using a feature extraction means for extracting feature information, and at least a classification determination means for determining the type of information based on the feature information extracted by the feature extraction means and classifying the information for each type. An image classification device is provided.

【0010】第3に、分類すべき情報を入力する情報入
力手段と、前記情報入力手段により入力された情報から
特徴情報を抽出する特徴抽出手段と、前記特徴抽出手段
で抽出された特徴情報を用いて、特定領域を複数回分類
判定し、この分類結果によって最終的に分類わけする分
類判定手段とで構成された画像分類装置を提供する。
Thirdly, information input means for inputting information to be classified, feature extraction means for extracting feature information from the information input by the information input means, and feature information extracted by the feature extraction means An image classifying apparatus is provided which is configured to classify a specific region a plurality of times by using the classification result and classify the final classification based on the classification result.

【0011】第4に、分類すべき情報を入力する情報入
力手段と、前記情報入力手段により入力された情報から
特徴情報を抽出する特徴抽出手段と、少なくとも前記特
徴抽出手段で抽出された特徴情報に基づき情報の種別を
判定し、この種別毎に分類わけする分類判定手段と、前
記分類判定手段の分類結果を用いて、前記特徴抽出手段
及び、または前記分類判定手段を再構築する学習手段と
で構成された画像分類装置を提供する。
Fourth, information input means for inputting information to be classified, characteristic extraction means for extracting characteristic information from the information input by the information input means, and at least characteristic information extracted by the characteristic extraction means. A classification determining unit that determines the type of information based on the above, and a learning unit that reconstructs the feature extracting unit and / or the classification determining unit by using the classification result of the classification determining unit. There is provided an image classification device configured by.

【0012】第5に、分類すべき情報を入力する情報入
力手段と、前記情報入力手段により入力された情報から
特徴情報を抽出する特徴抽出手段と、少なくとも前記特
徴抽出手段で抽出された特徴情報に基づき情報の種別を
判定し、複数の種別をフィードバックを繰り返すことに
よって、該種別毎に分類わけする分類判定手段とで構成
された画像分類装置を提供する。
Fifth, information input means for inputting information to be classified, characteristic extraction means for extracting characteristic information from the information input by the information input means, and at least characteristic information extracted by the characteristic extraction means. An image classification device is provided that is configured with a classification determination unit that determines the information type based on the above and repeats feedback of a plurality of types.

【0013】[0013]

【作用】以上のような構成の画像分類装置においては、
第1の構成により、入力された画像情報から有効領域
と、それ以外の領域とに分割して分類するための特徴情
報を抽出し、抽出された特徴情報や前記画像情報に基づ
き情報の種別を判定し、この種別毎に分類される。
In the image classifying apparatus having the above structure,
With the first configuration, the characteristic information for dividing the input image information into the effective area and the area other than the effective area is extracted, and the information type is determined based on the extracted characteristic information and the image information. It is determined and classified according to this type.

【0014】第2の構成により、入力された画像情報に
パワースペクトル、差分統計量、同時生起行列、ラング
レングス行列の中から差分統計量またはラングレングス
行列を少なくとも使用し、特徴抽出手段で抽出された特
徴情報及びまたは前記情報入力手段から入力された情報
に基づき情報の種別を判定し、この種別毎に分類わけす
る。
According to the second configuration, at least the difference statistic or the Lang length matrix is used from the power spectrum, the difference statistic, the co-occurrence matrix, and the Lang length matrix in the input image information, and the image information is extracted by the feature extraction means. The type of information is determined based on the characteristic information and / or the information input from the information input means, and the information is classified for each type.

【0015】第3の構成により、入力された画像情報か
ら特徴情報を抽出し、その特徴情報を用いて、特定領域
を複数回分類判定し、この分類結果によって最終的に分
類わけする特徴情報や前記画像情報に基づき情報の種別
を判定し、この種別毎に分類され、その分類判定結果が
表示される。
With the third configuration, the characteristic information is extracted from the input image information, the specific area is classified and determined a plurality of times using the characteristic information, and the characteristic information to be finally classified according to the classification result and The type of information is determined based on the image information, the information is classified for each type, and the classification determination result is displayed.

【0016】第4の構成により、入力された画像情報か
ら特徴情報を抽出し、その特徴情報や前記画像情報に基
づき情報の種別を判定し、この種別毎に分類され、これ
らの分類結果を用いて、前記特徴抽出手段及び、または
前記分類判定手段を再構築する。
With the fourth configuration, the characteristic information is extracted from the input image information, the type of information is determined based on the characteristic information and the image information, and the information is classified for each type, and these classification results are used. Then, the feature extraction means and / or the classification determination means are reconstructed.

【0017】第5の構成により、入力された画像情報か
ら特徴情報を抽出し、その特徴情報や前記画像情報に基
づき情報の種別を判定し、複数の種別をフィードバック
を繰り返すことによって、種別毎に分類わけする。
According to the fifth configuration, the characteristic information is extracted from the input image information, the type of the information is determined based on the characteristic information and the image information, and a plurality of types are repeatedly fed back to obtain each type. Classify.

【0018】[0018]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。まず、本発明の画像分類装置において、目
で見て差が分かりにくい腫瘍の病変部に対して診断支援
を行う画像分類装置を例にして、概要について説明す
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. First, in the image classification apparatus of the present invention, an outline will be described by taking an image classification apparatus that provides diagnostic support for a lesion portion of a tumor whose difference is difficult to visually recognize.

【0019】この画像分類装置は、病変部のテクスチャ
ーパターンを統計的な手法を用いた学習により分析し、
分類に有効な特徴量を抽出することを特徴とする。そし
て、画像入力時の諸条件が違うと同じ病変部でも異なる
画像となってしまうので、画像入力時の諸条件や画像入
力装置のばらつきを補正する(正規化)ことも、その形
態とする。
This image classification device analyzes the texture pattern of the lesion by learning using a statistical method,
The feature is that feature quantities effective for classification are extracted. Then, if the various conditions at the time of image input are different, even the same lesion will have different images, so that the conditions at the time of image input and the variations of the image input device are also corrected (normalized).

【0020】特に、入力画像が超音波画像の場合に、正
規化には、周波数、波形、TGC(Time Gain Control)
、DR(ダイナミックレンジ)、ゲイン、画素位置に
よる判定領域の切り出し方等がある。
Particularly, when the input image is an ultrasonic image, frequency, waveform, and TGC (Time Gain Control) are used for normalization.
, DR (dynamic range), gain, and how to cut out a determination region based on pixel position.

【0021】また、単なる2値化や3次元表示だけでは
病変部の特徴を捕らえにくいので、多くの特徴量を多変
量解析して、病変部の判断に有効な特徴量または処理法
を選定する例も含まれる。この選定のために本装置は学
習モードと、実行モードの2モードを具備する形態があ
る。
Further, since it is difficult to capture the features of the lesion by merely binarizing or three-dimensional display, many features are subjected to multivariate analysis to select the features or processing method effective for determining the lesion. Examples are also included. In order to make this selection, there is a mode in which the apparatus has two modes, a learning mode and an execution mode.

【0022】前記学習モードでは、経験の積んだ医師等
が正常部と病変部を画像上で指定し、学習データを作成
し、この学習データに種々の前処理を施し、統計量を多
変量解析することにより、病変部の判断に有効な特徴量
を抽出する。
In the learning mode, an experienced doctor or the like designates a normal area and a lesion area on an image, creates learning data, performs various preprocessings on the learning data, and analyzes the statistics with multivariate analysis. By doing so, a feature amount effective for determining a lesion part is extracted.

【0023】そして、実行モード時には学習モードで決
定された特徴量を抽出して、病変部の判断を行なうが、
必要な場合には判定結果に応じて、特徴抽出部や分類判
定部へフィードバックを行ない判定の精度を高める。学
習モードも実行モードも前述した正規化を行なうことを
可とする。
Then, in the execution mode, the feature quantity determined in the learning mode is extracted to judge the lesion area.
If necessary, feedback is provided to the feature extraction unit and the classification determination unit according to the determination result to improve the precision of the determination. It is possible to perform the above-described normalization in both the learning mode and the execution mode.

【0024】そして、判定結果を原画像と合成して表示
する例を含む。例えば、超音波画像やX線画像では原画
像はモノクロであり、病変部と判定された領域に色を付
けて表示する。
Then, an example in which the determination result is combined with the original image and displayed is included. For example, in an ultrasonic image or an X-ray image, the original image is monochrome, and the area determined to be a lesion is displayed with a color.

【0025】図1には、本発明の画像分類装置の一例を
示す。図1(a)は、画像分類装置における分類実行時
の構成を示し、図1(b)は、分類を実行するために先
立って行う分類学習の構成を示す図である。
FIG. 1 shows an example of the image classification device of the present invention. FIG. 1A shows the configuration of the image classification apparatus when performing classification, and FIG. 1B is a diagram showing the configuration of classification learning performed prior to executing classification.

【0026】図1(a)に示す画像分類装置の構成は、
超音波画像入力装置、X線画像入力装置等による画像デ
ータやCT画像データを取込む画像入力装置1と、該画
像入力装置1から入力された画像データを保存し、所定
の操作により読み出し、検索、編集を行なうファイリン
グ装置2と、画像入力時の諸条件や前記画像入力装置に
よるばらつきを補正し、実行時と学習時の入力条件を一
致させる正規化処理をするノーマライズ部3と、分類に
有効な特徴量を抽出する特徴抽出部4と、特徴抽出部4
より得られた特徴量から後述する分類判定を行なう分類
判定部5と、入力画像に分類判定の結果を合成して表示
する表示部6とからなり、図1(b)においては、さら
に、予め定めた学習データに基づき、前記特徴抽出部4
及び分類判定部5をそれぞれ制御する学習制御部7とで
構成される。
The structure of the image classification device shown in FIG.
An image input device 1 for taking in image data and CT image data by an ultrasonic image input device, an X-ray image input device, and the like, and image data input from the image input device 1 are stored, read out by a predetermined operation, and searched. , A filing device 2 for editing, a normalizing unit 3 for correcting various conditions at the time of image input and a variation due to the image input device, and for performing a normalization process for matching input conditions at the time of execution and learning, and effective for classification Feature extraction unit 4 for extracting various feature amounts, and feature extraction unit 4
The classification determination unit 5 that performs classification determination described below from the obtained feature amount and the display unit 6 that displays the result of the classification determination combined with the input image are displayed. In FIG. The feature extracting unit 4 based on the determined learning data.
And a learning control unit 7 that controls the classification determination unit 5, respectively.

【0027】また、前記特徴抽出部4は、入力画像から
診断に有効な特徴量、例えば、第1次統計量等を前段階
として抽出する前処理部8と、前処理部8により得られ
た特徴量を統計的に解析し、特徴量を変換または、減少
させる(次元数の減少)多変量解析部9とで構成され
る。
Further, the feature extraction unit 4 is obtained by the pre-processing unit 8 for extracting the feature amount effective for diagnosis, for example, the first-order statistic, etc. from the input image as a pre-stage, and the pre-processing unit 8. The multivariate analysis unit 9 is configured to statistically analyze the feature amount and convert or reduce the feature amount (decrease in the number of dimensions).

【0028】このように構成された画像分類装置におい
て、画像入力装置1から入力された画像データは、必要
に応じて、ファイリング装置2に保存した後に学習や分
類判定が行なわれる。そして、ノーマライズ部3によ
り、実行時の分類判定精度が向上する。
In the image classifying device thus constructed, the image data input from the image inputting device 1 is stored in the filing device 2 as necessary, and thereafter learning and classification judgment are performed. Then, the normalization unit 3 improves the classification determination accuracy at the time of execution.

【0029】前記ファイリング装置2及びノーマライズ
部3で所定の処理された画像データから、前処理部8に
より入力画像から診断に有効な複数の特徴量が抽出さ
れ、多変量解析部9により、これらの特徴量から、分類
に有効な特徴量を選択し、分類精度を向上させると共
に、次元数の減少により分類判定が高速に行なわれる。
また前処理部8は、多変量解析部9との併用により、対
象物に応じて最適な分類特徴量が選択できる。
From the image data subjected to predetermined processing by the filing device 2 and the normalizing section 3, a plurality of characteristic quantities effective for diagnosis are extracted from the input image by the preprocessing section 8, and these are calculated by the multivariate analysis section 9. A feature amount effective for classification is selected from the feature amounts to improve the classification accuracy, and the classification determination is performed at high speed by reducing the number of dimensions.
Further, the preprocessing unit 8 can select the optimal classification feature amount according to the object by using the multivariate analysis unit 9 together.

【0030】このような特徴抽出部4により、画像デー
タの分類を自動的に行なうための特徴量が抽出され、分
類判定部5で、その特徴量に基づき判定を行う。このよ
うにして判定された分類判定結果は、表示部6で視覚的
に異ならせてわかり易く表示される。
The feature extracting unit 4 extracts the feature amount for automatically classifying the image data, and the classification determining unit 5 makes a determination based on the feature amount. The classification determination result determined in this way is visually displayed on the display unit 6 and displayed in an easy-to-understand manner.

【0031】また学習制御部7により、経験による信頼
性の高い分類判定データが前記ノーマライズ部3、特徴
抽出部4及び分類判定部5にそれぞれ組み込まれ、初心
者でもレベルの高い分類判定を行なうことができる。
Further, the learning control section 7 incorporates highly reliable classification judgment data by experience into the normalizing section 3, the feature extracting section 4 and the classification judging section 5, respectively, so that even a beginner can make a high-level classification judgment. it can.

【0032】このように構成された画像分類装置におい
て、図1(a)の実行モード、図1(b)の学習モード
が選択されない場合には、画像入力装置から入力された
画像はそのまま表示部6に表示される。
In the image classifying apparatus thus configured, when the execution mode shown in FIG. 1A and the learning mode shown in FIG. 1B are not selected, the image input from the image input apparatus is directly displayed on the display unit. 6 is displayed.

【0033】図1(a)を参照して、実行モードについ
て説明する。まず、画像入力装置1によりDR,Gai
n,倍率等がノーマライズされた画像を入力する。図示
しないコントロール部より順次座標情報が与えられ、そ
の領域の切り出し方向等のノーマライズが行われ、特徴
抽出部4にて、前処理および多変量解析を行ない、分類
判定が行なわれる。必要に応じて、フィードバック演算
が行なわれ、結果が原画像と合成され表示部6にて表示
される。コントロール部からは指定された範囲内の座標
情報が順次与えられ、この一連の処理が行なわれ、この
指定範囲が例えばカラー表示される。
The execution mode will be described with reference to FIG. First, by the image input device 1, DR, Gai
Input an image in which n, magnification, etc. are normalized. Coordinate information is sequentially given from a control unit (not shown), the cutout direction of the region is normalized, and the feature extraction unit 4 performs preprocessing and multivariate analysis to perform classification determination. Feedback calculation is performed as necessary, and the result is combined with the original image and displayed on the display unit 6. Coordinate information within the designated range is sequentially given from the control unit, and this series of processing is performed, and the designated range is displayed in color, for example.

【0034】次に図2,図3には、本発明による第1実
施例の画像分類装置の画像入力装置として、コンベック
ス型超音波装置を用いた例を示す。このコンベックス型
超音波装置10においては、8つのグループに分割さ
れ、超音波の送信、受信を順次選択して行う128個の
振動子11と、該振動子11からの送信、受信を切り替
え、所定数(該所定数はアパーチャーと称され、本実施
例では8つ)ずつ同時にON,OFFを行なう素子選択
スイッチ12と、該素子選択スイッチ12の切り替え端
子の一方に接続され、8個の振動子から所定のフォーカ
スポイントに収束するような波形が作られるようなパル
スを送信する送信回路13と、前記素子選択スイッチ1
2の切り替え端子の他端に接続され、受信している8つ
の信号を所定のデレイライン15に送るロータリースイ
ッチ14と、受信波が球面波であるため、各振動子の位
置に応じて信号を受信する時間が異なり、この受信信号
を時間的に補正するデレイライン15と、該デレイライ
ン15からの出力信号を加算する加算器16と、この実
施例では距離が時間に一致するためTGC(Time
Gain Control)と称され、距離に応じて減
衰した振幅を増幅するアンプ17とで構成される。
Next, FIGS. 2 and 3 show an example in which a convex ultrasonic device is used as an image input device of the image classification device of the first embodiment according to the present invention. In this convex type ultrasonic device 10, 128 transducers 11 which are divided into eight groups and sequentially select transmission and reception of ultrasonic waves, and transmission and reception from the transducers 11 are switched to a predetermined group. An element selection switch 12 that simultaneously turns on and off by a number (the predetermined number is called an aperture, eight in this embodiment), and eight transducers connected to one of the switching terminals of the element selection switch 12. And a transmission circuit 13 for transmitting a pulse from which a waveform that converges to a predetermined focus point is formed, and the element selection switch 1
The rotary switch 14 which is connected to the other end of the switching terminal 2 for sending the eight received signals to the predetermined delay line 15 and the received wave is a spherical wave, the signals are received according to the position of each transducer. The delay time is different, and the delay line 15 for temporally correcting the received signal, the adder 16 for adding the output signal from the delay line 15, and the distance in the present embodiment are the same as the time TGC (Time).
It is called a "Gain Control", and is composed of an amplifier 17 that amplifies the amplitude attenuated according to the distance.

【0035】このTGCは、後述するノーマライズ制御
部43によりスイッチングが切り替えられる切り替えス
イッチ130の働きにより、所定の増幅を行うTGC固
定波形発生回路132、または、外部設定信号に基づい
て増幅を行うTGC波形発生回路131に接続されてい
る。学習モード、実行モード時には、TGC固定波形発
生回路132にスイッチングされ、所定の増幅値に正規
化される。
This TGC is a TGC fixed waveform generating circuit 132 which performs a predetermined amplification by the action of a changeover switch 130 whose switching is switched by a normalization control section 43 described later, or a TGC waveform which amplifies based on an external setting signal. It is connected to the generation circuit 131. In the learning mode and the execution mode, the TGC fixed waveform generation circuit 132 is switched and normalized to a predetermined amplification value.

【0036】さらに、前記アンプ17からの出力信号
(振動子11が受信した信号)を一度高い周波数(f0
+fH )にシフトさせる乗算器18、所定帯域の信号を
抽出するBPF19、ゼロ周波数へシフトさせる乗算器
20,21及び、LPF22,23とからなるダブルコ
ンバージョン回路24と、前記LPF22,23からの
出力信号を、それぞれA/D変換するA/D変換器2
5,26と、A/D変換された出力信号(超音波)の波
形である図6(a)に示す超音波の波形を、図6(c)
に示す波形に補正する2つのデジタルフィルタ27,2
8からなる波形補正回路(ノーマライズ部)29と、デ
ジタルフィルタ27,28の出力から出力値を算出する
2乗回路30,31と加算器32からなる検波回路33
と、検波出力に対してダイナミックレンジの圧縮を行う
対数アンプ34と、図示しない画像の表示部に合わせた
走査線変換を行ない、該表示部への表示倍率も制御可能
なスキャンコンバータ35と、学習、または実行モード
時、DR(ダイナミックレンジ),ゲイン(Gain),倍
率を各々所定値Vref1、Vref2、Vref3に設定するノー
マライズ部36と、送信回路13を制御するとともに、
DR、ゲイン、倍率をユーザの希望値に設定するための
制御部37とで構成される。
Further, the output signal from the amplifier 17 (the signal received by the transducer 11) is once transmitted to a high frequency (f 0
+ F H ), a multiplier 18, a BPF 19 for extracting a signal in a predetermined band, multipliers 20 and 21 for shifting to a zero frequency, and a double conversion circuit 24 including LPFs 22 and 23, and outputs from the LPFs 22 and 23. A / D converter 2 for A / D converting each signal
5 and 26, and the waveform of the ultrasonic wave shown in FIG. 6A, which is the waveform of the output signal (ultrasonic wave) that has been A / D converted, is shown in FIG.
Two digital filters 27, 2 for correcting to the waveform shown in
8, a waveform correction circuit (normalization unit) 29, square detection circuits 30 and 31 for calculating output values from the outputs of the digital filters 27 and 28, and a detection circuit 33 including an adder 32.
A logarithmic amplifier 34 for compressing a dynamic range with respect to the detection output; a scan converter 35 capable of performing scanning line conversion in accordance with a display unit of an image (not shown) and controlling the display magnification on the display unit; , Or in the execution mode, it controls the transmission circuit 13 and the normalization unit 36 that sets the DR (dynamic range), the gain (Gain), and the magnification to predetermined values Vref1, Vref2, and Vref3, respectively.
A control unit 37 for setting the DR, the gain, and the magnification to desired values of the user.

【0037】この様に構成されたコンベックス型超音波
装置においては、前記振動子11の周波数をf0 とすれ
ば、図6(a)のような波形の送受信信号が入力され
る。そして、これらの信号は、素子選択スイッチ12及
びロータリースイッチ14の切り替えにより選択され、
デレイライン15で各信号を時間的に補正して揃える。
補正された信号は、ダブルコンバージョン回路24によ
り、図6(b)に示すように、一度高い周波数(f0
H )にシフトさせ、信号帯域だけを効率良く抽出し、
次に低周波にシフトされる。この処理により回路の負担
が軽減する。
In the convex type ultrasonic device having such a configuration, when the frequency of the vibrator 11 is f 0 , a transmission / reception signal having a waveform as shown in FIG. 6A is input. Then, these signals are selected by switching the element selection switch 12 and the rotary switch 14,
The delay line 15 temporally corrects and aligns the signals.
The corrected signal is once converted to a high frequency (f 0 +) by the double conversion circuit 24, as shown in FIG. 6B.
f H ), and efficiently extract only the signal band,
Then it is shifted to the lower frequencies. This processing reduces the load on the circuit.

【0038】さらに、波形補正回路(ノーマライズ部)
29により、学習した振動子と特性が異なる場合、フィ
ルタにより補正が行なわれる。また、学習した振動子が
経年変化した場合にも補正される。また距離(時間)に
対する周波数減衰の補正も行なうことができる。
Further, a waveform correction circuit (normalization section)
According to 29, when the characteristic is different from the learned oscillator, the correction is performed by the filter. It is also corrected when the learned oscillator changes over time. It is also possible to correct the frequency attenuation with respect to the distance (time).

【0039】この波形補正回路29からの2つの出力信
号は、検波回路33により所定の検波が行われる。次
に、この検波信号は、ノーマライズ部36により、学習
モード時と、実行モード時にだけノーマライズが行なわ
れ、学習モード時と実行モード時のDR、ゲイン、倍率
が所定の値に正規化される。さらにスキャンコンバータ
35は、図示しない表示部に合わせた走査線変換を行な
い、表示部への表示倍率も制御する。
The two output signals from the waveform correction circuit 29 are subjected to predetermined detection by the detection circuit 33. Next, the detected signal is normalized by the normalizing unit 36 only in the learning mode and the execution mode, and the DR, gain, and magnification in the learning mode and the execution mode are normalized to predetermined values. Further, the scan converter 35 performs scanning line conversion adapted to a display unit (not shown) and also controls the display magnification on the display unit.

【0040】図4には、前述したコンベックス型超音波
装置を組み入れた第1実施例の画像分類装置の構成を示
す。図4に示す画像分類装置は、分類判定実行時(実行
モード)の構成を示し、構成する部材は、図1に示した
部材と同等の部材には同じ参照符号を付し、その説明は
省略する。本実施例では、画像分類装置が人体に生じる
腫瘍等の病理的な形態を画像として分類する例とする。
FIG. 4 shows the structure of the image classification apparatus of the first embodiment incorporating the above-mentioned convex type ultrasonic wave apparatus. The image classification apparatus shown in FIG. 4 shows the configuration at the time of executing the classification determination (execution mode), and the constituent members are the same as those shown in FIG. To do. In this embodiment, an image classification device classifies a pathological form such as a tumor occurring in a human body as an image.

【0041】この画像分類装置において、大きくは、コ
ンベックス型の超音波装置10と、画像中から分類判定
を行なう範囲、及び、分類判定に用いる抽出領域の大き
さを指定し、座標情報を順次出力する範囲指定部41
と、超音波装置10内のノーマライズ部29,36、切
り替えスイッチ130とノーマライズ部42とを制御
し、通常の診断と判定分類処理(学習モード、実行モー
ド)の切替を行うノーマライズ制御部43と、超音波装
置10からの画像信号をフレーム単位で一時的に記憶す
るフレームモリ44と、ファイリング装置2と、特徴抽
出部4と、分類判定部5と、表示部6とで構成される。
In this image classifying apparatus, roughly, the ultrasonic wave apparatus 10 of the convex type, the range for performing the classification judgment in the image, and the size of the extraction region used for the classification judgment are designated, and the coordinate information is sequentially output. Range designation section 41
And a normalization control unit 43 that controls the normalization units 29 and 36, the changeover switch 130, and the normalization unit 42 in the ultrasonic device 10 to switch between normal diagnosis and determination classification processing (learning mode, execution mode). A frame memory 44 that temporarily stores the image signal from the ultrasonic device 10 on a frame-by-frame basis, a filing device 2, a feature extraction unit 4, a classification determination unit 5, and a display unit 6.

【0042】なお、例えば、ノーマライズ部36におけ
る所定値Vref1、Vref2、Vref3、及び、TGC固定波
形発生回路132の増幅値は、図示しない条件設定手段
により、所望の値に設定される。前記ノーマライズ部4
2は、指定された座標値Pから、その位置の傾き角θ
と、距離dを式(1)で算出する。(図7参照)
For example, the predetermined values Vref1, Vref2, Vref3 in the normalize section 36 and the amplification value of the TGC fixed waveform generating circuit 132 are set to desired values by the condition setting means (not shown). The normalizing section 4
2 is the tilt angle θ at that position from the designated coordinate value P
And the distance d is calculated by the equation (1). (See Figure 7)

【0043】[0043]

【数1】 [Equation 1]

【0044】このノーマライズ群42は、コンベックス
型画像の周辺部の4点の座標より簡易的にθ,dが求め
られるθ,d算出器45aと、該θ,d算出器45aか
らのθ,dに応じて抽出領域を変形させる。即ち、矩形
で回転させたり(図8(a))、台形で切り出し(図8
(b))を行なうことにより、画像位置に応じて、撮像
特性(周波数特性)が異なるコンベックス型の超音波画
像の特性の相違を補正する領域抽出部45bとからな
る。
The normalization group 42 includes a θ and d calculator 45a which can easily calculate θ and d from the coordinates of four points around the convex type image, and θ and d from the θ and d calculator 45a. The extraction area is deformed in accordance with. That is, it is rotated in a rectangle (Fig. 8 (a)) or cut out in a trapezoid (Fig. 8).
By performing (b)), the region extracting unit 45b corrects the difference in the characteristics of the convex type ultrasonic image having different imaging characteristics (frequency characteristics) depending on the image position.

【0045】また、前記範囲指定部41は、利用者が画
像中に分類判定したいエリアを容易に指示できるもの
で、分類判定を行なう範囲、分類判定に用いる抽出領域
の大きさを指定し、座標情報を指定する。
Further, the range designation section 41 allows the user to easily designate the area in the image to be classified and determined, and designates the range to be classified and the size of the extraction area used for classification determination, and coordinates Specify the information.

【0046】次に前記特徴抽出部4は、前処理部46と
多変量解析部47とからなる。この前処理部46では、
ハミング,ハニング等のウィンドウ関数を乗じて、後述
する画像の分類に有効な情報を多く持つパワースペクト
ルP(u)の検出にあたり、画像周辺部のエッジの影響
を除去するウィンドウ回路48と、図10(a)に示す
ような、フーリエ変換を利用したパワースペクトルP
(u)を検出するパワースペクトル検出器49とからな
る。ここで、FFTは、高速フーリエ変換を意味し、出
力される実数項と虚数項が、2乗され加算される。パワ
ー正規化部では、ゼロ周波数が一定値になるように処理
され、画像輝度の違いをノーマライズする。また、パワ
ー処理部は同図(b)〜(h)のように値を変換する。
Next, the feature extraction section 4 comprises a preprocessing section 46 and a multivariate analysis section 47. In this preprocessing unit 46,
When a power spectrum P (u) having a lot of information effective for classification of an image, which will be described later, is detected by multiplying by a window function such as Hamming or Hanning, a window circuit 48 for removing the influence of the edge of the image peripheral portion, and FIG. Power spectrum P using Fourier transform as shown in (a)
And a power spectrum detector 49 for detecting (u). Here, FFT means a fast Fourier transform, and the output real number term and imaginary number term are squared and added. In the power normalization unit, the zero frequency is processed so as to have a constant value, and the difference in image brightness is normalized. In addition, the power processing unit converts the values as shown in FIGS.

【0047】前記多変量解析部47は、前記パワースペ
クトル検出器49により検出されたパワースペクトルP
(u)を記憶しておくことにより、フィードバック制御
で何度も利用する分類データメモリ50と、次元変換部
51からなる。この次元変換部51は、学習時に算出さ
れた分類ベクトルを記憶し、且つθ,d算出器45aで
計算されたdの値、分類番号により分類ベクトルの値が
選択される分類ベクトルメモリ52と、分類データメモ
リ50から読出されたパワースペクトルP(u)と、選
択された分類ベクトルC1(u),C2(u)との内積
演算を行ない、結果t1,t2を出力することにより、
分類に有効な特徴空間へ変換し、分類性能を落さずに次
元数を削減して、分類判定部への入力を少なくする投影
演算器53とで構成される。この投影演算器53は図9
に示すように、並列する乗算器と累積加算器からなり、
それぞれの乗算器に選択された分類ベクトルC1
(u),C2(u)が入力され、内積演算を行ない、結
果t1,t2が出力するように構成される。この次元変
換部により、分類判定部5の入力部を少なくでき、分類
判定部5を小規模、即ち高速処理化できる。
The multivariate analysis unit 47 has the power spectrum P detected by the power spectrum detector 49.
By storing (u), it is composed of a classification data memory 50 and a dimension conversion unit 51 that are repeatedly used in feedback control. The dimension conversion unit 51 stores a classification vector calculated at the time of learning, and a classification vector memory 52 in which the value of the classification vector is selected according to the value of d calculated by the θ, d calculator 45a and the classification number, By performing an inner product operation of the power spectrum P (u) read from the classification data memory 50 and the selected classification vectors C1 (u) and C2 (u) and outputting the results t1 and t2,
It is composed of a projection calculator 53 that converts into a feature space effective for classification, reduces the number of dimensions without reducing the classification performance, and reduces the input to the classification determination unit. This projection calculator 53 is shown in FIG.
As shown in, consists of a multiplier and a cumulative adder in parallel,
Classification vector C1 selected for each multiplier
(U) and C2 (u) are input, the inner product operation is performed, and the results t1 and t2 are output. With this dimension conversion unit, the input unit of the classification determination unit 5 can be reduced, and the classification determination unit 5 can be downsized, that is, the processing speed can be increased.

【0048】次に前記分類判定部5は、入力される信号
を論理的判定に適する形に変換するための曖昧判定部5
4とAI等の論理的な判断回路である論理判定部55
と、該論理判定部55の出力に基づき分類番号を重みメ
モリ57及び分類ベクトルメモリ52に指示するコント
ロール部58とで構成される。
Next, the classification judgment unit 5 converts the input signal into a form suitable for logical judgment, and the ambiguity judgment unit 5
4 and a logical judgment unit 55 which is a logical judgment circuit such as AI.
And a control section 58 for instructing the classification number to the weight memory 57 and the classification vector memory 52 based on the output of the logic determination section 55.

【0049】また、ニューラルネットワークを用いるこ
とにより、分類の境界が複雑な場合でも、その分類境界
を容易に構築できる利点を有する。この曖昧判定部54
においては、前記投影演算器53からのt1,t2から
判定値J1,J2,J3を出力することにより、正常部
か、異常部か判定の微妙なものも、学習データをもとに
正しい評価値(J1,J2,J3)を出力でき、人が行
なうようなアナログ的(直感的)評価ができる3階層の
ニューラルネットワーク56と、このニューラルネット
ワーク56の重み係数を記憶する重みメモリ57とで構
成される。
Further, the use of the neural network has an advantage that the classification boundary can be easily constructed even if the classification boundary is complicated. This ambiguity determination unit 54
In the above, by outputting the judgment values J1, J2 and J3 from t1 and t2 from the projection computing unit 53, the correct evaluation value based on the learning data can be obtained even for the delicate judgment of normal part or abnormal part. (J1, J2, J3) can be output, and is composed of a three-layered neural network 56 capable of analog (intuitive) evaluation as performed by a person, and a weight memory 57 for storing the weighting coefficient of this neural network 56. It

【0050】前記重みメモリ57は、コントロール部5
8が指示した分類番号と距離dの値により重み係数を選
択し、ニューラルネットワーク56の重み係数として設
定することにより、分類目的に適した重みメモリ値を選
択できると共に、距離により異なる撮像特性を補正で
き、分類精度を向上できる。但し、前記ニューラルネッ
トワーク56の出力においては、J1は正常部、J2は
異常部(悪性)、J3は異常(良性)の度合を示し、各
々0〜1.0の値を出力とする。また、論理判定部55
は、J1,J2,J3の値に応じて、後述する[判断表
1]のように処理を選択する。ケース4の場合は異常で
あるが悪性か良性かがわからない場合で、悪性か良性か
だけを分類するように学習された分類べクトル、重みを
選択し、再実行する。
The weight memory 57 is used by the control unit 5
8 selects the weighting coefficient according to the classification number and the value of the distance d, and sets the weighting coefficient as the weighting coefficient of the neural network 56, so that the weighting memory value suitable for the classification purpose can be selected, and the imaging characteristics different depending on the distance are corrected. It is possible to improve the classification accuracy. However, in the output of the neural network 56, J1 indicates a normal portion, J2 indicates an abnormal portion (malignant), and J3 indicates an abnormal degree (benign), and values of 0 to 1.0 are output. In addition, the logic determination unit 55
Selects a process according to the values of J1, J2, and J3 as in [Judgment Table 1] described later. In the case of Case 4, it is abnormal but it is not known whether it is malignant or benign, and the classification vector and weight learned so as to classify only malignant or benign are selected and re-executed.

【0051】このように論理判定部55の判定が曖昧な
時は、分類判定部5または、その前段部へフィードバッ
ク処理し、判定を行なうことにより分類判定の精度を向
上させる。ニューラルネットワーク56がアナログ的
(直感的)評価をするのに対して、論理判定部55はデ
ジタル的(論理的)評価を行なうことができ、より複雑
な分類判定をも行うことができる。なお、フィードバッ
クの回数が所定回数以上になる場合には、判定値5(分
類不明を意味する)を出力する。
When the judgment of the logic judgment unit 55 is ambiguous in this way, the accuracy of the classification judgment is improved by performing a feedback process to the classification judgment unit 5 or the preceding stage thereof to make the judgment. Whereas the neural network 56 makes an analog (intuitive) evaluation, the logic judging section 55 can make a digital (logical) evaluation, and can also make a more complicated classification judgment. When the number of times of feedback is equal to or greater than the predetermined number, the determination value 5 (meaning that classification is unknown) is output.

【0052】この論理判定部55が出力する判定値は、
表示部6に送出される。この表示部6は、表示画像生成
部59とCRTやフラットパネル等のデイスプレイから
なるモニタ60とで構成され、例えば、入力画像に判定
値に応じて色を変えて表示する。例えば、判定値1(正
常)では緑色、判定値2(悪性)では赤色、判定値3
(良性)では青色、判定値5(不明)では黄色に領域を
着色することにより、分類判定結果が視覚的にわかり易
く表示でき、有用な診断支援ができる。
The judgment value output from the logic judgment unit 55 is
It is sent to the display unit 6. The display unit 6 includes a display image generation unit 59 and a monitor 60 that is a display such as a CRT or a flat panel, and displays, for example, an input image in different colors according to a determination value. For example, judgment value 1 (normal) is green, judgment value 2 (malignant) is red, judgment value 3
By coloring the area in blue for (benign) and yellow for the judgment value 5 (unknown), the classification judgment result can be displayed in a visually easy-to-understand manner, and useful diagnosis support can be provided.

【0053】なお、分類ベクトルの値と重みメモリの値
は、ノーマライズ部42から出力される制御情報(ここ
では距離d)及び、または、分類番号により選択される
ことにより、分類精度を向上させることができる。
The value of the classification vector and the value of the weight memory are selected according to the control information (distance d here) and / or the classification number output from the normalizing section 42 to improve the classification accuracy. You can

【0054】次に図1(b)を参照して学習モードにつ
いて説明する。まず、画像入力装置1により、TGC、
波形、DR,Gain,倍率がノーマライズされた画像
を入力し、適当にフリーズしてファイリング装置2に保
存する。そして、学習制御部7の制御により、ファイリ
ングする画像の中から指定された画像を読み出し、表示
部6に表示し、オペレータ(経験者)が表示内の所望の
領域を指定し、教師情報を与える。このように指定され
た領域は、切り出し方向等のノーマライズが行なわれ、
特徴抽出部にて前処理および多変量解析を行ない、学習
データが作成され、分類判定部で学習が行なわれる。
Next, the learning mode will be described with reference to FIG. First, with the image input device 1, the TGC,
An image in which the waveform, DR, Gain, and magnification are normalized is input, appropriately frozen, and stored in the filing device 2. Then, under the control of the learning control unit 7, a designated image is read out from the images to be filed, displayed on the display unit 6, and an operator (experienced person) designates a desired area in the display to give teacher information. . The area specified in this way is normalized such as the cutting direction,
The feature extraction unit performs preprocessing and multivariate analysis to create learning data, and the classification determination unit performs learning.

【0055】そして、図5には、図4に示した画像分類
装置における分類判定学習時(学習モード)の構成を示
す。ここで構成する部材で図4に示した部材と同等の部
材には同じ参照符号を付し、その説明は省略する。
Then, FIG. 5 shows a configuration at the time of classification determination learning (learning mode) in the image classification apparatus shown in FIG. The same members as the members shown in FIG. 4 among the members configured here are designated by the same reference numerals, and the description thereof will be omitted.

【0056】この分類判定学習時の画像分類装置には、
ノーマライズ制御器43及び表示画像生成部59に座標
情報Pを出力し、多変量解析部47及び曖昧判定部54
にそれぞれ所定の分類番号を学習させるための学習制御
部61が設けられる。
The image classification device at the time of this classification judgment learning is
The coordinate information P is output to the normalization controller 43 and the display image generation unit 59, and the multivariate analysis unit 47 and the ambiguity determination unit 54 are output.
A learning control unit 61 for learning a predetermined classification number is provided for each.

【0057】この学習制御部61は、医師等の経験者に
より症例等のデータを入力するための教師データ入力部
62と、投影演算器53からの結果t1,t2を記録す
る学習データメモリ63と、学習データメモリ63から
のデータと前記教師データから重みメモリの値を生成す
る学習器64と、分類データメモリ50からの分類デー
タから分類ベクトルを演算する分類ベクトル演算部65
と、学習全体を制御する学習制御器66とで構成され
る。この演算された分類ベクトルにより、特徴抽出部4
の処理条件が設定されることになる。
The learning control unit 61 includes a teacher data input unit 62 for inputting data such as a case by an experienced person such as a doctor, and a learning data memory 63 for recording the results t1 and t2 from the projection calculator 53. , A learner 64 that generates a value of a weight memory from the data from the learning data memory 63 and the teacher data, and a classification vector calculation unit 65 that calculates a classification vector from the classification data from the classification data memory 50.
And a learning controller 66 that controls the entire learning. The feature extraction unit 4 uses the calculated classification vector.
Will be set.

【0058】前記教師データ入力部62は、医師等の経
験者とのユーザインターフェイスであり、経験者がモニ
タ60に表示される画面を見ながら、図示しないマウ
ス、キーボード等により、モニタ60内に表示されるウ
ィンドウを移動させて、正常部、異常部(悪性)、異常
部(良性)の位置等の教師データを入力する。また、指
示した位置の画像領域の色を変えて表示することによ
り、教師データとして入力された領域を視覚的に認知し
易くできる。また、この指示した位置の座標情報により
θ,dが算出される。この様にして、経験者の有益な情
報を容易に入力できることから、常に新たな症例等のデ
ータを後から簡単に入力でき、学習し直すことができ
る。また、教師データとしては、正常部、異常部(悪
性)、異常部(良性)の情報だけでなく、異常部の名称
等を入力してもよい。
The teacher data input section 62 is a user interface with an experienced person such as a doctor, and while the experienced person is looking at the screen displayed on the monitor 60, the teacher data input section 62 is displayed in the monitor 60 by a mouse, a keyboard or the like (not shown). By moving the window, the teacher data such as the positions of the normal part, the abnormal part (malignant), and the abnormal part (benign) is input. In addition, by displaying the image area at the designated position in different colors, the area input as the teacher data can be easily visually recognized. Further, θ and d are calculated from the coordinate information of the designated position. In this way, the useful information of the experienced person can be easily input, so that data such as new cases can always be easily input later and learning can be performed again. Further, as the teacher data, not only the information on the normal part, the abnormal part (malignant), and the abnormal part (benign), but also the name of the abnormal part may be input.

【0059】前記学習制御器66は、教師データ入力部
62の指示に従い学習全体を制御することにより、距離
d、分類番号に応じ、分類ベクトルメモリ52、重みメ
モリ57の値を算出するような制御情報を出力する。こ
のdは、例えば距離の範囲により図7に示すように、d
1,d2,d3,d4の4段階等の複数に場合分けす
る。分類番号は後述するように分類番号1番と2番の2
段階等の複数に設定する。この結果、分類判定の精度向
上を図ることができる。
The learning controller 66 controls the learning as a whole according to the instruction from the teacher data input unit 62 to calculate the values of the classification vector memory 52 and the weight memory 57 according to the distance d and the classification number. Output information. This d is, for example, as shown in FIG.
The case is divided into a plurality of four stages such as 1, d2, d3 and d4. The classification numbers are 2 of classification numbers 1 and 2 as described later.
Set in multiple stages. As a result, the accuracy of classification determination can be improved.

【0060】また、前記学習器64は、ニューラルネッ
トワーク56を学習させるための学習器であり、前記学
習データメモリ63は、ニューラルネットワーク56に
入力される学習データを記憶するためのメモリである。
The learning device 64 is a learning device for learning the neural network 56, and the learning data memory 63 is a memory for storing learning data input to the neural network 56.

【0061】前記分類データメモリ50は、パワースペ
クトル検出器49で算出されたパワースペクトルP
(u)を記憶する。教師データ毎(正常か異常(悪性)
か異常(良性)か)、画像の距離d毎(d1,d2,d
3,d4)に記憶される。
The classification data memory 50 stores the power spectrum P calculated by the power spectrum detector 49.
Memorize (u). For each teacher data (normal or abnormal (malignant))
Or abnormal (benign)), for each image distance d (d1, d2, d
3, d4).

【0062】前記分類ベクトル演算部65は、分類デー
タメモリ50に記憶されたパワースペクトルP(u)か
ら、分類ベクトルを演算する。この演算の詳細は、本出
願人が提案した特願平5−264781号に記載するよ
うに、FS変換等を利用した統計的手法により、2クラ
スを分類するためのべクトルを算出する。正常と異常
(悪性)、異常(良性)を混合した2クラスを分類する
ための分類べクトル1(分類番号1番)と、フィードバ
ック時に用いる異常(悪性)と異常(良性)の2クラス
を分類するための分類ベクトル2を算出する(分類番号
2番)。この分類ベクトル1,2は、距離d1,d2,
d3,d4の各距離に対しても算出され、分類ベクトル
メモリ52の所定のアドレスに書き込まれる。また、同
様に、重みメモリ57の値も各分類番号、各距離に応じ
て算出され、所定のアドレスに書き込まれる。
The classification vector calculator 65 calculates a classification vector from the power spectrum P (u) stored in the classification data memory 50. The details of this calculation, as described in Japanese Patent Application No. 5-264781 proposed by the present applicant, calculate a vector for classifying two classes by a statistical method using FS conversion or the like. Classification vector 1 (classification number 1) for classifying two classes that mix normal and abnormal (malignant) and abnormal (benign), and two classes used for feedback: abnormal (malignant) and abnormal (benign) Then, a classification vector 2 for calculating is calculated (classification number 2). The classification vectors 1 and 2 are distances d1, d2,
It is also calculated for each of the distances d3 and d4 and is written in a predetermined address of the classification vector memory 52. Similarly, the value of the weight memory 57 is calculated according to each classification number and each distance, and is written in a predetermined address.

【0063】この様に、構成された画像分類装置の動作
について説明する。この画像分類装置において、学習モ
ード、実行モードが選択されない場合は、入力装置とな
る超音波装置の切り替えスイッチ130及びノーマライ
ズ部36のスイッチA側(図3)が選択されユーザの指
定した、TGC増幅値、DR,Gain,倍率が選択さ
れて、入力が行なわれ、表示される。学習モード、実行
モードが選択された場合にはスイッチBが選択され、T
GC増幅値、DR,Gain,倍率は所定の値に正規化
され入力が行なわれ、特徴抽出および分類判定が行なわ
れる。
The operation of the thus-configured image classifying apparatus will be described. In this image classification device, when the learning mode and the execution mode are not selected, the changeover switch 130 of the ultrasonic device serving as the input device and the switch A side (FIG. 3) of the normalize unit 36 are selected and the TGC amplification specified by the user is performed. The value, DR, Gain, and magnification are selected, input is made, and displayed. When the learning mode or the execution mode is selected, the switch B is selected and T
The GC amplification value, DR, Gain, and magnification are normalized to predetermined values and input, and feature extraction and classification determination are performed.

【0064】この実施例では正常部と異常部(悪性)、
異常部(良性)の3種類を分類する。つまり、学習モー
ドではこの3種類の領域を指定する。また、分類番号と
して、1番と2番があり、分類の目的により切り変え
る。正常部と異常部(悪性と良性双方)を分類する目的
が分類番号1で、異常部(悪性)と異常部(良性)を分
類するのが分類番号2である。学習は分類番号毎に行な
う。また、実行では分類番号1番を実行し、判定が微妙
な場合に分類番号2を選択したフィードバック制御を行
なう。
In this embodiment, the normal part and the abnormal part (malignant),
The three types of abnormal parts (benign) are classified. That is, these three types of areas are designated in the learning mode. Also, there are 1 and 2 as classification numbers, which are switched depending on the purpose of classification. The purpose of classifying the normal part and the abnormal part (both malignant and benign) is classification number 1, and the classification of the abnormal part (malignant) and abnormal part (benign) is classification number 2. Learning is performed for each classification number. Further, in the execution, the classification number 1 is executed, and when the judgment is delicate, the feedback control is performed by selecting the classification number 2.

【0065】図5を参照して、学習モードについて説明
する。TGC増幅値、波形、DR,Gain,倍率がノ
ーマライズされた画像は、適当にフリーズしてファイリ
ング装置2に保存される。学習制御部61の制御により
指定された画像がファイリング装置2から読みだされ、
フレームメモリ44に記憶され、表示部6のモニタ60
に表示される。
The learning mode will be described with reference to FIG. The image in which the TGC amplification value, waveform, DR, Gain, and magnification are normalized is appropriately frozen and stored in the filing device 2. The image designated by the control of the learning control unit 61 is read from the filing device 2,
The monitor 60 of the display unit 6 is stored in the frame memory 44.
Is displayed in.

【0066】そして、医者等の経験者が図示しないマウ
ス等で病変部等の領域を指定し、病気の種類等の教師情
報を与える。指定された領域は、切り出し方向等のノー
マライズが行なわれ、特徴抽出部4にてパワースペクト
ルP(u)がまず求められ、分類データメモリ50に記
憶される。学習制御部61では分類番号に応じて分類デ
ータメモリ50からデータを選択利用して、分類べクト
ル、ニューラルネットワーク56の重みを計算する。こ
の計算は分類番号毎だけでなく、距離d毎にも行なわれ
る。
Then, an experienced person such as a doctor specifies a region such as a lesion with a mouse or the like not shown, and gives teacher information such as the type of disease. The specified area is normalized such as the cutting direction, the power extraction unit 4 first obtains the power spectrum P (u), and the power spectrum P (u) is stored in the classification data memory 50. The learning control unit 61 selects and uses data from the classification data memory 50 according to the classification number to calculate the weight of the classification vector and the neural network 56. This calculation is performed not only for each classification number but also for each distance d.

【0067】なお、ファイリング装置2へ一時的に記録
せずに、超音波装置10からの画像にて直接領域を指定
し、教師情報を与えるようにしてもよい。また、倍率の
補正は領域の切り出し(領域抽出部45b)を行なう時
に兼ねておこなってもよい。また、この学習制御部は、
着脱自在としてもよいし、オフライン処理として、別の
計算機にて、重みメモリ、分類ベクトルメモリの値を計
算するようにしてもよい。さらに本実施例では、分類ベ
クトルを求める統計的手法としてFS変換を利用した
が、多クラスを分類するための手法として知られるHT
C(Hotelling Trace Criterion) を利用してもよい。
Instead of temporarily recording in the filing device 2, a region may be directly designated by an image from the ultrasonic device 10 to give teacher information. Further, the correction of the magnification may be performed at the same time when the region is cut out (region extraction unit 45b). In addition, this learning control unit
It may be detachable, or the value of the weight memory and the classification vector memory may be calculated by another computer as the off-line processing. Further, in this embodiment, the FS transform is used as a statistical method for obtaining a classification vector, but HT known as a method for classifying multiple classes
You may use C (Hotelling Trace Criterion).

【0068】次に図4を参照して、実行モードについて
説明する。画像入力装置となる超音波装置10により、
TGC増幅値、波形、DR,Gain,倍率がノーマラ
イズされた画像を入力する。範囲指定部41より順次座
標情報が与えられ、その領域の切り出し方向等のノーマ
ライズが行なわれ、特徴抽出部4にて前処理(パワース
ペクトル算出)および多変量解析が行なわれ、値t1,
t2が分類判定部5へ入力される。この分類判定部5で
は、ニューラルネットワーク56からJ1,J2,J3
が出力され、この値に応じた判定が論理判定部55で行
なわれ、必要に応じてフィードバック演算が行なわれ、
結果が原画像と合成され表示部6にて表示される。以上
のような処理が範囲指定部41での対応領域全てに渡り
行なわれる。
Next, the execution mode will be described with reference to FIG. With the ultrasonic device 10 serving as an image input device,
An image in which the TGC amplification value, waveform, DR, Gain, and magnification are normalized is input. The coordinate information is sequentially given from the range designation unit 41, the cutout direction of the region is normalized, and the feature extraction unit 4 performs preprocessing (power spectrum calculation) and multivariate analysis to obtain a value t1,
t2 is input to the classification determination unit 5. In this classification determination unit 5, the neural network 56 is used to select J1, J2, J3.
Is output, the logic determination unit 55 makes a determination according to this value, and feedback calculation is performed as necessary.
The result is combined with the original image and displayed on the display unit 6. The above processing is performed over all the corresponding areas in the range designation unit 41.

【0069】また、入力は画像入力装置(超音波装置1
0)から直接入力してもよいし、若しくはフリーズした
画像でも順次送られてくる動画像でもよい。さらには、
ファイリング装置2に記録された画像を読み出してもよ
い。
The input is an image input device (ultrasonic device 1
0) may be directly input, or may be a frozen image or a moving image sequentially sent. Furthermore,
The image recorded in the filing device 2 may be read out.

【0070】なお、本実施例においては、ニューラルネ
ットワークに3層の階層型を用いたが、これに限定され
るものではなく、勿論、2層や多層を用いてもよいし、
フィードバック型(全結合型)を用いてもよい。また本
実施例では、フーリエ変換を用いて、そのパワーを利用
したが、他の直交変換、例えばコサイン変換やウェーブ
レット変換を用いてもよい。
In this embodiment, the neural network has a three-layer hierarchical structure, but the present invention is not limited to this, and of course, two layers or multiple layers may be used.
A feedback type (fully connected type) may be used. Further, in this embodiment, the power is used by using the Fourier transform, but other orthogonal transforms such as cosine transform and wavelet transform may be used.

【0071】 [判断表1] ケース1:J1≧0.7 かつ J2,J3≦0.3 正常部と判断し判定値1を出力する。 ケース2:J2≧0.7 かつ J1,J3≦0.3 異常部(悪性)判断し判定値2を出力 する。 ケース3:J3≧0.7 かつ J1,J2≦0.3 異常部(良性)判断し判定値3を出力 する。 ケース4:J1<0.5 かつ (J2>0.5 異常部と判断し、判定値4出力する。[Judgment Table 1] Case 1: J1 ≧ 0.7 and J2, J3 ≦ 0.3 Judgment is made as a normal portion, and judgment value 1 is output. Case 2: J2 ≧ 0.7 and J1, J3 ≦ 0.3 The abnormal part (malignant) is judged and the judgment value 2 is output. Case 3: J3 ≧ 0.7 and J1, J2 ≦ 0.3 The abnormal part (benign) is judged and the judgment value 3 is output. Case 4: J1 <0.5 and (J2> 0.5) It is judged as an abnormal part, and the judgment value 4 is output.

【0072】 又はJ3>0.5) 異常部識別用の分類スペクトル、重み メモリ(分類番号2)を選択し再実行 する(フィードバック)。 ケース5:上記以外 分類不明と判断し、判定値5を出力す る。Or J3> 0.5) Select a classification spectrum and a weight memory (classification number 2) for identifying an abnormal part and execute again (feedback). Case 5: Other than the above It is judged that the classification is unknown and the judgment value 5 is output.

【0073】次に第2実施例として、前述した第1実施
例の変形例について説明する。この変形例では、上記し
た図4のθ,d算出器45aを図11に示すように構成
する。濃度ヒストグラム算出部71は、超音波画像全体
の濃度に関するヒストグラムを求める。適応2値化処理
部72では、濃度ヒストグラム算出部71で求められた
ヒストグラムに応じて、画像を2値化する。2値化を行
う時に、超音波の特徴である診断臓器以外の部分の濃度
値がほとんど0であるという情報を用いて、2値化を行
なってもよい。この適応2値化処理によって図12に示
すように診断臓器と、それ以外の部分に領域分割するこ
とができる。
Next, as a second embodiment, a modification of the above-mentioned first embodiment will be described. In this modification, the θ, d calculator 45a shown in FIG. 4 is configured as shown in FIG. The density histogram calculation unit 71 obtains a histogram relating to the density of the entire ultrasonic image. The adaptive binarization processing unit 72 binarizes the image according to the histogram obtained by the density histogram calculation unit 71. When performing the binarization, the binarization may be performed by using the information that the concentration value of the portion other than the diagnostic organ, which is a characteristic of the ultrasonic waves, is almost zero. By this adaptive binarization processing, the region can be divided into a diagnostic organ and other portions as shown in FIG.

【0074】次に、領域分割された画像に対して、輪郭
線抽出部73によって、診断臓器とそれ以外の領域に分
割する輪郭線抽出を行う。この輪郭線抽出が行われた画
像から線分検出74によって直線を検出する。線分検出
器には、公知技術である hough変換、グラフリサーチ等
を用いれば容易に線分を検出することができる。図12
には、検出された線分も表示する。
Next, the contour line extraction unit 73 performs contour line extraction for dividing the image into the diagnostic organs and other regions. A straight line is detected by the line segment detection 74 from the image from which the contour line has been extracted. A well-known technique such as hough transform or graph research can be used for the line segment detector to easily detect the line segment. 12
Also displays the detected line segment.

【0075】検出された2本の線分をそれぞれ、 y=ex+f y=gx+h とすると、2直線の交点を求めることによって、図7に
おけるCx,Cyは、 Cx=(f−h)/(g−e) Cy=(gf−eh)/(g−e) となる。
Assuming that each of the two detected line segments is y = ex + f y = gx + h, Cx and Cy in FIG. 7 can be calculated as Cx = (f−h) / (g -E) Cy = (gf-eh) / (g-e).

【0076】このように、θ,d算出器45aを前述し
たように構成することによって、異なる超音波画像が入
力された場合においても、Cx,Cyを自動的に計算す
ることができ、オペレータの処理の手間を軽減すること
ができる。また、処理量としても非線形演算を必要とし
ないため、非常に高速にCx,Cyを求めることができ
る。
By thus configuring the θ, d calculator 45a as described above, Cx and Cy can be automatically calculated even when different ultrasonic images are input, and the operator can The labor of processing can be reduced. Also, since the processing amount does not require non-linear calculation, Cx and Cy can be obtained very quickly.

【0077】次に図13には、本発明による第3実施例
としての画像分類装置の構成を示し説明する。ここで、
前述した実施例の構成部材と同等の部材には、同じ参照
符号を付して、その説明を省略する。この実施例では、
特徴抽出部4の前処理部46が第1実施例と構成が異な
っている。
Next, FIG. 13 shows the structure of an image classification apparatus as a third embodiment according to the present invention and will be described. here,
The same members as those of the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted. In this example,
The pre-processing unit 46 of the feature extraction unit 4 is different in configuration from the first embodiment.

【0078】本実施例では、特徴量としてパワースペク
トルの代りに、差分統計量やランレングス行列、同時生
起行列を用いる。差分統計量は、注目する画像中で一定
変位δ=(r,θ)だけ離れた2点の濃度差がkである
確率Pδ(k),(k=0,1,…,n−1)を求め、
それから4種類の特徴を計算し、それらの特徴によって
超音波画像を特徴づける。テクスチャ等の画像の細かな
パワースペクトルに比較して良好に抽出できる。
In this embodiment, a difference statistic, a run length matrix, and a co-occurrence matrix are used as the feature quantity instead of the power spectrum. The difference statistic is the probability Pδ (k), (k = 0, 1, ..., N−1) that the density difference between two points separated by a constant displacement δ = (r, θ) in the image of interest is k. Seeking
Then four types of features are calculated and the ultrasound image is characterized by those features. It can be satisfactorily extracted in comparison with a fine power spectrum of an image such as a texture.

【0079】次に、ランレングス行列は、画像中の角度
θ方向の濃度iの点がj個続く頻度Pθ(i,j),
(i=1,2,…,n−1、j=1,2,…,L)を要
素とするランレングス行列を求め、その行列から5種類
の特徴量を計算し、それらによって超音波画像を特徴づ
ける。超音波画像に特有のスペックルパターンを良好に
表現できる。また、同時生起行列は、注目する画像中で
一定変位δ=(r,θ)だけ離れた2点の濃度差がi,
jである確率Pδ(i,j),(i,j=0,1,…,
n−1)を求め、それから14種類の特徴を計算し、そ
れらによって超音波画像を特徴づける。詳しくは、「画
像解析ハンドブック」東京大学出版会のP521に差分
統計量、P522にランレングス行列、P518に同時
生起行列が説明されており、ここでの説明は省略する。
Next, the run-length matrix has a frequency Pθ (i, j), where j points of density i in the angle θ direction in the image continue.
A run-length matrix having (i = 1, 2, ..., N-1, j = 1, 2, ..., L) as elements is calculated, and five types of feature quantities are calculated from the matrix, and the ultrasonic image is calculated using them. Characterize. Speckle patterns unique to ultrasonic images can be expressed well. In the co-occurrence matrix, the density difference between two points separated by a constant displacement δ = (r, θ) in the image of interest is i,
Probability of being P j (i, j), (i, j = 0, 1, ...,
n-1) is calculated, and then 14 kinds of features are calculated, and the ultrasonic image is characterized by them. For details, the difference statistic is described in P521 of the “Image Analysis Handbook” of the University of Tokyo Press, the run-length matrix is described in P522, and the co-occurrence matrix is described in P518, and the description thereof is omitted here.

【0080】図13には前処理部46の構成を示す。こ
の前処理部46は、差分統計量検出器75と、該差分統
計量検出器75により得られた差分統計量S(x,y)
から4つの特徴量を検出する特徴量計算部76aと、ラ
ンレングス行列検出器77と、該ランレングス行列検出
器77により得られたランレングス行列R(x,y)か
ら5つの特徴量を算出する特徴量計算部76bとで構成
される。
FIG. 13 shows the configuration of the preprocessing section 46. The preprocessing unit 46 includes a difference statistic detector 75 and a difference statistic S (x, y) obtained by the difference statistic detector 75.
From the run length matrix detector 77a, the run length matrix detector 77, and the run length matrix R (x, y) obtained by the run length matrix detector 77. And a feature amount calculation unit 76b.

【0081】このように差分統計量、ランレングス行列
を用いると第1実施例のパワースペクトルに比べて、画
像のテクスチャパターンやスペックルパターンを有効に
検出することができ、分類精度を大幅に向上できる。
By using the difference statistic and the run length matrix as described above, the texture pattern and the speckle pattern of the image can be detected more effectively as compared with the power spectrum of the first embodiment, and the classification accuracy is greatly improved. it can.

【0082】また、図14には、別の構成例を示す。こ
の前処理部46は、前述したランレングス行列の代りに
同時生起行列を利用する。前処理部46は、差分統計量
検出器75と、特徴量計算器76aと、同時生起行列検
出器78と、該同時生起行列検出器78により得られた
14種類の特徴量を計算する特徴量計算器76cとで構
成される。同時生起行列は、テクスチャを特徴づける様
々な特徴を抽出するため、差分統計量と併用することに
より、さら分類精度を向上できる。
FIG. 14 shows another structural example. The pre-processing unit 46 uses a co-occurrence matrix instead of the run-length matrix described above. The pre-processing unit 46 calculates a difference statistic detector 75, a feature amount calculator 76a, a co-occurrence matrix detector 78, and a feature amount for calculating 14 types of feature amounts obtained by the co-occurrence matrix detector 78. It is composed of a calculator 76c. Since the co-occurrence matrix extracts various features that characterize the texture, the co-occurrence matrix can be used together with the difference statistic to further improve the classification accuracy.

【0083】なお、前述した3種類の特徴量(同時生起
行列、差分統計量、ランレングス行列)の1つだけを選
んで処理を行ってもよいし、それらの2つ以上の特徴量
を組み合わせて行っても良く、さらに前述したパワース
ペクトルと併せて用いてもよいことは当然である。
It should be noted that only one of the above-mentioned three types of feature quantities (coincidence matrix, difference statistic, run-length matrix) may be selected for processing, or two or more feature quantities may be combined. It goes without saying that it may be performed in combination with the power spectrum described above.

【0084】次に図15乃至図17を参照して、前述し
た第1実施例を変形した第4実施例について説明する。
ここで、前述した実施例と同等の部材には同じ参照符号
を付してその説明を省略する。
A fourth embodiment, which is a modification of the first embodiment described above, will now be described with reference to FIGS.
Here, the same members as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted.

【0085】医師は診断する際に、疑わしい領域をまず
見つけ、次にその疑わしい領域に注目して詳しく観察す
る。そこで、本実施例では、予め設定した所定の注目領
域をより精度よく処理する方法を提案する。
When making a diagnosis, the doctor first finds a suspicious area, and then pays attention to the suspicious area and closely observes it. Therefore, the present embodiment proposes a method of processing a predetermined predetermined attention area with higher accuracy.

【0086】図15(a)は、超音波画像中の分類判定
したい注目領域を示している。医師がまず疑わしいとし
た注目領域に相当している。本実施例では、この注目領
域を繰り返し複数回処理することにより精度の向上を図
る。
FIG. 15A shows a region of interest in the ultrasonic image for which classification determination is desired. It corresponds to the area of interest that the doctor first suspected. In this embodiment, the accuracy is improved by repeatedly processing the attention area multiple times.

【0087】図16,図17を用いて具体的に説明す
る。範囲指定部41より図15(a)に示す分類したい
範囲が入力される。この範囲が前述した注目領域に相当
する。次に、座標指定部79では、この注目領域の中か
ら分類判定する処理領域を順次指定する。この指定は例
えば、ランダムに行う。本実施例では、図15(b)に
示すように領域P1〜P8が指定された領域である。そ
して、処理領域P1の分類判定が行われ、続いて、P
2,P3,…,P8までの判定が行われ、各処理領域の
判定の結果から最終的な判定がなされる。本実施例の特
徴量計算部の処理概要は第1実施例の特徴量計算部と同
等であり、その説明を省略する。
This will be specifically described with reference to FIGS. 16 and 17. The range to be classified shown in FIG. 15A is input from the range designation unit 41. This range corresponds to the attention area described above. Next, the coordinate designation unit 79 sequentially designates a processing region for classification determination from this attention region. This designation is performed randomly, for example. In this embodiment, areas P1 to P8 are designated areas as shown in FIG. Then, the classification of the processing area P1 is determined, and then P
2, P3, ..., P8 are determined, and a final determination is made based on the determination result of each processing area. The processing outline of the feature amount calculation unit of the present embodiment is the same as that of the feature amount calculation unit of the first embodiment, and the description thereof is omitted.

【0088】分類判定部5の論理判定部80は、2値化
器81a〜81cと、累積加算器82a〜82cと、最
大値検出器83と、最終判定部84とによって構成され
る。ニューラルネットワーク56の出力は、2値化器8
1a〜81cで2値化が行われ、例えば、出力は0か1
かに変換される。分類判定を行いたい部分が正常部であ
る場合には、2値化器81aの出力は“1”、2値化器
81bの出力は“0”となり、累積加算器82a〜82
cによってそれぞれ加算されるように構成されている。
The logic judgment unit 80 of the classification judgment unit 5 is composed of binarizers 81a to 81c, cumulative adders 82a to 82c, a maximum value detector 83, and a final judgment unit 84. The output of the neural network 56 is the binarizer 8
Binarization is performed in 1a to 81c, for example, the output is 0 or 1.
Is converted to When the portion to be subjected to the classification determination is the normal portion, the output of the binarizer 81a becomes "1" and the output of the binarizer 81b becomes "0", and the cumulative adders 82a to 82a.
It is configured to be added by c.

【0089】そして、順次指定される領域に対して、分
類判定処理が行われ、ニューラルネットワークの出力に
応じて、累積加算器82a〜82cが累積加算される。
すべての領域P1〜P8までの処理終了時点で最大値検
出部83により累積加算器82a〜82cの出力から最
大値が算出される。この最大値によって最終判定部84
では、正常、異常部良性、異常部悪性等の分類が行われ
る。
Then, classification determination processing is performed on the sequentially designated areas, and cumulative additions 82a to 82c are cumulatively added according to the output of the neural network.
At the end of processing of all areas P1 to P8, the maximum value detection unit 83 calculates the maximum value from the outputs of the cumulative adders 82a to 82c. Based on this maximum value, the final determination unit 84
In, normal, abnormal part benign, abnormal part malignant, etc. are classified.

【0090】このように注目領域に対して、繰り返し複
数回分類判定した結果の最大値を利用することにより、
ノイズに対して頑健になり、より信頼性を向上できる。
なお、本実施例では、注目領域から8つの処理領域を指
定したが、これ以上により多く指定しても良いのは当然
である。また、本実施例では注目領域から複数の処理領
域を指定するようにしたが、前処理部においてヒストグ
ラムや同時生起行列やフラクタル次元等の組み合せの異
なる複数の特徴量で処理した結果の最大値を使用しても
良い。
As described above, by using the maximum value of the results of repeated classification determination for the attention area,
It is more robust against noise and can be more reliable.
In this embodiment, eight processing areas are designated from the attention area, but it is natural that more processing areas may be designated. Further, in the present embodiment, a plurality of processing regions are specified from the attention region, but the maximum value of the results of processing with a plurality of different feature amounts of combinations such as a histogram, co-occurrence matrix, and fractal dimension in the preprocessing unit is set. You may use it.

【0091】次に図18,図20,図21には、本発明
による第5実施例としての画像分類装置の構成を示し説
明する。この画像分類器は、第1実施例で示した画像分
類装置において実行モード中、必要に応じて分類データ
をバッファリングすることが可能なため、バッファリン
グされたデータを追加し、再学習できることを特徴とす
る。
Next, FIGS. 18, 20, and 21 show the structure of an image classification apparatus as a fifth embodiment according to the present invention, and will be described. Since this image classifier can buffer the classification data as needed during the execution mode in the image classification apparatus shown in the first embodiment, it is possible to add buffered data and re-learn. Characterize.

【0092】図18は、基本的な処理の流れを示したも
のである。実行モードにおいてはオペレータは、必要に
応じて、再学習できるようになっている。図20,図2
1に示す構成部材で図4,5に示す構成部材と同等の部
材には同じ参照符号を付してその説明を省略する。
FIG. 18 shows a basic processing flow. In the execution mode, the operator can relearn as needed. 20 and 2
The same members as those shown in FIGS. 4 and 5 among the members shown in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted.

【0093】オペレータは、範囲指定部41により分類
判定を行いたい範囲を指定する。次に、この範囲は、特
徴抽出部4の前処理部46によって所定の特徴量が算出
される。算出された特徴量P(u)は、多変量解析部4
7と追加教師データバッファ85に送られる。多変量解
析部47以降の処理内容は、図4に示す内容と同等であ
るので、説明を省略する。
The operator uses the range designating section 41 to specify the range in which classification determination is desired. Next, in this range, a predetermined feature amount is calculated by the preprocessing unit 46 of the feature extraction unit 4. The calculated feature amount P (u) is used as the multivariate analysis unit 4
7 and the additional teacher data buffer 85. Since the processing contents after the multivariate analysis unit 47 are the same as the contents shown in FIG. 4, description thereof will be omitted.

【0094】追加教師データバッファ85に送られた特
徴量P(u)は、バッファ制御部86により管理され
る。次にオペレータはまた別の範囲の分類判定を行う。
この動作を繰り返すことによって追加教師データバッフ
ァ85には、多数の特徴量がバッファリングされる。オ
ペレータが分類ベクトルや教師データの更新を行う場合
に、バッファ制御部86より学習制御部87に処理信号
が送られ、追加教師データバッファ85にファイリング
されている特徴量が教師データ入力部88に送られ、分
類ベクトル、教師データの更新が行われる。更新された
分類ベクトル、教師データは、オペレータの指示によっ
て分類ベクトルメモリ52若しくは、重みメモリ57に
記憶され、以後の分類判定に利用される。前記学習制御
部87は、教師データ入力部88、学習制御器89、分
類ベクトル演算部90、学習器91及び学習データメモ
リ92とで構成される。
The feature amount P (u) sent to the additional teacher data buffer 85 is managed by the buffer controller 86. Next, the operator makes another range of classification determination.
By repeating this operation, a large number of feature quantities are buffered in the additional teacher data buffer 85. When the operator updates the classification vector and the teacher data, the processing signal is sent from the buffer controller 86 to the learning controller 87, and the feature amount filed in the additional teacher data buffer 85 is sent to the teacher data input unit 88. Then, the classification vector and the teacher data are updated. The updated classification vector and teacher data are stored in the classification vector memory 52 or the weight memory 57 according to an operator's instruction, and are used for subsequent classification determination. The learning control unit 87 includes a teacher data input unit 88, a learning controller 89, a classification vector calculation unit 90, a learning device 91, and a learning data memory 92.

【0095】このように実行モード中に再学習できるこ
とによって分類精度を向上させることができる。また、
予め学習させておいた分類ベクトルのサンプル数が少な
い場合には、この機能によって新しく分類ベクトルを作
成し、学習をやり直すことができる。さらに、実行モー
ドで分類判定を行ったデータを有効利用できる。
As described above, it is possible to improve the classification accuracy by being able to re-learn during the execution mode. Also,
If the number of samples of the classification vector that has been learned in advance is small, a new classification vector can be created by this function and learning can be redone. Furthermore, the data that has been subjected to the classification determination in the execution mode can be effectively used.

【0096】次に本発明による第6実施例としての画像
分類装置について説明する。この実施例は、正常部と4
つの異常部(病変部α,β.γ,δ)の分類判定を行う
ものである。前述した第1実施例では、正常部と2つの
異常部(良性、悪性)を分類処理した。この場合に、分
類番号1番として正常部と異常部(悪性、良性)、分類
番号2番として異常部(悪性)と異常部(良性)を分類
し、分類番号1番の結果が異常の時のみ分類番号2番を
実行した。
Next, an image classification apparatus as a sixth embodiment according to the present invention will be described. In this example, 4
The classification of two abnormal parts (lesion parts α, β, γ, δ) is performed. In the above-described first embodiment, the normal part and the two abnormal parts (benign and malignant) are classified. In this case, normal part and abnormal part (malignant, benign) are classified as classification number 1, abnormal part (malignant) and abnormal part (benign) are classified as classification number 2, and when the result of classification number 1 is abnormal Only the classification number 2 was executed.

【0097】これに対して、本実施例では、正常部と4
つの異常部(病変部α,β.γ,δ)の計5種類の対象
の中から2つを選択する全組み合せの処理をフィードバ
ックで行い、その結果を総合的に判断して最終的に分類
判定することを特徴とする。図19(a)に示すよう
に、正常部と異常部αの分類処理を分類番号1番とす
る。正常部と異常部βの分類処理を分類番号2、以下同
様にして、異常部γと異常部δの分類を分類番号10と
する。分類番号1から10までをフィードバックで実行
し、その結果から最終的に判定する。
On the other hand, in this embodiment, the normal part and the normal part are
All abnormalities (lesions α, β. Γ, δ) are selected from 2 types of targets, and all combinations are selected by feedback, and the results are comprehensively judged and finally classified. It is characterized by judging. As shown in FIG. 19A, the classification process of the normal part and the abnormal part α is set to the classification number 1. The classification process of the normal part and the abnormal part β is classified as classification number 2, and similarly, the classification of the abnormal part γ and the abnormal part δ is defined as classification number 10. Classification numbers 1 to 10 are executed by feedback, and the final judgment is made from the result.

【0098】図19(b)は、5種類の対象の中から2
つを選択し、分類を行った結果を表している。分類数
は、分類対象が正常部と4つの異常部(病変部α,β.
γ,δ)に分類された回数を表し、この例では正常部の
回数が4回で最も大きいので分類対象は正常部として判
定される。本実施例では、2クラスの分類ベクトルを利
用しているために、分類性能が非常に高く、さらにフィ
ードバックを行うため回路規模が小さくて済む。
FIG. 19B shows 2 out of 5 types of targets.
One of them is selected and the result of classification is shown. As for the number of classifications, the classification target is a normal part and four abnormal parts (lesion parts α, β.
γ, δ) represents the number of times of classification, and in this example, the number of normal parts is four, which is the largest, so the classification target is determined to be a normal part. In this embodiment, since the classification vectors of two classes are used, the classification performance is very high, and further feedback is performed, so that the circuit scale can be small.

【0099】また、本実施例では、正常部と4つの異常
部、計5つのクラスの分類判定を行ったが、5つのクラ
ス以上のクラスに対応できるのは当然である。以上の実
施例に基づいて説明したが、本明細書には、以下のよう
な発明も含まれる。
Further, in the present embodiment, a total of five classes, that is, a normal part and four abnormal parts, are classified and judged, but it is natural that it is possible to correspond to five or more classes. Although the description has been given based on the above embodiment, the present invention also includes the following inventions.

【0100】(1) 分類すべき情報を入力する情報入
力手段と、前記情報入力手段により入力された情報の有
効領域とそれ以外の領域とを分割して、特徴情報を抽出
する特徴抽出手段と、少なくとも前記特徴抽出手段で抽
出された特徴情報に基づき情報の種別を判別し、この種
別毎に分類わけする分類判定手段とで構成される画像分
類装置を提供する。
(1) Information input means for inputting information to be classified, and characteristic extraction means for extracting characteristic information by dividing the effective area of the information input by the information input means and the other area. An image classification device is provided, which is configured to include at least a classification determination unit that determines the type of information based on the characteristic information extracted by the characteristic extraction unit and classifies the information for each type.

【0101】これにより、有効領域を自動的に抽出でき
るため、オペレータの処理を削減することができ、処理
効率を向上することができる。 (2) 分類すべき情報を入力する情報入力手段と、前
記情報入力手段により入力された情報から、パワースペ
クトル、差分統計量、同時生起行列、ランレングス行列
の中から少なくとも一つを使用して、特徴情報を抽出す
る特徴抽出手段と、少なくとも前記特徴抽出手段で抽出
された特徴情報に基づき情報の種別を判別し、この種別
毎に分類わけする分類判定手段とで構成された画像分類
装置を提供する。
As a result, since the effective area can be automatically extracted, the processing of the operator can be reduced and the processing efficiency can be improved. (2) Using at least one of a power spectrum, a difference statistic, a co-occurrence matrix, and a run-length matrix from the information input means for inputting information to be classified and the information input by the information input means. An image classification device including a feature extraction unit that extracts feature information, and a classification determination unit that determines at least the type of information based on the feature information extracted by the feature extraction unit and classifies the information for each type. provide.

【0102】これにより、画像の細かな特徴を抽出する
ことができるため、分類判定の精度を向上させることが
できる。 (3) 分類すべき情報を入力する情報入力手段と、前
記情報入力手段により入力された情報から特徴情報を抽
出する特徴抽出手段と、前記特徴抽出手段で抽出された
特徴情報を用いて特定領域を複数回分類判定し、この分
類結果によって最終的に分類わけする分類判定手段とで
構成された画像分類装置を提供する。
As a result, fine features of the image can be extracted, so that the accuracy of the classification determination can be improved. (3) Information input means for inputting information to be classified, feature extraction means for extracting feature information from the information input by the information input means, and specific area using the feature information extracted by the feature extraction means There is provided an image classification device configured by a classification determination unit that classifies a plurality of times and finally classifies based on the classification result.

【0103】これによりノイズに対して頑健になるた
め、分類判定の信頼性を向上することができる。 (4) 分類すべき情報を入力する情報入力手段と、前
記情報入力手段により入力された情報から特徴情報を抽
出する特徴抽出手段と、少なくとも前記特徴抽出手段で
抽出された特徴情報に基づき情報の種別を判定し、この
種別毎に分類わけする分類判定手段と、前記分類判定手
段の分類結果を用いて、前記特徴抽出手段及び、または
前記分類判定手段を再構築する学習手段とで構成された
画像分類装置を提供する。
This makes it robust against noise, so that the reliability of classification determination can be improved. (4) Information input means for inputting information to be classified, feature extraction means for extracting feature information from the information input by the information input means, and at least information based on the feature information extracted by the feature extraction means. It is configured by a classification determining unit that determines a type and classifies each type, and a learning unit that reconstructs the feature extracting unit and / or the classification determining unit using the classification result of the classification determining unit. An image classification device is provided.

【0104】これにより、分類判定の精度を向上させる
ことができ、さらに分類判定を行ったデータを有効に活
用することができる。 (5) 分類すべき情報を入力する情報入力手段と、前
記情報入力手段により入力された情報から特徴情報を抽
出する特徴抽出手段と、少なくとも前記特徴抽出手段で
抽出された特徴情報に基づき情報の種別を判定し、複数
の種別をフィードバックを繰り返すことによって、該種
別毎に分類わけする分類判定手段とで構成された画像分
類装置を提供する。これにより、分類性能を向上させる
ことができ、さらに、フィードバックを行うため回路規
模が小さくて済む。
As a result, the accuracy of the classification determination can be improved, and the data for which the classification determination has been performed can be effectively used. (5) Information input means for inputting information to be classified, feature extraction means for extracting feature information from the information input by the information input means, and information based on at least the feature information extracted by the feature extraction means. There is provided an image classification device configured by a classification determination unit that classifies each type and repeats feedback of a plurality of types. As a result, the classification performance can be improved, and the circuit scale can be reduced because feedback is performed.

【0105】[0105]

【発明の効果】以上詳述したように本発明によれば、入
力した画像において2値化や3次元表示だけでは抽出し
にくい部分をも適確に分類し、視覚的に分かり易く指示
することが可能な画像分類装置を提供することができ
る。
As described above in detail, according to the present invention, it is possible to accurately classify even a portion of an input image that is difficult to extract only by binarization or three-dimensional display, and give a visually easy-to-understand instruction. It is possible to provide an image classification device capable of performing the above.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1(a)は、本発明による画像分類装置にお
ける分類実行時の構成を示し、図1(b)は、分類を実
行するために先立って行う分類学習の構成を示す図であ
る。
FIG. 1 (a) is a diagram showing a configuration at the time of performing classification in an image classification device according to the present invention, and FIG. 1 (b) is a diagram showing a configuration of classification learning performed prior to performing classification. is there.

【図2】本発明による第1実施例としての画像分類装置
の画像入力装置に用いたコンベックス型超音波装置の前
半部の構成を示す図である。
FIG. 2 is a diagram showing a configuration of a first half portion of a convex type ultrasonic device used in the image input device of the image classification device according to the first embodiment of the present invention.

【図3】本発明による第1実施例としての画像分類装置
の画像入力装置に用いたコンベックス型超音波装置の後
半部の構成を示す図である。
FIG. 3 is a diagram showing the configuration of the latter half of the convex type ultrasonic device used in the image input device of the image classification device according to the first embodiment of the present invention.

【図4】図1に示したコンベックス型超音波装置を組み
入れた本発明による第1実施例の画像分類装置の構成例
(分類判定実行時)を示す図である。
FIG. 4 is a diagram showing a configuration example (at the time of performing classification determination) of an image classification device of a first embodiment according to the present invention, in which the convex type ultrasonic wave device shown in FIG. 1 is incorporated.

【図5】図4に示した画像分類装置における分類判定学
習時(学習モード)の構成を示す図である。
5 is a diagram showing a configuration during classification determination learning (learning mode) in the image classification device shown in FIG.

【図6】超音波の波形の補正を説明するための図であ
る。
FIG. 6 is a diagram for explaining correction of an ultrasonic waveform.

【図7】コンベックス型超音波装置の超音波画像の形態
を示す図である。
FIG. 7 is a diagram showing a form of an ultrasonic image of a convex type ultrasonic device.

【図8】超音波画像の抽出領域の形状を示す図である。FIG. 8 is a diagram showing a shape of an extraction region of an ultrasonic image.

【図9】投影演算器の構成例を示す図である。FIG. 9 is a diagram showing a configuration example of a projection calculator.

【図10】パワースペクトルP(u)を検出するパワー
スペクトル検出器の構成例と、分類方式を示す図であ
る。
FIG. 10 is a diagram showing a configuration example of a power spectrum detector for detecting a power spectrum P (u) and a classification method.

【図11】第2実施例としての画像分類装置における
θ,d算出器の構成例を示す図である。
FIG. 11 is a diagram showing a configuration example of a θ, d calculator in an image classification device as a second embodiment.

【図12】適応2値化処理によって診断臓器とそれ以外
の部分に領域分割する輪郭線抽出を行った状態を示す図
である。
FIG. 12 is a diagram showing a state in which a contour line extraction for performing region division into a diagnostic organ and other portions is performed by adaptive binarization processing.

【図13】第3実施例として画像分類装置における特徴
抽出部の前処理部の構成例を示す図である。
FIG. 13 is a diagram illustrating a configuration example of a preprocessing unit of a feature extraction unit in an image classification device as a third embodiment.

【図14】第3実施例における特徴抽出部の前処理部を
変形した構成例を示す図である。
FIG. 14 is a diagram showing a configuration example in which a preprocessing unit of the feature extraction unit in the third embodiment is modified.

【図15】図15(a)は、第4実施例としての画像分
類装置における超音波画像中の分類判定したい注目領域
を示す図、同図(b)は、分類判定したい指定された領
域を示す図である。
FIG. 15A is a diagram showing a region of interest in an ultrasonic image for which classification determination is to be performed in an image classification apparatus according to a fourth embodiment, and FIG. 15B is a diagram showing a specified region for which classification determination is desired. FIG.

【図16】第4実施例としての画像分類装置の2分割し
た一方の構成を示す図である。
FIG. 16 is a diagram showing a configuration of one of two divided image classification devices as a fourth embodiment.

【図17】第4実施例としての画像分類装置の2分割し
た他方の構成を示す図である。
FIG. 17 is a diagram showing the other two-divided configuration of an image classification device as a fourth embodiment.

【図18】第5実施例における実行モードと学習モード
の切り替えを説明するためのフローチャートのある。
FIG. 18 is a flowchart for explaining switching between the execution mode and the learning mode in the fifth embodiment.

【図19】第6実施例における分類番号を説明するため
の図、同図(b)は、5種類の対象の中から2つを選択
し、分類を行った結果を表す図である。
FIG. 19 is a diagram for explaining classification numbers in the sixth embodiment, and FIG. 19B is a diagram showing the results of classification by selecting two out of five types of targets.

【図20】第6実施例としての画像分類装置の2分割し
た一方の構成を示す図である。
FIG. 20 is a diagram showing a configuration of one of two divided image classification devices as a sixth embodiment.

【図21】第6実施例としての画像分類装置の2分割し
た他方の構成を示す図である。
FIG. 21 is a diagram showing the other half of the configuration of the image classification device as the sixth embodiment.

【符号の説明】[Explanation of symbols]

1…画像入力装置、2…ファイリング装置、3…ノーマ
ライズ部、4…特徴抽出部、5…分類判定部、6…表示
部、7…学習制御部、8…前処理部、9…多変量解析
部。
DESCRIPTION OF SYMBOLS 1 ... Image input device, 2 ... Filing device, 3 ... Normalization part, 4 ... Feature extraction part, 5 ... Classification determination part, 6 ... Display part, 7 ... Learning control part, 8 ... Preprocessing part, 9 ... Multivariate analysis Department.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 分類すべき情報を入力する情報入力手段
と、 前記情報入力手段により入力された情報の有効領域とそ
れ以外の領域とを分割して、特徴情報を抽出する特徴抽
出手段と、 少なくとも前記特徴抽出手段で抽出された特徴情報に基
づき情報の種別を判別し、この種別毎に分類わけする分
類判定手段と、を具備することを特徴とする画像分類装
置。
1. Information input means for inputting information to be classified, feature extraction means for dividing the effective area of the information input by the information input means and other areas, and extracting characteristic information. An image classification apparatus, comprising: at least a classification determination unit that determines the type of information based on the characteristic information extracted by the characteristic extraction unit and classifies the information for each type.
【請求項2】 分類すべき情報を入力する情報入力手段
と、 前記情報入力手段により入力された情報から、パワース
ペクトル、差分統計量、同時生起行列、ランレングス行
列の中から少なくとも一つを使用して、特徴情報を抽出
する特徴抽出手段と、 少なくとも前記特徴抽出手段で抽出された特徴情報に基
づき情報の種別を判別し、この種別毎に分類わけする分
類判定手段と、を具備することを特徴とする画像分類装
置。
2. Information input means for inputting information to be classified, and at least one of a power spectrum, a difference statistic, a co-occurrence matrix, and a run length matrix is used from the information input by the information input means. A feature extraction means for extracting feature information, and a classification determination means for determining the type of information based on at least the feature information extracted by the feature extraction means and classifying the information for each type. Characteristic image classification device.
【請求項3】 分類すべき情報を入力する情報入力手段
と、 前記情報入力手段により入力された情報から特徴情報を
抽出する特徴抽出手段と、 前記特徴抽出手段で抽出された特徴情報を用いて、特定
領域を複数回分類判定し、この分類結果によって最終的
に分類わけする分類判定手段と、を具備することを特徴
とする画像分類装置。
3. An information input unit for inputting information to be classified, a characteristic extraction unit for extracting characteristic information from the information input by the information input unit, and characteristic information extracted by the characteristic extraction unit. An image classification apparatus comprising: a classification determination unit that classifies a specific region a plurality of times and finally classifies the classification based on the classification result.
【請求項4】 分類すべき情報を入力する情報入力手段
と、 前記情報入力手段により入力された情報から特徴情報を
抽出する特徴抽出手段と、 少なくとも前記特徴抽出手段で抽出された特徴情報に基
づき情報の種別を判定し、この種別毎に分類わけする分
類判定手段と、 前記分類判定手段の分類結果を用いて、前記特徴抽出手
段及び、または前記分類判定手段を再構築する学習手段
と、 を具備することを特徴とする画像分類装置。
4. Information input means for inputting information to be classified, feature extraction means for extracting feature information from the information input by the information input means, and at least based on the feature information extracted by the feature extraction means. A classification determining unit that determines the type of information and classifies the information into different types; and a learning unit that reconstructs the feature extracting unit and / or the classification determining unit by using the classification result of the classification determining unit. An image classification device comprising:
【請求項5】 分類すべき情報を入力する情報入力手段
と、 前記情報入力手段により入力された情報から特徴情報を
抽出する特徴抽出手段と、 少なくとも前記特徴抽出手段で抽出された特徴情報に基
づき情報の種別を判定し、複数の種別をフィードバック
を繰り返すことによって、該種別毎に分類わけする分類
判定手段と、を具備することを特徴とする画像分類装
置。
5. An information input unit for inputting information to be classified, a characteristic extraction unit for extracting characteristic information from the information input by the information input unit, and at least based on the characteristic information extracted by the characteristic extraction unit. An image classification apparatus comprising: a classification determination unit that determines a type of information and repeats feedback of a plurality of types to classify the information for each type.
JP7095082A 1995-04-20 1995-04-20 Image sorting device Pending JPH08293025A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7095082A JPH08293025A (en) 1995-04-20 1995-04-20 Image sorting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7095082A JPH08293025A (en) 1995-04-20 1995-04-20 Image sorting device

Publications (1)

Publication Number Publication Date
JPH08293025A true JPH08293025A (en) 1996-11-05

Family

ID=14128031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7095082A Pending JPH08293025A (en) 1995-04-20 1995-04-20 Image sorting device

Country Status (1)

Country Link
JP (1) JPH08293025A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319870A (en) * 1996-05-08 1997-12-12 Daewoo Electron Co Ltd Texture video classification device
JP2002171519A (en) * 2000-11-29 2002-06-14 Yuutekku:Kk Infrared ray color image forming device
JP2012055493A (en) * 2010-09-08 2012-03-22 Toshiba Corp Image processor
JP2012187139A (en) * 2011-03-08 2012-10-04 Toshiba Corp Image processing apparatus
JPWO2015198713A1 (en) * 2014-06-27 2017-04-20 オリンパス株式会社 Ultrasonic observation apparatus, operation method of ultrasonic observation apparatus, and operation program of ultrasonic observation apparatus
WO2017086022A1 (en) * 2015-11-17 2017-05-26 ソニー株式会社 Information processing device, information processing method, and program
JP2018516703A (en) * 2015-06-12 2018-06-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for identifying cancer tissue
JP2019130236A (en) * 2018-02-02 2019-08-08 ゼネラル・エレクトリック・カンパニイ Ultrasonic diagnostic device and control program thereof
WO2019211896A1 (en) * 2018-05-01 2019-11-07 Eizo株式会社 Gauze detection system and gauze detection method
JP2020144700A (en) * 2019-03-07 2020-09-10 株式会社日立製作所 Diagnostic imaging apparatus, image processing method and program
CN112313702A (en) * 2018-06-27 2021-02-02 株式会社Cybo Display control apparatus, display control method, and display control program
WO2021152745A1 (en) * 2020-01-29 2021-08-05 オリンパス株式会社 Ultrasonic observation device, method for operating ultrasonic observation device, and program for operating ultrasonic observation device
JP2021133142A (en) * 2020-02-28 2021-09-13 株式会社日立製作所 Medical imaging apparatus, medical image processing apparatus and image processing program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319870A (en) * 1996-05-08 1997-12-12 Daewoo Electron Co Ltd Texture video classification device
JP2002171519A (en) * 2000-11-29 2002-06-14 Yuutekku:Kk Infrared ray color image forming device
JP2012055493A (en) * 2010-09-08 2012-03-22 Toshiba Corp Image processor
JP2012187139A (en) * 2011-03-08 2012-10-04 Toshiba Corp Image processing apparatus
JPWO2015198713A1 (en) * 2014-06-27 2017-04-20 オリンパス株式会社 Ultrasonic observation apparatus, operation method of ultrasonic observation apparatus, and operation program of ultrasonic observation apparatus
JP2018516703A (en) * 2015-06-12 2018-06-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for identifying cancer tissue
US10755168B2 (en) 2015-11-17 2020-08-25 Sony Corporation Information processing device and information processing method
WO2017086022A1 (en) * 2015-11-17 2017-05-26 ソニー株式会社 Information processing device, information processing method, and program
JP2019130236A (en) * 2018-02-02 2019-08-08 ゼネラル・エレクトリック・カンパニイ Ultrasonic diagnostic device and control program thereof
WO2019211896A1 (en) * 2018-05-01 2019-11-07 Eizo株式会社 Gauze detection system and gauze detection method
US11488304B2 (en) 2018-05-01 2022-11-01 Eizo Corporation Gauze detection system and gauze detection method
CN112313702A (en) * 2018-06-27 2021-02-02 株式会社Cybo Display control apparatus, display control method, and display control program
CN112313702B (en) * 2018-06-27 2023-12-29 株式会社Cybo Display control device, display control method, and display control program
JP2020144700A (en) * 2019-03-07 2020-09-10 株式会社日立製作所 Diagnostic imaging apparatus, image processing method and program
WO2021152745A1 (en) * 2020-01-29 2021-08-05 オリンパス株式会社 Ultrasonic observation device, method for operating ultrasonic observation device, and program for operating ultrasonic observation device
JP2021133142A (en) * 2020-02-28 2021-09-13 株式会社日立製作所 Medical imaging apparatus, medical image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
JP3974946B2 (en) Image classification device
US5520185A (en) Method for recognition and reduction of blood speckle in blood vessel imaging system
US6592523B2 (en) Computationally efficient noise reduction filter for enhancement of ultrasound images
US6193660B1 (en) Medical diagnostic ultrasound system and method for region of interest determination
US6760468B1 (en) Method and system for the detection of lung nodule in radiological images using digital image processing and artificial neural network
US7593561B2 (en) Computer-aided detection of microcalcification clusters
EP1101128B1 (en) Method and apparatus for spatial and temporal filtering of intravascular ultrasonic image data
US20030174890A1 (en) Image processing device and ultrasonic diagnostic device
JP2008544766A (en) Method for coding pixels or voxels of a digital image and method for processing a digital image
WO2011015952A1 (en) Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images
CN111583320B (en) Breast cancer ultrasonic image typing method and system fusing deep convolutional network and image omics characteristics and storage medium
US9076238B2 (en) Intelligent weighted blending for ultrasound image stitching
JPH08293025A (en) Image sorting device
JP2004033732A (en) System and method for post-processing of ultrasonic color doppler imaging
JPH1014864A (en) Diagnosis support device
CN113712594B (en) Medical image processing apparatus and medical imaging apparatus
US6744911B1 (en) Tomographic segmentation
JP4731599B2 (en) Image analysis and representation
CN117017347B (en) Image processing method and system of ultrasonic equipment and ultrasonic equipment
JP7014044B2 (en) Ultrasound diagnostic device
US11631160B2 (en) Image processing apparatus, image processing method, and X-ray CT apparatus
US11302438B2 (en) Analyzing apparatus and analyzing method
JP2003334194A (en) Image processing equipment and ultrasonic diagnostic equipment
JP3662835B2 (en) Ultrasonic diagnostic equipment
JP3460495B2 (en) Electronic image display method and electronic image display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050308