JP2012187139A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2012187139A
JP2012187139A JP2011050621A JP2011050621A JP2012187139A JP 2012187139 A JP2012187139 A JP 2012187139A JP 2011050621 A JP2011050621 A JP 2011050621A JP 2011050621 A JP2011050621 A JP 2011050621A JP 2012187139 A JP2012187139 A JP 2012187139A
Authority
JP
Japan
Prior art keywords
image data
region
evaluation
unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011050621A
Other languages
Japanese (ja)
Other versions
JP5624505B2 (en
Inventor
Hide Boku
英 朴
Bunpei Irie
文平 入江
Tomoyuki Hamamura
倫行 浜村
Masaya Maeda
匡哉 前田
Kenji Baba
賢二 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011050621A priority Critical patent/JP5624505B2/en
Publication of JP2012187139A publication Critical patent/JP2012187139A/en
Application granted granted Critical
Publication of JP5624505B2 publication Critical patent/JP5624505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Pathology (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Acoustics & Sound (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biochemistry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus for objectively classifying a subject into multiple regions and evaluating the classified regions.SOLUTION: The image processing apparatus includes a first calculation part, a first management part, a first evaluation part, a second calculation part, a second management part, and a second evaluation part. The first calculation part calculates feature amounts 0 from image data (S6). The first management part generates and manages an discriminator 0. The first evaluation part evaluates the feature amounts 0 by using the discriminator 0, classifies the image data into multiple region image data, and outputs them (S7-S9). The second calculation part calculates feature amounts i from the region image data. The second management part generates and manages an discriminator i. The second evaluation part evaluates the feature amounts i by using the discriminator i and outputs them.

Description

本発明の実施形態は、画像処理装置に関する。   Embodiments described herein relate generally to an image processing apparatus.

画像処理装置として、超音波診断装置等が知られている。超音波診断装置は、超音波パルス反射法により、被検体の表面から内部までの断層像を無侵襲に得る機器である。被検体が部品である場合、断層像から、部品を切断すること無しに、内部の情報(錆びの程度、欠陥等)を把握することができる。医療用においては、超音波診断装置を用いることにより、医師は、取得した画像から、肝臓等の臓器を対象とした疾病の重症度等、様々な診断情報を読み取ることができる。
上記のように、目視により上記の領域(錆、欠陥、病変等)を抽出する方法以外、次に挙げるような技術が提案されている。
As an image processing apparatus, an ultrasonic diagnostic apparatus or the like is known. An ultrasonic diagnostic apparatus is a device that non-invasively obtains a tomographic image from the surface to the inside of a subject by an ultrasonic pulse reflection method. When the object is a part, internal information (degree of rust, defects, etc.) can be grasped from the tomogram without cutting the part. In medical use, by using an ultrasonic diagnostic apparatus, a doctor can read various diagnostic information such as the severity of a disease targeting an organ such as a liver from an acquired image.
As described above, the following techniques have been proposed in addition to the method for visually extracting the above-described regions (rust, defects, lesions, etc.).

タイプ1:3次元情報を利用する技術である。3次元情報により、被検体内部の連続情報を抽出し、金属内部の疲労き裂や、肝臓内部の血管等を検出するものである。具体的には、予め撮られた3次元ボリュームデータから、エコー強度の差に基づいて領域を抽出ことにより、実質領域以外の領域等を抽出する方法である。   Type 1: A technology that uses three-dimensional information. Continuous information inside the subject is extracted from the three-dimensional information, and fatigue cracks inside the metal, blood vessels inside the liver, and the like are detected. Specifically, this is a method of extracting a region other than a substantial region by extracting a region from pre-photographed three-dimensional volume data based on a difference in echo intensity.

タイプ2:2次元画像の連続情報を利用する技術である。連続情報等を評価することで、材料内部のき裂、肝臓内部の血管を検出するものである。具体的には、境界から反射するエコー信号は連続的に繋がる特徴を利用する。   Type 2: A technique that uses continuous information of a two-dimensional image. By evaluating continuous information and the like, a crack inside the material and a blood vessel inside the liver are detected. Specifically, the echo signal reflected from the boundary uses a feature that is continuously connected.

特開2010−220775号公報JP 2010-220775 A 特開2004−215701号公報JP 2004-215701 A

ところで、上記タイプ1の技術では、3次元的なボリュームデータをベースにする手法であるため、一般的な2次元画像では応用できない問題がある。
上記タイプ2の技術では、き裂や血管の太さ、エコーの連続情報から判定するため、細い領域などを検出できない問題がある。上記検出できない場合は毛細血管の影響で肝臓の実質領域が粗く見える特徴があるため、毛細血管等の非実質領域を抽出することが非常に重要である。工業用超音波検査では、同様に微小な欠陥等検出することが、困難であり、問題である。
このため、被検体を複数の領域に客観的に分類することができ、分類した領域を評価することのできる画像処理装置が求められている。
By the way, since the type 1 technique is based on three-dimensional volume data, there is a problem that it cannot be applied to a general two-dimensional image.
The type 2 technique has a problem that a thin region cannot be detected because the determination is made based on crack, blood vessel thickness, and continuous echo information. If the above cannot be detected, there is a feature that the substantial area of the liver looks rough due to the influence of the capillary, so it is very important to extract the non-essential area such as the capillary. In industrial ultrasonic inspection, it is difficult and problematic to detect minute defects and the like.
For this reason, there is a need for an image processing apparatus that can objectively classify a subject into a plurality of regions and can evaluate the classified regions.

この発明は以上の点に鑑みなされたもので、その目的は、被検体を複数の領域に客観的に分類することができ、分類した領域を評価することのできる画像処理装置を提供することにある。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus capable of objectively classifying a subject into a plurality of areas and evaluating the classified areas. is there.

一実施形態に係る画像処理装置は、
複数の領域を含み被検体を撮像して得られる画像データが入力され、前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を算出する第1の演算部と、
前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を基に前記画像データを前記複数の領域画像データに分類するための指標を持つ識別器を作成し管理する第1の管理部と、
前記第1の演算部が算出した前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を、前記画像データを前記複数の領域画像データに分類するための指標を持つ識別器を用いて評価し、前記評価した結果に従って前記画像データを前記複数の領域画像データに分類し、前記分類した領域画像データを出力する第1の評価部と、
前記第1の評価部が分類した前記領域画像データから、前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を算出する第2の演算部と、
前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を基に前記領域画像データに対応する領域の状態を識別するための指標を持つ識別器を作成し管理する第2の管理部と、
前記第2の演算部が算出した前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を、前記領域画像データに対応する領域の状態を識別するための指標を持つ識別器を用いて評価し、前記評価した結果の情報を出力する第2の評価部とを備えることを特徴としている。
An image processing apparatus according to an embodiment includes:
A first arithmetic unit that receives image data obtained by imaging a subject including a plurality of regions, and calculates a feature amount that serves as an index for classifying the image data into the plurality of region image data;
Creating and managing a discriminator having an index for classifying the image data into the plurality of area image data based on a feature quantity serving as an index for classifying the image data into the plurality of area image data; The management department of
An identification having an index for classifying the image data into the plurality of region image data, and a feature amount serving as an index for classifying the image data calculated by the first arithmetic unit into the plurality of region image data A first evaluation unit that classifies the image data into the plurality of area image data according to the evaluation result, and outputs the classified area image data;
A second calculation unit that calculates a feature amount serving as an index for identifying a state of a region corresponding to the region image data from the region image data classified by the first evaluation unit;
Creating and managing a discriminator having an index for identifying the state of the region corresponding to the region image data based on a feature quantity serving as an index for identifying the state of the region corresponding to the region image data; The management department of
An identification having an index for identifying the state of the region corresponding to the region image data, as a feature quantity that is an index for identifying the state of the region corresponding to the region image data calculated by the second arithmetic unit And a second evaluation unit that outputs information on the result of the evaluation.

図1は、一実施形態に係る超音波診断システムを示すブロック図である。FIG. 1 is a block diagram illustrating an ultrasonic diagnostic system according to an embodiment. 図2は、上記超音波診断システムを用いて被検体を評価する場合の流れを説明するフロー図である。FIG. 2 is a flowchart for explaining the flow in the case where a subject is evaluated using the ultrasonic diagnostic system. 図3は、図2に続く、上記超音波診断システムを用いて被検体を評価する場合の流れを説明するフロー図である。FIG. 3 is a flowchart for explaining the flow when the subject is evaluated using the ultrasonic diagnostic system, following FIG. 図4は、図1に示した表示部の画面を示す図であり、画像データの一部の中から注目領域を選定した状態を表示している概略図である。FIG. 4 is a diagram showing the screen of the display unit shown in FIG. 1, and is a schematic diagram showing a state in which a region of interest is selected from a part of the image data. 図5は、上記表示部の画面を示す図であり、血管壁及び血液に重ねてブロックを表示している概略図である。FIG. 5 is a diagram showing a screen of the display unit, and is a schematic diagram displaying blocks on the blood vessel wall and blood. 図6は、図4及び図5に示した特徴領域内の特徴分布のイメージを示すヒストグラムである。FIG. 6 is a histogram showing an image of the feature distribution in the feature region shown in FIGS. 4 and 5. 図7は、図1に示した管理部が作成し管理する識別器0を示す概念図であり、高次特徴空間における3クラスの特徴量を表す図である。FIG. 7 is a conceptual diagram showing the discriminator 0 created and managed by the management unit shown in FIG. 1, and is a diagram showing feature quantities of three classes in the higher-order feature space. 図8は、上記管理部が作成し管理する識別器0を示す他の概念図であり、図7に示した3クラスの特徴量を1次元に投影して示す図である。FIG. 8 is another conceptual diagram illustrating the discriminator 0 created and managed by the management unit, and is a diagram in which the three classes of feature amounts illustrated in FIG. 7 are projected in one dimension. 図9は、上記表示部の画面を示す図であり、部品の断層像を示す図である。FIG. 9 is a diagram showing a screen of the display unit, and is a diagram showing a tomographic image of a part. 上記管理部が作成し管理する識別器iを示す概念図である。It is a conceptual diagram which shows the discriminator i which the said management part produces and manages. 上記管理部が作成し管理する識別器iを示す他の概念図である。It is another conceptual diagram which shows the discriminator i which the said management part produces and manages. 局所的二値パターンの例を示す概念図である。It is a conceptual diagram which shows the example of a local binary pattern. 局所的二値パターンの他の例を示す概念図である。It is a conceptual diagram which shows the other example of a local binary pattern. 局所的二値パターンの他の例を示す概念図である。It is a conceptual diagram which shows the other example of a local binary pattern. 局所的二値パターンの他の例を示す概念図である。It is a conceptual diagram which shows the other example of a local binary pattern. 局所的二値パターンの他の例を示す概念図である。It is a conceptual diagram which shows the other example of a local binary pattern. 肝臓の実質領域(内部組織)を評価した結果の情報を1次元で表示する場合の概念図である。It is a conceptual diagram in the case of displaying the information of the result of having evaluated the substantial area | region (internal tissue) of the liver in one dimension. 上記肝臓の実質領域を評価した結果の情報を2次元で表示する場合の概念図である。It is a conceptual diagram in the case of displaying the information of the result of having evaluated the substantial area | region of the said liver in two dimensions.

以下、図面を参照しながら一実施形態に係る画像処理装置について詳細に説明する。本実施形態の画像処理装置は、超音波診断装置である。このため、本実施形態では、超音波診断装置(画像処理装置)を超音波診断システム(画像処理システム)に組み込んで使用する場合を例に説明する。   Hereinafter, an image processing apparatus according to an embodiment will be described in detail with reference to the drawings. The image processing apparatus of this embodiment is an ultrasonic diagnostic apparatus. For this reason, in this embodiment, the case where an ultrasonic diagnostic apparatus (image processing apparatus) is incorporated and used in an ultrasonic diagnostic system (image processing system) will be described as an example.

図1に示すように、超音波診断システム1は、超音波診断装置2と、撮像部3と、設定部4と、表示部5とを備えている。超音波診断装置2は、演算部6と、管理部7と、評価部8とを備えている。   As shown in FIG. 1, the ultrasound diagnostic system 1 includes an ultrasound diagnostic apparatus 2, an imaging unit 3, a setting unit 4, and a display unit 5. The ultrasonic diagnostic apparatus 2 includes a calculation unit 6, a management unit 7, and an evaluation unit 8.

撮像部3は、超音波を利用して被検体を撮像することにより画像データを得るものである。超音波診断装置2を使用する場合、被検体は、筋肉、骨などを含む生体の一部や、血管、腫瘍、臓器実質などを含む臓器や、欠陥、錆びなどを含む部品など、超音波を利用して撮像可能であり、超音波画像特徴が異なる部分が含まれるものであればよい。   The imaging unit 3 obtains image data by imaging a subject using ultrasonic waves. When the ultrasonic diagnostic apparatus 2 is used, the subject is subject to ultrasonic waves such as a part of a living body including muscles and bones, an organ including blood vessels, tumors, and organ parenchyma, and parts including defects and rust. Any image can be used as long as it can be imaged and includes portions with different ultrasonic image characteristics.

演算部6には、被検体を撮像して得られる画像データが入力される。画像データは、複数の領域を含んでいる。例えば、患者の肝臓を主体とした画像データは、肝臓の実質領域(肝細胞)と、血管、血液及び腫瘍等の肝臓の非実質領域と、腎臓等の肝臓以外の臓器と、など、複数の領域を含んでいる。部品の画像データは、正常領域と、欠陥領域の複数の領域を含んでいる。   Image data obtained by imaging the subject is input to the calculation unit 6. The image data includes a plurality of areas. For example, image data mainly of a patient's liver includes a plurality of liver real areas (hepatocytes), non-parenchymal areas of the liver such as blood vessels, blood, and tumors, and organs other than the liver such as kidneys. Includes area. The image data of a part includes a normal area and a plurality of defect areas.

次に、画像データを複数の領域画像データに分類するための超音波診断システム1の構成(機能)について説明する。
演算部6は、入力される画像データから、画像データを複数の領域画像データに分類するための指標(パラメータ)となる特徴量(以下、特徴量0と称する)を算出するものである。管理部7は、演算部6が算出した特徴量0を基に、画像データを複数の領域画像データに分類するための指標を持つ識別器(以下、識別器0と称する)を作成し管理するものである。
Next, the configuration (function) of the ultrasonic diagnostic system 1 for classifying image data into a plurality of area image data will be described.
The calculation unit 6 calculates a feature amount (hereinafter referred to as a feature amount 0) as an index (parameter) for classifying the image data into a plurality of area image data from the input image data. The management unit 7 creates and manages a discriminator having an index for classifying image data into a plurality of area image data (hereinafter referred to as discriminator 0) based on the feature amount 0 calculated by the calculation unit 6. Is.

ここで、上述した画像データを複数の領域画像データに分類するための指標とは、画像データが持つ、領域を識別(テクスチャ識別(質感識別))することが可能な情報であればよい。例えば、患者の肝臓を主体とした画像データ用の指標としては、肝臓の形と、肝臓の内部に存在する血管や血液の輝度レベルや色味等と、を挙げることができる。その他、腎臓の形と、心臓の形と、筋肉の模様と、など、各種の指標であってもよい。部品の画像データ用の指標としては、腐蝕領域及び欠陥領域の輝度レベルや色味等を挙げることができる。   Here, the above-described index for classifying the image data into a plurality of area image data may be information that can identify the area (texture identification (texture identification)) included in the image data. For example, as an index for image data mainly composed of a patient's liver, the shape of the liver and the luminance level and color of blood vessels and blood existing in the liver can be exemplified. In addition, various indicators such as a kidney shape, a heart shape, and a muscle pattern may be used. Examples of the index for the image data of the component include the luminance level and color of the corrosion area and the defect area.

評価部8は、演算部6に評価対象の画像データが入力された際、演算部6が評価対象の画像データから算出した特徴量0を管理部7の識別器0を用いて評価する。そして、評価部8は、評価した結果に従って画像データを複数の領域画像データに分類し、分類した領域画像データを出力するものである。   When the evaluation target image data is input to the calculation unit 6, the evaluation unit 8 evaluates the feature amount 0 calculated by the calculation unit 6 from the evaluation target image data using the classifier 0 of the management unit 7. Then, the evaluation unit 8 classifies the image data into a plurality of area image data according to the evaluation result, and outputs the classified area image data.

設定部4は、超音波診断システム1の操作者による各種の設定を可能とするものである。設定部4を用いた設定の例を次にいくつか挙げる。
設定部4は、演算部6に、入力される画像データに対応した指標に関して算出させるように設定可能である。設定部4は、評価部8に、評価対象の画像データに対応した指標に関して評価させるように設定可能である。
The setting unit 4 enables various settings by the operator of the ultrasonic diagnostic system 1. Some examples of settings using the setting unit 4 are as follows.
The setting unit 4 can be set to cause the calculation unit 6 to calculate an index corresponding to input image data. The setting unit 4 can be set to cause the evaluation unit 8 to evaluate the index corresponding to the image data to be evaluated.

設定部4は、画像データの中から注目領域を選定し、演算部6に、画像データの注目領域に関して算出させるように設定可能である。設定部4は、評価部8に、評価対象の画像データの注目領域に関して評価させるように設定可能である。なお、注目領域は、隣合う複数の画素からなる少なくとも1つの画素群に対応している。   The setting unit 4 can be set so as to select a region of interest from the image data and cause the calculation unit 6 to calculate the region of interest of the image data. The setting unit 4 can be set to cause the evaluation unit 8 to evaluate the attention area of the image data to be evaluated. Note that the attention area corresponds to at least one pixel group including a plurality of adjacent pixels.

設定部4は、評価部8に、分類された複数の領域画像データを全て又は一部だけ出力させるように設定可能である。
設定部4は、評価部8に、特徴量0を示す情報を出力させるように設定可能であり、表示部5は、特徴量0を示す情報を表示することができる。
The setting unit 4 can be set so that the evaluation unit 8 outputs all or part of the plurality of classified area image data.
The setting unit 4 can be set to cause the evaluation unit 8 to output information indicating the feature amount 0, and the display unit 5 can display information indicating the feature amount 0.

次に、分類した領域(領域画像データ)の状態を評価するための超音波診断システム1の構成(機能)について説明する。
演算部6は、評価部8から入力される領域画像データから、領域画像データに対応する領域の状態を識別するための指標となる特徴量(以下、特徴量iと称する)を算出するものである。管理部7は、特徴量iを基に領域画像データに対応する領域の状態を識別するための指標を持つ識別器(以下、識別器iと称する)を作成し管理するものである。
Next, the configuration (function) of the ultrasonic diagnostic system 1 for evaluating the state of the classified region (region image data) will be described.
The calculation unit 6 calculates a feature amount (hereinafter referred to as a feature amount i) that serves as an index for identifying the state of the region corresponding to the region image data from the region image data input from the evaluation unit 8. is there. The management unit 7 creates and manages a discriminator (hereinafter referred to as discriminator i) having an index for identifying the state of the region corresponding to the region image data based on the feature quantity i.

評価部8は、演算部6に評価対象の領域画像データが入力された際、演算部6が評価対象の画像データから算出した特徴量iを、識別器iを用いて評価する。そして、評価部8は、評価した結果の情報を出力するものである。   When the evaluation target region image data is input to the calculation unit 6, the evaluation unit 8 evaluates the feature quantity i calculated from the evaluation target image data by using the classifier i. And the evaluation part 8 outputs the information of the result of evaluation.

設定部4は、超音波診断システム1の操作者による各種の設定を可能とするものである。設定部4を用いた設定の例を次にいくつか挙げる。
設定部4は、演算部6に、入力される領域画像データに対応した指標に関して算出させるように設定可能である。設定部4は、評価部8に、評価対象の領域画像データに対応した指標に関して評価させるように設定可能である。
The setting unit 4 enables various settings by the operator of the ultrasonic diagnostic system 1. Some examples of settings using the setting unit 4 are as follows.
The setting unit 4 can be set to cause the calculation unit 6 to calculate an index corresponding to the input region image data. The setting unit 4 can be set to cause the evaluation unit 8 to evaluate the index corresponding to the area image data to be evaluated.

設定部4は、領域画像データの中から注目領域を選定し、演算部6に、領域画像データの注目領域に関して算出させるように設定可能である。設定部4は、評価部8に、評価対象の領域画像データの注目領域に関して評価させるように設定可能である。なお、注目領域は、隣合う複数の画素からなる少なくとも1つの画素群に対応している。   The setting unit 4 can be set to select a region of interest from the region image data and cause the calculation unit 6 to calculate the region of interest of the region image data. The setting unit 4 can be set to cause the evaluation unit 8 to evaluate the attention area of the area image data to be evaluated. Note that the attention area corresponds to at least one pixel group including a plurality of adjacent pixels.

設定部4は、評価部8に、評価した結果の情報に限らず、評価対象の領域画像データ(領域画像データの注目領域)に関する各種の情報を出力させるようにも設定可能である。例えば、評価部8が複数種類の指標に関して評価し、評価した結果の情報が複数存在する場合、設定部4は、評価部8に、評価した結果の情報を、1種類又は複数種類、出力させるように設定可能であり、表示部5は、評価した結果の情報を、1種類又は複数種類、表示することができる。また、設定部4は、評価部8に、評価した結果の情報と併せて評価対象の領域画像データ(原データ)を出力させ、表示部5に表示させてもよい。   The setting unit 4 can be set to cause the evaluation unit 8 to output various types of information related to the evaluation target region image data (the region of interest of the region image data), as well as the evaluation result information. For example, when the evaluation unit 8 evaluates a plurality of types of indicators and there are a plurality of pieces of evaluation result information, the setting unit 4 causes the evaluation unit 8 to output one or more types of evaluation result information. The display unit 5 can display one type or a plurality of types of evaluation result information. In addition, the setting unit 4 may cause the evaluation unit 8 to output the evaluation target region image data (original data) together with the evaluation result information, and display it on the display unit 5.

設定部4は、評価部8に、特徴量iを示す情報を出力させるように設定可能であり、表示部5は、特徴量iを示す情報を表示することができる。
設定部4は、評価部8に、分類された複数の領域画像データに関する評価した結果の情報を、統合して出力させるように設定可能であり、表示部5は、統合された情報を表示することができる。
The setting unit 4 can be set to cause the evaluation unit 8 to output information indicating the feature quantity i, and the display unit 5 can display information indicating the feature quantity i.
The setting unit 4 can be set so that the evaluation unit 8 integrates and outputs the evaluation result information regarding the plurality of classified area image data, and the display unit 5 displays the integrated information. be able to.

なお、表示部5は、評価部8から評価した結果の情報が入力される。表示部5は、評価部8が評価した結果の情報を表示可能である。
上述したことから、操作者(超音波検査師、医師等)は、評価部8が評価(診断)した結果の情報を視認したりすることができる。その他、表示部5は、演算部6が被検体を撮像して得られる画像データを用い、被検体の画像を表示することもできる。
The display unit 5 is input with information on the result of evaluation from the evaluation unit 8. The display unit 5 can display information on the result of evaluation by the evaluation unit 8.
As described above, an operator (an ultrasonic examiner, a doctor, or the like) can visually recognize information as a result of evaluation (diagnosis) by the evaluation unit 8. In addition, the display unit 5 can also display an image of the subject using image data obtained by the computing unit 6 imaging the subject.

なお、画像データを複数の領域画像データに分類するための設定部4と演算部6と管理部7と評価部8と、分類した領域(領域画像データ)の状態を評価するための設定部4と演算部6と管理部7と評価部8とは共有することができるため、同じ符号にて説明を行っているが、それぞれを別々に有していても良い。   Note that a setting unit 4 for classifying image data into a plurality of region image data, a calculation unit 6, a management unit 7, an evaluation unit 8, and a setting unit 4 for evaluating the state of the classified region (region image data). Since the calculation unit 6, the management unit 7, and the evaluation unit 8 can be shared, they are described with the same reference numerals, but they may be provided separately.

次に、上記超音波診断システム1を用いて被検体を分類及び評価する場合の流れを説明する。
図1及び図2に示すように、超音波診断システム1を用いた被検体の分類及び評価が開始されると、まず、ステップS1において、撮像部3は、撮像した被検体の画像データを演算部6に入力する。言うまでも無いが、画像データが複数の領域を含むことを前提としたものである。
Next, a flow when classifying and evaluating a subject using the ultrasonic diagnostic system 1 will be described.
As shown in FIGS. 1 and 2, when the classification and evaluation of the subject using the ultrasonic diagnostic system 1 is started, first, in step S1, the imaging unit 3 calculates the image data of the captured subject. Input to part 6. Needless to say, it is assumed that the image data includes a plurality of regions.

続くステップS2において、必要に応じて、設定部4は、演算部6及び評価部8を設定することにより、撮像した画像データを表示部5に表示させ、画像データの中から注目領域を選定してもよい。これにより、分類及び評価する個所を予め選定することができる。   In subsequent step S2, as necessary, the setting unit 4 displays the captured image data on the display unit 5 by setting the calculation unit 6 and the evaluation unit 8, and selects a region of interest from the image data. May be. Thereby, the location to be classified and evaluated can be selected in advance.

次いで、ステップS3において、必要に応じて、設定部4は、画像データ(画像データの注目領域)に対応した指標に関して、演算部6に算出させ、評価部8に評価させるように、演算部6及び評価部8を設定してもよい。この際、設定部4は、画像データ(画像データの注目領域)に適した指標に関して、演算部6に算出させ、評価部8に評価させるように、演算部6及び評価部8を設定した方が好ましい。   Next, in step S3, as necessary, the setting unit 4 causes the calculation unit 6 to calculate the index corresponding to the image data (the attention area of the image data) and cause the evaluation unit 8 to evaluate the index. And the evaluation part 8 may be set. At this time, the setting unit 4 sets the calculation unit 6 and the evaluation unit 8 so that the calculation unit 6 calculates and evaluates the index suitable for the image data (the attention area of the image data). Is preferred.

例えば、同じ種類の画像データを同じ指標に関して、同様に分類することを前提とした場合、ステップS3の工程を用いなくともよい。一方、分類する度に、画像データの種類が同じとは決まっていなかったり、指標を異ならせたりする場合、ステップS3の工程を用いることが効果的である。   For example, when it is assumed that the same type of image data is classified in the same manner with respect to the same index, the step S3 may not be used. On the other hand, if the type of image data is not determined to be the same every time classification is performed, or the index is changed, it is effective to use the step S3.

その後、ステップS4において、必要に応じて、設定部4は、画像データ(画像データの注目領域)を複数の領域画像データに分類した後、分類された領域画像データを全て又は一部だけ出力させるように、評価部8を設定してもよい。例えば、肝臓を主体とする画像データであって、肝臓内部の血管についてのみ評価したい場合、肝臓の実質領域、肝臓内部の血管及び血液、肝臓以外の臓器、など、複数の領域の画像データ(領域画像データ)に分類した後、肝臓内部の血管の画像データ(領域画像データ)のみを出力させるように設定部4により設定することが効果的である。   Thereafter, in step S4, the setting unit 4 classifies the image data (the attention area of the image data) into a plurality of area image data, and then outputs all or part of the classified area image data as necessary. As described above, the evaluation unit 8 may be set. For example, if the image data is mainly the liver and you want to evaluate only the blood vessels inside the liver, the image data (regions) of multiple regions, such as the real region of the liver, blood vessels and blood inside the liver, organs other than the liver, etc. It is effective to set by the setting unit 4 so that only the image data (region image data) of blood vessels inside the liver is output after being classified into (image data).

続くステップS5において、必要に応じて、設定部4は、特徴量0を算出した後、特徴量0を示す情報を、評価部8に出力させ、表示部5に表示させるように、評価部8を設定してもよい。これにより、超音波診断システム1を用いて被検体を客観的に分類するだけではなく、操作者による被検体の主観的な分類を可能としたり、超音波診断システム1による被検体の客観的な分類を見直したり、することが可能となる。   In subsequent step S5, the setting unit 4 calculates the feature amount 0 as necessary, and then causes the evaluation unit 8 to output information indicating the feature amount 0 to the evaluation unit 8 and display the information on the display unit 5. May be set. Thereby, not only the subject is objectively classified using the ultrasonic diagnostic system 1 but also the subject can be subjectively classified by the operator, or the subject can be objectively classified by the ultrasonic diagnostic system 1. The classification can be reviewed and done.

次いで、ステップS6において、演算部6は、画像データ(画像データの注目領域)から特徴量0を算出した後、ステップS7において、評価部8は、算出された特徴量0を管理部7の識別器0を用いて評価する。続いて、ステップS8において、評価部8は、評価した結果に従って、画像データ(画像データの注目領域)を複数(n個)の領域画像データに分類する。なお、nは、2以上の自然数である。   Next, in step S6, the calculation unit 6 calculates the feature amount 0 from the image data (the attention area of the image data), and then in step S7, the evaluation unit 8 identifies the calculated feature amount 0 by the management unit 7. Evaluate using vessel 0. Subsequently, in step S8, the evaluation unit 8 classifies the image data (the attention area of the image data) into a plurality (n) of area image data according to the evaluation result. Note that n is a natural number of 2 or more.

その後、ステップS9において、評価部8は、分類した複数の領域画像データを全て出力する。この際、上記ステップS4での設定部4を用いた設定の内容に応じて、評価部8は、分類した領域画像データを全て又は一部だけ出力することができる。   Thereafter, in step S9, the evaluation unit 8 outputs all the plurality of classified area image data. At this time, the evaluation unit 8 can output all or only part of the classified area image data according to the setting contents using the setting unit 4 in step S4.

図1及び図3に示すように、続くステップS10において、必要に応じて、設定部4は、評価部8を設定することにより、領域画像データiを表示部5に表示させ、領域画像データiの中から注目領域を選定してもよい。これにより、評価する個所を予め選定することができる。   As shown in FIGS. 1 and 3, in the subsequent step S <b> 10, the setting unit 4 displays the region image data i on the display unit 5 by setting the evaluation unit 8 as necessary, so that the region image data i is displayed. A region of interest may be selected from the list. Thereby, the location to be evaluated can be selected in advance.

次いで、ステップS11において、必要に応じて、設定部4は、領域画像データi(領域画像データの注目領域)に対応した指標に関して、演算部6に算出させ、評価部8に評価させるように、演算部6及び評価部8を設定してもよい。この際、設定部4は、領域画像データi(領域画像データの注目領域)に適した指標に関して、演算部6に算出させ、評価部8に評価させるように、演算部6及び評価部8を設定した方が好ましい。   Next, in step S11, as necessary, the setting unit 4 causes the calculation unit 6 to calculate and evaluate the evaluation unit 8 with respect to the index corresponding to the region image data i (the region of interest of the region image data). You may set the calculating part 6 and the evaluation part 8. FIG. At this time, the setting unit 4 causes the calculation unit 6 and the evaluation unit 8 to calculate the index suitable for the region image data i (the region of interest of the region image data) and cause the evaluation unit 8 to evaluate the index. It is preferable to set.

例えば、演算部6及び評価部8の自動認識処理により、領域画像データi(領域画像データの注目領域)に対応した指標に関して、演算部6が算出でき、評価部8が評価できる場合、ステップS11の工程を用いなくともよい。一方、算出及び評価する度に、領域画像データi(領域画像データの注目領域)に対応した指標をカスタマイズする場合、など、ステップS11の工程を用いることが効果的である。   For example, when the calculation unit 6 can calculate the index corresponding to the region image data i (the attention area of the region image data) by the automatic recognition processing of the calculation unit 6 and the evaluation unit 8 and the evaluation unit 8 can evaluate, step S11 It is not necessary to use this process. On the other hand, it is effective to use the step S11, such as when an index corresponding to the region image data i (region of interest of the region image data) is customized every time it is calculated and evaluated.

続くステップS12において、必要に応じて、設定部4は、特徴量iを算出した後、特徴量iを示す情報を、評価部8に出力させ、表示部5に表示させるように、評価部8を設定してもよい。これにより、超音波診断システム1を用いて領域画像データi(領域画像データの注目領域)を客観的に評価するだけではなく、操作者による領域画像データi(領域画像データの注目領域)の主観的な評価を可能としたり、超音波診断システム1による領域画像データi(領域画像データの注目領域)の客観的な評価を見直したり、することが可能となる。   In subsequent step S <b> 12, the setting unit 4 calculates the feature quantity i and outputs the information indicating the feature quantity i to the evaluation unit 8 and displays it on the display unit 5 as necessary. May be set. Thereby, not only the region image data i (region of interest of region image data) is objectively evaluated using the ultrasonic diagnostic system 1, but also the subjective evaluation of the region image data i (region of interest of region image data) by the operator. Evaluation can be performed, and objective evaluation of the region image data i (region of interest of region image data) by the ultrasonic diagnostic system 1 can be reviewed.

次いで、ステップS13において、演算部6は、領域画像データi(領域画像データの注目領域)から特徴量iを算出した後、ステップS14において、評価部8は、算出された特徴量iを管理部7の識別器iを用いて評価する。続いて、ステップS15において、評価部8は、領域画像データi(領域画像データの注目領域)に関して評価した結果の情報を出力し、評価した結果の情報を表示部5に表示する。   Next, after calculating the feature amount i from the region image data i (region of interest of the region image data) in step S13, the evaluation unit 8 uses the management unit to calculate the calculated feature amount i in step S14. 7 is used for evaluation. Subsequently, in step S <b> 15, the evaluation unit 8 outputs information on the result of evaluation regarding the region image data i (region of interest of the region image data), and displays the information on the evaluation result on the display unit 5.

これにより、超音波診断システム1を用いて領域画像データi(領域画像データの注目領域)を客観的に評価することができる。なお、上記ステップS15において、設定部4は、表示部5に、領域画像データi(領域画像データの注目領域)から算出した特徴量iを示す情報を表示させるように設定してもよい。   Thereby, the area | region image data i (region of interest of area | region image data) can be objectively evaluated using the ultrasonic diagnostic system 1. FIG. In step S15, the setting unit 4 may set the display unit 5 to display information indicating the feature amount i calculated from the region image data i (the region of interest of the region image data).

また、上記ステップS15において、設定部4は、評価部8に、評価した結果の情報に限らず、評価対象の領域画像データ(領域画像データの注目領域)に関する各種の情報を出力させるようにも設定可能である。これにより、操作者による領域画像データi(領域画像データの注目領域)の多角的な評価が可能となる。   Further, in step S15, the setting unit 4 causes the evaluation unit 8 to output various types of information related to the evaluation target region image data (the attention region of the region image data) as well as the evaluation result information. It can be set. Thereby, the operator can perform multi-faceted evaluation of the area image data i (the attention area of the area image data).

その後、ステップS16において、管理部7及び評価部8は、評価対象の全ての領域画像データi(領域画像データの注目領域)の評価が完了したのかどうか、すなわちi=mであるのかどうかを判断する。なお、iであるが、最初は1に設定されている(i=1)。また、mは、評価対象の領域画像データi(領域画像データの注目領域)の個数であり、n以下の自然数である。   Thereafter, in step S16, the management unit 7 and the evaluation unit 8 determine whether the evaluation of all the region image data i to be evaluated (the attention region of the region image data) has been completed, that is, whether i = m. To do. Note that i is set to 1 at first (i = 1). Further, m is the number of region image data i to be evaluated (region of interest in region image data), and is a natural number equal to or less than n.

評価が全て完了していない場合、すなわちi<mである場合(ステップS16)、管理部7及び評価部8は、iをカウントアップし(i++)、ステップS10に移行し、ステップS10乃至S15を繰り返す。評価が全て完了した場合、すなわちi=mである場合(ステップS16)、ステップS17に移行する。   When all the evaluations are not completed, i.e., when i <m (step S16), the management unit 7 and the evaluation unit 8 increment i (i ++), proceed to step S10, and perform steps S10 to S15. repeat. When all the evaluations are completed, i.e., i = m (step S16), the process proceeds to step S17.

例えば、画像データを5個の領域画像データ(領域)に分類し複数(n=5)、この内、2個の領域画像データ(領域)を評価対象とする(m=2)場合であっては、領域画像データ1(i=1)に関してステップS10乃至S15を進め、次いで領域画像データ2(i=2)に関してステップS10乃至S15を進めた後、ステップS17に移行する。   For example, the image data is classified into five area image data (areas), and a plurality (n = 5) of which two area image data (areas) are to be evaluated (m = 2). Advances step S10 to S15 for region image data 1 (i = 1), and then advances to steps S10 to S15 for region image data 2 (i = 2), and then proceeds to step S17.

続いて、ステップS17において、必要に応じて、設定部4は、評価部8に、分類された複数の領域画像データi(領域画像データの注目領域)に関して評価した結果の情報を、統合して出力させるように設定してもよく、これにより表示部5に統合された情報を表示させることができる。これにより、操作者は、複数の領域画像データi(領域画像データの複数の注目領域)をまとめて評価することが可能となる。
上記のことから、超音波診断システム1を用いた被検体の分類及び評価が終了する。
Subsequently, in step S <b> 17, the setting unit 4 integrates information on the results of evaluation regarding the plurality of classified region image data i (region of interest of region image data) into the evaluation unit 8 as necessary. You may set so that it may output, and, thereby, the information integrated on the display part 5 can be displayed. Thus, the operator can collectively evaluate a plurality of area image data i (a plurality of attention areas of the area image data).
From the above, the classification and evaluation of the subject using the ultrasonic diagnostic system 1 are completed.

次に、上記超音波診断システム1を用いて肝臓を主体とする画像データを複数の領域画像データに分類する場合について説明する。ここでは、撮像された画像データを表示部5に表示し、画像データの中から注目領域を選定している。また、評価対象の領域が肝臓の実質領域であり、肝臓の実質領域の画像データ(領域画像データ)のみ出力するものである。このため、肝臓の実質領域以外の領域(領域画像データ)については排除するものである。   Next, a case will be described in which image data mainly including the liver is classified into a plurality of region image data using the ultrasonic diagnostic system 1. Here, the captured image data is displayed on the display unit 5, and a region of interest is selected from the image data. Further, the evaluation target area is a liver real area, and only image data (area image data) of the liver real area is output. For this reason, regions (region image data) other than the substantial region of the liver are excluded.

図4は、表示部5の画面を示す図であり、画像データの一部の中から注目領域を選定した状態を表示している概略図である。なお、注目領域を選定するため、表示部5に、予め超音波を利用して肝臓内部組織を撮像することにより得た画像データを用いて肝臓内部組織を表示している。   FIG. 4 is a diagram showing a screen of the display unit 5, and is a schematic diagram showing a state in which a region of interest is selected from a part of the image data. In order to select a region of interest, the liver internal tissue is displayed on the display unit 5 using image data obtained by imaging the liver internal tissue using ultrasound in advance.

患者の肝臓内部組織を撮像した場合、表示される画像(画像データ)には、肝臓以外の臓器や背景等が含まれている。また、肝臓は血管豊富な臓器である。このため、医師は、表示部5に表示される画像を基に、画像(画像データ)の中から肝臓以外の臓器、背景、肝臓の血管等を除いて肝臓の実質領域を選定するよう、設定部4の設定を操作する。これにより、診断(評価)対象となる肝臓の実質領域の画像データ(領域画像データ)を自動的に分類し、出力することができる。   When a patient's liver internal tissue is imaged, the displayed image (image data) includes an organ other than the liver, a background, and the like. The liver is an organ rich in blood vessels. For this reason, the setting is made so that the doctor selects a substantial region of the liver from the image (image data) excluding organs other than the liver, background, blood vessels of the liver, and the like based on the image displayed on the display unit 5. Operate the settings in section 4. Thereby, the image data (region image data) of the substantial region of the liver to be diagnosed (evaluated) can be automatically classified and output.

超音波診断システム1を用いた肝臓の実質領域、非実質領域の自動的な分類は次のようにして行われる。
肝臓の超音波断層図では、血液など肝臓の実質領域より軟らかい部分のエコー輝度(輝度レベル)が低く、血管壁など肝臓の実質領域より硬い部分のエコー輝度が高い特徴がある。このため、テクスチャ解析によりこのような特徴を抽出するものである。
The automatic classification of the liver parenchymal region and non-parenchymal region using the ultrasonic diagnostic system 1 is performed as follows.
In the ultrasonic tomogram of the liver, there is a feature that the echo luminance (brightness level) of the softer part of the liver such as blood is lower and the echo brightness of the harder part of the liver such as the blood vessel wall is higher. For this reason, such features are extracted by texture analysis.

例えば、小さいブロック毎、輝度をベースとする特徴量を抽出(算出)する。なお、各ブロックは、隣合う複数の画素からなる画素群に相当する。ブロックの形状は、矩形状に限られるものではなく種々変形可能であり、例えば扇形状、円形状、楕円形状であってもよい。ブロック(画素群)のサイズも限定されるものではなく種々変形可能である。そして、各ブロック内の輝度レベルの平均値や分散値を算出する。   For example, feature values based on luminance are extracted (calculated) for each small block. Each block corresponds to a pixel group including a plurality of adjacent pixels. The shape of the block is not limited to a rectangular shape and can be variously modified. For example, it may be a fan shape, a circular shape, or an elliptical shape. The size of the block (pixel group) is not limited and can be variously modified. Then, an average value and a variance value of luminance levels in each block are calculated.

血液の部分は、輝度値が低く且つ滑らかである特徴を示すため、輝度値が低く且つ分散値が低いブロックが、血液の領域であることを推定することができる。また、血管壁の部分及び毛細血管の部分は、輝度値が高く周囲画素との輝度差が激しい特徴を示すため、輝度値が高く且つ分散値が高いブロックが、血管壁や毛細血管であることを推定することができる。   Since the blood portion shows a characteristic that the luminance value is low and smooth, it can be estimated that a block having a low luminance value and a low variance value is a blood region. In addition, since the blood vessel wall portion and the capillary blood vessel portion have a high luminance value and a characteristic in which the luminance difference from surrounding pixels is severe, a block having a high luminance value and a high variance value is a blood vessel wall or a capillary vessel. Can be estimated.

図5は、表示部5の画面を示す図であり、注目領域内の血管壁及び血液に重ねてブロックを表示している概略図である。図5に示すように、血管壁や血液である肝臓の非実質領域に重ねてブロックを表示することができる。ここで、上記分散値が低いブロックとは、画素間の輝度値のばらつきの小さいブロック(画素群)のことである。また、分散値が高いブロックとは、画素間の輝度値のばらつきの大きいブロック(画素群)のことである。   FIG. 5 is a diagram showing a screen of the display unit 5, and is a schematic diagram displaying blocks overlaid on the blood vessel wall and blood in the region of interest. As shown in FIG. 5, blocks can be displayed so as to overlap the non-substantial region of the liver, which is a blood vessel wall or blood. Here, the block having a low variance value is a block (pixel group) having a small variation in luminance value between pixels. A block having a high variance value is a block (pixel group) having a large variation in luminance value between pixels.

次に、算出した特徴量0により、血管領域を分類(抽出)するなど、肝臓の実質領域、非実質領域を分類(抽出)する方法について説明する。
図6は、図4及び図5に示した特徴領域内の特徴分布のイメージを示すヒストグラムである。図6に示すように、輝度値が高く且つ分散値が高い領域、中間領域、輝度値が低く且つ分散値が低い領域を分離できれば、肝臓の実質領域と、血管壁及び血液等の肝臓の非実質領域と、を分離(分類)することができる。
Next, a method for classifying (extracting) a substantial region and a non-substantial region of the liver, such as classifying (extracting) a blood vessel region based on the calculated feature amount 0, will be described.
FIG. 6 is a histogram showing an image of the feature distribution in the feature region shown in FIGS. 4 and 5. As shown in FIG. 6, if a region having a high luminance value and a high variance value, an intermediate region, and a region having a low luminance value and a low variance value can be separated, the liver real region and non-liver such as blood vessels and blood The real area can be separated (classified).

分離(分類)方法としては、主成分分析法(PCA:Principal Component Analysis)、大津法、P−tile法などが挙げられる。例えば、主成分分析法により分離(分類)する場合、算出した特徴量を主成分分析法により分離度が最大になる識別特徴軸を抽出するものである。   Examples of the separation (classification) method include principal component analysis (PCA), Otsu method, and P-tile method. For example, in the case of separation (classification) by the principal component analysis method, an identification feature axis that maximizes the degree of separation is extracted from the calculated feature amount by the principal component analysis method.

図7は、管理部7が作成し管理する識別器0を示す概念図である。図8は、管理部7が作成し管理する識別器0を示す他の概念図である。図7では、高次特徴空間における3クラスの特徴量を表している。更に、1次元に投影すると、図8で示す分布になる。   FIG. 7 is a conceptual diagram showing the discriminator 0 created and managed by the management unit 7. FIG. 8 is another conceptual diagram showing the discriminator 0 created and managed by the management unit 7. FIG. 7 shows feature amounts of three classes in the higher-order feature space. Further, when projected in one dimension, the distribution shown in FIG. 8 is obtained.

ここで、画像データ(画像データの注目領域)から算出した特徴量を上記で算出した識別特徴軸に投影すると、各クラスへの距離を算出可能である。各クラスへの距離の計算では、ユークリッド距離の計算でも良く、マハラノビス距離の計算でも良い。算出した一番近い距離により、クラスへ分類することができる。   Here, the distance to each class can be calculated by projecting the feature amount calculated from the image data (the attention area of the image data) onto the identification feature axis calculated above. In calculating the distance to each class, the Euclidean distance may be calculated, or the Mahalanobis distance may be calculated. It is possible to classify into classes based on the calculated nearest distance.

また、図6で示す特徴分布イメージでは、P−tile法により設定した閾値を用いて、輝度値が高く且つ分散値が高い領域を分離することができるし、更に輝度値が低く且つ分散値が低い領域を分離することもできる。また、大津法を用いて、中間特徴量の最頻値を求め、更に輝度値が高く且つ分散値が高い領域を分離するために分離度が一番高い閾値を算出することができる。同様に、輝度値が低く且つ分散値が低い領域を分離するための閾値を算出することもできる。算出した2つ閾値を用いて、3クラスの分類ができて、血管などの肝臓の非実質領域の抽出(分類)ができるものである。   Further, in the feature distribution image shown in FIG. 6, a region having a high luminance value and a high variance value can be separated using a threshold value set by the P-tile method, and the luminance value is low and the variance value is low. It is also possible to isolate low areas. Further, the mode value of the intermediate feature value can be obtained by using the Otsu method, and a threshold value having the highest degree of separation can be calculated in order to separate a region having a high luminance value and a high variance value. Similarly, it is possible to calculate a threshold value for separating an area having a low luminance value and a low variance value. Using the two calculated thresholds, three classes can be classified, and non-substantial regions of the liver such as blood vessels can be extracted (classified).

抽出(分類)した後は、抽出した血管領域(血管)の状態の評価を行い、また、血管などを排除した後の肝臓の実質領域の状態の評価を行う。若しくは、指定(注目)した対象領域だけ評価を行う。評価の結果として、血管領域と肝臓の実質領域を別々の評価指標として扱うことができるし、また、別の評価指標として、統合的に肝臓全体機能の評価を行うことができる。   After the extraction (classification), the state of the extracted blood vessel region (blood vessel) is evaluated, and the state of the substantial region of the liver after the removal of blood vessels and the like is evaluated. Alternatively, the evaluation is performed only on the designated (focused) target area. As a result of the evaluation, the blood vessel region and the substantial region of the liver can be handled as separate evaluation indexes, and the whole liver function can be evaluated as a separate evaluation index.

例えば、抽出した血管領域を対象に、更にエッジ情報などの抽出することにより血管壁を検出することができる。肝臓の機能が正常な場合は血管壁をキレイに検出することができるが、一方、肝硬変など病変がかなり進行する肝臓では、血管壁が暈ける特徴がある。血管壁のエッジ情報は、補助評価指標として、肝臓全体機能の評価に役に立つものである。従って、血管領域を排除した後の肝臓の実質領域に対する評価結果と、血管領域の血管壁情報を統合することで、より医師の判断基準に近づけることができる。   For example, the blood vessel wall can be detected by extracting edge information or the like for the extracted blood vessel region. When the liver function is normal, the blood vessel wall can be detected neatly. On the other hand, the liver where the lesion progresses considerably, such as cirrhosis, has a characteristic that the blood vessel wall is burnt. The edge information of the blood vessel wall is useful for evaluating the entire liver function as an auxiliary evaluation index. Therefore, by integrating the evaluation results for the substantial region of the liver after removing the blood vessel region and the blood vessel wall information of the blood vessel region, it is possible to make it closer to a doctor's judgment standard.

以上、被検体が患者の場合に分類及び評価する場合について説明したが、被検体は、患者に限定されるものではなく種々変形可能であり、例えば部品であってもよい。   The case where the subject is classified and evaluated when the subject is a patient has been described above. However, the subject is not limited to a patient and can be variously modified. For example, the subject may be a component.

図9は、表示部5の画面を示す図であり、撮像された部品の断層像を示す図である。図9に示すように、被検体が部品であっても、超音波診断システム1を用いることにより、部品の画像データを、欠陥の領域の画像データ(領域画像データ)と、正常の領域の画像データ(領域画像データ)と、に自動的に分類することができる。   FIG. 9 is a diagram showing a screen of the display unit 5, and is a diagram showing a tomographic image of the imaged part. As shown in FIG. 9, even if the subject is a part, by using the ultrasonic diagnostic system 1, the image data of the part, the image data of the defect area (area image data), and the image of the normal area are displayed. Data (region image data) can be automatically classified.

上記分類した後、さらに、超音波診断システム1を用いることにより、分類した正常の領域(領域画像データ)を自動的に評価することもでき、正常の領域の中から腐食の進行程度(腐食無し部分、軽度腐食部分、腐食進行部分、など)を評価することも可能である。 After the above classification, the classified normal area (area image data) can be automatically evaluated by using the ultrasonic diagnostic system 1, and the degree of corrosion progress (no corrosion) from the normal area. It is also possible to evaluate a part, a lightly corroded part, a corroded part, etc.).

次に、上記超音波診断システム1を用いて肝臓の実質領域の領域画像データを評価する場合について説明する。
始めに、肝臓の実質領域を診断(評価)する場合の管理部7の識別器iについて説明する。臨床では、医師は、主観判断で肝臓の実質領域の粗さを4段階に分類している。そこで、管理部7は、主観判断で肝臓の実質領域の粗さを4段階に分類するための指標を持つ識別器iを作成し管理することができる。これにより、評価部8は、上記識別器iを用いることにより、肝臓の実質領域の粗さを客観的に判断することが可能となる。
Next, a case where region image data of a substantial region of the liver is evaluated using the ultrasonic diagnostic system 1 will be described.
First, the discriminator i of the management unit 7 when diagnosing (evaluating) a substantial region of the liver will be described. In clinical practice, doctors classify the roughness of the substantial area of the liver into four stages based on subjective judgment. Therefore, the management unit 7 can create and manage a discriminator i having an index for classifying the roughness of the substantial area of the liver into four stages by subjective judgment. Thus, the evaluation unit 8 can objectively determine the roughness of the substantial area of the liver by using the discriminator i.

また、管理部7は、演算部6に評価対象の画像データが入力される毎、評価部8が評価した結果の情報を基に、識別器の持つ特徴量を評価するための指標を更新することが可能である。すなわち、診断結果を学習データとして管理部7の識別器に取り込むことで、医師の主観判断を定量化することができる。   Further, every time image data to be evaluated is input to the calculation unit 6, the management unit 7 updates an index for evaluating the feature quantity of the classifier based on information on the result of evaluation by the evaluation unit 8. It is possible. That is, the subjective judgment of the doctor can be quantified by taking the diagnosis result as learning data into the discriminator of the management unit 7.

ここで、超音波により肝臓などの臓器に対する診断を行う時、肝臓表面の滑らかさ、肝臓辺縁の角度、肝臓内部組織の粗さなど指標がある。その中、肝臓内部組織の粗さは最も客観的に評価しにくい指標であるが、上述したように、管理部7が上記識別器iを作成し管理することで、肝臓内部組織の粗さを客観的に評価することができる。また、管理部7が肝臓内部組織に限らず、肝臓表面の滑らかさ、肝臓辺縁の角度、及び肝臓以外の臓器に対応した識別器0、iを作成し管理することで、各種の臓器を客観的に評価することができる。   Here, when diagnosis is performed on an organ such as the liver using ultrasound, there are indices such as the smoothness of the liver surface, the angle of the liver margin, and the roughness of the internal tissue of the liver. Among them, the roughness of the liver internal tissue is the index that is most difficult to evaluate objectively. However, as described above, the management unit 7 creates and manages the discriminator i, thereby reducing the roughness of the liver internal tissue. It can be evaluated objectively. In addition, the management unit 7 creates and manages the discriminators 0 and i corresponding to the smoothness of the liver surface, the angle of the liver margin, and the organs other than the liver, without limiting to the internal tissue of the liver. It can be evaluated objectively.

次に、評価した結果の情報の表示手法等、肝臓の実質領域を診断する場合の実質的な手法を説明する。
画素群の指標が設定されると、演算部6は、領域画像データの特徴量(テクスチャ特徴量)iを算出する。そして、評価部8は、算出された各特徴量iを管理部7の識別器iを用いて評価する。管理部7は、評価部8が評価した結果の情報を基に、識別器iの持つ特徴量iを評価するための指標を更新し、このように識別器iに学習させる。
Next, a substantial method for diagnosing a substantial region of the liver, such as a method for displaying information on the evaluation results, will be described.
When the pixel group index is set, the calculation unit 6 calculates a feature amount (texture feature amount) i of the region image data. Then, the evaluation unit 8 evaluates each calculated feature quantity i using the classifier i of the management unit 7. The management unit 7 updates the index for evaluating the feature quantity i of the discriminator i based on the information obtained as a result of the evaluation by the evaluation unit 8, and causes the discriminator i to learn in this way.

管理部7が、特徴量iを基に主成分分析法を用いて識別器iを形成し、管理している場合、管理部7は識別器iから特徴量iを算出し、算出した特徴量iを主成分分析法により分離度が最大となる評価軸を算出(抽出)することができる。   When the management unit 7 forms and manages the classifier i using the principal component analysis method based on the feature quantity i, the management unit 7 calculates the feature quantity i from the classifier i, and calculates the calculated feature quantity. An evaluation axis that maximizes the degree of separation can be calculated (extracted) by i using principal component analysis.

図10は、識別器iを示す概念図である。図10に示すように、識別器iの持つ特徴量iは、高次の空間に投影されている。高次の空間には、管理部7が算出した評価軸も示されている。このことから、特徴量iが高次の情報であることが分かる。特徴量iはクラス1からクラス4までの4つのクラスに分類されている。
ここで、評価軸は、高次の空間を形成する複数の軸から選定したものでもよく、また、新たに生成する軸であってもよい。
FIG. 10 is a conceptual diagram showing the classifier i. As shown in FIG. 10, the feature quantity i of the discriminator i is projected on a higher-order space. An evaluation axis calculated by the management unit 7 is also shown in the higher-order space. From this, it can be seen that the feature quantity i is high-order information. The feature quantity i is classified into four classes from class 1 to class 4.
Here, the evaluation axis may be selected from a plurality of axes that form a higher-order space, or may be a newly generated axis.

図11は、識別器iを示す他の概念図である。図11に示すように、図10に示す識別器iの持つ特徴量iを、評価軸上にのみ投影して示している。ここでは、クラス1に分類される特徴量iは、正常の肝臓の実質領域の領域画像データから算出した特徴量iであり、クラス2乃至4に分類される特徴量iは、非正常(病変)の肝臓の実質領域の領域画像データから算出した特徴量である。   FIG. 11 is another conceptual diagram showing the discriminator i. As shown in FIG. 11, the feature quantity i of the discriminator i shown in FIG. 10 is projected and shown only on the evaluation axis. Here, the feature quantity i classified into class 1 is the feature quantity i calculated from the region image data of the normal region of the normal liver, and the feature quantity i classified into classes 2 to 4 is non-normal (lesional) ) Of the feature amount calculated from the region image data of the substantial region of the liver.

上記のことから、評価対象の領域画像データから算出した特徴量iを評価軸上に投影することにより、各クラスへの距離を算出することができ、算出した距離が最も短くなったクラスに分類することができる。このため、評価部8は、特徴量iをクラスに分類することで、特徴量iの評価を行うことができ、ひいては肝臓の実質領域の診断を行うことができる。なお、各クラスへの距離の計算では、ユークリッド距離の計算や、マハラノビス距離の計算を利用することができる。   From the above, the distance to each class can be calculated by projecting the feature quantity i calculated from the area image data to be evaluated onto the evaluation axis, and the calculated distance is classified into the class with the shortest distance. can do. For this reason, the evaluation unit 8 can evaluate the feature quantity i by classifying the feature quantity i into a class, and thus can diagnose a substantial region of the liver. In calculating the distance to each class, calculation of Euclidean distance or calculation of Mahalanobis distance can be used.

そして、上述したように、評価軸は、特徴量iの分離度が最大の軸であるため、評価対象の領域画像データから算出した特徴量iを評価軸上に投影することは、評価部8が行う評価に好適である。   As described above, since the evaluation axis is the axis with the highest degree of separation of the feature quantity i, projecting the feature quantity i calculated from the region image data to be evaluated onto the evaluation axis is the evaluation unit 8. It is suitable for the evaluation performed.

次に、管理部7が、演算部6に評価対象の領域画像データが入力される毎に、識別器iの持つ特徴量iを評価するための指標を更新する場合の例について説明する。
肝臓の実質領域の粗さに関して、評価部8が評価した結果(診断結果)に基づいて領域画像データをさらに分類する。分類されたデータ(画像データ)から特徴量を算出し、識別器を作成する。例えば、管理部7が、粗さに関して、2段階に分類されたデータから算出された8次元の特徴量を基に線形判別方法を用いて識別器を作成すると、識別器(学習データ)から線形判別式の係数項(8個)と定数項を算出することができる。この場合、算出した線形判別式を識別器として使用することができる。
Next, an example in which the management unit 7 updates an index for evaluating the feature quantity i of the discriminator i every time the evaluation target region image data is input to the calculation unit 6 will be described.
The area image data is further classified based on the result (diagnosis result) evaluated by the evaluation unit 8 regarding the roughness of the substantial area of the liver. A feature amount is calculated from the classified data (image data), and a discriminator is created. For example, when the management unit 7 creates a discriminator using a linear discriminating method based on an 8-dimensional feature amount calculated from data classified into two stages with respect to roughness, the discriminator (learning data) linearly The coefficient terms (eight) and constant terms of the discriminant can be calculated. In this case, the calculated linear discriminant can be used as a discriminator.

次に、設定部4について説明する。
上記設定部4は、評価部8が評価した結果の情報を全て出力するよう設定したが、これに限らず、評価部8が評価した結果の情報を一部だけ出力するよう設定することも可能である。
Next, the setting unit 4 will be described.
Although the setting unit 4 is set to output all the information of the results evaluated by the evaluation unit 8, the setting unit 4 is not limited thereto, and may be set to output only part of the information of the results evaluated by the evaluation unit 8. It is.

例えば、医師が表示部5の画面上のある位置を指定し、指標を設定すると、指定した位置を中心座標とする注目領域を設定することができ、これにより、注目領域内の肝臓の実質領域の粗さを評価した結果(診断結果)を出力(表示)することができる。この場合も、注目領域の指標を自由に設定することができ、例えば注目領域の形状は矩形状や円形状でも良い。また、肝臓の実質領域の粗さを評価した結果を出力(表示)する際、正規化した範囲内の数値で出力(表示)したり、数値を色情報に変換して色情報を出力(表示)したりすることができる。   For example, when a doctor designates a certain position on the screen of the display unit 5 and sets an index, an attention area having the designated position as a central coordinate can be set, whereby a liver real area within the attention area can be set. The result (diagnosis result) of evaluating the roughness of the image can be output (displayed). In this case as well, the index of the attention area can be set freely. For example, the shape of the attention area may be rectangular or circular. In addition, when outputting (displaying) the result of evaluating the roughness of the liver real area, it is output (displayed) with a numerical value within the normalized range, or the numerical value is converted into color information and the color information is output (displayed) ).

次に、特徴量について説明する。
特徴量は、画素群毎に算出された高次局所特徴量や、低次局所特徴量であってもよい。高次局所特徴量としては、局所的二値パターン(LBP:Local Binary Pattern)特徴量や、高次局所自己相関(HLAC:Higher-order Local AutoCorrelation)特徴量を挙げることができる。
Next, the feature amount will be described.
The feature quantity may be a higher-order local feature quantity or a lower-order local feature quantity calculated for each pixel group. Examples of the higher-order local feature amount include a local binary pattern (LBP) feature amount and a higher-order local autocorrelation (HLAC) feature amount.

例えば、高次局所特徴量(テクスチャ特徴量)の一つとして局所的二値パターン特徴量は、画像輝度変化、回転やスケール変換に対してロバスト性が高い、計算コストが低いなど特徴があるため、顔認識など分野でよく使われている。   For example, local binary pattern feature quantities as one of the higher-order local feature quantities (texture feature quantities) are characterized by high robustness against image brightness changes, rotation and scale conversion, and low calculation costs. , Often used in face recognition and other fields.

局所的二値パターン特徴量とは、画像中の注目点(着目点)と周囲点との輝度の差をベースにし、パターンヒストグラムを算出することで、画像のテクスチャ特徴情報を抽出する方法である。注目点と周囲点の位置及びスケールが異なる場合の局所的二値パターンの例を図12乃至図16に示す。   The local binary pattern feature amount is a method of extracting texture feature information of an image by calculating a pattern histogram based on a luminance difference between a point of interest (point of interest) in the image and a surrounding point. . Examples of local binary patterns when the positions and scales of the attention point and the surrounding points are different are shown in FIGS.

図12において、周囲点は、注目点の周りに4個あり(P=4)、注目点から周囲点までの距離(半径)は1.0である(R=1.0)。図13乃至図16においても図12と同様であり、図13においてはP=8、R=1.0、図14においてはP=12、R=1.5、図15においてはP=16、R=2.0、図16においてはP=24、R=3.0である。   In FIG. 12, there are four surrounding points around the point of interest (P = 4), and the distance (radius) from the point of interest to the surrounding point is 1.0 (R = 1.0). 13 to 16 are the same as FIG. 12, P = 8 and R = 1.0 in FIG. 13, P = 12 and R = 1.5 in FIG. 14, P = 16 in FIG. R = 2.0, P = 24 and R = 3.0 in FIG.

例えば、演算部6は、超音波を利用して撮像した肝臓の実質領域の画像に対して、画素群毎にシフトしなから局所的二値パターン特徴量を算出することができる。そして、評価部8は、算出された特徴量を基に肝臓の実質領域の性状(粗さ)を評価することができる。   For example, the calculation unit 6 can calculate a local binary pattern feature amount without shifting for each pixel group with respect to an image of a substantial region of the liver imaged using ultrasound. And the evaluation part 8 can evaluate the property (roughness) of the substantial area | region of a liver based on the calculated feature-value.

次に、管理部7について説明する。
管理部7は、特徴量iを基に線形判別方法又は非線形判別方法を用いて識別器iを作成し管理することができる。線形判別方法としては、線形判別分析(LDA:Linear Discriminant Analysis)、サポートベクタマシン(SVM:Support Vector Machine)、主成分分析法等を挙げることができる。非線形判別方法としては、非線形判別分析(QDA:Quadratic Discriminant Analysis)等を挙げることができる。
Next, the management unit 7 will be described.
The management unit 7 can create and manage the discriminator i using a linear discrimination method or a nonlinear discrimination method based on the feature quantity i. Examples of the linear discriminating method include linear discriminant analysis (LDA), support vector machine (SVM), principal component analysis method and the like. Nonlinear discriminant analysis (QDA: Quadratic Discriminant Analysis) etc. can be mentioned as a nonlinear discriminating method.

上記のことから、学習データから算出した特徴量iに対して、主成分分析法により次元を圧縮し、分離度が最大になる評価軸を抽出可能であることが分かる。また、事前に学習データを用いてサポートベクタマシンの訓練モデルを算出することも可能である。   From the above, it can be seen that it is possible to extract the evaluation axis that maximizes the degree of separation by compressing the dimension by the principal component analysis method for the feature quantity i calculated from the learning data. It is also possible to calculate a support vector machine training model using learning data in advance.

次に、評価部8について説明する。
評価部8は、特徴量iの空間距離の長さ、又は類似度の程度に基づいて評価することができる。その他、評価部8は、他の指標により評価することもできる。上記のことから、評価部8が評価した結果の情報(新しい情報)が与えられる場合、上記情報から算出した特徴量iを識別式に代入すると、判別の結果を算出することができる。
Next, the evaluation unit 8 will be described.
The evaluation unit 8 can perform evaluation based on the length of the spatial distance of the feature quantity i or the degree of similarity. In addition, the evaluation part 8 can also evaluate with another parameter | index. From the above, when information (new information) as a result of evaluation by the evaluation unit 8 is given, the result of determination can be calculated by substituting the feature quantity i calculated from the information into the identification formula.

線形判別分析法を用いて識別器iが作成及び管理されている場合、0より大きいのかどうかを検出することにより、評価した結果を分類することができる。また、マハラノビス距離を算出し、距離が小さい順番に、評価した結果を分類することもできる。それ以外の方法で評価した結果を分類することも可能である。   When the discriminator i is created and managed using the linear discriminant analysis method, it is possible to classify the evaluated result by detecting whether it is greater than 0. It is also possible to calculate Mahalanobis distance and classify the evaluation results in ascending order of distance. It is also possible to classify the results evaluated by other methods.

次に、設定部4について説明する。
設定部4は、評価部8が評価した結果の情報を、評価部8に、1以上の次元の情報として出力させるよう、設定することができる。このため、評価した結果の情報は、1次元の情報(例えば、数値又は数値に対応する色味)で表示することができ、また、2次元や多次元で表示することもできる。
Next, the setting unit 4 will be described.
The setting unit 4 can set the information of the result of evaluation by the evaluation unit 8 so that the evaluation unit 8 outputs the information as information of one or more dimensions. Therefore, the evaluation result information can be displayed as one-dimensional information (for example, a numerical value or a color corresponding to the numerical value), and can also be displayed in two dimensions or multidimensional.

例えば、図17は、肝臓の実質領域を評価した結果の情報を1次元で表示する場合の概念図である。図17に示すように、肝臓の実質領域を評価し、正常、慢性肝炎及び肝硬変の3段階に分類する場合、正常から肝硬変までの間の距離を0乃至1に正規化し、評価した結果の情報(評価データ)を定量的に表示することができる。   For example, FIG. 17 is a conceptual diagram in a case where information on a result of evaluating a substantial area of the liver is displayed in one dimension. As shown in FIG. 17, when the parenchymal region of the liver is evaluated and classified into three stages of normal, chronic hepatitis, and cirrhosis, the distance from normal to cirrhosis is normalized to 0 to 1, and information on the evaluation results (Evaluation data) can be displayed quantitatively.

図18は、上記の肝臓内部組織を評価した結果の情報を2次元で表示する場合の概念図である。図18に示すように、2次元で表示することにより、肝臓内部組織を評価した結果をより多角的に表示することが可能である。なお、図において、正常であることを示すデータは丸、慢性肝炎を示すデータは四角、肝硬変を示すデータはバツで示している。
上記超音波診断システム1を用いて肝臓の実質領域の領域画像データを評価する場合について説明は以上である。
FIG. 18 is a conceptual diagram in a case where information on the result of evaluating the liver internal tissue is displayed in two dimensions. As shown in FIG. 18, by displaying in two dimensions, it is possible to display the results of evaluating the liver internal tissue in a more diversified manner. In the figure, data indicating normality is indicated by circles, data indicating chronic hepatitis is indicated by squares, and data indicating cirrhosis is indicated by crosses.
The case where the region image data of the substantial region of the liver is evaluated using the ultrasonic diagnostic system 1 has been described above.

以上のように構成された超音波診断システム1によれば、超音波診断装置2は、演算部6と、管理部7と、評価部8とを備えている。演算部6は、画像データから特徴量0を算出し、評価部8は、特徴量0を、識別器0を用いて評価し、画像データを複数の領域画像データに分類し出力することができる。これにより、超音波診断装置2は、被検体の画像を複数の領域に客観的に分類することが可能となる。   According to the ultrasonic diagnostic system 1 configured as described above, the ultrasonic diagnostic apparatus 2 includes the calculation unit 6, the management unit 7, and the evaluation unit 8. The calculation unit 6 calculates a feature amount 0 from the image data, and the evaluation unit 8 can evaluate the feature amount 0 using the discriminator 0, classify the image data into a plurality of area image data, and output the image data. . Thereby, the ultrasound diagnostic apparatus 2 can objectively classify the image of the subject into a plurality of regions.

また、超音波診断装置2の指標(コントラスト等)の設定に依存せず、閾値の設定や最適化処理を行うこと無しに、評価部8は、識別器iを用いることにより、例えば領域画像データを客観的に評価することが可能となる。   Further, the evaluation unit 8 uses the discriminator i, for example, region image data without depending on the setting of the index (contrast or the like) of the ultrasonic diagnostic apparatus 2 and without performing threshold setting or optimization processing. Can be objectively evaluated.

また、管理部7は、演算部6に画像データや領域画像データが入力される毎、評価部8が分類又は評価した結果の情報を基に、識別器0、iの持つ特徴量0、iを評価するための指標を更新することが可能である。すなわち、評価結果を学習データとして管理部7の識別器に取り込むことができる。管理部7の識別器は、医師や専門家等のノウハウも取り込むことができる。これにより、操作者(医師など)の主観判断を定量化することができる。   In addition, each time image data or region image data is input to the calculation unit 6, the management unit 7 is based on information obtained as a result of classification or evaluation by the evaluation unit 8. It is possible to update an index for evaluating That is, the evaluation result can be taken into the discriminator of the management unit 7 as learning data. The discriminator of the management unit 7 can also incorporate know-how of doctors and experts. Thereby, the subjective judgment of the operator (such as a doctor) can be quantified.

上記のことから、被検体を複数の領域に客観的に分類することができ、分類した領域を評価することのできる超音波診断システム1を得ることができる。そして、操作者に役に立つ超音波診断システム1を得ることができる。   From the above, it is possible to obtain the ultrasonic diagnostic system 1 that can objectively classify a subject into a plurality of areas and can evaluate the classified areas. And the ultrasonic diagnostic system 1 useful for an operator can be obtained.

なお、この発明は上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化可能である。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment.

例えば、超音波診断装置2自体が、撮像部3や表示部5を備えていてもよい。演算部6や表示部5に入力される画像データは、撮像部3以外の手段で取得したものであってもよい。   For example, the ultrasonic diagnostic apparatus 2 itself may include the imaging unit 3 and the display unit 5. The image data input to the calculation unit 6 and the display unit 5 may be obtained by means other than the imaging unit 3.

例えば、被検体の他の例としては、太陽光パネルやタービンであってもよい。太陽光パネルにおいては、サーモグラフィ画像を使用することにより、正常なパネルか劣化したパネルかを評価することができる。また、タービンにおいては、タービン表面の粗さを評価することができる。   For example, a solar panel or a turbine may be used as another example of the subject. In a solar panel, it is possible to evaluate whether a normal panel or a deteriorated panel by using a thermographic image. Further, in the turbine, the roughness of the turbine surface can be evaluated.

本発明の画像処理システムは、上記超音波診断システム1に限らず、種々変形可能であり、他の超音波診断システム等各種の画像処理システムに適用することが可能である。   The image processing system of the present invention is not limited to the ultrasonic diagnostic system 1 but can be variously modified, and can be applied to various image processing systems such as other ultrasonic diagnostic systems.

1…超音波診断システム、2…超音波診断装置、3…撮像部、4…設定部、5…表示部、6…演算部、7…管理部、8…評価部。   DESCRIPTION OF SYMBOLS 1 ... Ultrasonic diagnostic system, 2 ... Ultrasonic diagnostic apparatus, 3 ... Imaging part, 4 ... Setting part, 5 ... Display part, 6 ... Calculation part, 7 ... Management part, 8 ... Evaluation part.

Claims (7)

複数の領域を含み被検体を撮像して得られる画像データが入力され、前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を算出する第1の演算部と、
前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を基に前記画像データを前記複数の領域画像データに分類するための指標を持つ識別器を作成し管理する第1の管理部と、
前記第1の演算部が算出した前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を、前記画像データを前記複数の領域画像データに分類するための指標を持つ識別器を用いて評価し、前記評価した結果に従って前記画像データを前記複数の領域画像データに分類し、前記分類した領域画像データを出力する第1の評価部と、
前記第1の評価部が分類した前記領域画像データから、前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を算出する第2の演算部と、
前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を基に前記領域画像データに対応する領域の状態を識別するための指標を持つ識別器を作成し管理する第2の管理部と、
前記第2の演算部が算出した前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を、前記領域画像データに対応する領域の状態を識別するための指標を持つ識別器を用いて評価し、前記評価した結果の情報を出力する第2の評価部とを備えた画像処理装置。
A first arithmetic unit that receives image data obtained by imaging a subject including a plurality of regions, and calculates a feature amount that serves as an index for classifying the image data into the plurality of region image data;
Creating and managing a discriminator having an index for classifying the image data into the plurality of area image data based on a feature quantity serving as an index for classifying the image data into the plurality of area image data; The management department of
An identification having an index for classifying the image data into the plurality of region image data, and a feature amount serving as an index for classifying the image data calculated by the first arithmetic unit into the plurality of region image data A first evaluation unit that classifies the image data into the plurality of area image data according to the evaluation result, and outputs the classified area image data;
A second calculation unit that calculates a feature amount serving as an index for identifying a state of a region corresponding to the region image data from the region image data classified by the first evaluation unit;
Creating and managing a discriminator having an index for identifying the state of the region corresponding to the region image data based on a feature quantity serving as an index for identifying the state of the region corresponding to the region image data; The management department of
An identification having an index for identifying the state of the region corresponding to the region image data, as a feature quantity that is an index for identifying the state of the region corresponding to the region image data calculated by the second arithmetic unit An image processing apparatus comprising: a second evaluation unit that performs evaluation using a container and outputs information of the evaluation result.
前記第1の演算部に前記画像データに対応した特徴量を算出するための指標を設定し、前記第2の演算部に前記領域画像データに対応した特徴量を算出するための指標を設定する設定部をさらに備えている請求項1に記載の画像処理装置。   An index for calculating a feature value corresponding to the image data is set in the first calculation unit, and an index for calculating a feature value corresponding to the region image data is set in the second calculation unit. The image processing apparatus according to claim 1, further comprising a setting unit. 前記画像データ又は前記領域画像データの中から注目領域を設定し、前記注目領域に対して、分類又は評価させる設定部をさらに備えている請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a setting unit that sets a region of interest from the image data or the region image data, and classifies or evaluates the region of interest. 前記第1の評価部に、前記分類された複数の領域画像データを全て又は一部だけ出力させるように設定可能である設定部をさらに備えている請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a setting unit that can be set so that the first evaluation unit outputs all or only a part of the plurality of classified area image data. 前記第1の評価部に、前記評価した結果の情報だけでなく、前記評価対象の領域画像データに関する情報も出力させるように設定可能である設定部をさらに備えている請求項1に記載の画像処理装置。   The image according to claim 1, further comprising a setting unit that can be set to cause the first evaluation unit to output not only information on the evaluation result but also information on the region image data to be evaluated. Processing equipment. 前記第1の評価部にさらに前記画像データを前記複数の領域画像データに分類するための指標となる特徴量を示す情報を出力させ、前記第2の評価部にさらに前記領域画像データに対応する領域の状態を識別するための指標となる特徴量を示す情報を出力させるように設定可能である設定部をさらに備えている請求項1に記載の画像処理装置。   The first evaluation unit further outputs information indicating a feature amount serving as an index for classifying the image data into the plurality of region image data, and the second evaluation unit further corresponds to the region image data. The image processing apparatus according to claim 1, further comprising: a setting unit that can be set to output information indicating a feature amount that serves as an index for identifying the state of the region. 前記第2の評価部に、前記分類された複数の領域画像データに関する前記評価した結果の情報を、統合して出力させるように設定可能である設定部をさらに備えている請求項1に記載の画像処理装置。   The setting part which can be set so that the said 2nd evaluation part may integrate and output the information of the said evaluation result regarding the said several classified area | region image data is provided. Image processing device.
JP2011050621A 2011-03-08 2011-03-08 Image processing device Active JP5624505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011050621A JP5624505B2 (en) 2011-03-08 2011-03-08 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011050621A JP5624505B2 (en) 2011-03-08 2011-03-08 Image processing device

Publications (2)

Publication Number Publication Date
JP2012187139A true JP2012187139A (en) 2012-10-04
JP5624505B2 JP5624505B2 (en) 2014-11-12

Family

ID=47080984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011050621A Active JP5624505B2 (en) 2011-03-08 2011-03-08 Image processing device

Country Status (1)

Country Link
JP (1) JP5624505B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015532860A (en) * 2012-10-05 2015-11-16 エリザベス ビギン, Automatic stent detection
JP2016515019A (en) * 2013-03-15 2016-05-26 セノ メディカル インストルメンツ,インク. System and method for diagnostic vector classification support
JP2017184861A (en) * 2016-04-01 2017-10-12 富士フイルム株式会社 Image processing device and operation method of the same, and processor device for endoscope and operation method of the same
CN107708808A (en) * 2015-06-30 2018-02-16 医科达有限公司 For the system and method that use quality index carries out target tracking during radiotherapy
CN111433599A (en) * 2017-11-27 2020-07-17 阿克森斯公司 Method and system for determining process attributes using active sonographers

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05146433A (en) * 1991-11-28 1993-06-15 Olympus Optical Co Ltd Image analyzing device
JPH08161520A (en) * 1994-12-06 1996-06-21 Hitachi Medical Corp Method for extracting object part from three-dimensional image
JPH08293025A (en) * 1995-04-20 1996-11-05 Olympus Optical Co Ltd Image sorting device
JP2006187412A (en) * 2005-01-05 2006-07-20 Hitachi Medical Corp Medical image-based diagnosis supporting apparatus
JP2006325638A (en) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc Method of detecting abnormal shadow candidate and medical image processing system
JP2008194456A (en) * 2007-01-16 2008-08-28 Kobe Univ Medical image processing apparatus, and medical image processing method
JP2010155073A (en) * 2008-12-02 2010-07-15 Toshiba Corp Ultrasonic diagnostic apparatus, doppler measurement apparatus and doppler measurement method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05146433A (en) * 1991-11-28 1993-06-15 Olympus Optical Co Ltd Image analyzing device
JPH08161520A (en) * 1994-12-06 1996-06-21 Hitachi Medical Corp Method for extracting object part from three-dimensional image
JPH08293025A (en) * 1995-04-20 1996-11-05 Olympus Optical Co Ltd Image sorting device
JP2006187412A (en) * 2005-01-05 2006-07-20 Hitachi Medical Corp Medical image-based diagnosis supporting apparatus
JP2006325638A (en) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc Method of detecting abnormal shadow candidate and medical image processing system
JP2008194456A (en) * 2007-01-16 2008-08-28 Kobe Univ Medical image processing apparatus, and medical image processing method
JP2010155073A (en) * 2008-12-02 2010-07-15 Toshiba Corp Ultrasonic diagnostic apparatus, doppler measurement apparatus and doppler measurement method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015532860A (en) * 2012-10-05 2015-11-16 エリザベス ビギン, Automatic stent detection
JP2016515019A (en) * 2013-03-15 2016-05-26 セノ メディカル インストルメンツ,インク. System and method for diagnostic vector classification support
US10026170B2 (en) 2013-03-15 2018-07-17 Seno Medical Instruments, Inc. System and method for diagnostic vector classification support
US10949967B2 (en) 2013-03-15 2021-03-16 Seno Medical Instruments, Inc. System and method for diagnostic vector classification support
CN107708808A (en) * 2015-06-30 2018-02-16 医科达有限公司 For the system and method that use quality index carries out target tracking during radiotherapy
JP2018522651A (en) * 2015-06-30 2018-08-16 エレクタ リミテッド System and method for tracking a target using quality indicators during radiation therapy
US10350438B2 (en) 2015-06-30 2019-07-16 Elekta Ltd. System and method for target tracking using a quality indicator during radiation therapy
CN107708808B (en) * 2015-06-30 2020-10-16 医科达有限公司 System and method for target tracking during radiation therapy using quality indicators
JP2017184861A (en) * 2016-04-01 2017-10-12 富士フイルム株式会社 Image processing device and operation method of the same, and processor device for endoscope and operation method of the same
US10986980B2 (en) 2016-04-01 2021-04-27 Fujifilm Corporation Image processing device, method for operating same, endoscope processor device, and method for operating same
CN111433599A (en) * 2017-11-27 2020-07-17 阿克森斯公司 Method and system for determining process attributes using active sonographers
US11598754B2 (en) 2017-11-27 2023-03-07 Acosense Ab Method and system for determining process properties using active acoustic spectroscopy

Also Published As

Publication number Publication date
JP5624505B2 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
EP2710958B1 (en) Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
KR102043130B1 (en) The method and apparatus for computer aided diagnosis
US20210098115A1 (en) Aspect score estimating system and method
CN109035283B (en) Emphysema accurate detection and quantitative analysis method based on randomly selected partitions
EP1946703A1 (en) Image analyzing device and method
McDermott et al. Sonographic diagnosis of COVID-19: A review of image processing for lung ultrasound
JP5624505B2 (en) Image processing device
JP6837376B2 (en) Image processing equipment and methods and programs
JP2004057804A (en) Method and apparatus for evaluating joint and program therefor
Wang et al. A method of ultrasonic image recognition for thyroid papillary carcinoma based on deep convolution neural network
Riaz et al. Impact of visual features on the segmentation of gastroenterology images using normalized cuts
KR100998630B1 (en) Method for automatic classifier of lung diseases
JP6191328B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image analysis method, and program
JP5651412B2 (en) Image processing apparatus, program, and image processing method
JP5640280B2 (en) Osteoporosis diagnosis support device and osteoporosis diagnosis support program
JP2022537481A (en) A computer-assisted method for classifying organ masses as cysts
Chen et al. An automated approach for fibrin network segmentation and structure identification in 3D confocal microscopy images
WO2022059596A1 (en) Skin surface analysis device and skin surface analysis method
JPWO2019044579A1 (en) Pathological diagnostic equipment, image processing methods and programs
CN115546123A (en) Prediction system for rupture risk of abdominal aortic aneurysm based on machine learning
CN110892448B (en) Method for detection and quantification of arterial calcification
CN107886506A (en) A kind of ultrasonic thyroid nodule automatic positioning method
Miao et al. CoWRadar: Visual Quantification of the Circle of Willis in Stroke Patients.
JP2007090064A (en) System and method for grouping airway and artery for quantitative analysis
KR101856200B1 (en) Method for classifying a skull feature

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131029

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140926

R151 Written notification of patent or utility model registration

Ref document number: 5624505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151