JP2018088990A - Ultrasonic imaging device, image processing device, and image processing method - Google Patents

Ultrasonic imaging device, image processing device, and image processing method Download PDF

Info

Publication number
JP2018088990A
JP2018088990A JP2016233073A JP2016233073A JP2018088990A JP 2018088990 A JP2018088990 A JP 2018088990A JP 2016233073 A JP2016233073 A JP 2016233073A JP 2016233073 A JP2016233073 A JP 2016233073A JP 2018088990 A JP2018088990 A JP 2018088990A
Authority
JP
Japan
Prior art keywords
ultrasonic
physical property
region
property value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016233073A
Other languages
Japanese (ja)
Other versions
JP6698505B2 (en
Inventor
悠史 坪田
Yuji Tsubota
悠史 坪田
川畑 健一
Kenichi Kawabata
健一 川畑
崇秀 寺田
Takahide Terada
崇秀 寺田
敦郎 鈴木
Atsuro Suzuki
敦郎 鈴木
文晶 武
Fumiaki Take
文晶 武
一宏 山中
Kazuhiro Yamanaka
一宏 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016233073A priority Critical patent/JP6698505B2/en
Publication of JP2018088990A publication Critical patent/JP2018088990A/en
Application granted granted Critical
Publication of JP6698505B2 publication Critical patent/JP6698505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce an error of a physical property value resulting from refraction of an ultrasonic wave, and calculate the physical property value accurately.SOLUTION: Reception data is received, which is output by each ultrasonic element constituting an ultrasonic element array that has received a transmission wave of an ultrasonic wave transmitting through a subject. At least one region is set to the subject. The reception data of one or more ultrasonic elements located at the end part in a range of the ultrasonic element array that the transmission wave transmitting through the region reaches is removed from the reception data of the ultrasonic element array, or a weight in calculation is reduced, and a physical property value of the region is acquired from the reception signal by calculation.SELECTED DRAWING: Figure 3

Description

本発明は、超音波撮像装置に関し、特に、被検体を透過した超音波を用いて被検体の画像を生成する装置に関する。   The present invention relates to an ultrasonic imaging apparatus, and more particularly to an apparatus that generates an image of a subject using ultrasonic waves transmitted through the subject.

媒質中に配置した被検体に対して、複数の方向から超音波を照射し、被検体を透過した透過波信号から被検体内部の物性値(音速や減衰率)を求め、物性値により断層画像を生成する超音波撮像装置が知られている。この装置は、超音波CT(Computed Tomography)装置とも呼ばれている。特許文献1には、超音波CT装置の基本構成と画像化技術が開示されている。特許文献1の装置では、リングアレイ状に超音波素子を並べた開口に被検体を挿入し、超音波素子から超音波を発生させて被検体に照射し、透過波を他の超音波素子により検出する。これにより、物性値画像として、音速画像や減衰率画像を再構成する。   A subject placed in a medium is irradiated with ultrasonic waves from multiple directions, and physical property values (sound speed and attenuation rate) inside the subject are obtained from transmitted wave signals transmitted through the subject. A tomographic image is obtained from the physical property values. There is known an ultrasonic imaging apparatus that generates This apparatus is also called an ultrasonic CT (Computed Tomography) apparatus. Patent Document 1 discloses a basic configuration and imaging technique of an ultrasonic CT apparatus. In the apparatus of Patent Document 1, a subject is inserted into an opening in which ultrasonic elements are arranged in a ring array shape, ultrasonic waves are generated from the ultrasonic elements and irradiated on the subject, and transmitted waves are transmitted by other ultrasonic elements. To detect. Thereby, a sound speed image and an attenuation rate image are reconstructed as a physical property value image.

超音波CT装置は、マンモグラフィと異なり放射線被曝がないため、より若年層に適用可能な乳癌検診装置として有望である。超音波CT装置が算出した被検体の物性値は、医師が被検体の生体組織の性状を判断する際の重要な指標となり得る。例えば、被検体組織の音速値は、組織の硬さに対応しているため、医師は、音速値に基づいて組織が硬い組織かどうか判断することができる。   Unlike the mammography, the ultrasonic CT apparatus has no radiation exposure, and is promising as a breast cancer screening apparatus applicable to younger age groups. The physical property value of the subject calculated by the ultrasonic CT apparatus can be an important index when a doctor determines the properties of the biological tissue of the subject. For example, since the sound velocity value of the subject tissue corresponds to the hardness of the tissue, the doctor can determine whether the tissue is a hard tissue based on the sound velocity value.

特表平8−508925号公報Japanese National Patent Publication No. 8-508925

上述のように超音波CT装置が算出した被検体の物性値を生体組織の性状判断に用いるためには、超音波CT装置は、被検体の物性値を精度よく算出することが望ましい。そのためには、超音波が、屈折率が異なる領域の境界に入射する際の屈折を正確に考慮して物性値画像を算出することが望ましいが、すべての屈折を考慮して物性値を算出するのは容易ではなく、計算量も増大する。一方、屈折を正確に考慮することなく透過波から物性値を求め、物性値画像を再構成した場合、境界が不鮮明になるとともに、領域内の物性値が過小に評価(表示)されるという問題がある。特に、大きな被検体を撮像対象とする場合や、超音波素子を並べた開口に対して被検体をオフセンター配置する場合には、被検体の端部で屈折した超音波が、超音波素子の受信範囲からはみ出て、受信することができなくなり、物性値画像の誤差がさらに増大するという問題も生じる。   In order to use the physical property value of the subject calculated by the ultrasonic CT apparatus as described above for the determination of the properties of the living tissue, it is desirable that the ultrasonic CT device accurately calculate the physical property value of the subject. For this purpose, it is desirable to calculate a physical property value image by accurately considering refraction when ultrasonic waves are incident on the boundary between regions having different refractive indexes. However, the physical property value is calculated in consideration of all refraction. This is not easy and the amount of calculation increases. On the other hand, when a physical property value is obtained from a transmitted wave without accurately considering refraction and a physical property image is reconstructed, the boundary becomes unclear and the physical property value in the region is underestimated (displayed). There is. In particular, when a large subject is to be imaged, or when the subject is placed off-center with respect to the opening where the ultrasonic elements are arranged, the ultrasonic waves refracted at the end of the subject are There is also a problem that the image is out of the reception range and cannot be received, and the error of the physical property value image further increases.

本発明の目的は、超音波の屈折に起因する物性値の誤差を低減し、精度よく物性値を算出することにある。   An object of the present invention is to reduce an error in a physical property value caused by refraction of ultrasonic waves and calculate the physical property value with high accuracy.

上記目的を達成するために、本発明の超音波撮像装置は、被検体に超音波を送信し、少なくとも前記被検体の透過波を受信して受信データを出力する複数の超音波素子が配列された超音波素子アレイと、受信データを処理して、被検体の画像を生成する信号処理部とを有する。信号処理部は、画像に少なくとも1つの領域を設定し、領域を透過した透過波の受信データから当該領域の物性値を演算により求める物性値算出部を含む。物性値算出部は、超音波素子アレイのうち、領域を透過した透過波が到達する範囲の端部に位置する1以上の超音波素子で受信された透過波の受信データを、受信データから除去するか、または、物性値の演算における重みを低下させて、領域の物性値を求める。   In order to achieve the above object, an ultrasonic imaging apparatus of the present invention includes a plurality of ultrasonic elements that transmit ultrasonic waves to a subject, receive at least transmitted waves of the subject, and output received data. And a signal processing unit that processes received data and generates an image of the subject. The signal processing unit includes a physical property value calculation unit that sets at least one region in the image and obtains a physical property value of the region from the received data of the transmitted wave that has passed through the region. The physical property value calculation unit removes, from the received data, the received data of the transmitted wave received by one or more ultrasonic elements located at the end of the range where the transmitted wave that has passed through the region of the ultrasonic element array reaches. Alternatively, the physical property value of the region is obtained by reducing the weight in the calculation of the physical property value.

本発明によれば、超音波の屈折に起因する物性値の誤差を低減し、精度よく物性値を算出することができる。   According to the present invention, it is possible to reduce an error of a physical property value caused by refraction of ultrasonic waves and calculate a physical property value with high accuracy.

本発明の実施形態の超音波撮像装置の全体構成の概略を示すサジタル断面図である。It is a sagittal sectional view showing the outline of the whole composition of the ultrasonic imaging device of the embodiment of the present invention. 実施形態の超音波素子アレイを下から見た形状を示す図である。It is a figure which shows the shape which looked at the ultrasonic element array of embodiment from the bottom. 被検体の領域を通過する超音波の屈折を示す説明図である。It is explanatory drawing which shows the refraction | bending of the ultrasonic wave which passes through the area | region of a subject. 超音波の屈折や干渉を示す説明図である。It is explanatory drawing which shows the refraction | bending and interference of an ultrasonic wave. 実施形態の信号処理部の機能ブロック図である。It is a functional block diagram of the signal processing unit of the embodiment. 実施形態の信号処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the signal processing part of embodiment. 実施形態の超音波撮像装置の計測から較正後の画像表示までのシーケンス図である。It is a sequence diagram from the measurement of the ultrasonic imaging apparatus of the embodiment to the image display after calibration. (a)、(b)、(c)は、透過波信号処理部、反射波信号処理部およびセグメンテーション処理部の動作をそれぞれ示すフローチャートである。(A), (b), (c) is a flowchart which respectively shows operation | movement of a transmitted wave signal processing part, a reflected wave signal processing part, and a segmentation processing part. (a)音速分布画像の一例、(b)反射境界画像の一例、(c)ユーザにより入力された境界(複数の領域)の一例、(d)重み0の領域が設定された透過距離サイノグラムの一例、(e)は(d)の透過距離サイノグラムから得た音速分布画像の一例。(A) an example of a sound velocity distribution image, (b) an example of a reflection boundary image, (c) an example of a boundary (a plurality of regions) input by a user, and (d) a transmission distance sinogram in which a region of weight 0 is set An example, (e) is an example of a sound velocity distribution image obtained from the transmission distance sinogram of (d). 実施形態で生成されるマスク画像の例であり、(a)は、大きい領域のマスク画像であり、(b)および(c)は、4つの小さい領域を2つずつ組にして組ごとに生成されたマスク画像であり、(d)〜(f)は、(a)〜(c)を順投影して得た透過距離サイノグラムである。It is an example of the mask image produced | generated by embodiment, (a) is a mask image of a large area | region, (b) and (c) are produced | generated for every group by making 4 small area | regions into 2 groups. (D) to (f) are transmission distance sinograms obtained by forward projection of (a) to (c). 実施形態において、重み関数w(d)、および、関数αの選択、ならび、較正有り無しの選択をユーザから受け付けるための画面例である。In the embodiment, it is an example of a screen for accepting selection of a weight function w (d) and a function α, and selection with and without calibration from a user. 実施形態で生成した物性値画像の物性値(音速値(y))と、音速値(y)に対応する領域の平均音速値(x)との関係を、二次関数y(x)でフィッティングした較正曲線の例である。The relationship between the physical property value (sound velocity value (y)) of the physical property value image generated in the embodiment and the average sound velocity value (x) in the region corresponding to the sound velocity value (y) is fitted with a quadratic function y (x). It is an example of a calibration curve.

以下、本発明の一実施形態について図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態の超音波撮像装置の全体構成の概略を示すサジタル断面図であり、図2は、超音波素子アレイ3を下から見た形状を示す図である。図3は、被検体1の領域11を通過する超音波の屈折を示す図である。図4は、超音波の屈折や干渉を示す説明図である。ただし、図2は、超音波素子アレイ3をリングアレイとして図示し、図3および図4は、説明を容易にするために、超音波素子アレイ3として対向配置された直線アレイとして図示し、平面波を送受信している例を示している。なお、本実施形態において、超音波素子アレイ3は、被検体1の透過波を受信できればどのような形状であってもよい。また、超音波は、平面波に限られず、ファンビームや集束ビームであってもよい。また、図1では被検体1の撮像部位が乳房であり、超音波撮像装置を乳癌検診装置として用いる形態を図示しているが、本発明の超音波撮像装置は、撮影対象が乳房に限定されるものではない。   FIG. 1 is a sagittal sectional view showing an outline of the overall configuration of the ultrasonic imaging apparatus of the present embodiment, and FIG. 2 is a diagram showing a shape of the ultrasonic element array 3 as viewed from below. FIG. 3 is a diagram illustrating refraction of ultrasonic waves that pass through the region 11 of the subject 1. FIG. 4 is an explanatory diagram showing refraction and interference of ultrasonic waves. However, FIG. 2 illustrates the ultrasonic element array 3 as a ring array, and FIGS. 3 and 4 illustrate a linear array opposed to the ultrasonic element array 3 for ease of explanation. The example which is transmitting / receiving is shown. In the present embodiment, the ultrasonic element array 3 may have any shape as long as the transmitted wave of the subject 1 can be received. Further, the ultrasonic wave is not limited to a plane wave, and may be a fan beam or a focused beam. 1 illustrates a form in which the imaging region of the subject 1 is a breast and the ultrasonic imaging apparatus is used as a breast cancer screening apparatus. However, in the ultrasonic imaging apparatus of the present invention, the imaging target is limited to the breast. It is not something.

本実施形態の超音波撮像装置は、図1のように、超音波素子アレイ3と、信号処理部7とを少なくとも備えている。超音波素子アレイ3は、図2のように、複数の超音波素子が配列された構造である。被検体1には、超音波素子アレイ3から超音波が送信される。超音波素子アレイ3とは異なる超音波素子から超音波を送信してもよい。超音波素子アレイ3の超音波素子は、被検体1に送信された超音波のうち、少なくとも被検体1を透過した透過波を受信して受信データを出力する。信号処理部7は、超音波アレイ3の受信データを処理して、被検体1の画像10を生成する。   As shown in FIG. 1, the ultrasonic imaging apparatus according to the present embodiment includes at least an ultrasonic element array 3 and a signal processing unit 7. The ultrasonic element array 3 has a structure in which a plurality of ultrasonic elements are arranged as shown in FIG. Ultrasonic waves are transmitted from the ultrasonic element array 3 to the subject 1. An ultrasonic wave may be transmitted from an ultrasonic element different from the ultrasonic element array 3. The ultrasonic element of the ultrasonic element array 3 receives at least a transmitted wave transmitted through the subject 1 among the ultrasonic waves transmitted to the subject 1 and outputs received data. The signal processing unit 7 processes the reception data of the ultrasonic array 3 to generate an image 10 of the subject 1.

信号処理部7は、図1のように、物性値算出部70を含む。物性値算出部70は、図3に示すように、被検体1の画像10に少なくとも1つの領域11を設定し、領域11を透過した超音波の透過波12を受信した超音波素子の出力する受信データから領域11の物性値を演算により求める。このとき、物性値算出部70は、領域11を透過した透過波が到達する範囲13の超音波素子アレイ3の超音波素子のうち、範囲13の端部に位置する1以上の超音波素子3aで受信された受信データを、物性値の演算に用いる受信データから除去するか、または、物性値の演算における重みを低下させて、領域11の物性値を求める。このように、範囲13の端部の超音波素子3aの受信データを除去または重みを低下させて演算する理由は、次の通りである。   The signal processing unit 7 includes a physical property value calculation unit 70 as shown in FIG. As shown in FIG. 3, the physical property value calculation unit 70 sets at least one region 11 in the image 10 of the subject 1, and outputs the ultrasonic wave transmitted through the region 11 from the ultrasonic element. The physical property value of the area 11 is obtained from the received data by calculation. At this time, the physical property value calculation unit 70 is one or more ultrasonic elements 3 a located at the end of the range 13 among the ultrasonic elements of the ultrasonic element array 3 in the range 13 where the transmitted wave that has passed through the region 11 reaches. The received data received in (1) is removed from the received data used for the calculation of the physical property value, or the weight in the calculation of the physical property value is reduced to obtain the physical property value of the region 11. The reason why the reception data of the ultrasonic element 3a at the end of the range 13 is calculated by removing or reducing the weight is as follows.

図3、図4に示したように、領域11に超音波が入射する際、および、領域11から超音波が出射する際には、領域11がその周囲の領域に対して屈折率が異なるため、超音波が屈折する。丸みを持った形状の領域11を設定した場合には、特に、超音波の入射方向に対して領域11の左右両端部において超音波の入射角が大きくなるため、領域11の左右両端部において透過波12の屈折角が大きくなる。領域11の左右両端部を透過し、屈折した透過波12aは、透過波12が到達する超音波素子アレイ3の範囲13の端部に位置する超音波素子3aに到達して受信される。このとき、領域11の端部を透過した透過波12aは、領域11の外側を通過した透過波14と干渉し、干渉波15を生じることもある。干渉波15もまた、透過波12が到達する範囲13の端部に位置する超音波素子3aに到達して受信される。よって、透過波12が到達する範囲13の端部に位置する超音波素子3aの出力する受信信号は、屈折した透過波12aや、外側の超音波14と干渉した超音波の受信信号であるため、除去、または、演算における重みを低下させて、物性値11の物性値を演算することにより、屈折や干渉の影響が低減された物性値を比較的容易に算出することができる。   As shown in FIGS. 3 and 4, when the ultrasonic wave is incident on the region 11 and when the ultrasonic wave is emitted from the region 11, the refractive index of the region 11 is different from the surrounding region. , Ultrasonic waves are refracted. When the rounded region 11 is set, the incident angle of the ultrasonic wave becomes large at both the left and right ends of the region 11 with respect to the incident direction of the ultrasonic wave. The refraction angle of the wave 12 is increased. The transmitted wave 12a that has passed through and refracted through the left and right ends of the region 11 reaches the ultrasonic element 3a located at the end of the range 13 of the ultrasonic element array 3 to which the transmitted wave 12 reaches and is received. At this time, the transmitted wave 12 a that has passed through the end of the region 11 may interfere with the transmitted wave 14 that has passed through the outside of the region 11 to generate an interference wave 15. The interference wave 15 also reaches the ultrasonic element 3a located at the end of the range 13 where the transmitted wave 12 reaches and is received. Therefore, the reception signal output from the ultrasonic element 3 a located at the end of the range 13 where the transmitted wave 12 reaches is a received signal of an ultrasonic wave that interferes with the refracted transmitted wave 12 a or the outer ultrasonic wave 14. The physical property value with reduced influence of refraction and interference can be calculated relatively easily by calculating the physical property value of the physical property value 11 by reducing the weight in the removal or calculation.

本実施形態では、透過波12が到達する範囲13の端部に位置する1以上の超音波素子3aの受信信号を除去、または、重みを低下させた受信信号を用いて、物性値を算出する。これにより、領域11の物性値を演算により、精度よく算出することができる。よって、ユーザは、精度よく算出された物性値に基づいて、領域11の組織性状を判別や診断等することができる。   In the present embodiment, the physical property value is calculated using the reception signal from which the reception signal of one or more ultrasonic elements 3a located at the end of the range 13 where the transmitted wave 12 reaches is removed or the weight is reduced. . Thereby, the physical property value of the region 11 can be calculated with high accuracy by calculation. Therefore, the user can discriminate or diagnose the tissue property of the region 11 based on the physical property value calculated with high accuracy.

領域11の物性値として、例えば、平均音速および減衰率の少なくとも一方を求める。物性値算出部70は、領域11内の平均音速を、領域11の形状から求めた、透過波の領域11の透過距離と、受信データから求めた領域11の透過波の通過時間から算出することができる。また、物性値算出部70は、領域11の減衰率を、受信データから求めた、領域11の透過波の通過前後の強度(振幅)の変化から算出することができる。   As the physical property value of the region 11, for example, at least one of an average sound speed and an attenuation rate is obtained. The physical property value calculation unit 70 calculates the average sound speed in the region 11 from the transmission distance of the transmitted wave 11 obtained from the shape of the region 11 and the transit time of the transmitted wave in the region 11 obtained from the received data. Can do. Further, the physical property value calculation unit 70 can calculate the attenuation rate of the region 11 from the change in intensity (amplitude) before and after passing through the transmitted wave of the region 11 obtained from the received data.

また、物性値を演算する際に受信データを除去、または、演算において重みを低下させる超音波素子3aの数を、領域11のサイズや位置、送信超音波の中心周波数に応じて物性値算出部70が設定する構成としてもよい。これにより、領域11のサイズや位置、周波数に応じて、適切な数の受信データを除去、または、重みを低下させることができるため、領域11の物性値の演算に用いる受信データの量を確保しながら、屈折や干渉の影響を低減できる。   In addition, the number of ultrasonic elements 3a that remove received data or reduce the weight in the calculation when calculating the physical property value is determined according to the size and position of the region 11 and the center frequency of the transmitted ultrasonic wave. 70 may be set. As a result, an appropriate number of received data can be removed or the weight can be reduced according to the size, position, and frequency of the area 11, so that the amount of received data used to calculate the physical property value of the area 11 is secured. However, the influence of refraction and interference can be reduced.

物性値算出部70は、超音波素子アレイ3の受信データを用いて領域11および領域11外の物性値を一旦算出し、領域11内と領域11の外の領域との物性値の差に応じて、受信データを除去または重みを低下させる超音波素子3aの数を設定してもよい。超音波の屈折角は、領域11の内外の屈折率差により決まるため、領域11の内外の物性値の差に応じて受信データを除去等する超音波素子3aの数を決定することにより、領域11の物性値の演算に用いる受信データ量確保しながら、屈折や干渉の影響を低減できる。   The physical property value calculation unit 70 temporarily calculates the physical property values outside the region 11 and the region 11 using the reception data of the ultrasonic element array 3, and according to the difference in physical property value between the region 11 and the region outside the region 11. Thus, the number of ultrasonic elements 3a that remove received data or reduce weight may be set. Since the refraction angle of the ultrasonic wave is determined by the difference in refractive index between the inside and outside of the region 11, the number of ultrasonic elements 3 a that remove received data or the like is determined according to the difference between the physical property values inside and outside the region 11. The influence of refraction and interference can be reduced while securing the amount of received data used for the calculation of 11 physical property values.

物性値算出部70は、超音波素子3aの数が複数である場合、それぞれの超音波素子3aの受信データの物性値演算における重みを、領域11を透過した透過波が超音波素子アレイ3に到達する範囲13の端部からその超音波素子3aまでの距離に応じて設定してもよい。これにより、屈折や干渉の影響が大きい範囲13の端部に近い超音波素子3aの受信データほど、演算における重みを低下させることができる。   When there are a plurality of ultrasonic elements 3a, the physical property value calculation unit 70 sets the weight in the physical property value calculation of the received data of each ultrasonic element 3a, and the transmitted wave transmitted through the region 11 is applied to the ultrasonic element array 3. You may set according to the distance from the edge part of the reachable range 13 to the ultrasonic element 3a. Thereby, the weight in calculation can be reduced, so that the reception data of the ultrasonic element 3a close | similar to the edge part of the range 13 where the influence of refraction or interference is large.

物性値算出部70は、領域11を設定するために、信号処理部7が生成した画像上で、ユーザから領域の設定を受け付けてもよい。例えば、超音波素子アレイ3は、被検体1による超音波の透過波のみならず反射波も受信し、信号処理部7は、反射波の受信データを用いて、被検体1の反射波画像を生成し、物性値算出部70は、入力部9を介して、反射波画像上で、ユーザから領域の設定を受け付ける構成としてもよい。   The physical property value calculation unit 70 may accept the setting of the region from the user on the image generated by the signal processing unit 7 in order to set the region 11. For example, the ultrasonic element array 3 receives a reflected wave as well as an ultrasonic wave transmitted by the subject 1, and the signal processing unit 7 uses the received data of the reflected wave to generate a reflected wave image of the subject 1. The generated property value calculation unit 70 may accept a setting of a region from the user on the reflected wave image via the input unit 9.

物性値算出部70は、信号処理部7が生成した反射波画像を画像処理することにより、領域11を設定する構成としてもよい。この場合、物性値算出部70が設定した領域11を、ユーザが入力部9を介して修正できる構成であれば、さらに望ましい。   The physical property value calculation unit 70 may be configured to set the region 11 by performing image processing on the reflected wave image generated by the signal processing unit 7. In this case, it is more desirable if the user can modify the region 11 set by the physical property value calculation unit 70 via the input unit 9.

また、信号処理部7は、被検体1の透過波の受信データをすべて用いて、被検体の物性値の分布を示す物性値画像を生成し、この物性値画像における物性値を、物性値算出部70が算出した領域11内の物性値を用いて較正する構成としてもよい。これにより、精度の良い物性値画像を生成することができる。   Further, the signal processing unit 7 generates a physical property value image indicating the distribution of physical property values of the subject using all the received wave reception data of the subject 1, and calculates the physical property value in the physical property value image. It is good also as a structure calibrated using the physical-property value in the area | region 11 which the part 70 calculated. Thereby, an accurate physical property value image can be generated.

<具体的な実施形態>
以下、本実施形態の具体的な実施形態の超音波撮像装置について説明する。
<Specific Embodiment>
Hereinafter, an ultrasonic imaging apparatus according to a specific embodiment of the present embodiment will be described.

以下説明する超音波撮像装置(以下、超音波CT装置と呼ぶ)は、反射波画像(以下、反射境界画像と呼ぶ)から主要な物体の構造をセグメンテイション(領域分け)することにより、1以上の領域11を設定し、1以上の領域11のマスク画像を作成する。そして、超音波CT装置は、超音波の直線モデルを仮定してマスク画像を順投影し、透過距離サイノグラムを得た後、透過距離サイノグラムと、計測で得られたサイノグラムとを比較し、最小自乗法等を用いて、セグメンテーションした領域11等(主要物体)の物性値を求める。その際、本装置は、構造境界部のデータ(すなわち、領域11を透過した透過波が到達する超音波素子アレイ3の範囲13の端部に位置する1以上の超音波素子3aで受信された受信データ)の演算(最小自乗法等)における重みを下げる、もしくは、演算に用いるデータから除去することで、屈折や干渉の影響を低減する。   An ultrasonic imaging apparatus (hereinafter referred to as an ultrasonic CT apparatus) to be described below includes one or more by segmenting (segmenting) a main object structure from a reflected wave image (hereinafter referred to as a reflection boundary image). Area 11 is set, and a mask image of one or more areas 11 is created. Then, the ultrasonic CT apparatus forward-projects the mask image assuming an ultrasonic linear model, obtains a transmission distance sinogram, compares the transmission distance sinogram with the sinogram obtained by measurement, and calculates the minimum Using a multiplication method or the like, a physical property value of the segmented region 11 or the like (main object) is obtained. At this time, the apparatus receives data of the structure boundary part (that is, one or more ultrasonic elements 3a located at the end of the range 13 of the ultrasonic element array 3 where the transmitted wave transmitted through the region 11 arrives). The influence of refraction and interference is reduced by lowering the weight in the calculation of received data) (least square method or the like) or by removing it from the data used for the calculation.

さらに、この超音波CT装置は、上記のようにして得られた領域11の物性値と、全透過波を用いて別途再構成した物性値画像の、領域11に対応する領域の物性値とを比較する。これにより、超音波CT装置は、物性値画像の物性値を較正するための較正曲線を得て、この較正曲線を用いて物性値画像全体を較正する。   Further, the ultrasonic CT apparatus calculates the physical property value of the region 11 obtained as described above and the physical property value of the region corresponding to the region 11 of the physical property value image separately reconstructed using the total transmitted wave. Compare. Thereby, the ultrasonic CT apparatus obtains a calibration curve for calibrating the physical property value of the physical property value image, and calibrates the entire physical property value image using this calibration curve.

このように、本実施形態の超音波装置は、被検体の構造境界部(領域11の端部)についての受信データを、物性値演算における重みを下げるか、または、物性値演算に用いる受信データから除去する。これにより、領域11における透過波の屈折やそれによる透過波の視野はみ出しに由来して、領域11の物性値が過小に評価(算出)される現象を較正し、より定量精度の高い領域11の物性値、および、より精度の高い物性値画像を提供する。以下、さらに詳細に説明する。   As described above, the ultrasonic apparatus according to the present embodiment reduces the weight in the physical property value calculation for the reception data on the structure boundary portion (the end portion of the region 11) of the subject or uses the received data for the physical property value calculation. Remove from. As a result, the phenomenon in which the physical property value of the region 11 is underestimated (calculated) due to the refraction of the transmitted wave in the region 11 and the field of view of the transmitted wave protruding therefrom is calibrated. A physical property value and a physical property value image with higher accuracy are provided. This will be described in more detail below.

図1に示したように、本実施形態の超音波CT装置は、すでに述べた超音波素子アレイ3および信号処理部7の他に、被検体1を乗せるベッド2と、水槽4と、制御部6と、記憶部8と、入出力部9とを備えている。ベッド2には、被検体1を搭載する面に開口が設けられ、開口の下部には、胸部を挿入できる円柱状の水槽4が備えられている。その内部には、図2に示すようなリング状の超音波素子アレイ(以下、リングアレイと呼ぶ)3が、水槽4の軸方向に平行移動可能に備えられている。リングアレイ3は、超音波送受信器である圧電素子(超音波素子)をリング状に配列した構成である。水槽4には、温水が満たされ、予備タンク5に接続されている。予備タンク5は、水槽4内の温水を浄化、加熱および脱気する。予備タンク5内や水槽4の下部には、温度計(不図示)が取り付けられ、制御部6に接続されている。   As shown in FIG. 1, in addition to the ultrasonic element array 3 and the signal processing unit 7 described above, the ultrasonic CT apparatus of the present embodiment includes a bed 2 on which the subject 1 is placed, a water tank 4, and a control unit. 6, a storage unit 8, and an input / output unit 9. The bed 2 is provided with an opening on the surface on which the subject 1 is mounted, and a cylindrical water tank 4 into which a chest can be inserted is provided below the opening. Inside, a ring-shaped ultrasonic element array (hereinafter referred to as a ring array) 3 as shown in FIG. 2 is provided so as to be movable in the axial direction of the water tank 4. The ring array 3 has a configuration in which piezoelectric elements (ultrasonic elements) which are ultrasonic transceivers are arranged in a ring shape. The water tank 4 is filled with warm water and is connected to the reserve tank 5. The reserve tank 5 purifies, heats and degass the hot water in the water tank 4. A thermometer (not shown) is attached to the reserve tank 5 and the lower part of the water tank 4, and is connected to the control unit 6.

超音波CT装置の撮影条件は、ユーザにより、入出力部9のタッチパネルやキーボード等を通して設定される。設定された条件等は、記憶部8のメモリやハードディスクドライブ等に保存される。   The imaging conditions of the ultrasonic CT apparatus are set by the user through the touch panel or keyboard of the input / output unit 9. The set conditions and the like are stored in the memory of the storage unit 8 or a hard disk drive.

信号処理部7は、記憶部8に保存された撮像条件をもとに制御信号を生成し、制御部6を構成する各種コントローラーに出力する。コントローラーは、超音波信号の送受信やスイッチング、リングアレイ3の上下動の制御、予備タンク5の水圧制御や温水の温度制御などを行う。   The signal processing unit 7 generates a control signal based on the imaging conditions stored in the storage unit 8 and outputs the control signal to various controllers constituting the control unit 6. The controller performs transmission / reception and switching of ultrasonic signals, vertical movement control of the ring array 3, water pressure control of the reserve tank 5, temperature control of hot water, and the like.

リングアレイ3が超音波を受信して出力する受信信号は、記憶部8に記録されると共に、信号処理部7で画像処理演算が実行される。信号処理部7が生成した被検体1の断層画像等の情報は、入出力部9のモニタ等に表示される。   A reception signal output by the ring array 3 receiving and outputting an ultrasonic wave is recorded in the storage unit 8 and an image processing operation is executed by the signal processing unit 7. Information such as a tomographic image of the subject 1 generated by the signal processing unit 7 is displayed on a monitor or the like of the input / output unit 9.

なお、制御部6と信号処理部7と記憶部8は、ベッド2の下部の空間に収めることもできる。   Note that the control unit 6, the signal processing unit 7, and the storage unit 8 can be stored in a space below the bed 2.

図5は、信号処理部7の機能ブロック図である。図5のように、信号処理部7は、透過波信号処理部7a、反射波信号処理部7b、および、セグメンテーション処理部7cを備えている。セグメンテーション処理部7cは、上述の物性値算出部70として機能する。これらの構成により、超音波CT装置は、水槽4内の被検体1の断層画像(反射境界画像(反射波画像)および物性値画像(透過波画像))を表示することが可能である。   FIG. 5 is a functional block diagram of the signal processing unit 7. As shown in FIG. 5, the signal processing unit 7 includes a transmitted wave signal processing unit 7a, a reflected wave signal processing unit 7b, and a segmentation processing unit 7c. The segmentation processing unit 7c functions as the physical property value calculating unit 70 described above. With these configurations, the ultrasonic CT apparatus can display a tomographic image (reflection boundary image (reflected wave image) and physical property value image (transmitted wave image)) of the subject 1 in the water tank 4.

信号処理部7は、CPU(Central Processing Unit)と、プログラムが予め格納されたメモリとを備えて構成され、CPUがプログラムを読み込んで実行することにより、信号処理部7の透過波信号処理部7a、反射波信号処理部7b、および、セグメンテーション処理部7cの機能をソフトウエアにより実現する。なお、信号処理部7は、その一部または全部をハードウエアによって実現することも可能である。例えば、ASIC(Application Specific Integrated Circuit)のようなカスタムICや、FPGA(Field-Programmable Gate Array)のようなプログラマブルICを用いて信号処理部7を構成し、信号処理部7の透過波信号処理部7a、反射波信号処理部7b、および、セグメンテーション処理部7cの動作を実現するように回路設計を行えばよい。   The signal processing unit 7 includes a CPU (Central Processing Unit) and a memory in which a program is stored in advance, and the CPU reads and executes the program, whereby the transmitted wave signal processing unit 7a of the signal processing unit 7 is executed. The functions of the reflected wave signal processing unit 7b and the segmentation processing unit 7c are realized by software. Note that part or all of the signal processing unit 7 can be realized by hardware. For example, the signal processing unit 7 is configured using a custom IC such as an ASIC (Application Specific Integrated Circuit) or a programmable IC such as an FPGA (Field-Programmable Gate Array), and the transmitted wave signal processing unit of the signal processing unit 7 The circuit design may be performed so as to realize the operations of 7a, the reflected wave signal processing unit 7b, and the segmentation processing unit 7c.

信号処理部7は、撮像条件等を基に、制御信号を生成し、制御部6を構成する各種コントローラーに送る。コントローラーは、超音波信号の送受信やスイッチング、リングアレイ3の上下動、および、ベッド2の上下動の制御、予備タンク5の水圧制御、温水温度のフィードバック制御などを行う。リングアレイ3により受信された透過波および反射波の受信データは、記憶部8に記録されると共に、信号処理部7の画像生成部11によって画像処理演算が施され、被検体1の反射境界画像や、物性値の分布を示す物性値画像等が生成される。生成された画像は、入出力部9のモニタ等に表示される。   The signal processing unit 7 generates a control signal based on the imaging conditions and sends it to various controllers that constitute the control unit 6. The controller performs transmission / reception and switching of ultrasonic signals, control of vertical movement of the ring array 3 and vertical movement of the bed 2, water pressure control of the reserve tank 5, feedback control of hot water temperature, and the like. The received data of the transmitted wave and the reflected wave received by the ring array 3 is recorded in the storage unit 8 and subjected to image processing calculation by the image generation unit 11 of the signal processing unit 7, so that the reflection boundary image of the subject 1 is obtained. In addition, a physical property value image showing the distribution of physical property values is generated. The generated image is displayed on a monitor of the input / output unit 9 or the like.

図6は、信号処理部7の動作を示すフローチャートである。図6を用いて、信号処理部7の動作を以下に説明する。被検体1またはユーザが、入出力部9のスタートボタンを押下した場合、信号処理部7は、それを受け付け、入出力部9のモニタに、被検体に検査着へ着替えるよう促す表示と、被検体の氏名又はIDと問診票を入力するための画面を入出力部9のモニタに表示する。これにより、被検体1またはユーザが、入出力部9を介して入力画面に氏名や問診票を入力したならば、信号処理部7は、これを受け付け、被検体1にベッド2へうつ伏せになり、水槽4に片方の乳房を挿入するように促す表示を入出力部9のモニタに表示する(ステップ102)。被検体1の乳房が水槽4に挿入されたことを、被検体1による入出力部9の操作等により、信号処理部7が把握したならば、信号処理部7は、予備タンク5を動作させるように制御部6に制御信号を出力する。制御部6は、予備タンク5内の水の温度を温度計から取り込んで、水の温度が所定の温度(体温程度)になるまで加熱し、脱気装置により脱気した後、ポンプを駆動させて、水槽4に移動させる。これにより、水槽4は、所定の温度に調整した脱気水で満たされる(ステップ103)。   FIG. 6 is a flowchart showing the operation of the signal processing unit 7. The operation of the signal processing unit 7 will be described below with reference to FIG. When the subject 1 or the user presses the start button of the input / output unit 9, the signal processing unit 7 accepts it, and displays on the monitor of the input / output unit 9 to prompt the subject to change into the test clothes, A screen for inputting the name or ID of the specimen and the questionnaire is displayed on the monitor of the input / output unit 9. As a result, if the subject 1 or the user inputs a name or an interview form on the input screen via the input / output unit 9, the signal processing unit 7 accepts this and lies on the subject 1 lying on the bed 2. Then, a display prompting one of the breasts to be inserted into the water tank 4 is displayed on the monitor of the input / output unit 9 (step 102). If the signal processing unit 7 grasps that the breast of the subject 1 has been inserted into the water tank 4 by operating the input / output unit 9 by the subject 1, the signal processing unit 7 operates the spare tank 5. In this manner, a control signal is output to the control unit 6. The controller 6 takes in the temperature of the water in the reserve tank 5 from the thermometer, heats it until the water reaches a predetermined temperature (about body temperature), deaerates it with a deaerator, and then drives the pump. And move to the water tank 4. Thereby, the water tank 4 is filled with the deaerated water adjusted to a predetermined temperature (step 103).

つぎに、信号処理部7は、制御部6を制御して、以下のように超音波を送受信させる。ここでは、ピッチが0.5mmで2048チャネルの圧電素子(超音波素子13)がリング状に並べられ、直径326mmのリングアレイ3が構成されているものとする。なお、圧電素子の水槽4の軸方向の厚みは1mmとする。リングアレイ3から照射する超音波の中心周波数を1.5MHz(水中での超音波の波長約1mm)とする。   Next, the signal processing unit 7 controls the control unit 6 to transmit / receive ultrasonic waves as follows. Here, it is assumed that a 2048 channel piezoelectric element (ultrasonic element 13) with a pitch of 0.5 mm is arranged in a ring shape to form a ring array 3 having a diameter of 326 mm. The axial thickness of the water tank 4 of the piezoelectric element is 1 mm. The center frequency of the ultrasonic wave irradiated from the ring array 3 is 1.5 MHz (the wavelength of the ultrasonic wave in water is about 1 mm).

制御部6は、リングアレイ3の連続した512チャネルの圧電素子に、所定の遅延量でそれぞれ遅延させた送信信号を受け渡す。これにより、512チャネルの圧電素子から位相を揃えた平面波の超音波を照射させる。そして、同じ512チャンネルの圧電素子で、被検体1の撮像部位(乳房)で反射された反射波を受信させる。また、送信した512チャネルに対して、撮像部位を挟んで対向する位置にある連続した512チャネルの圧電素子で、撮像部位の透過波を受信させる。これによって撮影視野(Field of View, FOV)を直径230mm確保することができる。制御部6は、リングアレイ3上で超音波を照射させる512チャネルの圧電素子を4チャネルずつずらしながら、上記照射動作および受信動作を繰り返し行わせることにより、水槽4のある深さのスライス(断面)において、水槽4の周囲360度からの透過波及び反射波の信号を、0.7度ずつずれた512ビューにおいて得る(ステップ104)。得られた反射波および透過波の受信信号は、記憶部8に格納する。   The control unit 6 delivers the transmission signals delayed by a predetermined delay amount to the continuous 512-channel piezoelectric elements of the ring array 3. Thereby, the ultrasonic wave of the plane wave which aligned the phase is irradiated from the piezoelectric element of 512 channels. Then, the reflected wave reflected by the imaging region (breast) of the subject 1 is received by the same 512-channel piezoelectric element. In addition, a transmitted 512-channel piezoelectric element is received by a continuous 512-channel piezoelectric element located opposite to the transmitted 512-channel. As a result, a field of view (FOV) of 230 mm in diameter can be secured. The control unit 6 repeats the irradiation operation and the reception operation while shifting the 512-channel piezoelectric elements that irradiate ultrasonic waves on the ring array 3 by 4 channels, so that a slice (cross section) of the water tank 4 has a certain depth. ), The transmitted wave and reflected wave signals from 360 degrees around the water tank 4 are obtained in 512 views shifted by 0.7 degrees (step 104). The obtained reflected wave and transmitted wave reception signals are stored in the storage unit 8.

制御部6は、水槽4の軸方向に0.5mmピッチでリングアレイ3を変位させながら、各深さにおいて、上記撮影を繰り返す(ステップ105,106)。よって、リングアレイ3が、例えば合計20mmの変位するまで上記撮影を繰り返した場合、撮像部位の40スライス分の受信信号データが得られる。上記手順で、予め定めた深さ範囲について、被検体1の乳房の三次元情報(受信信号)を得て、記憶部8に格納する。   The controller 6 repeats the above photographing at each depth while displacing the ring array 3 at a pitch of 0.5 mm in the axial direction of the water tank 4 (steps 105 and 106). Therefore, when the above-described imaging is repeated until the ring array 3 is displaced by, for example, 20 mm in total, reception signal data for 40 slices of the imaging region is obtained. The three-dimensional information (reception signal) of the breast of the subject 1 is obtained for the predetermined depth range by the above procedure and stored in the storage unit 8.

信号処理部7は、乳房の受信信号が正しく得られたかどうかをチェックし、正しく得られていたならば、他方の乳房も同様に測定するため、ステップ102に戻って、水槽4にもう片方の乳房を挿入するように被検体1に促す表示を入出力部9のモニタに表示し、ステップ103〜106を繰り返す。両方の乳房について受信信号が正しくえられたならば、信号処理部7は、ステップ108に進む。   The signal processing unit 7 checks whether or not the reception signal of the breast is correctly obtained. If the reception signal is correctly obtained, the signal processing unit 7 returns to step 102 to measure the other breast in the same manner. A display prompting the subject 1 to insert the breast is displayed on the monitor of the input / output unit 9, and steps 103 to 106 are repeated. If the received signals are obtained correctly for both breasts, the signal processing unit 7 proceeds to step 108.

ステップ108〜110では、透過波信号処理部7a、反射波信号処理部7b、および、セグメンテーション処理部7c(物性値演算部70)が、それぞれ処理を行う。図7に、透過波信号処理部7a、反射波信号処理部7b、セグメンテーション処理部7cで行われる処理シーケンスの概略を示す。この処理シーケンスは、以下の(a)〜(c)の3つの過程を含む。
(a)透過波信号処理部7aが、記憶部8から透過波信号データを読み込み、物性値画像を生成し、生成した物性値画像を入出力部9に出力する(ステップ108における処理)。
(b)反射波信号処理部7bが、記憶部8から反射波信号データを読み込み、反射率境界画像を生成し、生成した反射境界画像を入出力部9に出力する(ステップ109における処理)。
(c)セグメンテーション処理部7cが、上記(b)の過程で得られた反射境界画像を読み込んで、セグメンテーション(領域分け)して領域11を設定し、必要に応じて設定した領域分けの結果画像を入出力部9に出力して表示させ、ユーザから修正を受け付ける等した後、領域11毎の平均物性値を演算により求める。そして、上記(a)の過程で得られた物性値画像を読み込んで、この画像の物性値を、領域11の平均物性値を用いて較正し、較正後の物性値画像を入出力部9に出力する(ステップ110における処理)。
In steps 108 to 110, the transmitted wave signal processing unit 7a, the reflected wave signal processing unit 7b, and the segmentation processing unit 7c (physical property value calculation unit 70) perform processing. FIG. 7 shows an outline of a processing sequence performed in the transmitted wave signal processing unit 7a, the reflected wave signal processing unit 7b, and the segmentation processing unit 7c. This processing sequence includes the following three processes (a) to (c).
(a) The transmitted wave signal processing unit 7a reads the transmitted wave signal data from the storage unit 8, generates a physical property value image, and outputs the generated physical property value image to the input / output unit 9 (processing in step 108).
(b) The reflected wave signal processing unit 7b reads the reflected wave signal data from the storage unit 8, generates a reflectance boundary image, and outputs the generated reflected boundary image to the input / output unit 9 (processing in step 109).
(C) The segmentation processing unit 7c reads the reflection boundary image obtained in the process (b), performs segmentation (region division), sets the region 11, and sets the region division result image as necessary. Is output to the input / output unit 9 to be displayed, and after correction is received from the user, an average physical property value for each region 11 is obtained by calculation. Then, the physical property value image obtained in the process (a) is read, the physical property value of this image is calibrated using the average physical property value of the region 11, and the physical property value image after calibration is input to the input / output unit 9. Output (processing in step 110).

以下、透過波信号処理部7a、反射波信号処理部7bおよびセグメンテーション処理部7cが行う処理を詳しく説明する。図8(a)、(b)、(c)は、透過波信号処理部7a、反射波信号処理部7bおよびセグメンテーション処理部7cのステップ108〜110の動作をそれぞれ示すフローチャートである。まず、透過波信号処理部7aの処理を図8(a)のフローに従って説明する。透過波信号処理部7aは、透過波の受信波信号を記憶部8から読み込み(ステップ801)、時間方向にヒルベルト変換を実施し、透過波の最大振幅とそのタイミングを求める(ステップ802)。被検体1の挿入前後の受信時間の差と最大振幅の対数の差とを、各ビュー、各受信チャネル毎にそれぞれ計算し、受信時間の差のデータの集まりであるサイノグラムおよび最大振幅の差のデータの集まりであるサイノグラムをそれぞれ生成する(ステップ803)。サイノグラムは、スライス毎に得られる。透過波信号処理部7aは、受信時間の差のサイノグラムおよび最大振幅の対数の差のサイノグラムをそれぞれ、X線CTの分野で広く利用されているフィルタ補正逆投影法(Filtered Back Projection, FBP)等で処理することにより、断層画像を再構成する(ステップ804)。受信時間の差のサイノグラムからは、被検体1の挿入前後の、超音波の「遅さ(Slowness)」の差の分布画像(断層画像)が得られる。「遅さ」は、音速の逆数である。最大振幅の対数の差のサイノグラムからは、被検体1の挿入前後の減衰率の差の分布画像(断層画像)が得られる。透過波信号処理部7aは、水の音速や減衰率として予め定めておいた値(推定値)を用いることにより、上記「遅さ(Slowness)」の差の分布画像および上記減衰率の差の分布画像から、被検体1の音速分布および減衰率分布の画像をそれぞれ生成する(ステップ805)。図9(a)に生成した音速分布画像の一例を示す。透過波信号処理部7aは、スライスごとの透過波の受信信号について上記処理を行って、スライスごとの音速分布および減衰率分布の画像(物性値画像)を生成する。透過波信号処理部7aは、生成した音速分布画像および減衰率分布画像を、記憶部8に格納する。   Hereinafter, processing performed by the transmitted wave signal processing unit 7a, the reflected wave signal processing unit 7b, and the segmentation processing unit 7c will be described in detail. FIGS. 8A, 8B, and 8C are flowcharts showing operations of steps 108 to 110 of the transmitted wave signal processing unit 7a, the reflected wave signal processing unit 7b, and the segmentation processing unit 7c, respectively. First, the process of the transmitted wave signal processing unit 7a will be described according to the flow of FIG. The transmitted wave signal processing unit 7a reads the received wave signal of the transmitted wave from the storage unit 8 (step 801), performs Hilbert transform in the time direction, and obtains the maximum amplitude and timing of the transmitted wave (step 802). The difference in reception time before and after the insertion of the subject 1 and the difference in logarithm of the maximum amplitude are calculated for each view and each reception channel, respectively, and the sinogram and the maximum amplitude difference of the reception time difference data are calculated. A sinogram, which is a collection of data, is generated (step 803). A sinogram is obtained for each slice. The transmitted wave signal processing unit 7a uses a reception time difference sinogram and a maximum amplitude logarithm difference sinogram, such as a filtered back projection (FBP) widely used in the field of X-ray CT. In step 804, the tomographic image is reconstructed. From the sinogram of the difference in reception time, a distribution image (tomographic image) of the difference in ultrasonic “slowness” before and after insertion of the subject 1 is obtained. “Slowness” is the reciprocal of the speed of sound. A distribution image (tomographic image) of the difference in attenuation rate before and after insertion of the subject 1 is obtained from the sinogram of the logarithmic difference of the maximum amplitude. The transmitted wave signal processing unit 7a uses a predetermined value (estimated value) as the sound speed and attenuation rate of water, thereby obtaining a distribution image of the difference of the “slowness” and the difference of the attenuation rate. Images of the sound velocity distribution and the attenuation rate distribution of the subject 1 are respectively generated from the distribution image (step 805). FIG. 9A shows an example of the generated sound speed distribution image. The transmitted wave signal processing unit 7a performs the above-described processing on the received signal of the transmitted wave for each slice, and generates an image (physical property value image) of the sound velocity distribution and the attenuation rate distribution for each slice. The transmitted wave signal processing unit 7 a stores the generated sound velocity distribution image and attenuation rate distribution image in the storage unit 8.

次に、反射波信号処理部7bの処理を、図8(b)のフローに沿って説明する。反射波信号処理部7bは、記憶部8から反射波の受信データを読み込み、時間方向にヒルベルト変換を実施する。反射波信号処理部7bは、超音波素子13から超音波を照射してから被検体1からの反射波が超音波素子13に返って来る時間(タイミング)を、送信した超音波素子13から注目画素(被検体1内の点)までの距離と、注目画素から受信した超音波素子13までの距離の和を、超音波の音速(例えば水の音速)で割ることで求める。そして、反射波信号処理部7bは、被検体1内の注目画素で反射した反射波が、受信を行う各超音波素子にそれぞれ到達するタイミングで各超音波素子が受信した信号を加算し、加算後の信号強度をその画素の値とする。この方法は、遅延加算法(Delay and Sum, DAS)と呼ばれている。これを視野内の全画素について行うことで、反射波信号処理部7bは、超音波エコー検査で広く利用されているBモード画像を得る(ステップ812)。反射波信号処理部7bは、各照射角度(ビュー)で求まったBモード画像を加算することで、被検体1のあるスライスの反射境界画像を得る(ステップ813)。この処理をスライスごとの反射波の受信信号に行うことにより、画像生成部11は、スライスごとの反射境界画像を生成する。図9(b)に生成した反射境界画像の一例を示す。反射波信号処理部7bは、生成した反射境界画像を記憶部8に格納する。   Next, the process of the reflected wave signal processing unit 7b will be described along the flow of FIG. The reflected wave signal processing unit 7b reads the received data of the reflected wave from the storage unit 8, and performs Hilbert transform in the time direction. The reflected wave signal processing unit 7b pays attention to the time (timing) at which the reflected wave from the subject 1 returns to the ultrasonic element 13 after irradiating the ultrasonic wave from the ultrasonic element 13, from the transmitted ultrasonic element 13. The sum of the distance to the pixel (a point in the subject 1) and the distance from the target pixel to the ultrasonic element 13 received is divided by the ultrasonic velocity of sound (for example, the velocity of water). The reflected wave signal processing unit 7b adds the signals received by the ultrasonic elements at the timing when the reflected waves reflected by the target pixel in the subject 1 reach the ultrasonic elements to be received, respectively. The later signal intensity is taken as the value of that pixel. This method is called the delay and sum (DAS). By performing this operation for all pixels in the field of view, the reflected wave signal processing unit 7b obtains a B-mode image that is widely used in ultrasonic echo inspection (step 812). The reflected wave signal processing unit 7b obtains a reflection boundary image of a slice of the subject 1 by adding the B mode images obtained at each irradiation angle (view) (step 813). By performing this process on the reception signal of the reflected wave for each slice, the image generation unit 11 generates a reflection boundary image for each slice. FIG. 9B shows an example of the generated reflection boundary image. The reflected wave signal processing unit 7 b stores the generated reflection boundary image in the storage unit 8.

セグメンテーション処理部7cの処理を図8(c)のフローを用いて説明する。反射境界画像は、一般に透過波画像よりも空間分解能が高いため、ユーザは、反射境界画像に基づいて透過波画像だけでは分からない被検体1の構造(組織の境界)を把握することができる。セグメンテーション処理部7cは、透過波信号処理部7aが生成した物性値画像と、反射波信号処理部7bが生成した反射境界画像を記憶部8から読み込んで、入出力部9のモニタに表示し、反射境界画像上でセグメンテーション(領域11の設定)をユーザから受け付ける(ステップ821)。例えば、ユーザは、物性値画像を参考にしながら、反射境界画像上で、物性値境界(腫瘍部等)と予想される境界をマウス等で入力し、反射境界画像を領域分けし、少なくとも一つの領域11を設定する。図9(c)にユーザにより入力された境界(複数の領域)の例を示す。境界情報は、フリーハンド曲線のほか、楕円や多角形で入力できるように、セグメンテーション処理部7cを構成してもよい。なお、セグメンテーション処理部7cが、セグメンテーションの受け付けのために、ユーザに表示する反射境界画像と透過波画像は、並べて表示してもよいし、適当に輝度を調整した上で重ねて表示しても良い。また、ユーザが作業しやすい方に、ユーザの入出力部9の操作に応じて、セグメンテーション処理部7cが切り替える構成としてもよい。   The processing of the segmentation processing unit 7c will be described using the flow of FIG. Since the reflected boundary image generally has a higher spatial resolution than the transmitted wave image, the user can grasp the structure (tissue boundary) of the subject 1 that cannot be understood only from the transmitted wave image based on the reflected boundary image. The segmentation processing unit 7c reads the physical property value image generated by the transmitted wave signal processing unit 7a and the reflection boundary image generated by the reflected wave signal processing unit 7b from the storage unit 8, displays them on the monitor of the input / output unit 9, Segmentation (setting of region 11) is received from the user on the reflection boundary image (step 821). For example, while referring to the physical property value image, the user inputs a boundary that is expected to be a physical property value boundary (tumor part or the like) on the reflective boundary image with a mouse or the like, and divides the reflective boundary image into at least one region. Region 11 is set. FIG. 9C shows an example of boundaries (plural areas) input by the user. The segmentation processing unit 7c may be configured so that the boundary information can be input as an ellipse or a polygon in addition to the freehand curve. The segmentation processing unit 7c may display the reflection boundary image and the transmitted wave image to be displayed to the user side by side for accepting the segmentation, or may display the image after overlapping the brightness after appropriately adjusting the luminance. good. Moreover, it is good also as a structure which the segmentation process part 7c switches to the direction where a user tends to work according to a user's operation of the input / output part 9.

セグメンテーション処理部7cは、設定された領域11が、予め定めておいた条件を満たすかどうかを判定することにより、領域11が適切かどうか判断する(ステップ822)。例えば、設定された領域11の面積または径が、予め定めた値以下である場合や、領域11の数が予め定めた数よりも多い場合は、適切ではないため、以下の処理で正しく物性値を求めることができないと判断する。そして、セグメンテーション処理部7cは、入出力部9のモニタにユーザへの警告メッセージを表示し、再度領域分けの入力を行うように促し、ステップ821に戻る。   The segmentation processing unit 7c determines whether or not the area 11 is appropriate by determining whether or not the set area 11 satisfies a predetermined condition (step 822). For example, when the area or diameter of the set region 11 is equal to or smaller than a predetermined value, or when the number of the regions 11 is larger than the predetermined number, it is not appropriate. It is judged that it cannot be asked. Then, the segmentation processing unit 7c displays a warning message to the user on the monitor of the input / output unit 9, prompts the user to input the area again, and returns to Step 821.

一方、セグメンテーション処理部7cは、設定された領域11が適切であると判断した場合には、領域11のマスク画像を生成する(ステップ823)。ここで、マスク画像とは、領域11の内部を1、外部を0とする二値画像のことであり、領域11が複数ある場合には、領域ごとに生成する。複数の領域11が設定され、大きな領域11の内側に小さい領域11が設定されている場合には、大きな領域11の内部を1、大きい領域の外部および内側の小さい領域11の内部を0としたマスク画像と、小さい領域11のそれぞれのマスク画像を生成する。ただし、小さい領域11のいくつかを組みにして、組ごとにマスク画像を生成してもよい。この場合、組にする小さい領域11は、領域内の被検体1の物性値が同じか近いものであることが望ましい。図10(a)〜(c)に、一例として、大きい領域(被検体1の外形)11の内側に4つの小さい領域11が設定されたマスク画像の一例を示す。図10(a)は、大きい領域のマスク画像であり、図10(b)、(c)は、4つの小さい領域を2つずつ組にして組ごとに生成されたマスク画像である。   On the other hand, if the segmentation processing unit 7c determines that the set region 11 is appropriate, the segmentation processing unit 7c generates a mask image of the region 11 (step 823). Here, the mask image is a binary image in which the inside of the area 11 is 1 and the outside is 0. When there are a plurality of areas 11, the mask image is generated for each area. When a plurality of areas 11 are set and a small area 11 is set inside the large area 11, the inside of the large area 11 is set to 1, and the outside of the large area and the inside of the small area 11 inside are set to 0. A mask image and a mask image of each small area 11 are generated. However, some of the small regions 11 may be combined and a mask image may be generated for each group. In this case, it is desirable that the small regions 11 to be paired have the same or close physical property values of the subject 1 in the region. FIGS. 10A to 10C show an example of a mask image in which four small regions 11 are set inside a large region (external shape of the subject 1) 11 as an example. FIG. 10A is a mask image of a large area, and FIGS. 10B and 10C are mask images generated for each set of four small areas.

セグメンテーション処理部7cは、マスク画像ごとに透過距離サイノグラムを生成する(ステップ824)。すなわち、セグメンテーション処理部7cは、マスク画像について、超音波の直線伝播モデルを仮定して、リングアレイ3の超音波を送信した超音波素子と受信した超音波素子との間の経路が、各領域11が横切る長さ、すなわち超音波の透過距離を計算する。この処理を順投影と呼ぶ。この順投影を、各超音波素子(チャネル)について、投影角度(ビュー)ごとに求めることにより、透過距離のデータの集まりを求める。求められた透過距離のデータの集まりを透過距離サイノグラムと呼ぶ。図10(a)〜(c)のマスク画像について得られた透過距離サイノグラムを図10(d)〜(f)に示す。図10(d)〜(f)は、横軸に超音波素子(チャネル)の番号、縦軸にビュー番号を示す。領域11を横切った超音波の経路が到達する超音波素子のみが値(透過距離値)をもつため、その値に応じた輝度で描かれている。そのため、透過距離サイノグラム上には、順投影により領域11を横切った超音波の経路が到達するチャネルの範囲の画素値が大きく、その範囲がビューごとに変化するため、幅をもった曲線として描かれ、その周囲は超音波の経路が到達しないチャネルであるため画素値が0で表されている。   The segmentation processing unit 7c generates a transmission distance sinogram for each mask image (step 824). That is, the segmentation processing unit 7c assumes that an ultrasonic linear propagation model is assumed for the mask image, and the path between the ultrasonic element that has transmitted the ultrasonic waves of the ring array 3 and the received ultrasonic element is in each region. The length traversed by 11, that is, the transmission distance of the ultrasonic wave is calculated. This process is called forward projection. By obtaining this forward projection for each ultrasonic element (channel) for each projection angle (view), a collection of transmission distance data is obtained. A collection of data of the obtained transmission distance is called a transmission distance sinogram. The transmission distance sinograms obtained for the mask images of FIGS. 10A to 10C are shown in FIGS. 10D to 10F, the horizontal axis indicates the number of the ultrasonic element (channel), and the vertical axis indicates the view number. Since only the ultrasonic element that the ultrasonic path crossing the region 11 reaches has a value (transmission distance value), it is drawn with a luminance corresponding to the value. Therefore, on the transmission distance sinogram, the pixel value of the channel range where the ultrasonic path crossing the region 11 reaches by the forward projection is large, and the range changes for each view. Since the surrounding channel is a channel through which the ultrasonic path does not reach, the pixel value is represented by zero.

図3および図4を用いてすでに説明したように、被検体1の構造(領域11)の境界部では、超音波が屈折し、丸みを持った形状の領域11である場合、超音波の入射方向に対して左右両端部において、超音波12aの入射角が大きくなるため、超音波12aの屈折角が大きくなる。また、屈折した超音波12aと、領域11の外側を通過する超音波14との干渉も生じ得る。そのため、領域11を横切った超音波が到達する超音波素子の範囲(すなわち、透過波12が到達する範囲13)の端部に位置する超音波素子3aの出力する受信信号は、他の超音波素子の出力する受信信号データよりも信頼性が低いと考えられる。   As already described with reference to FIGS. 3 and 4, the ultrasonic wave is refracted at the boundary portion of the structure (region 11) of the subject 1, and the ultrasonic wave is incident when the region 11 has a round shape. Since the incident angle of the ultrasonic wave 12a becomes large at both the left and right ends with respect to the direction, the refraction angle of the ultrasonic wave 12a becomes large. In addition, interference between the refracted ultrasonic wave 12a and the ultrasonic wave 14 passing outside the region 11 may also occur. Therefore, the reception signal output from the ultrasonic element 3a located at the end of the range of the ultrasonic element that the ultrasonic wave crossing the region 11 reaches (that is, the range 13 that the transmitted wave 12 reaches) is the other ultrasonic wave. It is considered that the reliability is lower than the received signal data output from the element.

そこで、セグメンテーション処理部7cは、透過波12が到達する範囲13の両端部(超音波素子3a)からの距離dに応じた重みを生成する(ステップ825)。具体的には、セグメンテーション処理部7cは、透過距離サイノグラム上に描かれた曲線(すなわち、順投影により領域11を横切った超音波の経路が到達するチャネルの範囲)の両端に位置するチャネル(超音波素子)からのチャネル方向の距離を改めてdとし、透過距離サイノグラム上に重み関数w(d)を生成する。重み関数wは、例えばガウス型とすればよい。ただし、屈折の大きさは境界(領域11)の内と外の音速差ΔCに依存することを考慮し、境界の内外の音速差に応じて、重みを調整しても良い。ここでの音速値は、ステップ108で生成した物性値画像のうち音速画像における、各領域11の音速値(画素値)の平均値を用いればよい。   Therefore, the segmentation processing unit 7c generates a weight according to the distance d from both ends (ultrasonic element 3a) of the range 13 where the transmitted wave 12 reaches (step 825). Specifically, the segmentation processing unit 7c has a channel (super-range) positioned at both ends of a curve drawn on the transmission distance sinogram (that is, a range of channels where an ultrasonic path crossing the region 11 reaches by forward projection). The distance in the channel direction from the sonic element) is again set as d, and a weighting function w (d) is generated on the transmission distance sinogram. The weight function w may be a Gaussian type, for example. However, considering that the magnitude of refraction depends on the sound speed difference ΔC inside and outside the boundary (region 11), the weight may be adjusted according to the sound speed difference inside and outside the boundary. As the sound velocity value here, an average value of sound velocity values (pixel values) of each region 11 in the sound velocity image among the property value images generated in step 108 may be used.

一例として、距離dと音速差ΔCに依存する重み関数w(d、ΔC)を式(1)に示す。式(1)において、αは、音速差ΔCに依存する関数である。なお、重み関数wは式(1)の形に限られるものではなく、式(2)にように、順投影により領域11を横切った超音波の経路が到達するチャネルの範囲の両端に位置するチャネル(超音波素子)からの所定の距離dの領域11のデータを除去(重み0)にする場合も含む。なお、式(2)において、θはヘヴィサイドの階段関数である。各領域11の境界ごとに生成された重みwをそれぞれ掛け合わせることで、重みサイノグラムW=Πmmを生成する。図9(d)は、生成した重みサイノグラムWを透過距離サイノグラムに掛け合わせた例であり、2つの小さい領域11に対応する透過距離サイノグラムの帯状の曲線の端部から所定の距離dの範囲の重みが0に設定されている。なお、重みサイノグラムは、境界からの距離に応じた重みを付加したマスク画像を順投影して生成しても良い。 As an example, a weight function w (d, ΔC) that depends on the distance d and the sound speed difference ΔC is shown in Expression (1). In Expression (1), α is a function that depends on the sound speed difference ΔC. Note that the weighting function w is not limited to the form of the equation (1), and is located at both ends of the channel range where the ultrasonic path crossing the region 11 by forward projection reaches as shown in the equation (2). This includes the case where the data in the region 11 at a predetermined distance d from the channel (ultrasound element) is removed (weight 0). In Equation (2), θ is a heavy side step function. The weight w that is generated for each boundary of each region 11 By multiplying each generates a weight sinogram W = Π m w m. FIG. 9D shows an example in which the generated weight sinogram W is multiplied by the transmission distance sinogram. The transmission distance sinogram corresponding to the two small regions 11 has a predetermined distance d from the end of the belt-like curve. The weight is set to 0. The weight sinogram may be generated by forward projecting a mask image to which a weight according to the distance from the boundary is added.

Figure 2018088990
Figure 2018088990
Figure 2018088990
Figure 2018088990

なお、式(1)および(2)において、重み関数wの形やαの関数形は、被検体(撮影部位)に応じて複数の候補からユーザが選択できるように構成してもよい。例えば、セグメンテーション処理部7cは、図11のように、重み関数wとして予め定めおいた複数の重み関数w、w、w、ならびに、関数αとして予め定めておいた複数の関数α、α、αを示す画面をモニタに表示し、中からユーザが一つを選択するための画面を入出力部9のモニタに表示させ、関数w、αとして用いる関数の選択を入出力部9を介してユーザから受け付ける構成にすることができる。 In equations (1) and (2), the shape of the weighting function w and the function shape of α may be configured so that the user can select from a plurality of candidates according to the subject (imaging site). For example, as shown in FIG. 11, the segmentation processing unit 7 c includes a plurality of weight functions w 1 , w 2 , w 3 that are predetermined as the weight function w and a plurality of functions α 1 that are predetermined as the function α. , Α 2 , α 3 are displayed on the monitor, a screen for the user to select one of them is displayed on the monitor of the input / output unit 9, and selection of functions used as functions w, α is input / output It can be configured to accept from the user via the unit 9.

次に、セグメンテーション処理部7cは、ステップ824で生成した重みと、超音波素子の出力信号(受信信号)とを用いて各領域11の平均物性値を算出する(ステップ826)。例えば、セグメンテーション処理部7cは、最尤推定法を用いて各領域11の物性値を求める。具体的には、物性値として音速値を求める場合、式(3)を最小化するように、式(4)の音速値Cの組み合わせを探索することにより、各領域11の音速値Cを求める。ここで、dtは、被検体1の挿入前後の受信時間の差のサイノグラムであり、Lは透過距離サイノグラム、Cwaterは水の音速、mは各領域11に付けたインデックスである。解の探索は例えばニュートン法を用いる。なお、最尤推定の方法は式(3)の形に限るものではない。なお、求めることができる物性値としては、音速に限られるものではなく、減衰係数値も同様に求めることが可能である。

Figure 2018088990
Figure 2018088990
複数のスライスの受信データデータがある場合には、それぞれのスライスのマスク画像から得られた透過距離サイノグラムをまとめて式(5)のように、処理することもできる。これによって各スライス間の画像を統一的に較正することができる。
Figure 2018088990
Next, the segmentation processing unit 7c calculates an average physical property value of each region 11 using the weight generated in Step 824 and the output signal (received signal) of the ultrasonic element (Step 826). For example, the segmentation processing unit 7c obtains the physical property value of each region 11 using the maximum likelihood estimation method. Specifically, when obtaining the sound speed value as a physical property value, so as to minimize the equation (3), by searching the combination of sound velocity C m of formula (4), sound velocity C m of each area 11 Ask for. Here, dt is a sinogram of the difference in reception time before and after insertion of the subject 1, L m is a transmission distance sinogram, C water is the sound velocity of water, and m is an index attached to each region 11. The solution search uses, for example, the Newton method. The method of maximum likelihood estimation is not limited to the form of equation (3). Note that the physical property value that can be obtained is not limited to the speed of sound, and the attenuation coefficient value can be obtained similarly.
Figure 2018088990
Figure 2018088990
When there is received data data of a plurality of slices, transmission distance sinograms obtained from the mask images of the respective slices can be collectively processed as in equation (5). As a result, the images between the slices can be calibrated uniformly.
Figure 2018088990

つぎに、セグメンテーション処理部7cは、ステップ826で求めた各領域11の平均物性値を用いて、ステップ805で生成した物性値画像を較正する(ステップ827)。まず、セグメンテーション処理部7cは、ステップ826で求めた各領域11の物性値(y)と、ステップ805で求めた物性値画像における領域11に対応する領域の平均物性値(x)との関係を二次元グラフ(x−y)にプロットし、これを関数y(x)でフィッティングし、関数y(x)を較正曲線として求める。図12は、ステップ826で求めた物性値である音速値(y)と、音速値(y)に対応する領域についてステップ805で求めた平均音速値(x)をプロットし、二次関数y(x)でフィッティングしたグラフである。セグメンテーション処理部7cは、関数y(x)を較正関数として用いて、ステップ805で求めた物性値画像の画素値(物性値)xから較正後の物性値yを算出し、画素値をyに置き換える処理を行う。これにより、物性値画像の各画素の物性値を、領域の境界における屈折や干渉の影響を抑制して求めた物性値に較正した物性値画像が生成される。ここでは、物性値画像として音速値画像を較正する例について説明したが、減衰係数値の画像も同様に較正曲線を求めることが可能である。   Next, the segmentation processing unit 7c calibrates the physical property value image generated in step 805 using the average physical property value of each region 11 obtained in step 826 (step 827). First, the segmentation processing unit 7c determines the relationship between the physical property value (y) of each region 11 obtained in step 826 and the average physical property value (x) of the region corresponding to the region 11 in the physical property value image obtained in step 805. This is plotted on a two-dimensional graph (xy) and fitted with a function y (x) to obtain the function y (x) as a calibration curve. FIG. 12 plots the sound velocity value (y), which is the physical property value obtained in step 826, and the average sound velocity value (x) obtained in step 805 for the region corresponding to the sound velocity value (y), and a quadratic function y ( It is the graph fitted by x). The segmentation processing unit 7c calculates the physical property value y after calibration from the pixel value (physical property value) x of the physical property value image obtained in step 805 using the function y (x) as a calibration function, and sets the pixel value to y. Perform the replacement process. As a result, a physical property value image in which the physical property value of each pixel of the physical property value image is calibrated to the physical property value obtained by suppressing the influence of refraction and interference at the boundary of the region is generated. Here, an example in which a sound speed value image is calibrated as a physical property value image has been described. However, a calibration curve can be similarly obtained for an image of an attenuation coefficient value.

なお、セグメンテーション処理部7cが上記ステップ827における物性値画像の較正を行うかどうかを、ユーザが選択可能な較正にしてもよい。例えば、図11のように、セグメンテーション処理部7cは、較正の有り無しの選択を受け付ける項目を図11の画面に表示し、入出力部9を介してユーザにより較正の有りまたは無しの選択を受け付ける。較正有りが選択された場合は、セグメンテーション処理部は、ステップ827を実行し、較正なしが選択された場合は、ステップ827を実行しない。   Note that whether or not the segmentation processing unit 7c calibrates the physical property value image in Step 827 may be a calibration that can be selected by the user. For example, as shown in FIG. 11, the segmentation processing unit 7 c displays an item for accepting selection of whether calibration is present or not on the screen of FIG. 11, and accepts selection of whether calibration is present or absent by the user via the input / output unit 9. . If “with calibration” is selected, the segmentation processing unit executes step 827, and if “without calibration” is selected, does not execute step 827.

なお、ここでは、図12のように、フィッティング関数を二次関数でフィッティングしたが、フィッティング関数は多項式に限られるものではない。   Here, as shown in FIG. 12, the fitting function is fitted with a quadratic function, but the fitting function is not limited to a polynomial.

また、較正後の画質の均一性を保つために、較正曲線のフィッティングは複数のスライスで得られた全てのデータに対して行っても良い。   Further, in order to maintain the uniformity of the image quality after calibration, the calibration curve may be fitted to all data obtained from a plurality of slices.

つぎに、信号処理部7は、セグメンテーション処理部7cがステップ826で生成した較正後の物性値画像を入出力部9のモニタに表示させる。これにより、ユーザは、構成後の物性値画像を視認することができ、視認した物性値から被検体1の組織の診断を行うことができる。信号処理部7は、較正後の物性値画像の他に、ステップ826で求めた各領域11の平均物性値を表示してもよい。また、ステップ805で生成した較正前の物性値画像やステッップ813で生成した反射境界画像を、較正後の物性値画像と合わせてモニタに表示してもよく、ユーザが表示させる画像を入出力部9を介して選択し、それに応じて信号処理部7が表示画像を切り換える構成にしてもよい。   Next, the signal processing unit 7 displays the calibrated physical property value image generated by the segmentation processing unit 7 c in Step 826 on the monitor of the input / output unit 9. Thereby, the user can visually recognize the physical property value image after the configuration, and can diagnose the tissue of the subject 1 from the visually recognized physical property value. The signal processing unit 7 may display the average physical property value of each region 11 obtained in step 826 in addition to the physical property value image after calibration. Further, the physical property value image before calibration generated in step 805 and the reflection boundary image generated in step 813 may be displayed on the monitor together with the physical property value image after calibration, and the image displayed by the user may be displayed on the input / output unit. 9 may be selected and the signal processing unit 7 may switch the display image accordingly.

上述の図8(c)のステップ821では、セグメンテーション処理部7cは、ユーザから領域設定の入力を受け付ける構成であったが、セグメンテーション処理部7cは、反射境界画像を画像処理することにより、境界を自動抽出して、領域を設定する構成としてもよい。セグメンテーション処理部7cは、反射境界画像に対して、微分フィルタ等で画素値を処理して境界を強調し、適当な閾値以下の画素を除去することにより、境界を抽出する。その後、セグメンテーション処理部7cは、内部を持つ閉じた境界を抽出することにより、領域を設定する。   In step 821 of FIG. 8C described above, the segmentation processing unit 7c is configured to receive an input of region setting from the user. However, the segmentation processing unit 7c performs boundary processing by performing image processing on the reflection boundary image. It may be configured to automatically extract and set a region. The segmentation processing unit 7c extracts the boundary by processing the pixel value with a differential filter or the like with respect to the reflection boundary image to emphasize the boundary, and removing pixels having an appropriate threshold value or less. Thereafter, the segmentation processing unit 7c sets a region by extracting a closed boundary having an inside.

なお、セグメンテーション処理部7cは、自動で領域11を設定する際、複数のスライスのデータがある場合には、異なるスライスでの境界の連続性(隣接スライス間で境界が近傍にあるべきという条件)を仮定することで、隣接するスライス間で領域11が近傍に位置する(連続性を有する)ように領域11の位置を調整して設定してもよい。これにより、境界の誤抽出を低減し、適切な領域11を設定することができる。   In addition, when the segmentation processing unit 7c automatically sets the region 11, when there are data of a plurality of slices, the continuity of the boundary in different slices (condition that the boundary should be close between adjacent slices) As a result, the position of the region 11 may be adjusted and set so that the region 11 is located in the vicinity (having continuity) between adjacent slices. Thereby, the erroneous extraction of the boundary can be reduced and an appropriate region 11 can be set.

また、セグメンテーション処理部7cは、抽出した境界を入出力部9のモニタに表示してユーザに提示してもよい。この場合、ユーザは自動抽出された境界に問題がないかどうかを確認し、足りない境界があれば追加し、余分な境界は削除することができる。   The segmentation processing unit 7c may display the extracted boundary on the monitor of the input / output unit 9 and present it to the user. In this case, the user can check whether there is a problem with the automatically extracted boundary, add any missing boundary, and delete the excess boundary.

また、セグメンテーション処理部7cは、図8(c)のステップ821においてユーザから受け付けた領域の境界を自動で最適化することもできる。例えば、ユーザが選択した領域の近傍について領域の中心から放射状に反射境界画像を微分し、変化率の大きな画素を探索して選択し、選択した画素を繋げることにより反射境界に一致した領域を設定することができる。この処理は繰り返し実行する構成としてもよい。これにより、ユーザが入力した領域の境界を最適化することができる。   In addition, the segmentation processing unit 7c can automatically optimize the boundary of the area received from the user in Step 821 of FIG. For example, differentiating the reflection boundary image radially from the center of the region selected by the user, searching for and selecting pixels with a large change rate, and connecting the selected pixels to set the region that matches the reflection boundary can do. This process may be repeatedly executed. Thereby, the boundary of the area | region which the user input can be optimized.

なお、本実施形態の超音波CT装置は、リングアレイで超音波を送受信し、受信データの取得と受信データの処理とを一つの装置内で行っているが、データ取得とデータ処理を別装置で行う構成にしてもよい。例えば、信号処理部7、記憶部8、入出力部9を有する画像処理装置を構成し、別の超音波送受信装置が取得した透過波信号データと反射波信号データを、画像処理装置が取り込み、図6のステップ108〜111の処理を実行する構成とする。   The ultrasonic CT apparatus according to the present embodiment transmits and receives ultrasonic waves using a ring array and performs reception data acquisition and reception data processing within one apparatus. However, data acquisition and data processing are performed separately. You may make it the structure performed by. For example, an image processing apparatus having a signal processing unit 7, a storage unit 8, and an input / output unit 9 is configured, and the image processing apparatus captures transmitted wave signal data and reflected wave signal data acquired by another ultrasonic transmission / reception apparatus, The processing of steps 108 to 111 in FIG. 6 is executed.

上述してきた本実施形態の装置では、超音波の屈折の影響による物性値の過小評価を補正でき、より定量精度の高い物性値および物性値画像を提供できる。   In the apparatus according to the present embodiment described above, it is possible to correct an underestimation of a physical property value due to the influence of ultrasonic refraction, and to provide a physical property value and a physical property value image with higher quantitative accuracy.

1 被検体
2 ベッド
3 リングアレイ
4 水槽
5 予備タンク
6 制御部
7 信号処理部
8 記憶部
9 入出力部
7a 透過波信号処理部
7b 反射波信号処理部
7c セグメンテーション処理部
70 物性値算出部
1 Subject
2 beds
3 Ring array 4 Water tank
5 Spare tank
6 Control unit
7 Signal processor
8 storage unit
9 Input / output section
7a Transmitted wave signal processing unit 7b Reflected wave signal processing unit 7c Segmentation processing unit 70 Physical property value calculation unit

Claims (15)

被検体に超音波を送信し、少なくとも前記被検体の透過波を受信して受信データを出力する複数の超音波素子が配列された超音波素子アレイと、
前記受信データを処理して、前記被検体の画像を生成する信号処理部とを有し、
前記信号処理部は、撮影視野内に少なくとも1つの領域を設定し、前記領域を透過した前記透過波の前記受信データから当該領域の物性値を演算により求める物性値算出部を含み、
前記物性値算出部は、前記領域を透過した前記透過波が到達する前記超音波素子アレイの範囲の、端部に位置する1以上の超音波素子の受信データを、前記超音波素子アレイの前記受信データから除去するか、または、前記物性値の演算における重みを低下させて、前記領域の前記物性値を求めることを特徴とする超音波撮像装置。
An ultrasonic element array in which a plurality of ultrasonic elements for transmitting ultrasonic waves to a subject, receiving at least a transmitted wave of the subject and outputting received data are arranged;
A signal processing unit that processes the received data and generates an image of the subject;
The signal processing unit includes a physical property value calculation unit that sets at least one region in a field of view and calculates a physical property value of the region from the received data of the transmitted wave that has passed through the region,
The physical property value calculation unit receives reception data of one or more ultrasonic elements located at an end of a range of the ultrasonic element array where the transmitted wave that has passed through the region reaches, An ultrasonic imaging apparatus, wherein the physical property value of the region is obtained by removing the received data or reducing the weight in the calculation of the physical property value.
請求項1に記載の超音波撮像装置であって、前記物性値算出部は、前記受信データを除去、または、前記演算において重みを低下させる前記超音波素子の数を、前記領域のサイズ、または、前記領域の位置、または、送信超音波の中心周波数に応じて設定することを特徴とする超音波撮像装置。   2. The ultrasonic imaging apparatus according to claim 1, wherein the physical property value calculating unit removes the received data or sets the number of the ultrasonic elements that reduce the weight in the calculation, the size of the region, or The ultrasonic imaging apparatus is set according to the position of the region or the center frequency of the transmission ultrasonic wave. 請求項1に記載の超音波撮像装置であって、前記信号処理部は、前記受信データを除去または重みを低下させることなく、前記超音波素子アレイの受信データを用いて前記領域内および前記領域外の物性値を算出し、
前記物性値算出部は、前記信号処理部が算出した前記領域内と前記領域外の物性値の差に応じて、前記受信データを除去または重みを低下させる前記超音波素子の数を設定することを特徴とする超音波撮像装置。
2. The ultrasonic imaging apparatus according to claim 1, wherein the signal processing unit uses the reception data of the ultrasonic element array without removing the reception data or reducing the weight. Calculate the physical property values outside,
The physical property value calculation unit sets the number of the ultrasonic elements for removing the received data or reducing the weight according to a difference between the physical property values calculated by the signal processing unit and outside the region. An ultrasonic imaging apparatus characterized by the above.
請求項1に記載の超音波撮像装置であって、前記物性値算出部は、前記透過波が到達する前記超音波素子アレイの範囲の端部からの前記超音波素子までの距離に応じて、当該超音波素子の前記受信データを除去または前記重みを設定することを特徴とする超音波撮像装置。   2. The ultrasonic imaging apparatus according to claim 1, wherein the physical property value calculation unit is configured according to a distance from an end of a range of the ultrasonic element array to which the transmitted wave reaches to the ultrasonic element. An ultrasonic imaging apparatus, wherein the received data of the ultrasonic element is removed or the weight is set. 請求項1に記載の超音波撮像装置であって、前記信号処理部は、前記領域を透過した前記透過波の透過距離を、前記領域の形状に基づいて算出することを特徴とする超音波撮像装置。   2. The ultrasonic imaging apparatus according to claim 1, wherein the signal processing unit calculates a transmission distance of the transmitted wave transmitted through the region based on a shape of the region. apparatus. 請求項1に記載の超音波撮像装置であって、前記超音波素子アレイは、前記被検体による前記超音波の反射波をさらに受信して、前記反射波の受信データを出力し、
前記信号処理部は、前記反射波の受信データを用いて、前記被検体の反射波画像をさらに生成し、
前記物性値算出部は、前記反射波の画像上で、ユーザから前記領域の設定を受け付ける入力部を備えることを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1, wherein the ultrasonic element array further receives a reflected wave of the ultrasonic wave from the subject, and outputs received data of the reflected wave,
The signal processing unit further generates a reflected wave image of the subject using the reflected wave reception data,
The ultrasound imaging apparatus, wherein the physical property value calculation unit includes an input unit that receives a setting of the region from a user on the reflected wave image.
請求項1に記載の超音波撮像装置であって、前記超音波素子アレイは、前記被検体による前記超音波の反射波をさらに受信して、前記反射波の受信データを出力し、
前記信号処理部は、前記反射波の受信データを用いて、前記被検体の反射波画像をさらに生成し、
前記物性値算出部は、前記反射波画像を画像処理することにより、前記領域を設定し、設定した前記領域の、ユーザによる修正を受け付ける入力部を備え
ることを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1, wherein the ultrasonic element array further receives a reflected wave of the ultrasonic wave from the subject, and outputs received data of the reflected wave,
The signal processing unit further generates a reflected wave image of the subject using the reflected wave reception data,
The ultrasonic imaging apparatus, wherein the physical property value calculation unit includes an input unit that sets the region by performing image processing on the reflected wave image, and receives correction of the set region by a user.
請求項1に記載の超音波撮像装置であって、前記信号処理部は、前記被検体の前記透過波の受信データを用いて、前記被検体の物性値分布を示す物性値画像を生成し、
前記物性値算出部は、算出した前記領域内の物性値を用いて、前記物性値画像の物性値を較正することを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1, wherein the signal processing unit generates a physical property value image indicating a physical property value distribution of the subject using reception data of the transmitted wave of the subject,
The ultrasonic imaging apparatus, wherein the physical property value calculation unit calibrates a physical property value of the physical property value image using the calculated physical property value in the region.
請求項7に記載の超音波撮像装置であって、前記信号処理部は、前記被検体の複数のスライスについて前記反射波画像をそれぞれ生成し、
前記物性値算出部は、前記スライスごとの前記反射波画像を画像処理することにより前記被検体の組織の反射境界を抽出し、境界に沿って前記領域を設定し、その際、隣接する前記スライス間では境界が連続するという仮定を用いて、隣接するスライスの領域が近傍に位置するように前記領域の位置を調整することを特徴とする超音波撮像装置。
The ultrasound imaging apparatus according to claim 7, wherein the signal processing unit generates the reflected wave image for each of a plurality of slices of the subject,
The physical property value calculation unit extracts the reflection boundary of the tissue of the subject by performing image processing on the reflected wave image for each slice, sets the region along the boundary, and at that time, the adjacent slice An ultrasonic imaging apparatus characterized by adjusting the positions of adjacent areas so that adjacent slice areas are located in the vicinity using an assumption that a boundary is continuous between them.
請求項1に記載の超音波撮像装置であって、前記物性値算出部は、前記画像上で、ユーザから前記領域の設定を受け付け、前記画像上でユーザが設定した前記領域の近傍で、前記画像を処理して前記被検体の組織の境界を抽出し、抽出した境界に前記ユーザが設定した領域を近づける最適化処理を行うことを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, wherein the physical property value calculation unit receives a setting of the region from a user on the image, and in the vicinity of the region set by the user on the image, An ultrasound imaging apparatus, wherein an optimization process is performed to process an image to extract a tissue boundary of the subject and to bring an area set by the user closer to the extracted boundary. 請求項10に記載の超音波撮像装置であって、前記画像上でユーザが設定した前記領域が、予め定めた条件を満たすかどうか判定し、前記条件を満たさない場合、接続されている表示装置に警告メッセージを表示することを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 10, wherein the region set by the user on the image is determined whether or not a predetermined condition is satisfied, and if the condition is not satisfied, the connected display device A warning message is displayed on the ultrasonic imaging apparatus. 請求項1に記載の超音波撮像装置であって、前記物性値算出部は、予め定めた複数の関数を示す画面を表示装置に表示させ、入力部を介してユーザによる前記関数の選択を受け付ける構成であることを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, wherein the physical property value calculation unit displays a screen showing a plurality of predetermined functions on a display device, and accepts selection of the function by a user via an input unit. An ultrasonic imaging apparatus having a configuration. 請求項8に記載の超音波撮像装置であって、前記物性値算出部は、前記較正を行うかどうかをユーザが選択するための表示を表示装置に表示させ、入力部を介してユーザが較正有りを選択した場合、前記較正を行うことを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 8, wherein the physical property value calculation unit displays a display for a user to select whether to perform the calibration on a display device, and the user calibrates via an input unit. An ultrasonic imaging apparatus, wherein the calibration is performed when “Yes” is selected. 超音波が被検体を透過した透過波を、超音波素子アレイによって受信することにより得られた受信データを受け取って、前記被検体の画像を生成する信号処理部と、
前記被検体に少なくとも1つの領域を設定し、前記領域を透過した前記透過波の前記受信データから当該領域の物性値を演算により求める物性値算出部とを含み、
前記物性値算出部は、前記領域を透過した前記透過波が到達する前記超音波素子アレイの範囲の、端部に位置する1以上の超音波素子の受信データを、前記超音波素子アレイの前記受信データから除去するか、または、前記物性値の演算における重みを低下させて、前記領域の前記物性値を求めることを特徴とする画像処理装置。
A signal processing unit that receives reception data obtained by receiving ultrasonic waves transmitted through the subject by the ultrasonic element array and generates an image of the subject;
A physical property value calculation unit that sets at least one region in the subject and calculates a physical property value of the region from the received data of the transmitted wave that has passed through the region;
The physical property value calculation unit receives reception data of one or more ultrasonic elements located at an end of a range of the ultrasonic element array where the transmitted wave that has passed through the region reaches, An image processing apparatus characterized in that the physical property value of the region is obtained by removing from received data or reducing the weight in the calculation of the physical property value.
超音波が被検体を透過した透過波を、超音波素子アレイによって受信することにより得られた受信データを受け取り、
前記被検体に少なくとも1つの領域を設定し、前記領域を透過した前記透過波が到達する前記超音波素子アレイの範囲の、端部に位置する1以上の超音波素子の受信データを、前記超音波素子アレイの前記受信データから除去するか、または、演算における重みを低下させて、前記領域の物性値を前記受信データから演算により求めることを特徴とする画像処理方法。

Receives the received data obtained by receiving the ultrasonic wave transmitted through the subject by the ultrasonic element array,
At least one region is set on the subject, and the reception data of one or more ultrasonic elements located at the end of the range of the ultrasonic element array that the transmitted wave that has passed through the region arrives is used as the ultrasonic data. An image processing method characterized in that a physical property value of the region is calculated from the received data by removing from the received data of the acoustic wave element array or reducing a weight in the calculation.

JP2016233073A 2016-11-30 2016-11-30 Ultrasonic imaging device, image processing device, and image processing method Active JP6698505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016233073A JP6698505B2 (en) 2016-11-30 2016-11-30 Ultrasonic imaging device, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233073A JP6698505B2 (en) 2016-11-30 2016-11-30 Ultrasonic imaging device, image processing device, and image processing method

Publications (2)

Publication Number Publication Date
JP2018088990A true JP2018088990A (en) 2018-06-14
JP6698505B2 JP6698505B2 (en) 2020-05-27

Family

ID=62563930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233073A Active JP6698505B2 (en) 2016-11-30 2016-11-30 Ultrasonic imaging device, image processing device, and image processing method

Country Status (1)

Country Link
JP (1) JP6698505B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020099619A (en) * 2018-12-25 2020-07-02 株式会社日立製作所 Ultrasonic transmission/reception device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020099619A (en) * 2018-12-25 2020-07-02 株式会社日立製作所 Ultrasonic transmission/reception device

Also Published As

Publication number Publication date
JP6698505B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
CN107613881B (en) Method and system for correcting fat-induced aberrations
JP5528083B2 (en) Image generating apparatus, image generating method, and program
JP5730979B2 (en) Ultrasonic diagnostic apparatus and elasticity evaluation method
US11298111B2 (en) Method for generating an enhanced image of a volume of tissue
JP6730919B2 (en) Ultrasonic CT device
JP6216736B2 (en) Ultrasonic diagnostic apparatus and ultrasonic diagnostic method
JP2013519455A (en) How to characterize a patient&#39;s tissue
JP2014136012A (en) Subject information acquisition apparatus
JP6544910B2 (en) INFORMATION PROCESSING APPARATUS, OBJECT INFORMATION ACQUIRING APPARATUS, AND METHOD OF DETERMINING SOUND SPEED
JP2013255697A (en) Object information acquiring apparatus and control method thereof
US10548477B2 (en) Photoacoustic apparatus, information processing method, and storage medium
JP6946307B2 (en) Information acquisition device and signal processing method
EP3349655B1 (en) Tomography apparatus and controlling method for the same
US10578588B2 (en) Photoacoustic apparatus, information processing method, and storage medium
JP6698505B2 (en) Ultrasonic imaging device, image processing device, and image processing method
JP2018183438A (en) Ultrasonic imaging device and ultrasonic image generating program
EP3329843B1 (en) Display control apparatus, display control method, and program
KR20150010860A (en) Ultrasonic imaging apparatus and control method for thereof
JP6539620B2 (en) ULTRASONIC IMAGING DEVICE, AND ULTRASONIC IMAGE GENERATION METHOD
JP5940109B2 (en) Image generation apparatus, propagation speed determination method, and program
JP6176043B2 (en) Ultrasonic diagnostic apparatus, controller for ultrasonic diagnostic apparatus, and control method for ultrasonic diagnostic apparatus
CN111789632A (en) Ultrasonic diagnostic apparatus, signal processing apparatus, and storage medium
JP2020110431A (en) Ultrasonic ct apparatus, image processing apparatus, and image processing program
KR101956460B1 (en) Method for detecting microcalcification using ultrasound medical imaging device and ultrasound medical imaging device thereof
KR101393512B1 (en) Method for estimating speed of ultrasonic waves, method and apparatus for ultrasonic imaging using the estimated speed thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200428

R150 Certificate of patent or registration of utility model

Ref document number: 6698505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250