JP7130352B2 - Ultrasound diagnostic equipment and medical image processing equipment - Google Patents

Ultrasound diagnostic equipment and medical image processing equipment Download PDF

Info

Publication number
JP7130352B2
JP7130352B2 JP2016161271A JP2016161271A JP7130352B2 JP 7130352 B2 JP7130352 B2 JP 7130352B2 JP 2016161271 A JP2016161271 A JP 2016161271A JP 2016161271 A JP2016161271 A JP 2016161271A JP 7130352 B2 JP7130352 B2 JP 7130352B2
Authority
JP
Japan
Prior art keywords
image
blood flow
information
tissue
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016161271A
Other languages
Japanese (ja)
Other versions
JP2017042606A (en
Inventor
良太 大住
智久 今村
財光 西原
寛樹 吉新
大晃 石川
優子 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US15/244,384 priority Critical patent/US11786220B2/en
Publication of JP2017042606A publication Critical patent/JP2017042606A/en
Application granted granted Critical
Publication of JP7130352B2 publication Critical patent/JP7130352B2/en
Priority to US18/372,442 priority patent/US20240023940A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、超音波診断装置および医用画像処理装置に関する。 An embodiment of the present invention relates to an ultrasonic diagnostic apparatus and a medical image processing apparatus.

超音波診断装置は、超音波プローブに内蔵された超音波振動子から発生する超音波パルスを被検体内に放射し、被検体組織からの反射波を超音波振動子により受信して画像データ等の生成と表示を行うものである。 Ultrasound diagnostic equipment radiates ultrasound pulses generated from an ultrasound transducer built into an ultrasound probe into the subject, and receives reflected waves from the subject's tissue with the ultrasound transducer to obtain image data, etc. is generated and displayed.

超音波診断装置による画像診断支援方法の一つとして、例えば、ドプラ効果を用いて血液の流れを画像化するドプラ法が知られている。広く利用されているカラードプラ法では、超音波の送受信が同一の走査線上で複数回行われ、同一位置のデータ列に対してMTI(Moving Target Indicator)フィルタを掛けることで、静止している組織、あるいは、動きの遅い組織に由来する信号(クラッタ信号)を抑制して、血流に由来する信号を抽出する。そしてカラードプラ法では、この血流信号から血流の速度、血流の分散、血流のパワー等の血流情報を推定し、推定結果の分布を、例えば、2次元でカラー表示した血流画像(カラードプラ画像)を表示する。 As one of diagnostic imaging support methods using an ultrasonic diagnostic apparatus, for example, the Doppler method for imaging blood flow using the Doppler effect is known. In the color Doppler method, which is widely used, ultrasound is transmitted and received multiple times on the same scanning line, and by applying an MTI (Moving Target Indicator) filter to the data string at the same position, stationary tissue can be detected. Alternatively, signals derived from slow-moving tissues (clutter signals) are suppressed and signals derived from blood flow are extracted. In the color Doppler method, blood flow information such as blood flow velocity, blood flow variance, and blood flow power is estimated from this blood flow signal, and the distribution of the estimated results is displayed, for example, two-dimensionally in color. Display the image (color Doppler image).

また、超音波診断装置による画像診断支援方法としては、例えば、生体組織の組織性状の一つとして組織の硬さを測定し、測定した硬さの分布を映像化するエラストグラフィーが知られている。エラストグラフィーにおいては、超音波プローブで体表から生体組織を圧迫・開放したり、体表から超音波プローブで音響放射力を与えたりする等の方法で生体組織に応力を加え、これにより生ずる生体内部の組織の歪み(ストレイン)の情報を弾性画像として生成し、表示する。 Further, as an image diagnostic support method using an ultrasonic diagnostic apparatus, for example, elastography is known, which measures the hardness of a tissue as one of the tissue properties of a living tissue and visualizes the distribution of the measured hardness. . In elastography, stress is applied to living tissue by methods such as compressing and releasing the biological tissue from the body surface with an ultrasonic probe, or applying acoustic radiation force from the body surface with an ultrasonic probe. Information on internal tissue strain (strain) is generated as an elastic image and displayed.

なお、上記の血流画像や弾性画像については、当該画像と略同一の断面から生成される断層画像(Bモード画像)上に重畳させたり、並列表示させたりすることが可能となっている。 Note that the blood flow image and the elasticity image can be superimposed on a tomographic image (B-mode image) generated from substantially the same cross section as the image, or can be displayed side by side.

再公表WO2011/099410号公報Republished WO2011/099410 特開2012-110527号公報JP 2012-110527 A 特開平08-299342号公報JP-A-08-299342 特開2014-158698号公報JP 2014-158698 A 特開2004-351062号公報Japanese Patent Application Laid-Open No. 2004-351062 特開2009-195613号公報JP 2009-195613 A 特開2008-284287号公報JP 2008-284287 A

本発明が解決しようとする課題は、血流および組織性状を適切に表現した合成画像を生成することができる超音波診断装置および医用画像処理装置を提供することである。 A problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and a medical image processing apparatus capable of generating a composite image that appropriately expresses blood flow and tissue properties.

実施形態の超音波診断装置は、取得部と、画像生成部と、合成部とを備える。取得部は、被検体に対する超音波走査の結果に基づいて、前記被検体内の各位置における血流を表す値を含む血流情報、および前記被検体内の各位置における組織性状を表す値を含む組織性状情報を取得する。画像生成部は、前記血流情報の値の違いが、少なくとも色相の違いで表現された第1画像、および前記組織性状情報の値の違いが、色相以外の違いで表現された第2画像を生成する。合成部は、前記第1画像と前記第2画像とを合成することで合成画像を生成する。 An ultrasonic diagnostic apparatus according to an embodiment includes an acquisition unit, an image generation unit, and a synthesis unit. The acquisition unit acquires blood flow information including values representing blood flow at each position within the subject and values representing tissue properties at each position within the subject based on results of ultrasonic scanning of the subject. Acquire tissue characterization information including The image generation unit generates a first image in which the difference in the blood flow information values is expressed at least by a difference in hue, and a second image in which the difference in the tissue attribute information values is expressed by a difference other than the hue. Generate. The synthesizing unit generates a synthesized image by synthesizing the first image and the second image.

図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of an ultrasonic diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態に係る信号処理回路の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a signal processing circuit according to the first embodiment; 図3は、第1の実施形態に係るスキャンシーケンスの一例を示す図である。FIG. 3 is a diagram illustrating an example of a scan sequence according to the first embodiment; 図4Aは、第1の実施形態に係る画像生成機能の処理を説明するための図である。FIG. 4A is a diagram for explaining processing of an image generation function according to the first embodiment; 図4Bは、第1の実施形態に係る画像生成機能の処理を説明するための図である。FIG. 4B is a diagram for explaining processing of an image generation function according to the first embodiment; 図5は、第1の実施形態に係る合成機能の処理を説明するための図である。FIG. 5 is a diagram for explaining the processing of the composition function according to the first embodiment. 図6は、第1の実施形態に係る合成機能の処理を説明するための図である。FIG. 6 is a diagram for explaining the processing of the composition function according to the first embodiment. 図7は、第1の実施形態に係る超音波診断装置の処理手順を示すフローチャートである。FIG. 7 is a flow chart showing the processing procedure of the ultrasonic diagnostic apparatus according to the first embodiment. 図8Aは、第2の実施形態に係る画像生成機能の処理を説明するための図である。FIG. 8A is a diagram for explaining processing of an image generation function according to the second embodiment; 図8Bは、第2の実施形態に係る画像生成機能の処理を説明するための図である。FIG. 8B is a diagram for explaining processing of an image generation function according to the second embodiment; 図9は、第2の実施形態に係る合成機能の処理を説明するための図である。FIG. 9 is a diagram for explaining the processing of the composition function according to the second embodiment. 図10は、第3の実施形態に係る信号処理回路の構成例を示すブロック図である。FIG. 10 is a block diagram showing a configuration example of a signal processing circuit according to the third embodiment. 図11は、第3の実施形態に係る相互相関演算回路の処理を説明するための図である。FIG. 11 is a diagram for explaining processing of the cross-correlation arithmetic circuit according to the third embodiment. 図12は、第4の実施形態に係る制御回路の処理を説明するための図である。FIG. 12 is a diagram for explaining processing of the control circuit according to the fourth embodiment. 図13は、その他の実施形態に係るスキャンシーケンスの一例を示す図である。FIG. 13 is a diagram showing an example of a scan sequence according to another embodiment. 図14は、その他の実施形態に係る医用画像処理装置の構成例を示すブロック図である。FIG. 14 is a block diagram showing a configuration example of a medical image processing apparatus according to another embodiment.

以下、図面を参照して、実施形態に係る超音波診断装置および医用画像処理装置を説明する。 An ultrasonic diagnostic apparatus and a medical image processing apparatus according to embodiments will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103とを備える。超音波プローブ101、入力装置102、およびディスプレイ103は、それぞれ装置本体100に接続される。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of an ultrasonic diagnostic apparatus 1 according to the first embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an apparatus main body 100, an ultrasonic probe 101, an input device 102, and a display 103. The ultrasonic probe 101 , the input device 102 and the display 103 are each connected to the device body 100 .

超音波プローブ101は、被検体Pの体表面に接触され、超音波の送受信(超音波走査)を行う。例えば、超音波プローブ101は、所定方向に1次元で配列された複数の圧電振動子を有する1Dアレイプローブ(探触子)である。これら複数の圧電振動子は、後述する装置本体100が有する送信回路110から供給される駆動信号に基づいて、超音波を発生させる。発生した超音波は、被検体内の音響インピーダンスの不整合面で反射され、組織内の散乱体によって散乱された成分等を含む反射波信号として複数の圧電振動子にて受信される。超音波プローブ101は、複数の圧電振動子にて受信した反射波信号を、送信回路110へ送る。 The ultrasonic probe 101 is brought into contact with the body surface of the subject P to transmit and receive ultrasonic waves (ultrasonic scanning). For example, the ultrasonic probe 101 is a 1D array probe (probe) having a plurality of piezoelectric transducers arranged one-dimensionally in a predetermined direction. These piezoelectric vibrators generate ultrasonic waves based on drive signals supplied from a transmission circuit 110 of the apparatus main body 100, which will be described later. The generated ultrasonic waves are reflected by an acoustic impedance mismatching surface in the subject and received by a plurality of piezoelectric transducers as reflected wave signals including components scattered by scattering bodies in the tissue. The ultrasonic probe 101 sends reflected wave signals received by the plurality of piezoelectric transducers to the transmission circuit 110 .

なお、本実施形態では、超音波プローブ101として1Dアレイプローブを用いる場合を説明するが、これに限定されるものではない。例えば、超音波プローブ101としては、複数の圧電振動子が格子状に2次元で配置された2Dアレイプローブや、1次元で配列された複数の圧電振動子が機械的に揺動することで3次元領域を走査するメカニカル4Dプローブなど、如何なる形態の超音波プローブが用いられてもよい。 In this embodiment, a case where a 1D array probe is used as the ultrasonic probe 101 will be described, but the present invention is not limited to this. For example, the ultrasonic probe 101 may be a 2D array probe in which a plurality of piezoelectric transducers are arranged two-dimensionally in a grid pattern, or a 2D array probe in which a plurality of piezoelectric transducers arranged in a one-dimensional manner are mechanically oscillated to produce a three-dimensional array. Any form of ultrasound probe may be used, such as a mechanical 4D probe that scans a dimensional space.

入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置1の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。 The input device 102 has a mouse, a keyboard, buttons, panel switches, a touch command screen, a foot switch, a trackball, a joystick, etc., and accepts various setting requests from the operator of the ultrasonic diagnostic apparatus 1 and sends them to the apparatus main body 100. and forwards various setting requests received to it.

ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。 The display 103 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 102, and displays ultrasonic image data generated in the apparatus main body 100. to display.

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて、超音波画像データを生成する装置である。図1に示すように、装置本体100は、例えば、送信回路110と、受信回路120と、信号処理回路130と、画像処理回路140と、画像メモリ150と、記憶回路160と、制御回路170とを有する。送信回路110、信号処理回路130、画像処理回路140、画像メモリ150、記憶回路160、および制御回路170は、通信可能に互いに接続される。 The device main body 100 is a device that generates ultrasonic image data based on reflected wave signals received by the ultrasonic probe 101 . As shown in FIG. 1, the apparatus body 100 includes, for example, a transmission circuit 110, a reception circuit 120, a signal processing circuit 130, an image processing circuit 140, an image memory 150, a storage circuit 160, and a control circuit 170. have Transmission circuit 110, signal processing circuit 130, image processing circuit 140, image memory 150, storage circuit 160, and control circuit 170 are communicably connected to each other.

送信回路110は、超音波プローブ101による超音波の送信を制御する。例えば、送信回路110は、後述する制御回路170の指示に基づいて、振動子ごとに所定の送信遅延時間が付与されたタイミングで超音波プローブ101に駆動信号(駆動パルス)を印加する。これにより、送信回路110は、超音波がビーム状に集束された超音波ビームを送信させる。 The transmission circuit 110 controls transmission of ultrasonic waves by the ultrasonic probe 101 . For example, the transmission circuit 110 applies a drive signal (driving pulse) to the ultrasonic probe 101 at a timing given with a predetermined transmission delay time for each transducer based on an instruction from the control circuit 170, which will be described later. Accordingly, the transmission circuit 110 transmits an ultrasonic beam in which ultrasonic waves are focused into a beam shape.

受信回路120は、送信超音波が体内組織で反射された反射波信号の受信を制御する。例えば、受信回路120は、後述する制御回路170の指示に基づいて、超音波プローブ101が受信した反射波信号に所定の遅延時間を与えて加算処理を行う。これにより、反射波信号の受信指向性に応じた方向からの反射成分が強調される。そして、受信回路120は、加算処理後の反射波信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、受信回路120は、I信号及びQ信号(以下、IQ信号と記載する)を反射波データとして、信号処理回路130へ送る。なお、受信回路120は、加算処理後の反射波信号を、RF(Radio Frequency)信号に変換した上で、信号処理回路130へ送ってもよい。IQ信号や、RF信号は、位相情報が含まれる信号(反射波データ)となる。 The receiving circuit 120 controls reception of a reflected wave signal that is the transmitted ultrasonic wave reflected by tissue in the body. For example, the receiving circuit 120 gives a predetermined delay time to the reflected wave signal received by the ultrasonic probe 101 and performs addition processing based on an instruction from the control circuit 170, which will be described later. Thereby, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized. Then, the receiving circuit 120 converts the reflected wave signal after addition processing into an in-phase signal (I signal, I: In-phase) and a quadrature signal (Q signal, Q: Quadrature-phase) in the baseband band. Then, the receiving circuit 120 sends the I signal and the Q signal (hereinafter referred to as IQ signal) to the signal processing circuit 130 as reflected wave data. Note that the receiving circuit 120 may convert the reflected wave signal after addition processing into an RF (Radio Frequency) signal and then send the RF (Radio Frequency) signal to the signal processing circuit 130 . The IQ signal and RF signal are signals (reflected wave data) containing phase information.

信号処理回路130は、受信回路120が反射波信号から生成した反射波データに対して各種の信号処理を行う。例えば、信号処理回路130は、以下に説明する処理により、被検体内の構造物の形態に基づく形態情報、被検体内の血流に基づく血流情報、および被検体内の組織弾性に基づく弾性情報を生成する。 The signal processing circuit 130 performs various signal processing on the reflected wave data generated from the reflected wave signal by the receiving circuit 120 . For example, the signal processing circuit 130 performs morphological information based on the morphology of structures within the subject, blood flow information based on blood flow within the subject, and elasticity information based on tissue elasticity within the subject through processing described below. Generate information.

図2は、第1の実施形態に係る信号処理回路130の構成例を示すブロック図である。図2に示すように、信号処理回路130は、Bモード処理回路131と、ドプラ演算処理回路132と、歪み分布演算回路133とを備える。 FIG. 2 is a block diagram showing a configuration example of the signal processing circuit 130 according to the first embodiment. As shown in FIG. 2 , the signal processing circuit 130 includes a B-mode processing circuit 131 , a Doppler arithmetic processing circuit 132 and a strain distribution arithmetic circuit 133 .

Bモード処理回路131は、反射波データに対して対数増幅、包絡線検波処理等を行って、複数のサンプル点(観測点)それぞれの信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。Bモード処理回路131は、生成したBモードデータを画像処理回路140へ送る。なお、Bモードデータは、断層情報および形態情報の一例である。 The B-mode processing circuit 131 performs logarithmic amplification, envelope detection processing, etc. on the reflected wave data to obtain data (B-mode data). The B-mode processing circuit 131 sends the generated B-mode data to the image processing circuit 140 . B-mode data is an example of tomographic information and morphological information.

ドプラ演算処理回路132は、反射波データから速度情報を周波数解析することで、走査範囲内にある移動体のドプラ効果に基づく運動情報をサンプル点ごとに抽出したデータ(ドプラデータ)を生成する。具体的には、ドプラ演算処理回路132は、移動体の運動情報として、平均速度、分散値、パワー値などを、複数のサンプル点それぞれで抽出したドプラデータを生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。本実施形態に係るドプラ演算処理回路132は、血流の運動情報(血流情報)として、血流の平均速度、血流の平均分散値、血流の平均パワー値等を、複数のサンプル点それぞれで推定した情報を生成する。すなわち、血流情報は、各サンプル点の血流に基づく値(血流を表す値)を含む情報である。 The Doppler arithmetic processing circuit 132 generates data (Doppler data) in which motion information based on the Doppler effect of a mobile object within the scanning range is extracted for each sample point by frequency-analyzing velocity information from the reflected wave data. Specifically, the Doppler arithmetic processing circuit 132 generates Doppler data by extracting average velocity, dispersion value, power value, etc. at each of a plurality of sample points as motion information of the moving object. Here, the moving body is, for example, blood flow, tissue such as a heart wall, and a contrast agent. The Doppler arithmetic processing circuit 132 according to the present embodiment obtains the motion information of the blood flow (blood flow information) such as the average velocity of the blood flow, the average dispersion value of the blood flow, the average power value of the blood flow, and the like at a plurality of sample points. Generate estimated information for each. That is, the blood flow information is information including values based on blood flow (values representing blood flow) at each sample point.

図2に示すように、ドプラ演算処理回路132は、MTI(Moving Target Indicator)フィルタ132Aと、血流情報生成回路132Bと、組織移動速度生成回路132Cとを備える。 As shown in FIG. 2, the Doppler arithmetic processing circuit 132 includes an MTI (Moving Target Indicator) filter 132A, a blood flow information generating circuit 132B, and a tissue movement velocity generating circuit 132C.

MTIフィルタ132Aおよび血流情報生成回路132Bは、カラードプラ法により血流情報を算出する。カラードプラ法では、超音波の送受信が同一の走査線上で複数回行なわれ、同一位置のデータ列に対してMTIフィルタ132を掛けることで、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ信号)を抑制して、血流に由来する信号を抽出する。そして、カラードプラ法では、この血流信号から血流の速度、血流の分散、血流のパワー等の血流情報を推定する。 The MTI filter 132A and the blood flow information generation circuit 132B calculate blood flow information by the color Doppler method. In the color Doppler method, transmission and reception of ultrasonic waves are performed multiple times on the same scanning line, and by applying the MTI filter 132 to the data string at the same position, it is possible to obtain images derived from stationary or slow-moving tissues. The signal derived from the blood flow is extracted by suppressing the signal (clutter signal). Then, in the color Doppler method, blood flow information such as blood flow velocity, blood flow variance, and blood flow power is estimated from this blood flow signal.

具体的には、MTIフィルタ132Aは、フィルタ行列を用いて同一位置(同一サンプル点)の連続した反射波データのデータ列から、クラッタ成分が抑制され、血流に由来する血流信号が抽出されたデータ列を出力する。血流情報生成回路132Bは、MTIフィルタ132Aが出力したデータを用いた自己相関演算等の演算を行って、血流情報を推定し、推定した血流情報を出力する。 Specifically, the MTI filter 132A uses a filter matrix to suppress clutter components and extract a blood flow signal derived from blood flow from a data string of continuous reflected wave data at the same position (same sample point). output the data string. The blood flow information generation circuit 132B performs calculation such as autocorrelation calculation using the data output from the MTI filter 132A, estimates blood flow information, and outputs the estimated blood flow information.

なお、MTIフィルタ132Aとしては、例えば、バタワース型のIIR(Infinite Impulse Response)フィルタ、多項式回帰フィルタ(Polynomial Regression Filter)等の係数が固定されたフィルタ、または固有ベクトル(eigenvector)等を用いて入力信号に応じて係数を変化させる適応型のフィルタが適用可能である。 As the MTI filter 132A, for example, a Butterworth type IIR (Infinite Impulse Response) filter, a filter with fixed coefficients such as a polynomial regression filter (Polynomial Regression Filter), or an eigenvector or the like is used for the input signal. An adaptive filter can be applied that changes the coefficients accordingly.

また、組織移動速度生成回路132Cは、組織の弾性を表す弾性情報を生成するために、組織の運動に関する情報の空間分布を表示するための組織ドプラ(TDI:Tissue Doppler Imaging)法を実行する。TDI法では、上記のカラードプラ法と同様に、超音波の送受信が同一の走査線上で複数回行われるものの、MTIフィルタ132Aを介することなく、上記のデータ列の位相差、さらに組織移動速度を算出する点がカラードプラ法とは相違する。生成された組織移動速度情報は、歪み分布演算回路133によって組織の弾性を表す弾性情報に変換される。 The tissue movement velocity generation circuit 132C also performs a Tissue Doppler Imaging (TDI) method for displaying the spatial distribution of information about tissue motion to generate elasticity information representing tissue elasticity. In the TDI method, as in the color Doppler method, transmission and reception of ultrasonic waves are performed multiple times on the same scanning line. The point of calculation is different from the color Doppler method. The generated tissue movement velocity information is converted by the strain distribution arithmetic circuit 133 into elasticity information representing tissue elasticity.

つまり、組織移動速度生成回路132Cは、同一位置の連続した反射波データのデータ列に対して(MTIフィルタ132Aを介さずに)自己相関演算等の演算を行って、組織の移動速度を表す組織移動速度情報(組織運動情報)を出力する。そして、歪み分布演算回路133は、組織移動速度情報に基づいて、組織の変形が開始してからの移動速度を時間積分して変位を算出し、さらに変位を空間微分することにより組織の歪みを表す歪みデータを弾性情報として算出する。なお、ここでは、弾性情報を生成するためにTDI法を行う場合を説明したが、これに限定されるものではない。例えば、TDI法は、組織移動速度の空間分布を画像化するために、生成された組織移動速度情報そのものを出力してもよい。また、弾性情報は、被検体内の各位置における組織性状(硬さ)に基づく値(組織性状を表す値)を含む組織性状情報の一例である。また、MTIフィルタ132Aは、クラッタ除去フィルタの一例である。 In other words, the tissue moving speed generation circuit 132C performs a calculation such as an autocorrelation calculation on a data string of continuous reflected wave data at the same position (without going through the MTI filter 132A) to obtain a tissue moving speed representing the tissue moving speed. Outputs movement speed information (organizational motion information). Then, based on the tissue movement velocity information, the strain distribution calculation circuit 133 calculates the displacement by time-integrating the movement velocity after the start of deformation of the tissue, and spatially differentiates the displacement to calculate the strain of the tissue. Strain data to represent is calculated as elastic information. Although the case where the TDI method is used to generate elasticity information has been described here, the present invention is not limited to this. For example, the TDI method may output the generated tissue velocity information itself to image the spatial distribution of tissue velocity. Elasticity information is an example of tissue characterization information including values (values representing tissue characterization) based on tissue characterization (hardness) at each position in the subject. Also, the MTI filter 132A is an example of a clutter removal filter.

このように、信号処理回路130は、反射波データに対してBモード処理回路131、ドプラ演算処理回路132、および歪み分布演算回路133による各種の信号処理を行うことで、形態情報、血流情報、および弾性情報を生成する。具体的には、信号処理回路130は、同一位置に対する複数回の超音波送受信によって得られた受信データ列に対して、クラッタ成分を除去するクラッタ除去フィルタを適用し、クラッタ除去フィルタ適用後の受信データ列から血流情報を取得する。また、信号処理回路130は、クラッタ除去フィルタ適用前の受信データ列から組織性状情報を取得する。また、組織性状情報は、血流情報の取得に用いた受信データを含む複数の受信データ間の相関演算に基づいて取得される。 In this manner, the signal processing circuit 130 performs various signal processing on the reflected wave data by the B-mode processing circuit 131, the Doppler arithmetic processing circuit 132, and the strain distribution arithmetic processing circuit 133, thereby obtaining morphological information and blood flow information. , and to generate elasticity information. Specifically, the signal processing circuit 130 applies a clutter removal filter that removes clutter components to a received data string obtained by a plurality of times of ultrasonic wave transmission/reception at the same position. Get the blood flow information from the data string. Further, the signal processing circuit 130 acquires tissue characterization information from the received data string before application of the clutter removal filter. Also, the tissue characterization information is acquired based on a correlation operation between a plurality of received data including the received data used to acquire the blood flow information.

なお、図2は一例に過ぎない。例えば、組織移動速度生成回路132Cの前段に、血流に由来する信号を除くための血流信号除去フィルタを配置してもよい。つまり、組織移動速度生成回路132Cは、反射波データのデータ列に対して血流信号除去フィルタを適用し、適用後のデータ列から組織移動速度情報を生成する。なお、この血流信号除去フィルタは、例えば、血流信号に対応する周波数成分を除去するローパスフィルタである。 Note that FIG. 2 is merely an example. For example, a blood flow signal removal filter for removing signals derived from blood flow may be arranged in front of the tissue moving speed generating circuit 132C. That is, the tissue moving speed generation circuit 132C applies a blood flow signal removal filter to the data string of reflected wave data, and generates tissue moving speed information from the data string after application. The blood flow signal removal filter is, for example, a low-pass filter that removes frequency components corresponding to blood flow signals.

また、第1の実施形態に係る信号処理回路130は、同一の超音波走査の結果に対してカラードプラ法およびTDI法を行って、同一のデータ列から血流情報および弾性情報を生成する。 Further, the signal processing circuit 130 according to the first embodiment performs the color Doppler method and the TDI method on the same ultrasonic scanning result to generate blood flow information and elasticity information from the same data string.

図3は、第1の実施形態に係るスキャンシーケンスの一例を示す図である。図3において、横軸は、時間に対応する。また、各フレームの超音波走査には、第1の超音波走査および第2の超音波走査が含まれる。 FIG. 3 is a diagram illustrating an example of a scan sequence according to the first embodiment; In FIG. 3, the horizontal axis corresponds to time. Also, the ultrasonic scans of each frame include a first ultrasonic scan and a second ultrasonic scan.

図3に示すように、各フレームにおいて、第1の超音波走査および第2の超音波走査が行われる。ここで、第1の超音波走査は、超音波の送受信が同一の走査線上で複数回(アンサンブル数)行われる走査である。信号処理回路130は、第1の超音波走査の結果に対してカラードプラ法およびTDI法を行うことで、同一のデータ列から血流情報および弾性情報をそれぞれ生成する。具体的には、信号処理回路130は、nフレーム目の第1の超音波走査により得られた反射波データのデータ列に対して、MTIフィルタ132Aを適用し、自己相関演算等の演算を行って、血流情報を生成する。また、nフレーム目の第1の超音波走査により得られた反射波データのデータ列に対して、MTIフィルタ132Aを介さずに)自己相関演算等の演算を行って、組織移動速度情報を生成する。また、第2の超音波走査は、超音波の送受信がそれぞれの走査線に対して1回ずつ行われる走査である。信号処理回路130は、第2の超音波走査の結果から形態情報を生成する。 As shown in FIG. 3, in each frame, a first ultrasound scan and a second ultrasound scan are performed. Here, the first ultrasonic scan is a scan in which transmission and reception of ultrasonic waves are performed a plurality of times (the number of ensembles) on the same scanning line. The signal processing circuit 130 performs the color Doppler method and the TDI method on the result of the first ultrasound scan, thereby generating blood flow information and elasticity information from the same data string. Specifically, the signal processing circuit 130 applies the MTI filter 132A to the data string of the reflected wave data obtained by the first ultrasound scan of the nth frame, and performs calculation such as autocorrelation calculation. to generate blood flow information. Further, calculation such as autocorrelation calculation is performed on the data string of the reflected wave data obtained by the first ultrasonic scan of the n-th frame, without passing through the MTI filter 132A, to generate tissue movement velocity information. do. The second ultrasonic scan is a scan in which transmission and reception of ultrasonic waves are performed once for each scanning line. Signal processing circuitry 130 produces morphological information from the results of the second ultrasound scan.

このように、信号処理回路130は、同一の超音波走査の結果から血流情報および弾性情報を生成する。なお、第1の実施形態において、同一の超音波走査の結果から血流情報および弾性情報が生成されるのは、クラッタ信号が少なく、かつ、組織の歪み情報を生成可能な反射波データが収集されるからである。すなわち、操作者が超音波プローブ101を積極的に加振しなくても、超音波プローブ101を体表に当接させる行為により発生する微弱な振動に基づいて、歪み情報が生成可能である。このため、超音波プローブ101を積極的に加振せずに収集された反射波データは、歪み情報を含むと共に、加振に由来するクラッタ信号が少ないため、同一のデータ列から血流情報および弾性情報が生成可能となる。 Thus, the signal processing circuitry 130 produces blood flow information and elasticity information from the results of the same ultrasound scan. In the first embodiment, the blood flow information and the elasticity information are generated from the same ultrasonic scanning result because the clutter signal is small and the reflected wave data capable of generating the tissue strain information is collected. Because it is done. That is, even if the operator does not vibrate the ultrasonic probe 101 positively, strain information can be generated based on the weak vibration generated by the action of bringing the ultrasonic probe 101 into contact with the body surface. For this reason, the reflected wave data collected without actively vibrating the ultrasonic probe 101 contains distortion information and less clutter signals derived from the vibration. Elasticity information can be generated.

なお、図3は一例に過ぎず、例えば、必ずしも第1の超音波走査の後に第2の超音波走査が行われなくてもよい。また、例えば、必ずしも同一の超音波走査の結果から血流情報および弾性情報が生成されなくてもよい。 Note that FIG. 3 is merely an example, and for example, the second ultrasonic scanning does not necessarily have to be performed after the first ultrasonic scanning. Also, for example, blood flow information and elasticity information do not necessarily have to be generated from the same ultrasound scanning result.

図1の説明に戻る。画像処理回路140は、画像データ(超音波画像データ)の生成処理や、画像データに対する各種の画像処理等を行う。例えば、画像処理回路140は、信号処理回路130により生成されたBモードデータ(形態情報)、血流情報、および弾性情報の走査方式を、表示用のデータ形式に変換(スキャンコンバート)する。これにより、画像処理回路140は、被検体の構造物の形態を表すBモード画像データ(形態画像データ)、被検体内の血流の運動を表す血流画像データ、および被験体内の組織弾性を表す弾性画像データをそれぞれ生成する。画像処理回路140は、生成した画像データや、各種の画像処理を行った画像データを、画像メモリ150に格納する。なお、画像処理回路140は、各画像データの表示位置を示す情報、超音波診断装置の操作を補助するための各種情報、患者情報等の診断に関する付帯情報についても画像データとともに生成し、画像メモリ150に格納してもよい。 Returning to the description of FIG. The image processing circuit 140 performs processing for generating image data (ultrasound image data), various image processing for image data, and the like. For example, the image processing circuit 140 converts (scan converts) the scanning method of the B-mode data (morphological information), the blood flow information, and the elasticity information generated by the signal processing circuit 130 into a data format for display. Thereby, the image processing circuit 140 obtains B-mode image data (morphological image data) representing the morphology of the structure of the subject, blood flow image data representing the movement of blood flow within the subject, and tissue elasticity within the subject. Elasticity image data representing each is generated. The image processing circuit 140 stores generated image data and image data subjected to various image processing in the image memory 150 . The image processing circuit 140 also generates information indicating the display position of each image data, various information for assisting the operation of the ultrasonic diagnostic apparatus, incidental information related to diagnosis such as patient information, together with the image data, and stores them in the image memory. 150 may be stored.

また、第1の実施形態に係る画像処理回路140は、取得機能141と、画像生成機能142と、合成機能143とを実行する。ここで、制御回路170の構成要素である取得機能141、画像生成機能142、及び合成機能143が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路160に記録されている。画像処理回路140は、各プログラムを記憶回路160から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。すなわち、取得機能141は、画像処理回路140が取得機能141に対応するプログラムを記憶回路160から読み出し実行することで、実現される機能である。また、画像生成機能142は、画像処理回路140が画像生成機能142に対応するプログラムを記憶回路160から読み出し実行することで、実現される機能である。また、合成機能143は、画像処理回路140が合成機能143に対応するプログラムを記憶回路160から読み出し実行することで、実現される機能である。換言すると、各プログラムを読み出した状態の画像処理回路140は、図1の画像処理回路140内に示された各機能を有することとなる。取得機能141、画像生成機能142、および合成機能143の各機能については、後述する。 Also, the image processing circuit 140 according to the first embodiment executes an acquisition function 141 , an image generation function 142 and a synthesizing function 143 . Here, each processing function executed by the acquisition function 141, the image generation function 142, and the synthesis function 143, which are components of the control circuit 170, is recorded in the storage circuit 160 in the form of a computer-executable program, for example. there is The image processing circuit 140 is a processor that reads out each program from the storage circuit 160 and executes it, thereby realizing functions corresponding to each program. That is, the acquisition function 141 is a function realized by the image processing circuit 140 reading and executing a program corresponding to the acquisition function 141 from the storage circuit 160 . Also, the image generation function 142 is a function realized by the image processing circuit 140 reading out a program corresponding to the image generation function 142 from the storage circuit 160 and executing the program. Also, the synthesizing function 143 is a function realized by the image processing circuit 140 reading out a program corresponding to the synthesizing function 143 from the storage circuit 160 and executing it. In other words, the image processing circuit 140 with each program read has each function shown in the image processing circuit 140 of FIG. Each function of the acquisition function 141, the image generation function 142, and the composition function 143 will be described later.

なお、図1においては単一の画像処理回路140にて取得機能141、画像生成機能142、及び合成機能143にて行われる処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。 In FIG. 1, the processing functions performed by the acquisition function 141, the image generation function 142, and the composition function 143 are realized by a single image processing circuit 140, but a plurality of independent processors may be used. A processing circuit may be configured by combining them, and functions may be realized by executing programs by each processor.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路160にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC)), a programmable logic device (for example , Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor realizes its functions by reading and executing the programs stored in the memory circuit. Note that instead of storing the program in the memory circuit 160, the program may be configured to be directly installed in the circuit of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, and may be configured as one processor by combining a plurality of independent circuits to realize its function. good. Furthermore, a plurality of components in FIG. 1 may be integrated into one processor to realize its functions.

画像メモリ150は、画像処理回路140が生成した画像データ(Bモード画像データ、血流画像データ、弾性画像データ等)を記憶するメモリである。また、画像メモリ150は、信号処理回路130が生成したデータを記憶することも可能である。画像メモリ150が記憶するBモードデータ、血流情報、および弾性情報は、例えば、診断の後に操作者が呼び出すことが可能となっており、画像処理回路140を経由して表示用の超音波画像データとなる。 The image memory 150 is a memory that stores image data (B-mode image data, blood flow image data, elasticity image data, etc.) generated by the image processing circuit 140 . The image memory 150 can also store data generated by the signal processing circuit 130 . The B-mode data, blood flow information, and elasticity information stored in the image memory 150 can be called up by the operator after diagnosis, for example, and can be processed into an ultrasonic image for display via the image processing circuit 140. data.

記憶回路160は、超音波送受信、画像処理および表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路160は、必要に応じて、画像メモリ150が記憶する画像データの保管等にも使用される。また、記憶回路160が記憶するデータは、図示しないインタフェース部を介して、外部装置へ転送することができる。 The storage circuit 160 stores control programs for transmitting and receiving ultrasonic waves, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as diagnostic protocols and various body marks. . The storage circuit 160 is also used for storing image data stored in the image memory 150 as necessary. Data stored in the storage circuit 160 can be transferred to an external device via an interface section (not shown).

制御回路170は、超音波診断装置1の処理全体を制御する。具体的には、制御回路170は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路160から読み込んだ各種制御プログラムおよび各種データに基づき、送信回路110、受信回路120、信号処理回路130、画像処理回路140等の処理を制御する。また、制御回路170は、画像メモリ150が記憶する超音波画像データをディスプレイ103に表示させる。 The control circuit 170 controls the entire processing of the ultrasonic diagnostic apparatus 1 . Specifically, the control circuit 170 controls the transmission circuit 110, reception circuit 120, It controls processing of the signal processing circuit 130, the image processing circuit 140, and the like. The control circuit 170 also causes the display 103 to display the ultrasound image data stored in the image memory 150 .

なお、装置本体100に内蔵される送信回路110、受信回路120、信号処理回路130、画像処理回路140、および制御回路170等は、プロセッサ(CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、集積回路等)のハードウェアにより構成されることもあるが、ソフトウェア的にモジュール化されたプログラムにより構成される場合もある。 The transmitting circuit 110, the receiving circuit 120, the signal processing circuit 130, the image processing circuit 140, the control circuit 170, etc. built into the apparatus main body 100 are processors (CPU (Central Processing Unit), MPU (Micro-Processing Unit) , an integrated circuit, etc.), or may be configured by a program modularized in terms of software.

ところで、血流画像又は弾性画像を、位置が対応しているBモード画像と合成して表示することが行われている。具体的には、Bモード画像上の対応する位置に血流画像又は弾性画像を重畳させることにより、視認性が向上し、診断の正確性向上や診断時間の短縮に寄与している。 By the way, a blood flow image or an elasticity image is combined with a corresponding B-mode image for display. Specifically, by superimposing a blood flow image or an elasticity image on a corresponding position on a B-mode image, visibility is improved, which contributes to improvement in accuracy of diagnosis and reduction in diagnosis time.

しかしながら、単に合成するだけで視認性が向上するとは限らない。例えば、血流画像および弾性画像は一般的に彩色されて表示されるため、両者を重畳させるとかえって視認性が低下してしまう場合がある。具体的には、血流画像においては、血流の方向によって「赤-青」で彩色される。また、弾性画像においては、歪みの程度(大きさ)によって「青-緑-赤」と連続的に変化するグラデーションで彩色される。このため、血流画像および弾性画像を所定の透過度で重畳させた場合、例えば「赤」の画素が血流の向きを示しているのか歪みの程度を示しているのかを区別することができず、かえって視認性が低下してしまう。このような視認性の低下は、両者の透過度の調整や画像化領域の分割によって解決するものではない。 However, simply synthesizing does not necessarily improve the visibility. For example, since a blood flow image and an elasticity image are generally colored and displayed, if the two are superimposed, the visibility may rather deteriorate. Specifically, the blood flow image is colored with “red-blue” depending on the direction of the blood flow. In addition, the elastic image is colored with a gradation that changes continuously from "blue-green-red" depending on the degree (magnitude) of strain. Therefore, when a blood flow image and an elasticity image are superimposed with a predetermined degree of transparency, it is possible to distinguish, for example, whether a "red" pixel indicates the direction of blood flow or indicates the degree of distortion. Instead, the visibility is lowered. Such a decrease in visibility cannot be solved by adjusting the transmittance of both or dividing the imaging area.

そこで、第1の実施形態に係る超音波診断装置1は、血流および組織性状を適切に表現した合成画像を生成するために、開示の構成を備える。 Therefore, the ultrasonic diagnostic apparatus 1 according to the first embodiment has the disclosed configuration in order to generate a composite image that appropriately expresses blood flow and tissue properties.

取得機能141は、被検体に対する超音波走査の結果に基づいて、Bモードデータ(形態情報)、血流情報、および弾性情報を取得する。例えば、取得機能141は、信号処理回路130により生成されたBモードデータ、血流情報、および弾性情報を取得する。そして、取得機能141は、取得したBモードデータ、血流情報、および弾性情報を画像生成機能142へ送る。なお、取得機能141は、取得部の一例である。また、弾性情報は、組織性状情報の一例である。 The acquisition function 141 acquires B-mode data (morphological information), blood flow information, and elasticity information based on the results of ultrasonic scanning of the subject. For example, acquisition function 141 acquires B-mode data, blood flow information, and elasticity information generated by signal processing circuit 130 . The acquisition function 141 then sends the acquired B-mode data, blood flow information, and elasticity information to the image generation function 142 . Note that the acquisition function 141 is an example of an acquisition unit. Also, elasticity information is an example of tissue characterization information.

なお、ここでは、取得機能141がBモードデータ、血流情報、および弾性情報を取得する場合を説明したが、実施形態はこれに限定されるものではない。例えば、取得機能141は、上記の情報以外の情報(例えば、付帯情報等)を取得してもよい。また、例えば、取得機能141は、必ずしも上記の情報を取得しなくてもよく、例えば、以下の処理にてBモードデータを用いない場合には、Bモードデータを取得しなくてもよい。この場合、取得機能141は、血流情報および弾性情報を信号処理回路130から取得する。 Although the case where the acquisition function 141 acquires B-mode data, blood flow information, and elasticity information has been described here, the embodiment is not limited to this. For example, the acquisition function 141 may acquire information other than the above information (for example, incidental information, etc.). Also, for example, the acquisition function 141 does not necessarily acquire the above information. For example, if the B-mode data is not used in the following processing, the acquisition function 141 may not acquire the B-mode data. In this case, the acquisition function 141 acquires blood flow information and elasticity information from the signal processing circuit 130 .

画像生成機能142は、被検体Pに対する超音波走査の結果に基づき、被検体内の構造物の形態を表すBモード画像、血流情報の値の違いが色相の違いで表現された血流画像、および弾性情報の値の違いがグレースケールで表現された弾性画像をそれぞれ生成する。なお、画像生成機能142は、画像生成部の一例である。 The image generating function 142 generates a B-mode image representing the morphology of structures in the subject P, and a blood flow image in which differences in blood flow information values are expressed by different hues, based on the results of ultrasonic scanning of the subject P. , and an elasticity image in which the difference in the value of elasticity information is expressed in grayscale. Note that the image generation function 142 is an example of an image generation unit.

図4Aおよび図4Bは、第1の実施形態に係る画像生成機能142の処理を説明するための図である。図4Aには、画像生成機能142により生成される弾性画像10を例示する。また、図4Bには、画像生成機能142により生成される血流画像20を例示する。なお、図4Bの破線は、図4Aの弾性画像10との位置が対応づけられていることを表すものであり、血流画像20上に実際に表示されるものではない。 4A and 4B are diagrams for explaining the processing of the image generation function 142 according to the first embodiment. FIG. 4A illustrates an elasticity image 10 generated by the image generation function 142 . Further, FIG. 4B illustrates a blood flow image 20 generated by the image generation function 142. As shown in FIG. The dashed line in FIG. 4B indicates that the position is associated with the elasticity image 10 in FIG. 4A and is not actually displayed on the blood flow image 20 .

図4Aに示すように、例えば、画像生成機能142は、信号処理回路130により生成された弾性情報の走査方式を、表示用のデータ形式に変換する。ここで変換されたデータは、弾性情報の各サンプル点における組織の歪みを表す値が、表示画像の各画素の画素値に置き換えられたデータである。そして、画像生成機能142は、変換後のデータにおける各画素に対して、弾性画像用のカラールックアップテーブル(LUT)にしたがって画素値に応じた色を割り当てる。ここで、この弾性画像用のカラーLUTには、画素値に応じてグレースケールの色が設定されている。つまり、画像生成機能142は、弾性画像における各画素値の違いをグレースケールで表示する。一例としては、画像生成機能142は、硬い部分(歪みが小さい部分)に対して暗いグレーを割り当て、軟らかい部分(歪みが大きい部分)に対して明るいグレーを割り当てることで、弾性画像10を生成する。 As shown in FIG. 4A, for example, the image generation function 142 converts the scanning method of elasticity information generated by the signal processing circuit 130 into a data format for display. The data converted here is data in which the values representing the strain of the tissue at each sample point of the elasticity information are replaced with the pixel values of each pixel of the display image. Then, the image generation function 142 assigns a color according to the pixel value to each pixel in the converted data according to a color lookup table (LUT) for elasticity images. In this elastic image color LUT, grayscale colors are set according to pixel values. In other words, the image generation function 142 displays the difference in each pixel value in the elasticity image in grayscale. As an example, the image generation function 142 generates the elasticity image 10 by assigning dark gray to hard portions (portions with small strain) and light gray to soft portions (portions with large strain). .

なお、図4Aは一例に過ぎず、例えば、弾性画像10は、グレースケールに対して単色が割り当てられたカラーLUTによって表現されてもよい。言い換えると、弾性画像10は、色の三要素(色相、明度、彩度)のうち色相以外の要素で表現される。すなわち、弾性画像10の値の違いは、明度、彩度、および明度と彩度との組合せのうちのいずれか1つの違いで表現される。なお、弾性画像10を単色で表現する場合、後述の血流画像20の色相とは異なる色(色空間で接近しない色)で表現されるのが視認性の見地から好ましい。 Note that FIG. 4A is merely an example, and for example, the elastic image 10 may be represented by a color LUT in which a single color is assigned to grayscale. In other words, the elasticity image 10 is represented by elements other than hue among the three elements of color (hue, lightness, and saturation). That is, the difference in the value of the elasticity image 10 is represented by the difference in any one of brightness, saturation, and a combination of brightness and saturation. When the elasticity image 10 is expressed in a single color, it is preferable from the standpoint of visibility that the elasticity image 10 is expressed in a color different from the hue of the blood flow image 20 described later (a color that is not close in color space).

また、図4Bに示すように、画像生成機能142は、信号処理回路130により生成された血流情報の走査方式を、表示用のデータ形式に変換する。ここで変換されたデータは、血流情報の各サンプル点における血流を表す値が、表示画像の各画素の画素値に置き換えられたデータである。そして、画像生成機能142は、変換後のデータにおける各画素に対して、血流画像用のカラーLUTにしたがって画素値に応じた色を割り当てる。ここで、この血流画像用のカラーLUTには、画素値に応じて異なる色相(色温度)を含む色が設定されている。つまり、画像生成機能142は、血流画像における各画素値の違いを色相で表示する。一例としては、画像生成機能142は、血流情報として血流のパワーが画像化される場合には、パワーが大きい部分に対して暗い赤を割り当て、パワーが小さい部分に対して明るい赤を割り当てることで、血流画像20を生成する。 Also, as shown in FIG. 4B, the image generation function 142 converts the scanning method of the blood flow information generated by the signal processing circuit 130 into a data format for display. The data converted here is data obtained by replacing the value representing the blood flow at each sample point of the blood flow information with the pixel value of each pixel of the display image. Then, the image generating function 142 assigns a color according to the pixel value to each pixel in the converted data according to the blood flow image color LUT. Here, in the color LUT for the blood flow image, colors including different hues (color temperatures) are set according to pixel values. In other words, the image generation function 142 displays the difference in each pixel value in the blood flow image in hue. As an example, when the power of blood flow is imaged as blood flow information, the image generation function 142 assigns dark red to portions with high power and bright red to portions with low power. Thus, a blood flow image 20 is generated.

なお、図4Bは一例に過ぎず、例えば、血流画像20は、赤以外の色相で表現されてよい。また、血流画像20は、血流の方向別に赤系と青系の色で表現されてもよいし、更に、血流の速度成分および分散成分を表示する場合には、2つの異なる色成分を用いて2次元の色の変化で表現されてもよい。言い換えると、血流画像20は、色の三要素(色相、明度、彩度)のうち少なくとも色相の違いにより表現される。すなわち、血流画像20の値の違いは、色相、色相と明度との組合せ、色相と彩度との組合せ、色相と明度と彩度との組合せのうちのいずれか1つの違いで表現される。 Note that FIG. 4B is merely an example, and for example, the blood flow image 20 may be expressed in hues other than red. In addition, the blood flow image 20 may be expressed in red-based and blue-based colors according to the direction of the blood flow. Further, when displaying the velocity component and dispersion component of the blood flow, two different color components may be used. may be represented by a two-dimensional color change using . In other words, the blood flow image 20 is represented by at least the difference in hue among the three elements of color (hue, lightness, and saturation). That is, the difference in the value of the blood flow image 20 is expressed by any one of the hue, the combination of hue and brightness, the combination of hue and saturation, and the combination of hue, brightness and saturation. .

このように、画像生成機能142は、血流情報の値の違いが、少なくとも色相の違いで表現された血流画像20、および弾性情報の値の違いが、色相以外の違いで表現された弾性画像10を生成する。 In this way, the image generation function 142 generates the blood flow image 20 in which the difference in the blood flow information value is expressed at least by the difference in hue, and the elasticity image in which the difference in the elasticity information value is expressed by the difference other than the hue. Generate image 10 .

合成機能143は、血流画像20と弾性画像10とを合成することで合成画像を生成する。例えば、合成機能143は、弾性画像10上の対応する位置に血流画像20を重畳させることで、合成画像を生成する。なお、合成機能143は、合成部の一例である。 The combining function 143 generates a combined image by combining the blood flow image 20 and the elasticity image 10 . For example, the combining function 143 generates a combined image by superimposing the blood flow image 20 on the corresponding position on the elasticity image 10 . Note that the synthesizing function 143 is an example of a synthesizing unit.

図5および図6は、第1の実施形態に係る合成機能143の処理を説明するための図である。図5には、図4Aの弾性画像10と図4Bの血流画像20とが合成された合成画像30を例示する。図6には、合成画像30を用いて生成される表示用画像40を例示する。 5 and 6 are diagrams for explaining the processing of the synthesizing function 143 according to the first embodiment. FIG. 5 illustrates a synthesized image 30 obtained by synthesizing the elasticity image 10 of FIG. 4A and the blood flow image 20 of FIG. 4B. FIG. 6 illustrates a display image 40 generated using the synthesized image 30. As shown in FIG.

図5に示すように、合成機能143は、弾性画像10上に血流画像20を重畳させて、合成画像30を生成する。ここで、弾性画像10および血流画像20は、それぞれ同一の超音波走査の結果から生成される画像データであるので、両画像データのサンプル点(画素)の位置は対応している。つまり、合成機能143は、両画像データの位置合わせを行うことなく、弾性画像10上の対応する位置に血流画像20を重畳させる。 As shown in FIG. 5, the synthesizing function 143 superimposes the blood flow image 20 on the elasticity image 10 to generate a synthetic image 30 . Here, since the elasticity image 10 and the blood flow image 20 are image data generated from the results of the same ultrasonic scanning, the sample points (pixels) of both image data correspond to each other. That is, the synthesizing function 143 superimposes the blood flow image 20 on the corresponding position on the elasticity image 10 without aligning both image data.

具体的には、合成機能143は、血流画像20から血流領域を抽出する。例えば、合成機能143は、血流画像20のうちドプラ情報を有する領域(例えば、パワー値が閾値以上の領域)を血流領域として認識し、認識した血流領域の画像を切り出す。図4Bの例では、合成機能143は、4つの網掛け領域を血流領域として切り出す。そして、合成機能143は、切り出した血流領域の画像を、弾性画像10上の対応する位置に重畳させることで、合成画像30を生成する。なお、ここで重畳される血流領域の画像は、所定の透過度で透過させてもよい。また、図5の例では、血流画像20の一例としてパワー画像を用いる場合を説明したが、これに限らず、例えば、速度画像や分散画像が用いられてもよい。 Specifically, the synthesizing function 143 extracts a blood flow region from the blood flow image 20 . For example, the synthesizing function 143 recognizes a region having Doppler information (for example, a region having a power value equal to or greater than a threshold value) in the blood flow image 20 as a blood flow region, and cuts out an image of the recognized blood flow region. In the example of FIG. 4B, the synthesizing function 143 cuts out four shaded regions as blood flow regions. Then, the synthesizing function 143 generates the synthesized image 30 by superimposing the cut-out image of the blood flow region on the corresponding position on the elasticity image 10 . The image of the blood flow region superimposed here may be transmitted with a predetermined transparency. Also, in the example of FIG. 5, the case of using a power image as an example of the blood flow image 20 has been described, but the present invention is not limited to this, and a velocity image or a dispersion image may be used, for example.

また、図6に示すように、合成機能143は、合成画像30およびBモード画像41A,41Bを組み合わせることで、ディスプレイ103に表示させるための表示用画像40を生成する。具体的には、表示用画像40は、左右に同一の断層画像であるBモード画像41A,41Bが表示される領域に分割されている。 Further, as shown in FIG. 6, the combining function 143 combines the combined image 30 and the B-mode images 41A and 41B to generate the display image 40 to be displayed on the display 103. FIG. Specifically, the display image 40 is divided into areas in which B-mode images 41A and 41B, which are the same tomographic images, are displayed on the left and right sides.

具体的には、合成機能143は、Bモード画像41A上の対応する位置に、合成画像30を非透過で重畳させる。この位置は、例えば、第1の超音波走査および第2の超音波走査における各サンプル点の位置に基づいて決定される。このように、合成画像30を非透過でBモード画像41A上に重畳させることにより、合成画像30の領域にBモード画像41Aの輝度成分が混在し、視認性が低下するのを防ぐことができる。 Specifically, the combining function 143 non-transparently superimposes the combined image 30 on the corresponding position on the B-mode image 41A. This position is determined, for example, based on the position of each sample point in the first ultrasound scan and the second ultrasound scan. By superimposing the synthetic image 30 on the B-mode image 41A in a non-transmissive manner in this way, it is possible to prevent the luminance component of the B-mode image 41A from being mixed in the area of the synthetic image 30, thereby preventing the visibility from deteriorating. .

また、合成機能143は、Bモード画像41Aと同一のBモード画像41Bを、合成画像30を重畳させたBモード画像41Aの隣に並列表示させる。また、合成機能143は、Bモード画像41Bに、合成画像30の範囲に対応する枠線42を表示させる。この枠線42の表示により、合成画像30の範囲に対応するBモード画像(断層画像)の様子を容易に閲覧することができるので、合成画像30およびBモード画像41Bの比較観察が容易になる。 Further, the synthesizing function 143 displays a B-mode image 41B identical to the B-mode image 41A side by side next to the B-mode image 41A on which the synthesized image 30 is superimposed. Further, the synthesizing function 143 displays a frame line 42 corresponding to the range of the synthetic image 30 on the B-mode image 41B. By displaying the frame line 42, it is possible to easily view the state of the B-mode image (tomographic image) corresponding to the range of the composite image 30, so that comparative observation of the composite image 30 and the B-mode image 41B is facilitated. .

このように、合成機能143は、表示用画像40を生成する。合成機能143により生成された表示用画像40は、制御回路170によりディスプレイ103に表示される。 Thus, the synthesizing function 143 generates the display image 40. FIG. The display image 40 generated by the synthesizing function 143 is displayed on the display 103 by the control circuit 170 .

なお、図6は一例に過ぎない。例えば、図6では、Bモード画像41B上に他の画像が重畳されない場合を例示したが、実施形態はこれに限定されるものではない。例えば、Bモード画像41上の対応する位置に、弾性画像10または血流画像20が所定の透過度で重畳されてもよい。また、例えば、合成機能143は、合成画像30そのものを表示用画像40として出力してもよいし、Bモード画像41Aに合成画像30を非透過で重畳させた画像を表示用画像40として出力してもよい。また、例えば、合成機能143は、合成画像30の隣にBモード画像41Bを並列させた画像を表示用画像40として表示してもよい。すなわち、表示用画像40は、少なくとも合成画像30を含み、位置が対応する他の画像と適宜組み合わせて生成することが可能である。 Note that FIG. 6 is merely an example. For example, FIG. 6 illustrates a case where no other image is superimposed on the B-mode image 41B, but the embodiment is not limited to this. For example, the elasticity image 10 or the blood flow image 20 may be superimposed on the corresponding position on the B-mode image 41 with a predetermined transparency. Further, for example, the synthesizing function 143 may output the synthesized image 30 itself as the display image 40, or may output, as the display image 40, an image in which the synthesized image 30 is non-transmissively superimposed on the B-mode image 41A. may Further, for example, the synthesizing function 143 may display, as the display image 40, an image in which the B-mode image 41B is arranged next to the synthesized image 30. FIG. That is, the display image 40 includes at least the composite image 30, and can be generated by appropriately combining other images corresponding in position.

また、例えば、図6では、2つのBモード画像41A,41Bを左右に並列表示させる場合を説明したが、この他にも、2画像を上下に配置した並列表示や、異なる大きさでの並列表示、異なる表示デバイス上での同時表示等、様々な形態にて並列表示可能である。また、並列表示される画像は、3画像以上であっても良い。3画像で並列表示する場合、うち2画像をBモード画像41Aとし、1画像をBモード画像41Bとする。また、合成画像30をBモード画像41Aに重畳させず、Bモード画像41Bに重畳させてもよい。 Further, for example, in FIG. 6, the case of displaying the two B-mode images 41A and 41B side by side has been described. Parallel display is possible in various forms such as display, simultaneous display on different display devices, and the like. Also, the images displayed in parallel may be three or more images. When three images are displayed in parallel, two of the images are set as the B-mode image 41A and one image is set as the B-mode image 41B. Alternatively, the synthesized image 30 may be superimposed on the B-mode image 41B without being superimposed on the B-mode image 41A.

図7は、第1の実施形態に係る超音波診断装置1の処理手順を示すフローチャートである。図7に示す処理手順は、例えば、超音波プローブ101が被検体Pの体表面に当接された状態において、合成画像30の撮影を開始する旨の指示を操作者から受け付けることにより開始される。 FIG. 7 is a flow chart showing the processing procedure of the ultrasonic diagnostic apparatus 1 according to the first embodiment. The processing procedure shown in FIG. 7 is started, for example, by receiving an instruction from the operator to start capturing the composite image 30 while the ultrasonic probe 101 is in contact with the body surface of the subject P. .

ステップS101において、超音波診断装置1は、撮影を開始する。例えば、制御回路170は、合成画像30の撮影を開始する旨の指示を操作者から受け付けると、合成画像30の撮影を開始する。なお、ステップS101が否定される場合には、制御回路170は、撮影を開始せず、待機状態である。 In step S101, the ultrasonic diagnostic apparatus 1 starts imaging. For example, the control circuit 170 starts photographing the composite image 30 when an instruction to start photographing the composite image 30 is received from the operator. It should be noted that if step S101 is negative, the control circuit 170 does not start imaging and is in a standby state.

ステップS101が肯定されると、ステップS102において、超音波プローブ101は、被検体Pに対して超音波走査を行う。例えば、超音波プローブ101は、フレームごとに第1の超音波走査および第2の超音波走査を行う(図3参照)。 If step S101 is affirmative, the ultrasonic probe 101 performs ultrasonic scanning on the subject P in step S102. For example, the ultrasound probe 101 performs a first ultrasound scan and a second ultrasound scan for each frame (see FIG. 3).

ステップS103において、信号処理回路130は、形態情報、血流情報、および弾性情報を生成する。例えば、Bモード処理回路131は、第2の超音波走査により収集された反射波データに対して対数増幅、包絡線検波処理等を行って、Bモードデータを生成する。また、ドプラ演算処理回路132は、第1の超音波走査により収集された受信データ列に対して、クラッタ除去フィルタを適用して、受信データ列から血流情報を生成する。また、歪み分布演算回路133は、クラッタ除去フィルタ適用前の受信データ列から取得される組織移動速度情報に基づいて、組織の変形が開始してからの移動速度を時間積分して変位を算出し、さらに変位を空間微分することにより弾性情報を生成する。 In step S103, the signal processing circuit 130 generates morphological information, blood flow information, and elasticity information. For example, the B-mode processing circuit 131 performs logarithmic amplification, envelope detection processing, and the like on the reflected wave data collected by the second ultrasound scan to generate B-mode data. The Doppler arithmetic processing circuit 132 also applies a clutter removal filter to the received data string acquired by the first ultrasound scan to generate blood flow information from the received data string. Further, the strain distribution calculation circuit 133 calculates the displacement by time-integrating the moving speed after the start of deformation of the tissue based on the tissue moving speed information acquired from the received data string before application of the clutter removal filter. , and spatially differentiate the displacement to generate elastic information.

ステップS104において、画像処理回路140は、形態画像データ、血流画像データ、および弾性画像データを生成する。例えば、取得機能141は、信号処理回路130によって生成されたBモードデータ、血流情報、および弾性情報を取得する。そして、画像生成機能142は、取得機能141によって取得されたBモードデータ、血流情報、および弾性情報の走査方式を、表示用のデータ形式に変換(スキャンコンバート)することで、Bモード画像データ、血流画像データ、および弾性画像データをそれぞれ生成する。なお、ここで生成される血流画像データは、血流情報の値の違いが少なくとも色相の違いで表現され、弾性画像データは、グレースケールで表現される。 In step S104, the image processing circuit 140 generates morphological image data, blood flow image data, and elasticity image data. For example, acquisition function 141 acquires B-mode data, blood flow information, and elasticity information generated by signal processing circuitry 130 . Then, the image generation function 142 converts (scan converts) the scanning method of the B-mode data, the blood flow information, and the elasticity information acquired by the acquisition function 141 into a data format for display, thereby generating B-mode image data. , blood flow image data, and elasticity image data, respectively. In the blood flow image data generated here, the difference in values of the blood flow information is expressed at least by the difference in hue, and the elasticity image data is expressed in gray scale.

ステップS105において、合成機能143は、合成画像データを生成する。例えば、合成機能143は、弾性画像10上の対応する位置に血流画像20を重畳させることで、合成画像30を生成する。そして、合成機能143は、生成した合成画像30を含む表示用画像40を合成する(図6参照)。 In step S105, the combining function 143 generates combined image data. For example, the combining function 143 generates the combined image 30 by superimposing the blood flow image 20 on the corresponding position on the elasticity image 10 . The synthesizing function 143 then synthesizes the display image 40 including the generated synthetic image 30 (see FIG. 6).

ステップS106において、制御回路170は、画像処理回路140によって生成された合成画像データをディスプレイ103に表示する。例えば、制御回路170は、図6に示した合成画像30を含む表示用画像40をディスプレイ103に表示する。 In step S<b>106 , the control circuit 170 displays the composite image data generated by the image processing circuit 140 on the display 103 . For example, the control circuit 170 displays the display image 40 including the composite image 30 shown in FIG.

ステップS107において、制御回路170は、撮影を終了する旨の指示を操作者から受け付けたか否かを判定する。ここで、ステップS107が否定される場合には、制御回路170は、ステップS102の処理へ移行する。つまり、超音波診断装置1は、次のフレームの超音波走査を行って、次のフレームの合成画像30を生成し、表示する。 In step S107, the control circuit 170 determines whether or not an instruction to end imaging has been received from the operator. Here, if step S107 is negative, the control circuit 170 proceeds to the process of step S102. That is, the ultrasonic diagnostic apparatus 1 performs ultrasonic scanning for the next frame, generates and displays the synthesized image 30 for the next frame.

ステップS107が肯定されると、超音波診断装置1は、合成画像30を生成し、表示するための処理を終了する。なお、図7は一例に過ぎない。例えば、上記の処理手順は、必ずしも上述した順序で実行されなくてもよい。例えば、上記のステップS101~S107は、処理内容が矛盾しない範囲で、適宜順序を変えて実行されてもよい。 If step S107 is affirmative, the ultrasonic diagnostic apparatus 1 ends the processing for generating and displaying the composite image 30 . Note that FIG. 7 is merely an example. For example, the procedures described above do not necessarily have to be performed in the order described above. For example, the above steps S101 to S107 may be executed in an appropriate order as long as the processing content is consistent.

上述してきたように、第1の実施形態に係る超音波診断装置1において、取得機能141は、被検体に対する超音波走査の結果に基づいて、血流情報、および組織性状情報を取得する。画像生成機能142は、血流情報の値の違いが、少なくとも色相の違いで表現された血流画像、および組織性状情報の値の違いが、色相以外の違いで表現された組織性状画像を生成する。合成機能143は、血流画像と組織性状画像とを合成することで合成画像を生成する。このため、第1の実施形態に係る超音波診断装置1は、血流および組織性状を適切に表現した合成画像を生成することができる。 As described above, in the ultrasonic diagnostic apparatus 1 according to the first embodiment, the acquisition function 141 acquires blood flow information and tissue characterization information based on the results of ultrasonic scanning of the subject. The image generation function 142 generates a blood flow image in which differences in blood flow information values are expressed at least by differences in hue, and tissue characterization images in which differences in tissue characterization information values are expressed by differences other than hues. do. The synthesizing function 143 generates a synthesized image by synthesizing the blood flow image and the tissue characterization image. Therefore, the ultrasonic diagnostic apparatus 1 according to the first embodiment can generate a composite image that appropriately expresses blood flow and tissue properties.

例えば、超音波診断装置1は、同一の超音波走査、すなわち同一断面において弾性画像10および血流画像20を取得する。このため、超音波診断装置1は、両画像を重畳が正確になり、診断の正確性向上が期待される。診療科や検査種別によっては、弾性画像10と血流画像20とが併用される場合が多く、特に有用である。 For example, the ultrasound diagnostic apparatus 1 acquires the elasticity image 10 and the blood flow image 20 in the same ultrasound scan, that is, in the same cross section. Therefore, the ultrasonic diagnostic apparatus 1 can accurately superimpose the two images, and is expected to improve diagnostic accuracy. The elasticity image 10 and the blood flow image 20 are often used together depending on the clinical department and examination type, and are particularly useful.

また、超音波診断装置1は、各フレームにおいて実行される超音波走査の回数が低減するため、フレームレートが向上する。また、超音波診断装置1は、弾性画像10および血流画像20を個別に収集するための撮像モード切り替えも不要になる結果、診断時間を削減することができる。 In addition, since the ultrasonic diagnostic apparatus 1 reduces the number of ultrasonic scans performed in each frame, the frame rate is improved. In addition, the ultrasonic diagnostic apparatus 1 does not need to switch imaging modes for individually acquiring the elasticity image 10 and the blood flow image 20, and as a result, diagnosis time can be reduced.

また、超音波診断装置1において、画像生成機能142は、被検体に対する超音波走査の結果に基づいて、形態画像、血流画像、および組織性状画像を生成する。そして、制御回路170は、血流画像と組織性状画像とが合成された合成画像30を含む表示画像と、形態画像41Bを含む表示画像とを並べてディスプレイ103に表示させる。これにより、超音波診断装置1は、形態画像、血流画像、および組織性状画像を、視認性を損なうこと無く同時に閲覧させることができる。 Also, in the ultrasonic diagnostic apparatus 1, the image generation function 142 generates a morphological image, a blood flow image, and a tissue characterization image based on the results of ultrasonic scanning of the subject. Then, the control circuit 170 causes the display 103 to display a display image including the synthesized image 30 obtained by synthesizing the blood flow image and the tissue property image and a display image including the morphological image 41B side by side. Thereby, the ultrasonic diagnostic apparatus 1 can simultaneously view the morphological image, the blood flow image, and the tissue characterization image without impairing the visibility.

(第2の実施形態)
第1の実施形態では、血流画像20と弾性画像10とを合成する際に、色相で描出された血流画像20と単色の色階調(例えばグレースケール)で描出された弾性画像10とを合成させる場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、単色の色階調で描出された血流画像と色相で描出された弾性画像とを合成させてもよい。そこで、第2の実施形態では、超音波診断装置1が、単色の色階調で描出された血流画像と色相で描出された弾性画像とを合成させる場合について説明する。
(Second embodiment)
In the first embodiment, when synthesizing the blood flow image 20 and the elasticity image 10, the blood flow image 20 rendered in hue and the elasticity image 10 rendered in monochromatic color gradation (for example, grayscale) are combined. Although the case of synthesizing is described, the embodiment is not limited to this. For example, the ultrasonic diagnostic apparatus 1 may synthesize a blood flow image drawn with a single color gradation and an elasticity image drawn with hues. Therefore, in the second embodiment, a case will be described in which the ultrasonic diagnostic apparatus 1 synthesizes a blood flow image rendered with a single color gradation and an elasticity image rendered with hues.

第2の実施形態に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、画像生成機能142および合成機能143の処理の一部が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、説明を省略する。 The ultrasonic diagnostic apparatus 1 according to the second embodiment has a configuration similar to that of the ultrasonic diagnostic apparatus 1 illustrated in FIG. Therefore, in the second embodiment, the points of difference from the first embodiment will be mainly described, and the description of the points having the same functions as those of the configuration described in the first embodiment will be omitted.

第2の実施形態に係る画像生成機能142は、弾性情報の値の違いが、少なくとも色相の違いで表現された弾性画像、および血流情報の値の違いが、色相以外の違いで表現された血流画像を生成する。 The image generation function 142 according to the second embodiment includes an elasticity image in which the difference in the value of the elasticity information is expressed at least by the difference in hue, and a difference in the value of the blood flow information is expressed by the difference other than the hue. Generate a blood flow image.

図8Aおよび図8Bは、第2の実施形態に係る画像生成機能142の処理を説明するための図である。図8Aには、画像生成機能142により生成される弾性画像を例示する。また、図8Bには、画像生成機能142により生成される血流画像を例示する。なお、図8Bの破線は、図8Aの弾性画像との位置が対応づけられていることを表すものであり、血流画像上に実際に表示されるものではない。 8A and 8B are diagrams for explaining the processing of the image generation function 142 according to the second embodiment. FIG. 8A illustrates an elasticity image generated by the image generation function 142. FIG. Further, FIG. 8B illustrates a blood flow image generated by the image generation function 142. As shown in FIG. Note that the dashed line in FIG. 8B indicates that the position of the elasticity image in FIG. 8A is associated with the line, and is not actually displayed on the blood flow image.

図8Aに示すように、例えば、画像生成機能142は、信号処理回路130により生成された弾性情報の走査方式を、表示用のデータ形式に変換する。そして、画像生成機能142は、変換後のデータにおける各画素に対して、弾性画像用のカラールックアップテーブル(LUT)にしたがって画素値に応じた色を割り当てる。ここで、この弾性画像用のカラーLUTには、画素値に応じて異なる色相(色温度)を含む色が設定されている。つまり、画像生成機能142は、硬さ(歪み)が小さい値(軟らかい)から大きい値(硬い)に変化するにしたがって、「青-緑-赤」と連続的に変化するグラデーションを割り当てることで、弾性画像50を生成する。 As shown in FIG. 8A, for example, the image generation function 142 converts the scanning method of elasticity information generated by the signal processing circuit 130 into a data format for display. Then, the image generation function 142 assigns a color according to the pixel value to each pixel in the converted data according to a color lookup table (LUT) for elasticity images. Here, colors including different hues (color temperatures) are set in the elasticity image color LUT according to pixel values. That is, the image generation function 142 assigns a gradation that changes continuously from "blue-green-red" as the hardness (distortion) changes from a small value (soft) to a large value (hard). An elasticity image 50 is generated.

また、図8Bに示すように、画像生成機能142は、信号処理回路130により生成された血流情報の走査方式を、表示用のデータ形式に変換する。そして、画像生成機能142は、変換後のデータにおける各画素に対して、血流画像用のカラーLUTにしたがって画素値に応じたグレースケールを割り当てる。つまり、画像生成機能142は、血流情報として血流のパワーが画像化される場合には、パワーの小さい値(軟らかい)から大きい値(硬い)に変化するにしたがって、輝度が変化するグレースケールを割り当てることで、血流画像60を生成する。 Also, as shown in FIG. 8B, the image generation function 142 converts the scanning method of the blood flow information generated by the signal processing circuit 130 into a data format for display. Then, the image generation function 142 assigns a gray scale according to the pixel value to each pixel in the converted data according to the blood flow image color LUT. In other words, when the blood flow power is imaged as the blood flow information, the image generation function 142 uses a gray scale image in which the luminance changes as the power changes from a small value (soft) to a large value (hard). A blood flow image 60 is generated by assigning .

第2の実施形態に係る合成機能143は、血流画像60上に弾性画像50を重畳させることで、合成画像70を生成する。 A combining function 143 according to the second embodiment generates a combined image 70 by superimposing an elasticity image 50 on a blood flow image 60 .

図9は、第2の実施形態に係る合成機能143の処理を説明するための図である。図9に示すように、例えば、合成機能143は、血流画像60から血流領域を抽出し、抽出した血流領域以外の領域を所定の輝度(例えば黒)で塗りつぶす。そして、合成機能143は、血流領域以外の領域を塗りつぶした血流画像60上に、弾性画像50を所定の透過度(下層の血流画像60が閲覧可能な程度の透過度)で重畳させることで、合成画像70を生成する。これにより、血流領域が明確な合成画像70が得られる。 FIG. 9 is a diagram for explaining the processing of the synthesizing function 143 according to the second embodiment. As shown in FIG. 9, for example, the synthesizing function 143 extracts the blood flow region from the blood flow image 60, and fills the region other than the extracted blood flow region with a predetermined luminance (for example, black). The synthesizing function 143 then superimposes the elasticity image 50 on the blood flow image 60 in which the region other than the blood flow region is filled with a predetermined transparency (transparency that allows the underlying blood flow image 60 to be viewed). Thus, a composite image 70 is generated. As a result, a composite image 70 with a clear blood flow region is obtained.

なお、合成機能143は、血流画像60から血流領域を切り出して、切り出した血流領域を弾性画像50上に重畳させることで、合成画像70を生成してもよい。ここで、血流画像60に単色の色階調を割り当てる場合、弾性画像50のカラーLUTの色相と近接しないようにするのが好ましい。 Note that the synthesizing function 143 may extract a blood flow region from the blood flow image 60 and superimpose the extracted blood flow region on the elasticity image 50 to generate the synthetic image 70 . Here, when assigning a monochromatic color gradation to the blood flow image 60 , it is preferable not to approach the hue of the color LUT of the elasticity image 50 .

このように、第2の実施形態に係る超音波診断装置1は、単色の色階調で描出された血流画像60と色相で描出された弾性画像50とを合成することで、合成画像70を生成する。これにより、第2の実施形態に係る超音波診断装置1は、血流および組織性状を適切に表現した合成画像を生成することができる。 As described above, the ultrasonic diagnostic apparatus 1 according to the second embodiment synthesizes the blood flow image 60 rendered with a monochromatic color gradation and the elasticity image 50 rendered with hues to obtain a synthesized image 70 to generate As a result, the ultrasonic diagnostic apparatus 1 according to the second embodiment can generate a composite image that appropriately expresses blood flow and tissue properties.

(第3の実施形態)
上述した第1および第2の実施形態では、TDI法を用いて弾性画像を生成する場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、隣接フレーム間の相関演算に基づいて弾性画像を生成してもよい。そこで、第3の実施形態では、超音波診断装置1が、隣接フレーム間の相関演算に基づいて弾性画像を生成する場合を説明する。
(Third embodiment)
In the first and second embodiments described above, the case of generating an elasticity image using the TDI method has been described, but the embodiments are not limited to this. For example, the ultrasonic diagnostic apparatus 1 may generate elasticity images based on correlation calculations between adjacent frames. Therefore, in the third embodiment, a case will be described in which the ultrasonic diagnostic apparatus 1 generates elasticity images based on correlation calculations between adjacent frames.

第3の実施形態に係る超音波診断装置1は、図1に例示した超音波診断装置1と同様の構成を備え、信号処理回路130の処理の一部が相違する。そこで、第3の実施形態では、第1の実施形態と相違する点を中心に説明することとし、第1の実施形態において説明した構成と同様の機能を有する点については、説明を省略する。 The ultrasonic diagnostic apparatus 1 according to the third embodiment has the same configuration as the ultrasonic diagnostic apparatus 1 illustrated in FIG. Therefore, in the third embodiment, the points of difference from the first embodiment will be mainly described, and the description of the points having the same functions as those of the configuration described in the first embodiment will be omitted.

図10は、第3の実施形態に係る信号処理回路130の構成例を示すブロック図である。図10に示すように、信号処理回路130は、Bモード処理回路131と、歪み分布演算回路133と、ドプラ演算処理回路134と、相互相関演算回路135とを備える。なお、Bモード処理回路131および歪み分布演算回路133は、図2に示したBモード処理回路131および歪み分布演算回路133と同様であるので、説明を省略する。 FIG. 10 is a block diagram showing a configuration example of the signal processing circuit 130 according to the third embodiment. As shown in FIG. 10 , the signal processing circuit 130 includes a B-mode processing circuit 131 , a strain distribution computing circuit 133 , a Doppler computing circuit 134 and a cross-correlation computing circuit 135 . Note that the B-mode processing circuit 131 and the strain distribution computing circuit 133 are the same as the B-mode processing circuit 131 and the strain distribution computing circuit 133 shown in FIG. 2, so description thereof will be omitted.

ドプラ演算処理回路134は、図2に例示したドプラ演算処理回路132と同様に、MTIフィルタ132Aと、血流情報生成回路132Bとを備え、組織移動速度生成回路132Cを備えない点が相違する。MTIフィルタ132Aおよび血流情報生成回路132Bは、図2に示したMTIフィルタ132Aおよび血流情報生成回路132Bと同様であるので、説明を省略する。つまり、ドプラ演算処理回路134は、実質的にはドプラ演算処理回路132と同様の処理により、血流情報を生成する。 Similar to the Doppler arithmetic processing circuit 132 illustrated in FIG. 2, the Doppler arithmetic processing circuit 134 includes an MTI filter 132A and a blood flow information generating circuit 132B, but does not include a tissue moving velocity generating circuit 132C. The MTI filter 132A and the blood flow information generation circuit 132B are the same as the MTI filter 132A and the blood flow information generation circuit 132B shown in FIG. 2, so description thereof will be omitted. That is, the Doppler arithmetic processing circuit 134 generates blood flow information by substantially the same processing as the Doppler arithmetic processing circuit 132 .

相互相関演算回路135は、受信回路120からの反射波データに基づいて、組織変位情報を生成する。この組織変位情報は、弾性情報を生成する歪み分布演算回路133の入力となる情報である。 A cross-correlation calculation circuit 135 generates tissue displacement information based on the reflected wave data from the reception circuit 120 . This tissue displacement information is information that is input to the strain distribution arithmetic circuit 133 that generates elasticity information.

図11は、第3の実施形態に係る相互相関演算回路135の処理を説明するための図である。図11には、図3と同様のスキャンシーケンスを例示する。すなわち、第3の実施形態においても、図3に示した第1の実施形態のスキャンシーケンスと同様のスキャンシーケンスが実行される。 FIG. 11 is a diagram for explaining the processing of the cross-correlation calculation circuit 135 according to the third embodiment. FIG. 11 illustrates a scan sequence similar to that of FIG. That is, also in the third embodiment, a scan sequence similar to the scan sequence of the first embodiment shown in FIG. 3 is executed.

ここで、相互相関演算回路135は、隣接するフレーム間において、同一位置におけるIQ信号(若しくはRF信号)の相互相関(若しくは位相差)を演算することで、当該フレーム間における組織の変位を表す組織変位情報を生成する。具体的には、図11の矢印で示すように、相互相関演算回路135は、nフレーム目およびn+1フレーム目においてそれぞれ実行される第1の超音波走査からIQ信号を取得する。そして、相互相関演算回路135は、nフレーム目およびn+1フレーム目の間において、同一位置のIQ信号の相互相関を演算することで、これらのフレーム間における組織変位情報を生成する。そして、歪み分布演算回路133は、相互相関演算回路135によって生成された組織の変位を空間微分することにより、弾性情報を算出する。 Here, the cross-correlation calculation circuit 135 calculates the cross-correlation (or phase difference) of the IQ signal (or RF signal) at the same position between adjacent frames, thereby representing tissue displacement between the frames. Generate displacement information. Specifically, as indicated by arrows in FIG. 11, the cross-correlation calculation circuit 135 acquires IQ signals from the first ultrasound scans performed in the n-th frame and the n+1-th frame, respectively. Then, the cross-correlation calculation circuit 135 calculates the cross-correlation of the IQ signals at the same position between the n-th frame and the n+1-th frame, thereby generating tissue displacement information between these frames. The strain distribution calculation circuit 133 then spatially differentiates the tissue displacement generated by the cross-correlation calculation circuit 135 to calculate elasticity information.

このように、ドプラ演算処理回路134は、隣接フレーム間における受信データ間の相関演算に基づいて、弾性情報(組織性状情報)を生成することができる。なお、nフレーム目およびn+1フレーム目の受信データを用いて生成された弾性情報(弾性画像)は、nフレーム目またはn+1フレーム目の受信データから生成される断層画像および血流画像と同時に表示することで、ほぼ同一時刻かつほぼ同一断面の情報を同時表示することが可能となる。 In this way, the Doppler arithmetic processing circuit 134 can generate elasticity information (tissue property information) based on correlation arithmetic between received data between adjacent frames. The elasticity information (elasticity image) generated using the received data of the nth frame and the (n+1)th frame is displayed simultaneously with the tomographic image and the blood flow image generated from the received data of the nth or (n+1)th frame. This makes it possible to simultaneously display information on substantially the same cross section at substantially the same time.

(第4の実施形態)
第4の実施形態では、上述した第1~第3の実施形態と比較して高フレームレートで超音波走査を実行する場合について、説明する。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which ultrasonic scanning is performed at a higher frame rate than in the first to third embodiments described above.

例えば、第1~第3の実施形態にて説明した構成において、MTIフィルタ132Aの性能を向上させるには、各フレームの超音波走査により得られる反射波データのデータ列(パケット)を増加させるのが好ましい。しかしながら、この場合、パケットサイズの増加に伴ってフレームレートが低下してしまう。そこで、第4の実施形態では、フレームレートを上げるための構成を説明する。 For example, in the configurations described in the first to third embodiments, in order to improve the performance of the MTI filter 132A, it is necessary to increase the number of data strings (packets) of reflected wave data obtained by ultrasonic scanning of each frame. is preferred. However, in this case, the frame rate decreases as the packet size increases. Therefore, in the fourth embodiment, a configuration for increasing the frame rate will be described.

第4の実施形態に係る制御回路170は、血流情報(および弾性情報)の収集については、走査範囲内に対する超音波走査を、同一位置の反射波データを複数フレームにわたって収集可能な走査形態で繰り返し実行する。また、制御回路170は、断層情報の収集については、走査範囲を分割した部分的な超音波走査を、分割範囲を切り替えながら複数フレームにわたって実行する。すなわち、制御回路170は、複数フレームにわたって繰り返し実行される血流情報の超音波走査の合間に、走査範囲が分割された部分的な超音波走査を、分割範囲を切り替えながら実行する。 In the acquisition of blood flow information (and elasticity information), the control circuit 170 according to the fourth embodiment performs ultrasonic scanning within the scanning range in a scanning mode capable of acquiring reflected wave data at the same position over a plurality of frames. Execute repeatedly. In addition, for the collection of tomographic information, the control circuit 170 executes partial ultrasonic scanning by dividing the scanning range over a plurality of frames while switching the divided range. That is, the control circuit 170 performs partial ultrasonic scanning in which the scanning range is divided while switching the divided range between ultrasonic scanning of blood flow information repeatedly performed over a plurality of frames.

図12は、第4の実施形態に係る制御回路170の処理を説明するための図である。図12に示す「B」は、Bモード用の送受信条件を用いて超音波走査が行なわれている範囲を示している。つまり、Bモード用の超音波走査が行われる範囲は、4つの分割範囲(第1分割範囲~第4分割範囲)に分割されている。また、図12に示す「D」は、カラードプラモード用の送受信条件を用いて超音波走査が行なわれている範囲を示している。例えば、図12に示す「D」は、上記の高フレームレート法で行なわれる超音波走査が行なわれている範囲となる。すなわち、図12に例示する超音波走査は、一般的なカラードプラ法のように、超音波を同一方向に複数回送信して、複数回反射波を受信するのではなく、各走査線で超音波送受信を1回行なっている。制御回路170は、カラードプラモード用の超音波走査として、走査範囲を形成する複数の走査線それぞれで1回ずつ超音波送受信を行ない、複数フレーム分の反射波を用いて血流情報を取得する方法(高フレームレート法)に基づく超音波走査を実行させる。 FIG. 12 is a diagram for explaining the processing of the control circuit 170 according to the fourth embodiment. “B” shown in FIG. 12 indicates a range in which ultrasonic scanning is performed using the transmission/reception conditions for B mode. That is, the range in which B-mode ultrasonic scanning is performed is divided into four divided ranges (first divided range to fourth divided range). "D" shown in FIG. 12 indicates the range in which ultrasonic scanning is performed using the transmission/reception conditions for the color Doppler mode. For example, "D" shown in FIG. 12 is the range in which ultrasonic scanning is performed by the above high frame rate method. That is, in the ultrasonic scanning illustrated in FIG. 12, unlike the general color Doppler method, ultrasonic waves are transmitted multiple times in the same direction and reflected waves are received multiple times. Sound waves are transmitted and received once. The control circuit 170 performs ultrasonic wave transmission/reception once for each of a plurality of scanning lines forming a scanning range as ultrasonic scanning for color Doppler mode, and acquires blood flow information using reflected waves for a plurality of frames. An ultrasound scan based on the method (high frame rate method) is performed.

まず、制御回路170は、第1分割範囲に対してBモード用の超音波走査を実行させ(図12の(1)を参照)、1フレーム分の走査範囲に対してカラードプラモード用の超音波走査を実行させる(図12の(2)を参照)。そして、制御回路170は、第1分割範囲に対してBモード用の超音波走査を実行させ(図12の(3)を参照)、1フレーム分の走査範囲に対してカラードプラモード用の超音波走査を実行させる(図12の(4)を参照)。そして、制御回路170は、第1分割範囲に対してBモード用の超音波走査を実行させ(図12の(5)を参照)、1フレーム分の走査範囲に対してカラードプラモード用の超音波走査を実行させる(図12の(6)を参照)。そして、制御回路170は、第1分割範囲に対してBモード用の超音波走査を実行させ(図12の(7)を参照)、1フレーム分の走査範囲に対してカラードプラモード用の超音波走査を実行させる(図12の(8)を参照)。 First, the control circuit 170 performs B-mode ultrasound scanning on the first divided range (see (1) in FIG. 12), and performs color Doppler mode ultrasound scanning on the scanning range of one frame. Acoustic scanning is performed (see (2) in FIG. 12). Then, the control circuit 170 performs B-mode ultrasound scanning on the first divided range (see (3) in FIG. 12), and color Doppler mode ultrasound scanning on the scanning range of one frame. Acoustic scanning is performed (see (4) in FIG. 12). Then, the control circuit 170 causes B-mode ultrasound scanning to be performed on the first divided range (see (5) in FIG. 12), and color Doppler mode ultrasound scanning on the scanning range of one frame. Acoustic scanning is performed (see (6) in FIG. 12). Then, the control circuit 170 causes B-mode ultrasound scanning to be performed on the first divided range (see (7) in FIG. 12), and color Doppler mode ultrasound scanning on the scanning range for one frame. Acoustic scanning is performed (see (8) in FIG. 12).

ここで、図12に例示するように、制御回路170は、カラードプラモード用の超音波走査が行なわれる間隔を等間隔とする。すなわち、走査範囲上の「点X」は、図12の(2)、(4)、(6)及び(8)の超音波走査で1回ずつ走査されるが、その走査間隔は、一定の「T」となるように制御される。具体的には、制御回路170は、Bモード用の超音波走査で行なわれる各分割走査に要する時間を同一として、カラードプラモード用の超音波走査が行なわれる間隔を等間隔とする。例えば、制御回路170は、図12の(1)、(3)、(5)及び(7)で行われるBモード用の超音波走査の分割走査に要する時間を、必ず同じ時間となるように制御する。制御回路170は、各分割範囲の大きさや、走査線数、走査線密度及び深度等を同一とする。例えば、走査線数が同じであるならば、Bモード用の超音波走査の各分割走査に要する時間は、同じとなる。信号処理回路130は、「D」のフレーム間の同じ位置のデータ列(図12に示す「Xn-3、Xn-2、Xn-1、X、・・・」)に対して、相関演算等の処理を行なって、「点X」の血流情報や弾性情報を出力する。 Here, as exemplified in FIG. 12, the control circuit 170 sets the intervals at which ultrasonic scanning for the color Doppler mode is performed to be equal intervals. That is, "point X" on the scanning range is scanned once each by ultrasonic scanning of (2), (4), (6) and (8) in FIG. It is controlled to be "T". Specifically, the control circuit 170 equalizes the time required for each divided scanning performed in the B-mode ultrasonic scanning, and sets the interval at which the ultrasonic scanning for the color Doppler mode is performed at equal intervals. For example, the control circuit 170 ensures that the time required for the divided scans of the B-mode ultrasonic scans performed in (1), (3), (5), and (7) of FIG. 12 is always the same. Control. The control circuit 170 sets the size of each divided range, the number of scanning lines, the scanning line density, the depth, etc., to be the same. For example, if the number of scanning lines is the same, the time required for each divided scanning of the B-mode ultrasonic scanning is the same. The signal processing circuit 130 performs a , correlation calculation, etc. are performed, and blood flow information and elasticity information of "point X" are output.

このように、第4の実施形態に係る超音波診断装置1は、高フレームレートで超音波走査を実行可能である。このため、超音波診断装置1は、1枚の断層画像を形成するためのフレーム期間において、血流情報および弾性情報を生成し、それらの画像化および表示を行うことにより、ほぼ同一時刻かつほぼ同一断面の情報を同時表示することが可能となる。 Thus, the ultrasonic diagnostic apparatus 1 according to the fourth embodiment can perform ultrasonic scanning at a high frame rate. For this reason, the ultrasonic diagnostic apparatus 1 generates blood flow information and elasticity information in a frame period for forming one tomographic image, and performs imaging and display of the information, thereby performing almost the same time and at almost the same time. Information on the same cross section can be displayed simultaneously.

(その他の実施形態)
上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(Other embodiments)
Various different forms may be implemented in addition to the embodiments described above.

(形態画像、血流画像、および弾性画像が異なる超音波走査により生成される場合)
上記の実施形態では、例えば、血流画像および弾性画像が同一の超音波走査によって生成される場合を説明したが、実施形態はこれに限定されるものではない。例えば、形態画像、血流画像、および弾性画像は、互いに異なる超音波走査により生成されてもよい。
(when morphological, perfusion, and elasticity images are generated by different ultrasound scans)
In the above embodiments, for example, a case where a blood flow image and an elasticity image are generated by the same ultrasound scan has been described, but embodiments are not limited to this. For example, morphological images, blood flow images, and elasticity images may be generated by different ultrasound scans.

図13は、その他の実施形態に係るスキャンシーケンスの一例を示す図である。図13において、横軸は、時間に対応する。また、各フレームの超音波走査には、第1の超音波走査、第2の超音波走査、および第3の超音波走査が含まれる。ここで、第1の超音波走査および第2の超音波走査は、図3で示したものと同様である。つまり、第1の超音波走査から血流画像(血流情報)が生成され、第2の超音波走査から形態画像(形態情報)が生成される。 FIG. 13 is a diagram showing an example of a scan sequence according to another embodiment. In FIG. 13, the horizontal axis corresponds to time. Also, the ultrasound scans of each frame include a first ultrasound scan, a second ultrasound scan, and a third ultrasound scan. Here, the first ultrasonic scan and the second ultrasonic scan are the same as those shown in FIG. That is, a blood flow image (blood flow information) is generated from the first ultrasound scan, and a morphological image (morphological information) is generated from the second ultrasound scan.

ここで、第3の超音波走査は、弾性画像(弾性情報)を生成するために実行される。この場合、例えば、信号処理回路130は、第3の超音波走査で得られる反射波データからTDI法により組織移動速度情報を生成して、弾性情報を算出する。なお、これに限らず、信号処理回路130は、隣接フレーム間の相関演算に基づいて弾性画像を生成してもよい。 A third ultrasound scan is now performed to generate an elasticity image (elasticity information). In this case, for example, the signal processing circuit 130 generates tissue moving velocity information by the TDI method from the reflected wave data obtained by the third ultrasonic scan, and calculates elasticity information. Alternatively, the signal processing circuit 130 may generate an elasticity image based on a correlation calculation between adjacent frames.

(シェアウェーブ・エラストグラフィの適用)
また、上記の実施形態では、超音波プローブ101を体表に当接させる行為により発生する微弱な振動により生じる歪み(ストレイン)を画像化するストレイン・エラストグラフィにより弾性画像が生成される場合を説明したが、実施形態はこれに限定されるものではない。例えば、体表から生体組織に音響放射力(プッシュパルス)を与えてせん断波(Shear Wave)に基づく変位を発生させ、走査断面内の各点における変位を経時的に観測することで、せん断波の伝播速度から弾性率を求めるシェアウェーブ・エラストグラフィが適用されてもよい。
(Application of shear wave elastography)
Further, in the above embodiment, a case where an elastic image is generated by strain elastography, which visualizes strain caused by weak vibrations generated by the action of bringing the ultrasonic probe 101 into contact with the body surface, is described. However, embodiments are not limited to this. For example, by applying an acoustic radiation force (push pulse) from the body surface to the living tissue to generate displacement based on shear waves, and observing the displacement at each point in the scanning cross section over time, shear waves can be generated. Shearwave elastography, which derives the elastic modulus from the propagation velocity of , may be applied.

図13を用いて、シェアウェーブ・エラストグラフィが適用される場合の超音波走査について説明する。この場合、第1の超音波走査および第2の超音波走査は、上記の説明と同様である。つまり、第1の超音波走査から血流画像(血流情報)が生成され、第2の超音波走査から形態画像(形態情報)が生成される。 Ultrasonic scanning when shear wave elastography is applied will be described with reference to FIG. 13 . In this case, the first ultrasound scan and the second ultrasound scan are the same as described above. That is, a blood flow image (blood flow information) is generated from the first ultrasound scan, and a morphological image (morphological information) is generated from the second ultrasound scan.

ここで、第3の超音波走査は、シェアウェーブ・エラストグラフィにより弾性画像(弾性情報)を生成するための超音波走査である。ただし、シェアウェーブ・エラストグラフィでは、1回のプッシュパルス送信によって生じるせん断波が伝播とともに減衰してしまうため、1つの関心領域を複数の小領域に分けて走査することが行われる。図13では、関心領域を3つの小領域にわけて走査し、3つの小領域の弾性画像を合成することで、関心領域に対応する1枚の弾性画像を得る場合を説明する。ここで、説明の便宜上、3つの小領域を、小領域A,B,Cと表記する。 Here, the third ultrasonic scanning is ultrasonic scanning for generating an elasticity image (elasticity information) by shear wave elastography. However, in shear wave elastography, a shear wave generated by one push pulse transmission attenuates as it propagates, so one region of interest is divided into a plurality of small regions and scanned. FIG. 13 illustrates a case where the region of interest is divided into three small regions and scanned, and the elasticity images of the three small regions are synthesized to obtain one elasticity image corresponding to the region of interest. Here, for convenience of explanation, the three sub-regions are denoted as sub-regions A, B, and C. FIG.

すなわち、nフレーム目において、第1の超音波走査から血流画像が生成され、第2の超音波走査から形態画像が生成され、第3の超音波走査から小領域Aの弾性画像が生成される。続いて、n+1フレーム目において、第1の超音波走査から血流画像が生成され、第2の超音波走査から形態画像が生成され、第3の超音波走査から小領域Bの弾性画像が生成される。そして、n+2フレーム目において、第1の超音波走査から血流画像が生成され、第2の超音波走査から形態画像が生成され、第3の超音波走査から小領域Cの弾性画像が生成される。ここで、小領域A,B,Cの弾性画像を合成することで、関心領域に対応する1枚の弾性画像を生成可能となる。言い換えると、シェアウェーブ・エラストグラフィにより生成される弾性画像は、血流画像及び形態画像と比較して、小領域の数に応じてフレームレートが低くなる。なお、シェアウェーブ・エラストグラフィにより生成された弾性画像は、フレームレートが低い点を除き、上記の実施形態にて説明したストレイン・エラストグラフィにより生成される弾性画像と同様に合成画像データの生成/表示に利用可能である。 That is, in the n-th frame, a blood flow image is generated from the first ultrasonic scan, a morphological image is generated from the second ultrasonic scan, and an elasticity image of the small region A is generated from the third ultrasonic scan. be. Subsequently, in the n+1th frame, a blood flow image is generated from the first ultrasonic scan, a morphological image is generated from the second ultrasonic scan, and an elasticity image of the small region B is generated from the third ultrasonic scan. be done. Then, in the n+2th frame, a blood flow image is generated from the first ultrasonic scan, a morphological image is generated from the second ultrasonic scan, and an elasticity image of the small region C is generated from the third ultrasonic scan. be. By synthesizing the elasticity images of the small regions A, B, and C, one elasticity image corresponding to the region of interest can be generated. In other words, elasticity images generated by shearwave elastography have a lower frame rate depending on the number of small regions compared to blood flow images and morphological images. The elastic image generated by shear wave elastography is similar to the elastic image generated by strain elastography described in the above embodiment, except that the frame rate is low. available for display.

(他の組織性状画像)
また、上述した弾性画像以外にも、減衰画像、ASQ(acoustic structure quantification)モード画像、微小石灰化強調画像などの画像についても組織性状画像として適用可能である。
(Other tissue characterization images)
In addition to the elasticity image described above, images such as attenuation images, ASQ (acoustic structure quantification) mode images, and microcalcification-enhanced images can also be applied as tissue property images.

ここで、減衰画像とは、生体内を伝播する超音波の減衰の様子を画像化したものである。例えば、超音波の減衰量は、所定の周波数の超音波を送受信して得られる反射波信号の信号強度から推定される。 Here, the attenuation image is an image of the state of attenuation of ultrasonic waves propagating in the living body. For example, the attenuation of ultrasonic waves is estimated from the signal strength of a reflected wave signal obtained by transmitting and receiving ultrasonic waves of a predetermined frequency.

また、ASQモード画像とは、受信信号の信号振幅分布のレイリー分布(Rayleigh distribution)からの逸脱度(分散値)を統計フィルタ処理により求め、かかる分散値が画像化されたものである。 The ASQ mode image is obtained by obtaining the degree of deviation (variance value) of the signal amplitude distribution of the received signal from the Rayleigh distribution by statistical filtering, and converting the variance value into an image.

微小石灰化強調画像とは、Bモード画像から、観察対象となる組織内で生じた微細な石灰化を抽出し、抽出した微細石灰化を画像化したものである。 A microcalcification-enhanced image is obtained by extracting microcalcifications generated in a tissue to be observed from a B-mode image and imaging the extracted microcalcifications.

上記の減衰画像、ASQモード画像、微小石灰化強調画像が組織性状画像として血流画像と合成される場合には、血流画像が色相の違いで表現され、組織性状画像が色相以外の違いで表現されるのが好適である。 When the attenuation image, the ASQ mode image, and the microcalcification-enhanced image are combined with the blood flow image as the tissue characterization image, the blood flow image is expressed by the difference in hue, and the tissue characterization image is expressed by the difference other than the hue. It is preferred to express

(医用画像処理装置)
また、上述した実施形態において説明した処理は、医用画像処理装置において実行されてもよい。
(medical image processing device)
Also, the processing described in the above embodiments may be executed in a medical image processing apparatus.

図14は、その他の実施形態に係る医用画像処理装置の構成例を示すブロック図である。図14に示すように、医用画像処理装置200は、入力装置201と、ディスプレイ202と、記憶回路210と、処理回路220とを備える。 FIG. 14 is a block diagram showing a configuration example of a medical image processing apparatus according to another embodiment. As shown in FIG. 14, the medical image processing apparatus 200 includes an input device 201, a display 202, a memory circuit 210, and a processing circuit 220.

入力装置201は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、医用画像処理装置200の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を各処理部へ転送する。 The input device 201 has a mouse, a keyboard, buttons, panel switches, a touch command screen, a foot switch, a trackball, a joystick, etc., receives various setting requests from the operator of the medical image processing apparatus 200, and receives various settings. Transfer the request to each processing unit.

ディスプレイ202は、医用画像処理装置200の操作者が入力装置201を用いて各種設定要求を入力するためのGUIを表示したり、医用画像処理装置200において生成された情報等を表示したりする。 The display 202 displays a GUI for the operator of the medical image processing apparatus 200 to input various setting requests using the input device 201, and displays information generated in the medical image processing apparatus 200 and the like.

記憶回路210は、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等の不揮発性の記憶装置である。 The memory circuit 210 is a semiconductor memory device such as a flash memory, or a nonvolatile memory device such as a hard disk or an optical disk.

処理回路220は、ASICやFPGA等の集積回路や、CPUやMPU等の電子回路であり、医用画像処理装置200の処理全体を制御する。 The processing circuit 220 is an integrated circuit such as an ASIC or FPGA, or an electronic circuit such as a CPU or MPU, and controls the overall processing of the medical image processing apparatus 200 .

また、処理回路220は、取得機能221と、画像生成機能222と、合成機能223とを実行する。取得機能221、画像生成機能222、および合成機能223は、上記の実施形態にて説明した取得機能141、画像生成機能142、および合成機能143とそれぞれ同様の機能を備える。 The processing circuitry 220 also performs an acquisition function 221 , an image generation function 222 and a composition function 223 . The acquisition function 221, the image generation function 222, and the synthesizing function 223 have the same functions as the acquisition function 141, the image generation function 142, and the synthesizing function 143 described in the above embodiments, respectively.

すなわち、取得機能221は、血流情報および組織性状情報を取得する。画像生成機能222は、取得機能221によって取得された血流情報から、被検体内の各位置における血流に基づく値を含む血流情報の値の違いが、少なくとも色相の違いで表現された血流画像20を生成する。また、画像生成機能222は、取得機能221によって取得された組織性状情報から、被検体内の各位置における組織性状に基づく値を含む組織性状情報の値の違いが、色相以外の違いで表現された弾性画像10を生成する。そして、画像生成機能222は、生成した血流画像20および弾性画像10を記憶回路210へ格納する。そして、合成機能223は、血流画像20および弾性画像10を合成することで合成画像30を生成する。 That is, the acquisition function 221 acquires blood flow information and tissue characterization information. The image generating function 222 extracts blood flow information obtained by the obtaining function 221 from the blood flow information obtained by the obtaining function 221. The blood flow information values including the values based on the blood flow at each position in the subject are represented by at least different hues. A stream image 20 is generated. In addition, the image generation function 222 expresses, from the tissue characterization information acquired by the acquisition function 221, differences in values of the tissue characterization information including values based on the tissue characterization at each position in the subject by differences other than hue. An elasticity image 10 is generated. Then, the image generation function 222 stores the generated blood flow image 20 and elasticity image 10 in the storage circuit 210 . Then, the synthesizing function 223 generates a synthesized image 30 by synthesizing the blood flow image 20 and the elasticity image 10 .

なお、医用画像処理装置200は、生成済みの血流画像20および弾性画像10をモダリティから取得し、取得した画像同士を合成する場合であってもよい。この場合、取得機能221は、血流画像20および弾性画像10をそれぞれモダリティから取得し、取得した血流画像20および弾性画像10を記憶回路210に格納する。そして、合成機能223は、血流画像20および弾性画像10を合成することで合成画像30を生成する。 Note that the medical image processing apparatus 200 may acquire the generated blood flow image 20 and elasticity image 10 from the modality and synthesize the acquired images. In this case, the acquisition function 221 acquires the blood flow image 20 and the elasticity image 10 from each modality, and stores the acquired blood flow image 20 and elasticity image 10 in the storage circuit 210 . Then, the synthesizing function 223 generates a synthesized image 30 by synthesizing the blood flow image 20 and the elasticity image 10 .

また、図14では、血流画像20および弾性画像10を合成することで合成画像30を生成する場合を説明したが、血流画像60および弾性画像50を合成することで合成画像70を生成してもよい。 Further, FIG. 14 describes the case where the synthetic image 30 is generated by synthesizing the blood flow image 20 and the elasticity image 10, but the synthetic image 70 is generated by synthesizing the blood flow image 60 and the elasticity image 50. may

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

また、上記の実施形態において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. can also be performed automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

また、上記の実施形態で説明した医用画像処理方法は、予め用意された医用画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この医用画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この医用画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the medical image processing method described in the above embodiments can be realized by executing a prepared medical image processing program on a computer such as a personal computer or a workstation. This medical image processing program can be distributed via a network such as the Internet. In addition, the medical image processing program may be recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and may be executed by being read from the recording medium by a computer. can.

以上説明した少なくともひとつの実施形態によれば、血流および組織性状を適切に表現した合成画像を生成することができる。 According to at least one embodiment described above, it is possible to generate a composite image that appropriately expresses blood flow and tissue properties.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 超音波診断装置
140 画像処理回路
141 取得機能
142 画像生成機能
143 合成機能
1 Ultrasonic Diagnostic Apparatus 140 Image Processing Circuit 141 Acquisition Function 142 Image Generation Function 143 Synthesis Function

Claims (12)

被検体に対する超音波走査の結果に基づいて、前記被検体内の各位置における血流を表す値を含む血流情報、前記被検体内の各位置における組織性状を表す値を含む組織性状情報、および前記被検体内の各位置における形態を表す値を含む形態情報を取得する取得部と、
前記血流情報の値の違いが、第1の色を用いて非グレースケールで表現された第1画像、前記組織性状情報の値の違いが、前記第1の色とは異なる第2の色を用いて非グレースケールで表現された第2画像、および前記形態情報の値の違いがグレースケールで表現された第3画像を生成し、色相、明度、彩度の三要素のうち、前記第1画像と前記第2画像とは互いに異なる要素の違いで表現される画像生成部と、
前記第1画像、前記第2画像、および前記第3画像を合成することで合成画像を生成する合成部と、
を備える、超音波診断装置。
blood flow information including values representing blood flow at each position within the subject, tissue property information including values representing tissue properties at each position within the subject, based on the results of ultrasonic scanning of the subject; and an acquisition unit that acquires morphological information including a value representing the morphology at each position in the subject;
A first image in which the difference in the value of the blood flow information is expressed in a non-grayscale using a first color, and a second color in which the difference in the value of the tissue attribute information is different from the first color. to generate a second image expressed in non-grayscale using and a third image in which the difference in the value of the morphological information is expressed in grayscale . an image generator in which the first image and the second image are represented by different elements ;
a combining unit configured to generate a combined image by combining the first image, the second image, and the third image;
An ultrasound diagnostic device.
前記画像生成部は、前記血流情報の値の違いが、少なくとも色相の違いで表現された第1画像、 前記組織性状情報の値の違いが、少なくとも明度又は彩度の違いで表現された第2画像を生成する、
請求項1に記載の 超音波診断装置。
The image generation unit generates a first image in which the difference in the blood flow information value is represented by at least a difference in hue; The difference in the values of the tissue characterization information is at leastMomo Akiradifference in intensity or saturationcomeExpressed second strokethe statuegenerateRu
Claim 1 Ultrasound diagnostic equipment.
前記画像生成部は、前記組織性状情報の値の違いが、少なくとも色相の違いで表現された第2画像、前記血流情報の値の違いが、少なくとも明度又は彩度の違いで表現された第1画像を生成する、
請求項1に記載の超音波診断装置。
The image generation unit generates a second image in which the difference in the values of the tissue characterization information is represented by at least a difference in hue, and a second image in which the difference in the values of the blood flow information is represented by at least a difference in brightness or saturation . 1 generate an image,
The ultrasonic diagnostic apparatus according to claim 1.
前記組織性状情報の値の違いは、色相、色相と明度との組合せ、色相と彩度との組合せ、色相と明度と彩度との組合せのうちのいずれか1つの違いで表現され、
前記血流情報の値の違いは、明度、彩度、および明度と彩度との組合せのうちのいずれか1つの違いで表現される、
請求項2に記載の超音波診断装置。
The difference in the values of the tissue characterization information is expressed as a difference in any one of hue, a combination of hue and brightness, a combination of hue and saturation, and a combination of hue, brightness and saturation,
The difference in the value of the blood flow information is expressed as a difference in any one of brightness, saturation, and a combination of brightness and saturation.
The ultrasonic diagnostic apparatus according to claim 2.
前記取得部は、前記血流情報および前記組織性状情報を同一の超音波走査の結果から取得する、
請求項1乃至4のうちいずれか一つに記載の超音波診断装置。
The acquisition unit acquires the blood flow information and the tissue characterization information from the same ultrasound scanning results.
The ultrasonic diagnostic apparatus according to any one of claims 1 to 4.
画像を表示部に表示させる制御部を更に備え、
前記合成部は、前記第1画像を透過させた状態で前記第2画像に対して重畳させ、前記第1画像を重畳させた前記第2画像を前記第3画像に対して非透過で重畳させることで、第1の表示画像を生成し、
前記制御部は、前記第1の表示画像を前記表示部に表示させる、
請求項1乃至5のうちいずれか一つに記載の超音波診断装置。
Further comprising a control unit for displaying an image on the display unit,
The synthesizing unit superimposes the first image on the second image in a transparent state, and superimposes the second image on which the first image is superimposed on the third image in a non-transparent state. to generate a first display image,
The control unit causes the display unit to display the first display image,
The ultrasonic diagnostic apparatus according to any one of claims 1 to 5.
前記制御部は、前記第3画像を含む第2の表示画像を、前記第1の表示画像と並べて前記表示部に表示させる、
請求項6に記載の超音波診断装置。
The control unit causes the display unit to display a second display image including the third image side by side with the first display image.
The ultrasonic diagnostic apparatus according to claim 6.
前記取得部は、
同一位置に対する複数回の超音波送受信によって得られた受信データ列に対して、クラッタ成分を除去するクラッタ除去フィルタを適用し、前記クラッタ除去フィルタ適用後の受信データ列から前記血流情報を取得し、
前記クラッタ除去フィルタ適用前の受信データ列から前記組織性状情報を取得する、
請求項1乃至7のうちいずれか一つに記載の超音波診断装置。
The acquisition unit
A clutter removal filter that removes clutter components is applied to a reception data string obtained by transmitting and receiving ultrasonic waves at the same position a plurality of times, and the blood flow information is obtained from the reception data string after applying the clutter removal filter. ,
obtaining the tissue characterization information from the received data string before applying the clutter removal filter;
The ultrasonic diagnostic apparatus according to any one of claims 1 to 7.
前記組織性状情報は、前記血流情報の取得に用いた受信データを含む複数の受信データ間の相関演算に基づいて取得され、組織の硬さを表す弾性情報である
請求項1乃至7のうちいずれか一つに記載の超音波診断装置。
The tissue property information is elasticity information obtained based on a correlation operation between a plurality of pieces of received data including the received data used to obtain the blood flow information, and represents tissue hardness .
The ultrasonic diagnostic apparatus according to any one of claims 1 to 7.
被検体に対する超音波走査の結果に基づいて取得された、前記被検体内の各位置における血流を表す値を含む血流情報、前記被検体内の各位置における組織性状を表す値を含む組織性状情報、および前記被検体内の各位置における形態を表す値を含む形態情報について、前記血流情報の値の違いが、第1の色を用いて非グレースケールで表現された第1画像、前記組織性状情報の値の違いが、前記第1の色とは異なる第2の色を用いて非グレースケールで表現された第2画像、および前記形態情報の値の違いがグレースケールで表現された第3画像を記憶し、色相、明度、彩度の三要素のうち、前記第1画像と前記第2画像とは互いに異なる要素の違いで表現される記憶部と、
前記第1画像、前記第2画像、および前記第3画像を合成することで合成画像を生成する合成部と、
を備える、医用画像処理装置。
Blood flow information including values representing blood flow at each position within the subject, tissue including values representing tissue properties at each position within the subject, acquired based on results of ultrasonic scanning of the subject A first image in which a difference in values of the blood flow information is expressed in a non-grayscale using a first color, with respect to the morphological information including the property information and a value representing the morphology at each position in the subject ; A second image in which the differences in the values of the tissue characterization information are expressed in non-grayscale using a second color different from the first color, and a grayscale image in which the differences in the values of the morphological information are expressed in grayscale. a storage unit that stores a third image represented by a scale , wherein the first image and the second image are represented by different elements among the three elements of hue, brightness, and saturation ;
a combining unit configured to generate a combined image by combining the first image, the second image, and the third image;
A medical image processing apparatus comprising:
前記血流情報、前記組織性状情報、および前記形態情報を取得する取得部と、
前記取得部によって取得された前記血流情報、前記組織性状情報、および前記形態情報から、前記第1画像、前記第2画像、および前記第3画像をそれぞれ生成し、生成した前記第1画像、前記第2画像、および前記第3画像を前記記憶部に格納する画像生成部と
を更に備える、請求項10に記載の医用画像処理装置。
an acquisition unit that acquires the blood flow information, the tissue characterization information, and the morphological information;
generating the first image, the second image, and the third image from the blood flow information, the tissue characterization information, and the morphological information acquired by the acquisition unit, and generating the first image; 11. The medical image processing apparatus according to claim 10, further comprising: an image generation unit that stores said second image and said third image in said storage unit.
前記第1画像、前記第2画像、および前記第3画像をそれぞれ取得し、取得した前記第1画像、前記第2画像、および前記第3画像を前記記憶部に格納する取得部
を更に備える、請求項10に記載の医用画像処理装置。
an acquisition unit that acquires the first image, the second image, and the third image, respectively, and stores the acquired first image, the second image, and the third image in the storage unit; The medical image processing apparatus according to claim 10.
JP2016161271A 2015-08-24 2016-08-19 Ultrasound diagnostic equipment and medical image processing equipment Active JP7130352B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/244,384 US11786220B2 (en) 2015-08-24 2016-08-23 Ultrasound diagnostic apparatus
US18/372,442 US20240023940A1 (en) 2015-08-24 2023-09-25 Ultrasound diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015164996 2015-08-24
JP2015164996 2015-08-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017179478A Division JP6294552B2 (en) 2015-08-24 2017-09-19 Ultrasonic diagnostic equipment

Publications (2)

Publication Number Publication Date
JP2017042606A JP2017042606A (en) 2017-03-02
JP7130352B2 true JP7130352B2 (en) 2022-09-05

Family

ID=58211372

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016161271A Active JP7130352B2 (en) 2015-08-24 2016-08-19 Ultrasound diagnostic equipment and medical image processing equipment
JP2017179478A Active JP6294552B2 (en) 2015-08-24 2017-09-19 Ultrasonic diagnostic equipment
JP2018024224A Active JP6345895B2 (en) 2015-08-24 2018-02-14 Ultrasonic diagnostic equipment
JP2018024223A Active JP6386202B2 (en) 2015-08-24 2018-02-14 Ultrasonic diagnostic equipment

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2017179478A Active JP6294552B2 (en) 2015-08-24 2017-09-19 Ultrasonic diagnostic equipment
JP2018024224A Active JP6345895B2 (en) 2015-08-24 2018-02-14 Ultrasonic diagnostic equipment
JP2018024223A Active JP6386202B2 (en) 2015-08-24 2018-02-14 Ultrasonic diagnostic equipment

Country Status (1)

Country Link
JP (4) JP7130352B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130352B2 (en) 2015-08-24 2022-09-05 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic equipment and medical image processing equipment
WO2019208640A1 (en) 2018-04-27 2019-10-31 住友電気工業株式会社 Polycrystalline abrasive grains, and grinding wheel provided with same
CN113301855A (en) 2019-01-09 2021-08-24 皇家飞利浦有限公司 Ultrasound system and method for shear wave characterization of anisotropic tissue
JP7330705B2 (en) * 2019-01-17 2023-08-22 キヤノンメディカルシステムズ株式会社 Image analysis device
US11850099B2 (en) 2019-02-26 2023-12-26 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus
JP7479797B2 (en) * 2019-06-13 2024-05-09 キヤノンメディカルシステムズ株式会社 Treatment planning device and radiation therapy system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284287A (en) 2007-05-21 2008-11-27 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2010124946A (en) 2008-11-26 2010-06-10 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnosing apparatus, and program
JP2015104412A (en) 2013-11-28 2015-06-08 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic device
JP6294552B2 (en) 2015-08-24 2018-03-14 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3355007B2 (en) * 1993-12-24 2002-12-09 ジーイー横河メディカルシステム株式会社 Ultrasound blood flow diagnostic device
WO2011099410A1 (en) * 2010-02-09 2011-08-18 株式会社 日立メディコ Ultrasonic diagnosis device and ultrasonic image display method
JP2015008733A (en) * 2013-06-26 2015-01-19 ソニー株式会社 Ultrasonic treatment device and method
JP5952254B2 (en) * 2013-12-24 2016-07-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic equipment
KR102185725B1 (en) * 2014-01-28 2020-12-02 삼성메디슨 주식회사 Method and ultrasound apparatus for displaying a ultrasound image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284287A (en) 2007-05-21 2008-11-27 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2010124946A (en) 2008-11-26 2010-06-10 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnosing apparatus, and program
JP2015104412A (en) 2013-11-28 2015-06-08 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic device
JP6294552B2 (en) 2015-08-24 2018-03-14 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment
JP6345895B2 (en) 2015-08-24 2018-06-20 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment
JP6386202B2 (en) 2015-08-24 2018-09-05 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment

Also Published As

Publication number Publication date
JP2017213474A (en) 2017-12-07
JP6294552B2 (en) 2018-03-14
JP2018086322A (en) 2018-06-07
JP2018086323A (en) 2018-06-07
JP6386202B2 (en) 2018-09-05
JP6345895B2 (en) 2018-06-20
JP2017042606A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP7130352B2 (en) Ultrasound diagnostic equipment and medical image processing equipment
JP6462340B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP6222811B2 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP6104749B2 (en) Ultrasonic diagnostic apparatus and control method
US20240023940A1 (en) Ultrasound diagnostic apparatus
JP7313902B2 (en) ultrasound diagnostic equipment
JP6415937B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, medical image processing method, and medical image processing program
JP7258568B2 (en) ULTRASOUND DIAGNOSTIC DEVICE, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING PROGRAM
US11337674B2 (en) Ultrasonography apparatus and control method
US11701091B2 (en) Ultrasound analysis apparatus and method for tissue elasticity and viscosity based on the hormonic signals
JP2017104526A (en) Analysis device
JP6686850B2 (en) Ultrasound diagnostic imaging device
JP7305438B2 (en) Analysis device and program
JP6567122B2 (en) Ultrasonic diagnostic apparatus, control method, apparatus and program
JP6651405B2 (en) Ultrasound diagnostic apparatus and program
WO2021241634A1 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP7343342B2 (en) Ultrasonic diagnostic equipment and image processing equipment
JP7330705B2 (en) Image analysis device
JP7034686B2 (en) Ultrasound diagnostic equipment, medical image processing equipment and their programs
JP7292896B2 (en) Analysis device and analysis method
JP6793502B2 (en) Ultrasonic diagnostic equipment
JP7383400B2 (en) Ultrasonic diagnostic equipment, scan control method and scan control program
JP2021186676A (en) Ultrasonic diagnostic apparatus and image processing device
JP2019097795A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program of the same

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211221

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220210

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220215

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220405

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220628

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220726

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7130352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150