JP2013121453A - Ultrasonic diagnostic apparatus and image processor - Google Patents

Ultrasonic diagnostic apparatus and image processor Download PDF

Info

Publication number
JP2013121453A
JP2013121453A JP2011271362A JP2011271362A JP2013121453A JP 2013121453 A JP2013121453 A JP 2013121453A JP 2011271362 A JP2011271362 A JP 2011271362A JP 2011271362 A JP2011271362 A JP 2011271362A JP 2013121453 A JP2013121453 A JP 2013121453A
Authority
JP
Japan
Prior art keywords
data
processing
image
power data
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011271362A
Other languages
Japanese (ja)
Inventor
Kenji Hamada
賢治 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011271362A priority Critical patent/JP2013121453A/en
Publication of JP2013121453A publication Critical patent/JP2013121453A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ultrasonic diagnostic apparatus and an image processor, capable of performing representation with an actual depth feeling when color-displaying velocity information of a three-dimensional blood flow.SOLUTION: In this ultrasonic diagnostic apparatus, a weighting processing part performs weighting corresponding to a distance from a viewpoint position when generating a three-dimensional image to each piece of power data calculated from each of reflected wave signals of an ultrasonic wave three-dimensionally transmitted to the subject, which are reflected by a fluid included in a subject. A normalization processing part performs prescribed normalization processing for each piece of the weighted power data. A multiplier multiples each piece of velocity data calculated from each of the reflected signals by the power data performed with the normalization processing of the same position. A first rendering processing part performs rendering processing on the velocity data performed with the multiplication processing, and performs coloring based on the velocity data to generate the three-dimensional image.

Description

本発明の実施の形態は、超音波診断装置及び画像処理装置に関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image processing apparatus.

従来、超音波診断装置は、超音波プローブから超音波を送信し、被検体の内部組織から反射された反射波信号を受信することによって、被検体内の組織構造の断層像(Bモード画像)を生成して表示する。さらに、従来の超音波診断装置は、超音波のドプラ効果を利用して被検体内の血流が存在する範囲とともに、血流の速度、分散、パワー等の血流情報を色によって識別可能に表示するカラードプラ画像を生成して表示する。   Conventionally, an ultrasonic diagnostic apparatus transmits an ultrasonic wave from an ultrasonic probe and receives a reflected wave signal reflected from the internal tissue of the subject, thereby obtaining a tomographic image (B-mode image) of the tissue structure in the subject. Is generated and displayed. Furthermore, conventional ultrasound diagnostic devices can identify blood flow information such as blood flow velocity, dispersion, power, etc., by color using the Doppler effect of ultrasound and the range in which blood flow exists in the subject. A color Doppler image to be displayed is generated and displayed.

また、近年、超音波診断装置においては、3次元のボリュームデータを収集する超音波診断装置が実用化されている。かかる超音波診断装置は、収集したボリュームデータに対してボリュームレンダリングを行うことで3次元の情報を反映した2次元画像を作成し、作成した2次元画像をモニタ上に表示する。例えば、超音波診断装置は、3次元の情報を反映したBモード画像や、カラードプラ画像を生成して、表示する。   In recent years, ultrasonic diagnostic apparatuses that collect three-dimensional volume data have been put to practical use in ultrasonic diagnostic apparatuses. Such an ultrasonic diagnostic apparatus creates a two-dimensional image reflecting three-dimensional information by performing volume rendering on the collected volume data, and displays the created two-dimensional image on a monitor. For example, the ultrasonic diagnostic apparatus generates and displays a B-mode image or a color Doppler image that reflects three-dimensional information.

また、近年、複数の視点から撮影された多視差画像を表示することで立体視可能な画像を表示するモニタが実用化されており、観察者がモニタに表示された画像を立体的に認識することができるようになった。しかしながら、従来のレンダリング処理では、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することが困難であった。   In recent years, a monitor that displays a stereoscopically viewable image by displaying multi-parallax images taken from a plurality of viewpoints has been put into practical use, and an observer stereoscopically recognizes the image displayed on the monitor. I was able to do it. However, in the conventional rendering process, it is difficult to express the three-dimensional blood flow velocity information with an actual sense of depth when displaying the color information in color.

特開2002−136519号公報JP 2002-136519 A

本発明が解決しようとする課題は、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することができる超音波診断装置及び画像処理装置を提供することである。   The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an image processing apparatus that can be expressed by an actual sense of depth when color information of three-dimensional blood flow velocity information is displayed.

実施の形態の超音波診断装置は、重み付け手段と、正規化手段と、乗算手段と、第1レンダリング処理手段とを備える。重み付け手段は、被検体に対して3次元的に送信された超音波が前記被検体内に含まれる流体にて反射された反射波信号それぞれから算出された各パワーデータに対して、3次元画像を生成する際の視点位置からの距離に応じた重み付けを行う。正規化手段は、重み付けが行われた各パワーデータに対して所定の正規化処理を行う。乗算手段は、前記反射波信号それぞれから算出された各速度データに、同一位置の正規化処理済みのパワーデータを乗算する。第1レンダリング処理手段は、乗算処理済みの速度データに対してレンダリング処理を行うとともに、当該速度データに基づいて色付けを行うことで、前記3次元画像を生成する。   The ultrasonic diagnostic apparatus according to the embodiment includes weighting means, normalization means, multiplication means, and first rendering processing means. The weighting means is a three-dimensional image for each power data calculated from each reflected wave signal in which the ultrasonic wave transmitted three-dimensionally to the subject is reflected by the fluid contained in the subject. Is weighted in accordance with the distance from the viewpoint position when generating. The normalizing means performs a predetermined normalization process on each weighted power data. The multiplying unit multiplies each velocity data calculated from each reflected wave signal by the normalized power data at the same position. The first rendering processing unit generates the three-dimensional image by performing rendering processing on the speed data that has been subjected to multiplication processing, and coloring the speed data.

図1は、第1の実施形態に係る超音波診断装置の全体構成を説明するための図である。FIG. 1 is a diagram for explaining the overall configuration of the ultrasonic diagnostic apparatus according to the first embodiment. 図2Aは、従来技術に係る課題を説明するための第1の図である。FIG. 2A is a first diagram for explaining a problem according to the related art. 図2Bは、従来技術に係る課題を説明するための第2の図である。FIG. 2B is a second diagram for explaining a problem according to the related art. 図2Cは、従来技術に係る課題を説明するための第3の図である。FIG. 2C is a third diagram for explaining the problem according to the related art. 図3は、第1の実施形態に係る画像生成部の構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of the image generation unit according to the first embodiment. 図4は、第1の実施形態に係る重み付け処理部による処理を説明するための図である。FIG. 4 is a diagram for explaining processing by the weighting processing unit according to the first embodiment. 図5は、第1の実施形態に係る正規化処理部による処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of processing by the normalization processing unit according to the first embodiment. 図6は、第1の実施形態に係る第1レンダリング処理部によって生成されるカラードプラ画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a color Doppler image generated by the first rendering processing unit according to the first embodiment. 図7は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment. 図8は、第2の実施形態に係る画像生成部の構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of the configuration of the image generation unit according to the second embodiment. 図9Aは、一般的な血流の特性を説明するための図である。FIG. 9A is a diagram for explaining general blood flow characteristics. 図9Bは、第2の実施形態に係るMIP処理部による処理の一例を説明するための図である。FIG. 9B is a diagram for explaining an example of processing by the MIP processing unit according to the second embodiment. 図10は、第2の実施形態に係る超音波診断装置による処理の手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the second embodiment.

(第1の実施形態)
まず、本実施形態に係る超音波診断装置の構成について説明する。図1は、本実施形態に係る超音波診断装置1の構成を説明するための図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、超音波プローブ11と、入力装置12と、モニタ13と、装置本体100とを有する。
(First embodiment)
First, the configuration of the ultrasonic diagnostic apparatus according to the present embodiment will be described. FIG. 1 is a diagram for explaining a configuration of an ultrasonic diagnostic apparatus 1 according to the present embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an ultrasonic probe 11, an input apparatus 12, a monitor 13, and an apparatus main body 100.

超音波プローブ11は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体100が有する送受信部110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ11は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ11は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材などを有する。なお、超音波プローブ11は、装置本体100と着脱自在に接続される。   The ultrasonic probe 11 includes a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 110 included in the apparatus main body 100 described later. The ultrasonic probe 11 receives a reflected wave from the subject P and converts it into an electrical signal. The ultrasonic probe 11 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like. The ultrasonic probe 11 is detachably connected to the apparatus main body 100.

超音波プローブ11から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ11が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 11 to the subject P, the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and the ultrasonic probe is used as a reflected wave signal. 11 is received by a plurality of piezoelectric vibrators. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected on the moving blood flow or the surface of the heart wall depends on the velocity component of the moving body in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.

ここで、本実施形態は、1次元超音波プローブの複数の圧電振動子を機械的に揺動する超音波プローブ11や複数の圧電振動子が格子状に2次元で配置された2次元超音波プローブである超音波プローブ11により、被検体Pを3次元でスキャンする。   Here, in the present embodiment, an ultrasonic probe 11 that mechanically swings a plurality of piezoelectric vibrators of a one-dimensional ultrasonic probe and a two-dimensional ultrasonic wave in which a plurality of piezoelectric vibrators are two-dimensionally arranged in a lattice shape. The subject P is scanned three-dimensionally by the ultrasonic probe 11 which is a probe.

入力装置12は、装置本体100と接続され、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボールなどを有する。かかる入力装置12は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に転送する。例えば、入力装置12は、関心領域(ROI:Region of Interest)の設定要求や、カラーゲインの設定要求、ボリュームレンダリング処理を行う際の視点位置の設定要求を操作者から受け付ける。   The input device 12 is connected to the device main body 100 and includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like. The input device 12 receives various setting requests from the operator of the ultrasonic diagnostic apparatus 1 and transfers the received various setting requests to the apparatus main body 100. For example, the input device 12 receives a region of interest (ROI) setting request, a color gain setting request, and a viewpoint position setting request when performing volume rendering processing from the operator.

モニタ13は、超音波診断装置1の操作者が入力装置12を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像などを表示したりする。具体的には、モニタ13は、後述する画像生成部130から入力されるビデオ信号に基づいて、生体内の形態学的情報や血流情報を画像として表示する。   The monitor 13 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 12, and displays an ultrasonic image generated in the apparatus main body 100. Or display. Specifically, the monitor 13 displays in-vivo morphological information and blood flow information as an image based on a video signal input from the image generation unit 130 described later.

なお、モニタ13は、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、プラズマ、OLED(Organic light Emitting Diode)及びLED(Light Emitting Diode)などのモニタであってもよい。また、モニタ13は、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とする立体表示モニタであってもよい。さらに、モニタ13は、2視差画像を表示することで、両眼視差による立体視を可能とする立体表示モニタであってもよい。例えば、2視差モニタとしては、シャッター方式により立体表示を行なう立体表示モニタや、偏光メガネ方式により立体表示を行なう装置、視差バリア方式により立体表示を行なう装置等がある。   The monitor 13 may be a monitor such as a liquid crystal display (LCD), a cathode ray tube (CRT), plasma, an organic light emitting diode (OLED), and a light emitting diode (LED). The monitor 13 may be a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light beam controller such as a lenticular lens. Further, the monitor 13 may be a stereoscopic display monitor that enables stereoscopic viewing with binocular parallax by displaying a two-parallax image. For example, the two-parallax monitor includes a stereoscopic display monitor that performs stereoscopic display by a shutter method, a device that performs stereoscopic display by a polarizing glasses method, a device that performs stereoscopic display by a parallax barrier method, and the like.

装置本体100は、超音波プローブ11が受信した反射波に基づいて超音波画像を生成する装置である。かかる装置本体100は、図1に示すように、送受信部110と、信号処理部120と、画像生成部130と、画像メモリ140と、内部記憶部150と、制御部160とを有する。   The apparatus main body 100 is an apparatus that generates an ultrasonic image based on the reflected wave received by the ultrasonic probe 11. As shown in FIG. 1, the apparatus main body 100 includes a transmission / reception unit 110, a signal processing unit 120, an image generation unit 130, an image memory 140, an internal storage unit 150, and a control unit 160.

送受信部110は、トリガ発生回路、遅延回路およびパルサ回路などを有し、超音波プローブ11に駆動信号を供給する。パルサ回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、遅延回路は、超音波プローブ11から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルサ回路が発生する各レートパルスに対し与える。また、トリガ発生回路は、レートパルスに基づくタイミングで、超音波プローブ11に駆動信号(駆動パルス)を印加する。すなわち、遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向を任意に調整する。   The transmission / reception unit 110 includes a trigger generation circuit, a delay circuit, a pulsar circuit, and the like, and supplies a drive signal to the ultrasonic probe 11. The pulsar circuit repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency. The delay circuit also sets the delay time for each piezoelectric vibrator necessary for determining the transmission directivity by focusing the ultrasonic wave generated from the ultrasonic probe 11 into a beam shape, and for each rate pulse generated by the pulser circuit. Give to. The trigger generation circuit applies a drive signal (drive pulse) to the ultrasonic probe 11 at a timing based on the rate pulse. In other words, the delay circuit arbitrarily adjusts the transmission direction from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.

なお、送受信部110は、後述する制御部160の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧などを瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、または、複数の電源ユニットを電気的に切り替える機構によって実現される。   Note that the transmission / reception unit 110 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 160 described later. In particular, the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching its value or a mechanism for electrically switching a plurality of power supply units.

また、送受信部110は、アンプ回路、A/D変換器、加算器などを有し、超音波プローブ11が受信した反射波信号に対して各種処理を行なって反射波データを生成する。アンプ回路は、反射波信号をチャンネルごとに増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換し、デジタルデータに受信指向性を決定するのに必要な遅延時間を与える。加算器は、A/D変換器によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調される。   The transmission / reception unit 110 includes an amplifier circuit, an A / D converter, an adder, and the like, and performs various processes on the reflected wave signal received by the ultrasonic probe 11 to generate reflected wave data. The amplifier circuit amplifies the reflected wave signal for each channel and performs gain correction processing. The A / D converter performs A / D conversion on the gain-corrected reflected wave signal and gives a delay time necessary for determining reception directivity to the digital data. The adder performs an addition process of the reflected wave signal processed by the A / D converter to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized.

信号処理部120は、送受信部110からゲイン補正処理、A/D変換処理および加算処理が行なわれた処理済み反射波信号である反射波データを受信する。そして、信号処理部120は、対数増幅、包絡線検波処理などを行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。   The signal processing unit 120 receives reflected wave data, which is a processed reflected wave signal subjected to gain correction processing, A / D conversion processing, and addition processing, from the transmission / reception unit 110. Then, the signal processing unit 120 performs logarithmic amplification, envelope detection processing, and the like, and generates data (B mode data) in which the signal intensity is expressed by brightness.

また、信号処理部120は、送受信部110から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワーなどの移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。   Further, the signal processing unit 120 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 110, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and moves average velocity, dispersion, power, and the like. Data (Doppler data) obtained by extracting body information for multiple points is generated.

より具体的には、信号処理部120は、組織ドプラ法(TDI:Tissue Doppler Imaging)及びカラードプラ法(CDI:Color Doppler Imaging)を実行可能な処理部である。すなわち、信号処理部120は、走査範囲内にある組織の運動情報(組織運動情報)を取得して、組織の動態を示す組織ドプラ画像を生成するための組織ドプラデータを生成する処理部である。また、信号処理部120は、走査範囲内にある血流の運動情報(血流運動情報)を取得して、血流の動態を示すカラードプラ画像を生成するためのカラードプラデータを生成する処理部である。   More specifically, the signal processing unit 120 is a processing unit that can execute a tissue Doppler method (TDI: Tissue Doppler Imaging) and a color Doppler method (CDI: Color Doppler Imaging). That is, the signal processing unit 120 is a processing unit that acquires tissue motion information (tissue motion information) within a scanning range and generates tissue Doppler data for generating a tissue Doppler image indicating tissue dynamics. . In addition, the signal processing unit 120 obtains motion information (blood flow motion information) of blood flow within the scanning range, and generates color Doppler data for generating a color Doppler image indicating the blood flow dynamics. Part.

なお、第1の実施形態に係る信号処理部120は、2次元の反射波データおよび3次元の反射波データの両方について処理可能である。すなわち、第1の実施形態に係る信号処理部120は、3次元の反射波データから3次元のBモードデータを生成することができる。また、第1の実施形態に係る信号処理部120は、3次元の反射波データから3次元のドプラデータを生成することができる。  Note that the signal processing unit 120 according to the first embodiment can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the signal processing unit 120 according to the first embodiment can generate three-dimensional B-mode data from the three-dimensional reflected wave data. Further, the signal processing unit 120 according to the first embodiment can generate three-dimensional Doppler data from the three-dimensional reflected wave data.

画像生成部130は、信号処理部120が生成したデータから超音波画像を生成する。すなわち、画像生成部130は、信号処理部120が生成したBモードデータから反射波の強度を輝度にて表したBモード画像を生成する。なお、画像生成部130は、信号処理部120が生成した3次元のBモードデータから、3次元のBモード画像を生成することも可能である。   The image generation unit 130 generates an ultrasonic image from the data generated by the signal processing unit 120. That is, the image generation unit 130 generates a B-mode image in which the intensity of the reflected wave is represented by luminance from the B-mode data generated by the signal processing unit 120. The image generation unit 130 can also generate a three-dimensional B-mode image from the three-dimensional B-mode data generated by the signal processing unit 120.

また、画像生成部130は、信号処理部120が生成したドプラデータから移動体情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としてのカラードプラ画像を生成する。なお、画像生成部130は、信号処理部120が生成した3次元のドプラデータから、3次元のカラードプラ画像を生成することも可能である。また、画像生成部130は、超音波画像に、種々のパラメータの文字情報、目盛り、ボディーマークなどを合成した合成画像を生成することもできる。   Further, the image generation unit 130 generates a color Doppler image as an average velocity image, a dispersed image, a power image, or a combination image representing moving body information from the Doppler data generated by the signal processing unit 120. Note that the image generation unit 130 can also generate a three-dimensional color Doppler image from the three-dimensional Doppler data generated by the signal processing unit 120. The image generation unit 130 can also generate a composite image in which character information, scales, body marks, and the like of various parameters are combined with the ultrasonic image.

ここで、画像生成部130は、一般的には、超音波走査の走査線信号列を、テレビなどに代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用画像としての超音波画像を生成する。具体的には、画像生成部130は、超音波プローブ11による超音波の走査形態に応じて座標変換や、補間処理を行なうことで、表示用画像としての超音波画像を生成する。また、画像生成部130は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)などを行なう。   Here, the image generation unit 130 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format typified by a television or the like, and serves as a display image. Generate an ultrasound image. Specifically, the image generation unit 130 generates an ultrasonic image as a display image by performing coordinate conversion or interpolation processing according to the ultrasonic scanning mode by the ultrasonic probe 11. In addition to the scan conversion, the image generation unit 130 may perform various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image.

画像メモリ140は、画像生成部130が生成した超音波画像を記憶するメモリである。また、画像メモリ140は、信号処理部120が生成したデータを記憶することも可能である。 また、画像メモリ140は、画像生成部130の処理結果を記憶する。   The image memory 140 is a memory that stores the ultrasonic image generated by the image generation unit 130. The image memory 140 can also store data generated by the signal processing unit 120. The image memory 140 stores the processing result of the image generation unit 130.

内部記憶部150は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見など)や、診断プロトコルや各種ボディーマークなどの各種データを記憶する。また、内部記憶部150は、必要に応じて、画像メモリ140が記憶する画像の保管などにも使用される。   The internal storage unit 150 stores various data such as a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), diagnostic protocol, and various body marks. To do. The internal storage unit 150 is also used for storing images stored in the image memory 140 as necessary.

さらに、内部記憶部150は、外部装置から転送された各種医用画像の保管にも使用される。具体的には、内部記憶部150は、外部装置から転送された画像データを記憶する。例えば、内部記憶部150は、他の超音波診断装置にて生成された画像データを記憶する。また、内部記憶部150が記憶するデータは、インターフェースを経由して、外部の周辺装置(外部装置)へ転送することができる。   Furthermore, the internal storage unit 150 is also used for storing various medical images transferred from an external device. Specifically, the internal storage unit 150 stores image data transferred from an external device. For example, the internal storage unit 150 stores image data generated by another ultrasonic diagnostic apparatus. The data stored in the internal storage unit 150 can be transferred to an external peripheral device (external device) via the interface.

なお、本実施形態は、操作者が所望する画像データがフレキシブルディスク(FD)、CD−ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)、DVD(Digital Versatile Disk)などの記憶媒体を介して、内部記憶部150に格納される場合であっても適用可能である。また、本実施形態は、操作者が所望する画像データを記憶する記憶装置が、内部記憶部150以外に設置される場合であっても適用可能である。   In this embodiment, the image data desired by the operator is transmitted via a storage medium such as a flexible disk (FD), a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical), and a DVD (Digital Versatile Disk). Thus, the present invention is applicable even when stored in the internal storage unit 150. Further, the present embodiment is applicable even when a storage device that stores image data desired by the operator is installed other than the internal storage unit 150.

制御部160は、情報処理装置(計算機)としての機能を実現する制御プロセッサ(CPU:Central Processing Unit)であり、超音波診断装置1の処理全体を制御する。具体的には、制御部160は、入力装置12を介して操作者から入力された各種設定要求や、内部記憶部150から読込んだ各種制御プログラム及び各種データに基づき、送受信部110、信号処理部120及び画像生成部130の処理を制御する。また、制御部160は、画像メモリ140が記憶する超音波画像や、内部記憶部150が記憶する各種画像、又は、画像生成部130による処理を行なうためのGUI、画像生成部130の処理結果などをモニタ13にて表示するように制御する。また、制御部160は、操作者から入力装置12を介して受け付けた画像データが外部装置からネットワーク及びインターフェースを介して内部記憶部150に転送されるように制御する。   The control unit 160 is a control processor (CPU: Central Processing Unit) that realizes a function as an information processing apparatus (computer), and controls the entire processing of the ultrasonic diagnostic apparatus 1. Specifically, the control unit 160 is based on various setting requests input from the operator via the input device 12, various control programs and various data read from the internal storage unit 150, and the transmission / reception unit 110, signal processing The processing of the unit 120 and the image generation unit 130 is controlled. The control unit 160 also includes an ultrasonic image stored in the image memory 140, various images stored in the internal storage unit 150, a GUI for performing processing by the image generation unit 130, a processing result of the image generation unit 130, and the like. Is displayed on the monitor 13. Further, the control unit 160 controls the image data received from the operator via the input device 12 to be transferred from the external device to the internal storage unit 150 via the network and the interface.

以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置は、以下、詳細に説明する画像生成部130の処理により、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することができる超音波診断装置及び画像処理装置を提供することができるように構成されている。   The overall configuration of the ultrasonic diagnostic apparatus according to the first embodiment has been described above. With such a configuration, the ultrasonic diagnostic apparatus according to the first embodiment performs an actual display when color information of three-dimensional blood flow velocity information is displayed by the processing of the image generation unit 130 described in detail below. An ultrasonic diagnostic apparatus and an image processing apparatus that can be expressed with a sense of depth can be provided.

ここで、まず、従来技術において、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することが困難であることについて、図2A〜2Cを用いて説明する。図2Aは、従来技術に係る課題を説明するための第1の図である。図2Aにおいては、血流の速度をカラー表示する際に、超音波プローブに近づく方向に流れている血流を赤で示し、超音波プローブから遠ざかる方向に流れている血流を青で示し、流速が速いほど高輝度で表現する3次元のカラードプラ画像を示す。例えば、従来技術においては、血流の速度によって色の明るさを変化させていることから、図2Aの矢印21血流と矢印22の血流とに示すように、実際にどちらの血流が手前に位置し、どちらの血流が後方に位置するのかが明確ではなく、奥行き感が表現されていない。   Here, first, it will be described with reference to FIGS. 2A to 2C that it is difficult to express the velocity information of the three-dimensional blood flow in color in the conventional technique with an actual sense of depth. FIG. 2A is a first diagram for explaining a problem according to the related art. In FIG. 2A, when the blood flow velocity is displayed in color, the blood flow flowing in the direction approaching the ultrasonic probe is shown in red, and the blood flow flowing in the direction away from the ultrasonic probe is shown in blue. A three-dimensional color Doppler image expressed with higher luminance as the flow velocity increases is shown. For example, in the prior art, since the brightness of the color is changed depending on the blood flow velocity, as shown by the arrow 21 blood flow and the arrow 22 blood flow in FIG. It is located in front and it is not clear which blood flow is located behind, and the sense of depth is not expressed.

図2Bは、従来技術に係る課題を説明するための第2の図である。図2Bにおいては、血流のパワー画像を血流方向で色付けしたADF(Advanced Dynamic Flow)の図を示す。例えば、従来技術においては、図2Bに示すように、血流方向で色付けされているため同色系の色で濃淡がなく、カラー画像の奥行き感が表現されていない。   FIG. 2B is a second diagram for explaining a problem according to the related art. In FIG. 2B, the figure of ADF (Advanced Dynamic Flow) which colored the power image of the blood flow in the blood flow direction is shown. For example, in the prior art, as shown in FIG. 2B, since the color is colored in the direction of blood flow, the color of the same color system is not shaded and the depth of the color image is not expressed.

図2Cは、従来技術に係る課題を説明するための第3の図である。図2Cにおいては、従来技術によりカラー表示した血流速度が同程度の2本の血流を示す。例えば、従来技術では、血流速度が同程度の場合には、図2Cに示すように、画像の奥行き感が表現されないため、血流23及び血流24が相互にどのような位置関係になっているのかを把握することができない。   FIG. 2C is a third diagram for explaining the problem according to the related art. In FIG. 2C, two blood flows having the same blood flow velocity displayed in color by the prior art are shown. For example, in the prior art, when the blood flow velocity is approximately the same, as shown in FIG. 2C, the sense of depth of the image is not expressed, and therefore, the positional relationship between the blood flow 23 and the blood flow 24 is relative to each other. I can't figure out what it is.

上述したように、従来技術においては、カラー画像を3次元表示させて立体視させようとした場合であっても、奥行き方向で色の変化がないため、奥行き感が表現できず、いわゆる、書き割り現象が生じてしまう。これは、例えば、複数の視点から撮影された多視差画像を表示することで、立体視可能な画像を表示するモニタを用いても同様に生じてしまう。書き割り現象について図2Cを用いて説明すると、血流23及び血流24の位置関係として、実際には、血流23が血流24の前面にある部分と背面にある部分とが混在しているにも関わらず、血流23と血流24とが同一平面上、或いは、異なる平面上に位置しているように見えてしまう。   As described above, in the prior art, even when a color image is displayed three-dimensionally and viewed stereoscopically, there is no color change in the depth direction, so that a sense of depth cannot be expressed, so-called writing The splitting phenomenon will occur. For example, this also occurs when a monitor that displays a stereoscopically viewable image is displayed by displaying multi-parallax images taken from a plurality of viewpoints. Referring to FIG. 2C, the cracking phenomenon will be described with reference to FIG. 2C. As a positional relationship between the blood flow 23 and the blood flow 24, a part where the blood flow 23 is in front of the blood flow 24 and a part in the back are mixed. Despite being present, the blood flow 23 and the blood flow 24 appear to be located on the same plane or on different planes.

そこで、本実施形態では、以下に詳細に記載する画像生成部130の処理により、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することができる超音波診断装置及び画像処理装置を提供することを可能にする。   Therefore, in the present embodiment, an ultrasonic diagnostic apparatus capable of expressing the three-dimensional blood flow velocity information with an actual sense of depth when performing color display of the three-dimensional blood flow velocity information by the processing of the image generation unit 130 described in detail below. And an image processing apparatus can be provided.

図3は、第1の実施形態に係る画像生成部130の構成の一例を示す図である。画像生成部130は、図3に示すように、レンダリング処理部131を有する。レンダリング処理部131は、図3に示すように、重み付け処理部131aと、正規化処理部131bと、乗算器131cと、第1レンダリング処理部131dとを有する。   FIG. 3 is a diagram illustrating an example of the configuration of the image generation unit 130 according to the first embodiment. As illustrated in FIG. 3, the image generation unit 130 includes a rendering processing unit 131. As illustrated in FIG. 3, the rendering processing unit 131 includes a weighting processing unit 131a, a normalization processing unit 131b, a multiplier 131c, and a first rendering processing unit 131d.

重み付け処理部131aは、被検体に対して超音波を3次元的に送信され、被検体内に含まれる流体にて反射された反射波信号それぞれから算出された各パワーデータに対して、3次元画像を生成する際の視点位置からの距離に応じた重み付けを行う。具体的には、重み付け処理部131aは、図3に示すように、信号処理部120によって算出されたパワーデータに対して視点位置からの距離に応じた重み付けを行うことで、パワーデータに奥行き方向の情報を反映させる。   The weighting processing unit 131a transmits ultrasonic waves three-dimensionally to the subject, and three-dimensionally applies to each power data calculated from each reflected wave signal reflected by the fluid contained in the subject. Weighting is performed according to the distance from the viewpoint position when generating an image. Specifically, as shown in FIG. 3, the weighting processing unit 131a weights the power data in the depth direction by weighting the power data calculated by the signal processing unit 120 according to the distance from the viewpoint position. Reflect the information.

図4は、第1の実施形態に係る重み付け処理部131aによる処理を説明するための図である。図4においては、被検体を超音波で3次元走査することにより取得された3次元データ200を示す。また、図4の点30は、3次元画像を生成する際の視点位置を示す。また、図4の点31及び点32は、反射波信号が得られた位置であるサンプル点を示す。   FIG. 4 is a diagram for explaining processing by the weighting processing unit 131a according to the first embodiment. FIG. 4 shows three-dimensional data 200 acquired by three-dimensionally scanning a subject with ultrasonic waves. A point 30 in FIG. 4 indicates a viewpoint position when generating a three-dimensional image. Further, points 31 and 32 in FIG. 4 indicate sample points that are positions where the reflected wave signals are obtained.

例えば、重み付け処理部131aは、サンプル点31のパワーデータに対して、距離31aに応じた重み付けを行う。また、重み付け処理部131aは、サンプル点32のパワーデータに対して、距離32aに応じた重み付けを行う。同様に、重み付け処理部131aは、3次元データ200に含まれる全てのサンプル点のパワーデータに対して、視点位置30からの距離に応じた重み付けを行う。   For example, the weighting processing unit 131a weights the power data of the sample point 31 according to the distance 31a. In addition, the weighting processing unit 131a weights the power data of the sample point 32 according to the distance 32a. Similarly, the weighting processing unit 131a weights the power data of all sample points included in the three-dimensional data 200 according to the distance from the viewpoint position 30.

図3に戻って、正規化処理部131bは、重み付けが行われた各パワーデータに対して任意の正規化処理を行う。図5は、第1の実施形態に係る正規化処理部131bによる処理の一例を説明するための図である。図5においては、視点位置からの距離の最小値を0、最大値を1とした場合の正規化を示す。例えば、正規化処理部131bは、図5の直線33に示すように、重み付けが行われた各パワーデータに対して線形変換を行う。或いは、正規化処理部131bは、図5の曲線34に示すように、重み付けが行われた各パワーデータに対してS字形状となる変換処理を行う。   Returning to FIG. 3, the normalization processing unit 131b performs arbitrary normalization processing on each weighted power data. FIG. 5 is a diagram for explaining an example of processing performed by the normalization processing unit 131b according to the first embodiment. FIG. 5 shows normalization when the minimum value of the distance from the viewpoint position is 0 and the maximum value is 1. For example, the normalization processing unit 131b performs linear conversion on each weighted power data as indicated by a straight line 33 in FIG. Or the normalization process part 131b performs the conversion process which becomes S character shape with respect to each power data by which weighting was performed, as shown in the curve 34 of FIG.

図3に戻って、乗算器131cは、反射波信号それぞれから算出された各速度データに、当該反射波信号それぞれで正規化処理が行われたパワーデータをそれぞれ乗算する。具体的には、乗算器131cは、図3に示すように、信号処理部120によって算出された速度データに、正規化処理部131bによって正規化された同一サンプル点のパワーデータを重畳させる。   Returning to FIG. 3, the multiplier 131 c multiplies each velocity data calculated from each reflected wave signal by power data that has been normalized by each reflected wave signal. Specifically, as shown in FIG. 3, the multiplier 131c superimposes the power data of the same sample point normalized by the normalization processing unit 131b on the speed data calculated by the signal processing unit 120.

例えば、乗算器131cは、図4に示すサンプル点31の速度データに、サンプル点31の正規化処理後のパワーデータを重畳させる。同様に、乗算器131cは、3次元データ200に含まれる全てのサンプル点について、それぞれ速度データに正規化処理後のパワーデータを重畳させる。   For example, the multiplier 131c superimposes the power data after normalization of the sample point 31 on the velocity data of the sample point 31 shown in FIG. Similarly, the multiplier 131c superimposes the normalized power data on the velocity data for all sample points included in the three-dimensional data 200, respectively.

第1レンダリング処理部131dは、パワーデータが乗算された速度データに基づいて色付けを行った3次元画像を生成する。具体的には、第1レンダリング処理部131dは、図3に示すように、乗算器131cによってパワーデータが乗算された速度データを用いてレンダリング処理を行うことで、カラードプラ画像を生成する。ここで、第1レンダリング処理部131dは、レンダリング処理として、MIP(Maximum Intensity Projection:最大値投影法)処理、或いは、ボリュームレンダリング処理を実行する。   The first rendering processing unit 131d generates a three-dimensional image that is colored based on the speed data multiplied by the power data. Specifically, as illustrated in FIG. 3, the first rendering processing unit 131 d performs a rendering process using the speed data multiplied by the power data by the multiplier 131 c, thereby generating a color Doppler image. Here, the first rendering processor 131d performs MIP (Maximum Intensity Projection) processing or volume rendering processing as rendering processing.

なお、MIP処理とは、3次元データにおいて、視点位置から放射状に発せられた視線上の各値で最大値を用いるレンダリング方法である。また、ボリュームレンダリング処理とは、視点からの光線が各ボクセルを通過する際の減衰および陰影の状況を考慮して、各ボクセル値に基づく不透明度とシェーディング値を算出した後、不透明度とシェーディング値の乗算演算を視点から投影方向に連続的に行って、3次元の情報を反映させた投影面の2次元画像を生成するレンダリング方法である。   Note that MIP processing is a rendering method that uses the maximum value for each value on the line of sight emitted radially from the viewpoint position in three-dimensional data. Volume rendering processing is based on the calculation of opacity and shading value based on each voxel value in consideration of attenuation and shading when light rays from the viewpoint pass through each voxel. Is a rendering method that continuously performs the multiplication operation in the projection direction from the viewpoint to generate a two-dimensional image of the projection plane reflecting the three-dimensional information.

すなわち、第1レンダリング処理部131dは、以下に示す式(1)又は式(2)の処理のうちのどちらかを実行する。なお、以下の式におけるV(d)は速度データを示し、P(d)はパワーデータを示し、Wt(d)は重み付けを示し、dは奥行きを示す。また、VRはボリュームレンダリング処理を示し、MIPはMIP処理を示す。   That is, the first rendering processing unit 131d executes one of the processes of the following formula (1) or formula (2). In the following expression, V (d) represents speed data, P (d) represents power data, Wt (d) represents weighting, and d represents depth. VR represents volume rendering processing, and MIP represents MIP processing.

[V(d)×|P(d)×Wt(d)|]VR …(1) [V (d) × | P (d) × Wt (d) |] VR (1)

[V(d)×|P(d)×Wt(d)|]MIP …(2) [V (d) × | P (d) × Wt (d) |] MIP (2)

式(1)に示すように、第1レンダリング処理部131dは、パワーデータ「P(d)」に重み付け「Wt(d)」が乗算された「P(d)×Wt(d)」に対して正規化された「|P(d)×Wt(d)|」を、速度データ「V(d)」に乗算させたカラードプラデータ[V(d)×|P(d)×Wt(d)|]に対してボリュームレンダリング処理を実行する。   As shown in Expression (1), the first rendering processing unit 131d applies “P (d) × Wt (d)” obtained by multiplying the power data “P (d)” by the weight “Wt (d)”. The color Doppler data [V (d) × | P (d) × Wt (d) obtained by multiplying the velocity data “V (d)” by the normalized “| P (d) × Wt (d) |” ) Perform volume rendering processing for |].

或いは、式(2)に示すように、第1レンダリング処理部131dは、パワーデータ「P(d)」に重み付け「Wt(d)」が乗算された「P(d)×Wt(d)」に対して正規化された「|P(d)×Wt(d)|」を、速度データ「V(d)」に乗算させたカラードプラデータ[V(d)×|P(d)×Wt(d)|]に対してMIP処理を実行する。   Alternatively, as shown in the equation (2), the first rendering processing unit 131d has “P (d) × Wt (d)” obtained by multiplying the power data “P (d)” by the weight “Wt (d)”. Color Doppler data [V (d) × | P (d) × Wt] obtained by multiplying velocity data “V (d)” by “| P (d) × Wt (d) |” normalized to (D) MIP processing is executed for |].

ここで、第1レンダリング処理部131dは、レンダリング処理を実行するとともに、奥行き方向の情報が反映されたパワーデータが重畳された速度データに基づいて、色付けを行う。ここで、第1レンダリング処理部131dは、奥行き情報が反映された速度データの速度マップを用いて色付けを行う。すなわち、第1レンダリング処理部131dは、パワーデータが重畳された速度データの値に対して予め割り振られた色を用いて色付けを行う。例えば、第1レンダリング処理部131dは、視点位置からの距離が近いほど明るく表現され、視点位置からの距離が遠くなるに従って暗くなるように表現された速度マップを用いて色付けを行う。   Here, the first rendering processing unit 131d performs the rendering process and performs coloring based on the speed data on which the power data reflecting the information in the depth direction is superimposed. Here, the first rendering processing unit 131d performs coloring by using the speed map of the speed data reflecting the depth information. That is, the first rendering processing unit 131d performs coloring using a color assigned in advance to the value of the speed data on which the power data is superimposed. For example, the first rendering processing unit 131d performs coloring using a speed map that is expressed brighter as the distance from the viewpoint position is shorter and darker as the distance from the viewpoint position is longer.

図6は、第1の実施形態に係る第1レンダリング処理部131dによって生成されるカラードプラ画像の一例を示す図である。図6においては、本手法を用いて図2Cと同じカラードプラ画像を生成した場合について示す。図6に示すように、第1レンダリング処理部131dによって生成されるカラードプラ画像は、画像の奥行き感が向上され、血流23と血流24との位置関係を把握することができる。例えば、図6の右側においては、血流24が血流23よりも手前に位置することが表現される。一方、図6の左側においては、血流24が血流23よりも奥に位置することが表現される。   FIG. 6 is a diagram illustrating an example of a color Doppler image generated by the first rendering processing unit 131d according to the first embodiment. FIG. 6 shows a case where the same color Doppler image as in FIG. 2C is generated using this method. As shown in FIG. 6, the color Doppler image generated by the first rendering processing unit 131 d has an improved sense of depth in the image, and the positional relationship between the blood flow 23 and the blood flow 24 can be grasped. For example, the right side of FIG. 6 represents that the blood flow 24 is positioned in front of the blood flow 23. On the other hand, the left side of FIG. 6 represents that the blood flow 24 is located behind the blood flow 23.

なお、第1レンダリング処理部131dは、図3に示すように、組織データを用いてレンダリング処理を行い、3次元のBモード画像を生成することも可能である。すなわち、第1レンダリング処理部131dは、3次元のBモード画像に、上述した奥行き方向の情報を反映した3次元のカラードプラ画像を重ねて表示させることができる。また、上述した奥行き方向の情報を反映したカラードプラ画像の生成は、超音波診断装置1の操作者によって任意に実行させることができる。例えば、奥行き方向の情報を反映したカラードプラ画像を生成させるモードとして奥行き付加モードを設定し、操作者が奥行き付加モードをON・OFFすることで、自由に切替させることが可能である。   As shown in FIG. 3, the first rendering processing unit 131d can perform rendering processing using tissue data and generate a three-dimensional B-mode image. That is, the first rendering processing unit 131d can display a three-dimensional color Doppler image that reflects the information in the depth direction described above on a three-dimensional B-mode image. The generation of the color Doppler image reflecting the information in the depth direction described above can be arbitrarily executed by the operator of the ultrasonic diagnostic apparatus 1. For example, the depth addition mode is set as a mode for generating a color Doppler image reflecting information in the depth direction, and the operator can freely switch the mode by turning the depth addition mode on and off.

次に、図7を用いて、第1の実施形態に係る超音波診断装置1の処理について説明する。図7は、第1の実施形態に係る超音波診断装置1による処理の手順を示すフローチャートである。なお、図7においては、信号処理部120によって速度データやパワーデータなどのカラードプラデータが算出された後の処理について示す。   Next, processing of the ultrasonic diagnostic apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating a processing procedure performed by the ultrasound diagnostic apparatus 1 according to the first embodiment. FIG. 7 shows processing after color Doppler data such as speed data and power data is calculated by the signal processing unit 120.

図7に示すように、第1の実施形態に係る超音波診断装置1においては、奥行き付加モードがONであると(ステップS101肯定)、重み付け処理部131aは、信号処理部120によって算出されたサンプル点ごとのパワーデータに、3次元のカラードプラ画像を生成する際の視点位置からの距離に応じた重み付け処理を実行する(ステップS102)。   As shown in FIG. 7, in the ultrasonic diagnostic apparatus 1 according to the first embodiment, when the depth addition mode is ON (Yes in step S101), the weighting processing unit 131a is calculated by the signal processing unit 120. A weighting process is executed on the power data for each sample point in accordance with the distance from the viewpoint position when generating a three-dimensional color Doppler image (step S102).

そして、正規化処理部131bは、重み付け処理部131aによって重み付け処理が実行されたサンプル点ごとのパワーデータに正規化処理を実行する(ステップS103)。その後、乗算器131cは、信号処理部120によって算出されたサンプル点ごとの速度データに正規化処理後のパワーデータを乗算する(ステップS104)。   Then, the normalization processing unit 131b performs normalization processing on the power data for each sample point on which the weighting processing is executed by the weighting processing unit 131a (step S103). Thereafter, the multiplier 131c multiplies the speed data for each sample point calculated by the signal processing unit 120 by the power data after the normalization process (step S104).

そして、第1レンダリング処理部131dは、パワーデータが乗算された速度データを用いてボリュームレンダリング処理及び色付け処理を実行して(ステップS105)、処理を終了する。なお、奥行き付加モードがOFFの場合には(ステップS101否定)、超音波診断装置1は、パワーデータが乗算されていない速度データを用いてボリュームレンダリング処理及び色付け処理を実行する(ステップS106)。   Then, the first rendering processing unit 131d performs volume rendering processing and coloring processing using the speed data multiplied by the power data (step S105), and ends the processing. When the depth addition mode is OFF (No at Step S101), the ultrasound diagnostic apparatus 1 executes volume rendering processing and coloring processing using speed data that is not multiplied by power data (Step S106).

上述したように、第1の実施形態によれば、重み付け処理部131aは、被検体に対して3次元的に送信された超音波が被検体内に含まれる流体にて反射された反射波信号それぞれから算出された各パワーデータに対して、3次元の情報を反映させた2次元画像である3次元画像を生成する際の視点位置からの距離に応じた重み付けを行う。そして、正規化処理部131bは、重み付けが行われた各パワーデータに対して所定の正規化処理を行う。そして、乗算器131cは、反射波信号それぞれから算出された各速度データに、同一位置の正規化処理済みのパワーデータを乗算する。そして、第1レンダリング処理部131dは、乗算処理済みの速度データに対してレンダリング処理を行うとともに、当該速度データに基づいて色付けを行うことで、3次元画像を生成する。従って、第1の実施形態に係る超音波診断装置1は、3次元のカラー画像に奥行き方向の情報を反映させることができ、3次元の血流の速度情報をカラー表示する際に、実際の奥行き感で表現することを可能にする。   As described above, according to the first embodiment, the weighting processing unit 131a reflects the reflected wave signal in which the ultrasonic wave transmitted three-dimensionally to the subject is reflected by the fluid contained in the subject. Each power data calculated from each is weighted according to the distance from the viewpoint position when generating a three-dimensional image, which is a two-dimensional image reflecting three-dimensional information. Then, the normalization processing unit 131b performs a predetermined normalization process on each weighted power data. The multiplier 131c multiplies each velocity data calculated from each reflected wave signal by the normalized power data at the same position. Then, the first rendering processing unit 131d performs a rendering process on the speed data that has been multiplied, and generates a three-dimensional image by coloring the speed data. Accordingly, the ultrasonic diagnostic apparatus 1 according to the first embodiment can reflect information in the depth direction on the three-dimensional color image, and when displaying the three-dimensional blood flow velocity information in color, Enables expression with a sense of depth.

(第2の実施形態)
上述した第1の実施形態では、乗算器131cによって速度データとパワーデータとを重畳した後に、ボリュームレンダリング処理又はMIP処理を実行する場合について説明した。第2の実施形態では、乗算器131cによって速度データとパワーデータとを重畳する前に、速度データ及びパワーデータそれぞれに対して、ボリュームレンダリング処理又はMIP処理を実行する場合について説明する。
(Second Embodiment)
In the first embodiment described above, the case where the volume rendering process or the MIP process is executed after the speed data and the power data are superimposed by the multiplier 131c has been described. In the second embodiment, a case will be described in which volume rendering processing or MIP processing is performed on each of the speed data and the power data before the multiplier 131c superimposes the speed data and the power data.

まず、第2の実施形態に係る画像生成部130aの構成の一例を説明する。図8は、第2の実施形態に係る画像生成部130aの構成の一例を示す図である。図8に示すように、画像生成部130aは、第1の実施形態に係る画像生成部130と比較して、第2レンダリング処理部132aと、MIP処理部132bと、色付け処理部132cとを新たに有する点が異なる。以下、これらを中心に説明する。   First, an example of the configuration of the image generation unit 130a according to the second embodiment will be described. FIG. 8 is a diagram illustrating an example of the configuration of the image generation unit 130a according to the second embodiment. As illustrated in FIG. 8, the image generation unit 130a newly includes a second rendering processing unit 132a, a MIP processing unit 132b, and a coloring processing unit 132c, as compared with the image generation unit 130 according to the first embodiment. There are different points. Hereinafter, these will be mainly described.

ここで、まず、第2の実施形態の概要について説明する。第2の実施形態では、血管内における血流の特性を考慮して、カラー画像の奥行き感を向上させる場合について説明する。図9Aは、一般的な血流の特性を説明するための図である。図9Aにおいては、1本の血管と血管内の血液の流速を示す。矢印35及び36は、血管内における血液の流速を示す。すなわち、矢印が長いほど流速が速いことを示す。   Here, the outline of the second embodiment will be described first. In the second embodiment, a case will be described in which the depth perception of a color image is improved in consideration of blood flow characteristics in a blood vessel. FIG. 9A is a diagram for explaining general blood flow characteristics. In FIG. 9A, the flow rate of one blood vessel and blood in the blood vessel is shown. Arrows 35 and 36 indicate the blood flow rate in the blood vessel. That is, the longer the arrow, the faster the flow rate.

図9Aに示すように、血管内の血液の流速は、一般的に、血管の中心部で速く、血管壁に近いほど遅くなる。これは、血液が血管内を流れる際に、血液と血管壁との摩擦が生じるためである。そして、カラードプラ画像を用いて血液の流速や血行動態を診断する場合、医師などは、血管中心部の流速の速い部分の画像により診断を行う。   As shown in FIG. 9A, the flow rate of blood in a blood vessel is generally faster at the center of the blood vessel and slower as it is closer to the blood vessel wall. This is because friction between the blood and the blood vessel wall occurs when the blood flows in the blood vessel. Then, when diagnosing the blood flow velocity and hemodynamics using a color Doppler image, a doctor or the like makes a diagnosis by using an image of a portion having a high flow velocity at the center of the blood vessel.

そこで、第2の実施形態では、血管内で流速の速い部分の速度データを用いたカラー画像の奥行き感を向上させる場合について説明する。第2レンダリング処理部132aは、視点位置からの距離に応じた重み付けが行われたパワーデータを用いてレンダリング処理を行う。具体的には、第2レンダリング処理部132aは、重み付け処理部131aによって重み付けが行われたパワーデータに対してボリュームレンダリング処理又はMIP処理を実行する。   Therefore, in the second embodiment, a case will be described in which the depth sensation of a color image using velocity data of a portion having a high flow velocity in a blood vessel is improved. The second rendering processing unit 132a performs the rendering process using the power data weighted according to the distance from the viewpoint position. Specifically, the second rendering processing unit 132a performs volume rendering processing or MIP processing on the power data weighted by the weighting processing unit 131a.

なお、正規化処理部131bは、処理内容は第1の実施形態と同様であるが、第2レンダリング処理部132aによって算出されたレンダリング処理後の値に対して正規化処理を実行する。   The normalization processing unit 131b performs the normalization process on the value after the rendering process calculated by the second rendering processing unit 132a, although the processing content is the same as in the first embodiment.

MIP処理部132bは、速度データを用いてレンダリング処理を行う。具体的には、MIP処理部132bは、速度データを用いてMIP処理を実行する。図9Bは、第2の実施形態に係るMIP処理部132bによる処理の一例を説明するための図である。図9Bにおいては、被検体を超音波で3次元走査することにより取得された3次元データ200を示す。また、図9Bの矢印は視線を示す。   The MIP processing unit 132b performs a rendering process using the speed data. Specifically, the MIP processing unit 132b performs MIP processing using the speed data. FIG. 9B is a diagram for explaining an example of processing by the MIP processing unit 132b according to the second embodiment. FIG. 9B shows three-dimensional data 200 acquired by three-dimensionally scanning a subject with ultrasonic waves. Moreover, the arrow of FIG. 9B shows a gaze.

例えば、MIP処理部132bは、図9Bに示すように、視線上の任意の範囲ごとにMIP処理を実行する。一例を挙げると、MIP処理部132bは、図9Bに示す範囲37aに含まれるサンプル点の速度データを用いてMIP処理を実行する。また、MIP処理部132bは、視線上の範囲37bに含まれるサンプル点の速度データを用いてMIP処理を実行する。同様に、MIP処理部132bは、全ての視線上の任意の範囲についてそれぞれMIP処理を実行する。これにより視線上の流速の速い速度データが抽出されることとなる。なお、視線上の範囲は操作者によって任意に設定される。   For example, as illustrated in FIG. 9B, the MIP processing unit 132b performs the MIP processing for each arbitrary range on the line of sight. As an example, the MIP processing unit 132b executes MIP processing using the velocity data of the sample points included in the range 37a shown in FIG. 9B. Further, the MIP processing unit 132b executes the MIP process using the velocity data of the sample points included in the range 37b on the line of sight. Similarly, the MIP processing unit 132b performs MIP processing for each arbitrary range on the line of sight. As a result, speed data having a high flow speed on the line of sight is extracted. The range on the line of sight is arbitrarily set by the operator.

図8に戻って、乗算器131cは、MIP処理された各速度データに、正規化処理が行われたパワーデータをそれぞれ乗算する。すなわち、速度データのレンダリング処理後の値と、奥行き方向の情報が反映されたパワーデータのレンダリング処理後の値とを乗算する。色付け処理部132cは、乗算器131cによる処理後の値に基づいて、色付け処理を行う。   Returning to FIG. 8, the multiplier 131c multiplies each speed data subjected to the MIP process by the power data subjected to the normalization process. That is, the value after the rendering process of the speed data is multiplied by the value after the rendering process of the power data reflecting the information in the depth direction. The coloring processing unit 132c performs coloring processing based on the value after processing by the multiplier 131c.

上述した第2の実施形態に係るレンダリング処理部132は、以下に示す式(3)又は式(4)の処理のうちのどちらかを実行する。   The rendering processing unit 132 according to the second embodiment described above executes one of the processes of the following formula (3) or formula (4).

[V(d)]MIP×|[P(d)×Wt(d)]MIP| …(3) [V (d)] MIP × | [P (d) × Wt (d)] MIP | (3)

[V(d)]MIP×|[P(d)×Wt(d)]VR| …(4) [V (d)] MIP × | [P (d) × Wt (d)] VR | (4)

すなわち、式(3)に示すように、レンダリング処理部132は、パワーデータ「P(d)」に重み付け「Wt(d)」を乗算し、乗算後の値に対してMIP処理を行う「[P(d)×Wt(d)]MIP」。そして、レンダリング処理部132は、MIP処理後の値を正規化「|[P(d)×Wt(d)]MIP|」し、正規化した値をMIP処理後の速度データ「[V(d)]MIP」に乗算する。 That is, as shown in Expression (3), the rendering processing unit 132 multiplies the power data “P (d)” by the weight “Wt (d)” and performs MIP processing on the value after the multiplication “[ P (d) × Wt (d)] MIP ”. Then, the rendering processing unit 132 normalizes the value after MIP processing “| [P (d) × Wt (d)] MIP |”, and uses the normalized value as velocity data “[V (d )] MIP ".

或いは、式(4)に示すように、レンダリング処理部132は、パワーデータ「P(d)」に重み付け「Wt(d)」を乗算し、乗算後の値に対してVR処理を行う「[P(d)×Wt(d)]VR」。そして、レンダリング処理部132は、VR処理後の値を正規化「|[P(d)×Wt(d)]VR|」し、正規化した値をMIP処理後の速度データ「[V(d)]MIP」に乗算する。 Alternatively, as shown in Expression (4), the rendering processing unit 132 multiplies the power data “P (d)” by the weight “Wt (d)” and performs VR processing on the value after the multiplication “[ P (d) × Wt (d)] VR ”. Then, the rendering processing unit 132 normalizes “| [P (d) × Wt (d)] VR |” after the VR processing, and uses the normalized value as velocity data “[V (d )] MIP ".

次に、図10を用いて、第2の実施形態に係る超音波診断装置1の処理について説明する。図10は、第2の実施形態に係る超音波診断装置1による処理の手順を示すフローチャートである。なお、図10においては、信号処理部120によって速度データやパワーデータなどのカラードプラデータが算出された後の処理について示す。   Next, processing of the ultrasonic diagnostic apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating a processing procedure performed by the ultrasonic diagnostic apparatus 1 according to the second embodiment. Note that FIG. 10 shows processing after color Doppler data such as speed data and power data is calculated by the signal processing unit 120.

図10に示すように、第2の実施形態に係る超音波診断装置1においては、奥行き付加モードがONであると(ステップS201肯定)、重み付け処理部131aは、信号処理部120によって算出されたサンプル点ごとのパワーデータに、3次元のカラードプラ画像を生成する際の視点位置からの距離に応じた重み付け処理を実行する(ステップS202)。   As shown in FIG. 10, in the ultrasonic diagnostic apparatus 1 according to the second embodiment, when the depth addition mode is ON (Yes at Step S201), the weighting processing unit 131a is calculated by the signal processing unit 120. A weighting process is executed on the power data for each sample point in accordance with the distance from the viewpoint position when generating a three-dimensional color Doppler image (step S202).

そして、第2レンダリング処理部132aは、重み付け処理が実行されたパワーデータに対してMIP処理又はボリュームレンダリング処理を実行する(ステップS203)。その後、正規化処理部131bは、第2レンダリング処理部132aによってMIP処理又はボリュームレンダリング処理後のパワーデータに正規化処理を実行する(ステップS204)。   Then, the second rendering processing unit 132a performs MIP processing or volume rendering processing on the power data on which the weighting processing has been executed (step S203). Thereafter, the normalization processing unit 131b performs normalization processing on the power data after the MIP processing or volume rendering processing by the second rendering processing unit 132a (step S204).

さらに、MIP処理部132bは、信号処理部120によって算出されたサンプル点ごとの速度データに対してMIP処理を実行する(ステップS205)。その後、乗算器131cは、MIP処理後の速度データに正規化処理後のパワーデータを乗算する(ステップS206)。   Further, the MIP processing unit 132b performs MIP processing on the velocity data for each sample point calculated by the signal processing unit 120 (step S205). Thereafter, the multiplier 131c multiplies the speed data after the MIP process by the power data after the normalization process (step S206).

そして、色付け処理部132cは、パワーデータが重畳された速度データに基づいて、色付け処理を実行して(ステップS207)、処理を終了する。なお、奥行き付加モードがOFFの場合には(ステップS201否定)、超音波診断装置1は、パワーデータが乗算されていない速度データを用いてボリュームレンダリング処理及び色付け処理を実行する(ステップS208)。また、上述した処理の手順では、正規化処理後に速度データのMIP処理を実行する場合について説明したが、実施形態はこれに限定されるものではなく、速度データに対するMIP処理を先に行なう場合であってもよいし、或いは、パワーデータに対する処理と速度データに対する処理とを平行して行なう場合であってもよい。   Then, the coloring processing unit 132c executes coloring processing based on the speed data on which the power data is superimposed (Step S207), and ends the processing. When the depth addition mode is OFF (No at Step S201), the ultrasound diagnostic apparatus 1 performs volume rendering processing and coloring processing using speed data that is not multiplied by power data (Step S208). In the above-described processing procedure, the case where the MIP processing of the speed data is executed after the normalization processing has been described. However, the embodiment is not limited to this, and the MIP processing for the speed data is performed first. Alternatively, the processing for power data and the processing for speed data may be performed in parallel.

上述したように、第2の実施形態によれば、第2レンダリング処理部132aは、視点位置からの距離に応じた重み付けが行われた各パワーデータに対してボリュームレンダリング処理又はMIP処理を行う。そして、MIP処理部132bは、速度データに対してMIP処理を行う。そして、正規化処理部131bは、レンダリング処理としてMIP処理又はボリュームレンダリング処理された各パワーデータに対して任意の正規化処理を行う。そして、乗算器131cは、レンダリング処理としてMIP処理された各速度データに、同一位置の正規化処理済みのパワーデータを乗算する。従って、第2の実施形態に係る超音波診断装置1は、同一血管内に血液において流速の速い速度データを抽出することができ、血管内で流速の速い部分の速度データを用いたカラー画像の奥行き感を向上させることを可能にする。   As described above, according to the second embodiment, the second rendering processing unit 132a performs volume rendering processing or MIP processing on each power data weighted according to the distance from the viewpoint position. Then, the MIP processing unit 132b performs MIP processing on the speed data. Then, the normalization processing unit 131b performs arbitrary normalization processing on each power data subjected to MIP processing or volume rendering processing as rendering processing. Then, the multiplier 131c multiplies each speed data subjected to the MIP process as the rendering process by the power data that has been normalized at the same position. Therefore, the ultrasonic diagnostic apparatus 1 according to the second embodiment can extract speed data having a high flow velocity in the blood in the same blood vessel, and a color image using the speed data of a portion having a high flow velocity in the blood vessel. It makes it possible to improve the sense of depth.

(第3の実施形態)
さて、これまで第1及び2の実施形態について説明したが、上述した第1及び第2の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Third embodiment)
Although the first and second embodiments have been described so far, the present invention may be implemented in various different forms other than the first and second embodiments described above.

上述した第1及び第2の実施形態では、超音波診断装置によってカラー画像が生成される場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、ワークステーションなどの画像処理装置がカラー画像を生成する場合であってもよい。かかる場合には、画像処理装置が、画像生成部130を備え、超音波診断装置によって収集された3次元データを保管先(例えば、超音波診断装置、画像保管装置、自装置が備える記憶装置など)から読み出し、読み出した3次元データを用いてカラー画像を生成する。或いは、超音波診断装置以外の医用画像診断装置(例えば、X線CT装置、MRI装置)が画像生成部130を備え、超音波診断装置によって収集された3次元データからカラー画像を生成する場合であってもよい。   In the first and second embodiments described above, the case where a color image is generated by the ultrasonic diagnostic apparatus has been described. However, the embodiment is not limited to this. For example, an image processing apparatus such as a workstation may generate a color image. In such a case, the image processing apparatus includes the image generation unit 130 and stores the three-dimensional data collected by the ultrasonic diagnostic apparatus (for example, the ultrasonic diagnostic apparatus, the image storage apparatus, the storage apparatus included in the own apparatus, etc.) ) And a color image is generated using the read three-dimensional data. Alternatively, a medical image diagnostic apparatus (for example, an X-ray CT apparatus or an MRI apparatus) other than the ultrasonic diagnostic apparatus includes the image generation unit 130 and generates a color image from three-dimensional data collected by the ultrasonic diagnostic apparatus. There may be.

以上説明したとおり、第1の実施形態、第2の実施形態及び第3の実施形態によれば、本実施形態の超音波診断装置及び画像処理装置は、3次元のカラー画像の奥行き感を向上させることを可能にする。   As described above, according to the first embodiment, the second embodiment, and the third embodiment, the ultrasonic diagnostic apparatus and the image processing apparatus of the present embodiment improve the sense of depth of a three-dimensional color image. Make it possible.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 超音波診断装置
130 画像生成部
131 レンダリング処理部
131a 重み付け処理部
131b 正規化処理部
131c 乗算器
131d 第1レンダリング処理部
DESCRIPTION OF SYMBOLS 1 Ultrasonic diagnostic apparatus 130 Image generation part 131 Rendering process part 131a Weighting process part 131b Normalization process part 131c Multiplier 131d 1st rendering process part

Claims (3)

被検体に対して3次元的に送信された超音波が前記被検体内に含まれる流体にて反射された反射波信号それぞれから算出された各パワーデータに対して、3次元画像を生成する際の視点位置からの距離に応じた重み付けを行う重み付け手段と、
重み付けが行われた各パワーデータに対して所定の正規化処理を行う正規化手段と、
前記反射波信号それぞれから算出された各速度データに、同一位置の正規化処理済みのパワーデータを乗算する乗算手段と、
乗算処理済みの速度データに対してレンダリング処理を行うとともに、当該速度データに基づいて色付けを行うことで、前記3次元画像を生成する第1レンダリング処理手段と、
を備えたことを特徴とする超音波診断装置。
When generating a three-dimensional image for each power data calculated from each reflected wave signal in which an ultrasonic wave transmitted three-dimensionally to a subject is reflected by a fluid contained in the subject Weighting means for weighting according to the distance from the viewpoint position;
Normalization means for performing a predetermined normalization process on each weighted power data;
Multiplying means for multiplying each velocity data calculated from each of the reflected wave signals by normalized power data at the same position;
A first rendering processing means for generating the three-dimensional image by performing rendering processing on the multiplied speed data and coloring the speed data;
An ultrasonic diagnostic apparatus comprising:
前記各速度データ及び前記視点位置からの距離に応じた重み付けが行われた各パワーデータそれぞれに対してレンダリング処理を行う第2レンダリング処理手段をさらに備え、
前記正規化手段は、前記レンダリング処理として最大値投影処理又はボリュームレンダリング処理された前記各パワーデータに対して所定の正規化処理を行い、
前記乗算手段は、前記レンダリング処理として最大値投影処理された前記各速度データに、同一位置の正規化処理済みのパワーデータを乗算することを特徴とする請求項1に記載の超音波診断装置。
A second rendering processing unit that performs rendering processing on each of the power data weighted according to the speed data and the distance from the viewpoint position;
The normalization means performs a predetermined normalization process on each power data subjected to the maximum value projection process or the volume rendering process as the rendering process,
The ultrasonic diagnostic apparatus according to claim 1, wherein the multiplication unit multiplies each velocity data subjected to the maximum value projection processing as the rendering processing by power data that has been normalized at the same position.
被検体に対して3次元的に送信された超音波が前記被検体内に含まれる流体にて反射された反射波信号それぞれから算出された各パワーデータに対して、3次元画像を生成する際の視点位置からの距離に応じた重み付けを行う重み付け手段と、
重み付けが行われた各パワーデータに対して所定の正規化処理を行う正規化手段と、
前記反射波信号それぞれから算出された各速度データに、同一位置の正規化処理済みのパワーデータを乗算する乗算手段と、
乗算処理済みの速度データに対してレンダリング処理を行うとともに、当該速度データに基づいて色付けを行うことで、前記3次元画像を生成する第1レンダリング処理手段と、
を備えたことを特徴とする画像処理装置。
When generating a three-dimensional image for each power data calculated from each reflected wave signal in which an ultrasonic wave transmitted three-dimensionally to a subject is reflected by a fluid contained in the subject Weighting means for weighting according to the distance from the viewpoint position;
Normalization means for performing a predetermined normalization process on each weighted power data;
Multiplying means for multiplying each velocity data calculated from each of the reflected wave signals by normalized power data at the same position;
A first rendering processing means for generating the three-dimensional image by performing rendering processing on the multiplied speed data and coloring the speed data;
An image processing apparatus comprising:
JP2011271362A 2011-12-12 2011-12-12 Ultrasonic diagnostic apparatus and image processor Pending JP2013121453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011271362A JP2013121453A (en) 2011-12-12 2011-12-12 Ultrasonic diagnostic apparatus and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011271362A JP2013121453A (en) 2011-12-12 2011-12-12 Ultrasonic diagnostic apparatus and image processor

Publications (1)

Publication Number Publication Date
JP2013121453A true JP2013121453A (en) 2013-06-20

Family

ID=48773808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011271362A Pending JP2013121453A (en) 2011-12-12 2011-12-12 Ultrasonic diagnostic apparatus and image processor

Country Status (1)

Country Link
JP (1) JP2013121453A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015156128A1 (en) * 2014-04-07 2015-10-15 ソニー株式会社 Display control device, display control method, and program
WO2020105822A1 (en) * 2018-11-21 2020-05-28 삼성메디슨 주식회사 Ultrasonic imaging apparatus and ultrasonic image generation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015156128A1 (en) * 2014-04-07 2015-10-15 ソニー株式会社 Display control device, display control method, and program
JPWO2015156128A1 (en) * 2014-04-07 2017-04-13 ソニー株式会社 Display control apparatus, display control method, and program
WO2020105822A1 (en) * 2018-11-21 2020-05-28 삼성메디슨 주식회사 Ultrasonic imaging apparatus and ultrasonic image generation method

Similar Documents

Publication Publication Date Title
US20230080726A1 (en) Ultrasonic diagnosis apparatus, image processing apparatus, and image processing method for tissue displacement caused by a shearwave generated by acoustic radiation force
US10231710B2 (en) Ultrasound diagnosis apparatus and ultrasound imaging method
JP6147489B2 (en) Ultrasonic imaging system
JP6058283B2 (en) Ultrasonic diagnostic equipment
JP6125256B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP2012011193A (en) Method and system for ultrasound data processing
JP6058282B2 (en) Medical image diagnostic apparatus and image processing apparatus
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
CN108882914B (en) Ultrasonic contrast imaging method and ultrasonic imaging system
JP6073563B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
US10226231B2 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP2012252697A (en) Method and system for indicating depth of 3d cursor in volume-rendered image
WO2013115388A1 (en) Diagnostic ultrasound apparatus, image processing apparatus and program
JP2016067559A (en) Medical image diagnostic apparatus, image processing apparatus, image processing method and image processing program
JP2017042606A (en) Ultrasound diagnostic apparatus and medical image processing apparatus
JP5566841B2 (en) Image processing apparatus and program
JP2012105966A (en) Ultrasonic diagnostic apparatus, ultrasonic image processor and ultrasonic image-processing program
JP2013244047A (en) Ultrasonic diagnostic apparatus, image processing device and program
WO2012161054A1 (en) Medical image diagnosis device, image processing device, and ultrasound diagnosis device
JP2013121453A (en) Ultrasonic diagnostic apparatus and image processor
JP5797514B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
JP2017042592A (en) Medical diagnostic imaging apparatus and medical image processing apparatus
JP6006092B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
JP2013097772A (en) Medical image diagnostic device and image processing device
US20190298314A1 (en) Ultrasonic diagnostic device, medical image processing device, and medical image processing method