JP2019017655A - Ultrasound diagnostic apparatus, image processing apparatus, and image processing program - Google Patents

Ultrasound diagnostic apparatus, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2019017655A
JP2019017655A JP2017138023A JP2017138023A JP2019017655A JP 2019017655 A JP2019017655 A JP 2019017655A JP 2017138023 A JP2017138023 A JP 2017138023A JP 2017138023 A JP2017138023 A JP 2017138023A JP 2019017655 A JP2019017655 A JP 2019017655A
Authority
JP
Japan
Prior art keywords
image data
display
data
enlargement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017138023A
Other languages
Japanese (ja)
Other versions
JP6971673B2 (en
Inventor
栄一 志岐
Eiichi Shiki
栄一 志岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2017138023A priority Critical patent/JP6971673B2/en
Publication of JP2019017655A publication Critical patent/JP2019017655A/en
Application granted granted Critical
Publication of JP6971673B2 publication Critical patent/JP6971673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an ultrasound diagnostic apparatus with which the resolution of a zoomed-up image is increased.SOLUTION: The ultrasound diagnostic apparatus includes an image generation unit 120, a display control unit 141, and a reception unit 142. The image generation unit generates display image data from ultrasound image data. The display control unit causes a display unit to display the display image data. The reception unit receives operation performed on the display image data displayed on the display unit from an operator. The image generation unit, when the reception unit receives a zoom-up operation for zooming up the display image data, zooms up the ultrasound image data according to the zoom-up operation and regenerates new, zoomed-up display image data.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、超音波診断装置、画像処理装置及び画像処理プログラムに関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing program.

従来、被検体内の3次元領域に対して超音波走査を行って、MPR(Multi Planar Reconstruction)画像やVR(Volume Rendering)画像を生成し、表示させる超音波診断装置が実用化されている。MPR画像やVR画像を表示するには、再構成処理若しくはレンダリング処理により生成された画像データを一旦フレームバッファに保存し、これをディスプレイの表示サイズに合わせて表示する。また、必要に応じて、ズーム機能、すなわち表示画像の拡大・縮小機能が利用される。例えば、関心領域内の画像データを詳細に観察したい場合は、画像データを拡大し、より広い領域を観察したい場合には、画像データを縮小する。   2. Description of the Related Art Conventionally, an ultrasonic diagnostic apparatus that performs ultrasonic scanning on a three-dimensional region in a subject to generate and display an MPR (Multi Planar Reconstruction) image or a VR (Volume Rendering) image has been put into practical use. In order to display the MPR image or the VR image, the image data generated by the reconstruction process or the rendering process is temporarily stored in the frame buffer and displayed according to the display size of the display. Further, if necessary, a zoom function, that is, a display image enlargement / reduction function is used. For example, when it is desired to observe the image data in the region of interest in detail, the image data is enlarged, and when it is desired to observe a wider region, the image data is reduced.

特開2013− 414号公報JP2013-414A 特表2015−500083号公報Special table 2015-500083 gazette 特開2014−239841号公報JP 2014-239841 A

本発明が解決しようとする課題は、拡大画像の解像度を向上させることが可能な超音波診断装置、画像処理装置及び画像処理プログラムを提供することである。   The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing program capable of improving the resolution of an enlarged image.

実施形態に係る超音波診断装置は、画像生成部と、表示制御部と、受付部とを備える。画像生成部は、超音波画像データから表示用画像データを生成する。表示制御部は、前記表示用画像データを表示部に表示させる。受付部は、前記表示部に表示された前記表示用画像データに対する操作を操作者から受け付ける。画像生成部は、前記表示用画像データを拡大させるための拡大操作を前記受付部が受け付けた場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する。   The ultrasonic diagnostic apparatus according to the embodiment includes an image generation unit, a display control unit, and a reception unit. The image generation unit generates display image data from the ultrasonic image data. The display control unit displays the display image data on the display unit. The accepting unit accepts an operation on the display image data displayed on the display unit from an operator. When the reception unit receives an enlargement operation for enlarging the display image data, the image generation unit enlarges the ultrasonic image data according to the enlargement operation, and creates a new display image after enlargement Regenerate the data.

図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment. 図2は、フレームバッファに保存された画像データを用いて拡大する場合について説明するための図である。FIG. 2 is a diagram for explaining a case where enlargement is performed using image data stored in the frame buffer. 図3は、第1の実施形態に係る超音波診断装置による拡大機能について説明するための図である。FIG. 3 is a diagram for explaining an enlargement function by the ultrasonic diagnostic apparatus according to the first embodiment. 図4は、第1の実施形態に係る超音波診断装置による拡大機能について説明するための図である。FIG. 4 is a diagram for explaining an enlargement function by the ultrasonic diagnostic apparatus according to the first embodiment. 図5は、第1の実施形態に係る超音波診断装置の処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus according to the first embodiment. 図6は、第1の実施形態の変形例に係る超音波診断装置の処理を説明するための図である。FIG. 6 is a diagram for explaining processing of the ultrasonic diagnostic apparatus according to the modification of the first embodiment. 図7は、第1の実施形態の変形例に係る超音波診断装置の処理を説明するための図である。FIG. 7 is a diagram for explaining processing of the ultrasonic diagnostic apparatus according to the modification of the first embodiment. 図8は、第2の実施形態に係る超音波診断装置による拡大機能について説明するための図である。FIG. 8 is a diagram for explaining an enlargement function by the ultrasonic diagnostic apparatus according to the second embodiment.

以下、図面を参照して、実施形態に係る超音波診断装置、画像処理装置及び画像処理プログラムを説明する。なお、以下では、一例として、以下に説明する実施形態が超音波診断装置に適用される場合を説明するが、実施形態はこれに限定されるものではない。例えば、実施形態は、超音波診断装置により収集された超音波画像データを処理することが可能な画像処理装置に対しても適用可能である。   Hereinafter, an ultrasonic diagnostic apparatus, an image processing apparatus, and an image processing program according to embodiments will be described with reference to the drawings. Hereinafter, as an example, a case where the embodiment described below is applied to an ultrasonic diagnostic apparatus will be described, but the embodiment is not limited thereto. For example, the embodiment can be applied to an image processing apparatus that can process ultrasonic image data collected by an ultrasonic diagnostic apparatus.

(第1の実施形態)
図1は、第1の実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103とを有する。超音波プローブ101、入力装置102、及びディスプレイ103は、装置本体100に接続される。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus 1 according to the first embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an apparatus main body 100, an ultrasonic probe 101, an input device 102, and a display 103. The ultrasonic probe 101, the input device 102, and the display 103 are connected to the apparatus main body 100.

超音波プローブ101は、複数の振動子(例えば、圧電振動子)を有し、これら複数の振動子は、後述する装置本体100が有する送受信回路110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ101が有する複数の振動子は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ101は、振動子に設けられる整合層と、振動子から後方への超音波の伝播を防止するバッキング材等を有する。   The ultrasonic probe 101 includes a plurality of vibrators (for example, piezoelectric vibrators), and the plurality of vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception circuit 110 included in the apparatus main body 100 described later. To do. The plurality of transducers included in the ultrasonic probe 101 receives reflected waves from the subject P and converts them into electrical signals. In addition, the ultrasonic probe 101 includes a matching layer provided on the vibrator, a backing material that prevents propagation of ultrasonic waves from the vibrator to the rear, and the like.

超音波プローブ101から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号(エコー信号)として超音波プローブ101が有する複数の振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送受信方向に対する速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 101 to the subject P, the transmitted ultrasonic waves are successively reflected by the discontinuous surface of the acoustic impedance in the body tissue of the subject P, and reflected wave signals (echo signals) Are received by a plurality of transducers included in the ultrasonic probe 101. The amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission / reception direction due to the Doppler effect. And undergoes a frequency shift.

なお、第1の実施形態は、図1に示す超音波プローブ101が、複数の圧電振動子が一列で配置された1次元超音波プローブである場合や、一列に配置された複数の圧電振動子が機械的に揺動されるメカ4D(Dimension)超音波プローブである場合、複数の圧電振動子が格子状に2次元で配置された2次元超音波プローブである場合のいずれであっても適用可能である。   In the first embodiment, the ultrasonic probe 101 shown in FIG. 1 is a one-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are arranged in a line, or a plurality of piezoelectric vibrators arranged in a line. Is a mechanically oscillated mechanical 4D (Dimension) ultrasonic probe, and is applicable to any of two-dimensional ultrasonic probes in which a plurality of piezoelectric vibrators are arranged two-dimensionally in a lattice shape Is possible.

入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置1の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。   The input device 102 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, and the like, receives various setting requests from an operator of the ultrasonic diagnostic apparatus 1, and The various setting requests received are transferred.

ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された表示用画像データ等を表示したりする。   The display 103 displays a GUI (Graphical User Interface) for the operator of the ultrasound diagnostic apparatus 1 to input various setting requests using the input device 102, display image data generated in the apparatus main body 100, and the like. Is displayed.

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて表示用画像データを生成する装置である。装置本体100は、例えば、図1に示すように、送受信回路110と、信号処理回路120と、画像処理回路130と、処理回路140と、内部記憶回路150と、画像メモリ160と、フレームバッファ170とを有する。送受信回路110、信号処理回路120、画像処理回路130、処理回路140、内部記憶回路150、画像メモリ160、及びフレームバッファ170は、相互に通信可能に接続される。   The apparatus main body 100 is an apparatus that generates display image data based on a reflected wave signal received by the ultrasonic probe 101. For example, as shown in FIG. 1, the apparatus main body 100 includes a transmission / reception circuit 110, a signal processing circuit 120, an image processing circuit 130, a processing circuit 140, an internal storage circuit 150, an image memory 160, and a frame buffer 170. And have. The transmission / reception circuit 110, the signal processing circuit 120, the image processing circuit 130, the processing circuit 140, the internal storage circuit 150, the image memory 160, and the frame buffer 170 are connected to be communicable with each other.

送受信回路110は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ101に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ101から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ101に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。   The transmission / reception circuit 110 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 101. The pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency. The transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 101 into a beam and determining transmission directivity. Give for each rate pulse. The pulser applies a drive signal (drive pulse) to the ultrasonic probe 101 at a timing based on the rate pulse. That is, the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.

なお、送受信回路110は、後述する処理回路140の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。   The transmission / reception circuit 110 has a function capable of instantaneously changing the transmission frequency, the transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the processing circuit 140 described later. In particular, the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.

また、送受信回路110は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ11が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行って反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。   The transmission / reception circuit 110 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like. The transmission / reception circuit 110 performs various processing on the reflected wave signal received by the ultrasonic probe 11 and reflects it. Generate wave data. The preamplifier amplifies the reflected wave signal for each channel. The A / D converter A / D converts the amplified reflected wave signal. The reception delay unit gives a delay time necessary for determining the reception directivity. The adder performs an addition process of the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.

送受信回路110は、被検体Pの2次元領域を走査する場合、超音波プローブ101から2次元方向に超音波ビームを送信させる。そして、送受信回路110は、超音波プローブ101が受信した反射波信号から2次元の反射波データを生成する。また、送受信回路110は、被検体Pの3次元領域を走査する場合、超音波プローブ101から3次元方向に超音波ビームを送信させる。そして、送受信回路110は、超音波プローブ101が受信した反射波信号から3次元の反射波データを生成する。   The transmission / reception circuit 110 transmits an ultrasonic beam in a two-dimensional direction from the ultrasonic probe 101 when scanning a two-dimensional region of the subject P. Then, the transmission / reception circuit 110 generates two-dimensional reflected wave data from the reflected wave signal received by the ultrasonic probe 101. Further, when scanning the three-dimensional region of the subject P, the transmission / reception circuit 110 transmits an ultrasonic beam from the ultrasonic probe 101 in a three-dimensional direction. Then, the transmission / reception circuit 110 generates three-dimensional reflected wave data from the reflected wave signal received by the ultrasonic probe 101.

信号処理回路120は、例えば、送受信回路110から受信した反射波データに対して、対数増幅、包絡線検波処理等を行って、サンプル点ごとの信号強度が輝度で表現されるデータ(Bモードデータ)を生成する。具体的には、信号処理回路120は、組織の断層像や造影剤エコー成分を表すデータ(Bモードデータ)を生成する。信号処理回路120により生成されたBモードデータは、画像処理回路130に出力される。   For example, the signal processing circuit 120 performs logarithmic amplification, envelope detection processing, and the like on the reflected wave data received from the transmission / reception circuit 110, and data (B-mode data) in which the signal intensity at each sample point is expressed by luminance. ) Is generated. Specifically, the signal processing circuit 120 generates data (B mode data) representing a tomographic image of a tissue and a contrast agent echo component. The B mode data generated by the signal processing circuit 120 is output to the image processing circuit 130.

また、信号処理回路120は、例えば、送受信回路110から受信した反射波データより、移動体のドプラ効果に基づく運動情報を、走査領域内の各サンプル点で抽出したデータ(ドプラデータ)として生成する。具体的には、信号処理回路120は、反射波データからドプラ効果に基づいて血流成分(カラードプラ成分)や組織成分(組織ドプラ成分)を抽出し、平均速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。信号処理回路120により得られた運動情報は、画像処理回路130に送られ、平均速度画像、分散画像、パワー画像、若しくはこれらの組み合わせ画像としてディスプレイ103に表示される。   For example, the signal processing circuit 120 generates motion information based on the Doppler effect of the moving body from the reflected wave data received from the transmission / reception circuit 110 as data (Doppler data) extracted at each sample point in the scanning region. . Specifically, the signal processing circuit 120 extracts blood flow components (color Doppler components) and tissue components (tissue Doppler components) from the reflected wave data based on the Doppler effect, and moves the moving body such as average velocity, dispersion, and power. Data (Doppler data) obtained by extracting information from multiple points is generated. Here, the moving body is, for example, a blood flow, a tissue such as a heart wall, or a contrast agent. The motion information obtained by the signal processing circuit 120 is sent to the image processing circuit 130 and displayed on the display 103 as an average velocity image, a dispersion image, a power image, or a combination image thereof.

ここで、信号処理回路120において生成されるBモードデータやドプラデータは、超音波走査の走査線信号列で表されるデータであり、「Rawデータ(ローデータ)」と称される。つまり、Rawデータは、超音波プローブの種類(リニアプローブ、コンベックスプローブ、セクタプローブ等)に応じた形状の空間が走査線信号列で表されたデータである。なお、本実施形態では、3次元空間に対する超音波走査により収集されるRawデータを「3次元Rawデータ」と称する。   Here, the B-mode data and Doppler data generated in the signal processing circuit 120 are data represented by a scanning line signal string of ultrasonic scanning, and are referred to as “raw data (low data)”. That is, the Raw data is data in which a space having a shape corresponding to the type of ultrasonic probe (linear probe, convex probe, sector probe, etc.) is represented by a scanning line signal string. In the present embodiment, raw data collected by ultrasonic scanning on a three-dimensional space is referred to as “three-dimensional raw data”.

画像処理回路130は、信号処理回路120により生成されたデータから表示用画像データを生成する。2次元走査の場合、画像処理回路130は、信号処理回路120が生成したBモードデータから反射波の強度を輝度で表した表示用のBモード画像データを生成する。また、画像処理回路130は、信号処理回路120が生成したドプラデータから移動体情報を表す表示用のドプラ画像データを生成する。ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。   The image processing circuit 130 generates display image data from the data generated by the signal processing circuit 120. In the case of two-dimensional scanning, the image processing circuit 130 generates B-mode image data for display in which the intensity of the reflected wave is represented by luminance from the B-mode data generated by the signal processing circuit 120. Further, the image processing circuit 130 generates display Doppler image data representing moving body information from the Doppler data generated by the signal processing circuit 120. The Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.

ここで、画像処理回路130は、一般的には、超音波走査の走査線信号列(Rawデータ)を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用画像データを生成する。具体的には、画像処理回路130は、超音波プローブ101による超音波の走査形態に応じて座標変換を行うことで、表示用画像データを生成する。   Here, the image processing circuit 130 generally converts (scan converts) a scanning line signal sequence (raw data) of ultrasonic scanning into a scanning line signal sequence of a video format typified by a television or the like, and displays it. Image data is generated. Specifically, the image processing circuit 130 generates display image data by performing coordinate conversion in accordance with the ultrasonic scanning mode by the ultrasonic probe 101.

すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波データ(Rawデータ)であり、画像処理回路130が生成するデータは、スキャンコンバート処理後の表示用画像データである。ここでは以降の説明を容易にするためRawデータを超音波画像データとも呼ぶ。また、画像処理回路130は、信号処理回路120が3次元Rawデータ(3次元Bモードデータ及び3次元ドプラデータ)を生成した場合、3次元Rawデータに対し補間処理を行うことで、ボクセルデータと呼ぶ3次元の画像データを生成することもある。ここでは以降の説明を容易にするため3次元Rawデータ及びボクセルデータを含めて超音波画像データと呼ぶ。そして、画像処理回路130は、3次元の超音波画像データに対して、超音波プローブ101による超音波の走査形態に応じた座標変換や各種レンダリング処理を行って、2次元の画像データ、即ち表示用画像データを生成する。   That is, B-mode data and Doppler data are ultrasonic data (Raw data) before the scan conversion process, and data generated by the image processing circuit 130 is display image data after the scan conversion process. Here, the Raw data is also referred to as ultrasonic image data in order to facilitate the following description. In addition, when the signal processing circuit 120 generates 3D Raw data (3D B mode data and 3D Doppler data), the image processing circuit 130 performs voxel data and interpolation processing on the 3D Raw data. In some cases, three-dimensional image data to be called is generated. Here, in order to facilitate the following description, the three-dimensional raw data and the voxel data are referred to as ultrasonic image data. Then, the image processing circuit 130 performs coordinate transformation and various rendering processes on the three-dimensional ultrasonic image data according to the ultrasonic scanning mode by the ultrasonic probe 101 to obtain two-dimensional image data, that is, display. Image data is generated.

ここで、「ボクセルデータ」とは、例えば、予め規定された3次元のデータ空間に対して3次元Rawデータが組み込まれたデータを表す。つまり、例えば、画像処理回路130は、3次元Bモードデータを、予め規定された3次元のデータ空間に座標変換(補間)して組み込むことにより、3次元のBモード画像データをボクセルデータとして生成する。また、画像処理回路130は、3次元ドプラデータを、予め規定された3次元のデータ空間に座標変換して組み込むことにより、3次元のドプラ画像データをボクセルデータとして生成する。なお、言い換えると、ボクセルデータとしてデータ空間に割り当てられる前の状態(補間処理が行われていない状態)のデータを、「Rawデータ」と称する。また、以下の実施形態では、「Rawデータ」と「ボクセルデータ」とを総称して「超音波画像データ」と表記する。   Here, “voxel data” represents, for example, data in which three-dimensional raw data is incorporated into a predetermined three-dimensional data space. In other words, for example, the image processing circuit 130 generates the three-dimensional B-mode image data as voxel data by incorporating the three-dimensional B-mode data by coordinate transformation (interpolation) into a predetermined three-dimensional data space. To do. Further, the image processing circuit 130 generates the three-dimensional Doppler image data as voxel data by incorporating the three-dimensional Doppler data by converting the coordinates into a predetermined three-dimensional data space. In other words, data in a state before being assigned to the data space as voxel data (a state in which no interpolation processing is performed) is referred to as “raw data”. In the following embodiments, “Raw data” and “voxel data” are collectively referred to as “ultrasound image data”.

処理回路140は、超音波診断装置1の処理全体を制御する。具体的には、処理回路140は、入力装置102を介して操作者から入力された各種設定要求や、内部記憶回路150から読込んだ各種制御プログラム及び各種データに基づき、送受信回路110、信号処理回路120、及び画像処理回路130の処理を制御する。また、処理回路140は、フレームバッファ170が記憶する表示用画像データをディスプレイ103にて表示するように制御する。   The processing circuit 140 controls the entire processing of the ultrasonic diagnostic apparatus 1. Specifically, the processing circuit 140 is based on various setting requests input from the operator via the input device 102, various control programs and various data read from the internal storage circuit 150, and the transmission / reception circuit 110, signal processing, and the like. The processing of the circuit 120 and the image processing circuit 130 is controlled. In addition, the processing circuit 140 controls the display 103 to display the display image data stored in the frame buffer 170.

また、処理回路140は、図1に示すように、表示制御機能141と、受付機能142とを実行する。ここで、例えば、図1に示す処理回路140の構成要素である表示制御機能141及び受付機能142が実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で超音波診断装置1の記憶装置(例えば、内部記憶回路150)に記録されている。処理回路140は、各プログラムを記憶装置から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路140は、図1の処理回路140内に示された各機能を有することとなる。なお、表示制御機能141及び受付機能142が実行する各処理機能については、後述する。   Further, the processing circuit 140 executes a display control function 141 and a reception function 142 as shown in FIG. Here, for example, each processing function executed by the display control function 141 and the reception function 142 which are components of the processing circuit 140 shown in FIG. 1 is a storage device of the ultrasonic diagnostic apparatus 1 in the form of a program executable by a computer. (For example, the internal storage circuit 150). The processing circuit 140 is a processor that realizes a function corresponding to each program by reading each program from the storage device and executing the program. In other words, the processing circuit 140 in a state where each program is read has each function shown in the processing circuit 140 of FIG. Each processing function executed by the display control function 141 and the reception function 142 will be described later.

内部記憶回路150は、超音波送受信、画像処理及び表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶回路150は、必要に応じて、画像メモリ160が記憶する画像データの保管等にも使用される。また、内部記憶回路150が記憶するデータは、図示しないインタフェースを介して、外部装置へ転送することができる。   The internal storage circuit 150 stores a control program for performing ultrasonic transmission / reception, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do. The internal storage circuit 150 is also used for storing image data stored in the image memory 160 as necessary. The data stored in the internal storage circuit 150 can be transferred to an external device via an interface (not shown).

画像メモリ160は、信号処理回路120乃至画像処理回路130が生成した超音波画像データを記憶するメモリである。例えば、画像メモリ160は、超音波画像データとして、複数の走査平面に対応する3次元Rawデータを記憶する。また、例えば、画像メモリ160は、3次元Rawデータが予め規定されたデータ空間に組み込まれたボクセルデータを記憶することも可能である。   The image memory 160 is a memory that stores ultrasonic image data generated by the signal processing circuit 120 to the image processing circuit 130. For example, the image memory 160 stores three-dimensional raw data corresponding to a plurality of scanning planes as ultrasonic image data. For example, the image memory 160 can also store voxel data in which three-dimensional raw data is incorporated in a predetermined data space.

画像メモリ160が記憶するBモードデータやドプラデータ、即ちRawデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像処理回路130を経由して表示用画像データとなる。   The B mode data and Doppler data stored in the image memory 160, that is, Raw data can be called by an operator after diagnosis, for example, and become display image data via the image processing circuit 130.

フレームバッファ170は、ディスプレイ103に表示されるための表示用画像データ(フレームバッファデータ)を保存する記憶領域である。例えば、フレームバッファ170に保存された表示用画像データは、線形補間などの補間処理によってディスプレイ103の表示サイズ(ピクセル数)の表示画像に変換される。そして、変換後の表示画像がディスプレイ103に表示される。例えば、フレームバッファ170は、表示用画像データとして、画像処理回路130により生成されるMPR(Multi Planar Reconstruction)画像データ及びVR(Volume Rendering)画像データを保存する。   The frame buffer 170 is a storage area for storing display image data (frame buffer data) to be displayed on the display 103. For example, the display image data stored in the frame buffer 170 is converted into a display image of the display size (number of pixels) of the display 103 by interpolation processing such as linear interpolation. Then, the converted display image is displayed on the display 103. For example, the frame buffer 170 stores MPR (Multi Planar Reconstruction) image data and VR (Volume Rendering) image data generated by the image processing circuit 130 as display image data.

なお、第1の実施形態に係る超音波診断装置1において、3次元Rawデータは、種々の収集方法により収集可能である。例えば、3次元Rawデータの収集方法としては、以下の4通りの方法が代表的である。   In the ultrasonic diagnostic apparatus 1 according to the first embodiment, the three-dimensional raw data can be collected by various collection methods. For example, the following four methods are representative as methods for collecting three-dimensional raw data.

第1の方法は、Sensor3D法と呼ばれる方法である。Sensor3D法は、2次元の走査平面を走査する超音波プローブ101の位置情報を取得しつつ、超音波プローブ101を走査平面に略垂直方向に移動させることで、位置の異なる複数フレームの2次元のRawデータを3次元Rawデータとして収集する方法である。Sensor3D法では、各フレームは必ずしも等間隔とは限らないので、各フレームの2次元のRawデータが収集された時の位置情報に基づいて、サンプル位置が等間隔に並んだボクセルデータが生成される。   The first method is a method called Sensor 3D method. The Sensor 3D method acquires the positional information of the ultrasonic probe 101 that scans the two-dimensional scanning plane, and moves the ultrasonic probe 101 in a direction substantially perpendicular to the scanning plane, so that two-dimensional two-dimensional frames of different positions can be obtained. This is a method of collecting raw data as three-dimensional raw data. In the Sensor3D method, since each frame is not necessarily equally spaced, voxel data in which sample positions are evenly spaced is generated based on position information when two-dimensional raw data of each frame is collected. .

第2の方法は、Smart3D法と呼ばれる方法である。Smart3D法は、超音波プローブ101を走査平面に略垂直方向に移動させることで、複数フレームの2次元のRawデータを収集し、複数フレームの2次元のRawデータにおける各フレーム(サンプル位置)が等間隔に並んでいると仮定して3次元Rawデータを収集する方法である。この場合、各フレームが等間隔に並んでいると仮定しているので、ボクセルデータは必ずしも生成しなくてよい。   The second method is a method called Smart3D method. The Smart3D method collects a plurality of frames of two-dimensional raw data by moving the ultrasonic probe 101 in a direction substantially perpendicular to the scanning plane, and each frame (sample position) in the two-dimensional raw data of a plurality of frames is equal. This is a method of collecting three-dimensional raw data on the assumption that they are arranged at intervals. In this case, since it is assumed that the frames are arranged at equal intervals, the voxel data does not necessarily have to be generated.

第3の方法は、Mecha4D法と呼ばれる方法である。Mecha4D法は、2次元の走査平面を走査する1次元アレー(振動子群)を走査平面に略垂直方向に機械的に搖動するメカ4Dプローブを用いて、複数フレームの2次元のRawデータを3次元Rawデータとして収集する方法である。Mecha4D法では、機械的な揺動により各フレームの2次元のRawデータの位置関係が既知(等間隔)となるため、この位置関係に基づいて、3次元Rawデータが生成される。この場合、各フレームが等間隔に並んでいるので、ボクセルデータは必ずしも生成しなくてよい。   The third method is a method called Mecha4D method. The Mecha4D method uses a mechanical 4D probe that mechanically swings a one-dimensional array (a transducer group) that scans a two-dimensional scanning plane in a direction substantially perpendicular to the scanning plane, and generates three-dimensional two-dimensional raw data. It is a method of collecting as dimension Raw data. In the Mecha4D method, the positional relationship of the two-dimensional raw data of each frame is known (equal intervals) due to mechanical swinging, and therefore, three-dimensional raw data is generated based on this positional relationship. In this case, since the frames are arranged at equal intervals, the voxel data does not necessarily have to be generated.

第4の方法は、2次元アレー法と呼ばれる方法である。2次元アレー法は、格子状に並んだ複数の振動子を有する2次元アレー型の超音波プローブを用いて3次元的に超音波走査を行って3次元Rawデータを収集する方法である。2次元アレー法により収集された3次元Rawデータの各サンプル位置は等間隔となる。この場合、各サンプル位置が等間隔なので、ボクセルデータは必ずしも生成しなくてよい。   The fourth method is a method called a two-dimensional array method. The two-dimensional array method is a method of collecting three-dimensional raw data by performing three-dimensional ultrasonic scanning using a two-dimensional array type ultrasonic probe having a plurality of transducers arranged in a grid. The sample positions of the three-dimensional raw data collected by the two-dimensional array method are equally spaced. In this case, since the sample positions are equally spaced, voxel data does not necessarily have to be generated.

なお、第1の実施形態では、Sensor3D法により3次元Rawデータを収集する場合を説明するが、実施形態はこれに限定されるものではなく、Sensor3D法以外の任意の収集方法により収集される場合にも適用可能である。   In the first embodiment, a case where three-dimensional raw data is collected by the Sensor3D method will be described. However, the embodiment is not limited to this, and the case where the data is collected by an arbitrary collection method other than the Sensor3D method. It is also applicable to.

ところで、一般的には、ズーム機能(拡大機能及び縮小機能)は、フレームバッファ170に保存された表示用画像データを、ディスプレイ103の表示サイズに合わせて補間して表示する。このため、ディスプレイ103に表示される表示画像の表示分解能は、フレームバッファ170の解像度によって規定されてしまう。つまり、表示画像を拡大しても、フレームバッファ170の解像度以上の解像度を得ることはできない。更に、通常、フレームバッファ170の解像度は、表示用画像データの元になる画像データ(超音波画像データ)の解像度より劣るので、表示画像を拡大しても元の画像データの解像度を得ることは同様にできない。   Incidentally, in general, the zoom function (enlargement function and reduction function) interpolates and displays the display image data stored in the frame buffer 170 in accordance with the display size of the display 103. For this reason, the display resolution of the display image displayed on the display 103 is defined by the resolution of the frame buffer 170. That is, even if the display image is enlarged, a resolution higher than the resolution of the frame buffer 170 cannot be obtained. Further, since the resolution of the frame buffer 170 is usually inferior to the resolution of the image data (ultrasonic image data) that is the basis of the display image data, it is possible to obtain the resolution of the original image data even if the display image is enlarged. I can't do it as well.

図2を用いて、フレームバッファ170に保存された画像データを用いて拡大する場合について説明する。図2は、フレームバッファ170に保存された画像データを用いて拡大する場合について説明するための図である。図2には、3次元Rawデータがディスプレイ103に表示されるまでの一連の処理と、各段階における画像データの解像度とを関連づけて例示する。数値で例示されている各段階における画像データの解像度の意味は、例えば、3次元Rawデータで1024*512ピクセルの画像データがボクセルデータで820*410ピクセルになる場合、同じ領域の画像データを3次元Rawデータでは1024*512ピクセルに収め、ボクセルデータでは820*410ピクセルに収めるという意味で、従って3次元Rawデータの方が解像度がよいということになる。なお、図2では、リニアプローブをエレベーション方向(振動子配列に対して垂直方向)に移動させて、Sensor3D法により3次元Rawデータを収集した場合を一例として説明する。   The case of enlarging using image data stored in the frame buffer 170 will be described with reference to FIG. FIG. 2 is a diagram for explaining a case where enlargement is performed using image data stored in the frame buffer 170. FIG. 2 illustrates a series of processing until the three-dimensional raw data is displayed on the display 103 and the resolution of the image data at each stage in association with each other. The meaning of the resolution of the image data in each stage exemplified by the numerical value is, for example, when image data of 1024 * 512 pixels is converted to 820 * 410 pixels of three-dimensional raw data, and image data of the same region is converted to 3 The dimension RAW data is stored in 1024 * 512 pixels, and the voxel data is stored in 820 * 410 pixels. Therefore, the resolution of the three-dimensional RAW data is better. Note that FIG. 2 illustrates an example in which the linear probe is moved in the elevation direction (perpendicular to the transducer array) and three-dimensional raw data is collected by the Sensor3D method.

図2に示すように、S10において、例えば、Sensor3D法により3次元Rawデータが収集される。例えば、信号処理回路120は、複数フレームの2次元のBモードデータがエレベーション方向に並んだデータを、3次元Rawデータとして生成する。そして、生成された3次元Rawデータは、画像メモリ160内の記憶領域(3次元Rawデータメモリ)に格納される。なお、以下では、3次元RawデータとしてBモードデータが用いられる場合を説明するが、これに限らず、超音波診断装置1により収集可能な任意の形式のRawデータ(ドプラデータなど)が用いられても良い。また、以下に例示する画像データのサンプル数はあくまで一例であり、任意のサンプル数に変更可能である。   As shown in FIG. 2, in S10, for example, three-dimensional raw data is collected by the Sensor3D method. For example, the signal processing circuit 120 generates data in which two-dimensional B-mode data of a plurality of frames are arranged in the elevation direction as three-dimensional raw data. The generated three-dimensional raw data is stored in a storage area (three-dimensional raw data memory) in the image memory 160. In the following description, a case where B-mode data is used as the three-dimensional raw data will be described. May be. Further, the number of samples of the image data exemplified below is merely an example, and can be changed to an arbitrary number of samples.

3次元Rawデータにおいて、X軸方向は深さ方向(レンジ方向)、Y軸方向は走査方向(アジマス方向)、Z軸方向は超音波プローブ101の移動方向(エレベーション方向)に対応する。3次元RawデータのX軸方向、Y軸方向、及びZ軸方向のサンプル数は、例えば、1024*512*400である。つまり、図2に例示の3次元Rawデータは、各走査線におけるサンプル数が1024サンプルであり、走査線の本数が512本であるBモードデータが、エレベーション方向に沿って400枚並んだ画像データに対応する。   In the three-dimensional raw data, the X-axis direction corresponds to the depth direction (range direction), the Y-axis direction corresponds to the scanning direction (azimuth direction), and the Z-axis direction corresponds to the moving direction (elevation direction) of the ultrasonic probe 101. The number of samples in the X-axis direction, Y-axis direction, and Z-axis direction of the three-dimensional raw data is, for example, 1024 * 512 * 400. That is, the three-dimensional raw data illustrated in FIG. 2 is an image in which 400 samples of B-mode data in which the number of samples in each scanning line is 1024 samples and the number of scanning lines is 512 are arranged along the elevation direction. Corresponds to data.

なお、Sensor3D法では、超音波プローブ101の移動が手動で行われる。このため、手ぶれ等の影響により、複数フレームのBモードデータは、必ずしも一方向かつ等間隔に並ぶとは限らない。このため、各フレームのBモードデータの収集時における位置情報が位置センサ(磁気センサやジャイロセンサ等)によって取得され、各フレームのBモードデータに対応づけて画像メモリ160に記憶されている。   In the Sensor 3D method, the ultrasonic probe 101 is moved manually. For this reason, the B-mode data of a plurality of frames are not necessarily arranged in one direction and at equal intervals due to the influence of camera shake or the like. Therefore, position information at the time of collecting B-mode data for each frame is acquired by a position sensor (such as a magnetic sensor or a gyro sensor) and stored in the image memory 160 in association with the B-mode data for each frame.

続いて、S11において、3次元Rawデータからボクセルデータが生成される。例えば、画像処理回路130は、3次元Rawデータと位置情報とを画像メモリ160から読み出す。そして、画像処理回路130は、サンプル位置が必ずしも等間隔でない3次元Rawデータに対して位置情報を用いた補間処理を行って、サンプル位置が等間隔に並んだボクセルデータを生成する。具体的には、画像メモリ160は、予めサンプル数が規定されたボクセルデータ用のデータ空間(ボクセルデータメモリ)を有する。そして、画像処理回路130は、ボクセルデータメモリに対応するデータを、3次元Rawデータの補間処理により生成し、生成したデータをボクセルデータメモリに組み込む。   Subsequently, in S11, voxel data is generated from the three-dimensional raw data. For example, the image processing circuit 130 reads out three-dimensional raw data and position information from the image memory 160. Then, the image processing circuit 130 performs interpolation processing using position information on the three-dimensional raw data whose sample positions are not necessarily equally spaced, and generates voxel data in which the sample positions are evenly spaced. Specifically, the image memory 160 has a data space (voxel data memory) for voxel data in which the number of samples is defined in advance. Then, the image processing circuit 130 generates data corresponding to the voxel data memory by interpolation processing of the three-dimensional raw data, and incorporates the generated data in the voxel data memory.

ボクセルデータメモリにおいて、X’軸方向はX軸方向、Y’軸方向はY軸方向、Z’軸方向はZ軸方向に対応する。ボクセルデータメモリのX’軸方向、Y’軸方向、及びZ’軸方向のサンプル数は、例えば、1024*512*512である。ボクセルデータメモリに格納されたボクセルデータは、補間処理によりX’軸方向、Y’軸方向、及びZ’軸方向のデータが等間隔に並ぶこととなる。   In the voxel data memory, the X′-axis direction corresponds to the X-axis direction, the Y′-axis direction corresponds to the Y-axis direction, and the Z′-axis direction corresponds to the Z-axis direction. The number of samples in the X′-axis direction, the Y′-axis direction, and the Z′-axis direction of the voxel data memory is, for example, 1024 * 512 * 512. In the voxel data stored in the voxel data memory, data in the X′-axis direction, the Y′-axis direction, and the Z′-axis direction are arranged at equal intervals by interpolation processing.

続いて、S12Aにおいて、ボクセルデータからMPR画像データが生成され、フレームバッファ170に格納される。例えば、画像処理回路130は、ボクセルデータに対してMPR処理を行ってMPR画像データを生成する。   Subsequently, in S <b> 12 </ b> A, MPR image data is generated from the voxel data and stored in the frame buffer 170. For example, the image processing circuit 130 performs MPR processing on voxel data to generate MPR image data.

具体例として、A面、B面、及びC面のMPR画像と、VR画像とを表示する4画面表示が行われる場合を説明する。この場合、画像処理回路130は、A面、B面、及びC面のMPR画像データをそれぞれ生成する。そして、画像処理回路130は、生成した3つのMPR画像データを、3つの異なるフレームバッファ170にそれぞれ格納する。   As a specific example, a case will be described in which four-screen display for displaying the A-plane, B-plane, and C-plane MPR images and the VR image is performed. In this case, the image processing circuit 130 generates MPR image data for the A plane, the B plane, and the C plane, respectively. Then, the image processing circuit 130 stores the generated three MPR image data in three different frame buffers 170, respectively.

MPR画像データは、X’’軸方向及びY’’軸方向を有する。例えば、A面のMPR画像データは、X’−Y’面に対応する画像データである。また、B面のMPR画像データは、X’−Z’面に対応する画像データである。また、C面のMPR画像データは−Y’−Z’面に対応する画像データである。また、フレームバッファ170(フレームバッファデータ)のサイズは、例えば、512*512ピクセルである。   The MPR image data has an X ″ axis direction and a Y ″ axis direction. For example, the MPR image data on the A plane is image data corresponding to the X′-Y ′ plane. Further, the MPR image data on the B surface is image data corresponding to the X′-Z ′ surface. Further, the MPR image data on the C plane is image data corresponding to the -Y'-Z 'plane. The size of the frame buffer 170 (frame buffer data) is, for example, 512 * 512 pixels.

また、S12Bにおいて、ボクセルデータからVR画像データが生成され、フレームバッファ170に格納される。例えば、画像処理回路130は、ボクセルデータに対してVR処理を行ってVR画像データを生成する。例えば、4画面表示が行われる場合、画像処理回路130は、MPR画像データのフレームバッファ170とは異なるフレームバッファ170に、VR画像データを格納する。つまり、4画面表示が行われる場合には、4画面それぞれに相当する4つのフレームバッファ170が備えられる。なお、フレームバッファ170のピクセル数(サイズ)は、例えば、512*512ピクセルである。   In step S <b> 12 </ b> B, VR image data is generated from the voxel data and stored in the frame buffer 170. For example, the image processing circuit 130 performs VR processing on voxel data to generate VR image data. For example, when four-screen display is performed, the image processing circuit 130 stores VR image data in a frame buffer 170 different from the MPR image data frame buffer 170. That is, when four-screen display is performed, four frame buffers 170 corresponding to the four screens are provided. Note that the number of pixels (size) of the frame buffer 170 is, for example, 512 * 512 pixels.

そして、S13において、MPR画像データ及びVR画像データから表示画像が生成され、ディスプレイ103に表示される。一般的に、フレームバッファのピクセル数は、ディスプレイ103のピクセル数と異なる。このため、例えば、表示制御機能141は、線形補間などの補間処理を行って、フレームバッファ170に保存された画像データのピクセル数をディスプレイ103のピクセル数に合わせて表示する。具体例として、700*800ピクセルのディスプレイ103で4画面表示が行われる場合、各表示画像のX’’’−Y’’’面のピクセル数は、350*400ピクセルである。   In step S <b> 13, a display image is generated from the MPR image data and the VR image data and displayed on the display 103. In general, the number of pixels in the frame buffer is different from the number of pixels in the display 103. For this reason, for example, the display control function 141 performs interpolation processing such as linear interpolation, and displays the number of pixels of the image data stored in the frame buffer 170 according to the number of pixels of the display 103. As a specific example, when a four-screen display is performed on the display 103 of 700 * 800 pixels, the number of pixels on the X ″ ″-Y ″ ″ plane of each display image is 350 × 400 pixels.

ここで、超音波画像データの解像度は、データのサンプリング間隔(mm)と音場の拡がり(mm)で決まる。すなわち、レンジ方向は、深さ方向のサンプリングピッチと超音波のパルス長、アジマス方向は、走査線の間隔と超音波ビームの方位方向の幅、エレベーション方向は、(フレームピッチ)=(プローブの移動速度)/(フレームレート)と超音波ビームのスライス方向の幅のうち粗い方で決まる。ここでは、理にかなった場合として、下記初期状態においてデータのサンプリング間隔と音場の拡がりは同等である場合を考える。すなわち、サンプリング間隔を変えると解像度が変わる。   Here, the resolution of the ultrasonic image data is determined by the sampling interval (mm) of the data and the expansion of the sound field (mm). That is, the range direction is the sampling pitch in the depth direction and the pulse length of the ultrasonic wave, the azimuth direction is the interval between the scanning lines and the width in the azimuth direction of the ultrasonic beam, and the elevation direction is (frame pitch) = (probe of the probe) It is determined by the coarser one of (moving speed) / (frame rate) and the width of the ultrasonic beam in the slice direction. Here, as a reasonable case, let us consider a case where the data sampling interval and the sound field expansion are equal in the following initial state. That is, changing the sampling interval changes the resolution.

まず、初期状態(ズーム機能を用いずに表示した状態)として、収集した領域の全体像が表示される場合の解像度について説明する。なお、以下では、4画面表示で表示される4つの表示画像のうち、代表例としてA面のMPR画像の解像度について説明する。なお、他の表示画像(B面のMPR画像、C面のMPR画像、及びVR画像)の解像度については、A面のMPR画像の解像度と同様に算出可能であるため説明を省略する。   First, as an initial state (a state displayed without using the zoom function), the resolution when the entire image of the collected area is displayed will be described. In addition, below, the resolution of the MPR image of A surface is demonstrated as a typical example among the four display images displayed by 4 screen display. Note that the resolution of other display images (B-side MPR image, C-side MPR image, and VR image) can be calculated in the same manner as the resolution of the A-side MPR image, and thus description thereof is omitted.

3次元RawデータからA面の全体像が表示される場合、X−Y面1024*512ピクセルである3次元Rawデータから、X’−Y’面1024*512ピクセルのボクセルデータが生成される。この場合、3次元Rawデータ及びボクセルデータのピクセル数は同一であるが、3次元Rawデータは、超音波プローブ101を移動させる際の手ぶれや被検体表面の起伏等により各フレームのBモードデータの位置関係がずれた状態で収集されている。このように、位置ずれを含む3次元Rawデータ全体をボクセルデータに変換する場合、3次元Rawデータは縮小されてボクセルデータに変換されるため、ボクセルデータの解像度は低下する。例えば、80%に3次元Rawデータが縮小される場合、3次元RawデータのX−Y面1024*512ピクセルがボクセルデータのX’−Y’面820*410ピクセルに変換される。   When the entire image of the A plane is displayed from the three-dimensional raw data, voxel data of the X′-Y ′ plane of 1024 * 512 pixels is generated from the three-dimensional raw data of XY plane of 1024 * 512 pixels. In this case, the number of pixels of the three-dimensional raw data and the voxel data is the same. However, the three-dimensional raw data is the B-mode data of each frame due to camera shake when moving the ultrasonic probe 101, the undulation of the subject surface, and the like. Collected with the positional relationship shifted. As described above, when the entire three-dimensional raw data including the positional deviation is converted into voxel data, the resolution of the voxel data is reduced because the three-dimensional raw data is reduced and converted into voxel data. For example, when the three-dimensional raw data is reduced to 80%, the XY plane 1024 * 512 pixels of the three-dimensional raw data is converted into the X′-Y ′ plane 820 * 410 pixels of the voxel data.

なお、B面のMPR画像についても同様である。つまり、例えば、3次元RawデータのZ軸方向のフレーム間隔がボクセルデータのZ’軸方向のサンプルピッチよりも小さい状態でプローブを動かした場合に、3次元Rawデータをボクセルデータに変換する場合には、フレームが間引かれる様な状態になり、ボクセルデータの解像度は低下する。   The same applies to the B-side MPR image. In other words, for example, when the probe is moved in a state where the frame interval in the Z-axis direction of the three-dimensional raw data is smaller than the sample pitch in the Z′-axis direction of the voxel data, the three-dimensional raw data is converted into voxel data. In such a state, frames are thinned out, and the resolution of the voxel data is lowered.

次に、X’−Y’面1024*512ピクセルのボクセルデータから、X’’−Y’’面512*512ピクセルのフレームバッファデータが生成される。ここで、同じ画像に対してX’軸1024ピクセルからX’’軸512ピクセルへとピクセル数が2分の1に減少しているので、フレームバッファデータを生成する時点で解像度は低下する。図2の例では、ボクセルデータのX’−Y’面820*410ピクセルがフレームバッファデータのX’’−Y’’面410*205ピクセルに変換される。   Next, frame buffer data for the X ″ -Y ″ plane 512 * 512 pixels is generated from the voxel data of the 1024 * 512 pixels on the X′-Y ′ plane. Here, since the number of pixels is reduced by a factor of two from the 1024 pixels of the X ′ axis to the 512 pixels of the X ″ axis for the same image, the resolution is lowered when the frame buffer data is generated. In the example of FIG. 2, the X′-Y ′ plane 820 * 410 pixels of the voxel data are converted into the X ″ -Y ″ plane 410 * 205 pixels of the frame buffer data.

そして、フレームバッファデータが表示される際には、補間処理により350*400の表示ピクセルに変換することで、最終的な表示画像の解像度が決まる。表示においてもX’’軸512ピクセルからX’’’軸350ピクセルへとピクセル数が減少するので、解像度は低下する。図2の例では、フレームバッファデータのX’’−Y’’面410*205ピクセルが表示画像のX’’’−Y’’’面280*140ピクセルに変換される。   Then, when the frame buffer data is displayed, the resolution of the final display image is determined by converting it into 350 * 400 display pixels by interpolation processing. Also in the display, the number of pixels decreases from the X ″ axis 512 pixels to the X ″ ″ axis 350 pixels, so the resolution decreases. In the example of FIG. 2, the X ″ -Y ″ plane 410 * 205 pixels of the frame buffer data is converted into the X ″ ″-Y ″ ″ plane 280 * 140 pixels of the display image.

ここで、S14Aにおいて、拡大機能により表示画像を拡大する場合、一般的にはパフォーマンス(処理時間)を優先して、初期状態のフレームバッファデータを用いて補間処理のピッチ(mm)を細かくして拡大する。   Here, in S14A, when a display image is enlarged by the enlargement function, generally, priority is given to performance (processing time), and the interpolation processing pitch (mm) is made finer by using the frame buffer data in the initial state. Expanding.

例えば、一辺の長さを4倍に拡大する場合(面積としては16倍に拡大する場合)、フレームバッファデータのX’’−Y’’面410*205ピクセルの1/4の大きさの拡大領域102*51ピクセルが、表示画像のX’’’−Y’’’面280*140ピクセルに変換されることにより4倍に拡大され、拡大された画像がディスプレイ103に表示される。この場合、ディスプレイ103に表示されるのはフレームバッファデータ102*51ピクセルだけではなく、ディスプレイ103の350*400ピクセルに表示できる、より広い範囲のフレームバッファデータが表示されるが、表示領域の対応付けが分かればよいので、説明を簡単にするため、以降、「フレームバッファデータの拡大領域102*51ピクセルが表示画像280*140ピクセルで表示される」等と記述する。画像に描出されるオブジェクトは拡大されて表示されるものの、拡大後の表示画像(拡大画像)の解像度は、3次元Rawデータより解像度の低いフレームバッファデータの解像度で決まってしまう。すなわち、フレームバッファデータを用いて拡大する場合、フレームバッファデータの内の拡大領域X’’−Y’’面102*51ピクセルの解像度によって規定されてしまうため、解像度は3次元Rawデータの解像度より低下してしまう。   For example, when the length of one side is enlarged 4 times (when the area is enlarged 16 times), the size of the frame buffer data X ″ -Y ″ plane 410 × 205 pixels is enlarged by 1/4. The region 102 * 51 pixel is converted to the X ′ ″-Y ′ ″ plane 280 * 140 pixels of the display image to be enlarged four times, and the enlarged image is displayed on the display 103. In this case, not only the frame buffer data 102 * 51 pixels are displayed on the display 103, but a wider range of frame buffer data that can be displayed on the display 103 350 * 400 pixels is displayed. In order to simplify the description, it will be described as “the enlarged region of frame buffer data 102 * 51 pixels is displayed as a display image 280 * 140 pixels”. Although the object drawn in the image is enlarged and displayed, the resolution of the enlarged display image (enlarged image) is determined by the resolution of the frame buffer data having a resolution lower than that of the three-dimensional raw data. That is, when the frame buffer data is used for enlargement, the resolution is determined by the resolution of the enlargement area X ″ -Y ″ plane 102 * 51 pixels in the frame buffer data, so the resolution is higher than the resolution of the three-dimensional raw data. It will decline.

そこで、第1の実施形態に係る超音波診断装置1は、拡大画像の解像度を向上させるために、以下の構成を備える。   Therefore, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes the following configuration in order to improve the resolution of the enlarged image.

すなわち、第1の実施形態に係る超音波診断装置1は、画像処理回路130と、表示制御機能141と、受付機能142とを有する。画像処理回路130は、超音波画像データから表示用画像データを生成する。表示制御機能141は、表示用画像データを表示部に表示させる。受付機能142は、表示部に表示された表示用画像データに対する操作を操作者から受け付ける。画像処理回路130は、表示用画像データを拡大させるための拡大操作を受付機能142が受け付けた場合に、超音波画像データを拡大操作に応じて拡大させ、拡大後の超音波画像データから新たな表示用画像データを再生成する。   That is, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an image processing circuit 130, a display control function 141, and a reception function 142. The image processing circuit 130 generates display image data from the ultrasonic image data. The display control function 141 displays the display image data on the display unit. The reception function 142 receives an operation on display image data displayed on the display unit from an operator. When the reception function 142 receives an enlargement operation for enlarging the display image data, the image processing circuit 130 enlarges the ultrasound image data in accordance with the enlargement operation, and creates a new one from the enlarged ultrasound image data. Regenerate display image data.

例えば、超音波診断装置1は、フレームバッファデータよりも解像度が高い3次元Rawデータ若しくはボクセルデータを用いて表示画像を拡大する。これにより、超音波診断装置1は、拡大画像の解像度を向上させることができる。   For example, the ultrasonic diagnostic apparatus 1 enlarges the display image using three-dimensional raw data or voxel data having a higher resolution than the frame buffer data. Thereby, the ultrasonic diagnostic apparatus 1 can improve the resolution of the enlarged image.

図3及び図4を用いて、第1の実施形態に係る超音波診断装置1による拡大機能について説明する。図3及び図4は、第1の実施形態に係る超音波診断装置1による拡大機能について説明するための図である。なお、図3及び図4において、S10〜S13の処理内容は、図2に示したS10〜S13の処理内容と同一であるので説明を省略する。   The enlargement function by the ultrasonic diagnostic apparatus 1 according to the first embodiment will be described with reference to FIGS. 3 and 4. 3 and 4 are diagrams for explaining an enlargement function by the ultrasonic diagnostic apparatus 1 according to the first embodiment. 3 and 4, the processing contents of S10 to S13 are the same as the processing contents of S10 to S13 shown in FIG.

図3に示すように、S14Bにおいて、3次元Rawデータが拡大のため選択される。例えば、受付機能142は、ディスプレイ103に表示された表示画像上で、表示画像を拡大させるための拡大操作を操作者から受け付ける。そして、受付機能142は、受け付けた拡大操作に関する情報を、画像処理回路130に通知する。例えば、受付機能142は、拡大される領域の中心座標と、拡大率とを画像処理回路130に通知する。   As shown in FIG. 3, in S14B, three-dimensional raw data is selected for enlargement. For example, the reception function 142 receives an enlargement operation for enlarging the display image on the display image displayed on the display 103 from the operator. Then, the reception function 142 notifies the image processing circuit 130 of information regarding the received enlargement operation. For example, the reception function 142 notifies the image processing circuit 130 of the center coordinates of the area to be enlarged and the enlargement ratio.

そして、画像処理回路130は、拡大操作に関する情報が受付機能142から通知されると、通知された情報に基づいて、3次元Rawデータを拡大のため選択する。例えば、画像処理回路130は、拡大される領域(関心領域)の中心座標及び拡大率に基づいて、3次元Rawデータから拡大対象となる領域を抽出する。そして、画像処理回路130は、抽出した領域の3次元Rawデータを用いて、拡大率に応じて拡大されたボクセルデータ、フレームバッファデータを順に再生成する。   When the information regarding the enlargement operation is notified from the reception function 142, the image processing circuit 130 selects the three-dimensional raw data for enlargement based on the notified information. For example, the image processing circuit 130 extracts an area to be enlarged from the three-dimensional raw data based on the center coordinates and the enlargement ratio of the area to be enlarged (region of interest). Then, the image processing circuit 130 regenerates the voxel data and the frame buffer data that are enlarged according to the enlargement ratio in order using the three-dimensional raw data of the extracted region.

例えば、図2のS14Aと同様に、一辺の長さを4倍に拡大する場合(面積としては16倍に拡大する場合)、3次元RawデータのX−Y面1024*512ピクセルからX−Y面256*128ピクセルが選択され、この画像データが拡大される。即ち、X−Y面256*128ピクセルの3次元Rawデータが、位置ずれを加味したX’−Y’面820*410ピクセルのボクセルデータに変換されることにより拡大される。そして、X’−Y’面820*410ピクセルのボクセルデータが、X’’−Y’’面410*205のフレームバッファデータに変換される。そして、X’’−Y’’面410*205ピクセルのフレームバッファデータが、X’’’−Y’’’面280*140ピクセルの表示画像に変換される。   For example, as in S14A of FIG. 2, when the length of one side is expanded 4 times (when the area is expanded 16 times), the XY plane 1024 * 512 pixels of the three-dimensional raw data is changed to XY. A face of 256 * 128 pixels is selected and this image data is enlarged. That is, the three-dimensional raw data of 256 * 128 pixels on the XY plane is enlarged by being converted into voxel data of 820 * 410 pixels on the X′-Y ′ plane taking account of positional deviation. Then, the voxel data of 820 * 410 pixels in the X′-Y ′ plane is converted into frame buffer data of the X ″ -Y ″ plane 410 * 205. Then, the frame buffer data of the X ″ ″-Y ″ plane 410 * 205 pixels is converted into a display image of the X ″ ″-Y ″ ″ plane 280 * 140 pixels.

つまり、フレームバッファデータの4倍拡大(図2の例)では、X’’−Y’’面102*51ピクセルの画像データが、X’’’−Y’’’面280*140ピクセルで表示されるため、解像度は3次元Rawデータより解像度の低いフレームバッファの解像度で規定され、解像度が低下する。これに対して、3次元Rawデータの4倍拡大(図3の例)では、X−Y面256*128ピクセルの3次元Rawデータが、フレームバッファ170でX’’−Y’’面410*205となり、X’’’−Y’’’面280*140の表示画像として表示される。このため、3次元Rawデータの4倍拡大では、全体としては解像度が低下しないこととなる。   That is, when the frame buffer data is enlarged four times (example in FIG. 2), the image data on the X ″ -Y ″ plane 102 * 51 pixels is displayed on the X ′ ″-Y ′ ″ plane 280 * 140 pixels. Therefore, the resolution is defined by the resolution of the frame buffer whose resolution is lower than that of the three-dimensional raw data, and the resolution is lowered. On the other hand, when the three-dimensional raw data is enlarged four times (example in FIG. 3), the three-dimensional raw data of 256 * 128 pixels on the XY plane is converted into the X ″ -Y ″ plane 410 * by the frame buffer 170. 205, and is displayed as a display image of the X ′ ″-Y ′ ″ plane 280 * 140. For this reason, when the four-dimensional expansion of the three-dimensional raw data is performed, the resolution as a whole does not decrease.

すなわち、フレームバッファデータを用いた拡大では、3次元Rawデータより解像度が低いフレームバッファデータX’’−Y’’面102*51ピクセルで解像度が律則(規定)され、3次元Rawデータを用いた拡大では、フレームバッファデータより解像度が高い3次元RawデータX−Y面256*128ピクセルで解像度が律則される。したがって、3次元Rawデータを用いて表示画像を拡大することで、フレームバッファデータを用いて拡大する場合と比較して拡大画像の解像度を向上させることができ、診断能を向上させることができる。   That is, in the enlargement using the frame buffer data, the resolution is regulated (specified) by the frame buffer data X ″ -Y ″ plane 102 * 51 pixels whose resolution is lower than that of the three-dimensional raw data, and the three-dimensional raw data is used. In the enlargement, the resolution is regulated by 256 * 128 pixels of the three-dimensional raw data XY plane having a higher resolution than the frame buffer data. Therefore, by enlarging the display image using the three-dimensional raw data, the resolution of the enlarged image can be improved as compared with the case of enlarging using the frame buffer data, and the diagnostic ability can be improved.

また、図4に示すように、S14Cにおいて、ボクセルデータが拡大される。なお、ボクセルデータを用いた拡大の処理内容は、拡大対象となる画像データがボクセルデータである点を除き、図3に示した3次元Rawデータを用いた拡大の処理内容と同様である。   Further, as shown in FIG. 4, the voxel data is expanded in S14C. Note that the details of the enlargement processing using the voxel data are the same as the details of the enlargement processing using the three-dimensional raw data shown in FIG. 3 except that the image data to be enlarged is voxel data.

例えば、図2のS14Aと同様に、一辺の長さを4倍に拡大する場合(面積としては16倍に拡大する場合)、ボクセルデータのX’−Y’面820*410ピクセルから、X’−Y’面205*102ピクセルが選択される。そして、X’−Y’面205*102ピクセルのボクセルデータが、X’’−Y’’面410*205のフレームバッファデータに変換されることにより拡大される。そして、X’’−Y’’面410*205ピクセルのフレームバッファデータが、X’’’−Y’’’面280*140ピクセルの表示画像に変換される。   For example, as in S14A of FIG. 2, when the length of one side is expanded 4 times (when the area is expanded 16 times), the X′-Y ′ surface 820 * 410 pixels of the voxel data is changed to X ′. -Y 'plane 205 * 102 pixels are selected. The voxel data of the X′-Y ′ plane 205 * 102 pixels is enlarged by being converted into the frame buffer data of the X ″ -Y ″ plane 410 * 205. Then, the frame buffer data of the X ″ ″-Y ″ plane 410 * 205 pixels is converted into a display image of the X ″ ″-Y ″ ″ plane 280 * 140 pixels.

つまり、フレームバッファデータの4倍拡大(図2の例)では、X’’−Y’’面102*51ピクセルの画像データが、X’’’−Y’’’面280*140ピクセルで表示されるのに対して、ボクセルデータの4倍拡大(図4の例)では、X−Y面205*102ピクセルのボクセルデータが、フレームバッファ170でX’’−Y’’面410*205となり、X’’’−Y’’’面280*140の表示画像として表示される。   That is, when the frame buffer data is enlarged four times (example in FIG. 2), the image data on the X ″ -Y ″ plane 102 * 51 pixels is displayed on the X ′ ″-Y ′ ″ plane 280 * 140 pixels. On the other hand, when the voxel data is enlarged four times (example in FIG. 4), the voxel data of the XY plane 205 * 102 pixels becomes the X ″ -Y ″ plane 410 * 205 in the frame buffer 170. , X ′ ″-Y ′ ″ plane 280 * 140.

すなわち、フレームバッファデータを用いた拡大では、X’’−Y’’面102*51ピクセルで解像度が律則(規定)され、ボクセルデータを用いた拡大では、X’−Y’面205*102ピクセルで解像度が律則される。したがって、ボクセルデータを用いて表示画像を拡大することで、フレームバッファデータを用いて拡大する場合と比較して拡大画像の解像度を向上させることができ、診断能を向上させることができる。また、ボクセルデータを用いた拡大では、3次元Rawデータを用いた拡大と比較して解像度が低下するものの、3次元Rawデータからボクセルデータへの変換処理が発生しないので、パフォーマンスの点で有利である。   That is, in the enlargement using the frame buffer data, the resolution is regulated (defined) by the X ″ -Y ″ plane 102 * 51 pixels, and in the enlargement using the voxel data, the X′-Y ′ plane 205 * 102. Resolution is governed by pixels. Therefore, by enlarging the display image using voxel data, the resolution of the enlarged image can be improved as compared with the case of enlarging using the frame buffer data, and the diagnostic ability can be improved. Also, in the expansion using voxel data, although the resolution is lower than the expansion using 3D raw data, conversion processing from 3D raw data to voxel data does not occur, which is advantageous in terms of performance. is there.

なお、図2から図4の内容はあくまで一例であり、実施形態はこれに限定されるものではない。例えば、図2から図4において説明したデータ数(ピクセル数)はあくまで一例であり、超音波診断装置1の構成に応じて適宜変更されて良い。   Note that the contents of FIGS. 2 to 4 are merely examples, and the embodiment is not limited thereto. For example, the number of data (number of pixels) described with reference to FIGS. 2 to 4 is merely an example, and may be appropriately changed according to the configuration of the ultrasonic diagnostic apparatus 1.

また、図2から図4では、説明の簡略化のため、超音波プローブ101がリニアプローブである場合を説明したが、これに限らず、コンベックスプローブやセクタプローブ等、任意の形状の超音波プローブ101が適用可能である。   Further, in FIGS. 2 to 4, the case where the ultrasonic probe 101 is a linear probe has been described for the sake of simplification. However, the present invention is not limited thereto, and an ultrasonic probe having an arbitrary shape such as a convex probe or a sector probe is used. 101 is applicable.

図5を用いて、第1の実施形態に係る超音波診断装置1の処理手順について説明する。図5は、第1の実施形態に係る超音波診断装置1の処理手順を示すフローチャートである。図5に示す処理手順は、例えば、4画面表示を開始する旨の指示を操作者から受け付けた場合に、開始される。   A processing procedure of the ultrasonic diagnostic apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus 1 according to the first embodiment. The processing procedure shown in FIG. 5 is started, for example, when an instruction to start four-screen display is received from the operator.

ステップS101において、処理回路140は、表示を開始するか否かを判定する。例えば、処理回路140は、4画面表示を開始する旨の指示を操作者から受け付けた場合に、表示を開始すると判定し(ステップS101肯定)、ステップS102以降の処理を開始する。なお、表示を開始しない場合(ステップS101否定)、ステップS102以降の処理は開始されず、各処理機能は待機状態である。   In step S101, the processing circuit 140 determines whether to start display. For example, when receiving an instruction from the operator to start four-screen display, the processing circuit 140 determines that display is to be started (Yes at Step S101), and starts processing after Step S102. If the display is not started (No at Step S101), the processing after Step S102 is not started, and each processing function is in a standby state.

ステップS101が肯定されると、ステップS102において、画像処理回路130は、3次元Rawデータからボクセルデータを生成する。例えば、画像処理回路130は、3次元Rawデータと位置情報とを画像メモリ160から読み出す。そして、画像処理回路130は、サンプル位置が必ずしも等間隔でない3次元Rawデータに対して位置情報を用いた補間処理を行って、サンプル位置が等間隔に並んだボクセルデータを生成する。   If step S101 is positive, in step S102, the image processing circuit 130 generates voxel data from the three-dimensional raw data. For example, the image processing circuit 130 reads out three-dimensional raw data and position information from the image memory 160. Then, the image processing circuit 130 performs interpolation processing using position information on the three-dimensional raw data whose sample positions are not necessarily equally spaced, and generates voxel data in which the sample positions are evenly spaced.

ステップS103において、画像処理回路130は、ボクセルデータから表示用画像データを生成する。例えば、画像処理回路130は、ボクセルデータに対してMPR処理を行ってMPR画像データを生成する。また、画像処理回路130は、ボクセルデータに対してVR処理を行ってVR画像データを生成する。   In step S103, the image processing circuit 130 generates display image data from the voxel data. For example, the image processing circuit 130 performs MPR processing on voxel data to generate MPR image data. The image processing circuit 130 performs VR processing on the voxel data to generate VR image data.

ステップS104において、画像処理回路130は、表示用画像データをディスプレイ103に表示させる。例えば、表示制御機能141は、線形補間などの補間処理を行って、フレームバッファ170に保存された表示用画像データのピクセル数をディスプレイ103のピクセル数に合わせることで、表示画像を生成する。そして、表示制御機能141は、生成した表示画像をディスプレイ103に表示させる。   In step S <b> 104, the image processing circuit 130 displays the display image data on the display 103. For example, the display control function 141 generates a display image by performing interpolation processing such as linear interpolation and matching the number of pixels of the display image data stored in the frame buffer 170 with the number of pixels of the display 103. The display control function 141 displays the generated display image on the display 103.

ステップS105において、受付機能142は、拡大操作(若しくは縮小操作)を受け付けたか否かを判定する。例えば、受付機能142は、ディスプレイ103に表示された表示画像上で、表示画像を拡大させるための拡大操作(若しくは縮小操作)を操作者から受け付けると(ステップS105肯定)、受け付けた拡大操作に関する情報を画像処理回路130に通知し、ステップS106の処理へ移行する。一方、受付機能142は、拡大操作(若しくは縮小操作)を操作者から受け付けない場合(ステップS105否定)、ステップS109の処理へ移行する。   In step S105, the reception function 142 determines whether an enlargement operation (or reduction operation) has been received. For example, when the reception function 142 receives an enlargement operation (or reduction operation) for enlarging the display image on the display image displayed on the display 103 from the operator (Yes in step S105), information regarding the accepted enlargement operation Is sent to the image processing circuit 130, and the process proceeds to step S106. On the other hand, when the reception function 142 does not receive an enlargement operation (or reduction operation) from the operator (No at Step S105), the reception function 142 proceeds to the process at Step S109.

ステップS106において、画像処理回路130は、拡大操作(若しくは縮小操作)に応じて、3次元Rawデータ又はボクセルデータを拡大若しくは縮小する。例えば、画像処理回路130は、拡大操作に関する情報が受付機能142から通知されると、通知された情報に基づいて、3次元Rawデータ又はボクセルデータを拡大する。   In step S106, the image processing circuit 130 enlarges or reduces the three-dimensional raw data or voxel data according to the enlargement operation (or reduction operation). For example, when the information regarding the enlargement operation is notified from the reception function 142, the image processing circuit 130 expands the three-dimensional raw data or the voxel data based on the notified information.

ステップS107において、画像処理回路130は、3次元Rawデータ又はボクセルデータから拡大後(若しくは縮小後)の新たな表示用画像データを再生成する。例えば、画像処理回路130は、3次元Rawデータから拡大後のボクセルデータ、フレームバッファデータを順に再生成する。若しくは、例えば、画像処理回路130は、ボクセルデータから拡大後のフレームバッファデータを再生成する。   In step S107, the image processing circuit 130 regenerates new display image data after enlargement (or after reduction) from the three-dimensional raw data or voxel data. For example, the image processing circuit 130 regenerates the voxel data after enlargement and the frame buffer data in order from the three-dimensional raw data. Alternatively, for example, the image processing circuit 130 regenerates the enlarged frame buffer data from the voxel data.

ステップS108において、表示制御機能141は、新たな表示用画像データをディスプレイ103に表示させる。例えば、表示制御機能141は、3次元Rawデータ又はボクセルデータから生成された拡大後のフレームバッファデータをディスプレイ103に表示させる。   In step S <b> 108, the display control function 141 displays new display image data on the display 103. For example, the display control function 141 displays the enlarged frame buffer data generated from the three-dimensional raw data or the voxel data on the display 103.

ステップS109において、処理回路140は、表示を終了するか否かを判定する。例えば、処理回路140は、4画面表示を終了する旨の指示を操作者から受け付けた場合に、表示を終了すると判定し(ステップS109肯定)、図5の処理手順を終了する。なお、表示を終了しない場合(ステップS109否定)、ステップS105の処理に移行する。   In step S109, the processing circuit 140 determines whether or not to end the display. For example, when receiving an instruction from the operator to end the four-screen display, the processing circuit 140 determines that the display is to be ended (Yes at Step S109), and ends the processing procedure of FIG. If the display is not terminated (No at Step S109), the process proceeds to Step S105.

このように、第1の実施形態に係る超音波診断装置1は、フレームバッファ170に保存された画像データよりも解像度が高い超音波画像データを用いて表示画像を拡大する。これにより、超音波診断装置1は、拡大画像の解像度を向上させ、診断能を向上させることができる。   As described above, the ultrasound diagnostic apparatus 1 according to the first embodiment enlarges a display image using ultrasound image data having a higher resolution than the image data stored in the frame buffer 170. Thereby, the ultrasonic diagnostic apparatus 1 can improve the resolution of the enlarged image and improve the diagnostic ability.

例えば、超音波診断装置1において、画像処理回路130は、受付機能142が拡大操作を受け付けた場合に、3次元Rawデータを用いて拡大操作を行い、拡大後の新たな表示用画像データを再生成する。これにより、超音波診断装置1は、フレームバッファデータを用いて拡大画像を生成する場合と比較して、解像度を向上させることができる。   For example, in the ultrasonic diagnostic apparatus 1, when the reception function 142 accepts an enlargement operation, the image processing circuit 130 performs an enlargement operation using the three-dimensional raw data and reproduces new enlarged display image data. To do. Thereby, the ultrasound diagnostic apparatus 1 can improve the resolution as compared with a case where an enlarged image is generated using the frame buffer data.

また、例えば、超音波診断装置1において、画像処理回路130は、受付機能142が拡大操作を受け付けた場合に、ボクセルデータを用いて拡大操作を行い、拡大後の新たな表示用画像データを再生成する。これにより、超音波診断装置1は、3次元Rawデータを用いた拡大と比較して解像度が低下するものの、フレームバッファデータを用いて拡大画像を生成する場合と比較して高解像度の拡大画像を、早い処理時間(応答時間)で提供することができる。   For example, in the ultrasound diagnostic apparatus 1, when the reception function 142 accepts an enlargement operation, the image processing circuit 130 performs an enlargement operation using voxel data and reproduces new enlarged display image data. To do. As a result, the ultrasonic diagnostic apparatus 1 reduces the resolution as compared with the enlargement using the three-dimensional raw data, but the high-resolution enlarged image as compared with the case where the enlarged image is generated using the frame buffer data. , Can be provided with fast processing time (response time).

なお、第1の実施形態では、超音波画像データとして、3次元Rawデータ又はボクセルデータを用いて拡大を行う場合を説明したが、3次元Rawデータ及びボクセルデータのいずれを用いて拡大を行うかについては、適宜設定可能である。例えば、3次元Rawデータ及びボクセルデータのいずれを用いて拡大を行うかが予め設定されていても良いし、表示対象となる撮像部位に応じて設定されていても良い。また、3次元Rawデータ及びボクセルデータのいずれを用いるかを毎回操作者に確認する形態であってもよい。   In the first embodiment, the case where enlargement is performed using three-dimensional raw data or voxel data as ultrasonic image data has been described. Which of three-dimensional raw data and voxel data is used for enlargement? Can be appropriately set. For example, it may be set in advance which of the three-dimensional raw data and the voxel data is used for the enlargement, or may be set according to the imaging part to be displayed. Moreover, the form which confirms to an operator every time which 3D Raw data and voxel data are used may be sufficient.

(第1の実施形態の変形例)
上記の実施形態にて説明した例では、3次元Rawデータ又はボクセルデータから再び画像生成処理を行うこととなるため、フレームバッファデータを用いて拡大する場合と比較して処理時間がかかることとなる。そこで、第1の実施形態の変形例では、この処理時間による影響を低減し、パフォーマンスを改善するための処理を説明する。
(Modification of the first embodiment)
In the example described in the above embodiment, since the image generation process is performed again from the three-dimensional raw data or voxel data, it takes a longer processing time than the case of enlarging using the frame buffer data. . Therefore, in the modification of the first embodiment, processing for reducing the influence of the processing time and improving performance will be described.

図6及び図7を用いて、第1の実施形態の変形例に係る超音波診断装置1の処理を説明する。図6及び図7は、第1の実施形態の変形例に係る超音波診断装置1の処理を説明するための図である。なお、図6及び図7では、4画面表示が行われる場合を説明する。また、図6及び図7では、連続的に拡大若しくは縮小を行う場合を説明する。   Processing of the ultrasonic diagnostic apparatus 1 according to the modification of the first embodiment will be described with reference to FIGS. 6 and 7. 6 and 7 are diagrams for explaining the processing of the ultrasonic diagnostic apparatus 1 according to the modification of the first embodiment. 6 and 7, a case where four screen display is performed will be described. 6 and 7, a case where enlargement or reduction is continuously performed will be described.

図6に示すように、初期状態では、A面、B面、及びC面のMPR画像と、VR画像とを含む表示画像10が表示される(S20)。この表示画像10には、拡大中心としてマーカ11,12,13が表示される。マーカ11は、A面のMPR画像における拡大中心を示し、マーカ12は、B面のMPR画像における拡大中心を示し、マーカ13は、C面のMPR画像における拡大中心を示す。   As shown in FIG. 6, in the initial state, the display image 10 including the MPR images of the A surface, the B surface, and the C surface and the VR image is displayed (S20). In this display image 10, markers 11, 12, and 13 are displayed as the enlargement centers. The marker 11 indicates the expansion center in the A-plane MPR image, the marker 12 indicates the expansion center in the B-plane MPR image, and the marker 13 indicates the expansion center in the C-plane MPR image.

そして、操作者は、例えば、トラックボール102Aを回転させることで、各マーカ11,12,13を関心領域の中心位置に移動させる(S21)。   Then, for example, the operator rotates the trackball 102A to move the markers 11, 12, and 13 to the center position of the region of interest (S21).

そして、操作者は、ロータリースイッチ(拡大ボタン)102Bを回転させることで、表示画像の拡大操作を行う。この場合、表示画像20に含まれるA面、B面、及びC面のMPR画像は、各マーカ11,12,13の位置を中心として拡大される。   Then, the operator performs an enlargement operation of the display image by rotating the rotary switch (enlargement button) 102B. In this case, the A-plane, B-plane, and C-plane MPR images included in the display image 20 are enlarged around the positions of the markers 11, 12, and 13.

ここで、ロータリースイッチ102Bの回転操作により拡大している間は、フレームバッファ170に保存されたフレームバッファデータを用いて拡大する。例えば、表示制御機能141は、ロータリースイッチ102Bの回転により指定された拡大率でフレームバッファデータを拡大する。そして、表示制御機能141は、拡大後のフレームバッファデータから表示画像20を生成し、ディスプレイ103に表示させる(S22)。操作者は、この操作により所望の拡大率(関心領域の大きさ)に調整する。   Here, while enlarging by the rotation operation of the rotary switch 102B, enlargement is performed using the frame buffer data stored in the frame buffer 170. For example, the display control function 141 enlarges the frame buffer data at an enlargement ratio designated by the rotation of the rotary switch 102B. Then, the display control function 141 generates the display image 20 from the enlarged frame buffer data and displays it on the display 103 (S22). The operator adjusts to a desired enlargement ratio (size of the region of interest) by this operation.

そして、操作者は、所望の拡大率になったと判断すると、ロータリースイッチ102Bを押下する。受付機能142は、ロータリースイッチ102Bの押下を受け付けると、操作者による拡大操作に関する情報を画像処理回路130に通知する。画像処理回路130は、拡大操作に関する情報が受付機能142から通知されると、通知された情報に基づいて、3次元Rawデータ又はボクセルデータを拡大する。即ち、画像処理回路130は、3次元Rawデータ又はボクセルデータから拡大後の新たな表示用画像データを再生成する。そして、表示制御機能141は、再生成された新たな表示用画像データから表示画像30を生成し、ディスプレイ103に表示させる(S23)。   When the operator determines that the desired enlargement ratio has been achieved, the operator presses the rotary switch 102B. When the reception function 142 receives the pressing of the rotary switch 102B, the reception function 142 notifies the image processing circuit 130 of information related to the enlargement operation by the operator. When the information regarding the enlargement operation is notified from the reception function 142, the image processing circuit 130 expands the three-dimensional raw data or the voxel data based on the notified information. That is, the image processing circuit 130 regenerates new enlarged display image data from the three-dimensional raw data or voxel data. Then, the display control function 141 generates the display image 30 from the regenerated new display image data and displays it on the display 103 (S23).

このように、表示制御機能141は、受付機能142が拡大操作を受け付けた場合に、表示用画像データを拡大操作に応じて拡大させてディスプレイ103に表示させる。そして、画像処理回路130は、拡大操作が完了した後に、超音波画像データを拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する。例えば、受付機能142は、更に、拡大操作を確定するための確定操作を操作者から受け付ける。そして、画像処理回路130は、受付機能142が確定操作を受け付けた場合に、超音波画像データを拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する。これにより、操作者が拡大率を調整している場合には、応答時間が早いフレームバッファデータを用いて拡大を行うことができるとともに、拡大率が決定された場合には、解像度が向上した拡大画像を表示することが可能となる。   As described above, when the reception function 142 receives the enlargement operation, the display control function 141 enlarges the display image data in accordance with the enlargement operation and causes the display 103 to display the display image data. Then, after the enlargement operation is completed, the image processing circuit 130 enlarges the ultrasound image data in accordance with the enlargement operation, and regenerates new enlarged display image data. For example, the reception function 142 further receives a confirmation operation for confirming the enlargement operation from the operator. Then, when the reception function 142 receives the confirmation operation, the image processing circuit 130 enlarges the ultrasound image data in accordance with the enlargement operation, and regenerates new enlarged display image data. As a result, when the operator is adjusting the enlargement ratio, enlargement can be performed using frame buffer data with a quick response time, and when the enlargement ratio is determined, the resolution is improved. An image can be displayed.

次に、図7を用いて、図6のS23において拡大された表示画像30に対する縮小操作が行われる場合を説明する。図7に示すように、操作者は、例えば、トラックボール102Aを回転させることで、各マーカ11,12,13を関心領域の中心位置に移動させる(S31)。   Next, a case where a reduction operation is performed on the display image 30 enlarged in S23 of FIG. 6 will be described with reference to FIG. As shown in FIG. 7, the operator moves each marker 11, 12, 13 to the center position of the region of interest by rotating the trackball 102A, for example (S31).

そして、操作者は、ロータリースイッチ(拡大ボタン)102Bを逆回転させることで、表示画像30の縮小操作を行う(S32)。この場合、表示画像30に含まれるA面、B面、及びC面のMPR画像は、各マーカ11,12,13の位置を中心として縮小される。   Then, the operator performs a reduction operation on the display image 30 by rotating the rotary switch (enlargement button) 102B in the reverse direction (S32). In this case, the MPR images of the A plane, the B plane, and the C plane included in the display image 30 are reduced around the positions of the markers 11, 12, and 13.

ここで、ロータリースイッチ102Bの回転操作により縮小している間は、フレームバッファ170に保存されたフレームバッファデータを用いて縮小する。例えば、表示制御機能141は、ロータリースイッチ102Bの回転により指定された拡大率でフレームバッファデータを縮小する。そして、表示制御機能141は、縮小後のフレームバッファデータから表示画像40を生成し、ディスプレイ103に表示させる(S32)。この場合、フレームバッファ170には、表示画像30の関心領域に対応する領域に含まれる画像データが保存されており、関心領域の外側の画像データは保存されていない。このため、表示画像40の領域全体には画像データが表示されず、フレームバッファ170に保存された一部の領域の画像データが表示される。なお、操作者は、この操作により所望の拡大率に調整する。   Here, while the reduction is performed by the rotation operation of the rotary switch 102B, the reduction is performed using the frame buffer data stored in the frame buffer 170. For example, the display control function 141 reduces the frame buffer data at an enlargement rate designated by the rotation of the rotary switch 102B. Then, the display control function 141 generates the display image 40 from the reduced frame buffer data and displays it on the display 103 (S32). In this case, the frame buffer 170 stores image data included in a region corresponding to the region of interest of the display image 30 and does not store image data outside the region of interest. For this reason, image data is not displayed in the entire area of the display image 40, and image data of a part of the area stored in the frame buffer 170 is displayed. The operator adjusts to a desired enlargement ratio by this operation.

そして、操作者は、所望の拡大率になったと判断すると、ロータリースイッチ102Bを押下する。受付機能142は、ロータリースイッチ102Bの押下を受け付けると、操作者による縮小操作に関する情報を画像処理回路130に通知する。画像処理回路130は、縮小操作に関する情報が受付機能142から通知されると、通知された情報に基づいて、3次元Rawデータ又はボクセルデータを拡大する。即ち、画像処理回路130は、3次元Rawデータ又はボクセルデータから拡大後の新たな表示用画像データを再生成する。そして、表示制御機能141は、再生成された新たな表示用画像データから表示画像50を生成し、ディスプレイ103に表示させる(S33)。   When the operator determines that the desired enlargement ratio has been achieved, the operator presses the rotary switch 102B. When the reception function 142 receives the pressing of the rotary switch 102B, the reception function 142 notifies the image processing circuit 130 of information related to the reduction operation by the operator. When the information regarding the reduction operation is notified from the reception function 142, the image processing circuit 130 expands the three-dimensional raw data or the voxel data based on the notified information. That is, the image processing circuit 130 regenerates new enlarged display image data from the three-dimensional raw data or voxel data. Then, the display control function 141 generates a display image 50 from the regenerated new display image data and displays it on the display 103 (S33).

このように、受付機能142は、ディスプレイ103に表示された表示画像を縮小させるための縮小操作を操作者から受け付ける。そして、表示制御機能141は、受付機能142が縮小操作を受け付けた場合に、表示用画像データを縮小操作に応じて縮小させ、縮小させた縮小画像データをディスプレイ103に表示させる。そして、画像処理回路130は、縮小操作が完了した後に、超音波画像データを縮小操作に応じて縮小させ、縮小後の新たな縮小画像データを再生成する。そして、表示制御機能141は、再生成された新たな縮小画像データをディスプレイ103に表示させる。これにより、操作者が拡大率を調整している場合には、応答時間が早いフレームバッファデータを用いて縮小を行うことができるとともに、拡大率が決定された場合には、表示領域が広がった縮小画像を表示することができる。   As described above, the reception function 142 receives a reduction operation for reducing the display image displayed on the display 103 from the operator. Then, when the reception function 142 accepts a reduction operation, the display control function 141 reduces the display image data according to the reduction operation, and displays the reduced image data on the display 103. Then, after the reduction operation is completed, the image processing circuit 130 reduces the ultrasonic image data according to the reduction operation, and regenerates new reduced image data after the reduction. Then, the display control function 141 causes the display 103 to display the regenerated new reduced image data. As a result, when the operator is adjusting the enlargement ratio, it is possible to perform reduction using the frame buffer data with a quick response time, and when the enlargement ratio is determined, the display area is expanded. A reduced image can be displayed.

なお、図6及び図7の内容はあくまで一例であり、図示の内容に限定されるものではない。例えば、図6及び図7では、拡大操作を確定するための確定操作として、ロータリースイッチ102Bの押下を受け付ける場合を説明したが、実施形態はこれに限定されるものではない。例えば、受付機能142は、ロータリースイッチ102Bの回転による拡大操作を受け付け後、一定時間操作が行われなかった場合に、拡大操作が完了したものと判断して拡大を行っても良い。すなわち、画像処理回路130は、受付機能142が拡大操作を受け付け後、拡大操作が一定時間行われなかった場合に、超音波画像データを拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成してもよい。   6 and 7 are merely examples, and are not limited to the illustrated contents. For example, in FIGS. 6 and 7, the case where the pressing of the rotary switch 102 </ b> B is accepted as the confirmation operation for confirming the enlargement operation has been described, but the embodiment is not limited thereto. For example, the reception function 142 may determine that the enlargement operation has been completed and perform enlargement when the operation has not been performed for a certain period of time after receiving the enlargement operation by rotating the rotary switch 102B. That is, the image processing circuit 130 enlarges the ultrasound image data according to the enlargement operation when the enlargement operation is not performed for a certain period of time after the reception function 142 accepts the enlargement operation, and a new display for enlargement is displayed. Image data may be regenerated.

また、上述した実施形態では、拡大操作として、拡大される領域の中心座標及び拡大率を指定する場合を説明したが、実施形態はこれに限定されるものではない。例えば、A面、B面、C面のMPR画像上に関心領域を設定し、スイッチを押下することにより関心領域の拡大を行うこともできる。すなわち、受付機能142は、拡大操作として、ディスプレイ103に表示された表示用画像データ上に関心領域を設定する設定操作を操作者から受け付ける。そして、画像処理回路130は、受付機能142が設定操作を受け付けた場合に、表示用画像データに対する関心領域の大きさに応じて、関心領域に対応する超音波画像データの領域を拡大させ、拡大後の超音波画像データから新たな表示用画像データを再生成する。   In the above-described embodiment, the case where the center coordinates and the enlargement ratio of the area to be enlarged are designated as the enlargement operation has been described. However, the embodiment is not limited to this. For example, the region of interest can be enlarged by setting a region of interest on the MPR images of the A, B, and C surfaces and pressing a switch. That is, the reception function 142 receives a setting operation for setting a region of interest on display image data displayed on the display 103 as an enlargement operation from the operator. Then, when the reception function 142 receives the setting operation, the image processing circuit 130 expands the area of the ultrasound image data corresponding to the region of interest according to the size of the region of interest with respect to the display image data. New display image data is regenerated from the later ultrasonic image data.

また、上述した実施形態において、更に、初期化(イニシャライズ)のための指示を受け付けることも可能である。例えば、操作者は、上述した実施形態により任意の拡大率に拡大若しくは縮小された表示画像がディスプレイ103に表示される場合に、初期の倍率で画像を閲覧したいと考える場合がある。この場合に、操作者が初期化のための指示(初期化ボタンの押下など)を行うと、受付機能142は、この指示を画像処理回路130へ通知する。そして、画像処理回路130は、通知された指示に従って、初期状態の画像データを再生成する。例えば、画像処理回路130は、元の3次元Rawデータを用いて、3次元Rawデータ全体が描出される倍率で、ボクセルデータ及びフレームバッファデータを順に再生成する。   In the embodiment described above, it is also possible to accept an instruction for initialization. For example, when the display image enlarged or reduced to an arbitrary enlargement ratio according to the above-described embodiment is displayed on the display 103, the operator may want to view the image at an initial magnification. In this case, when the operator gives an instruction for initialization (such as pressing an initialization button), the reception function 142 notifies the image processing circuit 130 of this instruction. Then, the image processing circuit 130 regenerates the initial image data in accordance with the notified instruction. For example, the image processing circuit 130 regenerates the voxel data and the frame buffer data in order using the original three-dimensional raw data at a magnification at which the entire three-dimensional raw data is rendered.

(第2の実施形態)
第1の実施形態では、3次元Rawデータの収集方法としてSensor3D法が適用可能な場合の構成を例示したが、必ずしもこれに限定されるものではない。例えば、Sensor3D法が適用されず、Smart3D法、Mecha4D法、及び2次元アレー法のいずれかが適用される場合には、簡易な構成で実現可能である。
(Second Embodiment)
In the first embodiment, the configuration in the case where the Sensor3D method is applicable as a three-dimensional raw data collection method is illustrated, but the configuration is not necessarily limited thereto. For example, when the Sensor3D method is not applied and any of the Smart3D method, the Mecha4D method, and the two-dimensional array method is applied, the sensor 3D method can be realized with a simple configuration.

図8を用いて、第2の実施形態に係る超音波診断装置1による拡大機能について説明する。図8は、第2の実施形態に係る超音波診断装置1による拡大機能について説明するための図である。   With reference to FIG. 8, an enlargement function by the ultrasonic diagnostic apparatus 1 according to the second embodiment will be described. FIG. 8 is a diagram for explaining an enlargement function by the ultrasonic diagnostic apparatus 1 according to the second embodiment.

図8に示すように、例えば、Smart3D法により3次元Rawデータが収集される(S40)。例えば、信号処理回路120は、複数フレームの2次元のBモードデータがエレベーション方向に並んだ画像データを、3次元Rawデータとして生成する。この場合、画像処理回路130は、複数フレームのBモードデータにおけるサンプル位置が等間隔に並んでいると仮定して、3次元Rawデータを処理する。   As shown in FIG. 8, for example, three-dimensional raw data is collected by the Smart 3D method (S40). For example, the signal processing circuit 120 generates image data in which a plurality of frames of two-dimensional B-mode data are arranged in the elevation direction as three-dimensional raw data. In this case, the image processing circuit 130 processes the three-dimensional raw data on the assumption that the sample positions in the B-mode data of a plurality of frames are arranged at equal intervals.

つまり、第2の実施形態で用いられる3次元Rawデータは、サンプル位置が等間隔に並んでいるものとして扱われる。このため、画像処理回路130は、第1の実施形態にて説明したボクセルデータを生成することなく、3次元RawデータからMPR画像データ及びVR画像データを生成することができる。そして、画像処理回路130は、生成したMPR画像データ及びVR画像データをフレームバッファ170に格納し(S41A,S41B)、表示画像を表示する(S42)。   That is, the three-dimensional raw data used in the second embodiment is handled as sample positions arranged at equal intervals. For this reason, the image processing circuit 130 can generate MPR image data and VR image data from the three-dimensional raw data without generating the voxel data described in the first embodiment. Then, the image processing circuit 130 stores the generated MPR image data and VR image data in the frame buffer 170 (S41A, S41B), and displays a display image (S42).

したがって、第2の実施形態において拡大操作が行われた場合には、画像処理回路130は、3次元Rawデータの拡大領域を選択する(S43)。そして、画像処理回路130は、3次元Rawデータから拡大後のMPR画像データ及びVR画像データを再生成し、再生成されたMPR画像データ及びVR画像データをディスプレイ103に表示させる。   Therefore, when an enlargement operation is performed in the second embodiment, the image processing circuit 130 selects an enlargement area of the three-dimensional raw data (S43). Then, the image processing circuit 130 regenerates the enlarged MPR image data and VR image data from the three-dimensional raw data, and causes the display 103 to display the regenerated MPR image data and VR image data.

これによれば、第2の実施形態に係る超音波診断装置1は、第1の実施形態に係る構成と比較して簡易な構成で実現可能でパフォーマンスも向上する。なお、図8の例では、Smart3D法が適用される場合を説明したが、Mecha4D法、若しくは2次元アレー法が適用される場合にも同様の構成により拡大機能が実現可能である。   According to this, the ultrasonic diagnostic apparatus 1 according to the second embodiment can be realized with a simple configuration as compared with the configuration according to the first embodiment, and the performance is also improved. In the example of FIG. 8, the case where the Smart 3D method is applied has been described, but the enlargement function can be realized with the same configuration even when the Mecha 4D method or the two-dimensional array method is applied.

(その他の実施形態)
上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(Other embodiments)
In addition to the above-described embodiment, various other forms may be implemented.

また、上記説明において用いた「プロセッサ(回路)」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路150に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路150にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、各図における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   Further, the term “processor (circuit)” used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), or a programmable. Means circuits such as logic devices (for example, Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)) To do. The processor implements a function by reading and executing a program stored in the storage circuit 150. Instead of storing the program in the storage circuit 150, the program may be directly incorporated into the processor circuit. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize the function. Good. Furthermore, a plurality of components in each figure may be integrated into one processor to realize the function.

また、上述した実施形態において、画像処理回路130は、画像処理部の一例である。また、表示制御機能141は、表示制御部の一例である。また、受付機能142は、受付部の一例である。画像処理部、表示制御部、及び受付部の各構成は、ソフトウェアとして実現されても良いし、ハードウェアとして実現されても良いし、或いはソフトウェア及びハードウェアの混合として実現されても良い。   In the above-described embodiment, the image processing circuit 130 is an example of an image processing unit. The display control function 141 is an example of a display control unit. The reception function 142 is an example of a reception unit. Each configuration of the image processing unit, the display control unit, and the reception unit may be realized as software, may be realized as hardware, or may be realized as a mixture of software and hardware.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上述した実施形態において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the above-described embodiments, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed All or a part of the above can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、上述した実施形態で説明した画像処理方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理方法は、インターネット等のネットワークを介して配布することができる。また、この画像処理方法は、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The image processing method described in the above-described embodiment can be realized by executing a prepared image processing program on a computer such as a personal computer or a workstation. This image processing method can be distributed via a network such as the Internet. The image processing method can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and being read from the recording medium by the computer. .

以上説明した少なくともひとつの実施形態によれば、拡大画像の解像度を向上させることができる。   According to at least one embodiment described above, the resolution of the enlarged image can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 超音波診断装置
130 画像処理回路
140 処理回路
141 表示制御機能
142 受付機能
DESCRIPTION OF SYMBOLS 1 Ultrasonic diagnostic apparatus 130 Image processing circuit 140 Processing circuit 141 Display control function 142 Reception function

Claims (11)

超音波画像データから表示用画像データを生成する画像生成部と、
前記表示用画像データを表示部に表示させる表示制御部と、
前記表示部に表示された前記表示用画像データに対する操作を操作者から受け付ける受付部と
を備え、
前記画像生成部は、前記表示用画像データを拡大させるための拡大操作を前記受付部が受け付けた場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する、
超音波診断装置。
An image generation unit that generates display image data from ultrasonic image data;
A display control unit for displaying the display image data on a display unit;
A reception unit that receives an operation on the display image data displayed on the display unit from an operator;
When the receiving unit receives an enlargement operation for enlarging the display image data, the image generation unit enlarges the ultrasonic image data according to the enlargement operation, and performs a new display for enlargement Regenerate image data,
Ultrasound diagnostic device.
前記超音波画像データは、複数の走査平面に対応する画像データを含む3次元Rawデータであり、
前記画像生成部は、前記受付部が前記拡大操作を受け付けた場合に、前記3次元Rawデータを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する、
請求項1に記載の超音波診断装置。
The ultrasonic image data is three-dimensional raw data including image data corresponding to a plurality of scanning planes,
The image generation unit enlarges the three-dimensional raw data according to the enlargement operation when the accepting unit accepts the enlargement operation, and regenerates new display image data after enlargement.
The ultrasonic diagnostic apparatus according to claim 1.
前記超音波画像データは、複数の走査平面に対応する画像データを含む3次元Rawデータが、予め規定されたデータ空間に組み込まれたボクセルデータであり、
前記画像生成部は、前記受付部が前記拡大操作を受け付けた場合に、前記ボクセルデータを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する、
請求項1に記載の超音波診断装置。
The ultrasonic image data is voxel data in which three-dimensional raw data including image data corresponding to a plurality of scanning planes is incorporated in a predetermined data space,
The image generation unit enlarges the voxel data according to the enlargement operation when the accepting unit accepts the enlargement operation, and regenerates new display image data after enlargement.
The ultrasonic diagnostic apparatus according to claim 1.
前記表示制御部は、前記受付部が前記拡大操作を受け付けた場合に、前記表示用画像データを前記拡大操作に応じて拡大させて前記表示部に表示させ、
前記画像生成部は、前記拡大操作が完了した後に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の前記新たな表示用画像データを再生成する、
請求項1〜3のいずれか一つに記載の超音波診断装置。
The display control unit, when the reception unit receives the enlargement operation, causes the display image data to be enlarged according to the enlargement operation and displayed on the display unit,
The image generation unit enlarges the ultrasonic image data according to the enlargement operation after the enlargement operation is completed, and regenerates the new display image data after enlargement.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-3.
前記受付部は、更に、前記拡大操作を確定するための確定操作を操作者から受け付け、
前記画像生成部は、前記受付部が前記確定操作を受け付けた場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の前記新たな表示用画像データを再生成する、
請求項4に記載の超音波診断装置。
The reception unit further receives a confirmation operation for confirming the enlargement operation from an operator,
The image generation unit enlarges the ultrasonic image data according to the enlargement operation when the accepting unit accepts the confirmation operation, and regenerates the new display image data after enlargement.
The ultrasonic diagnostic apparatus according to claim 4.
前記画像生成部は、前記受付部が前記拡大操作を受け付けた後、前記拡大操作が一定時間行われなかった場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の前記新たな表示用画像データを再生成する、
請求項4に記載の超音波診断装置。
The image generation unit enlarges the ultrasonic image data according to the enlargement operation when the enlargement operation is not performed for a certain period of time after the accepting unit accepts the enlargement operation, and Regenerate new image data for display,
The ultrasonic diagnostic apparatus according to claim 4.
前記受付部は、前記拡大操作として、前記表示部に表示された前記表示用画像データ上に関心領域を設定する設定操作を操作者から受け付け、
前記画像生成部は、前記受付部が前記設定操作を受け付けた場合に、前記表示用画像データに対する前記関心領域の大きさに応じて、前記関心領域に対応する前記超音波画像データの領域を拡大させ、拡大後の前記新たな表示用画像データを再生成する、
請求項1〜6のいずれか一つに記載の超音波診断装置。
The reception unit receives a setting operation for setting a region of interest on the display image data displayed on the display unit from the operator as the enlargement operation,
The image generation unit enlarges the region of the ultrasound image data corresponding to the region of interest according to the size of the region of interest with respect to the display image data when the receiving unit receives the setting operation. Regenerating the new display image data after enlargement,
The ultrasonic diagnostic apparatus as described in any one of Claims 1-6.
前記受付部は、前記表示部に表示された前記表示用画像データを縮小させるための縮小操作を操作者から受け付け、
前記表示制御部は、前記受付部が前記縮小操作を受け付けた場合に、前記表示用画像データを前記縮小操作に応じて縮小させ、縮小させた縮小画像データを前記表示部に表示させ、
前記画像生成部は、前記縮小操作が完了した後に、前記超音波画像データを前記縮小操作に応じて縮小させ、縮小後の新たな縮小画像データを再生成し、
前記表示制御部は、再生成された前記新たな縮小画像データを前記表示部に表示させる、
請求項1〜7のいずれか一つに記載の超音波診断装置。
The receiving unit receives a reduction operation for reducing the display image data displayed on the display unit from an operator;
The display control unit reduces the display image data according to the reduction operation when the reception unit receives the reduction operation, and causes the display unit to display the reduced image data reduced.
The image generation unit, after the reduction operation is completed, reduces the ultrasound image data according to the reduction operation, regenerates new reduced image data after reduction,
The display control unit causes the display unit to display the regenerated new reduced image data.
The ultrasonic diagnostic apparatus as described in any one of Claims 1-7.
前記超音波画像データは、複数の走査平面に対応するRawデータと、前記複数の走査平面に対応する各Rawデータの収集時における位置情報とを含む3次元Rawデータであり、
前記画像生成部は、前記位置情報に基づいて、前記複数の走査平面に対応する各Rawデータを補間して予め規定されたデータ空間に組み込むことで、ボクセルデータを生成する、
請求項1〜8のいずれか一つに記載の超音波診断装置。
The ultrasonic image data is three-dimensional raw data including raw data corresponding to a plurality of scanning planes and position information at the time of collecting each raw data corresponding to the plurality of scanning planes,
The image generation unit generates voxel data by interpolating each Raw data corresponding to the plurality of scanning planes into a predetermined data space based on the position information,
The ultrasonic diagnostic apparatus as described in any one of Claims 1-8.
超音波画像データから表示用画像データを生成する画像生成部と、
前記表示用画像データを表示部に表示させる表示制御部と、
前記表示部に表示された前記表示用画像データに対する操作を操作者から受け付ける受付部と
を備え、
前記画像生成部は、前記表示用画像データを拡大させるための拡大操作を前記受付部が受け付けた場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する、
画像処理装置。
An image generation unit that generates display image data from ultrasonic image data;
A display control unit for displaying the display image data on a display unit;
A reception unit that receives an operation on the display image data displayed on the display unit from an operator;
When the receiving unit receives an enlargement operation for enlarging the display image data, the image generation unit enlarges the ultrasonic image data according to the enlargement operation, and performs a new display for enlargement Regenerate image data,
Image processing device.
超音波画像データから表示用画像データを生成し、
前記表示用画像データを表示部に表示させ、
前記表示部に表示された前記表示用画像データに対する操作を操作者から受け付け、
前記表示用画像データを拡大させるための拡大操作を受け付けた場合に、前記超音波画像データを前記拡大操作に応じて拡大させ、拡大後の新たな表示用画像データを再生成する、
各処理をコンピュータに実行させる、画像処理プログラム。
Generate image data for display from ultrasound image data,
Displaying the display image data on a display unit;
Receiving an operation on the display image data displayed on the display unit from an operator;
When an enlargement operation for enlarging the display image data is accepted, the ultrasonic image data is enlarged according to the enlargement operation, and new enlarged display image data is regenerated.
An image processing program that causes a computer to execute each process.
JP2017138023A 2017-07-14 2017-07-14 Ultrasound diagnostic equipment, image processing equipment and image processing program Active JP6971673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017138023A JP6971673B2 (en) 2017-07-14 2017-07-14 Ultrasound diagnostic equipment, image processing equipment and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017138023A JP6971673B2 (en) 2017-07-14 2017-07-14 Ultrasound diagnostic equipment, image processing equipment and image processing program

Publications (2)

Publication Number Publication Date
JP2019017655A true JP2019017655A (en) 2019-02-07
JP6971673B2 JP6971673B2 (en) 2021-11-24

Family

ID=65352836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017138023A Active JP6971673B2 (en) 2017-07-14 2017-07-14 Ultrasound diagnostic equipment, image processing equipment and image processing program

Country Status (1)

Country Link
JP (1) JP6971673B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0767874A (en) * 1993-08-31 1995-03-14 Toshiba Corp Coordinate input device and ultrasonic diagnostic device using this device
JPH10146337A (en) * 1996-11-19 1998-06-02 Hitachi Medical Corp Ultrasonic probe and ultrasonic diagnostic device using it
JP2007530123A (en) * 2004-03-26 2007-11-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Control by unskilled MR device
WO2011114830A1 (en) * 2010-03-19 2011-09-22 株式会社 日立メディコ Ultrasound diagnostic device and ultrasound image display method
JP2014239841A (en) * 2013-06-12 2014-12-25 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and control program
JP2016129669A (en) * 2015-01-07 2016-07-21 キヤノン株式会社 Photoacoustic apparatus, image display method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0767874A (en) * 1993-08-31 1995-03-14 Toshiba Corp Coordinate input device and ultrasonic diagnostic device using this device
JPH10146337A (en) * 1996-11-19 1998-06-02 Hitachi Medical Corp Ultrasonic probe and ultrasonic diagnostic device using it
JP2007530123A (en) * 2004-03-26 2007-11-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Control by unskilled MR device
WO2011114830A1 (en) * 2010-03-19 2011-09-22 株式会社 日立メディコ Ultrasound diagnostic device and ultrasound image display method
JP2014239841A (en) * 2013-06-12 2014-12-25 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and control program
JP2016129669A (en) * 2015-01-07 2016-07-21 キヤノン株式会社 Photoacoustic apparatus, image display method, and program

Also Published As

Publication number Publication date
JP6971673B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP5366385B2 (en) Ultrasonic diagnostic apparatus and ultrasonic scanning program
WO2010125715A1 (en) Image diagnosis device and image diagnosis method
JP6073563B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
US9427212B2 (en) Ultrasonic diagnostic apparatus
JP2009153918A (en) Ultrasonic diagnostic apparatus, ultrasonic image processor, ultrasonic image processing program
JP2015061659A (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing program
JP5984260B2 (en) Image processing apparatus and medical image diagnostic apparatus
US10722217B2 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
JPH11113902A (en) Ultrasonograph and ultrasonography
JP2006204621A (en) Ultrasonograph and control program of ultrasonograph
JP6971673B2 (en) Ultrasound diagnostic equipment, image processing equipment and image processing program
JP2006212054A (en) Ultrasonic observation apparatus, and image processing apparatus and program
JP2017213357A (en) Ultrasonic diagnostic apparatus and medical image processor
JP6878037B2 (en) Ultrasound diagnostic equipment and medical image processing equipment
JP4987503B2 (en) Ultrasonic diagnostic apparatus, image data display apparatus, and image data display control program
JP5072585B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP4693467B2 (en) Ultrasonic diagnostic apparatus and image processing method
JP2006218089A (en) Ultrasonic diagnostic apparatus
JP2020092936A (en) Ultrasonic diagnostic device and ultrasonic diagnostic program
JP7350490B2 (en) Ultrasonic probe and ultrasound diagnostic equipment
JP2010011904A (en) Ultrasonic diagnostic apparatus, medical image processor and medical image processing program
JP2010094237A (en) Ultrasonic diagnostic apparatus
JP2020120705A (en) Ultrasound diagnostic device, medical image processing device, and ultrasound image display program
JP2021132683A (en) Ultrasonic diagnostic device, ultrasonic probe and control program
JP2021186676A (en) Ultrasonic diagnostic apparatus and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6971673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150