JP5996268B2 - Ultrasonic diagnostic apparatus, image processing apparatus, and program - Google Patents

Ultrasonic diagnostic apparatus, image processing apparatus, and program Download PDF

Info

Publication number
JP5996268B2
JP5996268B2 JP2012117819A JP2012117819A JP5996268B2 JP 5996268 B2 JP5996268 B2 JP 5996268B2 JP 2012117819 A JP2012117819 A JP 2012117819A JP 2012117819 A JP2012117819 A JP 2012117819A JP 5996268 B2 JP5996268 B2 JP 5996268B2
Authority
JP
Japan
Prior art keywords
image data
medical
voxel
processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012117819A
Other languages
Japanese (ja)
Other versions
JP2013244047A (en
Inventor
吉田 哲也
哲也 吉田
哲也 川岸
哲也 川岸
田中 豪
豪 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2012117819A priority Critical patent/JP5996268B2/en
Publication of JP2013244047A publication Critical patent/JP2013244047A/en
Application granted granted Critical
Publication of JP5996268B2 publication Critical patent/JP5996268B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、医用三次元画像データから医用二次元画像データを生成する超音波診断装置、画像処理装置、及びプログラムに関する。   Embodiments described herein relate generally to an ultrasonic diagnostic apparatus, an image processing apparatus, and a program that generate medical two-dimensional image data from medical three-dimensional image data.

近年、医用画像取得装置の分野では、例えばCT装置やMRI装置や超音波診断装置など様々なモダリティによって三次元画像データを取得することが可能となった。超音波診断装置は、例えば胎児を三次元的に走査し、胎児の体や顔等を立体的に観察及び診断すること等に利用されている。   In recent years, in the field of medical image acquisition apparatuses, it has become possible to acquire three-dimensional image data using various modalities such as CT apparatuses, MRI apparatuses, and ultrasonic diagnostic apparatuses. The ultrasonic diagnostic apparatus is used for, for example, scanning a fetus three-dimensionally and observing and diagnosing the fetus's body and face in three dimensions.

ところで、スクリーンやプリンタ等の典型的な表示装置に、そのような三次元画像データを表示させる際には、三次元画像データを二次元画像として表現することになる。このような方法及び装置は数多く提案されている(例えば特許文献1参照)。   By the way, when displaying such 3D image data on a typical display device such as a screen or a printer, the 3D image data is expressed as a 2D image. Many such methods and apparatuses have been proposed (see, for example, Patent Document 1).

特表2010−519627号公報JP 2010-519627 A

ところで、三次元画像データを二次元画像として表現する為には、一般的には透視投影法(Perspective rendering)が用いられる。この透視投影法による投影で生成された二次元画像データにおいては、或る領域当たりのデータ量は視点(基準点)から遠くのものほど多くなる(範囲が広くなる)。従って、透視投影法による投影で生成された二次元画像データは、人間の肉眼で観察した場合の光景とは異なり、遠近感を感じにくい表示画像となってしまう。また、関心領域が目立たちにくい表示となってしまう。   By the way, in order to express the three-dimensional image data as a two-dimensional image, a perspective rendering method is generally used. In the two-dimensional image data generated by projection by this perspective projection method, the amount of data per region increases as the distance from the viewpoint (reference point) increases (the range becomes wider). Therefore, the two-dimensional image data generated by the projection by the perspective projection method is a display image in which a sense of perspective is difficult to be felt, unlike a scene when observed with the human naked eye. In addition, the region of interest is not easily noticeable.

さらに、視認性の問題として、例えば超音波診断画像では三次元的に高いS/N比のデータを取得することが困難である。すなわち、ボリュームデータの一部に反射エコーの欠落やアーチファクトの混入などがしばしばある。例えば、視点(基準点)から遠方のデータがノイズ領域等の場合にはノイズが目立ってしまい、視認性を低下させる。   Furthermore, as a problem of visibility, for example, it is difficult to acquire three-dimensionally high S / N ratio data in an ultrasonic diagnostic image. That is, a part of the volume data often lacks reflected echoes or artifacts. For example, when data far from the viewpoint (reference point) is a noise region or the like, the noise becomes conspicuous and the visibility is lowered.

本発明は前記の事情に鑑みて為されたものであり、医用三次元画像データセットから医用二次元画像データを生成する超音波診断装置、画像処理装置、及びプログラムであって、関心領域の視認性を向上させた医用二次元画像データを生成することが可能な超音波診断装置、画像処理装置、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and is an ultrasonic diagnostic apparatus, an image processing apparatus, and a program for generating medical two-dimensional image data from a medical three-dimensional image data set. An object of the present invention is to provide an ultrasonic diagnostic apparatus, an image processing apparatus, and a program capable of generating medical two-dimensional image data with improved performance.

一実施形態に係る超音波診断装置は、
医用三次元画像データセットから医用二次元画像データを生成する超音波診断装置であって、
被検体の三次元領域に対応する医用三次元画像データセットを収集する三次元画像データ収集部と、
前記医用三次元画像データセットの各ボクセルについて、それぞれの前記ボクセルと、医用三次元画像データセットの三次元空間中に設定された所定の基準点との相対位置に応じたフィルタ処理を実行するフィルタ処理実行部と、
前記フィルタ処理実行部によってフィルタ処理された後の前記医用三次元画像データセットをボリュームレンダリング処理するレンダリング処理部と、
を具備することを特徴とする。
An ultrasonic diagnostic apparatus according to an embodiment
An ultrasonic diagnostic apparatus for generating medical two-dimensional image data from a medical three-dimensional image data set,
A three-dimensional image data collection unit for collecting a medical three-dimensional image data set corresponding to a three-dimensional region of the subject;
A filter that executes, for each voxel of the medical 3D image data set, a filtering process according to a relative position between each voxel and a predetermined reference point set in the 3D space of the medical 3D image data set A process execution unit;
A rendering processing unit that performs volume rendering processing on the medical three-dimensional image data set after being filtered by the filtering processing execution unit;
It is characterized by comprising.

一実施形態に係る超音波診断装置は、
医用三次元画像データセットから医用二次元画像データを生成する超音波診断装置であって、
被検体を超音波で走査することで医用三次元画像データセットを収集する三次元画像データ収集部と、
前記被検体に対して超音波を送信したときに得られる受信信号のS/N比の大きさに応じて、前記医用三次元画像データセットの各ボクセルに対してフィルタ処理を実行するフィルタ処理実行部と、
前記フィルタ処理実行部によってフィルタ処理された後の前記医用三次元画像データセットを、ボリュームレンダリング処理するレンダリング処理部と、
を具備することを特徴とする。
An ultrasonic diagnostic apparatus according to an embodiment
An ultrasonic diagnostic apparatus for generating medical two-dimensional image data from a medical three-dimensional image data set,
A three-dimensional image data collection unit for collecting a medical three-dimensional image data set by scanning a subject with ultrasound;
Executing a filter process for executing a filter process on each voxel of the medical three-dimensional image data set in accordance with the magnitude of the S / N ratio of the received signal obtained when ultrasonic waves are transmitted to the subject. And
A rendering processing unit for performing volume rendering processing on the medical three-dimensional image data set after being filtered by the filtering processing execution unit;
It is characterized by comprising.

一実施形態に係る画像処理装置は、
医用三次元画像データセットから医用二次元画像データを生成する画像処理装置であって、
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、
前記医用三次元画像データセットの各ボクセルについて、それぞれの前記ボクセルと所定の基準点との相対位置に応じたフィルタ処理を実行するフィルタ処理実行部と、
前記フィルタ処理実行部によってフィルタ処理された後の前記医用三次元画像データセットを、ボリュームレンダリング処理するレンダリング処理部と、
を具備することを特徴とする。
An image processing apparatus according to an embodiment includes:
An image processing apparatus for generating medical two-dimensional image data from a medical three-dimensional image data set,
A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
For each voxel of the medical three-dimensional image data set, a filter processing execution unit that executes a filtering process according to a relative position between each voxel and a predetermined reference point;
A rendering processing unit for performing volume rendering processing on the medical three-dimensional image data set after being filtered by the filtering processing execution unit;
It is characterized by comprising.

一実施形態に係るプログラムは、
コンピュータに、
被検体の三次元領域に対応する医用三次元画像データセットを収集させる三次元画像データ収集機能と、
前記医用三次元画像データセットの各ボクセルについて、それぞれの前記ボクセルと所定の基準点との相対位置に応じたフィルタ処理を実行するフィルタ処理実行機能と、
前記フィルタ処理実行機能によってフィルタ処理された後の前記医用三次元画像データセットを、ボリュームレンダリング処理するレンダリング処理機能と、
を実現させることを特徴とする。
A program according to an embodiment is:
On the computer,
A 3D image data collection function for collecting a medical 3D image data set corresponding to a 3D region of the subject;
For each voxel of the medical three-dimensional image data set, a filter processing execution function for executing a filtering process according to the relative position of each voxel and a predetermined reference point;
A rendering processing function for performing volume rendering processing on the medical three-dimensional image data set after being filtered by the filtering processing execution function;
It is characterized by realizing.

図1は、本発明の一実施形態に係る超音波診断装置のシステム構成を示すブロック図である。FIG. 1 is a block diagram showing a system configuration of an ultrasonic diagnostic apparatus according to an embodiment of the present invention. 図2は、医用三次元画像データの収集から医用二次元画像データの生成までの処理のフローチャートを示す図である。FIG. 2 is a diagram illustrating a flowchart of processing from collection of medical 3D image data to generation of medical 2D image data. 図3は、フライスルーモードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。FIG. 3 is a diagram illustrating a display example when the present embodiment is applied to a process of generating a “virtual endoscopic image” that is a perspective projection image generated and displayed in the fly-through mode. 図4は、フライスルーモードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。FIG. 4 is a diagram showing a display example when the present embodiment is applied to a process of generating a “virtual endoscope image” that is a perspective projection image generated and displayed in the fly-through mode. 図5は、フライスルーモードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。FIG. 5 is a diagram illustrating a display example when the present embodiment is applied to the generation processing of the “virtual endoscope image” that is a perspective projection image generated and displayed in the fly-through mode. 図6は、従来の技術によって均一にフィルタ処理された透視投影像の表示例を示す図である。FIG. 6 is a diagram illustrating a display example of a perspective projection image that has been uniformly filtered by a conventional technique. 図7は、従来の技術によって均一にフィルタ処理された透視投影像の表示例を示す図である。FIG. 7 is a diagram showing a display example of a perspective projection image that has been uniformly filtered by a conventional technique.

以下、本発明の一実施形態に係る超音波診断装置、画像処理装置、及びプログラムについて説明する。   Hereinafter, an ultrasonic diagnostic apparatus, an image processing apparatus, and a program according to an embodiment of the present invention will be described.

図1は、本発明の一実施形態に係る超音波診断装置のシステム構成を示すブロック図である。同図に示すように、本超音波診断装置1は、超音波プローブ12と、入力装置13と、モニター14と、超音波送信ユニット21と、超音波受信ユニット22と、Bモード処理ユニット23と、血流検出ユニット24と、RAWデータメモリ25と、ボリュームデータ生成ユニット26と、画像処理ユニット28と、制御プロセッサ(CPU)29と、表示処理ユニット30と、記憶ユニット31と、インタフェースユニット32と、を具備している。以下、個々の構成要素について説明する。   FIG. 1 is a block diagram showing a system configuration of an ultrasonic diagnostic apparatus according to an embodiment of the present invention. As shown in the figure, the ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 12, an input device 13, a monitor 14, an ultrasonic transmission unit 21, an ultrasonic reception unit 22, and a B-mode processing unit 23. , Blood flow detection unit 24, RAW data memory 25, volume data generation unit 26, image processing unit 28, control processor (CPU) 29, display processing unit 30, storage unit 31, interface unit 32, Are provided. Hereinafter, each component will be described.

前記超音波プローブ12は、被検体Pに対して超音波を送信し、当該送信した超音波に基づく被検体からの反射波を受信するデバイス(探触子)であり、その先端に複数に配列された圧電振動子、整合層、バッキング材等を有している。前記圧電振動子は、超音波送信ユニット21からの駆動信号に基づきスキャン領域内の所望の方向に超音波を送信し、当該被検体からの反射波を電気信号に変換する。前記整合層は、当該圧電振動子に設けられ、超音波エネルギーを効率良く伝播させるための中間層である。前記バッキング材は、当該圧電振動子から後方への超音波の伝播を防止する。   The ultrasonic probe 12 is a device (probe) that transmits ultrasonic waves to the subject P and receives reflected waves from the subject based on the transmitted ultrasonic waves. A piezoelectric vibrator, a matching layer, a backing material, and the like. The piezoelectric vibrator transmits an ultrasonic wave in a desired direction within the scan region based on a drive signal from the ultrasonic transmission unit 21, and converts a reflected wave from the subject into an electric signal. The matching layer is an intermediate layer that is provided in the piezoelectric vibrator and efficiently propagates ultrasonic energy. The backing material prevents ultrasonic waves from propagating backward from the piezoelectric vibrator.

前記超音波プローブ12から被検体Pに対して超音波が送信されると、当該送信超音波は、体内組織の音響インピーダンスの不連続面で次々と反射され、エコー信号として当該超音波プローブ12によって受信される。このエコー信号の振幅は、反射することになった不連続面における音響インピーダンスの差に依存する。また、送信された超音波パルスが、移動している血流で反射された場合のエコーは、ドプラ効果により移動体の超音波送受信方向の速度成分に依存して、周波数偏移を受ける。   When ultrasonic waves are transmitted from the ultrasonic probe 12 to the subject P, the transmitted ultrasonic waves are successively reflected by the discontinuous surface of the acoustic impedance of the body tissue, and are transmitted as echo signals by the ultrasonic probe 12. Received. The amplitude of this echo signal depends on the difference in acoustic impedance at the discontinuous surface that is to be reflected. Further, the echo when the transmitted ultrasonic pulse is reflected by the moving bloodstream undergoes a frequency shift due to the Doppler effect depending on the velocity component in the ultrasonic transmission / reception direction of the moving body.

なお、本実施形態に係る超音波プローブ12は、被検体における診断対象走査領域に関する医用三次元画像データ(以降、ボリュームデータセットと称する)を収集可能なものとして、二次元アレイプローブ(複数の超音波振動子が二次元マトリックス状に配列されたプローブ)、又はメカニカル4Dプローブ(超音波振動子列をその配列方向と直交する方向に機械的に煽りながら超音波走査を実行可能なプローブ)であるとする。   Note that the ultrasonic probe 12 according to the present embodiment is capable of collecting medical three-dimensional image data (hereinafter referred to as a volume data set) relating to a diagnosis target scanning region in a subject, A probe in which ultrasonic transducers are arranged in a two-dimensional matrix) or a mechanical 4D probe (a probe capable of performing ultrasonic scanning while mechanically rolling an ultrasonic transducer array in a direction perpendicular to the arrangement direction). And

しかしながら、当該例に拘泥されず、超音波プローブ12として例えば一次元アレイプローブを採用し、これを手動によって揺動させながら超音波走査をすることでも、ボリュームデータセットを取得することは可能である。   However, without being limited to this example, it is also possible to acquire a volume data set by adopting, for example, a one-dimensional array probe as the ultrasonic probe 12 and performing ultrasonic scanning while manually swinging the probe. .

前記入力装置13は、装置本体11に接続され、オペレータからの各種指示、条件、後述するフィルタ処理における処理基準(以降、フィルタ処理基準(基準点、基準デプス、及び関心領域)と称する)の設定指示、種々の画質条件設定指示等を装置本体11に取り込む為の各種スイッチ、ボタン、トラックボール、マウス、キーボード等を有している。   The input device 13 is connected to the device main body 11 and sets various instructions and conditions from the operator, and processing criteria in filter processing described later (hereinafter referred to as filter processing criteria (reference points, reference depth, and region of interest)). Various switches, buttons, a trackball, a mouse, a keyboard, and the like for fetching instructions, various image quality condition setting instructions and the like into the apparatus main body 11 are provided.

また、入力装置13は、後述する管腔近傍血流描出機能において、診断部位を入力するための専用スイッチ、映像化に用いるカラーデータの範囲を制御するための専用ツマミ、ボクセルの透明度(不透明度)を制御するための専用ツマミ等を有している。   In addition, the input device 13 has a dedicated switch for inputting a diagnostic region, a dedicated knob for controlling the range of color data used for imaging, and the transparency (opacity of voxels) in the near-luminal blood flow rendering function described later. ) Has special knobs for controlling.

前記モニター14は、表示処理ユニット30からのビデオ信号に基づいて、生体内の形態学的情報や、血流情報を画像として表示する。   The monitor 14 displays in vivo morphological information and blood flow information as an image based on the video signal from the display processing unit 30.

前記超音波送信ユニット21は、図示しないトリガ発生回路、遅延回路およびパルサ回路等を有している。トリガ発生回路では、所定のレート周波数fr Hz(周期;1/fr秒)で、送信超音波を形成するためのトリガパルスが繰り返し発生される。また、遅延回路では、チャンネル毎に超音波をビーム状に集束し且つ送信指向性を決定するのに必要な遅延時間が、各トリガパルスに与えられる。パルサ回路は、このトリガパルスに基づくタイミングで、超音波プローブ12に駆動パルスを印加する。   The ultrasonic transmission unit 21 has a trigger generation circuit, a delay circuit, a pulsar circuit, and the like (not shown). The trigger generation circuit repeatedly generates a trigger pulse for forming a transmission ultrasonic wave at a predetermined rate frequency fr Hz (period: 1 / fr second). Further, in the delay circuit, a delay time required for focusing the ultrasonic wave into a beam shape for each channel and determining the transmission directivity is given to each trigger pulse. The pulser circuit applies a drive pulse to the ultrasonic probe 12 at a timing based on this trigger pulse.

なお、超音波送信ユニット21は、制御プロセッサ29の指示に従って所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に送信駆動電圧の変更については、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は複数の電源ユニットを電気的に切り替える機構によって実現される。   The ultrasonic transmission unit 21 has a function capable of instantaneously changing the transmission frequency, the transmission drive voltage, and the like in order to execute a predetermined scan sequence in accordance with an instruction from the control processor 29. In particular, the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.

前記超音波受信ユニット22は、図示していないアンプ回路、A/D変換器、遅延回路、加算器等を有している。アンプ回路では、超音波プローブ12を介して取り込まれたエコー信号をチャンネル毎に増幅する。A/D変換器では、増幅されたアナログのエコー信号をデジタルエコー信号に変換する。遅延回路では、デジタル変換されたたエコー信号に対し受信指向性を決定し、受信ダイナミックフォーカスを行うのに必要な遅延時間を与え、その後加算器において加算処理を行う。この加算により、エコー信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。   The ultrasonic receiving unit 22 includes an amplifier circuit, an A / D converter, a delay circuit, an adder and the like which are not shown. The amplifier circuit amplifies the echo signal captured via the ultrasonic probe 12 for each channel. The A / D converter converts the amplified analog echo signal into a digital echo signal. The delay circuit determines the reception directivity for the digitally converted echo signal, gives a delay time necessary for performing the reception dynamic focus, and then performs an addition process in the adder. By this addition, the reflection component from the direction corresponding to the reception directivity of the echo signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.

前記Bモード処理ユニット23は、超音波受信ユニット22からエコー信号を受け取り、対数増幅、包絡線検波処理などを施し、信号強度が輝度の明るさで表現されるデータを生成する。   The B-mode processing unit 23 receives an echo signal from the ultrasonic wave receiving unit 22, performs logarithmic amplification, envelope detection processing, and the like, and generates data in which the signal intensity is expressed by brightness.

前記血流検出ユニット24は、超音波受信ユニット22から受け取ったエコー信号から血流信号を抽出し、血流データを生成する。血流の抽出は、通常CFM(Color Flow Mapping)で行われる。この場合、血流信号を解析し、血流データとして平均速度、分散、パワー等の血流情報を多点について求める。   The blood flow detection unit 24 extracts a blood flow signal from the echo signal received from the ultrasonic receiving unit 22 and generates blood flow data. Extraction of blood flow is usually performed by CFM (Color Flow Mapping). In this case, the blood flow signal is analyzed, and blood flow information such as average velocity, dispersion, power, etc. is obtained for multiple points as blood flow data.

前記RAWデータメモリ25は、Bモード処理ユニット23から受け取った複数のBモードデータを用いて、三次元的な超音波走査線上のBモードデータであるBモードRAWデータを生成する。また、RAWデータメモリ25は、血流検出ユニット24から受け取った複数の血流データを用いて、三次元的な超音波走査線上の血流データである血流RAWデータを生成する。   The RAW data memory 25 generates B-mode RAW data, which is B-mode data on a three-dimensional ultrasonic scanning line, using a plurality of B-mode data received from the B-mode processing unit 23. The RAW data memory 25 generates blood flow RAW data, which is blood flow data on a three-dimensional ultrasonic scanning line, using a plurality of blood flow data received from the blood flow detection unit 24.

なお、ノイズ低減や画像の繋がりを良くすることを目的として、RAWデータメモリ25の後に三次元的画像フィルタ処理(以降、単にフィルタ処理と称する)を挿入し、空間的なスムージングを行うようにしてもよい。   In order to reduce noise and improve image connection, a three-dimensional image filter process (hereinafter simply referred to as filter process) is inserted after the RAW data memory 25 to perform spatial smoothing. Also good.

前記ボリュームデータ生成ユニット26は、RAW−ボクセル変換を実行することにより、RAWデータメモリ25から受け取ったBモードRAWデータからBモードボリュームデータセットを生成する。このRAW−ボクセル変換は、空間的な位置情報を加味した補間処理により、後述する管腔近傍血流描出機能において用いられる視体積内の各視線上のBモードボクセルデータを生成するものである。同様に、ボリュームデータ生成ユニット26は、RAW−ボクセル変換を実行することにより、RAWデータメモリ25から受け取った血流RAWデータから視体積内の各視線上の血流ボリュームデータセットを生成する。   The volume data generation unit 26 generates a B-mode volume data set from the B-mode RAW data received from the RAW data memory 25 by executing RAW-voxel conversion. This RAW-voxel conversion is to generate B-mode voxel data on each line of sight within the visual volume used in the near-luminal blood flow rendering function described later by interpolation processing taking into account spatial position information. Similarly, the volume data generation unit 26 generates a blood flow volume data set on each line of sight within the visual volume from the blood flow RAW data received from the RAW data memory 25 by executing RAW-voxel conversion.

前記画像処理ユニット28は、ボリュームデータ生成ユニット26から出力されたボリュームデータセットに対して、ボリュームレンダリング処理、多断面変換表示(MPR:multi planar reconstruction)、最大値投影表示(MIP:maximum intensity projection)、及び後述する“フィルタ処理”等の所定の画像処理を行う。この画像処理ユニット28は、ボリュームデータ生成ユニット26から出力されたボリュームデータセットに対して、ボリュームレンダリング処理を実行する前に、後述するフィルタ処理を実行することで、関心領域の視認性を向上させる。   The image processing unit 28 performs volume rendering processing, multi-planar conversion display (MPR), maximum intensity projection (MIP) on the volume data set output from the volume data generation unit 26. And predetermined image processing such as “filter processing” to be described later. The image processing unit 28 improves the visibility of the region of interest by performing a filtering process described later on the volume data set output from the volume data generating unit 26 before performing the volume rendering process. .

なお、本一実施形態においては、ボリュームレンダリング処理に透視投影法を適用してもよいし、平行投影法を適用してもよい。以下の例においては、ボリュームレンダリング処理に透視投影法を適用する場合を説明する。   In this embodiment, the perspective projection method may be applied to the volume rendering process, or the parallel projection method may be applied. In the following example, a case where a perspective projection method is applied to volume rendering processing will be described.

前記制御プロセッサ29は、情報処理装置(計算機)としての機能を持ち、本超音波診断装置本体の動作を制御する。制御プロセッサ29は、記憶ユニット31から後述する管腔近傍血流描出機能を実現するための専用プログラムを読み出して自身が有するメモリ上に展開し、各種処理に関する演算・制御等を実行する。   The control processor 29 has a function as an information processing apparatus (computer) and controls the operation of the main body of the ultrasonic diagnostic apparatus. The control processor 29 reads out a dedicated program for realizing a near-luminal blood flow rendering function, which will be described later, from the storage unit 31, develops it on its own memory, and executes calculation / control related to various processes.

前記表示処理ユニット30は、画像処理ユニット28において生成・処理された各種画像データに対し、ダイナミックレンジ、輝度(ブライトネス)、コントラスト、γカーブ補正、RGB変換等の各種を実行する。   The display processing unit 30 executes various types of image data generated and processed by the image processing unit 28 such as dynamic range, brightness (brightness), contrast, γ curve correction, and RGB conversion.

前記記憶ユニット31は、後述する管腔近傍血流描出機能を実現するための専用プログラムや、診断情報(患者ID、医師の所見等)、診断プロトコル、送受信条件、スペックル除去機能を実現するためのプログラム、ボディマーク生成プログラム、映像化に用いるカラーデータの範囲を診断部位毎に予め設定する変換テーブル、その他のデータ群が保管されている。また、必要に応じて、図示しない画像メモリ中の画像の保管などにも使用される。記憶ユニット31のデータは、インタフェースユニット32を経由して外部周辺装置へ転送することも可能となっている。   The storage unit 31 is for realizing a dedicated program for realizing a function for rendering a blood flow near the lumen described later, diagnostic information (patient ID, doctor's findings, etc.), diagnostic protocol, transmission / reception conditions, and speckle removal function. , A body mark generation program, a conversion table for presetting the range of color data used for imaging for each diagnostic part, and other data groups. Further, it is also used for storing images in an image memory (not shown) as required. Data in the storage unit 31 can be transferred to an external peripheral device via the interface unit 32.

以下、制御プロセッサ29の制御によって画像処理ユニット28が実行する“フィルタ処理”について説明する。図2は、制御プロセッサ29の制御による、医用三次元画像データ(ボリュームデータセット)の収集から医用二次元画像データ(透視投影像データ)の生成までの一連の処理のフローチャートを示す図である。   Hereinafter, “filter processing” executed by the image processing unit 28 under the control of the control processor 29 will be described. FIG. 2 is a flowchart illustrating a series of processes from collection of medical three-dimensional image data (volume data set) to generation of medical two-dimensional image data (perspective projection image data) under the control of the control processor 29.

まず、制御プロセッサ29は、上述したボリュームデータセットの収集処理によって、被検体Pの診断対象領域についてのボリュームデータセットを収集する(ステップS1)。続いて、画像処理ユニット28は、ステップS1において収集したボリュームデータセットに対してMPR処理を行って各断面像(MPR画像)を生成する。   First, the control processor 29 collects a volume data set for the diagnosis target region of the subject P by the above-described volume data set collection processing (step S1). Subsequently, the image processing unit 28 performs MPR processing on the volume data set collected in step S1 to generate each cross-sectional image (MPR image).

ユーザは、入力装置13を操作し、表示させたい透視投影像の視点・視線を、モニター14に表示されているMPR画像上で指定し、且つ、後述する“フィルタ処理基準”及び“フィルタ処理内容”を指定する。制御プロセッサ29は、この入力装置13への入力操作に基づいて“フィルタ処理基準”を設定し(ステップS2)、且つ、“フィルタ処理内容”を設定する(ステップS3)。   The user operates the input device 13 to specify the perspective / line of sight of the perspective projection image to be displayed on the MPR image displayed on the monitor 14, and the “filter processing standard” and “filter processing content” to be described later "Is specified. The control processor 29 sets “filter processing reference” based on the input operation to the input device 13 (step S2) and sets “filter processing content” (step S3).

以下、“フィルタ処理基準”及び“フィルタ処理内容”について詳細に説明する。   Hereinafter, the “filter processing standard” and “filter processing content” will be described in detail.

前記“フィルタ処理基準”は、ステップS4においてフィルタ処理を実行する際に、ボリュームデータセットのどのボクセルにどのようなフィルタ処理を実行するのかを決定する為の基準である。画像処理ユニット28は、フィルタ処理基準(基準点、基準デプス、関心領域)に応じて、各ボクセルに施す“フィルタ処理内容”を変更する。   The “filtering criterion” is a criterion for determining what filtering process is to be performed on which voxel of the volume data set when the filtering process is performed in step S4. The image processing unit 28 changes the “filter processing content” to be applied to each voxel according to the filter processing reference (reference point, reference depth, region of interest).

詳細には、フィルタ処理基準として“基準点”を用いる場合には、各ボクセルと当該基準点との相対位置に応じて、各ボクセルに施す“フィルタ処理内容”を変更する。フィルタ処理基準として“基準デプス”を用いる場合には、各デプスと当該基準デプスとの相対位置に応じて、各デプスのボクセルに施す“フィルタ処理内容”を変更する。フィルタ処理基準として“関心領域”を用いる場合には、当該関心領域の内外で、各ボクセルに施す“フィルタ処理内容”を変更する。具体例については後述する。   Specifically, when “reference point” is used as the filter processing reference, “filter processing content” applied to each voxel is changed according to the relative position between each voxel and the reference point. When “reference depth” is used as the filter processing reference, “filter processing content” to be applied to the voxel of each depth is changed according to the relative position between each depth and the reference depth. When “region of interest” is used as the filter processing reference, “filter processing content” applied to each voxel is changed inside and outside the region of interest. Specific examples will be described later.

なお、本一実施形態において“フィルタ処理”とは、通常のフィルタリングに加えて、各ボクセルに対して“所定の色調を付与する処理”をも含む概念である。従って、上述の“フィルタ処理内容の変更”としては、例えば“フィルタ処理の強度(係数、重み)の変更”や“各ボクセルに付与する色調の変更”等を挙げることができる。   In this embodiment, “filter processing” is a concept including “processing for giving a predetermined color tone” to each voxel in addition to normal filtering. Accordingly, examples of the above-described “change in filter processing content” include “change in filter processing intensity (coefficients, weights)” and “change in color tone applied to each voxel”.

詳細には、フィルタ処理の強度に関わるパラメータとしては、タップ数、フィルタ係数(重み)、カーネルサイズ等を挙げることができる。また、フィルタ処理の種類については、一般的な平滑化やノイズリダクションを目的としたフィルタ処理であれば任意である。従って、画像処理ユニット28が前記ボリュームデータセットに対して施すフィルタ処理としては、例えばガウスフィルタ、平均フィルタ、またはメディアンフィルタ等の任意の三次元フィルタ処理を挙げることができる。   Specifically, the parameters relating to the strength of the filter processing can include the number of taps, filter coefficients (weights), kernel size, and the like. The type of filter processing is arbitrary as long as it is a filter processing for general smoothing or noise reduction. Therefore, examples of the filter processing performed by the image processing unit 28 on the volume data set include arbitrary three-dimensional filter processing such as a Gaussian filter, an average filter, or a median filter.

図3は、“フライスルーモード”と称される管腔表示モードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。図3に示す例では、フィルタ処理基準として、“基準点”を画像中央に設定し、画像中央近傍の領域と画像周縁近傍の領域とでフィルタ処理の係数を変更している。   FIG. 3 shows a display example when the present embodiment is applied to a generation process of a “virtual endoscope image” that is a perspective projection image generated and displayed in a lumen display mode called “fly-through mode”. FIG. In the example shown in FIG. 3, the “reference point” is set at the center of the image as the filter processing reference, and the filter processing coefficient is changed between the region near the center of the image and the region near the periphery of the image.

より具体的には、“各ボクセルと当該基準点との相対位置”を、“各ボクセルと当該基準点との間の距離”とし、画像中央近傍の領域には比較的スムージングの弱いフィルタ処理を施し、一方で画像周縁近傍の領域には強いスムージング処理を行うことで強くぼかしている。つまり、関心領域について相対的に視認性を向上させることで、肉眼で見た場合の見え方に近く観察に適した画像としている。   More specifically, the “relative position between each voxel and the reference point” is set as “the distance between each voxel and the reference point”, and a filter process with relatively weak smoothing is applied to an area near the center of the image. On the other hand, the region near the periphery of the image is strongly blurred by performing a strong smoothing process. That is, by relatively improving the visibility of the region of interest, the image is close to the appearance when viewed with the naked eye and is suitable for observation.

ここで、“フライスルーモード”について詳細に説明する。フライスルーモードは、管腔表示モードの一種であり、被検体に対する三次元走査によって得られたボリュームデータの管腔臓器内に観察者の視点と視線方向を仮想的に設定し、該視点から観察される管腔臓器の内表面を仮想内視鏡画像(フライスルー画像)データとして観察するモードである。   Here, the “fly-through mode” will be described in detail. The fly-through mode is a type of lumen display mode, in which the observer's viewpoint and line-of-sight direction are virtually set in the lumen organ of the volume data obtained by three-dimensional scanning of the subject, and observation is performed from the viewpoint. In this mode, the inner surface of the hollow organ is observed as virtual endoscopic image (fly-through image) data.

このフライスルーモードにおいては、被検体の体外から収集されたボリュームデータに基づいて、内視鏡的な画像データを生成し表示することができ、検査時の被検体に対する侵襲度を大幅に低減することができる。さらに、内視鏡スコープの挿入が困難な細い消化管や血管等の管腔臓器に対しても視点や視線方向を任意に設定することができるため、従来の内視鏡検査では不可能であった高精度の検査を安全且つ効率的に行なうことが可能となる。   In this fly-through mode, endoscopic image data can be generated and displayed based on the volume data collected from outside the subject, greatly reducing the degree of invasiveness to the subject at the time of examination. be able to. Furthermore, it is impossible with conventional endoscopy because the viewpoint and line-of-sight direction can be arbitrarily set even for luminal organs such as thin digestive tracts and blood vessels where it is difficult to insert an endoscope. It is possible to perform highly accurate inspections safely and efficiently.

インバージョン(Inversion)法では、低輝度として描出される管腔を管の外側から見たときの形態を映像化する。これに対し、フライスルーモードで用いられるフライスルー法では、管腔を管の内側から観た態様で映像化する。このフライスルー法によれば、例えば管腔内ポリープの存在確認等において、狭窄等により内視鏡が挿入できない部位であっても、あたかも内視鏡で観察しているかのように観察することが可能となる。   In the inversion method, the form of the lumen viewed as low brightness is viewed from the outside of the tube. On the other hand, in the fly-through method used in the fly-through mode, the lumen is visualized as viewed from the inside of the tube. According to this fly-through method, for example, in the confirmation of the presence of an intraluminal polyp, even if the endoscope cannot be inserted due to stenosis or the like, it can be observed as if it were observed with an endoscope. It becomes possible.

このフライスルー法は、CTデータを利用した仮想内視鏡として製品化された技術を超音波診断装置に適用したものであり、技術的には主として下記の2つの特徴を有する。   This fly-through method is a technique in which a technology that has been commercialized as a virtual endoscope using CT data is applied to an ultrasonic diagnostic apparatus, and technically has mainly the following two features.

第1の特徴は、一般的には投影法としては平行投影法が用いられるのに対し、フライスルー法では投影法として透視投影法が用いられる点である。平行投影法では無限遠に視点を置いて投影する為、奥行き感を把握することが困難である。一方、透視投影法では所謂遠近法によって、内視鏡を利用して取得したような画像を表示させることができる。従って、管の内腔を観察するのに適した表示法であると言える。   The first feature is that, while the parallel projection method is generally used as the projection method, the perspective projection method is used as the projection method in the fly-through method. In the parallel projection method, the viewpoint is projected at infinity, so it is difficult to grasp the sense of depth. On the other hand, in the perspective projection method, an image obtained using an endoscope can be displayed by a so-called perspective method. Therefore, it can be said that the display method is suitable for observing the lumen of the tube.

第2の特徴は、フライスルー法では、フライスルー管腔の自動追跡技術、管腔の中心軸を自動的に認識させることで、該中心軸に沿って視点を自動で移動させることができる点である。従って、フライスルー法を用いることで、操作者が観察したい管腔を一度指定すれば、機械的に視点が当該管腔内を移動し、その内腔が順次表示されるような超音波診断装置が実現する。なお、手動で視点位置及び視線方向の変更をするように構成しても勿論よい。   The second feature is that the fly-through method can automatically move the viewpoint along the center axis by automatically recognizing the center axis of the lumen by automatically tracking the fly-through lumen. It is. Therefore, by using the fly-through method, once an operator wants to specify a lumen to be observed, an ultrasonic diagnostic apparatus in which the viewpoint is mechanically moved within the lumen and the lumens are sequentially displayed. Is realized. Of course, it may be configured to manually change the viewpoint position and the line-of-sight direction.

また、フライスルー法によれば、視線に直交するMPR画像を併せて表示することもでき、管腔の直交三断面を描出するためのナビゲーションとして利用することもできる。   In addition, according to the fly-through method, an MPR image orthogonal to the line of sight can also be displayed, and can be used as navigation for drawing three orthogonal sections of the lumen.

以上説明したように多くの利点を有するフライスルー法であるが、ボリュームレンダリング処理に透視投影法を用いる方法であるが故に、“生成された二次元画像データが遠近感を感じにくい表示画像となってしまうこと、及び、関心領域が目立たちにくい表示となってしまうこと”というデメリットを免れ得ない。   As described above, the fly-through method has many advantages. However, since the perspective projection method is used for the volume rendering process, “the generated two-dimensional image data is a display image in which it is difficult to feel the perspective. And the disadvantage that the region of interest is difficult to display.

しかしながら、本一実施形態をフライスルー法に適用することで、透視投影法に起因するデメリットを克服することができる。つまり、本一実施形態は、フライスルー法をより有益なものとすることができる。   However, the demerit resulting from the perspective projection method can be overcome by applying this embodiment to the fly-through method. That is, this one embodiment can make the fly-through method more useful.

ところで、図4は、上述のフライスルーモードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。以下、図4を参照して、フィルタ処理基準として“基準デプス”を用いる場合を説明する。   FIG. 4 is a diagram showing a display example when the present embodiment is applied to the generation processing of the “virtual endoscope image” that is a perspective projection image generated and displayed in the fly-through mode. Hereinafter, the case where “reference depth” is used as the filter processing reference will be described with reference to FIG.

フィルタ処理基準として“基準デプス”を用いる場合、例えば透視投影像上でポインタ指定する為のポインタ生成部(不図示)を当該超音波診断装置に具備させ、ユーザによる入力装置13の操作でポインタが設置された基準デプスに係る情報(デプス情報と称する)に基づいて、その周辺のデプスとそれ以外のデプスとでフィルタ処理係数を異ならせてフィルタ処理してもよい(若しくは色調を異ならせてもよい)。図4に示すポインタPは、ユーザが当該仮想内視鏡画像上で基準デプスを指定する為のUI(User Interface)である。   When “reference depth” is used as a filter processing reference, for example, a pointer generation unit (not shown) for designating a pointer on a perspective projection image is provided in the ultrasonic diagnostic apparatus, and the pointer is moved by an operation of the input device 13 by the user. Based on the information regarding the installed reference depth (referred to as depth information), the surrounding depth and other depths may be filtered with different filter processing coefficients (or different tones) Good). A pointer P shown in FIG. 4 is a UI (User Interface) for the user to specify a reference depth on the virtual endoscopic image.

図4に示す例では、ポインタPが設置された基準デプスについては比較的スムージングの弱いフィルタ処理を施し、それ以外のデプスについては強いスムージングのフィルタ処理を行えばよい。これにより、ポインタPが設置された基準デプスについてはボケが少なく、エッジ等が明瞭な画像を得られる。また、ポインタPが設置された基準デプス以外のデプスについては強くぼかされているので、ノイズやアーチファクトが低減しており、表示画像全体としての視認性も向上し、第三者にとっても画像作成者がどこに注目しているのかを認識しやすい。なお、ポインタPが設置されたデプス情報を、当該透視投影像と共に記憶ユニット31に記憶可能に構成してもよい。   In the example shown in FIG. 4, a relatively smooth filtering process may be applied to the reference depth in which the pointer P is installed, and a strong smoothing filter process may be performed for other depths. As a result, the reference depth on which the pointer P is installed has little blur and an image with clear edges and the like can be obtained. Also, since the depth other than the reference depth where the pointer P is installed is strongly blurred, noise and artifacts are reduced, the visibility of the entire display image is improved, and image creation for third parties is also possible. It is easy to recognize where people are paying attention. The depth information on which the pointer P is installed may be configured to be stored in the storage unit 31 together with the perspective projection image.

以下、図5を参照して、フィルタ処理基準として“関心領域(ROI;Region Of Interest)”を用いた場合を説明する。図5は、上述のフライスルーモードで生成・表示される透視投影像である“仮想内視鏡画像”の生成処理に本一実施形態を適用した場合の表示例を示す図である。   Hereinafter, a case where “region of interest (ROI)” is used as a filter processing criterion will be described with reference to FIG. FIG. 5 is a diagram illustrating a display example when the present embodiment is applied to a process of generating a “virtual endoscope image” that is a perspective projection image generated and displayed in the fly-through mode.

フィルタ処理基準として“関心領域”を用いる場合、例えば透視投影像上に関心領域を設定可能なROI生成部(不図示)を当該超音波診断装置に具備させ、該ROI生成部によって設定された関心領域と範囲外とでフィルタ処理係数を異ならせてフィルタ処理してもよい(若しくは色調を異ならせてもよい)。図5に示す関心領域ROIは、ユーザが当該仮想内視鏡画像上で所望の領域を関心領域に設定する為のUIである。   When the “region of interest” is used as the filter processing reference, for example, the ROI generation unit (not shown) capable of setting the region of interest on the perspective projection image is provided in the ultrasonic diagnostic apparatus, and the interest set by the ROI generation unit Filter processing may be performed by changing the filter processing coefficient between the region and outside the range (or the color tone may be different). The region of interest ROI shown in FIG. 5 is a UI for the user to set a desired region as a region of interest on the virtual endoscopic image.

図5に示す例では、関心領域ROIが設定された範囲内については比較的スムージングの弱いフィルタ処理を施し、それ以外の領域については強いスムージングのフィルタ処理を行えばよい。これにより、関心領域ROIが設定された領域内についてはボケが少なく、エッジ等が明瞭な画像を得られる。また、関心領域ROIが設定された領域外については強くぼかされているので、ノイズやアーチファクトが低減しており、表示画像全体としての視認性も向上し、第三者にとっても画像作成者がどこに注目しているのかを認識しやすい。なお、関心領域ROIに係る情報であるROI情報を、当該透視投影像と共に記憶ユニット31に記憶可能に構成してもよい。   In the example shown in FIG. 5, a filter process with relatively weak smoothing may be performed within the range in which the region of interest ROI is set, and a strong smoothing filter process may be performed with respect to the other areas. As a result, an image in which the region of interest ROI is set is less blurred and the edges are clear can be obtained. Further, since the region outside the region of interest ROI is strongly blurred, noise and artifacts are reduced, the visibility of the display image as a whole is improved, and the image creator can also improve the image creator. It is easy to recognize where you are paying attention. In addition, you may comprise so that the ROI information which is the information which concerns on the region of interest ROI can be memorize | stored in the storage unit 31 with the said perspective projection image.

なお、フィルタ処理基準としては、上述した他にも例えば“被検体に対して超音波を送信したときに得られる受信信号のS/N比の大きさ”に応じて、各ボクセルについてフィルタ処理を実行するようにしてもよい。具体的には、例えばS/N比の値が大きい領域については受信信号が明瞭であるとみなし、比較的スムージングの弱いフィルタ処理を施し、一方S/N比の小さい領域は強いスムージング処理を行うことで強くぼかしてしまう。つまり、ノイズ成分が多く含まれており受信信号が明瞭でない領域については強くぼかすフィルタ処理を行う。これにより、表示画像の視認性(印象)が、S/N比の値の小さい領域に左右されなくなる。   In addition to the above-described filter processing criteria, each voxel is filtered according to, for example, “the magnitude of the S / N ratio of the received signal obtained when transmitting an ultrasonic wave to the subject”. You may make it perform. Specifically, for example, a region where the value of the S / N ratio is large is considered to have a clear received signal, and filtering processing with relatively weak smoothing is performed, while a region with a small S / N ratio is subjected to strong smoothing processing. It will blur strongly. That is, a filtering process that strongly blurs a region where a lot of noise components are included and the received signal is not clear is performed. Thereby, the visibility (impression) of the display image does not depend on the area where the value of the S / N ratio is small.

さらには、ノイズレベルが空間的に一定となるようにゲイン設定して収集したボリュームデータセットの各ボクセルについて、受信信号の大きさに応じて異なるフィルタ処理を施してもよい。但し、透視投影を行う際には、エコーレベルは比較的均一になることが望ましく。ポストプロセスでゲインを補正するようにし、補正後のボリュームデータセットについてレンダリング処理を行う。   Furthermore, different voxels may be applied to each voxel of the volume data set collected by setting the gain so that the noise level is spatially constant, depending on the magnitude of the received signal. However, it is desirable that the echo level be relatively uniform when performing perspective projection. The gain is corrected in the post process, and the rendering process is performed on the corrected volume data set.

ところで、“フィルタ処理内容の変更”の例としては、上述したような“フィルタ処理の係数(重み)の変更”の他にも、次のような例を挙げることができる。   By the way, as an example of “change of filter processing content”, the following example can be given in addition to “change of coefficient (weight) of filter processing” as described above.

例えば、フィルタ処理基準に応じて各ボクセルに“異なる色調を割り当てる”としてもよい。具体的には、例えば所定の基準点からの距離に応じて色調を変更して各ボクセルに対して色付けを行う。また、例えばボクセルと基準点との距離と、色付け割合の関係とを設定する色付け関数を二次元関数として設定した上で、該色付け関数に従って各ボクセルを色付けしてもよい。さらには、フィルタ処理基準に応じて“特定の色調の混入度合いを増加させる(例えばRGBのうちBの割合を増加させる)”としてもよい。   For example, “a different color tone may be assigned” to each voxel according to the filter processing standard. Specifically, for example, each voxel is colored by changing the color tone according to the distance from a predetermined reference point. Further, for example, after setting a coloring function for setting the relationship between the distance between the voxel and the reference point and the coloring ratio as a two-dimensional function, each voxel may be colored according to the coloring function. Furthermore, it may be “increasing the degree of mixing of a specific color tone (for example, increasing the ratio of B in RGB)” according to the filter processing standard.

上述したステップS2及びステップS3において各種設定が完了すると、画像処理ユニット28は、ボリュームデータセットの各ボクセルについて、上述したように前記フィルタ処理基準に応じたフィルタ処理を実行する(ステップS4)。   When various settings are completed in step S2 and step S3 described above, the image processing unit 28 executes the filter processing according to the filter processing standard as described above for each voxel of the volume data set (step S4).

このステップS4における処理は、当該ボリュームデータセットの透視投影像データ(後述するステップS5で生成)の表示において診断対象の領域の視認性を向上させる為の処理である。   The process in step S4 is a process for improving the visibility of the diagnosis target region in the display of the perspective projection image data (generated in step S5 described later) of the volume data set.

前記ステップS4における処理を完了した後、画像処理ユニット28は、ステップS4におけるフィルタ処理後のボリュームデータセットを例えば透視投影法によってボリュームレンダリング処理し、透視投影像データ(医用二次元画像データ)を生成する(ステップS5)。その後、この透視投影像データは表示処理ユニット30によって所定の変換処理等が施された後、モニター14に出力されて表示され、且つ、記憶ユニット31に記憶される。   After completing the processing in step S4, the image processing unit 28 performs volume rendering processing on the volume data set after the filtering processing in step S4 by, for example, a perspective projection method, and generates perspective projection image data (medical two-dimensional image data). (Step S5). Thereafter, the perspective projection image data is subjected to a predetermined conversion process or the like by the display processing unit 30, and is then output to the monitor 14 for display and stored in the storage unit 31.

なお、ステップS2においてフィルタ処理の際の基準点を設定している場合には、当該基準点を、ステップS5のボリュームレンダリング処理において利用してもよい。つまり、ステップS4のフィルタ処理における基準点と、ステップS5のボリュームレンダリング処理における基準点とを共通化してよい。この場合、ボリュームレンダリング処理によって生成されるボリュームレンダリング像は前記基準点を描画中心として描画される。   If a reference point for the filtering process is set in step S2, the reference point may be used in the volume rendering process in step S5. That is, the reference point in the filtering process in step S4 and the reference point in the volume rendering process in step S5 may be shared. In this case, the volume rendering image generated by the volume rendering process is drawn with the reference point as the drawing center.

前記ステップS5の処理を終えた後、制御プロセッサ29は、ステップS2において設定したフィルタ処理基準(基準点、基準デプス、及び関心領域)、及び/または、ステップS3において設定したフィルタ処理内容を更新するか否かを判定する(ステップS6)。   After finishing the process of step S5, the control processor 29 updates the filtering process reference (reference point, reference depth, and region of interest) set in step S2 and / or the filtering process content set in step S3. Whether or not (step S6).

具体的には、このステップS6においては、例えば入力装置13から“フィルタ処理に係る設定を更新する旨の信号”が入力されたか否か(入力装置13において基準を更新する旨の操作が行われたか否か)を判定する。   Specifically, in step S6, for example, whether or not a “signal for updating the setting related to the filtering process” is input from the input device 13 (an operation for updating the reference is performed in the input device 13). Whether or not).

このステップS6をYESに分岐する場合には、ユーザは、例えば入力装置13を操作し、前記ステップS5において生成されモニター14に表示された透視投影像(及び直交三断面像等)を視認しつつ、表示させたい透視投影像の視点・視線をMPR画像上で指定し、且つ、“フィルタ処理基準”及び“フィルタ処理内容”を指定する(ステップS7)。その後、前記ステップS2に移行する。一方、前記ステップS6をNOに分岐する場合には、当該透視投影像の生成処理を終了する。   When step S6 is branched to YES, the user operates the input device 13, for example, and visually recognizes the perspective projection image (and orthogonal three-section images, etc.) generated in step S5 and displayed on the monitor 14. The viewpoint / line of sight of the perspective projection image to be displayed is designated on the MPR image, and the “filter processing reference” and “filter processing content” are designated (step S7). Thereafter, the process proceeds to step S2. On the other hand, when step S6 is branched to NO, the process of generating the perspective projection image is terminated.

ところで、本一実施形態に係る超音波診断装置による上述の一連の処理は、プログラム化することで、或いはプログラム化した後に当該プログラムを記憶媒体に読み込むことによって、当該超音波診断装置とは独立したソフトウェア製品単体としての販売、配布も容易になり、また本一実施形態に係る技術を他のハードウェア上で利用することも可能となる。   By the way, the above-described series of processing by the ultrasonic diagnostic apparatus according to the present embodiment is independent of the ultrasonic diagnostic apparatus by programming or by reading the program into a storage medium after programming. Sales and distribution as a single software product can be facilitated, and the technology according to the present embodiment can be used on other hardware.

以上説明したように、本一実施形態によれば、医用三次元画像データセットから医用二次元画像データを生成する超音波診断装置、画像処理装置、及びプログラムであって、関心領域の視認性を向上させた医用二次元画像データを生成することが可能な超音波診断装置、画像処理装置、及びプログラムを提供することができる。   As described above, according to the present embodiment, there is provided an ultrasonic diagnostic apparatus, an image processing apparatus, and a program that generate medical two-dimensional image data from a medical three-dimensional image data set. An ultrasonic diagnostic apparatus, an image processing apparatus, and a program capable of generating improved medical two-dimensional image data can be provided.

具体的には、本一実施形態によれば、三次元のボリュームデータセットに対して、空間的に不均一なフィルタリング処理を施すことで、当該ボリュームデータセットをボリュームレンダリング処理して生成した医用二次元画像データの視認性が改善される。   Specifically, according to the present embodiment, by applying spatially non-uniform filtering processing to a three-dimensional volume data set, the medical data generated by volume rendering processing is performed. The visibility of the dimensional image data is improved.

すなわち、本一実施形態によって生成される医用二次元画像データでは、上述した図3乃至図5に示されているように、関心領域については高い分解能を保持した表示となり、且つ、非関心領域については目立たない表示となり、画像作成者の注目領域(診断対象の領域)が一目瞭然となる。また、ノイズ等の診断に不必要な情報については、上述のフィルタ処理によって目立たなくされている為、表示画像全体としての視認性も向上している。   That is, in the medical two-dimensional image data generated by the present embodiment, as shown in FIGS. 3 to 5 described above, the region of interest is displayed with a high resolution, and the region of non-interest is displayed. Becomes inconspicuous, and the attention area (diagnostic area) of the image creator becomes clear at a glance. Further, information unnecessary for diagnosis such as noise is made inconspicuous by the above-described filter processing, and thus the visibility of the entire display image is improved.

他方、従来の技術による場合、本一実施形態の特徴部に係る技術的思想が無い為、例えば図6及び図7に示すように全ボクセルに対して均一にフィルタ処理された透視投影像しか得ることができない。図6及び図7は、従来の技術によって均一にフィルタ処理された透視投影像の表示例を示す図である。なお、図6に示す例は、図7に示す例よりも比較的強いフィルタ処理が行われている例である。   On the other hand, in the case of the conventional technique, since there is no technical idea related to the characteristic part of the present embodiment, only a perspective projection image that is uniformly filtered with respect to all voxels as shown in FIGS. 6 and 7 is obtained. I can't. 6 and 7 are diagrams showing display examples of perspective projection images that have been uniformly filtered by a conventional technique. Note that the example shown in FIG. 6 is an example in which relatively stronger filter processing is performed than the example shown in FIG.

特に、上述したフライスルーモードのように、透視投影法によるレンダリング処理を行う場合には、本一実施形態によらなければ、透視投影法によるデメリットを解消することはできず、図3乃至図5に示すような視認性が良好な透視投影像を得ることができない。   In particular, when performing the rendering process by the perspective projection method as in the fly-through mode described above, the disadvantages of the perspective projection method cannot be eliminated unless the present embodiment is used. A perspective projection image with good visibility as shown in FIG.

以上、一実施形態に基づいて本発明を説明したが、本発明は上述した一実施形態に限定されるものではなく、本発明の要旨の範囲内で、種々の変形及び応用が可能なことは勿論である。   As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to one Embodiment mentioned above, A various deformation | transformation and application are possible within the range of the summary of this invention. Of course.

《第1変形例》
以下、説明の重複を避ける為、上述の一実施形態に係る超音波診断装置、画像処理装置、及びプログラムとの相違点について説明する。本第1変形例においては、前記基準点を次の処理によって設定する。
<< First Modification >>
Hereinafter, in order to avoid duplication of explanation, differences from the ultrasonic diagnostic apparatus, the image processing apparatus, and the program according to the above-described embodiment will be described. In the first modification, the reference point is set by the following process.

すなわち、画像処理ユニット28によるフィルタ処理の前に、画像処理ユニット28によってボリュームデータセットに対してボリュームレンダリング処理を行って透視投影像データ(第1のボリュームレンダリング像データ)を生成し、該第1のボリュームレンダリング像データについて関心領域を前記ROI生成部(不図示)によって設定し、該関心領域内に複数の(例えば関心領域の全領域に)基準点を設定してもよい。   That is, before the filter processing by the image processing unit 28, the image processing unit 28 performs volume rendering processing on the volume data set to generate perspective projection image data (first volume rendering image data). The ROI generation unit (not shown) may set a region of interest for the volume rendering image data, and a plurality of reference points (for example, all regions of the region of interest) may be set in the region of interest.

このように基準点を設定した後、画像処理ユニット28は、前記複数の基準点のうち前記ボクセルとの距離が最小である基準点と各ボクセルとの距離に応じて変化させたフィルタ処理を実行する。   After setting the reference points in this way, the image processing unit 28 executes filter processing that is changed according to the distance between the reference point having the smallest distance from the voxel among the plurality of reference points and each voxel. To do.

なお、このフィルタ処理を実行後のボリュームデータセットに対して再度ボリュームレンダリング処理を行って透視投影像データ(第2のボリュームレンダリング像データ)を生成した後、該第2のボリュームレンダリング像データについて前記ROI生成部(不図示)によって再び関心領域を設定して基準点を設定し、この基準点に基づいて、再度、“フィルタ処理を実行前のボリュームデータセット”に対してフィルタ処理を実行してもよい。   Note that the volume rendering process is performed again on the volume data set after this filtering process to generate perspective projection image data (second volume rendering image data), and then the second volume rendering image data is described above. The ROI generation unit (not shown) sets the region of interest again, sets the reference point, and executes the filter process again on the “volume data set before executing the filter process” based on the reference point. Also good.

《第2変形例》
以下、説明の重複を避ける為、上述の一実施形態に係る超音波診断装置、画像処理装置、及びプログラムとの相違点について説明する。本第2変形例においては、前記画像処理ユニット28は、フィルタ処理を次の基準に従って変化させて実行する。
<< Second Modification >>
Hereinafter, in order to avoid duplication of explanation, differences from the ultrasonic diagnostic apparatus, the image processing apparatus, and the program according to the above-described embodiment will be described. In the second modification, the image processing unit 28 changes the filter processing according to the following criteria and executes it.

すなわち、画像処理ユニット28は、ボリュームデータセットの各ボクセルについて、処理対象ボクセルと前記基準点との距離に基づいて第1の係数を算出し、且つ、前記処理対象ボクセルのS/N比に基づいて第2の係数を算出する。そして、画像処理ユニット28は、前記第1の係数と前記第2の係数との双方に基づいてフィルタ係数を変化させて前記フィルタ処理(例えば平滑化処理)を実行する。   That is, the image processing unit 28 calculates the first coefficient for each voxel of the volume data set based on the distance between the processing target voxel and the reference point, and based on the S / N ratio of the processing target voxel. To calculate the second coefficient. Then, the image processing unit 28 changes the filter coefficient based on both the first coefficient and the second coefficient, and executes the filter process (for example, the smoothing process).

ここで、“前記第1の係数と前記第2の係数との双方に基づいてフィルタ係数を変化させ”とは、例えば、第1の係数と第2の係数との総和や乗算、または、何れか大きい方の値を採用する等によって第3の係数を算出して設定し、該第3の係数に基づいてフィルタ処理におけるフィルタ係数を変化させればよい。具体的には、画像処理ユニット28は、例えばボクセルと基準点との距離が遠いほどぼかしを強くするようにフィルタ係数を変化させて平滑化処理を行えばよい。   Here, “change the filter coefficient based on both the first coefficient and the second coefficient” means, for example, the sum or multiplication of the first coefficient and the second coefficient, The third coefficient may be calculated and set by adopting the larger value or the like, and the filter coefficient in the filter processing may be changed based on the third coefficient. Specifically, the image processing unit 28 may perform the smoothing process by changing the filter coefficient so that the blur becomes stronger as the distance between the voxel and the reference point increases, for example.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

P…ポインタ、 ROI…関心領域、 1…本超音波診断装置、 11…装置本体、 12…超音波プローブ、 13…入力装置、 14…モニター、 21…超音波送信ユニット、 22…超音波受信ユニット、 23…Bモード処理ユニット、 24…血流検出ユニット、 25…RAWデータメモリ、 26…ボリュームデータ生成ユニット、 28…画像処理ユニット、 29…制御プロセッサ、 30…表示処理ユニット、 31…記憶ユニット、 32…インタフェースユニット。     P ... Pointer, ROI ... Region of interest, 1 ... This ultrasonic diagnostic apparatus, 11 ... Main unit, 12 ... Ultrasonic probe, 13 ... Input device, 14 ... Monitor, 21 ... Ultrasonic transmission unit, 22 ... Ultrasonic reception unit 23 ... B-mode processing unit, 24 ... blood flow detection unit, 25 ... RAW data memory, 26 ... volume data generation unit, 28 ... image processing unit, 29 ... control processor, 30 ... display processing unit, 31 ... storage unit, 32: Interface unit.

Claims (13)

被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じたぼかし処理を実行し、処理後の前記医用三次元画像データをレンダリングする処理部と
を具備することを特徴とする画像処理装置。
A three-dimensional image data storing unit for storing a medical three-dimensional image data collected in response to the three-dimensional region in the subject,
For each voxel of the medical three-dimensional image data, a processing unit for the blurring processing in accordance with the relative position between each of the voxels and Jo Tokoro of standards run, rendering the medical three-dimensional image data processed An image processing apparatus comprising:
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じた色を付与する処理を実行し、処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical three-dimensional image data, a processing unit that performs a process of assigning a color according to a relative position between each voxel and a predetermined reference, and renders the medical three-dimensional image data after processing;
を具備することを特徴とする画像処理装置。An image processing apparatus comprising:
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じたフィルタ係数を用いたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical 3D image data, filter processing using a filter coefficient corresponding to the relative position between the voxel and a predetermined reference is performed, and the medical 3D image data after the filter processing is rendered With processing part
を具備することを特徴とする画像処理装置。An image processing apparatus comprising:
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じた第1の係数および前記ボクセルのS/N比に基づく第2の係数の両方に基づくフィルタ係数を用いたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical three-dimensional image data, a filter coefficient based on both a first coefficient corresponding to a relative position between the voxel and a predetermined reference and a second coefficient based on the S / N ratio of the voxel A processing unit that executes a filtering process using an image and renders the medical three-dimensional image data after the filtering process;
を具備することを特徴とする画像処理装置。An image processing apparatus comprising:
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準点との相対位置に応じたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データを、前記基準点を視点とした透視投影法によってレンダリングする処理部とFor each voxel of the medical 3D image data, a filtering process is performed according to the relative position between each voxel and a predetermined reference point, and the filtered medical 3D image data is viewed from the reference point. A rendering unit that renders with the perspective projection method
を具備することを特徴とする画像処理装置。An image processing apparatus comprising:
前記ぼかし処理は、平滑化処理を含むことを特徴とする、請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the blurring process includes a smoothing process. 前記ボクセルと前記所定の基準との相対位置とは、前記ボクセルと前記所定の基準との間の距離であることを特徴とする請求項1乃至4のうち少なくともいずれかに記載の画像処理装置。The image processing apparatus according to claim 1, wherein the relative position between the voxel and the predetermined reference is a distance between the voxel and the predetermined reference. 請求項1乃至7のうち少なくともいずれかに記載の画像処理装置を含むことを特徴とする超音波診断装置。An ultrasonic diagnostic apparatus comprising the image processing apparatus according to claim 1. コンピュータに、On the computer,
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じたぼかし処理を実行し、処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical three-dimensional image data, a processing unit that performs a blurring process according to a relative position between the voxel and a predetermined reference, and renders the processed medical three-dimensional image data;
を実現させることを特徴とするプログラム。A program characterized by realizing.
コンピュータに、On the computer,
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じた色を付与する処理を実行し、処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical three-dimensional image data, a processing unit that performs a process of assigning a color according to a relative position between each voxel and a predetermined reference, and renders the medical three-dimensional image data after processing;
を実現させることを特徴とするプログラム。A program characterized by realizing.
コンピュータに、On the computer,
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じたフィルタ係数を用いたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical 3D image data, filter processing using a filter coefficient corresponding to the relative position between the voxel and a predetermined reference is performed, and the medical 3D image data after the filter processing is rendered With processing part
を実現させることを特徴とするプログラム。A program characterized by realizing.
コンピュータに、On the computer,
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準との相対位置に応じた第1の係数および前記ボクセルのS/N比に基づく第2の係数の両方に基づくフィルタ係数を用いたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データをレンダリングする処理部とFor each voxel of the medical three-dimensional image data, a filter coefficient based on both a first coefficient corresponding to a relative position between the voxel and a predetermined reference and a second coefficient based on the S / N ratio of the voxel A processing unit that executes a filtering process using an image and renders the medical three-dimensional image data after the filtering process;
を実現させることを特徴とするプログラム。A program characterized by realizing.
コンピュータに、On the computer,
被検体の三次元領域に対応して収集された医用三次元画像データを記憶する三次元画像データ記憶部と、A 3D image data storage unit for storing medical 3D image data collected corresponding to the 3D region of the subject;
前記医用三次元画像データの各ボクセルについて、それぞれの前記ボクセルと所定の基準点との相対位置に応じたフィルタ処理を実行し、フィルタ処理後の前記医用三次元画像データを、前記基準点を視点とした透視投影法によってレンダリングする処理部とFor each voxel of the medical 3D image data, a filtering process is performed according to the relative position between each voxel and a predetermined reference point, and the filtered medical 3D image data is viewed from the reference point. A rendering unit that renders with the perspective projection method
を実現させることを特徴とするプログラム。A program characterized by realizing.
JP2012117819A 2012-05-23 2012-05-23 Ultrasonic diagnostic apparatus, image processing apparatus, and program Active JP5996268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012117819A JP5996268B2 (en) 2012-05-23 2012-05-23 Ultrasonic diagnostic apparatus, image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117819A JP5996268B2 (en) 2012-05-23 2012-05-23 Ultrasonic diagnostic apparatus, image processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013244047A JP2013244047A (en) 2013-12-09
JP5996268B2 true JP5996268B2 (en) 2016-09-21

Family

ID=49844324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117819A Active JP5996268B2 (en) 2012-05-23 2012-05-23 Ultrasonic diagnostic apparatus, image processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP5996268B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019610B2 (en) 2017-01-24 2022-02-15 ナブテスコ株式会社 Automatic door device with guide rail and stopper, stopper attached to guide rail and mounting method to attach stopper to guide rail

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102297346B1 (en) * 2014-10-31 2021-09-03 삼성메디슨 주식회사 Medical image apparatus and displaying medical image thereof
KR20170068944A (en) 2015-12-10 2017-06-20 삼성메디슨 주식회사 Method of displaying a ultrasound image and apparatus thereof
US10198621B2 (en) * 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation
US10593099B2 (en) * 2017-11-14 2020-03-17 Siemens Healthcare Gmbh Transfer function determination in medical imaging

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4768495B2 (en) * 2006-04-04 2011-09-07 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
JP4909137B2 (en) * 2007-03-15 2012-04-04 日立アロカメディカル株式会社 Volume data processing apparatus and method
JP5523681B2 (en) * 2007-07-05 2014-06-18 株式会社東芝 Medical image processing device
US8224056B2 (en) * 2009-12-15 2012-07-17 General Electronic Company Method for computed tomography motion estimation and compensation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019610B2 (en) 2017-01-24 2022-02-15 ナブテスコ株式会社 Automatic door device with guide rail and stopper, stopper attached to guide rail and mounting method to attach stopper to guide rail

Also Published As

Publication number Publication date
JP2013244047A (en) 2013-12-09

Similar Documents

Publication Publication Date Title
US10278670B2 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JP5762076B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and medical image diagnostic apparatus
JP5422264B2 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
JP5872216B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing apparatus
JP7239275B2 (en) Ultrasound diagnostic device and puncture support program
JP5984243B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program
JP7150800B2 (en) Motion-adaptive visualization in medical 4D imaging
JP7313902B2 (en) ultrasound diagnostic equipment
JP6121766B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP5996268B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
US20210161510A1 (en) Ultrasonic diagnostic apparatus, medical imaging apparatus, training device, ultrasonic image display method, and storage medium
JP5942217B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP2009291295A (en) Medical image processor, ultrasonic diagnostic apparatus and ultrasonic image acquisition program
US20120203111A1 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image acquisition method
JP2014054362A (en) Ultrasonic diagnostic apparatus, image processing apparatus and program
JP7286025B2 (en) Systems and methods for assessing placenta
US20120095341A1 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
JP2019213859A (en) Analyzer and program
JP5498090B2 (en) Image processing apparatus and ultrasonic diagnostic apparatus
KR20100068659A (en) Ultrasound system and method for forming a plurality of 3 dimensional ultrasound images
JP5823184B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP7330705B2 (en) Image analysis device
JP2021049129A (en) Ultrasound diagnostic device and image processing device
JP5797514B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160425

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160824

R150 Certificate of patent or registration of utility model

Ref document number: 5996268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350