JP2007135841A - Ultrasonic image processor - Google Patents

Ultrasonic image processor Download PDF

Info

Publication number
JP2007135841A
JP2007135841A JP2005333195A JP2005333195A JP2007135841A JP 2007135841 A JP2007135841 A JP 2007135841A JP 2005333195 A JP2005333195 A JP 2005333195A JP 2005333195 A JP2005333195 A JP 2005333195A JP 2007135841 A JP2007135841 A JP 2007135841A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
ultrasonic image
ultrasonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005333195A
Other languages
Japanese (ja)
Other versions
JP4758735B2 (en
Inventor
Yuko Yamashita
優子 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aloka Co Ltd filed Critical Aloka Co Ltd
Priority to JP2005333195A priority Critical patent/JP4758735B2/en
Publication of JP2007135841A publication Critical patent/JP2007135841A/en
Application granted granted Critical
Publication of JP4758735B2 publication Critical patent/JP4758735B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accelerate image processing while preventing the decline of image quality when generating images from three-dimensional data of ultrasonic echo. <P>SOLUTION: A plurality of rays 50 and 52, etc., are set to the three-dimensional data 30 for the inside of a diagnostic object obtained by three-dimensional ultrasonic diagnosing; rendering processing is performed along the respective rays, and two or more partial images (the image indicated by pixels 34 and 38, etc., displayed by shadows and the image indicated by pixels 36 and 40, etc., displayed in white) which do not overlap at least partially are generated. To the rays corresponding to the respective partial images, the rendering processing different from the one of the rays corresponding to the other partial images is set. Then, the obtained partial images are combined and the entire image is generated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、超音波エコーの三次元データをもとに、三次元的な画像を生成する技術に関する。   The present invention relates to a technique for generating a three-dimensional image based on three-dimensional data of ultrasonic echoes.

超音波診断においては、生体等の診断対象の内部を三次元的に診断する場合がある。例えば、母胎に対する超音波診断では、しばしば、胎児の三次元的な診断を行い、その動画像を生成・表示する。このような三次元データの処理、あるいは時間を含めた四次元データの処理には、一般に膨大な計算が必要となる。   In ultrasonic diagnosis, there are cases in which the inside of a diagnosis target such as a living body is three-dimensionally diagnosed. For example, in an ultrasound diagnosis for a mother's womb, a three-dimensional diagnosis of a fetus is often performed and a moving image is generated and displayed. In general, enormous calculations are required for processing such three-dimensional data or processing four-dimensional data including time.

図21は、超音波画像処理装置における一般的な画像生成の処理態様を説明する図である。ここでは、超音波の送受信によって得られた三次元エコーデータ500をもとにして、二つのレンダリング処理が行われる。すなわち、レンダリング1処理部502と、レンダリング2処理部504は、互いに異なるレンダリングアルゴリズムで、共に全領域についての画像を生成する。そして、レンダリング1処理部502によって得られた画像に対してはαの重みが与えられ、レンダリング2処理部504によって得られた画像に対してはβの重みが与えられて、加算器506で加算処理される。この結果得られた合成画像は、ディスプレイ等の表示部508に表示される。   FIG. 21 is a diagram for explaining a general image generation processing mode in the ultrasonic image processing apparatus. Here, two rendering processes are performed based on the three-dimensional echo data 500 obtained by transmitting and receiving ultrasonic waves. That is, the rendering 1 processing unit 502 and the rendering 2 processing unit 504 both generate images for the entire region using different rendering algorithms. Then, a weight of α is given to the image obtained by the rendering 1 processing unit 502, and a weight of β is given to the image obtained by the rendering 2 processing unit 504, and the addition is performed by the adder 506. It is processed. The composite image obtained as a result is displayed on a display unit 508 such as a display.

図22は、従来における画像生成処理の別の態様を説明する図である。この超音波画像処理装置においても、三次元エコーデータ500は二つのレンダリング処理系統によって処理されている。一つはレンダリング処理部510による処理系統であり、もう一つは平滑化フィルタ512及びレンダリング処理部514からなる処理系統である。平滑化フィルタ512は、当初の三次元エコーデータ500に対し平滑化処理を行って滑らかな三次元データを作成するフィルタである。平滑化は例えば3×3×3の大きさで平均化することにより行われる。この平滑化されたデータに対してレンダリング処理を行うレンダリング処理部514は、レンダリング処理部510と同じレンダリングアルゴリズムに従ってレンダリングを行う。したがって、この態様においては、解像度が異なる二つの三次元データから同じレンダリングアルゴリズムで算出された各画像が加算されて、表示用の画像が生成される。   FIG. 22 is a diagram illustrating another aspect of conventional image generation processing. Also in this ultrasonic image processing apparatus, the three-dimensional echo data 500 is processed by two rendering processing systems. One is a processing system by the rendering processing unit 510, and the other is a processing system including a smoothing filter 512 and a rendering processing unit 514. The smoothing filter 512 is a filter that performs smoothing processing on the original three-dimensional echo data 500 to create smooth three-dimensional data. Smoothing is performed, for example, by averaging with a size of 3 × 3 × 3. A rendering processing unit 514 that performs rendering processing on the smoothed data performs rendering according to the same rendering algorithm as the rendering processing unit 510. Therefore, in this aspect, each image calculated by the same rendering algorithm from two three-dimensional data having different resolutions is added to generate a display image.

図21及び図22に示した各態様においては、二つの異なる画像を重ね合わせて、画像生成を行った。すなわち、図21の例では異なるレンダリングアルゴリズムにより得た画像を重ね合わせ、図22の例では滑らかさの異なる三次元データから同じレンダリングアルゴリズムを用いて得た画像を重ね合わせた。こうした処理を行った場合、各画像の特徴を併せ持つ高画質の画像を得ることができる。   In each aspect shown in FIGS. 21 and 22, two different images are superimposed to generate an image. That is, in the example of FIG. 21, images obtained by different rendering algorithms are superimposed, and in the example of FIG. 22, images obtained by using the same rendering algorithm from three-dimensional data having different smoothness are superimposed. When such processing is performed, a high-quality image having the characteristics of each image can be obtained.

しかし、図21や図22に示した処理態様では、一つの画像を得るために、単一の画像を得る場合に比べて2倍程度の演算を必要とする。したがって、空間分解能が高い画像を迅速に得ることが困難となる。また、この手法により動画像を生成する場合には、フレームレートの低下を招くことにもなる。   However, in the processing modes shown in FIG. 21 and FIG. 22, in order to obtain one image, about twice as many operations are required as compared with the case of obtaining a single image. Therefore, it is difficult to quickly obtain an image with high spatial resolution. In addition, when a moving image is generated by this method, the frame rate is lowered.

なお、超音波エコーの三次元データを可視化する技術に関する文献としては、例えば、下記特許文献1を挙げることができる。ただし、この文献の技術は、遠近に応じて濃淡付けしたドプラ画像と組織画像を重ねて一枚の画像を生成するものであり、同種の画像を合成する本発明の態様とは異なるものである。   In addition, as a literature regarding the technique which visualizes the three-dimensional data of an ultrasonic echo, the following patent document 1 can be mentioned, for example. However, the technique of this document generates a single image by superimposing the Doppler image shaded according to the perspective and the tissue image, and is different from the aspect of the present invention in which the same kind of image is synthesized. .

特許第3270158号公報Japanese Patent No. 3270158

本発明の目的は、超音波エコーの三次元データから画像を生成するにあたり、画質の低下を防ぎつつ、画像処理の高速化を行う画像処理技術を確立することにある。   An object of the present invention is to establish an image processing technique for speeding up image processing while preventing deterioration in image quality when generating an image from three-dimensional data of ultrasonic echoes.

本発明の別の目的は、レイ毎にレンダリングを行って三次元的な超音波画像を生成するための新たな技術を開発することにある。   Another object of the present invention is to develop a new technique for generating a three-dimensional ultrasonic image by rendering for each ray.

本発明の超音波画像処理装置は、三次元的な超音波診断により得られた診断対象内部についての三次元データに対し、複数のレイを設定して各レイに沿ってレンダリング処理を行い、少なくとも一部が重複しない二以上の部分画像を生成する生成手段と、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは異なるレンダリング処理を設定する設定手段と、得られた二以上の部分画像を合成して、全体画像を生成する合成手段と、を備える。   The ultrasonic image processing apparatus of the present invention performs a rendering process along each ray by setting a plurality of rays for the three-dimensional data about the inside of the diagnosis target obtained by the three-dimensional ultrasonic diagnosis, A generating unit that generates two or more partial images that do not partially overlap, and a setting unit that sets a rendering process different from a ray corresponding to another partial image for a ray corresponding to each partial image, and Combining means for combining two or more partial images to generate an entire image.

超音波画像処理装置とは、超音波エコーデータをもとに、画像生成やその加工などの画像処理を行う装置である。画像処理は、画像処理専用のハードウエアを用いたり、汎用的な演算機能を備えたハードウエアをソフトウエア制御したりすることで実現される。三次元データは、超音波を生体等の診断対象に送信し、その反射波を受信して得られる。超音波画像処理装置は、超音波送受信機能を備えた装置(超音波診断装置)として構成されてもよい。超音波画像処理装置はこの三次元データをもとに画像を生成し、生成されたこの画像は典型的には液晶ディスプレイ等の表示装置に表示される。超音波画像処理装置は、この表示装置を内蔵するものであってもよい。   An ultrasonic image processing apparatus is an apparatus that performs image processing such as image generation and processing based on ultrasonic echo data. Image processing is realized by using hardware dedicated to image processing or by controlling hardware having a general-purpose arithmetic function by software. The three-dimensional data is obtained by transmitting an ultrasonic wave to a diagnostic object such as a living body and receiving the reflected wave. The ultrasonic image processing apparatus may be configured as an apparatus (ultrasonic diagnostic apparatus) having an ultrasonic transmission / reception function. The ultrasonic image processing device generates an image based on the three-dimensional data, and the generated image is typically displayed on a display device such as a liquid crystal display. The ultrasonic image processing apparatus may incorporate this display device.

生成手段は、診断対象内部の三次元的測定により得られた超音波エコーの三次元データの情報を、レイに沿って適当な投影面に投影させて部分画像を生成する手段である。つまり、投影面を通って三次元データに入射されるレイ(光線)を設定し、レイが通過する三次元データ域の少なくとも一部の値を反映させて投影面にレンダリングする。これにより、投影面における部分画像が生成される。ここで、部分画像とは、一又は複数のレイに対応する画像であって、同一態様のレンダリング処理により生成される画像をいう。一つの部分画像は、空間的に分離した複数の領域により構成されていてもよい。各部分画像は、他の部分画像とその領域の全部又は一部が互いに重複しないように生成される。   The generating means is a means for generating a partial image by projecting information of three-dimensional data of ultrasonic echoes obtained by three-dimensional measurement inside the diagnosis target onto an appropriate projection plane along the ray. That is, a ray (light ray) incident on the three-dimensional data through the projection plane is set, and at least a part of the three-dimensional data area through which the ray passes is reflected and rendered on the projection plane. Thereby, a partial image on the projection plane is generated. Here, the partial image is an image corresponding to one or a plurality of rays and is generated by the rendering process in the same mode. One partial image may be composed of a plurality of spatially separated regions. Each partial image is generated so that another partial image and all or part of the region do not overlap each other.

設定手段は、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは異なるレンダリング処理を設定する。異なるレンダリング処理とは、レンダリングの手法自体が異なるものであってもよいし、同一手法ながら処理パラメータを異ならせたり、処理に用いる三次元データの解像度を平滑化するなどして異ならせたりするものであってもよい。   The setting means sets a rendering process different from the rays corresponding to the other partial images for the rays corresponding to the partial images. Different rendering processes may be different rendering methods themselves, or different processing parameters in the same method, or by differentiating the resolution of the 3D data used for processing. It may be.

合成手段は、生成された複数の部分画像を合成し、全体画像を生成する。合成は、例えば画素毎に重み付け加算をして行うことができる。近隣の画素や領域との間で、平滑化などの処理を行うことも可能である。合成における各部分画像の面積比(画素数比)や重みの比は、均等であってもよいし、不均等であってもよい。   The synthesizing unit synthesizes the plurality of generated partial images to generate an entire image. The synthesis can be performed by weighted addition for each pixel, for example. It is also possible to perform processing such as smoothing between neighboring pixels and regions. The area ratio (pixel number ratio) and weight ratio of each partial image in the composition may be equal or unequal.

この態様によれば、少なくとも一部が重複しない複数の部分画像を合成して、全体画像が形成される。したがって、全体画像は、部分画像に対応した各レンダリング処理の特徴を複合的に反映したものとなる。しかも、各部分画像は、少なくとも一部が重複しないため、単純に全体領域をカバーした二つの画像を生成して合成する場合に比べて、処理時間を短縮することが可能となる。これにより、画質の維持・向上と、画像処理の高速化を両立した画像形成を実現することができる。   According to this aspect, a plurality of partial images that do not overlap at least partially are synthesized to form an entire image. Therefore, the entire image is a composite reflection of the characteristics of each rendering process corresponding to the partial image. Moreover, since each partial image does not overlap at least in part, the processing time can be shortened compared to the case where two images covering the entire area are simply generated and combined. As a result, it is possible to realize image formation that maintains and improves the image quality and speeds up image processing.

本発明の超音波画像処理装置の一態様では、設定手段においては、各部分画像に対応するレイに対し、レンダリング結果に寄与する三次元データの空間的拡がりが他の部分画像に対応するレイとは異なるレンダリング処理を設定する。空間的拡がりは、レイ方向への拡がりであっても、レイと直交する方向への拡がりであってもよい。空間的拡がりが大きい場合には、平滑化された部分画像が形成され、空間的拡がりが小さい場合には、微細構造を反映した部分画像が形成される。   In one aspect of the ultrasonic image processing apparatus of the present invention, in the setting means, the spatial expansion of the three-dimensional data contributing to the rendering result corresponds to the ray corresponding to the other partial image. Sets a different rendering process. Spatial spread may be spread in the ray direction or spread in a direction perpendicular to the ray. When the spatial extension is large, a smoothed partial image is formed, and when the spatial extension is small, a partial image reflecting a fine structure is formed.

本発明の超音波画像処理装置の一態様では、設定手段においては、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは、同じアルゴリズムかつ異なるパラメータをもつレンダリング処理を設定する。また、本発明の超音波画像処理装置の一態様では、設定手段においては、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは、異なるアルゴリズムをもつレンダリング処理を設定する。アルゴリズムの例としては、Volume Rendering、VOL、MIP、X−ray,Shadedなどを挙げることができる。また、パラメータの例としては透過度や不透明度を挙げることができる。   In one aspect of the ultrasonic image processing apparatus of the present invention, the setting means sets, for a ray corresponding to each partial image, a rendering process having the same algorithm and different parameters from the rays corresponding to the other partial images. To do. In the aspect of the ultrasonic image processing apparatus of the present invention, the setting means sets a rendering process having a different algorithm for the ray corresponding to each partial image from the ray corresponding to the other partial image. . Examples of algorithms include Volume Rendering, VOL, MIP, X-ray, and Shaded. Examples of parameters include transparency and opacity.

本発明の超音波画像処理装置の一態様では、生成手段においては、領域が互いに重複しない二以上の部分画像を生成する。これにより、部分画像の生成効率を高めることができる。   In one aspect of the ultrasonic image processing apparatus of the present invention, the generation unit generates two or more partial images whose regions do not overlap each other. Thereby, the generation efficiency of partial images can be increased.

本発明の超音波画像処理装置の一態様では、生成手段においては、一画素を模様形成の単位として、互いに補完する市松模様をなす二つの部分画像を生成する。市松模様とは、言い換えればチェス盤の模様である。一方が白、他方が黒のマス目パターンに従って配置され、各マス目の大きさは一画素からなる。   In one aspect of the ultrasonic image processing apparatus of the present invention, the generating means generates two partial images having a checkered pattern that complement each other with one pixel as a unit of pattern formation. In other words, the checkered pattern is a chessboard pattern. One is white and the other is arranged according to a black cell pattern, and each cell has a size of one pixel.

本発明の超音波画像処理装置の一態様では、合成手段においては、平滑化処理を行って、部分画像を滑らかに合成する。平滑化処理は、周囲の画素(領域)との間の値のギャップを小さくする処理であり、典型的には複数画素の値を重み付け平均するフィルタ処理により行われる。   In one aspect of the ultrasonic image processing apparatus of the present invention, the synthesizing means performs a smoothing process to synthesize the partial images smoothly. The smoothing process is a process of reducing a value gap between surrounding pixels (regions), and is typically performed by a filter process that weights and averages the values of a plurality of pixels.

本発明の超音波画像処理装置の一態様では、生成手段及び合成手段を繰り返して全体画像の時系列データを生成する場合に、設定手段においてもレンダリング処理の設定が繰り返し変更される。時系列データ(動画像データ)は、時系列の三次元データに対して生成手段及び合成手段を行うこと生成してもよいし、ある時刻の三次元データに対して次々と視点や投影面等を変えながら生成手段及び合成手段を行うこと生成してもよい。この時系列データの生成にあたっては、設定手段におけるレンダリング処理の設定が、1フレーム又は複数フレームを処理した段階で別の設定に変更される。これにより、全体画像のある箇所が常に同じ特性をもつことを回避し、時系列データの画質を向上させることができる。   In one aspect of the ultrasonic image processing apparatus of the present invention, when the time series data of the entire image is generated by repeating the generation unit and the synthesis unit, the setting of the rendering process is repeatedly changed in the setting unit. The time-series data (moving image data) may be generated by performing generation means and synthesis means on the time-series three-dimensional data, or the viewpoint, projection plane, etc. one after another with respect to the three-dimensional data at a certain time. It may be generated by performing the generating means and the synthesizing means while changing. In generating the time series data, the setting of the rendering process in the setting unit is changed to another setting when one frame or a plurality of frames are processed. As a result, it is possible to avoid that a part of the entire image always has the same characteristics, and to improve the image quality of the time series data.

なお、本発明の超音波画像処理装置は、三次元的な超音波診断により得られた診断対象内部についての三次元データに対し、複数のレイに沿ってそれぞれレンダリング処理を行って、画像を生成する手段と、一又は複数のレイに対し、他のレイとは異なるレンダリング処理を設定する手段と、を備えるものであってもよい。   The ultrasonic image processing apparatus according to the present invention generates an image by performing rendering processing along a plurality of rays on three-dimensional data about the inside of a diagnosis target obtained by three-dimensional ultrasonic diagnosis. And means for setting a rendering process different from that of other rays for one or a plurality of rays.

本発明により、超音波エコーの三次元データから複数のレンダリング処理の特徴をあわせもつ三次元的な画像を効率的に生成することが可能となる。   According to the present invention, it is possible to efficiently generate a three-dimensional image having a plurality of rendering processing features from three-dimensional data of ultrasonic echoes.

図1は、超音波診断装置10の構成例を説明する概略的なブロック図である。この超音波診断装置10は、プログラム及びユーザ入力に基づいて当該装置を制御する制御回路部12を備えている。機械走査制御部14は、診断対象に対し超音波送受信を行うプローブ16の超音波走査を機械的に制御し、三次元的な走査を行う。また、送信制御部18は、超音波送信信号を適切なタイミング及び波形でプローブ16に送信する。これにより、圧電素子を備えたプローブ16は、超音波を送波するとともに、診断対象からの反射したエコーを受信して電気信号に変換する。   FIG. 1 is a schematic block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus 10. The ultrasonic diagnostic apparatus 10 includes a control circuit unit 12 that controls the apparatus based on a program and user input. The mechanical scanning control unit 14 mechanically controls ultrasonic scanning of the probe 16 that performs ultrasonic transmission / reception with respect to the diagnosis target, and performs three-dimensional scanning. Further, the transmission control unit 18 transmits the ultrasonic transmission signal to the probe 16 at an appropriate timing and waveform. Thereby, the probe 16 provided with the piezoelectric element transmits an ultrasonic wave, receives an echo reflected from the diagnosis target, and converts it into an electric signal.

受信回路20は、プローブ16から出力された受信信号の増幅等を行う回路である。そして、信号処理部22では、受信信号をもとに三次元データの生成が行われる。この三次元データは三次元画像処理部24においてレンダリング処理され、得られた画像は表示部26のディスプレイに表示される。   The receiving circuit 20 is a circuit that amplifies the received signal output from the probe 16. The signal processing unit 22 generates three-dimensional data based on the received signal. The three-dimensional data is rendered in the three-dimensional image processing unit 24, and the obtained image is displayed on the display of the display unit 26.

この超音波診断装置10は、例えば、人体内部を診断する目的で使用される。具体例としては、母胎に対する診断を行って、胎児の姿形を動画表示する態様が挙げられる。この動画表示を行う場合には、プローブ16による超音波送受信をはじめとして、各処理が高速で繰り返し実行される。   This ultrasonic diagnostic apparatus 10 is used for the purpose of diagnosing the inside of a human body, for example. As a specific example, there is an aspect in which a diagnosis of a mother's womb is performed and a fetal figure is displayed as a moving image. When this moving image display is performed, each process is repeatedly executed at a high speed, including ultrasonic transmission / reception by the probe 16.

図2は、図1に示した三次元画像処理部24での処理態様を模式的に示した図である。三次元画像処理部24では、信号処理部22が生成した三次元データ30をもとに、投影面32上で画像を生成する。ここでは、投影面32の各画素は、市松模様に二つに分けられて、それぞれ不透明度(Opacity)の高い設定と低い設定とがなされている。例えば、画素34は、Opacityが高く、その隣りの画素36はOpacityが低い。そして、画素36の隣りにはOpacityの高い画素38、画素38の隣りにはOpacityの低い画素40が続くというように設定がなされている。   FIG. 2 is a diagram schematically showing a processing mode in the three-dimensional image processing unit 24 shown in FIG. The three-dimensional image processing unit 24 generates an image on the projection plane 32 based on the three-dimensional data 30 generated by the signal processing unit 22. Here, each pixel of the projection surface 32 is divided into two in a checkered pattern, and a setting with high and low opacity is respectively set. For example, the pixel 34 has high Opacity, and the adjacent pixel 36 has low Opacity. The pixel 36 is set so that the pixel 38 with high Opacity is adjacent to the pixel 36 and the pixel 40 with low Opacity is adjacent to the pixel 38.

投影面32の各画素に対しては、投影面32に垂直なレイ(つまり視点を無限遠に設定したレイ)が設定されている。具体的には、Opacityが高い画素に対してレイ50,54,...が設定され、Opacityが低い画素に対してレイ52,56,...が設定されている。そして、こうしたレイに沿って三次元データ30の少なくとも一部の値が参照され、その画素における画素値が決定される。   For each pixel on the projection plane 32, a ray perpendicular to the projection plane 32 (that is, a ray with the viewpoint set to infinity) is set. More specifically, the rays 50, 54,. . . Are set and the rays 52, 56,. . . Is set. Then, at least a part of the values of the three-dimensional data 30 is referred to along such a ray, and a pixel value in the pixel is determined.

ここで、一例としてVOLのアルゴリズムにおける画素値の決定手順について説明する。演算過程における画素値の出力をCout、画素値の入力をCin、三次元データのレイ上の各値をei、各eiに与えられた不透明度をαi(0≦αi≦1)とした場合、VOLのアルゴリズムでは、
out=Cin(1−αi)+αi×ei (1)
の演算がレイに沿って手前側から奥側へと順次実行される。そして、
Σαi≧1 (2)
の条件を満たした時点でそのレイについての演算を終了し、Coutが画素値として出力される。
Here, as an example, a procedure for determining a pixel value in the VOL algorithm will be described. The pixel value output in the calculation process is C out , the pixel value input is C in , each value on the three-dimensional data ray is e i , and the opacity given to each e i is α i (0 ≦ α i ≦ In the case of 1), in the VOL algorithm,
C out = C in (1−α i ) + α i × e i (1)
Are sequentially executed from the near side to the far side along the ray. And
Σα i ≧ 1 (2)
When the above condition is satisfied, the calculation for that ray is terminated, and C out is output as a pixel value.

不透明度αiは、Opacityの高低に応じた異なる値に設定される。図3は、Opacityの設定を説明するためのグラフである。横軸は、三次元データにおけるエコー値を0〜255の256階調で表しており、縦軸は、各エコー値に対して与えられるOpacityを表している。このグラフには、5通りの設定曲線60,62,64,66,68が描かれている。例えば、一番上側の設定曲線60は、最も不透明な画像を得るために設定されるエコー値とOpacityとの関係が示されており、最も反射強度が強い255のエコー値に対しては、全く透過性がないことを示す1のOpacityが与えられる。これに対し、一番下側の設定曲線68は、最も透明性のある画像を得るためのものであり、最も反射強度が強い255のエコー値に対しても比較的透過性が高い0.2のOpacityが与えられる。 The opacity α i is set to a different value according to the level of Opacity. FIG. 3 is a graph for explaining setting of Opacity. The horizontal axis represents the echo value in the three-dimensional data in 256 gradations from 0 to 255, and the vertical axis represents the Opacity given to each echo value. In this graph, five setting curves 60, 62, 64, 66, and 68 are drawn. For example, the uppermost setting curve 60 shows the relationship between the echo value set to obtain the most opaque image and Opacity. For the echo value of 255 having the strongest reflection intensity, An Opacity of 1 is given to indicate no permeability. On the other hand, the lowermost setting curve 68 is for obtaining the most transparent image, and has a relatively high transparency even for the echo value of 255 having the strongest reflection intensity. Opacity is given.

図4は、レイ上の複数のサンプル点のうち、どのレイが参照されるかをOpacityが高い場合(図4(a))と、Opacityが低い場合(図4(b))とで比較した図である。両図においては、各データのエコー強度は同じであることを仮定している。   FIG. 4 compares which ray of a plurality of sample points on a ray is referred to when the Opacity is high (FIG. 4A) and when the Opacity is low (FIG. 4B). FIG. In both figures, it is assumed that the echo intensity of each data is the same.

図4(a)においては、高不透明度のレイ70に沿って存在するサンプル点72,74,...のうち、表面から四つのサンプル点72,74,76,78がレンダリングに用いられている。これに対し、図4(b)においては、低不透明度のレイ100に沿って存在するサンプル点102,104,...のうち、表面から11個のサンプル点102,...,110がレンダリングに用いられている。この違いは、高Opacityの場合には式(2)の条件を満たすのに4個のサンプル点で足りたのに対し、低Opacityの場合には11個のサンプル点を要したことによる。結果として、Opacityが低い図4(b)の場合には、表面から深く入り込んだサンプル点の値も参照されて輝度値が決定されることとなり、図4(a)の場合に比べて深部までを透過的に反映した画像が形成される。   4A, sample points 72, 74,... Existing along a highly opaque ray 70. In FIG. . . Of these, four sample points 72, 74, 76, 78 from the surface are used for rendering. On the other hand, in FIG. 4B, the sample points 102, 104,. . . , Eleven sample points 102,. . . 110 are used for rendering. This difference is due to the fact that four sample points are sufficient to satisfy the condition of equation (2) in the case of high capacity, whereas eleven sample points are required in the case of low capacity. As a result, in the case of FIG. 4B where the Opacity is low, the value of the sample point that has entered deeply from the surface is also referred to determine the luminance value, and the depth is deeper than in the case of FIG. An image that transparently reflects is formed.

このようにして、市松模様を構成する二種類の部分画像が生成される。図5は、市松模様の一方の領域を占める部分画像130と他方の領域を占める部分画像132とを合成して、全体画像134を算出するアルゴリズムを説明する図である。ここでは、隣接する画素との間で平滑処理を行って画素値を決定している。具体的には、各画素については、その画素の画素値をαの重みで、隣接する画素の画素値をβの重みで足し合わせて全体画像134の画素値を決定している。これにより、部分画像130,132の生成処理態様の違いに起因する画素値のギャップを小さくすることができる。   In this way, two types of partial images constituting the checkered pattern are generated. FIG. 5 is a diagram illustrating an algorithm for calculating the entire image 134 by combining the partial image 130 occupying one area of the checkered pattern and the partial image 132 occupying the other area. Here, the pixel value is determined by performing a smoothing process between adjacent pixels. Specifically, for each pixel, the pixel value of the entire image 134 is determined by adding the pixel value of the pixel with the weight of α and the pixel value of the adjacent pixel with the weight of β. Thereby, the gap of the pixel value resulting from the difference in the generation processing mode of the partial images 130 and 132 can be reduced.

なお、合成は、この他にも様々に行うことが可能である。例えば、各画素について、その画素を中心とした3×3画素や5×5画素の画素値を適当な重み付けで足し合わせて画素値を決定することが可能である。この合成操作は、等方的に平滑化を行いうる点で優れている。また、このような平滑処理を行わずに、単純に両部分画像の画素値を全体画像の画素値として採用することも可能である。この態様は、個々の画素の画素値の原情報が失われない点で優れている。   In addition, the synthesis can be performed in various ways. For example, for each pixel, the pixel value can be determined by adding pixel values of 3 × 3 pixels or 5 × 5 pixels centered on the pixel with appropriate weighting. This synthesizing operation is excellent in that it can be smoothed isotropically. Further, it is also possible to simply adopt the pixel values of both partial images as the pixel values of the entire image without performing such smoothing processing. This aspect is excellent in that original information of pixel values of individual pixels is not lost.

図6は、以上に述べた処理の流れをまとめた図である。すなわち、入力される三次元データ140に対し、各レイ1,2,...,Nについてそれぞれレンダリングを施す。レンダリングのアルゴリズム又はパラメータはレイ毎に設定される(144)。これにより得られた部分画像は、平滑化して合成するフィルタリング146の処理を受け、表示部へと送られる(148)。   FIG. 6 is a diagram summarizing the processing flow described above. That is, each of the rays 1, 2,. . . , N are rendered respectively. A rendering algorithm or parameter is set for each ray (144). The partial image thus obtained is subjected to the processing of filtering 146 for smoothing and synthesizing and sent to the display unit (148).

各レイについてのアルゴリズム又はパラメータは、時間的に変化させることができる。図7は、この態様を説明する図である。図6と同様の構成には同一の番号を付して説明を簡略化する。ここでは、新たな三次元データ140が生成されると、その旨を示す切替信号が入力され(150)、その都度レンダリングのパラメータあるいはアルゴリズムが変更される(144)。典型的には、二つのパラメータあるいはアルゴリズムが、新たな入力のたびに入れ替えられる。そして、投影画像152と、例えば一つ前の投影画像の記憶結果(154)とが加算器156によって足し合わされ、フィルタリング146及び表示を行う(148)ように設定することができる。   The algorithm or parameters for each ray can be varied over time. FIG. 7 is a diagram for explaining this aspect. The same components as those in FIG. 6 are given the same reference numerals to simplify the description. Here, when new three-dimensional data 140 is generated, a switching signal indicating that is inputted (150), and the rendering parameter or algorithm is changed each time (144). Typically, two parameters or algorithms are swapped with each new input. Then, the projection image 152 and the storage result (154) of the previous projection image, for example, are added together by the adder 156, and filtering 146 and display can be performed (148).

なお、レンダリング142により得られた投影画像152は、そのままフィルタリング146に処され、表示部へ送られるようにしてもよい(148)。これにより、時間分解能の細かい画像を出力することができる。また、この場合には、各フレーム間のギャップは、それを見る者の視神経系において無意識に施されるフィルタ作用により緩和されることが期待できる。   Note that the projection image 152 obtained by the rendering 142 may be directly processed by the filtering 146 and sent to the display unit (148). Thereby, an image with a fine temporal resolution can be output. Further, in this case, the gap between the frames can be expected to be alleviated by a filter action applied unconsciously in the optic nerve system of the viewer.

以上に説明したレンダリング処理の態様は、様々に変更することが可能である。例えば、二つの部分画像を市松模様ではないパターンに従って生成することができる。特に、両部分画像の面積比を1対1以外に設定する場合には、一般には、少なくとも関心領域において、市松模様の代わりに両画像を十分に均一に分布させた配置パターンを選ぶ必要がある。また、三つ、四つさらにはそれ以上の数のレンダリング処理により部分画像を生成する場合にも、これらの部分画像をバランスよく配置したパターンを選ぶ必要がある。   The aspect of the rendering process described above can be variously changed. For example, two partial images can be generated according to a pattern that is not a checkered pattern. In particular, when the area ratio of both partial images is set to other than 1: 1, it is generally necessary to select an arrangement pattern in which both images are sufficiently evenly distributed in place of the checkered pattern at least in the region of interest. . Also, when generating partial images by three, four or more rendering processes, it is necessary to select a pattern in which these partial images are arranged in a balanced manner.

各部分画像において、レンダリングパラメータの代わりに、レンダリングアルゴリズムを異ならせる態様としては、例えば、VOLのアルゴリズムとXrayアルゴリズムとの組み合わせ例を挙げることができる。すなわち、一方の部分画像を、式(1)と式(2)で示したVOLのアルゴリズムに従って形成するとともに、他方の部分画像を
out=1/N×Σ1 Ni (3)
によって定義されるXrayのアルゴリズムに従って形成する。これにより、診断対象の表面構造を示す画像と、診断対象の深さ方向の平均構造を示す画像とを組み合わせた全体画像を得ることができる。この他にも、Volume Rendering、VOL、MIP、X−ray,Shadedなどの各アルゴリズムを適当に組み合わせることも有効である。
As an aspect in which the rendering algorithm is changed in each partial image instead of the rendering parameter, for example, a combination example of the VOL algorithm and the Xray algorithm can be given. That is, one partial image is formed in accordance with the VOL algorithm shown in Expression (1) and Expression (2), and the other partial image is defined as C out = 1 / N × Σ 1 N e i (3)
Is formed according to the Xray algorithm defined by Thereby, the whole image which combined the image which shows the surface structure of a diagnostic object, and the image which shows the average structure of the depth direction of a diagnostic object can be obtained. In addition, it is also effective to appropriately combine each algorithm such as Volume Rendering, VOL, MIP, X-ray, and Shaded.

続いて、図8〜図20に、試験的に画像処理を行った結果を示す。用いた三次元データは、いずれも、母胎に対して超音波診断を行って得た胎児の頭部付近についてのデータである。   Subsequently, FIGS. 8 to 20 show results of image processing performed on a trial basis. The three-dimensional data used is data about the fetal head region obtained by performing ultrasonic diagnosis on the mother's womb.

図8〜図13は、二つの部分画像を異なるアルゴリズムを用いて生成し、合成する態様を説明する図である。図8は、投影面の全ての画素について、Shadedのアルゴリズムに基づき胎児の表面を可視化した結果を示している。この図では、左側方のやや後ろ側から見た胎児の頭部付近が高分解能で表現されており、目、鼻、口などの顔の構造や、左肩及び左手の存在も確認できる。しかし、この画像では、超音波診断のノイズのために胎児の表面には細かな凹凸が見られる他、額の前方等において母胎内の浮遊物に起因すると思われる物体が表現されてしまっている。このため、画像を見る母親にとって胎児がかわいく感じられないといった問題がある。   8 to 13 are diagrams for explaining a mode of generating and synthesizing two partial images using different algorithms. FIG. 8 shows the result of visualizing the surface of the fetus based on the Shaded algorithm for all the pixels on the projection plane. In this figure, the vicinity of the head of the fetus seen from the left side slightly behind is expressed with high resolution, and the structure of the face such as the eyes, nose and mouth, and the presence of the left shoulder and left hand can be confirmed. However, in this image, fine irregularities are seen on the surface of the fetus due to the noise of ultrasonic diagnosis, and objects that are thought to be caused by floating substances in the womb are expressed in front of the forehead etc. . For this reason, there is a problem that the mother who sees the image cannot feel the fetus cute.

図9は、投影面の全ての画素について、Xrayアルゴリズムを用いて胎児の表面を可視化した結果を示している。この画像は、図8と同じレイを用いて生成したものであり、胎児の厚みについての情報が表現されている。図8との違いとしては、細かな構造は反映されておらず大まかな構造だけが認識できる点や、奥行きに欠ける鼻や手の構造が表現されていない点が指摘できる。   FIG. 9 shows the result of visualizing the fetal surface using the Xray algorithm for all pixels on the projection plane. This image is generated using the same ray as that in FIG. 8, and expresses information about the thickness of the fetus. As a difference from FIG. 8, it can be pointed out that the detailed structure is not reflected and only a rough structure can be recognized, and the nose and hand structures lacking depth are not expressed.

図10は、図8と図9の画像を0.5ずつの重みで加算して得られた画像を示している。この画像では、胎児の表面の凹凸が比較的滑らかに表現され、胎児の表情が穏やかなものとなっている。ただし、この画像は、図8と図9の各図を得るために、通常の2倍のレンダリング処理を行う必要があり、計算量の観点からは好ましくない。   FIG. 10 shows an image obtained by adding the images of FIGS. 8 and 9 with a weight of 0.5. In this image, the irregularities on the surface of the fetus are expressed relatively smoothly, and the facial expression of the fetus is gentle. However, this image needs to be rendered twice as usual in order to obtain the diagrams of FIGS. 8 and 9, which is not preferable from the viewpoint of computational complexity.

図11は、図8と図9の画像を、それぞれ市松模様に切り取って、嵌め合わせることで形成した画像である。この画像では、図10と同様に胎児の表面の凹凸が比較的滑らかになり、胎児がかわいらしく表現されている。しかも、この図は、図10の場合の半分の処理時間で生成可能であり、特に動画像を生成する上で優れている。ただし、図9において表現されていない構造部分では、市松模様の微細なパターンが見えてしまっており、若干画質が低下している。   FIG. 11 is an image formed by cutting and fitting the images of FIG. 8 and FIG. 9 into a checkered pattern. In this image, the irregularities on the surface of the fetus are relatively smooth as in FIG. 10, and the fetus is expressed in a cute manner. In addition, this figure can be generated in half the processing time in the case of FIG. 10, and is particularly excellent in generating moving images. However, in the structure portion that is not represented in FIG. 9, a fine checkered pattern is visible, and the image quality is slightly degraded.

市松模様のパターンが問題となる場合には、平滑化フィルタをかけて両図を合成することが有効となる。図12は、図11の画像に対し3×3画素の平滑化フィルタをかけた例である。この場合には、市松模様は若干目立つ程度にまで減少し、図11の画像がもつ微細構造も十分に表現されている。また、図13は、図11の画像に対し5×5画素の平滑化フィルタをかけた例である。この場合には、市松模様はほぼ完全に解消できている。ただし、図12の場合に比べて微細構造がややぼやけている。フィルタ操作の有無、あるいはフィルタの形状は、必ずしも常に同じ設定とする必要はなく、表現したい構造の大きさなどに応じて適宜変更するようにしてもよい。   When a checkered pattern becomes a problem, it is effective to synthesize both figures by applying a smoothing filter. FIG. 12 shows an example in which a 3 × 3 pixel smoothing filter is applied to the image of FIG. In this case, the checkerboard pattern is reduced to a slightly conspicuous level, and the fine structure of the image in FIG. 11 is sufficiently expressed. FIG. 13 is an example in which a smoothing filter of 5 × 5 pixels is applied to the image of FIG. In this case, the checkerboard pattern is almost completely eliminated. However, the fine structure is slightly blurred compared to the case of FIG. The presence / absence of the filter operation or the shape of the filter need not always be set to the same setting, and may be appropriately changed according to the size of the structure to be expressed.

次に、図14〜図17を用いて、二つの部分画像を同一のアルゴリズム(Shadedのアルゴリズム)かつ異なるパラメータにより生成し、合成する態様を説明する。図14は、Opacityを低く設定して得られた画像であり、図15は、Opacityを高く設定して得られた画像である。Opacityが低い場合には、胎児の表面から深部までが広く反映されるため、図14では胎児の表面が比較的滑らかになっている。これに対し、Opacityが高い場合には、胎児の表面付近からの超音波エコーのみによって胎児の画像が作られる。したがって、図15では、胎児表面の凹凸や胎児の周囲の浮遊物等が目立った画像となっている。   Next, a mode in which two partial images are generated with the same algorithm (Shaded algorithm) and different parameters and synthesized will be described with reference to FIGS. FIG. 14 is an image obtained by setting Opacity low, and FIG. 15 is an image obtained by setting Opacity high. When the Opacity is low, since the surface of the fetus is deeply reflected, the surface of the fetus is relatively smooth in FIG. On the other hand, when the Opacity is high, an image of the fetus is created only by ultrasonic echoes from the vicinity of the surface of the fetus. Therefore, in FIG. 15, the image is conspicuous on the surface of the fetus and the suspended matter around the fetus.

図16は、図14と図15をそれぞれ市松模様に切り取り、嵌め合わせた図である。この図では、図14と図15を平均化したような画像が得られている。ただし、図11の場合と同様に市松模様が目立つ部分が存在しており、拡大表示した場合には画質の低下として認識されるおそれがある。この市松模様は、平滑化フィルタによって消すことができる。図17は、図16の画像に対し、3×3の平滑化フィルタを施した画像を示している。図11に対して3×3の平滑化フィルタを施した図12の場合には、部分的に市松模様が残ったが、この図17では市松模様はほぼ完全に消滅している。これは、図14と図15の近似度が、図8と図9の近似度に比べて高いためであると考えられる。   FIG. 16 is a view obtained by cutting and fitting FIGS. 14 and 15 into a checkered pattern. In this figure, an image obtained by averaging FIGS. 14 and 15 is obtained. However, as in the case of FIG. 11, there is a portion where the checkered pattern is conspicuous, and there is a possibility that it is recognized as a reduction in image quality when enlarged display is performed. This checkered pattern can be erased by a smoothing filter. FIG. 17 shows an image obtained by applying a 3 × 3 smoothing filter to the image of FIG. In the case of FIG. 12 in which a 3 × 3 smoothing filter is applied to FIG. 11, the checkered pattern partially remains, but in FIG. 17, the checkered pattern has almost completely disappeared. This is probably because the degree of approximation in FIGS. 14 and 15 is higher than the degree of approximation in FIGS. 8 and 9.

最後に、図18〜図20を用いて、市松模様の位相を一フレームづつ入れ替える態様について説明する。図18と図19は、(a)に示した位相に従って、図8のShadedのアルゴリズムによる画像と、図9のXrayのアルゴリズムによる画像とを合成した画像(b)を示す図である。すなわち図18(b)の画像は、図18(a)のパターンAに従って合成し、図19(b)の画像は、図19(a)のパターンBに従って合成している。この場合、両画像の違いは小さく、いずれも図11に示した画像によく似た画像が得られている。   Finally, a mode in which the checkerboard phase is exchanged frame by frame will be described with reference to FIGS. FIGS. 18 and 19 are diagrams showing an image (b) obtained by combining the image by the Shaded algorithm in FIG. 8 and the image by the Xray algorithm in FIG. 9 according to the phase shown in FIG. That is, the image in FIG. 18B is synthesized according to pattern A in FIG. 18A, and the image in FIG. 19B is synthesized in accordance with pattern B in FIG. In this case, the difference between the two images is small, and an image very similar to the image shown in FIG. 11 is obtained.

したがって、単体の静止画を作成する上では、市松模様の位相を入れ替える利点は少ない。しかし、連続的な動画像として表示する場合には、この入れ替えは大きな効果を発揮する。例えば、各フレームの表示間隔が短い場合には、それを見る者の残像の効果を利用すれば、連続するフレームは足し合わされて認識される。したがって、両画像に残る市松模様が打ち消されて認識されることになる。また、連続する二つの画像を合成して、各フレームの画像を生成することも有効である。図20は、図18の画像と図19の画像とを平均化した画像を示している。この画像は、図10の画像と同様に、全画素について、ShadedのアルゴリズムとXrayのアルゴリズムとが平均化された画像となっている。そして、時間的な動きが小さい限り、市松模様が消え、高品質の画像が得られることとなる。   Therefore, in creating a single still image, there is little advantage of switching the checkered pattern phase. However, when displaying as a continuous moving image, this replacement exhibits a great effect. For example, when the display interval of each frame is short, if the effect of the afterimage of the viewer is used, successive frames are added together and recognized. Therefore, the checkerboard pattern remaining in both images is canceled and recognized. It is also effective to generate an image of each frame by combining two consecutive images. FIG. 20 shows an image obtained by averaging the image of FIG. 18 and the image of FIG. Similar to the image of FIG. 10, this image is an image in which the Shaded algorithm and the Xray algorithm are averaged for all pixels. As long as the temporal movement is small, the checkerboard pattern disappears and a high-quality image is obtained.

超音波診断装置の構成例の概略を示すブロック図である。It is a block diagram which shows the outline of the structural example of an ultrasonic diagnosing device. 三次元データをレイに沿って投影面に投影する様子を示す模式図である。It is a schematic diagram which shows a mode that 3D data is projected on a projection surface along a ray. パラメータ毎にエコー値と不透明度の関係を示す図である。It is a figure which shows the relationship between an echo value and opacity for every parameter. レイ上のサンプル点と不透明度の関係を示す模式図である。It is a schematic diagram which shows the relationship between the sample point on a ray and opacity. 部分画像の合成例を説明する図である。It is a figure explaining the example of a synthesis | combination of a partial image. レンダリング処理の流れの例を説明する図である。It is a figure explaining the example of the flow of a rendering process. レンダリング処理の流れの変形例を説明する図である。It is a figure explaining the modification of the flow of a rendering process. Shadedのアルゴリズムに従って生成した画像である。It is the image produced | generated according to the algorithm of Shaded. Xrayのアルゴリズムに従って生成した画像である。It is the image produced | generated according to the algorithm of Xray. 図8と図9を0.5ずつ加算して生成した画像である。It is the image produced | generated by adding FIG. 8 and FIG. 9 0.5 each. 図8と図9の画像を市松模様に並べて生成した画像である。10 is an image generated by arranging the images of FIGS. 8 and 9 in a checkered pattern. 図11の画像に3×3の平滑化フィルタを施して生成した画像である。12 is an image generated by applying a 3 × 3 smoothing filter to the image of FIG. 11. 図11の画像に5×5の平滑化フィルタを施して生成した画像である。12 is an image generated by applying a 5 × 5 smoothing filter to the image of FIG. 11. Shadedのアルゴリズムで低不透明度の設定で生成した画像である。It is an image generated with a low opacity setting by the Shaded algorithm. Shadedのアルゴリズムで高不透明度の設定で生成した画像である。It is an image generated with the setting of high opacity by the Shaded algorithm. 図14と図15の画像を市松模様に並べて生成した画像である。16 is an image generated by arranging the images of FIG. 14 and FIG. 15 in a checkered pattern. 図16の画像に3×3の平滑化フィルタを施して生成した画像である。17 is an image generated by applying a 3 × 3 smoothing filter to the image of FIG. 16. 図8と図9の画像を並べる市松模様のパターンA(a)と得られた画像(b)である。FIG. 10 is a checkered pattern A (a) in which the images of FIGS. 8 and 9 are arranged, and an obtained image (b). 図8と図9の画像を並べる市松模様のパターンB(a)と得られた画像(b)である。FIG. 10 is a checkered pattern B (a) in which the images of FIG. 8 and FIG. 9 are arranged, and an obtained image (b). 図18と図19を0.5ずつ加算して生成した画像である。FIG. 20 is an image generated by adding 0.5 to FIG. 18 and FIG. 19. 従来におけるレンダリング処理例を示す図である。It is a figure which shows the example of a rendering process in the past. 従来における別のレンダリング処理例を示す図である。It is a figure which shows another example of a rendering process in the past.

符号の説明Explanation of symbols

10 超音波診断装置、12 制御回路部、14 機械走査制御部、16 プローブ、18 送信制御部、20 受信回路、22 信号処理部、24 三次元画像処理部、26 表示部、30 三次元データ、32 投影面、34〜40 画素、50〜56 レイ、60〜68 設定曲線、70 高不透明度のレイ、100 低不透明度のレイ。   DESCRIPTION OF SYMBOLS 10 Ultrasonic diagnostic apparatus, 12 Control circuit part, 14 Mechanical scanning control part, 16 Probe, 18 Transmission control part, 20 Reception circuit, 22 Signal processing part, 24 Three-dimensional image processing part, 26 Display part, 30 Three-dimensional data, 32 projection planes, 34-40 pixels, 50-56 rays, 60-68 setting curve, 70 high opacity rays, 100 low opacity rays.

Claims (9)

三次元的な超音波診断により得られた診断対象内部についての三次元データに対し、複数のレイを設定して各レイに沿ってレンダリング処理を行い、少なくとも一部が重複しない二以上の部分画像を生成する生成手段と、
各部分画像に対応するレイに対し、他の部分画像に対応するレイとは異なるレンダリング処理を設定する設定手段と、
得られた二以上の部分画像を合成して、全体画像を生成する合成手段と、
を備える、ことを特徴とする超音波画像処理装置。
Two or more partial images that do not overlap at least partially by setting multiple rays and rendering along each ray for the three-dimensional data inside the diagnosis target obtained by three-dimensional ultrasonic diagnosis Generating means for generating
Setting means for setting a rendering process different from the ray corresponding to the other partial image for the ray corresponding to each partial image;
Combining means for combining two or more obtained partial images to generate an entire image;
An ultrasonic image processing apparatus comprising:
請求項1に記載の超音波画像処理装置において、
設定手段においては、各部分画像に対応するレイに対し、レンダリング結果に寄与する三次元データの空間的拡がりが他の部分画像に対応するレイとは異なるレンダリング処理を設定する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
The setting means sets, for the ray corresponding to each partial image, a rendering process in which the spatial expansion of the three-dimensional data contributing to the rendering result is different from that of the ray corresponding to the other partial image. Ultrasonic image processing device.
請求項1に記載の超音波画像処理装置において、
設定手段においては、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは、同じアルゴリズムかつ異なるパラメータをもつレンダリング処理を設定する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
An ultrasonic image processing apparatus characterized in that, in the setting means, for each ray corresponding to each partial image, a rendering process having the same algorithm and different parameters is set for the rays corresponding to the other partial images.
請求項1に記載の超音波画像処理装置において、
設定手段においては、各部分画像に対応するレイに対し、他の部分画像に対応するレイとは、異なるアルゴリズムをもつレンダリング処理を設定する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
An ultrasonic image processing apparatus characterized in that, in the setting means, a rendering process having an algorithm different from that of a ray corresponding to another partial image is set for a ray corresponding to each partial image.
請求項1に記載の超音波画像処理装置において、
生成手段においては、領域が互いに重複しない二以上の部分画像を生成する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
An ultrasonic image processing apparatus characterized in that the generation means generates two or more partial images whose regions do not overlap each other.
請求項5に記載の超音波画像処理装置において、
生成手段においては、一画素を模様形成の単位として、互いに補完する市松模様をなす二つの部分画像を生成する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 5,
An ultrasonic image processing apparatus characterized in that the generating means generates two partial images having a checkered pattern complementing each other using one pixel as a pattern forming unit.
請求項1に記載の超音波画像処理装置において、
合成手段においては、平滑化処理を行って、部分画像を滑らかに合成する、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
An ultrasonic image processing apparatus characterized in that the synthesizing means performs smoothing processing to smoothly synthesize the partial images.
請求項1に記載の超音波画像処理装置において、
生成手段及び合成手段を繰り返して全体画像の時系列データを生成する場合に、設定手段においてもレンダリング処理の設定が繰り返し変更される、ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
An ultrasonic image processing apparatus characterized in that, when the time series data of the entire image is generated by repeating the generating means and the synthesizing means, the setting of the rendering process is repeatedly changed in the setting means.
三次元的な超音波診断により得られた診断対象内部についての三次元データに対し、複数のレイに沿ってそれぞれレンダリング処理を行って、画像を生成する手段と、
一又は複数のレイに対し、他のレイとは異なるレンダリング処理を設定する手段と、
を備える、ことを特徴とする超音波画像処理装置。
Means for generating an image by performing rendering processing along each of a plurality of rays with respect to the three-dimensional data about the inside of the diagnostic object obtained by three-dimensional ultrasonic diagnosis;
Means for setting a different rendering process for one or more rays from other rays;
An ultrasonic image processing apparatus comprising:
JP2005333195A 2005-11-17 2005-11-17 Ultrasonic image processing device Expired - Fee Related JP4758735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005333195A JP4758735B2 (en) 2005-11-17 2005-11-17 Ultrasonic image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005333195A JP4758735B2 (en) 2005-11-17 2005-11-17 Ultrasonic image processing device

Publications (2)

Publication Number Publication Date
JP2007135841A true JP2007135841A (en) 2007-06-07
JP4758735B2 JP4758735B2 (en) 2011-08-31

Family

ID=38199407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005333195A Expired - Fee Related JP4758735B2 (en) 2005-11-17 2005-11-17 Ultrasonic image processing device

Country Status (1)

Country Link
JP (1) JP4758735B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009034521A (en) * 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
JP2009279157A (en) * 2008-05-22 2009-12-03 Aloka Co Ltd Ultrasonic volume data processor
US9384548B1 (en) 2015-01-23 2016-07-05 Kabushiki Kaisha Toshiba Image processing method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003164449A (en) * 2001-12-04 2003-06-10 Aloka Co Ltd Ultrasonic image processing apparatus and ultrasonic echo signal processing apparatus
JP2003204963A (en) * 2001-09-18 2003-07-22 Kretztechnik Ag Ultrasonographic method and system to prepare image from multiple 2d slices
JP2003310607A (en) * 2002-04-18 2003-11-05 Aloka Co Ltd Ultrasonic diagnostic equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003204963A (en) * 2001-09-18 2003-07-22 Kretztechnik Ag Ultrasonographic method and system to prepare image from multiple 2d slices
JP2003164449A (en) * 2001-12-04 2003-06-10 Aloka Co Ltd Ultrasonic image processing apparatus and ultrasonic echo signal processing apparatus
JP2003310607A (en) * 2002-04-18 2003-11-05 Aloka Co Ltd Ultrasonic diagnostic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009034521A (en) * 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
JP2009279157A (en) * 2008-05-22 2009-12-03 Aloka Co Ltd Ultrasonic volume data processor
US9384548B1 (en) 2015-01-23 2016-07-05 Kabushiki Kaisha Toshiba Image processing method and apparatus

Also Published As

Publication number Publication date
JP4758735B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
KR101205107B1 (en) Method of implementing a speckle reduction filter, apparatus for speckle reduction filtering and ultrasound imaging system
JP4299189B2 (en) Ultrasonic diagnostic apparatus and image processing method
JP6393703B2 (en) Continuously adaptive enhanced ultrasound imaging of subvolumes
US8021300B2 (en) Three-dimensional fly-through systems and methods using ultrasound data
JP5236655B2 (en) 3D ultrasound color flow imaging using gray scale inversion
EP2208467B1 (en) Ultrasound diagnosis apparatus, ultrasound image processing apparatus, image display method, and computer program product
US9123139B2 (en) Ultrasonic image processing with directional interpolation in order to increase the resolution of an image
US10420534B2 (en) Ultrasonic diagnostic device, image processing device, and image processing method
JP6688618B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
CN105455843B (en) Cast shadow suppressing in ultrasonic imaging
JP2006204920A (en) Ultrasonic medical diagnostic system and imaging method with ultrasonic medical diagnostic system
JPH10155796A (en) Ultrasonic device for medical treatment, and its image forming method
JP2013119035A (en) Ultrasonic image formation system and method
JP5699165B2 (en) Ultrasonic diagnostic apparatus and image processing method
CN101866480B (en) Frame correlation processing method and system in spatial compound imaging
JP2004129773A (en) Ultrasonic imaging device and ultrasonic signal processing method
CN106600550A (en) Ultrasonic image processing method and system
JP5882217B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image display method
JP4758735B2 (en) Ultrasonic image processing device
JP6169911B2 (en) Ultrasonic image pickup apparatus and ultrasonic image display method
CN112826529B (en) Ultrasonic space compounding method and device based on right trapezoid
JP5348829B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image display method, and ultrasonic image display program
CN113876352B (en) Ultrasound imaging system and method for generating volume rendered images
JP5072585B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP5950291B1 (en) Ultrasonic diagnostic apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees