JPH07265303A - Image receiving method and apparatus - Google Patents

Image receiving method and apparatus

Info

Publication number
JPH07265303A
JPH07265303A JP6531394A JP6531394A JPH07265303A JP H07265303 A JPH07265303 A JP H07265303A JP 6531394 A JP6531394 A JP 6531394A JP 6531394 A JP6531394 A JP 6531394A JP H07265303 A JPH07265303 A JP H07265303A
Authority
JP
Japan
Prior art keywords
images
image
projection
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6531394A
Other languages
Japanese (ja)
Inventor
Hiroshi Hashimoto
浩 橋本
Tahou Ri
太宝 李
Yasuto Takeuchi
康人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Healthcare Japan Corp
Original Assignee
GE Yokogawa Medical System Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Yokogawa Medical System Ltd filed Critical GE Yokogawa Medical System Ltd
Priority to JP6531394A priority Critical patent/JPH07265303A/en
Publication of JPH07265303A publication Critical patent/JPH07265303A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To clearly show the structure of a noticeable region by performing display wherein a plurality of projection processing results are organically connected. CONSTITUTION:An image processing apparatus is equipped with a projection processing means 92 executing projection processing taking out predetermined values preset with respect to the respective corresponding pixels of a plurality of image data with respect to a plurality of different predetermined values to form a plurality of IP images, an image forming means 93 forming different color images corresponding to a plurality of the IP images subjected to projection processing by the projection processing means 92 and a display means 8 simultaneously displaying the respective color images formed by the image forming means 93.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像診断装置における画
像処理方法及び画像処理装置に関し、特に、注目部位の
構造を明瞭に表示することに適した画像処理方法及び画
像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing apparatus in an image diagnostic apparatus, and more particularly to an image processing method and an image processing apparatus suitable for clearly displaying the structure of a region of interest.

【0002】[0002]

【従来の技術】超音波診断装置は、超音波深触子(プロ
ーブ)を被検体の患部に当接し、1MHz〜十数MHz
の周波数を放射し、被検体中の音響インピーダンスの異
なる領域から反射されてくる反射エコー信号を同じ超音
波深触子で受信し、位相調整等を行った後、画像処理し
て表示装置に被検体の画像をAモード,Bモードまたは
Mモード表示として表示させる装置である。
2. Description of the Related Art An ultrasonic diagnostic apparatus is designed such that an ultrasonic probe (probe) is brought into contact with a diseased part of a subject and the frequency is from 1 MHz to a dozen MHz.
The same ultrasonic probe receives the reflected echo signals reflected from the regions of different acoustic impedance in the subject, performs phase adjustment, etc., and then performs image processing and displays on the display device. It is a device for displaying an image of a sample as A mode, B mode, or M mode display.

【0003】図9は従来システムの構成例を示すブロッ
ク図であり、超音波診断装置を例にした場合の受信系及
び画像処理系を示している。超音波プローブ(図示せ
ず)で受信されたRF(Radio Frequency )エコー信号
は、受波ビームフォーマ1に入る。受波ビームフォーマ
1では、各振動素子に対応する受波信号の位相調整が行
われた後、加算される。受波ビームフォーマ1で整相加
算されたRFエコー信号は、対数増幅器2で対数圧縮さ
れた後、検波器3に入る。
FIG. 9 is a block diagram showing a configuration example of a conventional system, showing a receiving system and an image processing system in the case of an ultrasonic diagnostic apparatus as an example. An RF (Radio Frequency) echo signal received by an ultrasonic probe (not shown) enters the receiving beamformer 1. In the receiving beam former 1, the phases of the received signals corresponding to the respective oscillating elements are adjusted and then added. The RF echo signal subjected to phasing addition by the reception beam former 1 is logarithmically compressed by a logarithmic amplifier 2 and then enters a wave detector 3.

【0004】検波器3はRFエコー信号を検波すること
により、1MHz〜十数MHzの高周波成分を除去して
エコービデオ信号を生成する。このエコービデオ信号
は、続くA/D変換器4に入り、ディジタルデータに変
換される。このディジタルデータは、メモリ5に一時保
存される。ここで、メモリ5に保存されているディジタ
ルデータは走査方向の変換が行われていない状態のイメ
ージデータである。
The detector 3 detects an RF echo signal to remove a high frequency component of 1 MHz to tens of MHz and generate an echo video signal. This echo video signal enters the subsequent A / D converter 4 and is converted into digital data. This digital data is temporarily stored in the memory 5. Here, the digital data stored in the memory 5 is image data in a state in which the scanning direction is not converted.

【0005】メモリ5に記憶されているイメージデータ
は順序読み出され、走査変換部6により走査方向が変換
された後にBモードイメージメモリ7に記憶される。こ
のBモードイメージメモリ7に保存されているBモード
イメージデータは表示部8に送られてBモード像として
画像表示される。
The image data stored in the memory 5 is read out in order, the scanning direction is converted by the scanning conversion unit 6, and then stored in the B-mode image memory 7. The B-mode image data stored in the B-mode image memory 7 is sent to the display unit 8 and displayed as a B-mode image.

【0006】[0006]

【発明が解決しようとする課題】ところが、このように
して得られたBモード像は表示部8のディスプレイ上で
あってもハードコピーとしての写真上であっても、モヤ
モヤした状態の画像であることが多く内容の判別が困難
である。
However, the B-mode image obtained in this manner is a blurred image, whether on the display of the display unit 8 or on a photograph as a hard copy. In many cases, it is difficult to distinguish the contents.

【0007】また、刻々と得られる複数枚のBモードイ
メージをリアルタイムで観察したり、複数枚のBモード
イメージを順次更新して表示するようなシネモードで観
察したとしても、同様にモヤモヤした状態であることに
変りない。この結果、Bモード像からは被検体の全体構
造を明確に理解することは困難であった。
Further, even when observing a plurality of B-mode images obtained moment by moment in real time, or observing in a cine mode in which a plurality of B-mode images are sequentially updated and displayed, the image is still messy. There is no difference. As a result, it was difficult to clearly understand the entire structure of the subject from the B-mode image.

【0008】このような場合に、得られたBモード像に
対して投影処理を施すことが考えられる。このような投
影処理を施すことにより、上述のモヤモヤした状態が緩
和され、構造の理解が容易になることが予想される。こ
こで、投影(IP(IntensityProjection) )処理とは、処
理対象である全ての原画像に対して、対応するそれぞれ
のピクセルについて最大値(若しくは最小値,特定値)
を取り出して投影することで得られた投影画像(IPイメ
ージ)を得る処理である。
In such a case, it is conceivable to subject the obtained B-mode image to projection processing. By performing such a projection process, it is expected that the above-mentioned unsettled state will be alleviated and the structure will be easily understood. Here, projection (IP (IntensityProjection)) processing is the maximum value (or minimum value, specific value) for each corresponding pixel for all original images to be processed.
Is a process for obtaining a projection image (IP image) obtained by extracting and projecting.

【0009】しかし、投影処理では最大値,最低値,特
定値のいずれかの値のデータに注目して投影して得られ
た画像になるので、その注目した値のデータを有するピ
クセルによる構造については示せるものの、投影処理し
た注目値以外についての全体的な構造を示すことが困難
である。例えば、最大値で投影処理した場合には、最大
値以外のデータを有するピクセルについては一切考慮さ
れていない。他の値で投影処理を実行した場合も同様の
不具合がある。
However, in the projection process, an image is obtained by focusing on the data of any one of the maximum value, the minimum value and the specific value. Although it can be shown, it is difficult to show the entire structure other than the projection processed attention value. For example, when projection processing is performed with the maximum value, no consideration is given to pixels having data other than the maximum value. The same problem occurs when the projection process is executed with other values.

【0010】本発明は上記の点に鑑みてなされたもの
で、その目的は、投影処理した場合に複数の投影処理結
果を有機的に連結した表示を行って注目部位の構造を明
瞭に示すことが可能な画像処理方法及び画像処理装置を
実現することである。
The present invention has been made in view of the above points, and an object thereof is to clearly display the structure of a region of interest by performing a display in which a plurality of projection processing results are organically linked when projection processing is performed. It is to realize an image processing method and an image processing apparatus capable of performing the above.

【0011】[0011]

【課題を解決するための手段】前記の課題を解決する第
1の手段は、複数枚のイメージデータの対応する各ピク
セルについて予め設定された所定値を取り出す投影処理
を、複数の異なる所定値について実行することで複数の
IPイメージを生成し、これら複数のIPイメージのそれぞ
れに対応して異なる色のイメージを生成し、これら異な
る色の複数のイメージを同時に表示することを特徴とす
る画像処理方法である。
A first means for solving the above problems is a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data, for a plurality of different predetermined values. By running multiple
An image processing method is characterized in that an IP image is generated, images of different colors are generated corresponding to the plurality of IP images, and a plurality of images of different colors are displayed at the same time.

【0012】尚、IPイメージとは、処理対象である全て
の原画像に対して対応するそれぞれのピクセルについて
最大値(若しくは最小値,特定値)を取り出して投影さ
れて得られたイメージのことである。
The IP image is an image obtained by extracting and projecting the maximum value (or minimum value, specific value) for each pixel corresponding to all original images to be processed. is there.

【0013】また、前記の課題を解決する第2の手段
は、複数枚のイメージデータの対応する各ピクセルにつ
いて予め設定された所定値を取り出す投影処理を、複数
の異なる所定値について実行することで複数のIPイメー
ジを生成し、これら複数のIPイメージのそれぞれに対応
して異なる色のイメージを生成し、これら異なる色の複
数のイメージを所定の時間間隔をもって交互に表示する
ことを特徴とする画像処理方法である。
A second means for solving the above-mentioned problem is to execute a projection process for extracting a predetermined value preset for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. An image characterized by generating a plurality of IP images, generating images of different colors corresponding to each of the plurality of IP images, and alternately displaying the plurality of images of different colors at predetermined time intervals It is a processing method.

【0014】前記の課題を解決する第3の手段は、複数
枚のイメージデータの対応する各ピクセルについて予め
設定された所定値を取り出す投影処理を、複数の異なる
所定値について実行することで複数のIPイメージを生成
する投影処理手段と、前記投影処理手段で投影処理され
た複数のIPイメージに対応して異なる色のイメージを生
成する画像生成手段と、前記画像生成手段で生成された
各色のイメージを同時に表示する表示手段とを備えたこ
とを特徴とする画像処理装置である。
A third means for solving the above problem is to execute a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. Projection processing means for generating an IP image, image generation means for generating images of different colors corresponding to the plurality of IP images projected by the projection processing means, and images of each color generated by the image generation means And an image display device for displaying simultaneously.

【0015】前記の課題を解決する第4の手段は、複数
枚のイメージデータの対応する各ピクセルについて予め
設定された所定値を取り出す投影処理を、複数の異なる
所定値について実行することで複数のIPイメージを生成
する投影処理手段と、前記投影処理手段で投影処理され
た複数のIPイメージに対応して異なる色のイメージを生
成する画像生成手段と、前記画像生成手段で生成された
各色のイメージを所定の時間間隔をもって交互に表示す
る表示手段とを備えたことを特徴とする画像処理装置で
ある。
A fourth means for solving the above problem is to perform a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. Projection processing means for generating an IP image, image generation means for generating images of different colors corresponding to the plurality of IP images projected by the projection processing means, and images of each color generated by the image generation means The image processing apparatus is characterized by further comprising: a display unit that alternately displays at a predetermined time interval.

【0016】[0016]

【作用】課題を解決する第1の手段である画像処理方法
において、複数の投影処理により MIPイメージデータ,
Min IPイメージデータ等複数のIPイメージが生成され
る。そして、各IPイメージに応じて異なる色が付与さ
れ、これらの色に応じた表示が同時にされる。
In the image processing method which is the first means for solving the problems, MIP image data,
Multiple IP images such as Min IP image data are generated. Then, different colors are given according to each IP image, and the display according to these colors is simultaneously performed.

【0017】尚、 MIPイメージとは、処理対象である全
ての原画像に対して対応するそれぞれのピクセルについ
て最大値を取り出して投影されて得られたイメージのこ
とであり、Min IPイメージとは、処理対象である全ての
原画像に対して対応するそれぞれのピクセルについて最
小値を取り出して投影されて得られたイメージのことで
あり、これらのイメージを総称してIPイメージと呼んで
いる。
Incidentally, the MIP image is an image obtained by extracting and projecting the maximum value for each pixel corresponding to all original images to be processed, and the Min IP image is This is an image obtained by extracting and projecting the minimum value for each pixel corresponding to all original images to be processed, and these images are collectively called an IP image.

【0018】課題を解決する第2の手段である画像処理
方法において、複数の投影処理により MIPイメージデー
タ,Min IPイメージデータ等複数のIPイメージが生成さ
れる。そして、各IPイメージに応じて異なる色が付与さ
れ、これら異なる色が付与された各IPイメージが所定の
時間間隔をもって交互に表示される。
In the image processing method as the second means for solving the problem, a plurality of IP images such as MIP image data and Min IP image data are generated by a plurality of projection processes. Then, different colors are provided according to the respective IP images, and the respective IP images provided with these different colors are alternately displayed at a predetermined time interval.

【0019】課題を解決する第3の手段である画像処理
装置において、複数の投影処理により MIPイメージデー
タ,Min IPイメージデータ等複数のIPイメージが生成さ
れる。そして、各IPイメージに応じて異なる色が付与さ
れ、これらの色に応じた表示が同時にされる。
In the image processing apparatus which is the third means for solving the problem, a plurality of IP images such as MIP image data and Min IP image data are generated by a plurality of projection processes. Then, different colors are given according to each IP image, and the display according to these colors is simultaneously performed.

【0020】課題を解決する第4の手段である画像処理
装置において、複数の投影処理により MIPイメージデー
タ,Min IPイメージデータ等複数のIPイメージが生成さ
れる。そして、各IPイメージに応じて異なる色が付与さ
れ、これら異なる色が付与された各IPイメージが所定の
時間間隔をもって交互に表示される。
In the image processing apparatus which is the fourth means for solving the problems, a plurality of IP images such as MIP image data and Min IP image data are generated by a plurality of projection processes. Then, different colors are provided according to the respective IP images, and the respective IP images provided with these different colors are alternately displayed at a predetermined time interval.

【0021】[0021]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。図1は本発明の一実施例の画像処理装置の
概略構成を示す構成図、図2は図1の画像処理装置を用
いた超音波診断装置の受信系の全体の構成を示す構成図
である。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a configuration diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention, and FIG. 2 is a configuration diagram showing an overall configuration of a receiving system of an ultrasonic diagnostic apparatus using the image processing apparatus of FIG. .

【0022】まず、図2を用いて受信系の概略構成を説
明する。ここでは、一般的な超音波診断装置を例にした
場合を示している。超音波プローブ(図示せず)で受信
されたRFエコー信号は、受波ビームフォーマ1に入
る。受波ビームフォーマ1では、各振動素子に対応する
受波信号の位相調整が行われた後、加算される。受波ビ
ームフォーマ1で整相加算されたRFエコー信号は、対
数増幅器2で対数圧縮された後、検波器3に入る。検波
器3はRFエコー信号を検波し、高周波成分を除去して
エコービデオ信号を生成する。このエコービデオ信号
は、続くA/D変換器4に入り、ディジタルデータに変
換される。このディジタルデータは、メモリ5に一時保
存される。メモリ5に記憶されているイメージデータは
順序読み出され、走査変換部6により走査方向が変換さ
れた後にBモードイメージメモリ7に記憶される。
First, the schematic configuration of the receiving system will be described with reference to FIG. Here, a case where a general ultrasonic diagnostic apparatus is taken as an example is shown. The RF echo signal received by the ultrasonic probe (not shown) enters the receiving beamformer 1. In the receiving beam former 1, the phases of the received signals corresponding to the respective oscillating elements are adjusted and then added. The RF echo signal subjected to phasing addition by the reception beam former 1 is logarithmically compressed by a logarithmic amplifier 2 and then enters a wave detector 3. The detector 3 detects the RF echo signal and removes high frequency components to generate an echo video signal. This echo video signal enters the subsequent A / D converter 4 and is converted into digital data. This digital data is temporarily stored in the memory 5. The image data stored in the memory 5 is read out in order, the scanning direction is converted by the scanning conversion unit 6, and then stored in the B-mode image memory 7.

【0023】このBモードイメージメモリ7に保存され
ているBモードイメージデータは、以下に説明する画像
処理部9によって処理されて表示部8に送られて鮮明な
Bモード像として画像表示される。
The B-mode image data stored in the B-mode image memory 7 is processed by the image processing unit 9 described below and sent to the display unit 8 to be displayed as a clear B-mode image.

【0024】続いて本発明の特徴部分となる画像処理部
9の具体的な一例を図1に示す。この画像処理部9は、
Bモードイメージメモリ7から読み出されたイメージデ
ータについて、投影処理に必要な所定フレーム分の格納
処理を行った後、多数枚のイメージデータの同一ピクセ
ルのデータに対して MIP処理及びMin IP処理等の投影処
理,それぞれの投影処理結果に対して異なる色を割り当
てて画像生成を実行して、最終的に1枚の画像(Bモー
ド像)を生成している。
Next, FIG. 1 shows a concrete example of the image processing section 9 which is a characteristic part of the present invention. This image processing unit 9
The image data read from the B-mode image memory 7 is stored for a predetermined number of frames necessary for the projection process, and then MIP processing and Min IP processing are performed on the same pixel data of many image data. The image generation is performed by assigning different colors to the projection processing and the projection processing results, and finally one image (B mode image) is generated.

【0025】ここで、投影(IP(Intensity Projectio
n))処理とは、処理対象である全ての原画像に対して、
対応するそれぞれのピクセルについて最大値(若しくは
最小値,特定値)を取り出して投影することで得られた
投影画像(IPイメージ)を得る処理である。すなわち、
図3に示すような場合、時間的若しくは位置的に異なっ
て得られた第1番目から第N番目までの原画像に対し
て、同一ピクセル(例えば、図3(1) …(N) の黒点)で
の最大値(若しくは最小値,特定値)を取り出す処理を
全ピクセルについて行って、1枚の投影画像(IPイメー
ジ)を得るようにした処理である。
Here, the projection (IP (Intensity Projectio
n)) processing means, for all original images to be processed,
This is a process of obtaining a projection image (IP image) obtained by extracting and projecting the maximum value (or minimum value, specific value) for each corresponding pixel. That is,
In the case shown in FIG. 3, the same pixels (for example, the black dots of FIG. 3 (1) ... (N)) are compared with the first to Nth original images obtained differently in terms of time or position. The process of extracting the maximum value (or minimum value, specific value) in () is performed for all pixels to obtain one projection image (IP image).

【0026】この図1において、図2と同一の部分には
同一の符号を付してある。図1において、イメージバッ
ファ91は、Bモードイメージメモリ7から読み出され
た時間的若しくは位置的に異なる複数のBモードイメー
ジデータを、投影処理に必要な複数フレーム分だけ記憶
する。このイメージバッファ91は通常のフレームメモ
リ若しくはシネメモリ等で構成されている。投影処理部
92は処理対象である複数の全ての原画像に対して、そ
れぞれのピクセルについて設定された所定の値を取り出
して得られたIPイメージを得る投影処理を複数同時に行
い、画像生成部93は複数種類のそれぞれのIPイメージ
に対応して異なる色毎の画像を生成するものである。
In FIG. 1, the same parts as those in FIG. 2 are designated by the same reference numerals. In FIG. 1, an image buffer 91 stores a plurality of B-mode image data read from the B-mode image memory 7 that are temporally or positionally different for a plurality of frames required for projection processing. The image buffer 91 is composed of a normal frame memory, cine memory, or the like. The projection processing unit 92 simultaneously performs a plurality of projection processes to obtain an IP image obtained by extracting a predetermined value set for each pixel for all the plurality of original images to be processed, and the image generation unit 93 Is to generate images of different colors corresponding to plural kinds of IP images.

【0027】まず、図1及び図4を用いて本発明の一実
施例の画像処理方法及び画像処理装置の基本的動作を説
明する。周知の方法により生成(図4ステップ)され
たBモードイメージがメモリ7に格納されており、この
イメージデータがイメージバッファ91に必要な所定枚
数分格納される。ここでは、後の投影処理に必要な枚数
のBモードイメージが格納,記憶される。
First, the basic operation of the image processing method and the image processing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 4. The B-mode image generated by the well-known method (step in FIG. 4) is stored in the memory 7, and this image data is stored in the image buffer 91 by a required number of sheets. Here, the number of B-mode images required for the subsequent projection processing is stored and stored.

【0028】次に、イメージバッファ91に記憶された
Bモードイメージデータを用いて、投影処理部92が複
数種類の投影処理(例えば、 MIP処理,Min IP処理,特
定の値のIP処理)を同時に行なう(図4ステップ)。
これらの投影処理により複数種類のIPイメージが生成さ
れる。
Next, using the B-mode image data stored in the image buffer 91, the projection processing unit 92 simultaneously performs a plurality of types of projection processing (for example, MIP processing, Min IP processing, IP processing of a specific value). Perform (step in FIG. 4).
Multiple types of IP images are generated by these projection processes.

【0029】このようにして生成された複数種類のIPイ
メージにより画像生成部93が色別の画像を生成する
(図4ステップ)。そして、この色別の画像から表示
用の画像が生成されて表示部11に表示がされる(図4
ステップ)。
The image generation unit 93 generates an image for each color from the plurality of types of IP images thus generated (step in FIG. 4). Then, an image for display is generated from the image for each color and displayed on the display unit 11 (FIG. 4).
Step).

【0030】このようにBモード像を表示する前に投影
処理して、それぞれの投影処理に応じて色付けを行って
表示することで、従来の一般的なBモード像とは異なっ
た鮮明な表示が可能になる。
In this way, the B-mode image is projected before being displayed, and the images are colored and displayed according to the respective projection processes, so that a clear display different from the conventional general B-mode image is displayed. Will be possible.

【0031】すなわち、被検体中の音響インピーダンス
の微妙な違いで表示色が異なったものとなり、従来のモ
ヤモヤした表示に比較すると鮮明な表示が得られるよう
になる。また、投影処理の違いにより表示される色を原
色同士,補色同士,原色とその補色等の組み合わせにす
ることで、各投影処理により得られたイメージが重ねら
れた状態でもそれぞれ区別出来るようになり、また、重
さなり部分も混合された色から判別できるようになる。
この結果、投影処理結果が有機的に連結された表示が行
われ、元の色単独の部分や色が重ね合わされた部分を見
分けることができるようになり、注目部位の構造(投影
処理結果の重なり具合)を明瞭に示すことが可能にな
る。
That is, the display color is different due to the subtle difference in the acoustic impedance in the subject, and a clear display can be obtained as compared with the conventional smoky display. In addition, by combining the primary colors, the complementary colors, the primary colors and their complementary colors, etc., the colors displayed depending on the difference in the projection processing can be distinguished even in the state in which the images obtained by the respective projection processing are overlapped. Also, the overlapping portion can be discriminated from the mixed color.
As a result, the projection processing results are organically linked and displayed, and it becomes possible to distinguish between the original color alone and the overlapping colors, and the structure of the part of interest (overlapping projection processing results) It is possible to clearly indicate the condition.

【0032】次に、図5に示す具体的構成の構成図及び
図6のフローチャートによって本発明の一実施例の画像
処理装置及び画像処理方法の一例(具体例)を説明す
る。この図5において図2と同一の部分には同一の符号
を付してある。図5に示す画像処理装置において、イメ
ージバッファ91は、Bモードイメージメモリ7から読
み出された時間的若しくは位置的に異なる複数のBモー
ドイメージデータを、投影処理に必要な複数フレーム分
だけ記憶する。投影処理部92は処理対象である複数の
全ての原画像に対して、それぞれのピクセルについて設
定された所定の値を取り出して得られたIPイメージを得
る投影処理を複数同時に行い、画像生成部93は複数種
類のそれぞれのIPイメージに対応して異なる色毎の画像
を生成するものである。また、図5では、投影処理部9
2として MIP処理,Min IP処理及び平均(Ave )処理の
3種類の処理を実行するようにしたものを示し、画像生
成部93として3種類の投影処理に対応してRBG三原
色の画像を生成して表示部11に表示するものを一例と
して示している。ここで、平均処理とは、処理対象であ
る全ての原画像に対して、対応するそれぞれのピクセル
について平均処理を実行して1枚の画像を得る処理であ
る。
Next, an example (specific example) of the image processing apparatus and the image processing method of one embodiment of the present invention will be described with reference to the block diagram of the specific configuration shown in FIG. 5 and the flowchart of FIG. 5, the same parts as those in FIG. 2 are designated by the same reference numerals. In the image processing apparatus shown in FIG. 5, the image buffer 91 stores a plurality of B-mode image data read from the B-mode image memory 7 that differ in terms of time or position, for a plurality of frames required for projection processing. . The projection processing unit 92 simultaneously performs a plurality of projection processes to obtain an IP image obtained by extracting a predetermined value set for each pixel for all the plurality of original images to be processed, and the image generation unit 93 Is to generate images of different colors corresponding to plural kinds of IP images. Further, in FIG. 5, the projection processing unit 9
Reference numeral 2 indicates that three types of processing, that is, MIP processing, Min IP processing, and average (Ave) processing are executed, and the image generation unit 93 generates an image of RBG three primary colors corresponding to the three types of projection processing. What is displayed on the display unit 11 is shown as an example. Here, the averaging process is a process for obtaining an image by performing an averaging process on each corresponding pixel for all original images to be processed.

【0033】ここで、図6のフローチャートでこの実施
例の動作を説明する。まず、周知の方法により生成(図
6ステップ)されたBモードイメージがメモリ7に格
納されており、このイメージデータがイメージバッファ
91に必要な所定枚数分格納される。ここでは、後の投
影処理に必要な枚数のBモードイメージが格納,記憶さ
れる。
The operation of this embodiment will be described below with reference to the flow chart of FIG. First, the B-mode image generated by the well-known method (step in FIG. 6) is stored in the memory 7, and this image data is stored in the image buffer 91 by the required number of sheets. Here, the number of B-mode images required for the subsequent projection processing is stored and stored.

【0034】次に、イメージバッファ91に記憶された
Bモードイメージデータを用いて、投影処理部92が複
数種類の投影処理(例えば、 MIP処理,Min IP処理,特
定の値のIP処理)を同時に行なう(5ステップ,
’,”)。
Next, using the B-mode image data stored in the image buffer 91, the projection processing unit 92 simultaneously performs a plurality of types of projection processing (for example, MIP processing, Min IP processing, IP processing with a specific value). Do (5 steps,
', ”).

【0035】ここでは、投影処理部92は、最大値で M
IP処理を実行する MIP処理部92a,最小値でMin IP処
理を実行するMin IP処理部92b及び平均処理を実行す
る平均処理部92cから構成されており、それぞれの処
理を行う。
Here, the projection processing unit 92 uses the maximum value M
It is composed of a MIP processing unit 92a that executes IP processing, a Min IP processing unit 92b that executes Min IP processing with a minimum value, and an averaging processing unit 92c that executes averaging processing.

【0036】そして、画像生成部93が複数種類のそれ
ぞれの投影処理結果を受けて、それらのIPイメージに対
応して異なる色のイメージを生成する(図6ステップ
,’,”)。ここでは、3種類の投影処理に応じ
て、R生成部93a,G生成部93b,B生成部93c
がR(赤)/G(緑)/B(青)3原色の画像を生成す
る。この場合において、表示部11がR/G/Bの入力
信号を受けるものであれば、各生成部の出力を表示部1
1に供給するようにする(図6ステップ)。この結
果、 MIP処理されたIPイメージがRで表示され、Min IP
処理されたIPイメージがGで表示され、平均処理された
IPイメージがBで表示される。そして、これら3種類の
IPイメージが重なった部分は加色混合の法則に従って、
RとGの重なりがY(黄),RとBとの重なりがMg
(マゼンタ),GとBとの重なりがCy(シアン)とい
うように表示される。また、RGB全ての重なり部分は
白として表示される。また、全ての色で輝度が小さけれ
ば黒として表示される。これにより、各IPイメージの重
なり具合が明確に分かるようになる。尚、各色の輝度の
違いにより、さらに微妙な中間調の色として再現される
部分もある。
Then, the image generator 93 receives a plurality of types of projection processing results and generates images of different colors corresponding to those IP images (steps "," in FIG. 6). The R generation unit 93a, the G generation unit 93b, and the B generation unit 93c according to the three types of projection processing.
Generates an image of three primary colors of R (red) / G (green) / B (blue). In this case, if the display unit 11 receives R / G / B input signals, the output of each generation unit is displayed by the display unit 1.
1 (step in FIG. 6). As a result, the IP image processed by MIP is displayed in R, and Min IP
The processed IP image is displayed in G and averaged
The IP image is displayed as B. And these three types
The overlapping parts of the IP image follow the rule of additive color mixing,
The overlap between R and G is Y (yellow), and the overlap between R and B is Mg
(Magenta), the overlap between G and B is displayed as Cy (cyan). Further, the overlapping portion of all RGB is displayed as white. If the brightness is low for all colors, it is displayed as black. This allows you to clearly see how the IP images overlap. It should be noted that there is a portion that is reproduced as a more subtle halftone color due to the difference in the luminance of each color.

【0037】尚、ここでは投影処理として、 MIP処理,
Min IP処理,平均処理を例にしたがこれ以外の処理(分
散処理等)を用いた組み合わせ、また3種類以外(2種
類,4種類以上)の組み合わせも可能である。
Incidentally, here, as the projection processing, MIP processing,
Although Min IP processing and averaging processing are taken as examples, combinations using other processing (distributed processing, etc.) and combinations other than 3 types (2 types, 4 types or more) are also possible.

【0038】そして、画像生成部ではR/G/Bを例に
したが、これ以外の色も可能である。例えば、補色同士
の組み合わせや、原色と補色の組み合わせ等である。す
なわち、以上のような色別の画像を生成する際の色の組
み合わせとしては、同時に表示を行った場合に各色毎の
判別が可能であり、かつ、重ね合わされた部分での混合
された色によって何色の混合であるかが判別できるよう
な組み合わせであることが望ましい。このような組み合
わせの条件に合致する色は、一例として原色(赤( R)
/緑( G) /青( B) )同士の組み合わせ,補色(黄(
Yl)/マゼンタ( Mg) /シアン( Cy) )同士の組
み合わせ,原色と補色との組み合わせ(Yl/B, R/
Cy, Mg/G)などが考えられる。例えば、原色(R
/G/B)の組み合わせをした場合、元の原色以外に、
これらの重ね合わせによって黄( Yl) /マゼンタ( M
g) /シアン( Cy) /白( Wt) が生成されるので、
重なりによって混合された色(黄( Yl) /マゼンタ(
Mg) /シアン(Cy) /白( Wt) )から合成前の色
(R/G/B)の割合を推測することが可能である。
尚、以上の色の組み合わせにおいては、最終的な表示色
から元の色の割り当てが理解出来る組み合わせであれば
良く、その組み合わせの順序は問わない。例えば、 MIP
処理,Min IP処理,平均処理の各イメージに対して、
R,G,Bと割り当ても、G,B,Rと割り当てても構
わない。また、以上の場合の色として有彩色以外に無彩
色(モノクロ)を割り当てることも可能であり、有彩色
と無彩色との組み合わせも可能である。
In the image generation section, R / G / B is taken as an example, but other colors are possible. For example, a combination of complementary colors, a combination of primary colors and complementary colors, and the like. That is, as a combination of colors when generating the above-described image for each color, it is possible to distinguish each color when they are displayed at the same time, and the mixed color in the overlapped portion is used. It is desirable that the combination is such that it is possible to determine how many colors are mixed. As an example, colors that meet the conditions of such a combination are primary colors (red (R)
/ Green (G) / Blue (B)) combination, complementary color (yellow (
Yl) / magenta (Mg) / cyan (Cy)), primary color and complementary color (Yl / B, R /
Cy, Mg / G), etc. are considered. For example, the primary color (R
/ G / B) combination, in addition to the original primary colors,
By superimposing these, yellow (Yl) / magenta (M
g) / cyan (Cy) / white (Wt) is generated,
Colors mixed by overlapping (yellow (Yl) / magenta (
It is possible to estimate the ratio of colors (R / G / B) before combining from (Mg) / cyan (Cy) / white (Wt)).
It should be noted that the above color combinations may be any combination as long as the allocation of the original colors can be understood from the final display color, and the order of the combination does not matter. For example, MIP
For each image of processing, Min IP processing, averaging processing,
R, G, B may be assigned or G, B, R may be assigned. Further, as the color in the above case, it is possible to assign an achromatic color (monochrome) in addition to the chromatic color, and it is also possible to combine the chromatic color and the achromatic color.

【0039】また、図7に示すように投影処理部92で
の投影処理を2種類( MIPとMin P等の任意の組み合わ
せ)にして、画像生成部93での画像生成を原色と補色
との組み合わせにすることも考えられる。このような場
合では、2種類の投影処理結果の画像の組み合わせを原
色とその補色(RとCy,GとMg,BとY)とするこ
とにより、上述の3原色表示の場合と同様に重なり部分
が白として表示され、重なりが明確になるようになる。
尚、この場合には、ビデオ出力部93eが原色と補色の
2種類の画像から表示用のRBG出力やコンポジット出
力を生成する。
Further, as shown in FIG. 7, there are two types of projection processing in the projection processing unit 92 (arbitrary combination of MIP and Min P, etc.), and image generation in the image generation unit 93 is performed with primary colors and complementary colors. It is also possible to combine them. In such a case, by combining the images of the two types of projection processing results with the primary colors and their complementary colors (R and Cy, G and Mg, and B and Y), overlapping is achieved as in the case of the above-described three primary color display. The part is displayed as white, and the overlap becomes clear.
In this case, the video output unit 93e generates the RBG output for display and the composite output from the two types of images of the primary color and the complementary color.

【0040】図8は本発明の他の実施例の構成を示す構
成図である。ここでは、図7と同様に投影処理部92で
2種類の投影処理を行い、画像生成部93内のR生成部
93aとCy生成部93dとで2種類のRとCyの画像
を生成している。そして、表示部11が偶数フィールド
/奇数フィールドの画像を交互にインターレース表示す
るものである場合、交互表示処理部93fが前記2種類
のRとCyの画像を受けて、R生成部93aからの画像
を奇数フィールドのメモリ領域に取り込み、Cy生成部
93dからの画像を偶数フィールドのメモリ領域に取り
込むようにする。そして、交互表示処理部93fが取り
込んだ2種類の画像をフィールド毎に交互に表示部11
に出力する。このような場合、表示部11の残光時間や
観察者の目の残像により2種類の画像が重なって見える
ため、上述の実施例と同様に各画像(R,Cy)及びそ
の重なり状態(白)が明確になる。
FIG. 8 is a block diagram showing the configuration of another embodiment of the present invention. Here, as in FIG. 7, the projection processing unit 92 performs two types of projection processing, and the R generation unit 93a and the Cy generation unit 93d in the image generation unit 93 generate two types of R and Cy images. There is. When the display unit 11 alternately displays the even field / odd field images in an interlaced manner, the alternate display processing unit 93f receives the two types of R and Cy images and receives the image from the R generation unit 93a. To the memory area of the odd field, and the image from the Cy generation unit 93d is taken into the memory area of the even field. Then, the two types of images captured by the alternate display processing unit 93f are alternately displayed for each field in the display unit 11.
Output to. In such a case, since the two types of images appear to overlap due to the afterglow time of the display unit 11 and the afterimage of the observer's eyes, each image (R, Cy) and its overlapping state (white) as in the above embodiment. ) Becomes clear.

【0041】この実施例において、表示部11がフレー
ム毎に画像を更新するノンインターレース表示である場
合には、交互表示処理部93fに2画面分のフレームメ
モリを用意しておいて、取り込んだ画像を交互に出力す
るようにする。また、投影処理が3種類以上である場合
にも、交互表示処理部93fのメモリ領域を増やして、
それぞれを順次表示することで同様の動作を実現するこ
とができる。
In this embodiment, when the display unit 11 is a non-interlaced display in which the image is updated frame by frame, the alternate display processing unit 93f is provided with a frame memory for two screens and the captured image is acquired. Are output alternately. Further, even when the number of types of projection processing is three or more, the memory area of the alternate display processing unit 93f is increased,
Similar operations can be realized by sequentially displaying each.

【0042】尚、以上の実施例では超音波によるIPイメ
ージ同士を合成する場合について説明したが、MRI
(Magnetic Resonance Imaging)装置によるIPイメージ
やCTスキャナによるIPイメージについて用いることも
可能である。また、最大値や最小値の投影処理,平均処
理を組み合わせた場合を例にして説明したが、最大値や
最小値以外の特定値で投影処理したIPイメージを用いる
ことも可能である。また、複数の投影処理は並行処理や
時分割処理等が考えられ、ほぼ同時に処理できる各種処
理方法を用いることが可能である。
In the above embodiment, the case of combining IP images by ultrasonic waves has been described.
(Magnetic Resonance Imaging) It is also possible to use it for an IP image by a device or an IP image by a CT scanner. Further, the case where the projection processing and the averaging processing of the maximum value and the minimum value are combined has been described as an example, but it is also possible to use an IP image projected with a specific value other than the maximum value and the minimum value. In addition, parallel processing, time-division processing, and the like are conceivable as the plurality of projection processings, and various processing methods capable of processing substantially simultaneously can be used.

【0043】以上説明したように、複数枚のイメージデ
ータの対応する各ピクセルについて予め設定された所定
値を取り出す投影処理を、複数の異なる所定値について
実行することで複数のIPイメージを生成し、これら複数
のIPイメージのそれぞれに対応して異なる色のイメージ
を生成し、これら異なる色の複数のイメージを同時に表
示することを特徴とする画像処理方法によれば、複数の
投影処理により MIPイメージデータ,Min IPイメージデ
ータ等複数のIPイメージが生成され、各IPイメージに応
じて異なる色が付与され、これらの色に応じた表示が同
時にされる。これにより、投影処理結果が有機的に連結
された表示が行われ、元の色単独の部分や色が重ね合わ
された部分を見分けることができるようになり、それぞ
れの投影処理結果の重なり具合から注目部位の構造を容
易に識別することが可能になる。
As described above, a plurality of IP images are generated by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values, According to the image processing method, which is characterized by generating images of different colors corresponding to each of the plurality of IP images and displaying the plurality of images of different colors at the same time, the MIP image data is processed by the plurality of projection processes. , Multiple IP images such as Min IP image data are generated, different colors are given to each IP image, and the display according to these colors is performed simultaneously. As a result, the projection processing results are organically linked to each other, and it becomes possible to distinguish between the original color alone and the overlapping areas of the colors. It becomes possible to easily identify the structure of the site.

【0044】また、複数枚のイメージデータの対応する
各ピクセルについて予め設定された所定値を取り出す投
影処理を、複数の異なる所定値について実行することで
複数のIPイメージを生成し、これら複数のIPイメージの
それぞれに対応して異なる色のイメージを生成し、これ
ら異なる色の複数のイメージを所定の時間間隔をもって
交互に表示することを特徴とする画像処理方法によれ
ば、複数の投影処理により MIPイメージデータ,Min IP
イメージデータ等複数のIPイメージが生成され、各IPイ
メージに応じて異なる色が付与され、これら異なる色が
付与された各IPイメージが所定の時間間隔をもって交互
に表示される。これにより、投影処理結果が有機的に連
結された表示が行われ、元の色単独の部分や色が重ね合
わされた部分を見分けることができるようになり、それ
ぞれの投影処理結果の重なり具合から注目部位の構造を
容易に識別することが可能になる。
A plurality of IP images are generated by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. According to the image processing method, which is characterized in that images of different colors are generated corresponding to the respective images, and the plurality of images of these different colors are alternately displayed at a predetermined time interval, the MIP is performed by a plurality of projection processes. Image data, Min IP
A plurality of IP images such as image data are generated, different colors are given according to the respective IP images, and the respective IP images provided with these different colors are alternately displayed at a predetermined time interval. As a result, the projection processing results are organically linked to each other, and it becomes possible to distinguish between the original color alone and the overlapping areas of the colors. It becomes possible to easily identify the structure of the site.

【0045】また、複数枚のイメージデータの対応する
各ピクセルについて予め設定された所定値を取り出す投
影処理を、複数の異なる所定値について実行することで
複数のIPイメージを生成する投影処理手段と、前記投影
処理手段で投影処理された複数のIPイメージに対応して
異なる色のイメージを生成する画像生成手段と、前記画
像生成手段で生成された各色のイメージを同時に表示す
る表示手段とを備えたことを特徴とする画像処理装置に
よれば、複数の投影処理により MIPイメージデータ,Mi
n IPイメージデータ等複数のIPイメージが生成され、各
IPイメージに応じて異なる色が付与され、これらの色に
応じた表示が同時にされる。
Projection processing means for generating a plurality of IP images by executing a projection processing for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data, for a plurality of different predetermined values, The image processing means includes image generation means for generating images of different colors corresponding to the plurality of IP images projected by the projection processing means, and display means for simultaneously displaying the images of the respective colors generated by the image generation means. According to the image processing device characterized by the above, the MIP image data, Mi
n Multiple IP images such as IP image data are generated and
Different colors are given according to the IP image, and the display according to these colors is simultaneously performed.

【0046】これにより、投影処理結果が有機的に連結
された表示が行われ、元の色単独の部分や色が重ね合わ
された部分を見分けることができるようになり、それぞ
れの投影処理結果の重なり具合から注目部位の構造を容
易に識別することが可能になる。
As a result, the projection processing results are organically linked to each other, and it is possible to distinguish the original color alone portion and the color overlapping portion, and the projection processing results are overlapped. It becomes possible to easily identify the structure of the site of interest from the condition.

【0047】そして、複数枚のイメージデータの対応す
る各ピクセルについて予め設定された所定値を取り出す
投影処理を、複数の異なる所定値について実行すること
で複数のIPイメージを生成する投影処理手段と、前記投
影処理手段で投影処理された複数のIPイメージに対応し
て異なる色のイメージを生成する画像生成手段と、前記
画像生成手段で生成された各色のイメージを所定の時間
間隔をもって交互に表示する表示手段とを備えたことを
特徴とする画像処理装置によれば、複数の投影処理によ
り MIPイメージデータ,Min IPイメージデータ等複数の
IPイメージが生成され、各IPイメージに応じて異なる色
が付与され、これら異なる色が付与された各IPイメージ
が所定の時間間隔をもって交互に表示される。これによ
り、投影処理結果が有機的に連結された表示が行われ、
元の色単独の部分や色が重ね合わされた部分を見分ける
ことができるようになり、それぞれの投影処理結果の重
なり具合から注目部位の構造を容易に識別することが可
能になる。
Projection processing means for generating a plurality of IP images by executing a projection processing for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data, for a plurality of different predetermined values, Image generation means for generating images of different colors corresponding to a plurality of IP images projected by the projection processing means, and images of each color generated by the image generation means are alternately displayed at predetermined time intervals. According to the image processing apparatus characterized by including the display means, a plurality of projection processings such as MIP image data and Min IP image data are performed.
An IP image is generated, a different color is given to each IP image, and the IP images given the different colors are alternately displayed at a predetermined time interval. As a result, a display in which the projection processing results are organically linked is performed,
It becomes possible to distinguish the original color alone part and the part where the colors are overlapped, and it is possible to easily identify the structure of the site of interest from the degree of overlap of the projection processing results.

【0048】[0048]

【発明の効果】以上詳細に説明したように本発明によれ
ば、イメージデータに複数種類の異なる投影処理をし
て、それぞれの投影処理に応じて色付けを行い、複数の
投影処理結果の色別の表示を組み合わせて行うことで、
投影処理結果が有機的に連結された表示が行われ、元の
色単独の部分や色が重ね合わされた部分を見分けること
ができるようになり、それぞれの投影処理結果の重なり
具合から注目部位の構造を容易に識別することが可能な
画像処理方法及び画像処理装置を実現することができ
る。
As described above in detail, according to the present invention, a plurality of different types of projection processing are performed on image data, coloring is performed according to each projection processing, and the plurality of projection processing results are classified by color. By combining the display of
The projection processing results are organically linked and displayed, and it becomes possible to distinguish the original color alone and the area where the colors are overlapped, and the structure of the part of interest from the overlap of the projection processing results. It is possible to realize an image processing method and an image processing apparatus capable of easily identifying the.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の画像処理部の構成を示す構
成図である。
FIG. 1 is a configuration diagram showing a configuration of an image processing unit according to an embodiment of the present invention.

【図2】本発明の一実施例の画像処理部を用いた超音波
診断装置の構成図である。
FIG. 2 is a configuration diagram of an ultrasonic diagnostic apparatus using an image processing unit according to an embodiment of the present invention.

【図3】IP処理の処理例の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of a processing example of IP processing.

【図4】画像処理部の動作及び画像処理方法のフローチ
ャートである。
FIG. 4 is a flowchart of an operation of an image processing unit and an image processing method.

【図5】本発明の一実施例の画像処理部の構成を示す構
成図である。
FIG. 5 is a configuration diagram showing a configuration of an image processing unit according to an embodiment of the present invention.

【図6】画像処理部の動作及び画像処理方法(具体例)
のフローチャートである。
FIG. 6 is an operation of an image processing unit and an image processing method (specific example).
It is a flowchart of.

【図7】本発明の一実施例の画像処理部の構成を示す構
成図である。
FIG. 7 is a configuration diagram showing a configuration of an image processing unit according to an embodiment of the present invention.

【図8】本発明の一実施例の画像処理部の構成を示す構
成図である。
FIG. 8 is a configuration diagram showing a configuration of an image processing unit according to an embodiment of the present invention.

【図9】従来の超音波診断装置の構成図である。FIG. 9 is a configuration diagram of a conventional ultrasonic diagnostic apparatus.

【符号の説明】[Explanation of symbols]

9 画像処理部 91 イメージバッファ 92 投影処理部 92a MIP処理部 92b Min IP処理部 92c 平均処理部 93 画像生成部 93a R生成部 93b G生成部 93c B生成部 93d Cy生成部 93e ビデオ出力部 93f 交互表示処理部 9 image processing unit 91 image buffer 92 projection processing unit 92a MIP processing unit 92b Min IP processing unit 92c average processing unit 93 image generation unit 93a R generation unit 93b G generation unit 93c B generation unit 93d Cy generation unit 93e video output unit 93f alternating Display processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹内 康人 東京都日野市旭が丘四丁目7番地の127 ジーイー横河メディカルシステム株式会社 内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yasuto Takeuchi 127 GE Yokogawa Medical Systems Co., Ltd., 4-7 Asahigaoka, Hino City, Tokyo

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数枚のイメージデータの対応する各ピ
クセルについて予め設定された所定値を取り出す投影処
理を、複数の異なる所定値について実行することで複数
のIPイメージを生成し、 これら複数のIPイメージのそれぞれに対応して異なる色
のイメージを生成し、 これら異なる色の複数のイメージを同時に表示すること
を特徴とする画像処理方法。
1. A plurality of IP images are generated by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. An image processing method characterized by generating images of different colors corresponding to respective images and displaying a plurality of images of these different colors at the same time.
【請求項2】 複数枚のイメージデータの対応する各ピ
クセルについて予め設定された所定値を取り出す投影処
理を、複数の異なる所定値について実行することで複数
のIPイメージを生成し、 これら複数のIPイメージのそれぞれに対応して異なる色
のイメージを生成し、 これら異なる色の複数のイメージを所定の時間間隔をも
って交互に表示することを特徴とする画像処理方法。
2. A plurality of IP images are generated by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data for a plurality of different predetermined values. An image processing method characterized in that images of different colors are generated corresponding to respective images, and a plurality of images of these different colors are displayed alternately at predetermined time intervals.
【請求項3】 複数枚のイメージデータの対応する各ピ
クセルについて予め設定された所定値を取り出す投影処
理を、複数の異なる所定値について実行することで複数
のIPイメージを生成する投影処理手段と、 前記投影処理手段で投影処理された複数のIPイメージに
対応して異なる色のイメージを生成する画像生成手段
と、 前記画像生成手段で生成された各色のイメージを同時に
表示する表示手段とを備えたことを特徴とする画像処理
装置。
3. A projection processing unit for generating a plurality of IP images by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data, for a plurality of different predetermined values. The image processing means includes image generation means for generating images of different colors corresponding to the plurality of IP images projected by the projection processing means, and display means for simultaneously displaying the images of the respective colors generated by the image generation means. An image processing device characterized by the above.
【請求項4】 複数枚のイメージデータの対応する各ピ
クセルについて予め設定された所定値を取り出す投影処
理を、複数の異なる所定値について実行することで複数
のIPイメージを生成する投影処理手段と、 前記投影処理手段で投影処理された複数のIPイメージに
対応して異なる色のイメージを生成する画像生成手段
と、 前記画像生成手段で生成された各色のイメージを所定の
時間間隔をもって交互に表示する表示手段とを備えたこ
とを特徴とする画像処理装置。
4. A projection processing unit for generating a plurality of IP images by executing a projection process for extracting a predetermined value set in advance for each corresponding pixel of a plurality of image data, for a plurality of different predetermined values. Image generation means for generating images of different colors corresponding to the plurality of IP images projected by the projection processing means, and images of each color generated by the image generation means are alternately displayed at predetermined time intervals. An image processing apparatus comprising a display means.
JP6531394A 1994-04-01 1994-04-01 Image receiving method and apparatus Pending JPH07265303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6531394A JPH07265303A (en) 1994-04-01 1994-04-01 Image receiving method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6531394A JPH07265303A (en) 1994-04-01 1994-04-01 Image receiving method and apparatus

Publications (1)

Publication Number Publication Date
JPH07265303A true JPH07265303A (en) 1995-10-17

Family

ID=13283300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6531394A Pending JPH07265303A (en) 1994-04-01 1994-04-01 Image receiving method and apparatus

Country Status (1)

Country Link
JP (1) JPH07265303A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083745A1 (en) * 2006-01-20 2007-07-26 Hitachi Medical Corporation Elastic image display method and elastic image display
JP2009034521A (en) * 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083745A1 (en) * 2006-01-20 2007-07-26 Hitachi Medical Corporation Elastic image display method and elastic image display
US8098921B2 (en) 2006-01-20 2012-01-17 Hitachi Medical Corporation Elastic image display method and elastic image display device
JP4919972B2 (en) * 2006-01-20 2012-04-18 株式会社日立メディコ Elastic image display method and elastic image display device
JP2009034521A (en) * 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium

Similar Documents

Publication Publication Date Title
US5931784A (en) Ultrasonic diagnostic apparatus
US7474343B2 (en) Image processing apparatus having a digital image processing section including enhancement of edges in an image
US7126460B2 (en) Surrounding conditions display apparatus
EP0540313A2 (en) Color adjustment for smoothing a boundary between color images
US5353220A (en) Apparatus and method for displaying three-dimensional image and ultrasonic diagnosis apparatus using the same
US7136055B2 (en) Method of indexing seizure risk due to flashing lights on video display and system therefor
JPH1023267A (en) Sharpness-processing unit for image
JP4936607B2 (en) Image display apparatus and ultrasonic diagnostic apparatus
US20040071313A1 (en) Apparatus and method for motion-vector-aided interpolation of a pixel of an intermediate image of an image sequence
JPH0659106B2 (en) Video image processor
JPH07265303A (en) Image receiving method and apparatus
JPH08181865A (en) Picture processor
JPH11355787A (en) Picture processor and picture output device
JP2004056640A (en) Interpolation method of photographed images in complementary color single ccd color digital camera, interpolation unit of the same, and digital camera comprising the same
JP2001252272A (en) Ultrasonic imaging method and ultrasound diagnostic apparatus
EP0684726B1 (en) Fuzzy logic based scanning rate converter
JPH08280683A (en) Ultrasonic diagnostic apparatus
JP2002010287A (en) Image processing apparatus
JPH07303646A (en) Ultrasonic diagnostic apparatus
JPH0388588A (en) Scanning converting circuit for television video signal
JP3719001B2 (en) Image data generation apparatus and image data generation method used in the apparatus
JPH0746622A (en) Method for making image high definition
JP2023066984A (en) Image processing device, image processing method, and image processing program
JPH10191063A (en) Contour emphasis method and device for color image
JP2004241828A (en) High-vision moving picture test signal generator, generating program thereof and generating method therefor