JP2001307065A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2001307065A
JP2001307065A JP2000120383A JP2000120383A JP2001307065A JP 2001307065 A JP2001307065 A JP 2001307065A JP 2000120383 A JP2000120383 A JP 2000120383A JP 2000120383 A JP2000120383 A JP 2000120383A JP 2001307065 A JP2001307065 A JP 2001307065A
Authority
JP
Japan
Prior art keywords
data
image
image data
dimensional
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000120383A
Other languages
Japanese (ja)
Inventor
Akira Sawada
晃 澤田
Kiyoshi Yoda
潔 依田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000120383A priority Critical patent/JP2001307065A/en
Publication of JP2001307065A publication Critical patent/JP2001307065A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of easily grasping dislocation and stereoscopic positional relation of two kinds of three-dimensional images for an optional cross section. SOLUTION: The image processor is provided with a first image input part to input first image data to indicate a first three-dimensional image, a second image input part to input second image data to indicate a second three- dimensional image, a data generating part to generate synthesized voxel data in which the first image data and the second image data are periodically and alternately appear on each of three-dimensionally arranged orthogonal coordinate axes by synthesizing the first image data with the second image data and a display image output part to generate and output a two-dimensional image data on the optional specific cross section from the synthesized voxel data. Since the synthesized voxel data in which the first image and the second image are stereoscopically and alternately combined in a single three-dimensional data arrangement is obtained, the dislocation and the positional relation of the two kinds of three-dimensional images are easily grasped.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、3次元画像を処
理するための画像処理装置に関し、詳細には、2つの3
次元画像を合成して両者の位置関係を立体的に把握でき
るような3次元画像データを生成し、その任意断面画像
を出力することができる画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for processing a three-dimensional image, and more particularly, to two three-dimensional images.
The present invention relates to an image processing apparatus capable of synthesizing a three-dimensional image, generating three-dimensional image data capable of three-dimensionally grasping a positional relationship between the two, and outputting an arbitrary cross-sectional image.

【0002】[0002]

【従来の技術】2種類の3次元画像について、両者の立
体的な位置関係を知りたいことが多い。例えば、X線C
T、MRI、SPECT等は人体等を連続的な断面画像
として撮影する医用画像診断装置であり、これらを用い
て人体の形態又は機能情報に関する3次元の画像情報を
得ることができる。これらの医用画像診断装置はそれぞ
れ検出する物理情報が異なるため、異なる装置から得ら
れた画像情報の比較を行うことができれば、病変部の解
剖学的な構造の把握が容易となり、総合的な画像診断を
効率良く行うことができる。
2. Description of the Related Art It is often desirable to know the three-dimensional positional relationship between two types of three-dimensional images. For example, X-ray C
T, MRI, SPECT, and the like are medical image diagnostic apparatuses that photograph a human body or the like as a continuous cross-sectional image, and can obtain three-dimensional image information relating to the form or function information of the human body using these. Since these medical image diagnostic devices detect physical information differently, if it is possible to compare image information obtained from different devices, it becomes easy to grasp the anatomical structure of the lesion and to obtain a comprehensive image. Diagnosis can be performed efficiently.

【0003】従来、異なる医用画像診断装置から得られ
た異なる形式(モダリティ)の画像を位置合わせする方
法については多くの提案がなされている。例えば、撮影
時に取り付けた人工的なマーカやフレームを用いて位置
合わせする方法や、人体の解剖学的な位置情報を用いて
位置合わせをする方法などである。
Hitherto, many proposals have been made on a method of aligning images of different formats (modalities) obtained from different medical image diagnostic apparatuses. For example, there are a method of performing positioning using an artificial marker or a frame attached at the time of photographing, a method of performing positioning using anatomical position information of a human body, and the like.

【0004】一方、こうして位置合わせを行った2種類
のモダリティの画像について、位置合わせ精度の評価
や、画像同士の位置関係の把握に適した画像表示方法に
ついての報告は少ない。そのような報告の一例として、
「Robert J. Riker他:"Human Factors Problems in Opt
imization and Evaluation of RT Image Coregistratio
n", XIIth, ICCR, pp. 27-30, 1997」には、CT画像と
MR画像の断面画像を格子状に区分して配置したチェッ
カボード画像を表示することが提案されている。
On the other hand, with respect to images of two types of modalities that have been aligned in this way, there are few reports on an image display method suitable for evaluating the alignment accuracy and grasping the positional relationship between the images. As an example of such a report,
"Robert J. Riker et al.:"Human Factors Problems in Opt
imization and Evaluation of RT Image Coregistratio
n ", XIIth, ICCR, pp. 27-30, 1997", it is proposed to display a checkerboard image in which cross-sectional images of CT images and MR images are arranged in a grid pattern.

【0005】[0005]

【発明が解決しようとする課題】しかし、この方法は断
面画像同士の比較を行うものであるため、人体の血管、
神経や肋骨等の複雑な3次元的構造を有している物体に
ついて解剖学的な位置情報を把握したい時には不十分で
ある。また,臓器と腫瘤のように複数の物体の立体的な
位置関係を把握したいときにも断面画像同士の比較によ
っては困難である。
However, since this method compares cross-sectional images, blood vessels of a human body,
It is insufficient when grasping anatomical position information on an object having a complicated three-dimensional structure such as a nerve or a rib. Also, it is difficult to grasp the three-dimensional positional relationship between a plurality of objects such as an organ and a tumor by comparing the cross-sectional images.

【0006】そこで、本発明は、2種類の3次元画像の
位置ずれや立体的な位置関係を任意の断面について容易
に把握できる表示画像を出力することのできる画像処理
装置を提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of outputting a display image which can easily grasp a positional shift and a three-dimensional positional relationship between two types of three-dimensional images for an arbitrary cross section. And

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像処理装置は、第1の3次元画像を表す
第1画像データを入力する第1画像入力部と、第2の3
次元画像を表す第2画像データを入力する第2画像入力
部と、前記第1画像データと前記第2画像データを合成
して、3次元配列の各直交座標軸上において前記第1画
像データと前記第2画像データとが周期的に交互に現れ
る合成ボクセルデータを生成するデータ生成部と、前記
合成ボクセルデータから、任意の指定断面における2次
元画像データを生成して出力する表示画像出力部を備え
たことを特徴とする。本発明の画像処理装置によれば、
単一の3次元データ配列内に第1画像と第2画像が立体
的に交互に組み合わされた合成ボクセルデータを生成
し、その任意断面における画像を出力することができる
ため、2種類の3次元画像の位置ずれや立体的な位置関
係を容易に把握することができる。
In order to achieve the above object, an image processing apparatus according to the present invention comprises a first image input unit for inputting first image data representing a first three-dimensional image, 3
A second image input unit for inputting second image data representing a three-dimensional image, combining the first image data and the second image data, and combining the first image data and the second image data on each orthogonal coordinate axis of a three-dimensional array. A data generating unit that generates synthesized voxel data in which the second image data alternately appears; and a display image output unit that generates and outputs two-dimensional image data in an arbitrary designated section from the synthesized voxel data. It is characterized by having. According to the image processing device of the present invention,
Since it is possible to generate combined voxel data in which the first image and the second image are combined alternately three-dimensionally in a single three-dimensional data array and output an image at an arbitrary cross section, two types of three-dimensional data are output. It is possible to easily grasp the positional displacement of the image and the three-dimensional positional relationship.

【0008】また、前記表示画像出力部は、合成ボクセ
ルデータからボリュームレンダリングによって表示画像
データを生成することが好ましい。
Further, it is preferable that the display image output unit generates display image data from the combined voxel data by volume rendering.

【0009】さらに、前記データ生成部が、前記第1画
像データ及び第2画像データの少なくとも一方について
コントラスト強調処理を行うことが好ましい。これによ
り、入力する画像の一方がコントラストの低い画像であ
っても、最終的な合成画像のコントラスト調整が容易と
なる。
Further, it is preferable that the data generator performs a contrast enhancement process on at least one of the first image data and the second image data. Thereby, even if one of the input images is an image having a low contrast, the contrast of the final composite image is easily adjusted.

【0010】加えて、前記データ生成部が、前記第1画
像データと前記第2画像データとの強度分布の平均値及
び分散値を一致させる強度分布正規化処理を行うことが
好ましい。これにより、第1画像と第2画像の強度分布
が著しく異なる場合であっても、最終的な合成画像にお
いて一方の画像が階調不足となるといった問題の発生を
防止することができる。
[0010] In addition, it is preferable that the data generation unit performs an intensity distribution normalization process for matching the average value and the variance value of the intensity distribution between the first image data and the second image data. Accordingly, even when the intensity distribution of the first image and the intensity distribution of the second image are significantly different, it is possible to prevent a problem that one image has insufficient gradation in the final synthesized image.

【0011】またさらに、前記データ生成部が、前記第
1画像データ及び前記第2画像データの少なくとも一方
についてコントラスト強調処理を行い、かつ、前記第1
画像データと前記第2画像データとの強度分布の平均値
及び分散値を一致させる強度分布正規化処理を行っても
良い。
Still further, the data generator performs a contrast enhancement process on at least one of the first image data and the second image data, and
An intensity distribution normalization process for matching the average value and the variance value of the intensity distribution between the image data and the second image data may be performed.

【0012】また、前記データ生成部が、前記第1画像
データ及び第2画像データの強度分布を互いに重なりを
有しない新たな強度分布に変換することにより、前記第
1画像データの強度分布範囲と前記第2画像データの強
度分布範囲とを分離することが好ましい。これにより、
画像の合成後に、第1画像と第2画像に色付けや不透明
度等について異なる特徴付けをすることが可能となる。
Further, the data generation unit converts the intensity distribution of the first image data and the second image data into a new intensity distribution that does not overlap with each other, so that the intensity distribution range of the first image data is It is preferable to separate the intensity distribution range from the second image data. This allows
After combining the images, the first image and the second image can be characterized differently with respect to coloring, opacity, and the like.

【0013】また、前記データ生成部が、前記第1画像
データから取出した2次元データに、該2次元データと
同一サイズで、データが0であるアンマスク領域とデー
タがa(aは定数、a≠0)であるマスク領域が格子状
に交互に存在する第1マスクデータを掛け合わせ、前記
第2画像データから取出した2次元データに、前記第1
マスクデータのマスク領域とアンマスク領域を入れ換え
てなる第2マスクデータを掛け合わせ、前記第1画像デ
ータから取出した2次元データと、前記第2画像データ
から取出した2次元データを合成して、前記第1画像デ
ータと前記第2画像データが格子状に交互に存在する合
成2次元データを生成し、前記合成2次元データの生成
を、前記第1画像データと前記第2画像データの配置が
周期的に入れ替わるように繰り返すことにより前記合成
ボクセルデータを生成することが好ましい。
The two-dimensional data extracted from the first image data by the data generation unit may include an unmasked area having the same size as the two-dimensional data and data of 0, and a data a (where a is a constant and a (1) multiplying the first mask data in which the mask areas which are (0) alternately exist in a lattice pattern, and multiply the two-dimensional data extracted from the second image data by the first mask data.
The mask data of the mask data is multiplied by the second mask data obtained by exchanging the unmasked area, and the two-dimensional data extracted from the first image data and the two-dimensional data extracted from the second image data are combined. Generating composite two-dimensional data in which first image data and the second image data alternately exist in a grid pattern, and generating the composite two-dimensional data is performed by periodically arranging the first image data and the second image data. It is preferable to generate the synthesized voxel data by repeating so as to be alternately performed.

【0014】さらに、前記データ生成部が、前記合成ボ
クセルデータの生成に際して、前記第1画像データと前
記第2画像データの配置が入れ替わるように合成2次元
データの生成を繰り返す周期を、前記第1画像データ又
は第2画像データの各直交座標軸上の解像度に基づいて
変化させることが好ましい。これにより、入力する画像
データの解像度が変化した場合や、入力する画像データ
が断面方向とスライス軸方向に異なる解像度を有する場
合であっても、等方的な合成ボクセルデータを生成する
ことができる。
Further, when the data generating section generates the synthesized voxel data, the data generating section repeats generation of the synthesized two-dimensional data such that the arrangement of the first image data and the second image data is switched. It is preferable to change based on the resolution of the image data or the second image data on each orthogonal coordinate axis. This makes it possible to generate isotropic combined voxel data even when the resolution of the input image data changes or when the input image data has different resolutions in the cross-sectional direction and the slice axis direction. .

【0015】また、本発明の画像処理方法は、n個(n
は自然数)の2次元データの集合から成る3次元データ
である、第1画像データと第2画像データとを合成し
て、3次元配列の各直交座標軸上において前記第1画像
データと前記第2画像データとが周期的に交互に現れる
合成ボクセルデータを生成する画像処理方法であって、
(a)前記第1画像データ及び第2画像データの各々か
らi個目(iは自然数、1≦i≦n)の2次元データを
取出すサブステップと、(b)前記第1画像データから
取出したi個目の2次元データに、該2次元データと同
一サイズで、データが0であるアンマスク領域とデータ
がaであるマスク領域が格子状に交互に存在する第1マ
スクデータを掛け合わせるサブステップと、(c)前記
第2画像データから取出したi個目の2次元データに、
前記第1マスクデータのマスク領域とアンマスク領域を
入れ換えてなる第2マスクデータを掛け合わせるサブス
テップと、(d)前記第1画像データから取出したi個
目の2次元データと、前記第2画像から取出したi個目
の2次元データを合成して、合成2次元データを生成す
るサブステップを備え、i=1より始めて、(A)サブ
ステップ(a)乃至(d)を、iを1ずつ増しながら、
k回(kは自然数、k<n)繰り返すステップと、
(B)前記ステップ(A)において用いた第1及び第2
のマスクデータとは、アンマスク領域とマスク領域とを
入れ換えた第1マスクデータ及び第2マスクデータを用
いて、サブステップ(a)乃至(d)を、iを1ずつ増
しながら、k回繰り返すステップと、(C)ステップ
(A)及び(B)を、m回(mは自然数、n/k≦m<
n)繰り返し、得られた合成2次元データを積層配列す
ることによって合成ボクセルデータを生成するステップ
を備えたことを特徴とする。これにより、単一の3次元
データ配列内に第1画像と第2画像が立体的に交互に組
み合わされた合成ボクセルデータを得ることができるた
め、このデータに基づいて2種類の3次元画像の位置ず
れや位置関係を容易に把握することができる。
Further, the image processing method according to the present invention comprises n (n
Is a natural number), the first image data and the second image data, which are three-dimensional data composed of a set of two-dimensional data, are combined, and the first image data and the second image data are combined on each orthogonal coordinate axis of a three-dimensional array. An image processing method for generating synthetic voxel data in which image data and periodic alternately appear,
(A) a sub-step of extracting the i-th (i is a natural number, 1 ≦ i ≦ n) two-dimensional data from each of the first image data and the second image data; and (b) extracting the two-dimensional data from the first image data. The i-th two-dimensional data is multiplied by first mask data having the same size as the two-dimensional data and having unmasked areas where data is 0 and mask areas where data is a are alternately arranged in a grid pattern. And (c) adding the i-th two-dimensional data extracted from the second image data to
A sub-step of multiplying a second mask data obtained by exchanging a mask area and an unmask area of the first mask data; (d) an i-th two-dimensional data extracted from the first image data; From the i-th two-dimensional data extracted from the sub-steps to generate combined two-dimensional data. Starting from i = 1, (A) sub-steps (a) to (d) While increasing by
repeating k times (k is a natural number, k <n);
(B) The first and the second used in the step (A)
Is the step of repeating sub-steps (a) to (d) k times while increasing i by 1 using the first mask data and the second mask data obtained by exchanging the unmasked area and the masked area. And (C) Steps (A) and (B) are repeated m times (m is a natural number, n / k ≦ m <
n) a step of repeatedly generating and obtaining composite voxel data by stacking and combining the obtained composite two-dimensional data. As a result, it is possible to obtain combined voxel data in which the first image and the second image are combined alternately in a three-dimensional manner in a single three-dimensional data array. The displacement and the positional relationship can be easily grasped.

【0016】[0016]

【発明の実施の形態】以下、図面を参照しながら、本発
明の実施形態について説明する。本発明の画像処理装置
は、好適には、X線CT、MRI、SPECT等の医用
画像診断装置によって得られる3次元画像データの画像
処理に用いられる。そこで、本明細書においては、主と
して、異なるモダリティを持つCT画像とMR画像を同
時に表示するための画像処理を行う場合を例に説明す
る。尚、3次元画像データとは、縦方向及び横方向の位
置情報を持つピクセルに強度情報を割り当てた2次元画
像データを奥行き方向に複数配列したものであり、一般
に、縦方向、横方向及び奥行き方向の位置情報を持つボ
クセルに強度情報を割り当てたボクセルデータとして表
される。
Embodiments of the present invention will be described below with reference to the drawings. The image processing apparatus of the present invention is preferably used for image processing of three-dimensional image data obtained by a medical image diagnostic apparatus such as X-ray CT, MRI, and SPECT. Therefore, in this specification, a case will be mainly described as an example in which image processing for simultaneously displaying a CT image and an MR image having different modalities is performed. Note that the three-dimensional image data is obtained by arranging a plurality of two-dimensional image data in which intensity information is assigned to pixels having position information in the vertical direction and the horizontal direction in the depth direction. It is represented as voxel data in which intensity information is assigned to voxels having direction position information.

【0017】実施の形態1.図1は、本発明の実施の形
態1に係る画像処理装置を示すブロック図である。図1
において,10は第1画像入力部、12は第2画像入力
部、22は入力された第1画像及び第2画像から合成ボ
クセルデータを生成するデータ生成部、24は合成ボク
セルデータの任意断面の2次元画像データを出力する表
示画像出力部である。データ生成部22内には、第1画
像及び第2画像のコントラスト強調処理を行うコントラ
スト強調部14及び16と、第1画像及び第2画像の強
度分布を正規化するための強度分布正規化部18と、第
1画像と第2画像を合成する合成処理部20が設けられ
ている。
Embodiment 1 FIG. 1 is a block diagram illustrating an image processing apparatus according to Embodiment 1 of the present invention. FIG.
, 10 is a first image input unit, 12 is a second image input unit, 22 is a data generation unit that generates synthesized voxel data from the input first image and second image, and 24 is an arbitrary cross section of the synthesized voxel data. A display image output unit that outputs two-dimensional image data. The data generation unit 22 includes contrast enhancement units 14 and 16 that perform a contrast enhancement process on the first image and the second image, and an intensity distribution normalization unit that normalizes the intensity distribution of the first image and the second image. 18 and a combination processing unit 20 for combining the first image and the second image.

【0018】図2は、図1に示す画像処理装置の動作を
示すフロー図である。本実施の形態においては、入力す
る3次元画像がn個(nは自然数)のスライス画像(=
2次元の断面画像)の集合から成る場合、例えば、CT
画像やMRI画像であるような場合を例に動作を説明す
る。
FIG. 2 is a flowchart showing the operation of the image processing apparatus shown in FIG. In the present embodiment, n (n is a natural number) slice images (= n is a natural number)
In the case of a set of two-dimensional cross-sectional images, for example, CT
The operation will be described by taking an example of an image or an MRI image as an example.

【0019】まず、ステップS201において、第1画
像入力部10及び第2画像入力部12から、第1画像及
び第2画像の1枚目(i=1)のスライス画像データを
入力する。尚、第1画像及び第2画像は、図1には図示
されていないX線CT装置、MRI装置、別の情報記憶
媒体から電気通信回線を介して入力されるが、予め全ス
ライス画像データを第1及び第2画像入力部に備えたメ
モリやハードディスクに格納して、そこから各スライス
画像データを順次取出しても良い。
First, in step S201, the first slice image data (i = 1) of the first image and the second image is input from the first image input unit 10 and the second image input unit 12. The first image and the second image are input from an X-ray CT apparatus, an MRI apparatus, and another information storage medium (not shown in FIG. 1) via an electric communication line. The slice image data may be sequentially extracted from a memory or a hard disk provided in the first and second image input units.

【0020】次に、ステップS202において、入力さ
れたスライス画像データのコントラスト強調処理を行
う。コントラスト強調処理は、例えば、スライス画像デ
ータ中の強度の最大値と最小値の差が全階調幅となうよ
うに線形変換したり、強度分布のヒストグラムを平滑化
することにより行うことができる。尚、入力された画像
データのコントラストが十分である場合には、コントラ
スト強調処理は省略しても良い。
Next, in step S202, contrast enhancement processing of the input slice image data is performed. The contrast enhancement processing can be performed by, for example, performing a linear conversion so that the difference between the maximum value and the minimum value of the intensity in the slice image data becomes the entire gradation width, or smoothing the histogram of the intensity distribution. If the contrast of the input image data is sufficient, the contrast enhancement processing may be omitted.

【0021】次に、ステップS203において、第1画
像及び第2画像のスライス画像データについて、強度分
布の平均値と分散値が所定値となるように変換する強度
分布正規化処理を行う。正規化処理は、例えば式1を利
用して行うことができる。第1画像及び第2画像の双方
に正規化処理を行う代わりに、一方の強度分布の平均値
と分散値を他方に一致させるような正規化処理を行って
も良い。尚、第1画像と第2画像の強度分布が、あらか
じめほぼ同一である場合は、強度分布の正規化処理を省
略しても良い。
Next, in step S203, an intensity distribution normalization process is performed on the slice image data of the first image and the second image so as to convert the average value and the variance of the intensity distribution to predetermined values. The normalization processing can be performed using, for example, Equation 1. Instead of performing the normalization process on both the first image and the second image, a normalization process may be performed such that the average value and the variance value of one intensity distribution match the other. If the intensity distribution of the first image and the intensity distribution of the second image are substantially the same, the normalization of the intensity distribution may be omitted.

【数1】 (Equation 1)

【0022】次に、ステップS204において、第1画
像及び第2画像のスライス画像データに、スライス画像
データと同一サイズで、データが0であるアンマスク領
域とデータがa(aは定数、a≠0)であるマスク領域
が格子状に交互に存在するマスクデータを掛け合わせ
る。尚、本明細書において、画像データ同士を「掛け合
わせる」とは、画素間で強度データの積算処理を行うこ
とを指す。また、データを「マスク」するとは、マスクし
た領域のデータのみを残すことを指す。図3(a)及び
(b)は、マスクデータの一例を示す模式図である。図
3(a)は、第1画像に掛け合わせる第1マスクデータ
30を示しており、アンマスク領域30aとマスク領域
30bが格子状に交互に配列されている。第1画像のス
ライス画像データに、第1マスクデータ30を掛け合わ
せることにより、スライス画像中の、アンマスク領域3
0aに対応する領域は画素強度が0となり、マスク領域
30bに対応する領域は画素強度がもとのa倍となる。
したがって、もとの画像が格子状にマスクされたスライ
ス画像データを得ることができる。
Next, in step S204, the slice image data of the first image and the second image include an unmasked area having the same size as the slice image data and data of 0 and data a (where a is a constant and a ≠ 0). ) Is multiplied by mask data in which mask areas alternately exist in a grid pattern. In this specification, "multiplying" image data means performing integration processing of intensity data between pixels. Further, “masking” data means that only data in a masked area is left. FIGS. 3A and 3B are schematic diagrams showing an example of the mask data. FIG. 3A shows first mask data 30 to be multiplied with the first image, in which unmasked areas 30a and masked areas 30b are alternately arranged in a grid pattern. By multiplying the slice image data of the first image by the first mask data 30, the unmask area 3 in the slice image is obtained.
The area corresponding to 0a has the pixel intensity of 0, and the area corresponding to the mask area 30b has the pixel intensity a times as large as the original.
Therefore, it is possible to obtain slice image data in which the original image is masked in a lattice shape.

【0023】一方、図3(b)は、第2画像に掛け合わ
せる第2マスクデータ32を示しているが、第1マスク
データ30とはアンマスク領域とマスク領域の配置が入
れ替わっている。したがって、第2画像のスライス画像
データに、第2マスクデータを掛け合わせることによ
り、第1の画像とは逆の格子状にマスクされたスライス
画像を得ることができる。
On the other hand, FIG. 3B shows the second mask data 32 to be multiplied with the second image. However, the arrangement of the unmasked area and the masked area in the first mask data 30 are interchanged. Therefore, by multiplying the slice image data of the second image by the second mask data, it is possible to obtain a slice image masked in a lattice shape opposite to that of the first image.

【0024】次に、ステップS205において、マスク
処理のされた第1画像及び第2画像のスライス画像デー
タを合成する。画像データの合成は、例えば、画素間の
加算処理によって行うことができる。これにより、第1
画像データと第2画像データが格子状に交互に配置され
た合成2次元データを生成することができる。
Next, in step S205, the slice image data of the first image and the second image subjected to the mask processing are synthesized. The synthesis of the image data can be performed by, for example, an addition process between pixels. Thereby, the first
Synthetic two-dimensional data in which image data and second image data are alternately arranged in a grid pattern can be generated.

【0025】ステップ201からステップ205の処理
を、ステップS206においてスライス画像データが最
後のスライスであると判定されるまで繰り返す。この繰
り返し過程は、合成2次元データ中における第1画像デ
ータと画像データの配置が周期的に入れ替わるように行
う。例えば、第1画像に掛け合わせる第1マスクデータ
について、図4(a)に示すように、最初のk回(kは
自然数、k<n)は同一のデータ配置とし、次のk回は
アンマスク領域とマスク領域が入れ替わったデータ配置
とし、これを交互に繰り返す。第2画像に掛け合わせる
第2マスクデータについては、図4(b)に示すよう
に、アンマスク領域及びマスク領域の関係が常に第1マ
スクデータと逆転するようにする。
The processing from step 201 to step 205 is repeated until it is determined in step S206 that the slice image data is the last slice. This repetition process is performed so that the arrangement of the first image data and the image data in the combined two-dimensional data is periodically switched. For example, for the first mask data to be multiplied with the first image, as shown in FIG. 4A, the first k times (k is a natural number, k <n) have the same data arrangement, and the next k times are unmasked. The data arrangement is such that the area and the mask area are exchanged, and this is alternately repeated. As for the second mask data to be multiplied with the second image, as shown in FIG. 4B, the relationship between the unmasked area and the masked area is always inverted with respect to the first mask data.

【0026】次に、ステップS207において、こうし
て得られた合成2次元データを積層配列することによっ
て合成ボクセルデータを生成する。得られる合成ボクセ
ルデータは、図5に模式的に示すように、3次元配列の
直交座標軸であるx、y及びz軸の各軸上において、第
1画像データ50aと第2画像データ50bとが周期的
に交互に現れるものとなる。
Next, in step S207, synthesized voxel data is generated by stacking the synthesized two-dimensional data thus obtained. As schematically shown in FIG. 5, the obtained synthesized voxel data is obtained by combining the first image data 50a and the second image data 50b on each of x, y, and z axes, which are orthogonal coordinate axes of a three-dimensional array. They appear periodically and alternately.

【0027】次に、ステップS208において、ユーザ
からの入力等に従って、合成ボクセルデータの任意断面
を指定し、ステップS209において指定された断面に
ついての2次元表示画像データを出力する。合成ボクセ
ルデータの任意断面について2次元表示画像データを生
成するには、ボリュームレンダリングの手法を用いるこ
とが好ましい。ボリュームレンダリングは、3次元画像
データを投影する平面上のある点から3次元画像データ
に向けて光線を立て、この光線を通過するボクセルから
反射される光量の総和を計算して、投影面上の画像強度
とする手法である。各ボクセルから反射される光量は、
各ボクセルに設定した不透明度というパラメータ(透明
なら0、不透明なら1)に基づいて行われる。即ち、各
ボクセルに入射する減衰した光量を、それまでに光線が
通過したボクセルの不透明度から計算し、この光量値に
そのボクセルの強度と不透明度をかけて各ボクセルから
の反射光量を計算する。したがって、指定された断面よ
りも手前にあるボクセルについて強度を0とし、残りの
全ボクセルについて不透明度を1に設定することによっ
て、指定された断面を表示することができる。
Next, in step S208, an arbitrary section of the composite voxel data is designated according to the input from the user or the like, and two-dimensional display image data of the designated section is output in step S209. In order to generate two-dimensional display image data for an arbitrary cross section of the synthesized voxel data, it is preferable to use a volume rendering technique. Volume rendering raises a ray from a point on the plane on which the three-dimensional image data is projected toward the three-dimensional image data, calculates the total amount of light reflected from voxels passing through this ray, and calculates This is a method for setting the image intensity. The amount of light reflected from each voxel is
This is performed based on the parameter of opacity set for each voxel (0 for transparent, 1 for opaque). That is, the amount of attenuated light incident on each voxel is calculated from the opacity of the voxel through which the light ray has passed, and the intensity of light and the opacity of the voxel are multiplied by the amount of light to calculate the amount of light reflected from each voxel. . Therefore, the designated cross section can be displayed by setting the intensity to 0 for voxels in front of the specified cross section and setting the opacity to 1 for all remaining voxels.

【0028】図6乃至8に、第1画像をMRI画像と
し、第2画像をCT画像として、上記の処理を経て出力
された表示画像の一例を示す。尚、ここで用いたMRI
画像及びCT画像は人体頭部を撮影したものであり、M
RI画像にはCT画像には殆ど映らない大脳の軟組織が
描写されており、CT画像にはMRI画像には映らない
骨が描写されている。図6は、もとのMRI画像及びC
T画像のスライス画像面に平行な断面における画像であ
る。図7は、図6に平行な別な断面における画像を示
す。図8は、もとのスライス画像面に直交する断面にお
ける画像を示す。尚、図には示していないが、スライス
画像面に平行又は直交する面だけでなく、斜めの面につ
いてもCT画像とMRI画像が交互配列された断面画像
を出力することができる。このように、観察対象物の任
意断面についてMRI画像とCT画像が交互に配列され
た画像を得ることができるため、両画像の位置合わせ精
度の評価や、両画像に現れた組織の立体的な位置関係の
把握がきわめて容易となる。
FIGS. 6 to 8 show examples of display images output through the above-described processing, with the first image being an MRI image and the second image being a CT image. The MRI used here
The image and the CT image are obtained by photographing the human head.
In the RI image, soft tissue of the cerebrum hardly reflected in the CT image is depicted, and in the CT image, bone not reflected in the MRI image is depicted. FIG. 6 shows the original MRI image and C
It is an image in a cross section parallel to the slice image plane of the T image. FIG. 7 shows an image in another section parallel to FIG. FIG. 8 shows an image in a cross section orthogonal to the original slice image plane. Although not shown in the figure, a cross-sectional image in which CT images and MRI images are alternately arranged can be output not only on a plane parallel or orthogonal to the slice image plane but also on an oblique plane. As described above, since an image in which MRI images and CT images are alternately arranged for an arbitrary cross section of the observation target can be obtained, evaluation of the alignment accuracy of both images and three-dimensional structure of the tissue appearing in both images can be performed. It is extremely easy to grasp the positional relationship.

【0029】尚、入力する画像の組み合わせは、本実施
の形態において説明したようなモダリティの異なる画像
同士であってもよく、同一のモダリティであって撮像日
や撮像プロトコル等であっても良い。例えば、撮像日の
異なる患部の画像を入力すれば、患部の経時的な変化の
様子を3次元的に把握することが可能となる。
The combination of images to be input may be images having different modalities as described in the present embodiment, or may be the same modality, such as an imaging date or an imaging protocol. For example, if images of the affected part at different imaging dates are input, it is possible to three-dimensionally grasp the state of the affected part over time.

【0030】実施の形態2.表示画像の見易さの観点か
らは、図6乃至8に示した例のように、スライス画像面
に平行な断面を表示した時(図6及び7)と、画像のス
ライス軸に平行な断面を表示した時(図8)の格子ユニ
ットの大きさが一致していることが好ましい。そこで、
本実施の形態においては、入力する画像データの解像度
等が変化した場合であっても、格子ユニットの大きさが
等方的な合成ボクセルデータを得るための画像処理につ
いて説明する。
Embodiment 2 FIG. From the viewpoint of the visibility of the display image, when the cross section parallel to the slice image plane is displayed (FIGS. 6 and 7) as in the examples shown in FIGS. 6 to 8, the cross section parallel to the slice axis of the image is displayed. It is preferable that the size of the lattice unit when () is displayed (FIG. 8) matches. Therefore,
In the present embodiment, a description will be given of image processing for obtaining combined voxel data in which the size of a lattice unit is isotropic even when the resolution or the like of input image data changes.

【0031】本実施の形態における画像処理は、同一の
マスクデータを用いる繰り返し周期を所定の関係を満た
すように変化させる他は、実施の形態1における場合と
同様である。本実施の形態においては、スライス画像面
に平行な断面とスライス軸に平行な断面の格子ユニット
の大きさを一致させるために、スライス軸方向に同じ格
子模様の合成2次元データを繰り返す枚数gzを、入力
する画像データに応じて、式2に従って変化させる。
尚、gzは、実施の形態1において図4を用いて説明し
たように、もとのスライス画像に掛け合わせるマスクデ
ータについて、同一のデータ配置を用いる繰り返し数k
と等しくなる。
The image processing in the present embodiment is the same as that in the first embodiment except that the repetition period using the same mask data is changed so as to satisfy a predetermined relationship. In the present embodiment, in order to match the size of the lattice unit of the cross section parallel to the slice image plane with the cross section parallel to the slice axis, the number g z of repeating the same two-dimensional data of the same lattice pattern in the slice axis direction Is changed in accordance with Expression 2 according to the input image data.
Note that g z is the number of repetitions k using the same data arrangement for mask data to be multiplied on the original slice image, as described with reference to FIG.
Becomes equal to

【数2】 (Equation 2)

【0032】ここで、xreso0はスライス画像平面での
原画像の解像度(=単位画素当たりの長さ)であり、x
scaleはスライス画像平面の拡大率、gxはスライス画像
平面上の画素数で表される格子ユニットサイズ、zreso
はスライス軸方向の解像度(=スライス画像間隔)であ
る。
Here, x reso0 is the resolution (= length per unit pixel) of the original image on the slice image plane.
scale is the magnification of the slice image plane, g x is the grid unit size represented by the number of pixels on the slice image plane, z reso
Is the resolution in the slice axis direction (= slice image interval).

【0033】ここで、「スライス画像平面の拡大率」と
は、スライス画像平面の原画像と表示画像との画像サイ
ズの変換倍率を指す。式2に、スライス画像平面の拡大
率を含めているのは、原画像を拡大又は縮小して表示す
る場合であっても、格子ユニットサイズが等方的となる
ようにするためである。このような関係を満たすように
繰り返し数gz(=k)を変化させる手段をデータ生成
部22に備えることにより、入力する画像データのスラ
イス軸方向の解像度が変化した場合や、スライス画像面
内とスライス軸方向の解像度が異なる場合であっても、
等方的な格子ユニットサイズの表示画像を出力すること
ができる。
Here, the "magnification ratio of the slice image plane" refers to a conversion magnification of the image size between the original image on the slice image plane and the display image. The reason why the enlargement ratio of the slice image plane is included in Expression 2 is that the lattice unit size is isotropic even when the original image is enlarged or reduced and displayed. By providing the data generation unit 22 with means for changing the number of repetitions g z (= k) so as to satisfy such a relationship, when the resolution of the input image data in the slice axis direction changes, or in the slice image plane, And the resolution in the slice axis direction is different,
A display image having an isotropic lattice unit size can be output.

【0034】実施の形態3.第1画像と第2画像を合成
して合成ボクセルデータを生成した後に、第1画像と第
2画像に別々の色づけ、不透明度等の特徴量を設定する
ことができれば、第1画像と第2画像の比較が容易とな
る。そこで、本実施の形態においては、合成ボクセルデ
ータの生成に際して、第1画像データ及び第2画像デー
タの強度分布を互いに重ならないように変換することに
より、第1画像データの強度分布範囲と第2画像データ
の強度分布範囲とを分離する。
Embodiment 3 After the first image and the second image are combined to generate combined voxel data, if the first image and the second image can be separately colored and feature values such as opacity can be set, the first image and the second image can be combined. Images can be easily compared. Therefore, in the present embodiment, when generating the composite voxel data, the intensity distribution of the first image data and the second image data are converted so as not to overlap each other, so that the intensity distribution range of the first image data and the second The intensity distribution range of the image data is separated.

【0035】本実施の形態における画像処理は、第1画
像データ及び第2画像データの合成前に所定の強度分布
変換を行う点を除いては、実施の形態1と同様である。
図9は、図1に示した画像処理装置の合成ボクセルデー
タ生成部22において、第1画像データ及び第2画像デ
ータの強度分布を変換する様子を示した模式図である。
この変換は、例えば、強度分布正規化部18によって正
規化を行った後、合成処理部20において合成する前に
行うことができる。図9に示すように、コントラスト強
調及び正規化が行われた第1画像402の強度階調を圧
縮し、シフトさせて0〜(N/2−1)の強度範囲に変
換し、同様に、コントラスト強調及び正規化が行われた
第2画像404の強度階調を(N/2)〜(N−1)の
強度範囲に変換する。こうして変換処理を行った後に、
第1画像及び第2画像の合成を行うことにより、合成後
の画像データ406には、第1画像と第2画像が階調上
分離されて格納される。
The image processing in the present embodiment is the same as that in the first embodiment except that a predetermined intensity distribution conversion is performed before the first image data and the second image data are combined.
FIG. 9 is a schematic diagram showing how the combined voxel data generation unit 22 of the image processing apparatus shown in FIG. 1 converts the intensity distribution of the first image data and the second image data.
This conversion can be performed, for example, after normalization by the intensity distribution normalization unit 18 and before synthesis by the synthesis processing unit 20. As shown in FIG. 9, the intensity gradation of the first image 402 on which contrast enhancement and normalization has been performed is compressed, shifted and converted into an intensity range of 0 to (N / 2-1). The intensity gradation of the second image 404 on which contrast enhancement and normalization have been performed is converted into an intensity range of (N / 2) to (N-1). After performing the conversion process in this way,
By synthesizing the first image and the second image, the first image and the second image are stored in the image data 406 after the synthesis in such a manner that they are separated in gradation.

【0036】したがって、色付け、不透明度等の特徴量
を設定する場合に階調によって設定値を変えることによ
って、第1画像及び第2画像に独立して特徴付けを行う
ことが可能となる。また、合成ボクセルデータの任意断
面に表示した際に、第1画像及び第2画像が異なる階調
に表示されるため、各格子がどちらの画像からのものか
を容易に判断することが可能となる。尚、図7及び図8
は、本実施の形態にしたがって、第1画像及び第2画像
に異なる色づけがされた例である。
Therefore, when the characteristic values such as coloring and opacity are set, the set values are changed depending on the gradation, so that the first image and the second image can be characterized independently. In addition, since the first image and the second image are displayed with different gradations when displayed on an arbitrary cross section of the synthesized voxel data, it is possible to easily determine which image each grid is from. Become. 7 and 8
Is an example in which the first image and the second image are differently colored according to the present embodiment.

【0037】[0037]

【発明の効果】本発明の画像処理装置によれば、単一の
3次元データ配列内に第1画像と第2画像が立体的に組
み合わされた合成ボクセルデータを得て、その任意断面
の表示画像を出力することができるため、このデータに
基づいて、2種類の3次元画像の位置関係について立体
全体に渡る特徴を把握し、両画像間の差異を3次元的に
把握することが可能となる。
According to the image processing apparatus of the present invention, synthesized voxel data in which a first image and a second image are three-dimensionally combined in a single three-dimensional data array is obtained, and an arbitrary cross section is displayed. Since images can be output, it is possible to grasp the characteristics of the positional relationship between the two types of three-dimensional images over the entire three-dimensional object and three-dimensionally grasp the difference between the two images based on this data. Become.

【0038】また、データ表示部がボリュームレンダリ
ングによって任意断面の表示を行うため、表示画像への
種々の特徴付けが容易となる。
Further, since the data display unit displays an arbitrary cross section by volume rendering, various characterizations on a display image are facilitated.

【0039】さらに、データ生成部が、第1画像データ
及び第2画像データの少なくとも一方についてコントラ
スト強調処理を行うことにより、入力する画像の一方が
コントラストの低い画像であっても、最終的な合成画像
のコントラスト調整が容易となる。
Further, the data generation unit performs a contrast enhancement process on at least one of the first image data and the second image data, so that even if one of the input images is an image having a low contrast, the final composite image is obtained. The contrast of the image can be easily adjusted.

【0040】加えて、データ生成部が、第1画像データ
と第2画像データとの強度分布の平均値及び分散値を一
致させる強度分布正規化処理を行うことにより、第1画
像と第2画像の強度分布が著しく異なる場合であって
も、最終的な合成画像において一方の画像が階調不足と
なるといった問題の発生を防止することができる。
In addition, the data generation unit performs an intensity distribution normalization process for matching the average value and the variance value of the intensity distribution between the first image data and the second image data, thereby obtaining the first image and the second image. Even if the intensity distributions of the images are significantly different, it is possible to prevent the problem that one image has insufficient gradation in the final synthesized image.

【0041】またさらに、データ生成部が、第1画像デ
ータ及び第2画像データの少なくとも一方についてコン
トラスト強調処理を行い、かつ、第1画像データと第2
画像データとの強度分布の平均値及び分散値を一致させ
る強度分布正規化処理を行うことにより、最終的な合成
画像の画質調整を一層容易とすることができる。
Still further, the data generating section performs a contrast enhancement process on at least one of the first image data and the second image data, and performs the first image data and the second image data.
By performing the intensity distribution normalization processing for matching the average value and the variance value of the intensity distribution with the image data, the image quality of the final composite image can be further easily adjusted.

【0042】また、データ生成部が、第1画像データの
強度分布範囲と前記第2画像データの強度分布範囲とを
分離することによって、画像の合成後に、第1画像と第
2画像に色付け等の異なる特徴付けをすることが可能と
なり、第1画像と第2画像の差異の把握等を一層容易に
することができる。
Further, the data generation section separates the intensity distribution range of the first image data from the intensity distribution range of the second image data, so that the first image and the second image are colored after the images are combined. Can be differently characterized, and the difference between the first image and the second image can be more easily grasped.

【0043】また、データ生成部が、マスク領域とアン
マスク領域が格子状に交互に存在するマスクデータを用
いてデータ生成を行うことにより、第1画像と第2画像
が立体的に組み合わさった合成ボクセルデータを、簡易
な処理によって生成することができる。
Further, the data generation unit generates data using mask data in which mask areas and unmask areas alternately exist in a grid pattern, so that the first image and the second image are three-dimensionally combined. Voxel data can be generated by simple processing.

【0044】さらに、第1画像データと前記第2画像デ
ータの配置が入れ替わるように合成2次元データの生成
を繰り返す周期を、入力する画像データの各直交座標軸
上の解像度に基づいて変化させることにより、入力する
画像データの解像度が変化した場合や、入力する画像デ
ータが断面方向とスライス軸方向に異なる解像度を有す
る場合であっても、等方的な合成ボクセルデータを生成
することができる。
Further, by changing the cycle of repeating the generation of the combined two-dimensional data so that the arrangement of the first image data and the second image data is switched based on the resolution of the input image data on each orthogonal coordinate axis. Even when the resolution of the input image data changes or when the input image data has different resolutions in the cross-sectional direction and the slice axis direction, it is possible to generate isotropic combined voxel data.

【0045】また、本発明の画像処理方法によれば、単
一の3次元データ配列内に第1画像と第2画像が立体的
に組み合わされた合成ボクセルデータを得ることができ
るため、このデータに基づいて第1画像と第2画像の3
次元画像の位置ずれや位置関係を容易に把握することが
できる。
According to the image processing method of the present invention, it is possible to obtain combined voxel data in which the first image and the second image are three-dimensionally combined in a single three-dimensional data array. Of the first image and the second image based on
The positional deviation and the positional relationship of the two-dimensional image can be easily grasped.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 図1は、本発明の実施の形態1に係る画像処
理装置を示すブロック図である。
FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention.

【図2】 図2は、本発明の実施の形態1の画像処理装
置の動作を示すフロー図である。
FIG. 2 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment of the present invention.

【図3】 図3(a)及び(b)は、本発明の実施の形
態1に係る第1及び第2マスクデータを示す模式図であ
る。
FIGS. 3A and 3B are schematic diagrams showing first and second mask data according to the first embodiment of the present invention.

【図4】 図4(a)及び(b)は、本発明の実施の形
態1に係るマスクデータの配列を示す模式図である。
FIGS. 4A and 4B are schematic diagrams showing an array of mask data according to the first embodiment of the present invention.

【図5】 図5は、本発明の実施の形態1に係る合成ボ
クセルデータを示す模式図である。
FIG. 5 is a schematic diagram showing combined voxel data according to Embodiment 1 of the present invention.

【図6】 図6は、本発明に係る画像処理装置によって
出力された画像の一例を示す画像写真である。
FIG. 6 is an image photograph showing an example of an image output by the image processing apparatus according to the present invention.

【図7】 図7は、本発明に係る画像処理装置によって
出力された画像の別の一例を示す画像写真である。
FIG. 7 is an image photograph showing another example of an image output by the image processing apparatus according to the present invention.

【図8】 図8は、本発明に係る画像処理装置によって
出力された画像のさらに別の一例を示す画像写真であ
る。
FIG. 8 is an image photograph showing still another example of an image output by the image processing apparatus according to the present invention.

【図9】 図9は、本発明の実施の形態3における強度
分布変換処理を示す模式図である。
FIG. 9 is a schematic diagram illustrating intensity distribution conversion processing according to Embodiment 3 of the present invention.

【符号の説明】[Explanation of symbols]

10 1画像入力部、12 第2画像入力部、14及
び16 コントラスト強調部、18 強度分布正規化
部、20 合成処理部、22 データ生成部、24表示
画像出力部、30及び32 マスクデータ、50 合成
ボクセルデータ。
10 1 image input unit, 12 second image input unit, 14 and 16 contrast enhancement unit, 18 intensity distribution normalization unit, 20 synthesis processing unit, 22 data generation unit, 24 display image output unit, 30 and 32 mask data, 50 Synthetic voxel data.

フロントページの続き Fターム(参考) 4C096 AB50 AD12 AD14 DA11 DA30 DC11 DC27 DC33 DC36 DC37 5B057 AA07 BA03 BA07 BA24 CA13 CB12 CE08 CE09 CE11 CE20 5C076 AA02 AA11 AA40 BA06 CA02Continued on the front page F term (reference) 4C096 AB50 AD12 AD14 DA11 DA30 DC11 DC27 DC33 DC36 DC37 5B057 AA07 BA03 BA07 BA24 CA13 CB12 CE08 CE09 CE11 CE20 5C076 AA02 AA11 AA40 BA06 CA02

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 2つの3次元画像データを合成して表示
画像データを出力するための画像処理装置であって、 第1の3次元画像を表す第1画像データを入力する第1
画像入力部と、 第2の3次元画像を表す第2画像データを入力する第2
画像入力部と、 前記第1画像データと前記第2画像データを合成して、
3次元配列の各直交座標軸上において前記第1画像デー
タと前記第2画像データとが周期的に交互に現れる合成
ボクセルデータを生成するデータ生成部と、 前記合成ボクセルデータから、任意の指定断面における
2次元画像データを生成して出力する表示画像出力部を
備えた画像処理装置。
An image processing apparatus for combining two three-dimensional image data and outputting display image data, wherein a first image data representing a first three-dimensional image is input.
An image input unit; and a second input unit that inputs second image data representing a second three-dimensional image.
An image input unit; combining the first image data and the second image data;
A data generation unit that generates composite voxel data in which the first image data and the second image data periodically and alternately appear on each orthogonal coordinate axis of a three-dimensional array; An image processing apparatus including a display image output unit that generates and outputs two-dimensional image data.
【請求項2】 前記表示画像出力部が、ボリュームレン
ダリングによって2次元画像データを生成することを特
徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the display image output unit generates two-dimensional image data by volume rendering.
【請求項3】 前記データ生成部が、前記第1画像デー
タ及び第2画像データの少なくとも一方についてコント
ラスト強調処理を行うことを特徴とする請求項1記載の
画像処理装置。
3. The image processing apparatus according to claim 1, wherein the data generator performs a contrast enhancement process on at least one of the first image data and the second image data.
【請求項4】 前記データ生成部が、前記第1画像デー
タと前記第2画像データとの強度分布の平均値及び分散
値を一致させる強度分布正規化処理を行うことを特徴と
する請求項1記載の画像処理装置。
4. The apparatus according to claim 1, wherein the data generation unit performs an intensity distribution normalization process for matching an average value and a variance value of an intensity distribution between the first image data and the second image data. The image processing apparatus according to any one of the preceding claims.
【請求項5】 前記データ生成部が、前記第1画像デー
タ及び前記第2画像データの少なくとも一方についてコ
ントラスト強調処理を行い、さらに、前記第1画像デー
タと前記第2画像データとの強度分布の平均値及び分散
値を一致させる強度分布正規化処理を行うことを特徴と
する請求項1記載の画像処理装置。
5. The data generation unit performs a contrast enhancement process on at least one of the first image data and the second image data, and further performs a contrast enhancement process on the intensity distribution between the first image data and the second image data. 2. The image processing apparatus according to claim 1, wherein an intensity distribution normalization process for matching the average value and the variance value is performed.
【請求項6】 前記データ生成部が、前記第1画像デー
タ及び第2画像データの強度分布を互いに重なりを有し
ない新たな強度分布に変換することを特徴とする請求項
1記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the data generation unit converts the intensity distributions of the first image data and the second image data into a new intensity distribution that does not overlap with each other. .
【請求項7】 前記データ生成部が、 前記第1画像データから取出した2次元データに、該2
次元データと同一サイズで、データが0であるアンマス
ク領域とデータがa(aは定数、a≠0)であるマスク
領域が格子状に交互に存在する第1マスクデータを掛け
合わせ、 前記第2画像データから取出した2次元データに、前記
第1マスクデータのマスク領域とアンマスク領域を入れ
換えてなる第2マスクデータを掛け合わせ、 前記第1画像データから取出した2次元データと、前記
第2画像データから取出した2次元データを合成して、
前記第1画像データと前記第2画像データが格子状に交
互に存在する合成2次元データを生成し、 前記合成2次元データの生成を、前記第1画像データと
前記第2画像データの配置が周期的に入れ替わるように
繰り返すことにより前記合成ボクセルデータを生成する
ことを特徴とする請求項1記載の画像処理装置。
7. The two-dimensional data extracted from the first image data by the data generation unit,
Multiplying unmasked areas having the same size as the dimension data and having data of 0 and mask areas having data of a (a is a constant, a ≠ 0) by first mask data alternately in a grid pattern; The two-dimensional data extracted from the image data is multiplied by second mask data obtained by exchanging a mask area and an unmasked area of the first mask data. The two-dimensional data extracted from the first image data and the second image Combining the two-dimensional data extracted from the data,
Generating composite two-dimensional data in which the first image data and the second image data alternately exist in a grid pattern, and generating the composite two-dimensional data is performed by arranging the first image data and the second image data. The image processing apparatus according to claim 1, wherein the composite voxel data is generated by repeating the switching processing periodically.
【請求項8】 前記データ生成部が、前記合成ボクセル
データの生成に際して、前記第1画像データと前記第2
画像データの配置が入れ替わる周期を、前記第1画像デ
ータ及び第2画像データの各直交座標軸上の解像度に基
づいて変化させることを特徴とする請求項7記載の画像
処理装置。
8. The method according to claim 1, wherein the data generating unit generates the combined voxel data by combining the first image data with the second voxel data.
The image processing apparatus according to claim 7, wherein a cycle at which the arrangement of the image data is switched is changed based on a resolution of each of the first image data and the second image data on each orthogonal coordinate axis.
【請求項9】 n個(nは自然数)の2次元データの集
合から成る3次元データである、第1画像データと第2
画像データとを合成して、3次元配列の各直交座標軸上
において前記第1画像データと前記第2画像データとが
周期的に交互に現れる合成ボクセルデータを生成する画
像処理方法であって、(a)前記第1画像データ及び第
2画像データの各々からi個目(iは自然数、1≦i≦
n)の2次元データを取出すサブステップと、(b)前
記第1画像データから取出したi個目の2次元データ
に、該2次元データと同一サイズで、データが0である
アンマスク領域とデータがa(aは定数、a≠0)であ
るマスク領域が格子状に交互に存在する第1マスクデー
タを掛け合わせるサブステップと、(c)前記第2画像
データから取出したi個目の2次元データに、前記第1
マスクデータのマスク領域とアンマスク領域を入れ換え
てなる第2マスクデータを掛け合わせるサブステップ
と、(d)前記第1画像データから取出したi個目の2
次元データと、前記第2画像から取出したi個目の2次
元データを合成して、合成2次元データを生成するサブ
ステップを備え、 i=1より始めて、(A)サブステップ(a)乃至
(d)を、iを1ずつ増しながら、k回(kは自然数、
k<n)繰り返すステップと、(B)前記ステップ
(A)において用いた第1マスクデータ及び第2のマス
クデータとは、アンマスク領域とマスク領域とを入れ換
えた第1マスクデータ及び第2マスクデータを用いて、
サブステップ(a)乃至(d)を、iを1ずつ増しなが
ら、k回繰り返すステップと、(C)ステップ(A)及
び(B)を、m回(mは自然数、n/k≦m<n)繰り
返し、得られた合成2次元データを配列して合成ボクセ
ルデータを生成するステップを備えたことを特徴とする
画像処理方法。
9. The first image data and the second image data, which are three-dimensional data including a set of n (n is a natural number) two-dimensional data.
An image processing method of combining image data to generate synthesized voxel data in which the first image data and the second image data periodically and alternately appear on each orthogonal coordinate axis of a three-dimensional array, a) i-th (i is a natural number, 1 ≦ i ≦) from each of the first image data and the second image data
(b) a sub-step of extracting two-dimensional data; and (b) an unmasked area having the same size as the two-dimensional data and having zero data is added to the i-th two-dimensional data extracted from the first image data. Substep of multiplying first mask data in which mask areas where a is a (a is a constant, a ≠ 0) are alternately arranged in a grid pattern; and (c) the i-th second mask data extracted from the second image data. In the dimensional data, the first
Sub-step of multiplying the second mask data obtained by exchanging the mask area and the unmask area of the mask data; and (d) the i-th second data extracted from the first image data.
A sub-step of combining the dimensional data with the i-th two-dimensional data extracted from the second image to generate combined two-dimensional data; starting from i = 1, (A) sub-steps (a) to (a) (D) is increased k times by 1 (k is a natural number,
k <n) a repeating step; and (B) the first mask data and the second mask data used in the step (A) are a first mask data and a second mask data obtained by exchanging an unmasked area and a masked area. Using,
Sub-steps (a) to (d) are repeated k times while incrementing i, and (C) steps (A) and (B) are repeated m times (m is a natural number, n / k ≦ m < n) an image processing method, comprising a step of repeatedly arranging the obtained combined two-dimensional data to generate combined voxel data.
JP2000120383A 2000-04-21 2000-04-21 Image processor and image processing method Pending JP2001307065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000120383A JP2001307065A (en) 2000-04-21 2000-04-21 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000120383A JP2001307065A (en) 2000-04-21 2000-04-21 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2001307065A true JP2001307065A (en) 2001-11-02

Family

ID=18631207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000120383A Pending JP2001307065A (en) 2000-04-21 2000-04-21 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2001307065A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001291091A (en) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp Device and method for processing image
JP2008228344A (en) * 2001-12-13 2008-09-25 Sony United Kingdom Ltd Detection data processing apparatus, identification method and program
JP2013154121A (en) * 2012-01-31 2013-08-15 Nidek Co Ltd Ophthalmic image processing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123311A (en) * 1991-11-06 1993-05-21 Hitachi Ltd Sectional image displaying system
JPH06178777A (en) * 1992-12-11 1994-06-28 Aloka Co Ltd Ultrasonic three-dimensional image display device
JPH096986A (en) * 1995-06-19 1997-01-10 Hitachi Ltd Three-dimensional image synthesis and display device corresponding to multi-modality
JPH10165387A (en) * 1996-12-10 1998-06-23 Hitachi Medical Corp Method of displaying image in medical image diagnostic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123311A (en) * 1991-11-06 1993-05-21 Hitachi Ltd Sectional image displaying system
JPH06178777A (en) * 1992-12-11 1994-06-28 Aloka Co Ltd Ultrasonic three-dimensional image display device
JPH096986A (en) * 1995-06-19 1997-01-10 Hitachi Ltd Three-dimensional image synthesis and display device corresponding to multi-modality
JPH10165387A (en) * 1996-12-10 1998-06-23 Hitachi Medical Corp Method of displaying image in medical image diagnostic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001291091A (en) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp Device and method for processing image
JP2008228344A (en) * 2001-12-13 2008-09-25 Sony United Kingdom Ltd Detection data processing apparatus, identification method and program
JP2013154121A (en) * 2012-01-31 2013-08-15 Nidek Co Ltd Ophthalmic image processing device and program

Similar Documents

Publication Publication Date Title
US4719585A (en) Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body
JP4421016B2 (en) Medical image processing device
US7912264B2 (en) Multi-volume rendering of single mode data in medical diagnostic imaging
US8532359B2 (en) Biodata model preparation method and apparatus, data structure of biodata model and data storage device of biodata model, and load dispersion method and apparatus of 3D data model
JP3254451B2 (en) Coloring method and apparatus by multi-channel MRI image processing
CN103268630B (en) A kind of blood vessel three-dimensional visualization method based on intravascular ultrasound image
JP2007537770A (en) A dynamic crop box determination method for display optimization of luminal structures in endoscopic images
US20090087046A1 (en) Digital blink comparator apparatus and software and methods for operation
WO2004081873A2 (en) System and method for performing a virtual endoscopy
EP1923840B1 (en) Picking on fused 3D volume rendered images and updating corresponding views according to a picking action
JPH0632042B2 (en) Device and method for displaying three-dimensional surface structure
US7194122B2 (en) Medical tomography apparatus for generating a 2D image from a 3D dataset of a tomographic data
Tran et al. A research on 3D model construction from 2D DICOM
CN108694007B (en) Unfolding ribs from magnetic resonance images
CN108830915B (en) Method and device for realizing 3D (three-dimensional) simulation animation of oral cavity image
JP2007289569A (en) Medical image processor and medical image processing method
CN108573514B (en) Three-dimensional fusion method and device of images and computer storage medium
JP2001307065A (en) Image processor and image processing method
US9552663B2 (en) Method and system for volume rendering of medical images
CN112950774A (en) Three-dimensional modeling device, operation planning system and teaching system
EP0318291A2 (en) Apparatus and method for generating images from tomographic data
US7609854B2 (en) Method for displaying medical image information dependent on a detected position of the observer
US20030223628A1 (en) Method and apparatus for generating a combined parameter map
Harris Display of multidimensional biomedical image information
Blezek et al. Virtual endoscopy vs real endoscopy: a comparative evaluation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413