JPH0581946B2 - - Google Patents
Info
- Publication number
- JPH0581946B2 JPH0581946B2 JP5507883A JP5507883A JPH0581946B2 JP H0581946 B2 JPH0581946 B2 JP H0581946B2 JP 5507883 A JP5507883 A JP 5507883A JP 5507883 A JP5507883 A JP 5507883A JP H0581946 B2 JPH0581946 B2 JP H0581946B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- region
- interest
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明は、画像の表示または領域設定方法に係
り、特に異なる撮影装置で撮つた画像を複数枚同
時に表示し、互いの対応領域を確認するのに好適
な複合画像設定方法に関する。[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to an image display or area setting method, and particularly to a method for displaying a plurality of images taken with different photographing devices at the same time and confirming mutually corresponding areas. The present invention relates to a composite image setting method suitable for.
従来の複数画像表示方法では、異なつた装置で
撮つた同一部位の画像(例えば、X線CT,
NMR−CT,ポジトロンCT等)間では、マトリ
クスサイズ,画素サイズの違い、あるいは位置づ
れ等により各画像間の対応位置関係がわかりにく
いという欠点があつた。従つて、医師がある画像
の特定の関心領域(患部等)を見い出し、他の異
なる種類の画像で、その対応領域を見たい時で
も、勘に頼る以外に方法がなかつた。
In conventional multiple image display methods, images of the same region taken with different devices (e.g., X-ray CT,
(NMR-CT, positron CT, etc.) has the disadvantage that it is difficult to understand the corresponding positional relationship between each image due to differences in matrix size, pixel size, or positional deviation. Therefore, even when a doctor finds a specific region of interest (such as an affected area) in a certain image and wants to see the corresponding region in another type of image, he or she has no choice but to rely on intuition.
本発明の目的は、同一部位等の複数画像間の形
状の差違を補正し、各画像間の対応位置関係を自
動的に表示したり、領域を設定する方法を提供す
ることにある。
An object of the present invention is to provide a method for correcting shape differences between multiple images of the same region, automatically displaying the corresponding positional relationship between the images, and setting regions.
通常、異なる装置で撮影した画像間では、デー
タのマトリクスサイズ、画素サイズの違いや、平
行移動、回転等の位置づれのため、位置的な対応
関係は不明である。そこで、本発明では、まず各
2画像間で仕置合わせを行ない、両画像間の座標
変換式を設定する。これをすべての組み合わせ、
つまり全画像数をNとするとNC2ケについて座
標変換式を求めておく。
Normally, the positional correspondence between images taken with different devices is unclear due to differences in data matrix size and pixel size, and positional deviations such as parallel translation and rotation. Therefore, in the present invention, alignment is first performed between each two images, and a coordinate transformation formula between the two images is set. Combining all this,
In other words, if the total number of images is N, coordinate transformation formulas are calculated for N C 2 images.
次に、医師あるいはオペレータが特定の画像上
で関心領域を指示した時に、上記で求めた座標変
換式に従い対応座標を求め、表示することができ
る。またメモリ領域内の画像処理により関心領域
を設定し他の画像の対応領域を設定する場合も同
様である。 Next, when a doctor or operator indicates a region of interest on a particular image, corresponding coordinates can be determined and displayed according to the coordinate transformation formula determined above. The same applies when a region of interest is set by image processing in a memory area and a corresponding region of another image is set.
以下、本発明を実施例により詳細に説明する。
説明をわかりやすくするためにここでは当初2枚
の画像を用いる場合について説明する。
Hereinafter, the present invention will be explained in detail with reference to Examples.
To make the explanation easier to understand, a case will be described here in which two images are initially used.
第1図は、対応領域の指示、表示例を示してい
る。画像11における関心領域13を指定する
と、画像10における対応領域12が表示され
る。 FIG. 1 shows an example of indication and display of corresponding areas. When the region of interest 13 in the image 11 is specified, the corresponding region 12 in the image 10 is displayed.
第2−A図は、両画像間の座標変換式を求める
1例を示している。これは、画像10における特
徴点、(ui,vi)が、画像11のどの点(xi,yi)
に対応するかを人間が指定し、これら対応点の組
(以下基準点と呼ぶ)より最小二乗法により近似
多項式の係数を求めるやり方である。以下、本処
理内容の説明を行なう。今、画像間の変換式を、
U(xi,yi)=ui
V(xi,yi)=vi (1)式
とすると、近似多項式は、
U(xi,yi)=n
Σi=1 n
Σj=1
aijxi-1yi-1
V(xi,yi)=n
Σi=1 n
Σj=1
bijxi-1yi-1 (2)式
で表わされる。従つて、、最小二乗法では、よく
知られているように
N
Σi=1
(U(xi,yi)−ui)2
N
Σi=1
(V(xi,yi)−vi)2 (3)式
の値を最小にするという条件のもとで、(2)式の係
数を決定することになる。 FIG. 2-A shows an example of finding a coordinate transformation formula between both images. This means that the feature point (ui, vi) in image 10 is the point (xi, yi) in image 11.
In this method, a person specifies which points correspond to the corresponding points, and then calculates the coefficients of the approximate polynomial using the method of least squares from a set of corresponding points (hereinafter referred to as reference points). The contents of this process will be explained below. Now, if the conversion formula between images is U (xi, yi) = ui V (xi, yi) = vi (1), then the approximate polynomial is: U (xi, yi) = n Σ i=1 n Σ j=1 a ij x i-1 y i-1 V(xi, yi)= n Σ i=1 n Σ j=1 b ij x i-1 y i-1 It is expressed by equation (2). Therefore, in the least squares method, as is well known, N Σ i=1 (U(xi, yi) − ui) 2 N Σ i=1 (V(xi, yi) − vi) 2 (3 ) The coefficients of equation (2) are determined under the condition of minimizing the value of equation (2).
両画像が比較的良く似ており、基準点が設定し
やすい場合には、上記に述べた方法により座標変
換式を求めることができるが、そうでない場合に
は別の方法を適用する。以下に、第2−B図によ
り1例を説明する。図に示すように、本方式では
処理に先立つて画像の輪郭を抽出しておく。今、
輪座標を、それぞれ(ui,vi),(xj,yj)とする
と輪郭中心(U,V),(X,Y)は、
U=Σiui/nA(i=1,2,……,nA)
V=Σivi/nA( ″ )
X=Σixj/nB(j=1,2,……,nB)
Y=Σiyj/nB(j=1,2,……,nB)
で求めることができる。従つて、(U,V)と
(X,Y)のずれ量を求め、一方の画像をシフト
することにより、画像中心を合わすことが可能で
ある。 If the two images are relatively similar and it is easy to set the reference point, the coordinate transformation formula can be determined by the method described above, but if this is not the case, another method is applied. An example will be explained below with reference to FIG. 2-B. As shown in the figure, in this method, the outline of the image is extracted before processing. now,
If the ring coordinates are (ui, vi) and (xj, yj), the contour centers (U, V) and (X, Y) are as follows: U=Σiui/nA (i=1, 2,..., nA) It can be determined as follows: V=Σivi/nA ('') X=Σixj/n B (j=1, 2,..., nB) Y=Σiyj/n B (j=1, 2,..., nB). Therefore, by finding the amount of deviation between (U, V) and (X, Y) and shifting one of the images, it is possible to align the centers of the images.
尚、これらの処理に先立つて、必要に応じて画
像間のマトリクスサイズの統一化、画素サイズに
応じた拡大・縮少を行なつておく。 Note that, prior to these processes, if necessary, the matrix sizes of the images are unified, and the images are enlarged or reduced according to the pixel size.
次に、第3図により具体的なシステム構成を説
明する。今、比較すべき2枚の画像が画像メモリ
30,31に入つているものとする。先に述べた
多項式近似法を例に説明する。処理部33では、
CRTデイスプレイ32上に上記画像メモリ30
または31のいずれかを表示しつつライトペン3
6により基準点座標38を入力し、多項式近似を
行なつて係数を算出する。又、処理部34では、
CRTデイスプレイ35で上記画像メモリの内容
より特定のものを表示しつつライトペンにより関
心領域を指定し、33より取り込んだ多項式係数
を用いて対応する領域の座標値を計算し表示す
る。通常、画像メモリには複数組の画像が格納さ
れているので、上記処理部33と34の処理は、
並列に行なうことが可能である。 Next, a specific system configuration will be explained with reference to FIG. It is now assumed that two images to be compared are stored in the image memories 30 and 31. This will be explained using the polynomial approximation method mentioned earlier as an example. In the processing section 33,
The above image memory 30 is placed on the CRT display 32.
or light pen 3 while displaying either 31
6, the reference point coordinates 38 are input, polynomial approximation is performed, and coefficients are calculated. Further, in the processing section 34,
While displaying a specific content from the image memory on the CRT display 35, a region of interest is designated with a light pen, and the coordinate values of the corresponding region are calculated and displayed using the polynomial coefficients taken in from 33. Since multiple sets of images are usually stored in the image memory, the processing by the processing units 33 and 34 is as follows.
It is possible to do it in parallel.
以上述べた手順の処理フローを第4図により説
明する。 The processing flow of the procedure described above will be explained with reference to FIG.
(1) ステツプ40;比較すべき複数画像をデイスプ
レイに表示する。(1) Step 40: Display multiple images to be compared on the display.
(2) ステツプ41;画像中の基準点を抽出する。(2) Step 41; Extract reference points in the image.
(3) ステツプ42;多項式近似を行ない係数を算出
する。(3) Step 42: Calculate coefficients by performing polynomial approximation.
(4) ステツプ43;特定の画像において関心領域を
設定する。(4) Step 43; Setting a region of interest in a specific image.
(5) ステツプ44;ステツプ42で求めた係数を使用
し、ステツプ43で設定された関心領域の対応領
域を各画像毎に計算する。(5) Step 44: Using the coefficients obtained in step 42, the corresponding region of the region of interest set in step 43 is calculated for each image.
(6) ステツプ45;ステツプ44で求めた対応領域を
表示する。(6) Step 45; Display the corresponding area obtained in step 44.
以上、比較すべき画像をデイスプレイに表示し
つつライトペンで基準点座標を入力する場合を説
明したが、基準点座標を別途デイスプレイまたは
キーボードで入力しておく方式も可能である。ま
た画像の関心領域はメモリ30,31内の画像を
処理部33で処理して自動的にし必ずしも表示し
ないで自動処理することも可能である。 The case where the coordinates of the reference point are input using a light pen while displaying the images to be compared on the display has been described above, but it is also possible to enter the coordinates of the reference point separately on the display or keyboard. Further, the region of interest in the image can be automatically processed by processing the images in the memories 30 and 31 by the processing unit 33, without necessarily displaying it.
本発明によれば、異なる装置で撮影した画像、
もしくは時間を隔てた画像間の位置関係を正確に
把握することができるため、医師等が腫瘍等の関
心領域の画像間相互位置関係を知ることができ、
情報を総合的に有効利用出来るため診断に有用で
ある。またこの種画像合成の自動化および診断、
患部検知の自動化等にも有効である。
According to the invention, images taken with different devices,
Or, since it is possible to accurately grasp the positional relationship between images separated by time, doctors etc. can know the mutual positional relationship between images of regions of interest such as tumors,
It is useful for diagnosis because the information can be used comprehensively and effectively. In addition, this type of image synthesis automation and diagnosis,
It is also effective in automating the detection of affected areas.
第1図は、本発明の概要説明図、第2図は本発
明画像間位置関係の算出過程の説明図、第3図、
第4図は、それぞれ本発明の実施例を説明するた
めのシステム構成図、および処理フローを示すブ
ロツク図である。
12〜13……関心領域、20〜23……基準
点、220,230……輪郭中心、33,34…
…処理部。
FIG. 1 is a schematic explanatory diagram of the present invention, FIG. 2 is an explanatory diagram of the calculation process of the positional relationship between images according to the present invention, and FIG.
FIG. 4 is a system configuration diagram for explaining an embodiment of the present invention and a block diagram showing a processing flow, respectively. 12-13...Region of interest, 20-23...Reference point, 220, 230...Contour center, 33, 34...
...Processing department.
Claims (1)
像間で位置合わせを行ない、両画像間の座標変換
式を設定し、該複数の画像のうち少なくとも所望
の2画像を表示し、表示した2画像のうち一方の
画像上に関心領域を設定し、該関心領域に対応す
る他方の画像上の対応関心領域を上記座標変換式
を用いて求め、上記関心領域及び対応関心領域と
を表示することを特徴とする複合画像設定方法。1. Storing a plurality of images, aligning each two images of the plurality of images, setting a coordinate transformation formula between both images, displaying at least two desired images among the plurality of images, and displaying the images. A region of interest is set on one of the two images, a corresponding region of interest on the other image corresponding to the region of interest is determined using the coordinate transformation formula, and the region of interest and the corresponding region of interest are displayed. A composite image setting method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58055078A JPS59183461A (en) | 1983-04-01 | 1983-04-01 | Composite picture setting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58055078A JPS59183461A (en) | 1983-04-01 | 1983-04-01 | Composite picture setting system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS59183461A JPS59183461A (en) | 1984-10-18 |
JPH0581946B2 true JPH0581946B2 (en) | 1993-11-16 |
Family
ID=12988666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58055078A Granted JPS59183461A (en) | 1983-04-01 | 1983-04-01 | Composite picture setting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS59183461A (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0664596B2 (en) * | 1985-07-12 | 1994-08-22 | 株式会社東芝 | Image processing device |
JPS63168152A (en) * | 1986-12-29 | 1988-07-12 | 富士電機株式会社 | Medical image processing method |
JP3085724B2 (en) * | 1991-05-10 | 2000-09-11 | 株式会社東芝 | Medical diagnosis support system |
JP4401140B2 (en) * | 2003-10-24 | 2010-01-20 | 株式会社日立メディコ | Diagnostic imaging support device |
JP5241357B2 (en) * | 2008-07-11 | 2013-07-17 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
JP2012058061A (en) * | 2010-09-08 | 2012-03-22 | Shimadzu Corp | Radiation tomographic apparatus |
JP5706933B2 (en) * | 2013-07-31 | 2015-04-22 | キヤノン株式会社 | Processing apparatus, processing method, and program |
JP6080999B2 (en) * | 2016-03-29 | 2017-02-15 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
-
1983
- 1983-04-01 JP JP58055078A patent/JPS59183461A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS59183461A (en) | 1984-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7496243B2 (en) | Image display method and image display apparatus | |
CN100488451C (en) | Medical image process apparatus with medical image measurement function | |
JP3639030B2 (en) | Image display system and image display method using the system | |
US9449247B2 (en) | Contour correction device, method, and program | |
JPH04336677A (en) | Picture processing method and system using the same | |
JP3910239B2 (en) | Medical image synthesizer | |
JPS63125241A (en) | Image processor | |
CN106485691A (en) | Information processor, information processing system and information processing method | |
JPH08131429A (en) | Method and device for reproducing tubular body image | |
CN107093190B (en) | A kind of Medical Image Registration Algorithm based on multichannel chromatogram tag fusion | |
JPH0581946B2 (en) | ||
JPS5917332A (en) | Medical image superimposing system | |
US10699424B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium with generation of deformed images | |
CN112150485B (en) | Image segmentation method, device, computer equipment and storage medium | |
JPH063607B2 (en) | Image processing device | |
CN114820740A (en) | Image registration method, storage medium and computer device | |
JPS63168152A (en) | Medical image processing method | |
US5430788A (en) | Specific region extraction method of medical image | |
JPH0120747B2 (en) | ||
JPS6357030A (en) | Medical image diagnostic apparatus | |
JPH0515525A (en) | Image position correction method | |
JP4607263B2 (en) | Contour tracking device | |
JPH01256935A (en) | Cathode-ray tube image processing system for diagnosing | |
DE102018113047A1 (en) | Method for controlling a display, computer program and augmented reality, virtual reality or mixed reality display device | |
JP7389234B2 (en) | Image alignment device, method and program |