JPH0581946B2 - - Google Patents

Info

Publication number
JPH0581946B2
JPH0581946B2 JP5507883A JP5507883A JPH0581946B2 JP H0581946 B2 JPH0581946 B2 JP H0581946B2 JP 5507883 A JP5507883 A JP 5507883A JP 5507883 A JP5507883 A JP 5507883A JP H0581946 B2 JPH0581946 B2 JP H0581946B2
Authority
JP
Japan
Prior art keywords
images
image
region
interest
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5507883A
Other languages
Japanese (ja)
Other versions
JPS59183461A (en
Inventor
Koichi Morishita
Tetsuo Yokoyama
Nobutake Yamagata
Yoshihiro Goto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP58055078A priority Critical patent/JPS59183461A/en
Publication of JPS59183461A publication Critical patent/JPS59183461A/en
Publication of JPH0581946B2 publication Critical patent/JPH0581946B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、画像の表示または領域設定方法に係
り、特に異なる撮影装置で撮つた画像を複数枚同
時に表示し、互いの対応領域を確認するのに好適
な複合画像設定方法に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to an image display or area setting method, and particularly to a method for displaying a plurality of images taken with different photographing devices at the same time and confirming mutually corresponding areas. The present invention relates to a composite image setting method suitable for.

〔発明の背景〕[Background of the invention]

従来の複数画像表示方法では、異なつた装置で
撮つた同一部位の画像(例えば、X線CT,
NMR−CT,ポジトロンCT等)間では、マトリ
クスサイズ,画素サイズの違い、あるいは位置づ
れ等により各画像間の対応位置関係がわかりにく
いという欠点があつた。従つて、医師がある画像
の特定の関心領域(患部等)を見い出し、他の異
なる種類の画像で、その対応領域を見たい時で
も、勘に頼る以外に方法がなかつた。
In conventional multiple image display methods, images of the same region taken with different devices (e.g., X-ray CT,
(NMR-CT, positron CT, etc.) has the disadvantage that it is difficult to understand the corresponding positional relationship between each image due to differences in matrix size, pixel size, or positional deviation. Therefore, even when a doctor finds a specific region of interest (such as an affected area) in a certain image and wants to see the corresponding region in another type of image, he or she has no choice but to rely on intuition.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、同一部位等の複数画像間の形
状の差違を補正し、各画像間の対応位置関係を自
動的に表示したり、領域を設定する方法を提供す
ることにある。
An object of the present invention is to provide a method for correcting shape differences between multiple images of the same region, automatically displaying the corresponding positional relationship between the images, and setting regions.

〔発明の概要〕[Summary of the invention]

通常、異なる装置で撮影した画像間では、デー
タのマトリクスサイズ、画素サイズの違いや、平
行移動、回転等の位置づれのため、位置的な対応
関係は不明である。そこで、本発明では、まず各
2画像間で仕置合わせを行ない、両画像間の座標
変換式を設定する。これをすべての組み合わせ、
つまり全画像数をNとするとC2ケについて座
標変換式を求めておく。
Normally, the positional correspondence between images taken with different devices is unclear due to differences in data matrix size and pixel size, and positional deviations such as parallel translation and rotation. Therefore, in the present invention, alignment is first performed between each two images, and a coordinate transformation formula between the two images is set. Combining all this,
In other words, if the total number of images is N, coordinate transformation formulas are calculated for N C 2 images.

次に、医師あるいはオペレータが特定の画像上
で関心領域を指示した時に、上記で求めた座標変
換式に従い対応座標を求め、表示することができ
る。またメモリ領域内の画像処理により関心領域
を設定し他の画像の対応領域を設定する場合も同
様である。
Next, when a doctor or operator indicates a region of interest on a particular image, corresponding coordinates can be determined and displayed according to the coordinate transformation formula determined above. The same applies when a region of interest is set by image processing in a memory area and a corresponding region of another image is set.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明を実施例により詳細に説明する。
説明をわかりやすくするためにここでは当初2枚
の画像を用いる場合について説明する。
Hereinafter, the present invention will be explained in detail with reference to Examples.
To make the explanation easier to understand, a case will be described here in which two images are initially used.

第1図は、対応領域の指示、表示例を示してい
る。画像11における関心領域13を指定する
と、画像10における対応領域12が表示され
る。
FIG. 1 shows an example of indication and display of corresponding areas. When the region of interest 13 in the image 11 is specified, the corresponding region 12 in the image 10 is displayed.

第2−A図は、両画像間の座標変換式を求める
1例を示している。これは、画像10における特
徴点、(ui,vi)が、画像11のどの点(xi,yi)
に対応するかを人間が指定し、これら対応点の組
(以下基準点と呼ぶ)より最小二乗法により近似
多項式の係数を求めるやり方である。以下、本処
理内容の説明を行なう。今、画像間の変換式を、 U(xi,yi)=ui V(xi,yi)=vi (1)式 とすると、近似多項式は、 U(xi,yi)=n Σi=1 n Σj=1 aijxi-1yi-1 V(xi,yi)=n Σi=1 n Σj=1 bijxi-1yi-1 (2)式 で表わされる。従つて、、最小二乗法では、よく
知られているように N Σi=1 (U(xi,yi)−ui)2 N Σi=1 (V(xi,yi)−vi)2 (3)式 の値を最小にするという条件のもとで、(2)式の係
数を決定することになる。
FIG. 2-A shows an example of finding a coordinate transformation formula between both images. This means that the feature point (ui, vi) in image 10 is the point (xi, yi) in image 11.
In this method, a person specifies which points correspond to the corresponding points, and then calculates the coefficients of the approximate polynomial using the method of least squares from a set of corresponding points (hereinafter referred to as reference points). The contents of this process will be explained below. Now, if the conversion formula between images is U (xi, yi) = ui V (xi, yi) = vi (1), then the approximate polynomial is: U (xi, yi) = n Σ i=1 n Σ j=1 a ij x i-1 y i-1 V(xi, yi)= n Σ i=1 n Σ j=1 b ij x i-1 y i-1 It is expressed by equation (2). Therefore, in the least squares method, as is well known, N Σ i=1 (U(xi, yi) − ui) 2 N Σ i=1 (V(xi, yi) − vi) 2 (3 ) The coefficients of equation (2) are determined under the condition of minimizing the value of equation (2).

両画像が比較的良く似ており、基準点が設定し
やすい場合には、上記に述べた方法により座標変
換式を求めることができるが、そうでない場合に
は別の方法を適用する。以下に、第2−B図によ
り1例を説明する。図に示すように、本方式では
処理に先立つて画像の輪郭を抽出しておく。今、
輪座標を、それぞれ(ui,vi),(xj,yj)とする
と輪郭中心(U,V),(X,Y)は、 U=Σiui/nA(i=1,2,……,nA) V=Σivi/nA( ″ ) X=Σixj/nB(j=1,2,……,nB) Y=Σiyj/nB(j=1,2,……,nB) で求めることができる。従つて、(U,V)と
(X,Y)のずれ量を求め、一方の画像をシフト
することにより、画像中心を合わすことが可能で
ある。
If the two images are relatively similar and it is easy to set the reference point, the coordinate transformation formula can be determined by the method described above, but if this is not the case, another method is applied. An example will be explained below with reference to FIG. 2-B. As shown in the figure, in this method, the outline of the image is extracted before processing. now,
If the ring coordinates are (ui, vi) and (xj, yj), the contour centers (U, V) and (X, Y) are as follows: U=Σiui/nA (i=1, 2,..., nA) It can be determined as follows: V=Σivi/nA ('') X=Σixj/n B (j=1, 2,..., nB) Y=Σiyj/n B (j=1, 2,..., nB). Therefore, by finding the amount of deviation between (U, V) and (X, Y) and shifting one of the images, it is possible to align the centers of the images.

尚、これらの処理に先立つて、必要に応じて画
像間のマトリクスサイズの統一化、画素サイズに
応じた拡大・縮少を行なつておく。
Note that, prior to these processes, if necessary, the matrix sizes of the images are unified, and the images are enlarged or reduced according to the pixel size.

次に、第3図により具体的なシステム構成を説
明する。今、比較すべき2枚の画像が画像メモリ
30,31に入つているものとする。先に述べた
多項式近似法を例に説明する。処理部33では、
CRTデイスプレイ32上に上記画像メモリ30
または31のいずれかを表示しつつライトペン3
6により基準点座標38を入力し、多項式近似を
行なつて係数を算出する。又、処理部34では、
CRTデイスプレイ35で上記画像メモリの内容
より特定のものを表示しつつライトペンにより関
心領域を指定し、33より取り込んだ多項式係数
を用いて対応する領域の座標値を計算し表示す
る。通常、画像メモリには複数組の画像が格納さ
れているので、上記処理部33と34の処理は、
並列に行なうことが可能である。
Next, a specific system configuration will be explained with reference to FIG. It is now assumed that two images to be compared are stored in the image memories 30 and 31. This will be explained using the polynomial approximation method mentioned earlier as an example. In the processing section 33,
The above image memory 30 is placed on the CRT display 32.
or light pen 3 while displaying either 31
6, the reference point coordinates 38 are input, polynomial approximation is performed, and coefficients are calculated. Further, in the processing section 34,
While displaying a specific content from the image memory on the CRT display 35, a region of interest is designated with a light pen, and the coordinate values of the corresponding region are calculated and displayed using the polynomial coefficients taken in from 33. Since multiple sets of images are usually stored in the image memory, the processing by the processing units 33 and 34 is as follows.
It is possible to do it in parallel.

以上述べた手順の処理フローを第4図により説
明する。
The processing flow of the procedure described above will be explained with reference to FIG.

(1) ステツプ40;比較すべき複数画像をデイスプ
レイに表示する。
(1) Step 40: Display multiple images to be compared on the display.

(2) ステツプ41;画像中の基準点を抽出する。(2) Step 41; Extract reference points in the image.

(3) ステツプ42;多項式近似を行ない係数を算出
する。
(3) Step 42: Calculate coefficients by performing polynomial approximation.

(4) ステツプ43;特定の画像において関心領域を
設定する。
(4) Step 43; Setting a region of interest in a specific image.

(5) ステツプ44;ステツプ42で求めた係数を使用
し、ステツプ43で設定された関心領域の対応領
域を各画像毎に計算する。
(5) Step 44: Using the coefficients obtained in step 42, the corresponding region of the region of interest set in step 43 is calculated for each image.

(6) ステツプ45;ステツプ44で求めた対応領域を
表示する。
(6) Step 45; Display the corresponding area obtained in step 44.

以上、比較すべき画像をデイスプレイに表示し
つつライトペンで基準点座標を入力する場合を説
明したが、基準点座標を別途デイスプレイまたは
キーボードで入力しておく方式も可能である。ま
た画像の関心領域はメモリ30,31内の画像を
処理部33で処理して自動的にし必ずしも表示し
ないで自動処理することも可能である。
The case where the coordinates of the reference point are input using a light pen while displaying the images to be compared on the display has been described above, but it is also possible to enter the coordinates of the reference point separately on the display or keyboard. Further, the region of interest in the image can be automatically processed by processing the images in the memories 30 and 31 by the processing unit 33, without necessarily displaying it.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、異なる装置で撮影した画像、
もしくは時間を隔てた画像間の位置関係を正確に
把握することができるため、医師等が腫瘍等の関
心領域の画像間相互位置関係を知ることができ、
情報を総合的に有効利用出来るため診断に有用で
ある。またこの種画像合成の自動化および診断、
患部検知の自動化等にも有効である。
According to the invention, images taken with different devices,
Or, since it is possible to accurately grasp the positional relationship between images separated by time, doctors etc. can know the mutual positional relationship between images of regions of interest such as tumors,
It is useful for diagnosis because the information can be used comprehensively and effectively. In addition, this type of image synthesis automation and diagnosis,
It is also effective in automating the detection of affected areas.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の概要説明図、第2図は本発
明画像間位置関係の算出過程の説明図、第3図、
第4図は、それぞれ本発明の実施例を説明するた
めのシステム構成図、および処理フローを示すブ
ロツク図である。 12〜13……関心領域、20〜23……基準
点、220,230……輪郭中心、33,34…
…処理部。
FIG. 1 is a schematic explanatory diagram of the present invention, FIG. 2 is an explanatory diagram of the calculation process of the positional relationship between images according to the present invention, and FIG.
FIG. 4 is a system configuration diagram for explaining an embodiment of the present invention and a block diagram showing a processing flow, respectively. 12-13...Region of interest, 20-23...Reference point, 220, 230...Contour center, 33, 34...
...Processing department.

Claims (1)

【特許請求の範囲】[Claims] 1 複数の画像を記憶し、該複数の画像の各2画
像間で位置合わせを行ない、両画像間の座標変換
式を設定し、該複数の画像のうち少なくとも所望
の2画像を表示し、表示した2画像のうち一方の
画像上に関心領域を設定し、該関心領域に対応す
る他方の画像上の対応関心領域を上記座標変換式
を用いて求め、上記関心領域及び対応関心領域と
を表示することを特徴とする複合画像設定方法。
1. Storing a plurality of images, aligning each two images of the plurality of images, setting a coordinate transformation formula between both images, displaying at least two desired images among the plurality of images, and displaying the images. A region of interest is set on one of the two images, a corresponding region of interest on the other image corresponding to the region of interest is determined using the coordinate transformation formula, and the region of interest and the corresponding region of interest are displayed. A composite image setting method characterized by:
JP58055078A 1983-04-01 1983-04-01 Composite picture setting system Granted JPS59183461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58055078A JPS59183461A (en) 1983-04-01 1983-04-01 Composite picture setting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58055078A JPS59183461A (en) 1983-04-01 1983-04-01 Composite picture setting system

Publications (2)

Publication Number Publication Date
JPS59183461A JPS59183461A (en) 1984-10-18
JPH0581946B2 true JPH0581946B2 (en) 1993-11-16

Family

ID=12988666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58055078A Granted JPS59183461A (en) 1983-04-01 1983-04-01 Composite picture setting system

Country Status (1)

Country Link
JP (1) JPS59183461A (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0664596B2 (en) * 1985-07-12 1994-08-22 株式会社東芝 Image processing device
JPS63168152A (en) * 1986-12-29 1988-07-12 富士電機株式会社 Medical image processing method
JP3085724B2 (en) * 1991-05-10 2000-09-11 株式会社東芝 Medical diagnosis support system
JP4401140B2 (en) * 2003-10-24 2010-01-20 株式会社日立メディコ Diagnostic imaging support device
JP5241357B2 (en) * 2008-07-11 2013-07-17 三菱プレシジョン株式会社 Biological data model creation method and apparatus
JP2012058061A (en) * 2010-09-08 2012-03-22 Shimadzu Corp Radiation tomographic apparatus
JP5706933B2 (en) * 2013-07-31 2015-04-22 キヤノン株式会社 Processing apparatus, processing method, and program
JP6080999B2 (en) * 2016-03-29 2017-02-15 三菱プレシジョン株式会社 Biological data model creation method and apparatus

Also Published As

Publication number Publication date
JPS59183461A (en) 1984-10-18

Similar Documents

Publication Publication Date Title
US7496243B2 (en) Image display method and image display apparatus
CN100488451C (en) Medical image process apparatus with medical image measurement function
JP3639030B2 (en) Image display system and image display method using the system
US9449247B2 (en) Contour correction device, method, and program
JPH04336677A (en) Picture processing method and system using the same
JP3910239B2 (en) Medical image synthesizer
JPS63125241A (en) Image processor
CN106485691A (en) Information processor, information processing system and information processing method
JPH08131429A (en) Method and device for reproducing tubular body image
CN107093190B (en) A kind of Medical Image Registration Algorithm based on multichannel chromatogram tag fusion
JPH0581946B2 (en)
JPS5917332A (en) Medical image superimposing system
US10699424B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium with generation of deformed images
CN112150485B (en) Image segmentation method, device, computer equipment and storage medium
JPH063607B2 (en) Image processing device
CN114820740A (en) Image registration method, storage medium and computer device
JPS63168152A (en) Medical image processing method
US5430788A (en) Specific region extraction method of medical image
JPH0120747B2 (en)
JPS6357030A (en) Medical image diagnostic apparatus
JPH0515525A (en) Image position correction method
JP4607263B2 (en) Contour tracking device
JPH01256935A (en) Cathode-ray tube image processing system for diagnosing
DE102018113047A1 (en) Method for controlling a display, computer program and augmented reality, virtual reality or mixed reality display device
JP7389234B2 (en) Image alignment device, method and program