JPH07311834A - Image processor and its aid - Google Patents
Image processor and its aidInfo
- Publication number
- JPH07311834A JPH07311834A JP6105147A JP10514794A JPH07311834A JP H07311834 A JPH07311834 A JP H07311834A JP 6105147 A JP6105147 A JP 6105147A JP 10514794 A JP10514794 A JP 10514794A JP H07311834 A JPH07311834 A JP H07311834A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- images
- processing apparatus
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims description 7
- 239000004372 Polyvinyl alcohol Substances 0.000 claims description 5
- 239000000919 ceramic Substances 0.000 claims description 5
- 229920002451 polyvinyl alcohol Polymers 0.000 claims description 5
- 239000003153 chemical reaction reagent Substances 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 abstract description 8
- 239000011159 matrix material Substances 0.000 abstract description 5
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 210000000988 bone and bone Anatomy 0.000 description 7
- 239000002131 composite material Substances 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 5
- 238000013170 computed tomography imaging Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000002603 single-photon emission computed tomography Methods 0.000 description 3
- 210000003625 skull Anatomy 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 239000002775 capsule Substances 0.000 description 2
- 238000002316 cosmetic surgery Methods 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 239000013558 reference substance Substances 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 239000004925 Acrylic resin Substances 0.000 description 1
- 229920000178 Acrylic resin Polymers 0.000 description 1
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000008187 granular material Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えばX線CT装置、
磁気共鳴撮像装置(MRI;Magnetic Res
onance Imaging)、PET(Posit
ron emission CT)、SPECT(Si
ngle photon emission CT)等
の核医学装置、超音波装置、X線装置等の各種装置から
得られる画像情報を基に画像処理を行い、複数の画像間
の観察及び比較を容易とする画像処理装置及びその補助
具に関するものである。BACKGROUND OF THE INVENTION The present invention relates to, for example, an X-ray CT apparatus,
Magnetic Resonance Imaging (MRI; Magnetic Res)
onance Imaging), PET (Posit)
ron emission CT), SPECT (Si
image processing device that performs image processing based on image information obtained from various devices such as a nuclear medicine device (e.g., single photon emission CT), an ultrasonic device, an X-ray device, etc., and facilitates observation and comparison between a plurality of images. And its aids.
【0002】[0002]
【従来の技術】従来、例えば形成外科においては、頭蓋
骨の変形などの疾患では変形した骨を移動する手術が行
われる。この手術では術前にCT撮影を行い、この画像
上で変形している骨の位置を測定し、骨の移動量などを
求め手術計画を立て、手術後に再びCT撮影を行い、術
前のCT画像と比較して治療効果を判断するようにして
いる。2. Description of the Related Art Conventionally, for example, in plastic surgery, surgery for moving a deformed bone is performed for diseases such as deformation of the skull. In this operation, CT imaging is performed before the operation, the position of the deformed bone is measured on this image, a surgical plan is determined by obtaining the amount of movement of the bone, and CT imaging is performed again after the operation. The treatment effect is judged by comparing with the image.
【0003】このような手術における術前、術後の骨の
位置を正しく比較するには、術前と術後のCT撮影の
際、同じ体位、同じ位置で撮影されていなければならな
い。ところが、従来は撮影者が目測で目や耳の位置を合
わせる程度であることから、術前と術後の正確な比較評
価を行うことは困難を伴い熟練を要するものとなってい
た。In order to correctly compare the preoperative and postoperative positions of bones in such an operation, it is necessary that the preoperative and postoperative CT images are taken at the same body position and the same position. However, conventionally, since the photographer only adjusts the positions of the eyes and ears by visual measurement, it is difficult and skillful to perform accurate comparative evaluation before and after surgery.
【0004】また、同一被検体の経時的な(画像上で
の)変化を追って観察したいとの要求は、形成外科分野
だけではなく、整形外科、脳外科などにもある。また、
同一被検体の異なる画像診断機器で撮影された画像、例
えばCT画像とSPECT画像を組み合わせて形態診断
と機能診断を同時に行いたい、というような要求もあ
る。いずれにしても、異なる種類の画像の位置合わせは
必要である。Further, there is a demand not only in the field of plastic surgery but also in orthopedics, brain surgery, etc., in which it is desired to observe changes over time (on an image) of the same subject. Also,
There is also a demand to simultaneously perform morphological diagnosis and functional diagnosis by combining images taken by different image diagnostic apparatuses of the same subject, for example, CT images and SPECT images. In any case, alignment of different types of images is necessary.
【0005】従来、画像の位置を合わせるためには、撮
影時に被検体にマークを張り付けたり、ガンマナイフに
よる治療の場合、フレームを頭蓋骨にねじ込んだりして
いるが、短期間の内に比較する画像を撮影するときは良
いが、長期にわたった場合、マークを同じ所に張り付け
ておいたり、フレームをねじ込んだままにしておくわけ
にはいかない。また、マークを張り付けるといっても、
皮膚の上から張り付けるので、完全には固定できないた
め、精度の高い位置合わせができないといった問題があ
った。Conventionally, in order to align the positions of the images, a mark is attached to the subject at the time of photographing, or in the case of treatment with a gamma knife, the frame is screwed into the skull, but the images to be compared within a short period of time. It's good for shooting, but if you're going for a long time, you can't stick the marks in the same place or leave the frame screwed in. Also, even if you stick the mark,
Since it is attached from above the skin, it cannot be fixed completely, and there is a problem that accurate positioning cannot be performed.
【0006】[0006]
【発明が解決しようとする課題】上述したように、従来
技術においては、撮影時期の異なる画像間の比較を行う
際には同一対象の画像を検索し位置合わせを行う等の煩
わしさが伴い、さらに異なる機種の画像診断機器を用い
て撮影した画像間の比較を行う際には機器によって画像
表現が全く異なる場合もあることから、十分な注意と熟
練を要した。さらに、高い精度での位置合わせには困難
を伴う上、フレームを用いた位置合わせによる場合には
被検体に負担をかけるといった問題点もあった。As described above, in the prior art, when comparing images taken at different photographing times, it is troublesome to search for the same target image and perform alignment. Furthermore, when comparing images taken using different types of image diagnostic equipment, the image representation may be completely different depending on the equipment, so sufficient caution and skill were required. Furthermore, there is a problem that alignment with high accuracy is difficult and a subject is burdened with alignment using a frame.
【0007】本発明は、上記課題に鑑みてなされたもの
で、被検体に負担をかけることなく撮影時期、異種の画
像診断機器によって撮影された画像間の位置合わせを行
い、容易な操作でこれらの画像間の観察、比較、各種計
測を行えるようにし、画像診断上有効な情報を得ること
が可能な画像処理装置及びその補助具を提供することを
目的とする。The present invention has been made in view of the above-mentioned problems, and aligns images taken by different types of image diagnostic equipment at the time of image pickup without imposing a burden on a subject, and these can be easily operated. It is an object of the present invention to provide an image processing apparatus and an auxiliary tool thereof that enable observation, comparison, and various measurements between images, and that can obtain information effective for image diagnosis.
【0008】[0008]
【課題を解決するための手段】本願第1の発明は、入力
される被検体に係る画像から当該被検体に設定される特
徴点を抽出する特徴点抽出手段と、この特徴点抽出手段
で抽出された特徴点を基準にして複数の画像間の画像処
理を行う画像処理手段とを有することを要旨とする。The first invention of the present application is a feature point extracting means for extracting feature points set for an object from an input image of the object, and extraction by the feature point extracting means. The gist of the present invention is to have an image processing unit that performs image processing between a plurality of images based on the determined feature points.
【0009】本願第2の発明は、前記請求項1記載の画
像処理手段は、前記入力される画像毎に前記特徴点抽出
手段でそれぞれ抽出された特徴点を基準にして、これら
複数の画像における座標を同一とすることを要旨とす
る。According to a second aspect of the present invention, the image processing means according to claim 1 uses the feature points extracted by the feature point extracting means for each of the input images as a reference, and the The point is to make the coordinates the same.
【0010】望ましくは、診断用の画像を投影して画像
データを出力する画像診断機器からの画像データを記憶
する画像記憶部と、前記画像記憶部から読み出した画像
データ等を表示する表示手段としての画像表示部と、画
像処理の指定信号を入力する入力手段としての入力部
と、前記画像記憶部から読み出され前記画像表示部に表
示された撮影時期または撮影機器の異なる基準画像及び
参照画像に対して、予め投影時に被検体に装着された補
助具によるマーク、あるいは被検体の解剖学的所見等に
よって特定し得る特徴点の位置を前記入力部からの入力
信号により指定し、前記参照画像に対して前記特徴点の
座標が一致するように座標変換して当該特徴点が同じ位
置となるように変換した画像を出力する画像処理手段
と、前記各部を制御するシステムコントローラとを備え
ると良い。Desirably, as an image storage unit for storing image data from an image diagnostic device for projecting a diagnostic image and outputting image data, and a display unit for displaying the image data read from the image storage unit. Image display unit, an input unit as an input unit for inputting an image processing designation signal, and a reference image and a reference image read from the image storage unit and displayed on the image display unit, which have different shooting times or different shooting devices. On the other hand, the position of the feature point that can be specified by the mark by the assisting tool attached to the subject at the time of projection in advance, or the anatomical findings of the subject is specified by the input signal from the input unit, and the reference image is displayed. And an image processing unit for converting the coordinates so that the coordinates of the characteristic points are coincident with each other and outputting the converted image so that the characteristic points have the same position, and the respective units are controlled. May and a system controller.
【0011】また、さらには画像処理手段で変換した参
照画像と、画像記憶部から読み出した基準画像とを同時
に画像表示部に表示し、参照画像と基準画像上に入力部
で指定した同一座標を示すマークを表示するようにする
と良い。Further, the reference image converted by the image processing means and the standard image read from the image storage section are simultaneously displayed on the image display section, and the same coordinates designated by the input section are displayed on the reference image and the standard image. It is better to display the mark.
【0012】本願第3の発明は、前記請求項1,2記載
の画像処理手段は、前記入力される画像毎に前記特徴点
抽出手段でそれぞれ抽出された複数の画像の特徴点を基
準にして当該複数の画像を重ね合わせて得られた合成画
像を出力することを要旨とする。例えば、画像処理手段
で変換した参照画像と、画像記憶部から読み出した基準
画像とを重ね合わせて画像表示部に表示するものであ
る。According to a third aspect of the present invention, the image processing means according to the first and second aspects uses the feature points of a plurality of images extracted by the feature point extracting means for each input image as a reference. The gist is to output a composite image obtained by superimposing the plurality of images. For example, the reference image converted by the image processing unit and the standard image read from the image storage unit are superimposed and displayed on the image display unit.
【0013】本願第4の発明は、前記請求項1,2記載
の画像処理手段は、前記入力される画像毎に前記特徴点
抽出手段でそれぞれ抽出された複数の画像の特徴点を基
準にして求めた当該複数の画像の差分を差分画像として
出力することを要旨とする。According to a fourth aspect of the present invention, the image processing means according to the first and second aspects uses the feature points of a plurality of images extracted by the feature point extracting means for each input image as a reference. The gist is to output the obtained difference between the plurality of images as a difference image.
【0014】好ましくは、画像処理手段で変換した参照
画像及び画像記憶部から読み出した基準画像に対して、
入力部を操作することにより差分処理の指定信号を前記
システムコントローラに入力し、前記システムコントロ
ーラの制御により変換された参照画像の画像データと基
準画像の画像データとを画像処理手段で差分し、この差
分結果に基づき画像表示部に差分画像を表示すると良
い。Preferably, for the reference image converted by the image processing means and the standard image read from the image storage unit,
By operating the input unit, a differential processing designation signal is input to the system controller, and the image data of the reference image and the image data of the standard image converted by the control of the system controller are differentiated by the image processing means. The difference image may be displayed on the image display unit based on the difference result.
【0015】本願第5の発明は、入力される被検体に係
る画像及び前記請求項1,2記載の画像処理手段から出
力される画像を同時に若しくは別個に表示し得る表示手
段と、この表示手段に表示される画像上の任意の点を指
示する入力手段と、この入力手段で指示される複数の点
間の距離及び角度を演算する演算手段とを具備すること
を要旨とする。According to a fifth aspect of the present invention, a display means capable of displaying an image of an inputted subject and an image output from the image processing means according to claims 1 and 2 simultaneously or separately, and this display means. The gist of the present invention is to include an input means for designating an arbitrary point on the image displayed on the screen and a computing means for computing a distance and an angle between a plurality of points designated by the input means.
【0016】好ましくは、基準画像及び画像処理手段で
変換した参照画像に対して、入力部を操作してポイント
を指定することにより、ポイントの座標位置、基準点か
らの距離及び基準面からの角度を画像処理手段で演算
し、この処理結果を画像表示部に表示すると良い。ま
た、表示手段は異なる機種若しくは時期に得られた画像
及び画像処理手段から出力される画像をそれぞれ入力し
て、これを適宜組み合わせて、同一画面上に同時に対比
し得るようにして表示しても良く、またこの表示画像の
座標系を統一することにより、実際の大きさ、形状を把
握し易くしておくと良い。Preferably, the coordinate position of the point, the distance from the reference point, and the angle from the reference plane are specified by operating the input unit to specify the point with respect to the reference image and the reference image converted by the image processing means. Is calculated by the image processing means, and the processing result may be displayed on the image display unit. Further, the display means may display images obtained by different models or times and images output from the image processing means, respectively, and appropriately combine them to display them on the same screen so that they can be simultaneously compared. It is better to unify the coordinate system of the display image so that the actual size and shape can be easily grasped.
【0017】本願第6の発明は、前記特徴点抽出手段で
抽出される特徴点が撮影の際に被検体に装着された補助
具若しくは被検体の解剖学的特徴点によって形成される
ことを要旨とする。A sixth aspect of the present invention is that the feature points extracted by the feature point extracting means are formed by an auxiliary tool attached to the subject at the time of photographing or an anatomical feature point of the subject. And
【0018】本願第7の発明は、撮影等により得られた
画像上での識別を可能とする識別手段と、この識別手段
を支持すると共に該識別手段を被検体に着脱容易に装着
するための装着手段とを有することを要旨とする。A seventh aspect of the invention of the present application is to provide an identification means capable of performing identification on an image obtained by photographing and the like, and to support the identification means and attach the identification means to a subject easily in a removable manner. The gist is to have a mounting means.
【0019】好ましくは、補助具が被検体の体の一部に
固定する装着手段と、装着手段に支持された、投影され
た画像上で識別可能な物質で形成された、例えばマーク
材であると良い。Preferably, the assisting tool is a mounting means for fixing it to a part of the body of the subject, and a mark material, for example, made of a material which is supported by the mounting means and which can be identified on the projected image. And good.
【0020】本願第8の発明は、前記請求項7記載の識
別手段は装着手段に対して交換可能に支持され、前記画
像を得るための撮影装置に応じて適宜交換されることを
要旨とする。The eighth invention of the present application is summarized in that the identifying means according to claim 7 is exchangeably supported with respect to the mounting means, and is appropriately exchanged according to a photographing device for obtaining the image. .
【0021】本願第9の発明は、前記請求項7記載の識
別手段はセラミックまたはポリビニルアルコールまたは
ラジオアイソトープ試薬を構成要素とする粒体が保持体
を介して前記装着手段に支持されることを要旨とする。In a ninth aspect of the present invention, the identification means according to the seventh aspect is that the granules having ceramic, polyvinyl alcohol, or radioisotope reagent as a constituent element are supported by the mounting means via a holding body. And
【0022】好ましくは、補助具の前記マーク材が交換
可能にして装着手段に支持され、撮影機器に応じて複数
の異なる物質のものから選択して取り付けることを可能
とすると良い。Preferably, the mark material of the auxiliary tool is exchangeable and supported by the mounting means, and it is possible to select and attach from a plurality of different substances according to the photographing device.
【0023】本願第10の発明は、前記請求項7記載の
装着手段は被検体の歯形に合わせて作成されたマウスピ
ースであることを要旨とする。The tenth invention of the present application is summarized in that the mounting means according to the seventh aspect is a mouthpiece prepared according to the tooth profile of the subject.
【0024】[0024]
【作用】本願第1の発明の画像処理装置は、特徴点抽出
手段において、入力される被検体に係る画像から当該被
検体に設定される特徴点を抽出し、この抽出された特徴
点を基準にして画像処理手段が複数の画像間の画像処理
を行う。In the image processing apparatus according to the first aspect of the present invention, the feature point extracting means extracts the feature points set for the subject from the input image of the subject, and the extracted feature points are used as a reference. Then, the image processing means performs image processing between a plurality of images.
【0025】本願第2の発明の画像処理装置の画像処理
手段は、入力される被検体に係る画像毎に特徴点抽出手
段でそれぞれ抽出された特徴点を基準にして、例えば特
徴点を複数設定し、これら特徴点間の距離及び角度を基
に、拡大、縮小、回転(アフィン変換)による座標変換
等を行い、同一座標系における複数の画像における座標
を同一とする。例えば、画像処理手段で変換した参照画
像と、画像記憶部から読み出した基準画像とを同時に画
像表示部に表示し、参照画像と基準画像上に前記入力部
で指定したマークが同一座標となるように表示して、画
像間の観察及び比較を容易に行い得るようにする。The image processing means of the image processing apparatus of the second invention of the present application sets, for example, a plurality of feature points on the basis of the feature points extracted by the feature point extracting means for each image of the inputted subject. Then, based on the distance and angle between these characteristic points, coordinate conversion by enlargement, reduction, rotation (affine transformation), etc. is performed, and the coordinates in a plurality of images in the same coordinate system are made the same. For example, the reference image converted by the image processing unit and the standard image read from the image storage unit are simultaneously displayed on the image display unit so that the marks designated by the input unit on the reference image and the standard image have the same coordinates. To facilitate observation and comparison between images.
【0026】例えば、画像記憶部から読み出され画像表
示部に表示された撮影時期または撮影機器の異なる基準
画像及び参照画像に対して、予め投影時に被検体に装着
された補助具によるマーク、あるいは被検体の解剖学的
特徴点の位置を入力部からの入力信号により指定し、画
像処理手段で前記参照画像に対して前記マーク、あるい
は前記解剖学的特徴点の座標が一致するように座標変換
して、マーク、あるいは解剖学的特徴点が同じ位置とな
るように変換した画像を出力するようにしており、操作
も単に入力部を操作するといった容易な操作により、画
像間の観察及び比較を容易に行うことが可能となる。For example, with respect to a standard image and a reference image which are read from the image storage section and displayed on the image display section at different photographing times or photographing apparatuses, a mark by an auxiliary tool previously attached to the subject at the time of projection, or The position of the anatomical feature point of the subject is designated by an input signal from the input unit, and the image processing means performs coordinate conversion so that the coordinates of the mark or the anatomical feature point match the reference image. Then, the images that have been converted so that the marks or anatomical feature points are in the same position are output, and observation and comparison between images can be performed by simple operations such as simply operating the input unit. It can be easily performed.
【0027】本願第3の発明の画像処理装置の画像処理
手段は、入力される被検体に係る画像毎に特徴点抽出手
段でそれぞれ抽出された複数の画像の特徴点を重ね合わ
せの基準にして当該複数の画像を重ね合わせて得られた
合成画像を出力する。例えば、画像処理手段で変換した
参照画像と、画像記憶部から読み出した基準画像とを重
ね合わせて画像表示部に表示することで、異なる機種で
それぞれ得られた特徴的な画像がさらに観察に適した画
像とされ比較を容易に行うことが可能となる。The image processing means of the image processing apparatus of the third invention of the present application uses the feature points of the plurality of images extracted by the feature point extracting means for each image of the input subject as a reference for superposition. A composite image obtained by superimposing the plurality of images is output. For example, by superimposing the reference image converted by the image processing unit and the standard image read from the image storage unit and displaying them on the image display unit, the characteristic images obtained by different models are more suitable for observation. It is possible to easily compare the images.
【0028】本願第4の発明の画像処理装置の画像処理
手段は、入力される被検体に係る画像毎に特徴点抽出手
段でそれぞれ抽出された複数の画像の特徴点を差分演算
を行う際の基準にして当該複数の画像の差分を求め、こ
の演算結果を差分画像として出力する。例えば、入力部
を操作することにより差分処理の指定信号をシステムコ
ントローラに入力し、このシステムコントローラの制御
により変換された参照画像の画像データと基準画像の画
像データとを画像処理手段で差分し、この差分結果に基
づき画像表示部に差分画像を表示するようにしており、
差分表示を行えば、治療効果の判定、疾病の進行度合い
の判定などに利用することができ、画像診断上有効な情
報を得ることが可能となる。The image processing means of the image processing apparatus according to the fourth aspect of the present invention is used when performing the difference calculation on the feature points of the plurality of images extracted by the feature point extracting means for each image of the input subject. The difference between the plurality of images is obtained using the reference, and the result of this calculation is output as the difference image. For example, by operating the input unit, the designation signal of the difference processing is input to the system controller, the image data of the reference image and the image data of the standard image converted by the control of this system controller are differentiated by the image processing means, The difference image is displayed on the image display unit based on the difference result.
If the difference display is performed, it can be used for determination of the therapeutic effect, determination of the degree of progress of the disease, and the like, and it is possible to obtain effective information for image diagnosis.
【0029】本願第5の発明の画像処理装置は、表示手
段に表示される画像上の任意の点を入力手段で指示す
る。この入力手段で指示された複数の点間の距離及び角
度は、演算手段で演算される。例えば、基準画像及び画
像処理手段で変換した参照画像に対して、入力部を操作
してポイントを指定することにより画像処理手段で演算
し、ポイントの座標位置、基準点からの距離及び基準面
からの角度を前記画像表示部に表示するようにしてお
り、従って、画像間の観察及び比較を容易に行うことが
可能となり、また画像上で各種の計測を行うことが可能
となる。The image processing apparatus according to the fifth aspect of the present invention uses the input means to indicate an arbitrary point on the image displayed on the display means. The distances and angles between the plurality of points designated by the input means are calculated by the calculation means. For example, the reference image converted by the standard image and the image processing unit is operated by the image processing unit by operating the input unit to specify the point, and the coordinate position of the point, the distance from the standard point, and the standard plane are calculated. Is displayed on the image display unit, so that observation and comparison between images can be easily performed, and various measurements can be performed on the images.
【0030】本願第6の発明は、画像処理装置の特徴点
抽出手段で抽出される特徴点を撮影の際に被検体に装着
された補助具若しくは被検体の解剖学的特徴点によるも
のとする。According to a sixth aspect of the present invention, the feature points extracted by the feature point extracting means of the image processing apparatus are based on the auxiliary tool attached to the subject at the time of imaging or the anatomical feature points of the subject. .
【0031】本願第7の発明は、装着手段により、撮影
等により得られた画像上での識別を可能とする識別手段
が支持される共に該識別手段が被検体に着脱容易に装着
される。これにより、撮影時期あるいは異種の画像診断
機器によって撮影された画像間で特徴点の表示を合わせ
ることにより、位置合わせを容易にかつ正確に行うこと
が可能となる。According to the seventh aspect of the present invention, the attaching means supports the identifying means capable of identifying on the image obtained by photographing or the like, and the identifying means is easily attached to the subject. As a result, by aligning the display of the feature points between the image capturing time or the images captured by different types of image diagnostic devices, it becomes possible to perform the alignment easily and accurately.
【0032】本願第8の発明は、識別手段を装着手段に
対して交換可能とし、画像を得るための撮影装置に応じ
て適宜交換されるものである。In the eighth invention of the present application, the identifying means is replaceable with respect to the mounting means, and is appropriately replaced according to a photographing device for obtaining an image.
【0033】本願第9の発明は、前記識別手段は各種画
像診断機器に対応するようにセラミックまたはポリビニ
ルアルコールまたはラジオアイソトープ試薬を構成要素
とする粒体としており、この粒体を保持体を介して装着
手段に支持されるようにしている。すなわち、撮影機器
に応じて複数の異なる物質のものから投影された画像上
で識別可能な物質を選択して取り付けることにより、撮
影された画像間で識別手段としてのマーク材による位置
合わせが容易となる。According to a ninth aspect of the present invention, the identifying means is a granular body having ceramic or polyvinyl alcohol or a radioisotope reagent as a constituent element so as to correspond to various image diagnostic equipment, and the granular body is held via a holder. It is designed to be supported by the mounting means. That is, by selecting and attaching a identifiable substance on an image projected from a plurality of different substances according to the photographing device, it is possible to easily align the photographed images with a mark material as an identification means. Become.
【0034】本願第10の発明は、装着手段が被検体の
歯形に合わせて作成されたマウスピースであることか
ら、マウスピースを口にくわえてもらうことにより補助
具を簡単に装着できるため、被検体への負担を軽減する
ことが可能となる。According to the tenth aspect of the present invention, since the mounting means is the mouthpiece prepared according to the tooth profile of the subject, the assisting tool can be easily mounted by holding the mouthpiece in the mouth. It is possible to reduce the burden on the sample.
【0035】[0035]
【実施例】以下、本発明の一実施例について、図面を参
照して説明する。図1は、本発明に係る画像処理装置の
一実施例の概略の構成を示すブロック図である。図1に
示す画像処理装置は、システム全体を制御するためのC
PU,ROM等により構成されるシステムコントローラ
1と、基準画像記憶部3a、参照画像記憶部3b及び投
影画像記憶部3cとを有して対応する画像データをそれ
ぞれ複数、記憶する画像記憶部3と、特徴点位置検出部
5a、座標変換部5b、差分画像生成部5c、合成画像
生成部5d及び計測処理部5eを有して内蔵する画像プ
ロセッサによってマークの検出処理、座標変換処理、画
像変換処理等を行う特徴点抽出手段及び画像処理手段と
しての画像処理部5と、画像をCRTディスプレイ、プ
リンタ等に表示、印字する表示手段としての画像表示部
7と、マウスあるいはキーボード等を用いて画像処理の
指示、画像の表示位置、関心位置等を入力する入力手段
としての入力部9などで構成されており、各部はバスラ
インにより双方向に接続される。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image processing apparatus according to the present invention. The image processing apparatus shown in FIG. 1 is a C for controlling the entire system.
An image storage unit 3 that includes a system controller 1 including a PU, a ROM, and the like, a standard image storage unit 3a, a reference image storage unit 3b, and a projected image storage unit 3c, and stores a plurality of corresponding image data, respectively. , A feature point position detection unit 5a, a coordinate conversion unit 5b, a difference image generation unit 5c, a composite image generation unit 5d, and a measurement processing unit 5e, and a mark detection process, coordinate conversion process, and image conversion process performed by an image processor incorporated therein. An image processing unit 5 as a feature point extracting unit and an image processing unit for performing the above, an image display unit 7 as a displaying unit for displaying and printing an image on a CRT display, a printer, etc., and an image processing using a mouse or a keyboard. Is input, the display position of the image, the position of interest, and the like, and the input unit 9 as an input unit. It is connected.
【0036】また、この画像処理装置は、被検体を投影
した結果を画像情報として出力し得る各種画像診断機器
11A、11B、…及び画像蓄積部13とも同様に接続
される。これにより、各種画像診断機器11で投影し得
られた画像データを取り込み、画像処理部5、画像表示
部7等に出力すると共に、ODD(光ディスク)或いは
HDD(磁気ディスク)等によって構成される画像蓄積
部13にこれら画像を蓄積するようにしている。Further, this image processing apparatus is similarly connected to various image diagnostic equipments 11A, 11B, ... And an image accumulating section 13 capable of outputting the result of projecting a subject as image information. As a result, the image data projected by the various image diagnostic devices 11 is captured and output to the image processing unit 5, the image display unit 7 and the like, and an image formed by an ODD (optical disk) or an HDD (magnetic disk) or the like. These images are stored in the storage unit 13.
【0037】図2は、本発明に係る画像処理装置の補助
具の一実施例を示す斜視図である。図2(a)にマウス
ピース型補助具を示す。このマウスピース型補助具は、
被検体の歯形に合わせて形成された装着手段としてのマ
ウスピース19を用いて被検体に認識手段としてのマー
クを固定するようにしたものである。FIG. 2 is a perspective view showing an embodiment of an auxiliary tool of the image processing apparatus according to the present invention. FIG. 2A shows a mouthpiece type auxiliary tool. This mouthpiece type accessory is
A mark serving as a recognition unit is fixed to the subject by using a mouthpiece 19 serving as a mounting unit formed in conformity with the tooth profile of the subject.
【0038】また、このマウスピース19の作成は、例
えば義歯の場合とほぼ同様であり、まず撮影しようとす
る被検体の歯形をとり、次に、この歯形に合わせてマウ
スピースを作成することにより、被検体が噛む面に被検
体の歯形に合わせた凹凸部21を形成して作成される。
このようにマウスピース19を被検体の歯形に合わせて
作成することにより、当該マウスピース型補助具を被検
体が装着するだけで常に被検体との相対的な位置関係が
同一に保持される。The preparation of the mouthpiece 19 is almost the same as the case of a denture, for example, by first taking the tooth profile of the subject to be imaged and then creating the mouthpiece according to this tooth profile. It is created by forming a concave-convex portion 21 that matches the tooth profile of the subject on the surface that the subject bites.
By thus forming the mouthpiece 19 according to the tooth profile of the subject, the relative positional relationship with the subject is always kept the same simply by mounting the mouthpiece type auxiliary tool on the subject.
【0039】このマウスピース19の素材は、被検体に
噛んでも変形することなく、かつ各種画像診断機器によ
る画像撮影にも影響を及ぼさない材質、例えば画像診断
機器がX線CTのときは金属を避けて合成樹脂、セラミ
ック等の素材(例えばアクリル樹脂)を使用する。The material of the mouthpiece 19 is a material which does not deform even if it is bitten by the subject and does not affect the image capturing by various image diagnostic equipment, for example, metal when the image diagnostic equipment is X-ray CT. Avoid materials such as synthetic resin and ceramics (eg acrylic resin).
【0040】マウスピース19は歯形に沿うように逆U
字状に形成されており、外側面にはコネクタ23が固定
され、コネクタ23の先端には位置合わせ用のマーク2
7が取り付けられている。コネクタ23の材質はマウス
ピース19と同様に変形せず、各種診断機器による画像
撮影に影響を及ぼさないものを使用する。The mouthpiece 19 is inverted U so that it follows the tooth profile.
The connector 23 is fixed to the outer surface, and the alignment mark 2 is formed at the tip of the connector 23.
7 is attached. The material of the connector 23 does not deform like the mouthpiece 19 and does not affect the image capturing by various diagnostic devices.
【0041】まず、コネクタ23の先端部分に図2
(b)に示すように凹部25を設け、さらに、この凹部
25に図2(c)に示すマーク27を接着剤により固定
し、このコネクタ23をネジ等によりマウスピース19
により交換可能であるように固定する。このとき、凹部
25のマーク27のみをネジ若しくは係合手段により交
換可能に構成しても良い。First, as shown in FIG.
As shown in (b), a concave portion 25 is provided, and a mark 27 shown in FIG. 2 (c) is fixed to the concave portion 25 with an adhesive, and the connector 23 is screwed to the mouthpiece 19
Fixed so that it can be replaced. At this time, only the mark 27 of the recess 25 may be replaceable with a screw or engaging means.
【0042】このマーク27の素材は、画像診断機器に
合わせて数種類用意し、撮影に応じて選択して使用す
る。CT撮影の場合はセラミック等を、MRIの場合に
はPVA(ポリビニルアルコール)で作成したビーズ、
あるいは油を封入したカプセル、SPECTの場合には
RI(ラジオアイソトープ)試薬を封入したカプセルを
用いる。また、投影画像上でマーク27の信号値がマウ
スピース19及びコネクタ23の信号値と同じにならな
いようにする。これらを用いて作成されたマーク27の
形は全て同じ粒状のもの(例えば、半径数mmの球)或
いはマーク27を複数設けるとき、これらマーク27が
投影画像上で識別が可能な形状または大きさまたは素材
とする。Several kinds of materials for the mark 27 are prepared according to the image diagnostic equipment, and are selected and used according to the photographing. Ceramics etc. for CT imaging, beads made of PVA (polyvinyl alcohol) for MRI,
Alternatively, an oil-encapsulated capsule or, in the case of SPECT, an RI (radioisotope) reagent-encapsulated capsule is used. Also, the signal value of the mark 27 should not be the same as the signal value of the mouthpiece 19 and the connector 23 on the projected image. The shapes of the marks 27 created by using them are all the same granular shape (for example, a sphere having a radius of several mm), or when a plurality of marks 27 are provided, the marks 27 have a shape or size that can be identified on the projected image. Or use the material.
【0043】マウスピース19には同様にして作成され
た、マーク27を備えたコネクタ23が各々異なる位置
に取り付けられており、図3に示すように撮影時にマウ
スピース19が被検体に装着される。コネクタ23の長
さは、頭部の撮影断面から見たとき、マーク27の取付
位置が頭部の断面から外側に位置するような長さとす
る。また、マウスピース19に対するコネクタ23等の
取り付けは3箇所が位置合わせ及び作成には好適である
が、それ以上としても良い。図4に図2で示したマウス
ピース型補助具を図3に示す状態で装着して、X線撮影
を行い、得られた投影画像の表示例を示す。図4(b)
では、マークM3を薄く表示することにより、マークM
3が頭部の影になる位置に存在していることを示してい
る。これにより、常に3箇所を示す事ができ、位置合せ
をより確実に行うことが可能となる。The connectors 23 having the marks 27, which are similarly prepared, are attached to the mouthpieces 19 at different positions. As shown in FIG. 3, the mouthpieces 19 are attached to the subject during photographing. . The length of the connector 23 is set such that the mounting position of the mark 27 is located outside the cross section of the head when viewed from the imaging cross section of the head. Further, although attachment of the connector 23 or the like to the mouthpiece 19 is suitable for three positions for alignment and preparation, it may be more than three. FIG. 4 shows a display example of a projection image obtained by mounting the mouthpiece type auxiliary tool shown in FIG. 2 in the state shown in FIG. 3 and performing X-ray photography. Figure 4 (b)
Now, by displaying the mark M3 thinly,
It is shown that 3 exists at the position where the shadow of the head appears. As a result, it is possible to always show three points, and it is possible to perform the alignment more reliably.
【0044】次に、図5を参照して、図2に示すマウス
ピース型補助具を用いた状態でX線CT装置で投影して
得られた画像の位置合わせについて説明する。まず、特
徴点位置検出部5aで特徴点の位置検出を行う。具体的
に説明すると、図5(a)に示すように基準画像とし
て、スライスデータNO.1乃至NO.Kまでのデータ
の内、マークM1乃至M3の現れている画像Aを画像記
憶部3の投影画像記憶部3cから読み出し、位置合わせ
前の画像として画像表示部7に表示する。マークM1乃
至M3は図2に示すマーク27が撮影された画像上に映
す出されたものを示している。Next, with reference to FIG. 5, the alignment of the image obtained by projection with the X-ray CT apparatus in the state where the mouthpiece type auxiliary tool shown in FIG. 2 is used will be described. First, the feature point position detection unit 5a detects the position of the feature point. More specifically, as shown in FIG. 5A, the slice data NO. 1 to NO. Of the data up to K, the image A in which the marks M1 to M3 appear is read from the projection image storage unit 3c of the image storage unit 3 and displayed on the image display unit 7 as an image before alignment. Marks M1 to M3 indicate marks 27 shown in FIG. 2 which are displayed on the photographed image.
【0045】さらに、図5(b)に示すように、画像A
上において、入力部9を操作することにより、マークM
1の位置を指定し、画像処理部5で演算して座標(x,
y,n)を求める。x及びyは画像A上の位置座標を示
し、m及びnはスライスデータの通し番号NO.を示
す。尚、図5(b)は、図5(a)に示す領域Eを拡大
して示す図である。Further, as shown in FIG. 5B, the image A
By operating the input unit 9 above, the mark M
The position of 1 is designated, the image processing unit 5 calculates and coordinates (x,
y, n) is calculated. x and y indicate position coordinates on the image A, and m and n indicate serial numbers NO. Indicates. Note that FIG. 5B is an enlarged view of the region E shown in FIG.
【0046】図5(c)に示すように、予め、マークM
1の信号値がとる範囲、 (threshold-low )≦(マークM1の信号値)≦(thre
shold-high) を調べておく。つぎに、指定した座標の付近にあり、か
つこの範囲の値を持つ画素を抽出する。抽出された領域
の重心をマークM1の座標とする。このようにすること
で、操作に余り左右されることなく安定してマークM1
の座標が求められる。同様にして画像A上の他のマーク
M2及びM3等の座標を求め、基準画像記憶部3aに記
憶する。As shown in FIG. 5C, the mark M is previously set.
The range of the signal value of 1 is (threshold-low) ≤ (signal value of the mark M1) ≤ (thre
shold-high). Next, the pixels near the specified coordinates and having a value in this range are extracted. The center of gravity of the extracted area is used as the coordinates of the mark M1. By doing so, the mark M1 can be stably provided without being greatly influenced by the operation.
Is calculated. Similarly, the coordinates of the other marks M2 and M3 on the image A are obtained and stored in the reference image storage unit 3a.
【0047】さらに、図5(a)に示すように参照画像
として、スライスデータNO.1乃至NO.L迄のデー
タの内、マークM1乃至M3の現れている画像Bを画像
記憶部3の投影画像記憶部3cから読み出し、位置合わ
せ前の画像として画像表示部7に表示し、同様にしてM
1乃至M3の座標を求める。Further, as shown in FIG. 5A, the slice data No. 1 to NO. Of the data up to L, the image B in which the marks M1 to M3 appear is read from the projection image storage unit 3c of the image storage unit 3, displayed on the image display unit 7 as an image before alignment, and similarly M
The coordinates of 1 to M3 are obtained.
【0048】このようにして、画像A及び画像B上の全
てのマークM1乃至M3の座標を求めたら、2つの画像
(基準画像A、参照画像B)の座標系を一致させる変換
行列を画像処理部5の座標変換部5bで求める。In this way, when the coordinates of all the marks M1 to M3 on the image A and the image B are obtained, a conversion matrix for matching the coordinate systems of the two images (standard image A and reference image B) is subjected to image processing. It is obtained by the coordinate conversion unit 5b of the unit 5.
【0049】変換行列Tは以下の式により求められる。The transformation matrix T is obtained by the following equation.
【0050】[0050]
【数1】[xi yi zi 1]T=[Xi Yi
Zi 1]## EQU1 ## [xi yi zi 1] T = [Xi Yi
Zi 1]
【数2】 (Xi,Yi,Zi):基準画像におけるi番目のマー
クの座標 (xi,yi,zi):参照画像におけるi番目のマー
クの座標 次に、求められた変換行列Tから以下の式により参照画
像の座標を基準画像の座標に合わせて変換を行う。[Equation 2] (Xi, Yi, Zi): coordinates of the i-th mark in the standard image (xi, yi, zi): coordinates of the i-th mark in the reference image Next, from the obtained transformation matrix T, the reference image is calculated by the following formula. The transformation is performed by matching the coordinates of the with the coordinates of the reference image.
【0051】 [x y z 1]T=[x’y’z’1] (x,y,z) :参照画像の変換前の座標 (x’,y’,z’):参照画像の変換後の座標 さらに、参照画像の座標交換を行った後、基準画像、座
標交換後の参照画像を画像表示部7に表示すると共に、
参照画像記憶部3bに記憶する。[X yz 1] T = [x'y'z '1] (x, y, z): Coordinates before conversion of the reference image (x', y ', z'): Conversion of the reference image Subsequent coordinates Further, after performing the coordinate exchange of the reference image, the standard image and the reference image after the coordinate exchange are displayed on the image display unit 7, and
It is stored in the reference image storage unit 3b.
【0052】図6及び図7は本発明に係る画像処理装置
による表示例を示す説明図であり、基準画像記憶部3a
に記憶される基準画像及び参照画像記憶部3bに記憶さ
れる座標交換後の参照画像をそれぞれ画像表示部7に表
示した例を示している。図6(a)は同一位置の基準画
像、参照画像のアキシャル画像を画面上に同時に表示し
た表示例である。図6(b)は同一位置の基準画像、参
照画像のMPR(断面変換)画像を画面上に同時に表示
した表示例である。特に左図はX線透過率の低いとこ
ろ、例えば骨が明るく表示されている。また右図は脳の
活動している領域を明るく表示するようにしている。6 and 7 are explanatory views showing display examples by the image processing apparatus according to the present invention, and the reference image storage unit 3a.
2 shows an example in which the standard image stored in the reference image and the reference image after the coordinate exchange stored in the reference image storage unit 3b are displayed on the image display unit 7, respectively. FIG. 6A is a display example in which the standard image and the reference image axial image at the same position are simultaneously displayed on the screen. FIG. 6B is a display example in which the standard image and the reference image MPR (cross-section conversion) image at the same position are simultaneously displayed on the screen. In particular, in the left figure, a place where the X-ray transmittance is low, for example, a bone is displayed brightly. In the right figure, the active area of the brain is displayed brightly.
【0053】図7(a)は基準画像、参照画像から作成
された3次元表面表示画像を同一方向から画面上に同時
に表示した表示例である。図7(b)は基準画像、参照
画像から作成された投影画像を同一方向から画面上に同
時に表示した表示例である。いずれの表示形式において
も基準画像、参照画像の位置、表示方向を座標交換によ
り同時に変更することができる。FIG. 7A is a display example in which a three-dimensional surface display image created from a standard image and a reference image is simultaneously displayed on the screen from the same direction. FIG. 7B is a display example in which projection images created from the standard image and the reference image are simultaneously displayed on the screen from the same direction. In any of the display formats, the positions and display directions of the standard image and the reference image can be simultaneously changed by exchanging the coordinates.
【0054】基準画像及び参照画像に対し、入力部9を
操作して例えば画像上に表示されたポイントカーソル等
を移動させて、いずれかの画像上の点を指し示すと、画
像処理部5で座標交換を行い、もう一方の画像上にも同
じ位置にマークを表示する。さらに、基準画像、参照画
像のいずれかの画像上において、入力部9を操作してポ
イントを指定することにより画像処理部5の計測処理部
5eで演算し、ポイントの座標位置、基準点からの距離
及び基準面からの角度等を画像表示部7に表示するよう
にしており、各種計測処理が独立あるいは同時にでき
る。これによって2種類の画像が比較観察しやすくな
る。With respect to the standard image and the reference image, the input unit 9 is operated to move, for example, a point cursor displayed on the image to indicate a point on any of the images. Replace and display the mark at the same position on the other image. Further, by operating the input unit 9 to specify a point on either the standard image or the reference image, the measurement processing unit 5e of the image processing unit 5 performs the calculation, and the coordinate position of the point and the reference point The distance, the angle from the reference plane, and the like are displayed on the image display unit 7, and various measurement processes can be performed independently or simultaneously. This facilitates comparative observation of the two types of images.
【0055】また表示の形式としては、合成画像生成部
5dによる演算によって重ね合わせ画像による表示がで
きるようにしても良い。例えば、図6(a)は同一位置
の基準画像、参照画像のアキシャル画像を重ね合わせて
表示すれば良く、図6(b)は同一位置の基準画像、参
照画像のMPR画像を重ね合わせて表示すれば良く、図
7(a)は基準画像、参照画像のそれぞれを同一方向か
ら投影した3次元表面表示画像を重ね合わせて表示すれ
ば良く、さらに図7(b)は基準画像、参照画像のそれ
ぞれを同一方向から投影した投影画像を重ね合わせて表
示すれば良い。As a display format, it is also possible to display a superimposed image by calculation by the composite image generating section 5d. For example, in FIG. 6A, a standard image and a reference image at the same position may be superimposed and displayed, and in FIG. 6B, a standard image and a reference image MPR image at the same position may be superimposed and displayed. In FIG. 7A, three-dimensional surface display images obtained by projecting the standard image and the reference image from the same direction may be superimposed and displayed. Further, FIG. 7B illustrates the standard image and the reference image. Projected images obtained by projecting the respective images from the same direction may be superimposed and displayed.
【0056】あるいは表示の形式は、図8及び図9の説
明図に示すように、差分画像生成部5cによる演算によ
って差分画像表示ができるようにしても良い。具体的に
は、画像表示部7に表示された基準画像、座標交換後の
参照画像に対して、図1の入力部9を操作することによ
り差分処理の指定信号をシステムコントローラ1に入力
し、システムコントローラ1の制御により変換された参
照画像の画像データと基準画像の画像データとを画像処
理部5に転送し、画像処理部5の差分画像生成部5cで
前記両画像データの差分を演算し、この差分演算結果に
基づき画像表示部7に差分画像を表示する。Alternatively, as the display format, as shown in the explanatory views of FIGS. 8 and 9, the differential image may be displayed by calculation by the differential image generating section 5c. Specifically, with respect to the standard image displayed on the image display unit 7 and the reference image after the coordinate exchange, by operating the input unit 9 of FIG. 1, a designation signal of the difference processing is input to the system controller 1, The image data of the reference image and the image data of the standard image converted under the control of the system controller 1 are transferred to the image processing unit 5, and the difference image generation unit 5c of the image processing unit 5 calculates the difference between the two image data. The difference image is displayed on the image display unit 7 based on the difference calculation result.
【0057】図8(a)は同一位置の基準画像、参照画
像のアキシャル画像間の差分画像を表示するものであ
り、図8(b)は同一位置の基準画像、参照画像のMP
R画像間の差分画像を表示するものである。すなわち、
図8(b)は図8(a)の表示を直交3断面の表示に応
用したものである。図9(a)は基準画像、参照画像の
差分画像を同一方向から投影した3次元表面表示画像を
表示するものでり、図9(b)は基準画像、参照画像の
差分画像を同一方向から投影した投影画像を表示するも
のである。FIG. 8A shows the difference image between the standard image and the reference image at the same position, and FIG. 8B shows the MP image of the standard image and the reference image at the same position.
The difference image between the R images is displayed. That is,
FIG. 8B is an application of the display of FIG. 8A to the display of three orthogonal cross sections. 9A shows a three-dimensional surface display image obtained by projecting the difference image between the standard image and the reference image from the same direction, and FIG. 9B shows the difference image between the standard image and the reference image from the same direction. The projected image is displayed.
【0058】これによって、同一被検体、同一モダリテ
ィで撮影された撮影時期の異なる2種類(複数種類)の
画像同士の差分表示を行えば、治療効果の判定、疾病の
進行度合いの判定などに利用することができる。例え
ば、図8(a)が現在(差記号の左側の図)と1ケ月ま
え(差記号の右側の図)の断層画像を示すものであれ
ば、その差分画像はこの1ケ月で拡大した病巣の進行状
況を示すものとなる。上述した、いずれの表示形式にお
いても基準画像、参照画像の位置、表示方向を座標交換
により同時に変更することができる。このような場合で
あっても、本実施例によれば各画像を容易にかつ正確に
一致させることができる。Thus, by displaying a difference between two kinds (a plurality of kinds) of images taken by the same subject and the same modality and having different imaging times, it is used for the judgment of the therapeutic effect, the judgment of the degree of progress of the disease, etc. can do. For example, if FIG. 8A shows a tomographic image of the present (left side of the difference symbol) and one month before (right side of the difference symbol), the difference image is the lesion enlarged in the last month. It shows the progress of the. In any of the display formats described above, the positions and display directions of the standard image and the reference image can be simultaneously changed by coordinate exchange. Even in such a case, according to the present embodiment, the images can be matched easily and accurately.
【0059】図10は、本発明に係る画像処理装置によ
る重ね合わせによる合成表示の原理を示す説明図であ
る。図10(a)に示すような基準画像、及び参照画像
を各々図1に示す画像記憶部3から読み出して、図10
(b)に示すように一方に対しては、画像処理部5に備
えられた変換テーブルで画像の所定の範囲内の画素値に
応じて重ね合わせ用の表示画像の画素の輝度を所定の範
囲内の明暗に変換し、図10(c)に示すように変換画
像を作成する。もう一方に対しては、同様に画像処理部
5に備えられた変換テーブルで画像の所定の範囲内の画
素値に応じて重ね合わせ用の表示画像の色を例えば赤か
ら紫迄の色合いに変換し、同様に図10(c)に示すよ
うに変換画像を作成する。FIG. 10 is an explanatory diagram showing the principle of composite display by superposition by the image processing apparatus according to the present invention. The standard image and the reference image as shown in FIG. 10A are read from the image storage unit 3 shown in FIG.
As shown in (b), for one side, the conversion table provided in the image processing unit 5 sets the luminance of the pixels of the display image for superimposition in a predetermined range according to the pixel value in the predetermined range of the image. The converted image is created as shown in FIG. 10C. On the other hand, similarly, a conversion table provided in the image processing unit 5 converts the color of the display image for superimposition into a shade from red to purple according to the pixel value within a predetermined range of the image. Then, similarly, a converted image is created as shown in FIG.
【0060】システムコントローラ1の制御により変換
された画像データを画像表示部7に転送し、画像表示部
7に図10(d)に示すように変換された画像同士を重
ね合わせて合成して表示し、輝度及び色の調節は入力部
9を操作することにより自由に調整できるようにする。The image data converted under the control of the system controller 1 is transferred to the image display section 7, and the converted images are superimposed on each other and displayed on the image display section 7 as shown in FIG. 10D. However, the brightness and color can be adjusted freely by operating the input unit 9.
【0061】図2乃至5の説明図においては、補助具に
付けたマークにより異なる画像間の位置合わせを行う場
合について示したが、解剖学的特徴点を用いて異なる画
像間の位置合わせを行うようにしても良い。例えば、頭
蓋骨の一部である前床突起(トルコ鞍付近にある左右の
一対の突起)などは、CT画像上では容易に位置を確定
することができる。この突起の先端の座標を位置合わせ
に用いることによって、補助具による手法と同様に精度
の高い位置合わせが可能である。また、位置合わせに使
用できる解剖学的特徴点としては前床突起以外には、
歯、オトガイ孔、眼窩下孔等、多くの箇所を選択するこ
とができる。In the explanatory views of FIGS. 2 to 5, the case where the different images are aligned by the mark attached to the assisting tool is shown, but the different images are aligned using the anatomical feature points. You may do it. For example, the anterior floor process (a pair of left and right processes near the Turkish saddle), which is a part of the skull, can be easily located on the CT image. By using the coordinates of the tips of the protrusions for the alignment, it is possible to perform the alignment with high accuracy as in the method using the assisting tool. In addition, as anatomical feature points that can be used for alignment, other than the anterior projection,
Many locations can be selected, such as teeth, chin holes, orbital holes.
【0062】CT撮影のときに、例えば骨のCT値のと
る範囲が撮影条件、機種によって変化することがある。
上記マウスピースに基準物質(骨の成分と同様な板な
ど)を取り付け、基準物質の画素値、形状が同じになる
ように画像の値を調整することにより、より精度の高い
位置合わせが可能となる。In CT imaging, for example, the range of CT values of bone may change depending on the imaging conditions and model.
By attaching a reference substance (such as a plate similar to the bone component) to the mouthpiece and adjusting the image values so that the pixel value and shape of the reference substance are the same, more accurate alignment is possible. Become.
【0063】上述したように、上記各実施例によれば、
被検体に負担をかけることなく装着可能な画像処理装置
の補助具を提供でき、またこのような補助具に取り付け
られたマーク等を用いて、撮影時期、異種の画像診断機
器によって撮影された画像間の位置合わせを容易にかつ
正確に行うことが可能となり、さらに簡単な操作でこれ
らの画像間の観察、比較、各種計測を行えるようにし、
画像診断上有効な情報を得ることが可能な画像処理装置
及びその補助具を提供することができる。As described above, according to the above embodiments,
It is possible to provide an auxiliary tool for an image processing apparatus that can be mounted on the subject without burdening the subject, and by using a mark or the like attached to such an auxiliary tool, an image taken by a different type of image diagnostic equipment at the time of imaging. It becomes possible to easily and accurately perform alignment between the images, and it becomes possible to perform observation, comparison, and various measurements between these images with a simpler operation.
It is possible to provide an image processing apparatus and an auxiliary tool thereof that can obtain information effective for image diagnosis.
【0064】尚、上記の実施例では画像処理装置の補助
具として、マウスピースに適用した場合を例にとって説
明したが、本発明はこれに限定されること無く、例え
ば、耳孔や鼻孔に装着するもの、帽子状の装着体、手に
対しては個人に合せて整形されたハンドグリップを補助
具として採用することができる。In the above embodiment, the case where the image processing apparatus is applied to a mouthpiece as an auxiliary tool has been described. However, the present invention is not limited to this, and is attached to, for example, an ear hole or a nostril. An object, a hat-shaped wearing body, and a handgrip that is shaped for an individual can be used as an auxiliary tool for the hand.
【0065】[0065]
【発明の効果】以上説明したように、本発明によれば、
撮影時期の異なる画像或いは異種の画像診断機器等によ
って得られた複数の画像間の位置合わせを容易かつ正確
に行うことを可能とする。As described above, according to the present invention,
This makes it possible to easily and accurately perform alignment between images taken at different times or a plurality of images obtained by different types of image diagnostic equipment.
【図1】本発明に係る画像処理装置の一実施例の概略の
構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image processing apparatus according to the present invention.
【図2】本発明に係る画像処理装置で使用する補助具の
一実施例の構成を示す斜視図である。FIG. 2 is a perspective view showing a configuration of an embodiment of an auxiliary tool used in the image processing apparatus according to the present invention.
【図3】図2に示す補助具を用いた画像位置合わせの状
態を説明する図である。FIG. 3 is a diagram illustrating a state of image registration using the assisting tool shown in FIG.
【図4】図2に示す補助具を用いた状態で投影して得ら
れた画像の表示例を示す図である。FIG. 4 is a diagram showing a display example of an image obtained by projection in a state where the assisting tool shown in FIG. 2 is used.
【図5】図2に示す補助具を用いた状態で投影して得ら
れた画像の位置合わせを説明するための図である。FIG. 5 is a diagram for explaining alignment of an image obtained by projecting in a state in which the auxiliary tool shown in FIG. 2 is used.
【図6】本発明が適用される投影画像等の表示例を示す
図である。FIG. 6 is a diagram showing a display example of a projected image and the like to which the present invention is applied.
【図7】本発明が適用される投影画像等の表示例を示す
図である。FIG. 7 is a diagram showing a display example of a projected image and the like to which the present invention is applied.
【図8】本発明に係る画像処理装置による差分画像の表
示例を示す図である。FIG. 8 is a diagram showing a display example of a difference image by the image processing apparatus according to the present invention.
【図9】本発明に係る画像処理装置による差分画像の表
示例を示す図である。FIG. 9 is a diagram showing a display example of a difference image by the image processing apparatus according to the present invention.
【図10】本発明に係る画像処理装置による重ね合わせ
による合成画像を形成するための処理手順を説明するた
めの図である。FIG. 10 is a diagram for explaining a processing procedure for forming a composite image by superposition by the image processing apparatus according to the present invention.
1 システムコントローラ 3 画像記憶部 3a 基準画像記憶部 3b 参照画像記憶部 3c 投影画像記憶部 5 画像処理部 5a 特徴点位置検出部 5b 座標変換部 5c 差分画像生成部 5d 合成画像生成部 5e 計測処理部 7 画像表示部 9 入力部 11 画像診断機器 13 画像蓄積部 19 マウスピース 21 凹凸部 23 コネクタ 25 凹部 27 マーク 1 system controller 3 image storage unit 3a standard image storage unit 3b reference image storage unit 3c projected image storage unit 5 image processing unit 5a feature point position detection unit 5b coordinate conversion unit 5c difference image generation unit 5d synthetic image generation unit 5e measurement processing unit 7 Image Display Section 9 Input Section 11 Image Diagnostic Equipment 13 Image Storage Section 19 Mouthpiece 21 Uneven Section 23 Connector 25 Recessed Section 27 Mark
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 9163−4C A61B 6/00 350 D 7459−5L G06F 15/70 330 P ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/00 9163-4C A61B 6/00 350 D 7459-5L G06F 15/70 330 P
Claims (10)
検体に設定される特徴点を抽出する特徴点抽出手段と、 この特徴点抽出手段で抽出された特徴点を基準にして複
数の画像間の画像処理を行う画像処理手段とを有するこ
とを特徴とする画像処理装置。1. A feature point extracting means for extracting feature points set for the subject from an image of the inputted subject, and a plurality of images based on the feature points extracted by the feature point extracting means. And an image processing unit that performs image processing between the image processing apparatus and the image processing apparatus.
像毎に前記特徴点抽出手段でそれぞれ抽出された特徴点
を基準にして、これら複数の画像における座標を同一と
することを特徴とする請求項1記載の画像処理装置。2. The image processing means sets the coordinates in the plurality of images to be the same on the basis of the feature points extracted by the feature point extracting means for each of the input images. The image processing apparatus according to claim 1.
像毎に前記特徴点抽出手段でそれぞれ抽出された複数の
画像の特徴点を基準にして当該複数の画像を重ね合わせ
て得られた合成画像を出力することを特徴とする請求項
1,2記載の画像処理装置。3. The image processing means combines the plurality of images by superimposing the plurality of images on the basis of the feature points of the plurality of images extracted by the feature point extracting means for each of the input images. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs an image.
像毎に前記特徴点抽出手段でそれぞれ抽出された複数の
画像の特徴点を基準にして求めた当該複数の画像の差分
を差分画像として出力することを特徴とする請求項1,
2記載の画像処理装置。4. The image processing means uses, as a difference image, a difference between the plurality of images obtained with reference to the feature points of the plurality of images extracted by the feature point extracting means for each of the input images. It outputs, The claim 1 characterized by the above-mentioned.
2. The image processing device according to 2.
像処理手段から出力される画像を同時に若しくは別個に
表示し得る表示手段と、この表示手段に表示される画像
上の任意の点を指示する入力手段と、この入力手段で指
示される複数の点間の距離及び角度を演算する演算手段
とを具備することを特徴とする請求項1,2記載の画像
処理装置。5. A display means capable of displaying an input image of a subject and an image output from the image processing means simultaneously or separately, and indicating an arbitrary point on the image displayed on the display means. 4. The image processing apparatus according to claim 1, further comprising: input means for performing the calculation and calculation means for calculating a distance and an angle between a plurality of points designated by the input means.
れた補助具若しくは被検体の解剖学的特徴点によって形
成されることを特徴とする請求項1乃至5記載の画像処
理装置。6. The image processing apparatus according to claim 1, wherein the feature points are formed by an auxiliary tool attached to the subject at the time of imaging or an anatomical feature point of the subject.
可能とする識別手段と、 この識別手段を支持すると共に該識別手段を被検体に着
脱容易に装着するための装着手段とを有することを特徴
とする画像処理装置の補助具。7. An identification means for enabling identification on an image obtained by photographing or the like, and an attachment means for supporting the identification means and easily attaching the identification means to a subject. An auxiliary tool for an image processing device, characterized in that
換可能に支持され、前記画像を得るための撮影装置に応
じて適宜交換されることを特徴とする請求項7記載の画
像処理装置の補助具。8. The image processing apparatus according to claim 7, wherein the identifying means is exchangeably supported with respect to the mounting means, and is appropriately exchanged according to a photographing device for obtaining the image. Auxiliary equipment.
ニルアルコールまたはラジオアイソトープ試薬を構成要
素とする粒体が保持体を介して前記装着手段に支持され
ることを特徴とする請求項7記載の画像処理装置の補助
具。9. The image processing apparatus according to claim 7, wherein the identification means has a granular body containing ceramic, polyvinyl alcohol, or a radioisotope reagent as a constituent element supported by the mounting means via a holding body. Auxiliary equipment.
て作成されたマウスピースであることを特徴とする請求
項7記載の画像処理装置の補助具。10. The auxiliary tool of the image processing apparatus according to claim 7, wherein the mounting means is a mouthpiece created according to the tooth profile of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6105147A JPH07311834A (en) | 1994-05-19 | 1994-05-19 | Image processor and its aid |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6105147A JPH07311834A (en) | 1994-05-19 | 1994-05-19 | Image processor and its aid |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07311834A true JPH07311834A (en) | 1995-11-28 |
Family
ID=14399621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6105147A Pending JPH07311834A (en) | 1994-05-19 | 1994-05-19 | Image processor and its aid |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07311834A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000300557A (en) * | 1999-04-22 | 2000-10-31 | Aloka Co Ltd | Ultrasonic diagnostic device |
JP2002051315A (en) * | 2000-05-24 | 2002-02-15 | Sony Corp | Data transmitting method and data transmitter, and data transmitting system |
US6640127B1 (en) | 1999-06-10 | 2003-10-28 | Olympus Optical Co., Ltd. | Surgical operation navigating system using a reference frame |
JP2005296436A (en) * | 2004-04-14 | 2005-10-27 | Hitachi Medical Corp | Ultrasonic diagnostic apparatus |
JP2006025958A (en) * | 2004-07-14 | 2006-02-02 | Aloka Co Ltd | Medical diagnostic system |
WO2006135024A1 (en) * | 2005-06-16 | 2006-12-21 | Matsumoto Dental University | Image processing method, image processing device, and image processing program |
JP2007503238A (en) * | 2003-08-25 | 2007-02-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Calibration image alignment apparatus and method in PET-CT system |
JP2007506943A (en) * | 2003-07-28 | 2007-03-22 | フルイディグム コーポレイション | Image processing method and system for microfluidic devices |
JP2007181564A (en) * | 2006-01-06 | 2007-07-19 | Kanazawa Inst Of Technology | Bioinstrumentation apparatus and bioinstrumentation method |
JP2008503280A (en) * | 2004-06-25 | 2008-02-07 | メディシム ナームロゼ ベンノートチャップ | Method and apparatus for deriving a treatment plan for orthognathic surgery |
JP2008068099A (en) * | 2007-09-28 | 2008-03-27 | Fujifilm Corp | Image display method and image display device |
JPWO2006033483A1 (en) * | 2004-09-24 | 2008-05-15 | 株式会社アイキャット | Human body information extraction device, human body photographing information reference plane conversion method, and cross-section information detection device |
JP2008229322A (en) * | 2007-02-22 | 2008-10-02 | Morita Mfg Co Ltd | Image processing method, image displaying method, image processing program, storage medium, image processor, and x-ray imaging device |
JP2008237883A (en) * | 2007-03-01 | 2008-10-09 | Toshiba Corp | Magnetic resonance imaging apparatus and magnetic resonance imaging method |
JP2009172411A (en) * | 2001-05-31 | 2009-08-06 | Image Navigation Ltd | Image guided implantology method |
JP2009247535A (en) * | 2008-04-04 | 2009-10-29 | Dainippon Printing Co Ltd | Medical image processing system |
JP2010253058A (en) * | 2009-04-24 | 2010-11-11 | Tokyo Metropolitan Univ | Medical image processing device and method |
US8021356B2 (en) | 2003-09-29 | 2011-09-20 | Olympus Corporation | Capsule medication administration system, medication administration method using capsule medication administration system, control method for capsule medication administration system |
JP4955172B2 (en) * | 1999-12-15 | 2012-06-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Diagnostic imaging system with ultrasound probe |
KR101256194B1 (en) * | 2010-10-26 | 2013-04-19 | 이태경 | Sampling Method of Reference Point from Marker for Image Merging and Synchronization of Coordination |
US8543186B2 (en) | 2007-03-01 | 2013-09-24 | Kabushiki Kaisha Toshiba | Magnetic resonance imaging apparatus and magnetic resonance imaging method |
JP2014028043A (en) * | 2012-07-31 | 2014-02-13 | Denso Corp | Mandibular canal extraction device, mandibular canal extraction method, and program |
WO2015072818A1 (en) * | 2013-11-18 | 2015-05-21 | 재단법인 아산사회복지재단 | Brain disease diagnosis service apparatus and brain disease diagnosis service method |
WO2017115154A1 (en) * | 2016-01-01 | 2017-07-06 | Ahmed Abdelrahman | Three dimensional smile design |
-
1994
- 1994-05-19 JP JP6105147A patent/JPH07311834A/en active Pending
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000300557A (en) * | 1999-04-22 | 2000-10-31 | Aloka Co Ltd | Ultrasonic diagnostic device |
US6640127B1 (en) | 1999-06-10 | 2003-10-28 | Olympus Optical Co., Ltd. | Surgical operation navigating system using a reference frame |
JP4955172B2 (en) * | 1999-12-15 | 2012-06-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Diagnostic imaging system with ultrasound probe |
JP2002051315A (en) * | 2000-05-24 | 2002-02-15 | Sony Corp | Data transmitting method and data transmitter, and data transmitting system |
JP2009172411A (en) * | 2001-05-31 | 2009-08-06 | Image Navigation Ltd | Image guided implantology method |
JP2007506943A (en) * | 2003-07-28 | 2007-03-22 | フルイディグム コーポレイション | Image processing method and system for microfluidic devices |
JP4782680B2 (en) * | 2003-08-25 | 2011-09-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Calibration image alignment apparatus and method in PET-CT system |
JP2007503238A (en) * | 2003-08-25 | 2007-02-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Calibration image alignment apparatus and method in PET-CT system |
US8021356B2 (en) | 2003-09-29 | 2011-09-20 | Olympus Corporation | Capsule medication administration system, medication administration method using capsule medication administration system, control method for capsule medication administration system |
JP2005296436A (en) * | 2004-04-14 | 2005-10-27 | Hitachi Medical Corp | Ultrasonic diagnostic apparatus |
JP4677199B2 (en) * | 2004-04-14 | 2011-04-27 | 株式会社日立メディコ | Ultrasonic diagnostic equipment |
JP2008503280A (en) * | 2004-06-25 | 2008-02-07 | メディシム ナームロゼ ベンノートチャップ | Method and apparatus for deriving a treatment plan for orthognathic surgery |
JP2006025958A (en) * | 2004-07-14 | 2006-02-02 | Aloka Co Ltd | Medical diagnostic system |
JP4625281B2 (en) * | 2004-07-14 | 2011-02-02 | アロカ株式会社 | Medical diagnostic system |
JPWO2006033483A1 (en) * | 2004-09-24 | 2008-05-15 | 株式会社アイキャット | Human body information extraction device, human body photographing information reference plane conversion method, and cross-section information detection device |
JP2008253808A (en) * | 2004-09-24 | 2008-10-23 | Icat:Kk | Human body information extraction device, human body imaging information reference plane conversion method, and cross section information detection device |
WO2006135024A1 (en) * | 2005-06-16 | 2006-12-21 | Matsumoto Dental University | Image processing method, image processing device, and image processing program |
JP2006350724A (en) * | 2005-06-16 | 2006-12-28 | Matsumoto Shika Univ | Image processing method, image processing apparatus and image processing program |
JP4710030B2 (en) * | 2005-06-16 | 2011-06-29 | 学校法人松本歯科大学 | Image processing method, image processing apparatus, and image processing program |
JP2007181564A (en) * | 2006-01-06 | 2007-07-19 | Kanazawa Inst Of Technology | Bioinstrumentation apparatus and bioinstrumentation method |
JP2008229322A (en) * | 2007-02-22 | 2008-10-02 | Morita Mfg Co Ltd | Image processing method, image displaying method, image processing program, storage medium, image processor, and x-ray imaging device |
US8543186B2 (en) | 2007-03-01 | 2013-09-24 | Kabushiki Kaisha Toshiba | Magnetic resonance imaging apparatus and magnetic resonance imaging method |
US9795318B2 (en) | 2007-03-01 | 2017-10-24 | Toshiba Medical Systems Corporation | Magnetic resonance imaging apparatus and magnetic resonance imaging method |
JP2008237883A (en) * | 2007-03-01 | 2008-10-09 | Toshiba Corp | Magnetic resonance imaging apparatus and magnetic resonance imaging method |
JP2008068099A (en) * | 2007-09-28 | 2008-03-27 | Fujifilm Corp | Image display method and image display device |
JP2009247535A (en) * | 2008-04-04 | 2009-10-29 | Dainippon Printing Co Ltd | Medical image processing system |
JP2010253058A (en) * | 2009-04-24 | 2010-11-11 | Tokyo Metropolitan Univ | Medical image processing device and method |
KR101256194B1 (en) * | 2010-10-26 | 2013-04-19 | 이태경 | Sampling Method of Reference Point from Marker for Image Merging and Synchronization of Coordination |
JP2014028043A (en) * | 2012-07-31 | 2014-02-13 | Denso Corp | Mandibular canal extraction device, mandibular canal extraction method, and program |
WO2015072818A1 (en) * | 2013-11-18 | 2015-05-21 | 재단법인 아산사회복지재단 | Brain disease diagnosis service apparatus and brain disease diagnosis service method |
US9854990B2 (en) | 2013-11-18 | 2018-01-02 | The Asan Foundation | Brain disease diagnosis service apparatus and brain disease diagnosis service method |
WO2017115154A1 (en) * | 2016-01-01 | 2017-07-06 | Ahmed Abdelrahman | Three dimensional smile design |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07311834A (en) | Image processor and its aid | |
CN107913102B (en) | Preoperative registration of anatomical images with position tracking system using ultrasound | |
US6947038B1 (en) | Systems and methods for generating an appliance with tie points | |
US6621491B1 (en) | Systems and methods for integrating 3D diagnostic data | |
US5842858A (en) | Method of imaging a person's jaw and a model therefor | |
TWI396523B (en) | System for facilitating dental diagnosis and treatment planning on a cast model and method used thereof | |
JP4607399B2 (en) | Three-dimensional image display device and display method | |
EP2953569B1 (en) | Tracking apparatus for tracking an object with respect to a body | |
JP4822634B2 (en) | A method for obtaining coordinate transformation for guidance of an object | |
US9241657B2 (en) | Medical image registration using a rigid inner body surface | |
Othman et al. | Reproducibility of facial soft tissue landmarks on facial images captured on a 3D camera | |
JP2003299642A (en) | Positioning method for navigation surgery | |
JP2004532684A (en) | Image guided transplantation | |
US20170143445A1 (en) | Method and apparatus for operating a dental diagnostic image generation system | |
WO2017171295A1 (en) | Augmented reality system in which estimation of jaw movement of patient is reflected and augmented reality providing method therefor | |
US20090274267A1 (en) | System and method for automatic jaw measurement for panoramic radiology | |
JP2002534204A (en) | Apparatus and method for measuring anatomical objects using coordinated fluoroscopy | |
JPH09173352A (en) | Medical navigation system | |
WO2001080763A2 (en) | Systems and methods for generating an appliance with tie points | |
EP2090228A1 (en) | Display direction correcting device, correcting method, and correction program for medical 3d image | |
WO2008072398A1 (en) | Medical photographing apparatus | |
CN107802276B (en) | Tracing drawing device and method for skull image | |
US10102638B2 (en) | Device and method for image registration, and a nontransitory recording medium | |
KR20160057024A (en) | Markerless 3D Object Tracking Apparatus and Method therefor | |
US10049480B2 (en) | Image alignment device, method, and program |