WO2006135024A1 - Image processing method, image processing device, and image processing program - Google Patents

Image processing method, image processing device, and image processing program Download PDF

Info

Publication number
WO2006135024A1
WO2006135024A1 PCT/JP2006/312066 JP2006312066W WO2006135024A1 WO 2006135024 A1 WO2006135024 A1 WO 2006135024A1 JP 2006312066 W JP2006312066 W JP 2006312066W WO 2006135024 A1 WO2006135024 A1 WO 2006135024A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dimensional image
cut out
dimensional
image data
Prior art date
Application number
PCT/JP2006/312066
Other languages
French (fr)
Japanese (ja)
Inventor
Yoshinori Arai
Original Assignee
Matsumoto Dental University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsumoto Dental University filed Critical Matsumoto Dental University
Publication of WO2006135024A1 publication Critical patent/WO2006135024A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Definitions

  • Image processing method image processing apparatus, and image processing program
  • the present invention relates to an image processing method, an image processing apparatus, and an image processing program, and more particularly to an image processing method, an image processing apparatus, and an image processing program for displaying a 2D image cut out from 3D image data. .
  • Micro X-ray CT has been developed to observe the internal structure of an individual without damaging the individual.
  • Micro X-ray CT captures a number of two-dimensional images while an X-ray generator and an X-ray imaging unit arranged opposite to the periphery of the imaging target rotate around the imaging target.
  • an X-ray generator and an X-ray imaging unit arranged opposite to the periphery of the imaging target rotate around the imaging target.
  • a three-dimensional image acquired by micro X-ray CT can be cut at a desired plane to obtain a necessary cross section. Therefore, it is possible to freely observe the internal structure of the imaging target. For this reason, it becomes possible to observe one individual over a long period of time.
  • the present invention has been made in view of the above points, and image processing capable of intuitively recognizing and accurately setting the positional relationship between the first three-dimensional image data and the second three-dimensional image data. It is an object to provide a method, an image processing apparatus, and an image processing program.
  • the present invention provides a two-dimensional image cut out from the first three-dimensional image data, a two-dimensional image cut out from the second three-dimensional image data, and the first three-dimensional image data.
  • a two-dimensional image cut out from the displayed first three-dimensional image data is displayed by displaying the cut-out two-dimensional image and a comparison image obtained by superimposing the two-dimensional image cut out from the second three-dimensional image data.
  • the first 3D image data and the second 3D image data are substantially matched based on the image, the 2D image cut out from the second 3D image data, and the comparison image. It is characterized in that the relative position between the 3D image data and the second 3D image data is set.
  • a two-dimensional image cut out from the first three-dimensional image and a two-dimensional image cut out from the second three-dimensional image are distinguished from each other in a portion that is the same and a portion that is different from each other. It is displayed so that it can be performed.
  • the comparison image is different between the two-dimensional image cut out from the first three-dimensional image and the two-dimensional image cut out from the second three-dimensional image. It is characterized in that the colors are displayed differently for each part.
  • the two-dimensional image cut out from the second three-dimensional image and the portion where the values of the two-dimensional image cut out from the two-dimensional image cut out from the first three-dimensional image coincide with each other. It is characterized by converging the positions of the first 3D image and the second 3D original image so as to increase.
  • a two-dimensional image cut out from the first three-dimensional image data 2D image cut out from 2D 3D image data, 2D image cut out from 1st 3D image data, and 2D image cut out from 2D 3D image data 2D image cut out from the displayed first 3D image data, 2D image cut out from the second 3D image data, and comparison image
  • the relationship position between the first 3D image data and the second 3D image data is set so that the first 3D image data and the second 3D image data substantially coincide with each other.
  • the positional relationship between the first three-dimensional image data and the second three-dimensional image data can be intuitively recognized by the comparison image, and the processing can be easily performed by comparing the two-dimensional images.
  • first 3D image data and second It is possible to set the relationship between the position of the three-dimensional image data.
  • FIG. 1 is a system configuration diagram of an embodiment of the present invention.
  • FIG. 2 is a block configuration diagram of the image processing apparatus 112.
  • FIG. 2 is a block configuration diagram of the image processing apparatus 112.
  • FIG. 3 is an image processing flowchart of the image processing apparatus 112.
  • FIG. 4 is a diagram showing an example of a comparative image screen.
  • FIG. 5 is a diagram showing a screen displayed on display device 133.
  • FIG. 6 is a diagram showing a screen displayed on display device 133.
  • FIG. 7 is a diagram showing a screen displayed on display device 133.
  • FIG. 8 is a diagram showing a screen displayed on display device 133.
  • FIG. 9 is an explanatory diagram of repositioning operation.
  • FIG. 10 shows a flowchart of the repositioning process.
  • FIG. 11 is an axis repositioning process flowchart in the repositioning process. Explanation of symbols
  • FIG. 1 shows a system configuration diagram of an embodiment of the present invention.
  • the system 100 includes an X-ray CT 111 and an image processing device 112.
  • the X-ray CT 111 includes a stage 121, an imaging hole 122, an X-ray generation unit 123, an X-ray imaging unit 124, a rotation drive mechanism 125, a control unit 126, and a communication unit 127.
  • an imaging target 128 is mounted on the stage 121.
  • the imaging target 128 is inserted into the imaging hole 122 by the stage 121.
  • the X-ray generator 123 generates X-ray Rx and radiates it in the direction of the imaging hole 122.
  • the X-ray imaging unit 124 is provided opposite to the X-ray generation unit 123 with the imaging hole 122 interposed therebetween, and is a two-dimensional image of the X-ray Rx emitted from the X generation unit 123 and transmitted through the imaging target 128. Image.
  • the X-ray generation unit 123 and the X-ray imaging unit 124 are disposed so as to face each other with the imaging hole 122 interposed therebetween, and sequentially rotate while rotating around the imaging target 128 by the rotation drive mechanism 125.
  • the captured two-dimensional image is supplied to the image processing apparatus 112 via the control unit 126 and the communication unit 127.
  • the image processing apparatus 112 constructs a three-dimensional image from a plurality of two-dimensional images captured by the X-ray CT 111 and supplied.
  • the control unit 126 controls the X-ray generation unit 123, the X-ray imaging unit 124, and the rotation drive mechanism 125 to image the imaging target 128 from a predetermined angle.
  • the communication unit 127 communicates with the image processing device 112 and transmits the captured two-dimensional image to the image processing device 112.
  • FIG. 2 is a block diagram of the image processing apparatus 112.
  • the image processing apparatus 112 is configured with a computer system such as a personal computer, and mainly includes a computer main body 131, an input device 132, and a display device 133.
  • the computer main body 131 includes an interface 141, a CPU 142, a hard disk drive device 143, a replaceable disk drive device 144, a memory 145, a graphics controller 146, and a communication unit 147.
  • the interface 141 is equipped with a USB interface or the like, and interfaces with the input device 132 or the like.
  • the CPU 142 performs image analysis processing based on the image analysis program installed in the hard disk drive device 143.
  • the hard disk drive device 143 stores an image analysis program and image data including first 3D image data and second 3D image data to be analyzed.
  • the first 3D image data and the second 3D image data are 3D image data of the same imaging target with different imaging dates and times.
  • the removable disk drive device 144 is a device that performs recording and Z or reproduction of a removable disk such as a CD-ROM, DVD-ROM, etc., and an image analysis program installed in the hard disk drive device 143. Is provided by a replaceable disc that can be played back by the replaceable disc drive device 144, for example.
  • the memory 145 is composed of a semiconductor storage device and is used as a working storage area for the CPU 142.
  • the graphics controller 146 generates an image signal for displaying an image on the display device 133 from the image data supplied from the CPU 142, and supplies the image signal to the display device 133.
  • the communication unit 147 communicates with the X-ray CT111.
  • the display device 113 displays an image corresponding to the image signal supplied from the graphics controller 146.
  • the image processing device 112 constructs a three-dimensional image from a plurality of two-dimensional images supplied from the X-ray CT 111 to the communication unit 147 and stores the three-dimensional image in the hard disk drive device 147. Note that a 3D image is constructed from a plurality of 2D images on the X-ray CT 111 side and sent to the image processing device 112. Make sure to believe.
  • FIG. 3 shows an image processing flowchart of the image processing apparatus 112.
  • the CPU 142 reads out the first three-dimensional image and the second three-dimensional image stored in the hard disk drive 147 in step S1-1, and in step S1-2, the first three-dimensional image and the second three-dimensional image.
  • a two-dimensional image is cut out from the original image.
  • the two-dimensional image to be cut out is the two-dimensional image force of the three surfaces of Z-X plane, Z-Y plane, and XY plane orthogonal to each other of the first three-dimensional image and the second three-dimensional image. Constructed!
  • step S1-3 the CPU 142 extracts a Z-X plane image, a Z-Y plane image, a three-dimensional two-dimensional image of the X-Y plane, and a second plane clipped from the first three-dimensional image.
  • the Z-X plane image, Z-Y plane image, and X-Y plane image cut out from the three-dimensional image of the above are binary-valued.
  • a white display indicates a site where a bone exists
  • a black display indicates a site where no bone exists.
  • step S1-4 the CPU 142 determines that the binary image of the Z-X plane image cut out from the first three-dimensional image and the Z-X plane cut out from the second three-dimensional image camera.
  • the binary image of the image is compared, and a comparison image corresponding to the comparison result and its gray scale image are generated and displayed.
  • FIG. 4 is a diagram showing an example of a comparative image.
  • the comparison image includes a binary image of the Z-X plane image cut out from the first three-dimensional image and a binary image of the Z-X plane image cut out from the second three-dimensional image force.
  • the image of the matching part is displayed in green.
  • the comparison image is a Z-X plane image cut out from the first three-dimensional image, that is, a portion that was white, that is, a portion where bones were present, was cut out from the second three-dimensional image. If the surface image is black, that is, if there are no bones, that portion is displayed in red.
  • the comparison image is the black part of the Z-X plane image cut out from the first three-dimensional image, that is, the part where the bone was not present and the second three-dimensional image force was also cut out. If the Z-X plane image is white, that is, if a bone is present, that portion is displayed in blue.
  • 5 to 8 are diagrams showing screens displayed on the display device 133.
  • FIG. Figure 4 shows Z-X plane image 151, Z-Y plane image 152, X-Y plane image 153, and second Z-dimensional image Z extracted from the first three-dimensional image.
  • FIG. 6 shows the screen before X-Y plane image 156 is displaced in the Z direction
  • Fig. 7 shows the screen in Fig. 6 after X-Y plane image 156 is displaced in the Z direction. It shows.
  • the display screen 150 displayed on the screen of the display device 133 includes a Z-X plane image 151, a Z-Y plane image 152, an XY plane image 153, and the like extracted from the first three-dimensional image.
  • the display position of each of the —X plane image 154, the Z —Y plane image 155, and the X—Y plane image 156 can be manipulated by operating the input device 132.
  • the position of one of the first three-dimensional image forces extracted Z-X plane image 151, Z-Y plane image 152, and X-Y plane image 153 is adjusted, the other two images The position of is also adjusted according to the position of the adjusted single plane image.
  • Z-X plane comparison image 157 Z-Y plane comparison image 158, X-Y plane comparison image 159, and Z-X plane comparison image 157 grayscale image 160
  • Z—Y comparison image 158 grayscale image 161 X—Y comparison image 1 59 grayscale images 162 also change.
  • the CPU 142 operates the input device 132 in step S1-5 to operate the Z-X plane image 151, the Z-Y plane image 152, the X-Y plane image 153, which are cut out from the first three-dimensional image.
  • the display position of each of the Z-X plane image 154, Z-Y plane image 155, and X-Y plane image 156, from which the second three-dimensional image force is cut out is manipulated in step S1-6. As described above, the position of the adjusted plane image of the three-dimensional image is adjusted, and the display of the image changes with the displacement of the position.
  • the CPU 142 selects a Z-X plane image 151 cut out from the first three-dimensional image in step S1-8.
  • Z—X plane image 154 cut out from the second 3D image
  • Z—Y plane image 152 cut out from the first 3D image
  • the position of the original image is adjusted.
  • the CPU 142 adjusts the positions of the Z-X plane image 154, the Z-Y plane image 155, and the XY plane image 156 of the second three-dimensional image, respectively, and compares the Z-X plane comparison image.
  • Z—Y surface comparison image 158, X—Y surface comparison image 159 converge to a position where the green part is as much as possible.
  • the position of the second three-dimensional image can be made to substantially coincide with the first three-dimensional image by repositioning.
  • FIG. 9 is a diagram for explaining the operation of repositioning.
  • FIG. 9A shows a first three-dimensional image
  • FIG. 9B shows a second three-dimensional image.
  • the first and second 3D images are as shown in FIG. 9A.
  • 01 and 02 indicate imaging targets.
  • FIG. 10 shows a flowchart of the surface repositioning process in the repositioning process.
  • the saddle surface indicates the X-plane of the region A12 set in the first three-dimensional image
  • the Z 'plane indicates the X-plane of the region ⁇ 22 set in the second three-dimensional image.
  • S (Z,) is the coincidence area between the Z plane and the plane
  • S (Z'-l) is the coincidence area between the Z plane and the plane when shifted by 1 dot in the Z direction
  • S (Z '+ l ) Shows the coincidence area between the Z plane and the plane when shifted by 1 dot in the + Z direction.
  • Repositioning is performed by performing the above process on the X plane corresponding to the Y-Z plane and the Y plane corresponding to the X-Z plane.
  • FIG. 11 shows a flowchart of the axis repositioning process in the repositioning process.
  • S (Z '), S (X'), S (Y '), S (p'), S (q '), and S (r') are the maximum positions.
  • the position of area A22 converges with respect to area A12.
  • any one area is the maximum when shifted by 1 dot or 1 degree, the calculation is performed again.
  • the first three-dimensional image and the second three-dimensional image are obtained by the Z-X plane comparison image 157, the Z-Y plane comparison image 158, and the XY plane comparison image 159.
  • the positional relationship between the two is intuitively easy to recognize.
  • the Z-X plane image 151 in which the first three-dimensional image force was manually cut out, Adjust the position of the Z—Y plane image 152, the X—Y plane image 153, or the Z—X plane image 154, the Z—Y plane image 155, and the X—Y plane image 156 of the second three-dimensional image. Alignment can be performed. This makes the repositioning process easy and accurate.
  • the position at which it is desired to manually observe the positions of the X-Y plane image 153 from which the first three-dimensional image force has been cut out and the X-Y plane image 156 from which the second three-dimensional image force has also been cut out is manually centered It can also be adjusted so that As a result, it is possible to obtain an image in which the image to be observed is recognized.
  • CPU 142 ends the process when the end operation is performed in step S1-9.
  • the Z-X plane image 151, Z-Y plane cut out from the first three-dimensional image The two-dimensional image power of image 152, X—Y plane image 153, or Z—X plane image 154 of the second three-dimensional image, Z—Y plane image 155, and X—Y plane image 156 is also the Z—X plane comparison image 157.
  • the same imaging target can be observed without damaging, the internal structure of the same individual can be observed over a long period of time. This allows observations without individual differences. In addition, the number of individuals required for observation can be reduced. In addition, this can reduce the speed and cost of the experiment.

Abstract

Provided are an image processing method, an image processing device and an image processing program for displaying a two-dimensional image cut out from three-dimensional image data. The image processing method, the image processing device and the image processing program can intuitively recognize and precisely set the positional relation between the first three-dimensional image data and the second three-dimensional image data. There are displayed the two-dimensional image cut out from the first three-dimensional image data, the two-dimensional image cut out from the second three-dimensional data, and a comparison image, in which the two-dimensional image cut out from the first three-dimensional image data and the two-dimensional image cut out from the second three-dimensional image data are overlapped. The relational position between the first three-dimensional image data and the second three-dimensional image data is set such that the first three-dimensional image data and the second three-dimensional image data are substantially identical on the basis of the two-dimensional image cut out from the first three-dimensional image data displayed, the two-dimensional image cut out from the second three-dimensional image data, and the comparison image.

Description

画像処理方法及び画像処理装置並びに画像処理プログラム 技術分野  Image processing method, image processing apparatus, and image processing program
[0001] 本発明は、画像処理方法及び画像処理装置並びに画像処理プログラムに係り、特 に、三次元画像データから切り出された二次元画像を表示する画像処理方法及び 画像処理装置並びに画像処理プログラムに関する。  The present invention relates to an image processing method, an image processing apparatus, and an image processing program, and more particularly to an image processing method, an image processing apparatus, and an image processing program for displaying a 2D image cut out from 3D image data. .
背景技術  Background art
[0002] 医学、医療の分野では、実験動物の個体差をなくし、かつ、できるだけ少ない個体 で実験を行なうために、 1匹の個体を長期間にわたって観察できるようになることが望 まれている。特に、個体の内部の状態を観察する場合には、同等の多数の個体を同 じ条件で飼育し、観察のたびに異なる固体を用いて観察を行なって 、るのが現状で あり、同一の個体を長期間にわたって観察することはできな力つた。  [0002] In the medical and medical fields, it is desired that one individual can be observed over a long period of time in order to eliminate individual differences among experimental animals and perform experiments with as few individuals as possible. In particular, when observing the internal state of an individual, it is currently the case that a large number of equivalent individuals are bred under the same conditions and observed using different solids for each observation. It was impossible to observe the individual for a long time.
[0003] 個体の内部構造を、個体を傷つけることなく観察するためにマイクロ X線 CTが開発 されている。マイクロ X線 CTは、撮像対象の周囲に対向した配置された X線発生部と X線撮像部とが撮像対象の周囲を回転しながら多数の二次元画像を撮像し、撮像し た二次元画像から三次元画像を構築することにより、撮像対象の内部構造の三次元 画像を取得することができる。  [0003] Micro X-ray CT has been developed to observe the internal structure of an individual without damaging the individual. Micro X-ray CT captures a number of two-dimensional images while an X-ray generator and an X-ray imaging unit arranged opposite to the periphery of the imaging target rotate around the imaging target. By constructing a three-dimensional image from the above, a three-dimensional image of the internal structure of the imaging target can be acquired.
[0004] マイクロ X線 CTにより取得した三次元画像は、所望の平面で切断して必要な断面 などを取得できる。よって、撮像対象の内部構造を自由に観察することが可能となつ ている。このため、一匹の個体を長期間にわたって観察することが可能となる。  [0004] A three-dimensional image acquired by micro X-ray CT can be cut at a desired plane to obtain a necessary cross section. Therefore, it is possible to freely observe the internal structure of the imaging target. For this reason, it becomes possible to observe one individual over a long period of time.
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0005] しかるに、マイクロ X線 CTにより異なるタイミングで撮像した三次元画像は当然、そ の座標位置は異なったものとなっている。一匹の個体を観察する場合、同一の部位 の切断面などの画像を並べて観察する必要がある。しかし、座標位置が異なるため、 同一部位の切断面を表示することは困難であった。また、切断面の抽出を観察者の 感に頼っていたため、正確さにかける。 [0006] また、 2つの三次元画像の位置を位置決めするための処理は、大型、専用のコンビ ユータなどが必要であり、簡単に導入することは困難であった。 [0005] However, three-dimensional images captured at different timings by micro X-ray CT naturally have different coordinate positions. When observing a single individual, it is necessary to observe images such as cut surfaces of the same part side by side. However, since the coordinate positions are different, it was difficult to display the cut surface of the same part. In addition, since the extraction of the cut surface relies on the observer's feeling, it is applied with accuracy. [0006] In addition, the processing for positioning the positions of the two three-dimensional images requires a large-sized, dedicated computer and the like, and it is difficult to easily introduce the processing.
[0007] このため、簡単な処理で、かつ、正確に、撮像時期の異なる 2つの同一個体の三次 元画像の位置を設定できることが望まれて 、た。  [0007] Therefore, it has been desired to be able to set the positions of three-dimensional images of two identical individuals with different imaging timings with simple processing and accurately.
[0008] 本発明は上記の点に鑑みてなされたもので、第 1の三次元画像データと第 2の三次 元画像データとの位置関係を直感的に認識し、正確に、設定できる画像処理方法及 び画像処理装置並びに画像処理プログラムを提供することを目的とする。  [0008] The present invention has been made in view of the above points, and image processing capable of intuitively recognizing and accurately setting the positional relationship between the first three-dimensional image data and the second three-dimensional image data. It is an object to provide a method, an image processing apparatus, and an image processing program.
課題を解決するための手段  Means for solving the problem
[0009] 本発明は、第 1の三次元画像データから切り出された二次元画像、及び、第 2の三 次元画像データから切り出された二次元画像、並びに、第 1の三次元画像データか ら切り出された二次元画像と第 2の三次元画像データから切り出された二次元画像と を重ね合わせた比較画像とを表示し、表示された第 1の三次元画像データから切り 出された二次元画像、及び、第 2の三次元画像データから切り出された二次元画像 、並びに、比較画像に基づいて第 1の三次元画像データと第 2の三次元画像データ とが略一致するように第 1の三次元画像データと第 2の三次元画像データとの関係位 置を設定することを特徴とする。  [0009] The present invention provides a two-dimensional image cut out from the first three-dimensional image data, a two-dimensional image cut out from the second three-dimensional image data, and the first three-dimensional image data. A two-dimensional image cut out from the displayed first three-dimensional image data is displayed by displaying the cut-out two-dimensional image and a comparison image obtained by superimposing the two-dimensional image cut out from the second three-dimensional image data. The first 3D image data and the second 3D image data are substantially matched based on the image, the 2D image cut out from the second 3D image data, and the comparison image. It is characterized in that the relative position between the 3D image data and the second 3D image data is set.
[0010] また、比較画像は、第 1の三次元画像から切り出された二次元画像と第 2の三次元 画像から切り出された二次元画像とで互いに一致する部分及び互いに相違する部 分が区別できるように表示されることを特徴とする。  [0010] Further, in the comparison image, a two-dimensional image cut out from the first three-dimensional image and a two-dimensional image cut out from the second three-dimensional image are distinguished from each other in a portion that is the same and a portion that is different from each other. It is displayed so that it can be performed.
[0011] さらに、比較画像は、第 1の三次元画像から切り出された二次元画像と第 2の三次 元画像から切り出された二次元画像とで互 、に一致する部分と互 、に相違する部分 とで色が異なるように表示されることを特徴とする。  [0011] Further, the comparison image is different between the two-dimensional image cut out from the first three-dimensional image and the two-dimensional image cut out from the second three-dimensional image. It is characterized in that the colors are displayed differently for each part.
[0012] また、本発明は、第 2の三次元画像から切り出された二次元画像及び第 1の三次元 画像力 切り出された二次元画像をニ値ィ匕した画像の値が一致する部分が多くなる ように第 1の三次元画像と第 2の三次元元画像との位置を収束させることを特徴とす る。  [0012] In the present invention, the two-dimensional image cut out from the second three-dimensional image and the portion where the values of the two-dimensional image cut out from the two-dimensional image cut out from the first three-dimensional image coincide with each other. It is characterized by converging the positions of the first 3D image and the second 3D original image so as to increase.
発明の効果  The invention's effect
[0013] 本発明によれば、第 1の三次元画像データから切り出された二次元画像、及び、第 2の三次元画像データから切り出された二次元画像、並びに、第 1の三次元画像デ 一タカゝら切り出された二次元画像と第 2の三次元画像データから切り出された二次元 画像とを重ね合わせた比較画像とを表示し、表示された第 1の三次元画像データか ら切り出された二次元画像、及び、第 2の三次元画像データから切り出された二次元 画像、並びに、比較画像に基づいて第 1の三次元画像データと第 2の三次元画像デ ータとが略一致するように第 1の三次元画像データと第 2の三次元画像データとの関 係位置を設定することにより、比較画像により第 1の三次元画像データと第 2の三次 元画像データとの位置関係を直感的に認識でき、また、二次元画像の比較を行なう ことで簡単に処理を行なえ、かつ、正確に、第 1の三次元画像データと第 2の三次元 画像データとの関係位置を設定することができる。 [0013] According to the present invention, a two-dimensional image cut out from the first three-dimensional image data, 2D image cut out from 2D 3D image data, 2D image cut out from 1st 3D image data, and 2D image cut out from 2D 3D image data 2D image cut out from the displayed first 3D image data, 2D image cut out from the second 3D image data, and comparison image Based on the above, the relationship position between the first 3D image data and the second 3D image data is set so that the first 3D image data and the second 3D image data substantially coincide with each other. Thus, the positional relationship between the first three-dimensional image data and the second three-dimensional image data can be intuitively recognized by the comparison image, and the processing can be easily performed by comparing the two-dimensional images. Exactly, first 3D image data and second It is possible to set the relationship between the position of the three-dimensional image data.
図面の簡単な説明  Brief Description of Drawings
[0014] [図 1]本発明の一実施例のシステム構成図である。 FIG. 1 is a system configuration diagram of an embodiment of the present invention.
[図 2]画像処理装置 112のブロック構成図である。  2 is a block configuration diagram of the image processing apparatus 112. FIG.
[図 3]画像処理装置 112の画像処理フローチャートである。  3 is an image processing flowchart of the image processing apparatus 112. FIG.
[図 4]比較画像の一例の画面を示す図である。  FIG. 4 is a diagram showing an example of a comparative image screen.
[図 5]表示装置 133に表示される画面を示す図である。  FIG. 5 is a diagram showing a screen displayed on display device 133.
[図 6]表示装置 133に表示される画面を示す図である。  FIG. 6 is a diagram showing a screen displayed on display device 133.
[図 7]表示装置 133に表示される画面を示す図である。  FIG. 7 is a diagram showing a screen displayed on display device 133.
[図 8]表示装置 133に表示される画面を示す図である。  FIG. 8 is a diagram showing a screen displayed on display device 133.
[図 9]リポジショニングの動作説明図である。  FIG. 9 is an explanatory diagram of repositioning operation.
[図 10]リポジショニング処理の処理フローチャートを示す。  FIG. 10 shows a flowchart of the repositioning process.
[図 11]リポジショニング処理における軸リポジショニング処理フローチャートである。 符号の説明  FIG. 11 is an axis repositioning process flowchart in the repositioning process. Explanation of symbols
[0015] 100 X線 CT、 112 画像処理装置 [0015] 100 X-ray CT, 112 image processing device
121 ステージ、 122 撮像孔、 123 X線発生部  121 stages, 122 imaging holes, 123 X-ray generator
124 X線撮像部、 125 回転駆動機構、 126 制御部、 127 通信部  124 X-ray imaging unit, 125 rotation drive mechanism, 126 control unit, 127 communication unit
131 コンピュータ本体、 132 入力装置、 133 表示装置  131 Computer, 132 Input device, 133 Display device
141 インタフェース、 142 CPU, 143 ハードディスクドライブ装置 144 可換式ディスクドライブ装置、 145 メモリ 141 interface, 142 CPU, 143 hard disk drive 144 replaceable disk drive, 145 memory
146 グラフィックスコントローラ、 147 通信部  146 graphics controller, 147 communication unit
150 表示画面  150 Display screen
151、 154 Z— X面画像、 152、 155 Z— Y面画像  151, 154 Z— X plane image, 152, 155 Z— Y plane image
153、 156 X— Y面画像、 157 Z— X面比較画像  153, 156 X—Y plane image, 157 Z—X plane comparison image
158 Z— Y面比較画像  158 Z—Y side comparison image
159 X— Y面比較画像、 160、 161、 162 グレースケール画像  159 X-Y comparison image, 160, 161, 162 grayscale image
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0016] 〔構成〕 [0016] [Configuration]
図 1は本発明の一実施例のシステム構成図を示す。  FIG. 1 shows a system configuration diagram of an embodiment of the present invention.
[0017] 本実施例のシステム 100は、 X線 CT111及び画像処理装置 112から構成されてい る。 The system 100 according to the present embodiment includes an X-ray CT 111 and an image processing device 112.
[0018] X線 CT111は、ステージ 121、撮像孔 122、 X線発生部 123、 X線撮像部 124、回 転駆動機構 125、制御部 126、通信部 127から構成されている。  The X-ray CT 111 includes a stage 121, an imaging hole 122, an X-ray generation unit 123, an X-ray imaging unit 124, a rotation drive mechanism 125, a control unit 126, and a communication unit 127.
[0019] ステージ 121には、撮像対象 128が搭載される。撮像対象 128は、ステージ 121に よって撮像孔 122に挿入される。 X線発生部 123は、 X線 Rxを発生し、撮像孔 122の 方向に放射する。 X線撮像部 124は、撮像孔 122を挟んで X線発生部 123の方向に 対向して設けられており、 X発生部 123から放射され、撮像対象 128を透過した X線 Rxの二次元画像を撮像する。  [0019] On the stage 121, an imaging target 128 is mounted. The imaging target 128 is inserted into the imaging hole 122 by the stage 121. The X-ray generator 123 generates X-ray Rx and radiates it in the direction of the imaging hole 122. The X-ray imaging unit 124 is provided opposite to the X-ray generation unit 123 with the imaging hole 122 interposed therebetween, and is a two-dimensional image of the X-ray Rx emitted from the X generation unit 123 and transmitted through the imaging target 128. Image.
[0020] X線発生部 123と X線撮像部 124とは、撮像孔 122を挟んで、互いに対向するよう に配置されており、回転駆動機構 125により撮像対象 128の周囲を回転させつつ、 順次に撮像し、撮像した二次元画像を制御部 126、通信部 127を介して画像処理装 置 112に供給する。画像処理装置 112は、 X線 CT111により撮像され、供給された 複数の二次元画像から三次元画像を構築する。  [0020] The X-ray generation unit 123 and the X-ray imaging unit 124 are disposed so as to face each other with the imaging hole 122 interposed therebetween, and sequentially rotate while rotating around the imaging target 128 by the rotation drive mechanism 125. The captured two-dimensional image is supplied to the image processing apparatus 112 via the control unit 126 and the communication unit 127. The image processing apparatus 112 constructs a three-dimensional image from a plurality of two-dimensional images captured by the X-ray CT 111 and supplied.
[0021] 制御部 126は、 X線発生部 123、 X線撮像部 124、回転駆動機構 125を制御して、 撮像対象 128を所定の角度から撮像する。通信部 127は、画像処理装置 112との通 信を行っており、撮像した二次元画像を画像処理装置 112に送信する。  [0021] The control unit 126 controls the X-ray generation unit 123, the X-ray imaging unit 124, and the rotation drive mechanism 125 to image the imaging target 128 from a predetermined angle. The communication unit 127 communicates with the image processing device 112 and transmits the captured two-dimensional image to the image processing device 112.
[0022] 〔画像処理装置 112〕 図 2は画像処理装置 112のブロック構成図を示す。 [Image processing apparatus 112] FIG. 2 is a block diagram of the image processing apparatus 112.
[0023] 画像処理装置 112は、パーソナルコンピュータなどのコンピュータシステム力 構成 されており、主に、コンピュータ本体 131、入力装置 132、表示装置 133から構成さ れている。 The image processing apparatus 112 is configured with a computer system such as a personal computer, and mainly includes a computer main body 131, an input device 132, and a display device 133.
[0024] コンピュータ本体 131は、インタフェース 141、 CPU142、ハードディスクドライブ装 置 143、可換式ディスクドライブ装置 144、メモリ 145、グラフィックスコントローラ 146 、通信部 147から構成されている。  The computer main body 131 includes an interface 141, a CPU 142, a hard disk drive device 143, a replaceable disk drive device 144, a memory 145, a graphics controller 146, and a communication unit 147.
[0025] インタフェース 141は、 USBインタフェースなどが搭載されており、入力装置 132な どとのインタフェースがとられる。 CPU142は、ハードディスクドライブ装置 143にイン ストールされた画像解析プログラムに基づいて画像解析処理を行なう。  The interface 141 is equipped with a USB interface or the like, and interfaces with the input device 132 or the like. The CPU 142 performs image analysis processing based on the image analysis program installed in the hard disk drive device 143.
[0026] ハードディスクドライブ装置 143には、画像解析プログラムがインストールされるとと もに、解析対象となる第 1の三次元画像データ及び第 2の三次元画像データを含む 画像データが記憶される。  The hard disk drive device 143 stores an image analysis program and image data including first 3D image data and second 3D image data to be analyzed.
[0027] なお、本実施例では、第 1の三次元画像データ及び第 2の三次元画像データは、 撮像日時が異なる同一撮像対象の三次元画像データである。  [0027] In the present embodiment, the first 3D image data and the second 3D image data are 3D image data of the same imaging target with different imaging dates and times.
[0028] 可換式ディスクドライブ装置 144は、例えば、 CD-ROM, DVD— ROMなどの可 換式ディスクの記録及び Z又は再生を行なう装置であり、ハードディスクドライブ装置 143にインストールされた画像解析プログラムは、例えば、可換式ディスクドライブ装 置 144により再生可能とされた可換式ディスクにより提供される。  [0028] The removable disk drive device 144 is a device that performs recording and Z or reproduction of a removable disk such as a CD-ROM, DVD-ROM, etc., and an image analysis program installed in the hard disk drive device 143. Is provided by a replaceable disc that can be played back by the replaceable disc drive device 144, for example.
[0029] メモリ 145は、半導体記憶装置から構成されており、 CPU142の作業用記憶領域と して用いられる。グラフィックスコントローラ 146は、 CPU 142から供給された画像デ ータから表示装置 133に画像を表示するため画像信号を生成し、表示装置 133に供 給する。  The memory 145 is composed of a semiconductor storage device and is used as a working storage area for the CPU 142. The graphics controller 146 generates an image signal for displaying an image on the display device 133 from the image data supplied from the CPU 142, and supplies the image signal to the display device 133.
[0030] 通信部 147は、 X線 CT111との通信を行なっている。表示装置 113は、グラフィック スコントローラ 146から供給された画像信号に応じた画像を表示する。  [0030] The communication unit 147 communicates with the X-ray CT111. The display device 113 displays an image corresponding to the image signal supplied from the graphics controller 146.
[0031] 画像処理装置 112は、 X線 CT111から通信部 147に供給された複数の二次元画 像から三次元画像を構築し、ハードディスクドライブ装置 147に記憶する。なお、 X線 CT111側で複数の二次元画像から三次元画像を構築し、画像処理装置 112に送 信するようにしてちょい。 The image processing device 112 constructs a three-dimensional image from a plurality of two-dimensional images supplied from the X-ray CT 111 to the communication unit 147 and stores the three-dimensional image in the hard disk drive device 147. Note that a 3D image is constructed from a plurality of 2D images on the X-ray CT 111 side and sent to the image processing device 112. Make sure to believe.
[0032] 〔画像処理〕  [Image processing]
図 3は画像処理装置 112の画像処理フローチャートを示す。  FIG. 3 shows an image processing flowchart of the image processing apparatus 112.
[0033] なお、ここでは、 X線 CT111により、動物の骨を撮像した画像について説明を行な [0033] Here, an image obtained by imaging an animal bone by X-ray CT111 will be described.
[0034] CPU142は、ステップ S1— 1でハードディスクドライブ 147に記憶された第 1の三次 元画像及び第 2の三次元画像を読み出し、ステップ S1— 2で第 1の三次元画像及び 第 2の三次元画像から二次元画像を切り出す。なお、切り出される二次元画像は、第 1の三次元画像及び第 2の三次元画像の各々、互いに直交する Z— X面、 Z— Y面、 X— Y面の 3面の二次元画像力 構成されて!、る。 [0034] The CPU 142 reads out the first three-dimensional image and the second three-dimensional image stored in the hard disk drive 147 in step S1-1, and in step S1-2, the first three-dimensional image and the second three-dimensional image. A two-dimensional image is cut out from the original image. The two-dimensional image to be cut out is the two-dimensional image force of the three surfaces of Z-X plane, Z-Y plane, and XY plane orthogonal to each other of the first three-dimensional image and the second three-dimensional image. Constructed!
[0035] CPU142は、ステップ S1— 3で、第 1の三次元画像から切り出された Z—X面画像 、 Z— Y面画像、 X— Y面の 3面の二次元画像、及び、第 2の三次元画像から切り出さ れた Z— X面画像、 Z— Y面画像、 X—Y面画像をニ値ィ匕する。なお、二値化画像は 、白色表示が骨が存在する部位、黒色表示が骨が存在しない部位を示している。  [0035] In step S1-3, the CPU 142 extracts a Z-X plane image, a Z-Y plane image, a three-dimensional two-dimensional image of the X-Y plane, and a second plane clipped from the first three-dimensional image. The Z-X plane image, Z-Y plane image, and X-Y plane image cut out from the three-dimensional image of the above are binary-valued. In the binarized image, a white display indicates a site where a bone exists, and a black display indicates a site where no bone exists.
[0036] CPU142は、ステップ S1— 4で、第 1の三次元画像から切り出された Z—X面画像 の二値ィ匕画像と第 2の三次元画像カゝら切り出された Z—X面画像の二値ィ匕画像とを 比較し、比較結果に応じた比較画像及びそのグレースケール画像を生成し、表示す る。  [0036] In step S1-4, the CPU 142 determines that the binary image of the Z-X plane image cut out from the first three-dimensional image and the Z-X plane cut out from the second three-dimensional image camera. The binary image of the image is compared, and a comparison image corresponding to the comparison result and its gray scale image are generated and displayed.
[0037] 図 4は比較画像の一例の画面を示す図である。  FIG. 4 is a diagram showing an example of a comparative image.
[0038] 比較画像は、第 1の三次元画像から切り出された Z— X面画像の二値化画像と第 2 の三次元画像力 切り出された Z—X面画像の二値ィ匕画像とで一致する部分の画像 を緑色で表示される。また、比較画像は、第 1の三次元画像から切り出された Z— X 面画像で白だった部分、すなわち、骨が存在していた部分が第 2の三次元画像から 切り出された Z—X面画像で黒、すなわち、骨がなくなった場合、その部分を赤色で 表示される。さらに、比較画像は、第 1の三次元画像から切り出された Z— X面画像で 黒だった部分、すなわち、骨が存在していな力つた部分が第 2の三次元画像力も切り 出された Z—X面画像で白、すなわち、骨が存在するようになった場合、その部分を 青色で表示される。 [0039] 図 5乃至図 8は表示装置 133に表示される画面を示す図である。図 4は第 1の三次 元画像カゝら切り出された Z—X面画像 151、 Z— Y面画像 152、 X— Y面画像 153、及 び、第 2の三次元画像力も切り出された Z— X面画像 154、 Z— Y面画像 155、 X— Y 面画像 156をグレースケール表示した画面、図 5は第 1の三次元画像から切り出され た Z— X面画像 151、 Z— Y面画像 152、 X— Y面画像 153、及び、第 2の三次元画 像力 切り出された Z—X面画像 154、 Z— Y面画像 155、 X—Y面画像 156を二値 化した画像を表示した画面、図 6は画面の X—Y面画像 156を Z方向に変位させる前 の画面、図 7は図 6の画面で X— Y面画像 156を Z方向に変位させた後の画面を示し ている。 [0038] The comparison image includes a binary image of the Z-X plane image cut out from the first three-dimensional image and a binary image of the Z-X plane image cut out from the second three-dimensional image force. The image of the matching part is displayed in green. In addition, the comparison image is a Z-X plane image cut out from the first three-dimensional image, that is, a portion that was white, that is, a portion where bones were present, was cut out from the second three-dimensional image. If the surface image is black, that is, if there are no bones, that portion is displayed in red. In addition, the comparison image is the black part of the Z-X plane image cut out from the first three-dimensional image, that is, the part where the bone was not present and the second three-dimensional image force was also cut out. If the Z-X plane image is white, that is, if a bone is present, that portion is displayed in blue. 5 to 8 are diagrams showing screens displayed on the display device 133. FIG. Figure 4 shows Z-X plane image 151, Z-Y plane image 152, X-Y plane image 153, and second Z-dimensional image Z extracted from the first three-dimensional image. — X plane image 154, Z— Y plane image 155, X—Y plane image 156 in grayscale display, Figure 5 shows the Z—X plane image 151, Z—Y plane cut out from the first 3D image Image 152, X—Y plane image 153, and second 3D image power Z-X plane image 154, Z—Y plane image 155, and X—Y plane image 156 binarized images Fig. 6 shows the screen before X-Y plane image 156 is displaced in the Z direction, and Fig. 7 shows the screen in Fig. 6 after X-Y plane image 156 is displaced in the Z direction. It shows.
[0040] 表示装置 133の画面に表示される表示画面 150は、第 1の三次元画像から切り出 された Z—X面画像 151、 Z— Y面画像 152、 X— Y面画像 153、及び、第 2の三次元 画像力も切り出された Z—X面画像 154、 Z— Y面画像 155、 X— Y面画像 156、及び 、 Z— X面比較画像 157、 Z— Y面比較画像 158、 X— Y面比較画像 159、並びに、 Z X面比較画像 157のグレースケール画像 160、 Z— Y面比較画像 158のグレース ケール画像 161、 X— Y面比較画像 159のグレースケール画像 162から構成されて いる。  [0040] The display screen 150 displayed on the screen of the display device 133 includes a Z-X plane image 151, a Z-Y plane image 152, an XY plane image 153, and the like extracted from the first three-dimensional image. Z-X image 154, Z-Y image 155, X-Y image 156, Z-X image 157, Z-Y image 158, X-Y comparison image 159, ZX comparison image 157 grayscale image 160, Z—Y comparison image 158 grayscale image 161, X—Y comparison image 159 grayscale image 162 Yes.
[0041] このとき、第 1の三次元画像力も切り出された Z—X面画像 151、 Z—Y面画像 152 、 X— Y面画像 153、及び、第 2の三次元画像力も切り出された Z—X面画像 154、 Z —Y面画像 155、 X—Y面画像 156の各々の画像は、入力装置 132の操作により、 その表示位置を操作可能とされている。このとき、第 1の三次元画像力 切り出された Z— X面画像 151、 Z— Y面画像 152、 X—Y面画像 153のうち一つの面画像の位置 を調整すると、他の 2つの画像の位置も調整された一つの面画像の位置に応じて調 整される。同様に、第 2の三次元画像力も切り出された Z—X面画像 154、 Z— Y面画 像 155、 X— Y面画像 156のうち一つの面画像の位置を調整すると、他の 2つの画像 の位置も調整された一つの面画像の位置に応じて調整される。  [0041] At this time, the Z-X plane image 151, the Z-Y plane image 152, the XY plane image 153, and the second three-dimensional image force that are also cut out from the first three-dimensional image force. The display position of each of the —X plane image 154, the Z —Y plane image 155, and the X—Y plane image 156 can be manipulated by operating the input device 132. At this time, if the position of one of the first three-dimensional image forces extracted Z-X plane image 151, Z-Y plane image 152, and X-Y plane image 153 is adjusted, the other two images The position of is also adjusted according to the position of the adjusted single plane image. Similarly, adjusting the position of one of the Z-X plane image 154, Z-Y plane image 155, and X-Y plane image 156 from which the second three-dimensional image force is also extracted, the other two The position of the image is also adjusted according to the position of the adjusted single plane image.
[0042] また、調整された画像の位置の変位に伴って、 Z— X面比較画像 157、 Z— Y面比 較画像 158、 X— Y面比較画像 159、並びに、 Z— X面比較画像 157のグレースケー ル画像 160、 Z—Y面比較画像 158のグレースケール画像 161、 X— Y面比較画像 1 59のグレースケール画像 162も変化する。 [0042] Further, according to the displacement of the position of the adjusted image, Z-X plane comparison image 157, Z-Y plane comparison image 158, X-Y plane comparison image 159, and Z-X plane comparison image 157 grayscale image 160, Z—Y comparison image 158 grayscale image 161, X—Y comparison image 1 59 grayscale images 162 also change.
[0043] CPU142は、ステップ S1— 5で入力装置 132の操作により、第 1の三次元画像から 切り出された Z—X面画像 151、 Z— Y面画像 152、 X—Y面画像 153、及び、第 2の 三次元画像力も切り出された Z—X面画像 154、 Z— Y面画像 155、 X— Y面画像 15 6、各々の画像の表示位置を操作されると、ステップ S1— 6で、上記の通り、調整され た三次元画像の面画像の位置が調整され、位置の変位に伴って、画像の表示が変 化する。 [0043] The CPU 142 operates the input device 132 in step S1-5 to operate the Z-X plane image 151, the Z-Y plane image 152, the X-Y plane image 153, which are cut out from the first three-dimensional image. When the display position of each of the Z-X plane image 154, Z-Y plane image 155, and X-Y plane image 156, from which the second three-dimensional image force is cut out, is manipulated in step S1-6. As described above, the position of the adjusted plane image of the three-dimensional image is adjusted, and the display of the image changes with the displacement of the position.
[0044] また、 CPU142は、ステップ S1— 7で入力装置 132の操作によりリポジションが指 示されると、ステップ S 1— 8で第 1の三次元画像から切り出された Z - X面画像 151と 第 2の三次元画像から切り出された Z— X面画像 154、及び、第 1の三次元画像から 切り出された Z—Y面画像 152と第 2の三次元画像カゝら切り出された Z—Y面画像 15 5、第 1の三次元画像から切り出された X— Y面画像 153と第 2の三次元画像から切り 出された X—Y面画像 156とが一致するように第 2の三次元画像の位置が調整される 。このとき、 CPU142は、例えば、第 2の三次元画像の Z—X面画像 154、 Z—Y面画 像 155、 X—Y面画像 156の位置を各々調整して、 Z—X面比較画像 157、 Z—Y面 比較画像 158、 X—Y面比較画像 159において緑色の部分ができるだけ多くなる位 置に収束させる。  [0044] In addition, when repositioning is instructed by operating the input device 132 in step S1-7, the CPU 142 selects a Z-X plane image 151 cut out from the first three-dimensional image in step S1-8. Z—X plane image 154 cut out from the second 3D image, Z—Y plane image 152 cut out from the first 3D image, and Z—cut out from the second 3D image Y-plane image 155, X-Y plane image 153 cut out from the first three-dimensional image, and second cubic so that the X-Y plane image 156 cut out from the second three-dimensional image matches. The position of the original image is adjusted. At this time, for example, the CPU 142 adjusts the positions of the Z-X plane image 154, the Z-Y plane image 155, and the XY plane image 156 of the second three-dimensional image, respectively, and compares the Z-X plane comparison image. 157, Z—Y surface comparison image 158, X—Y surface comparison image 159 converge to a position where the green part is as much as possible.
[0045] リポジショニングにより第 1の三次元画像に第 2の三次元画像の位置を略一致させ ることがでさる。  [0045] The position of the second three-dimensional image can be made to substantially coincide with the first three-dimensional image by repositioning.
[0046] ここで、リポジショニング処理について説明する。 Here, the repositioning process will be described.
[0047] 図 9はリポジショニングの動作説明図を示す。図 9 (A)は第 1の三次元画像、図 9 (B )は第 2の三次元画像を示している。  FIG. 9 is a diagram for explaining the operation of repositioning. FIG. 9A shows a first three-dimensional image, and FIG. 9B shows a second three-dimensional image.
[0048] 本実施例において、第 1及び第 2の三次元画像は、図 9 (A)に示すように第 1の三 次元画像は X X Y X Z = 512ドット X 512ドット X 384ドットの領域 Al 1力ら構成されて おり、そのうち、 XXYX Z = 200ドット X 200ドット X 200ドットの領域 A12がリポジショ ユングに用いられる。また、図 9 (B)に示すように第 2の三次元画像は ΧΧΥΧ Ζ= 51 2ドット X 512ドット X 384ドットの領域 A21力ら構成されており、そのうち、 ΧΧΥΧ Ζ = 200ドット X 200ドット X 200ドットの領域 Α22がリポジショニングに用いられる。リポ ジショユングでは、領域 A12の Y、 X、 Ζ面及び領域 Α22の Y X 面を求め、対 応する各面の差を最大にする。なお、図 9において、 01、 02は撮像対象を示してい る。 In this embodiment, the first and second 3D images are as shown in FIG. 9A. The first 3D image is an area of XXYXZ = 512 dots × 512 dots × 384 dots Al 1 force. Among them, the area A12 of XXYX Z = 200 dots X 200 dots X 200 dots is used for repositioning. In addition, as shown in Fig. 9 (B), the second 3D image is composed of A 51 = 51 2 dots x 512 dots x 384 dots area A21 force, of which ΧΧΥΧ Ζ = 200 dots x 200 dots X 200 dot area Α22 is used for repositioning. Lipo In shifting, find the Y, X, and Y surfaces of area A12 and the YX surface of area Α22, and maximize the difference between the corresponding surfaces. In FIG. 9, 01 and 02 indicate imaging targets.
[0049] 図 10はリポジショニング処理における面リポジショニング処理フローチャートを示す 。ここでは、 Ζ面、 Z'面のリポジショニングについて説明する。なお、ここで、 Ζ面は第 1 の三次元画像に設定された領域 A12の X— Υ面、 Z'面は第 2の三次元画像に設定さ れた領域 Α22の X— Υ面を示す。また、 S (Z,)は、 Z面と 面との一致面積、 S (Z'-l) は Z方向に 1ドットずらした場合の Z面と 面との一致面積、 S (Z'+l)は +Z方向に 1ドットずらした場合の Z面と 面との一致面積を示している。  FIG. 10 shows a flowchart of the surface repositioning process in the repositioning process. Here, repositioning of the heel and Z 'planes is explained. Here, the saddle surface indicates the X-plane of the region A12 set in the first three-dimensional image, and the Z 'plane indicates the X-plane of the region Α22 set in the second three-dimensional image. . S (Z,) is the coincidence area between the Z plane and the plane, S (Z'-l) is the coincidence area between the Z plane and the plane when shifted by 1 dot in the Z direction, and S (Z '+ l ) Shows the coincidence area between the Z plane and the plane when shifted by 1 dot in the + Z direction.
[0050] CPU142は、ステップ S2— 1で S (Ζ'- 1)が最大か否かを判断する。 CPU142は、ス テツプ S2—1で S (Ζ'- 1)が最大であれば、ステップ S2— 2で Ζ' = (Ζ'— 1)として、ステ ップ S2— 1の処理に戻る。また、 CPU142は、ステップ S2— 1で S (Z,- 1)が最大でな い場合には、ステップ S2— 3で S (Z'+l)が最大か否かを判定する。  [0050] CPU 142 determines in step S2-1 whether S (Ζ'-1) is maximum. If S (Ζ'-1) is the maximum in step S2-1, CPU 142 sets Ζ '= (Ζ'-1) in step S2-2 and returns to the processing in step S2-1. On the other hand, when S (Z, -1) is not the maximum in step S2-1, the CPU 142 determines whether S (Z '+ l) is the maximum in step S2-3.
[0051] CPU142は、ステップ S2— 3で S (Z'+l)が最大であれば、ステップ S2—4で Z' = (Z ' + 1)として、ステップ S2— 1の処理に戻る。また、 CPU142は、ステップ S2— 3で S ( Z'+l)が最大でない場合には、 S (Z' )が最大であると判断できるため、そのときの Z方 向の位置を Z面の一致面とする。  If S (Z ′ + l) is the maximum in step S2—3, CPU 142 sets Z ′ = (Z ′ + 1) in step S2—4 and returns to the process of step S2-1. In addition, CPU 142 can determine that S (Z ') is the maximum when S (Z' + l) is not the maximum in step S2-3, so the position in the Z direction at that time is determined on the Z plane. Match surface.
[0052] 上記処理を Y— Z面に相当する X面及び、 X— Z面に相当する Y面についても行な うことによりリポジショニングが行なわれる。  [0052] Repositioning is performed by performing the above process on the X plane corresponding to the Y-Z plane and the Y plane corresponding to the X-Z plane.
[0053] また、リポジショニングにより原点の移動及び軸の変換も行なっている。  In addition, the origin is moved and the axis is converted by repositioning.
[0054] 軸の変換について説明する。  The axis conversion will be described.
[0055] 図 11はリポジショニング処理における軸リポジショニング処理フローチャートを示す  [0055] FIG. 11 shows a flowchart of the axis repositioning process in the repositioning process.
[0056] Z面の軸の角度が p,度のときの領域 A12と領域 A22の X— Y面、 X— Z面、 Y— Z面 の一致面積合計を S (p,)、軸の角度が(p, 一 1)度のときの領域 A12と領域 A22の X — Y面、 X— Z面、 Y— Z面の一致面積合計を S (p'-l)、軸の角度が(ρ' + 1)度のとき の領域 A12と領域 Α22の Χ—Υ面、 Χ—Ζ面、 Υ— Ζ面の一致面積合計を S (p'+l)とす る。 [0057] CPU142は、ステップ S3— 1で S (p'-l)が最大か否かを判断する。 CPU142は、ス テツプ S3— 1で S (ρ'- 1)が最大であれば、ステップ S3— 2で ρ' = (ρ'— 1)として、ステ ップ S3— 1の処理に戻る。また、 CPU142は、ステップ S3— 1で S (p,- 1)が最大でな い場合には、ステップ S3— 3で S (p'+l)が最大力否かを判定する。 [0056] The total area of the X—Y, X—Z, and Y—Z planes of region A12 and region A22 when the angle of the Z-plane axis is p and degrees is S (p,), and the axis angle Is the total coincidence area of the X — Y plane, X — Z plane, and Y — Z plane of region A12 and region A22 when is (p, 1 1) degrees, and the axis angle is (ρ Let S (p '+ l) be the total coincidence area of Χ-Χ surface, Χ-Ζ surface, and Υ- Ζ surface of region A12 and region Α22 at' + 1) degrees. The CPU 142 determines whether or not S (p′-l) is maximum in step S3-1. If S (ρ′−1) is the maximum in step S3-1, CPU 142 sets ρ ′ = (ρ′−1) in step S3-2 and returns to the processing in step S3-1. On the other hand, if S (p, -1) is not the maximum in step S3-1, the CPU 142 determines whether S (p '+ l) is the maximum force in step S3-3.
[0058] CPU142は、ステップ S3— 3で S (p'+l)が最大であれば、ステップ S3— 4で p' = (p ' + 1)として、ステップ S3— 1の処理に戻る。また、 CPU142は、ステップ S3— 3で S ( p'+l)が最大でない場合には、 S (p' )が最大であると判断できるため、そのときの軸の 角度を軸の一致角度とする。上記処理を Y— Z面に相当する X面に直交する軸 q及 び、 X—Z面に相当する Y面に直交する軸 rについても行なうことによりリポジショニン グが行なわれる。  If S (p ′ + l) is the maximum in step S3—3, CPU 142 sets p ′ = (p ′ + 1) in step S3—4 and returns to the process of step S3-1. Further, the CPU 142 can determine that S (p ′) is the maximum when S (p ′ + l) is not the maximum in step S3-3, and therefore the angle of the axis at that time is determined as the axis coincidence angle. To do. Repositioning is performed by performing the above processing on the axis q orthogonal to the X plane corresponding to the Y-Z plane and the axis r orthogonal to the Y plane corresponding to the X-Z plane.
[0059] 上記処理により、 S (Z')、 S (X')、 S (Y')、 S (p')、 S (q')、 S (r')のいずれもが最大と なる位置で領域 A12に対して領域 A22の位置が収束する。なお、いずれか一つでも 1ドット、あるいは、 1度ずらしたときに、面積が最大となる場合には、再度計算を行な うようにする。  [0059] By the above processing, S (Z '), S (X'), S (Y '), S (p'), S (q '), and S (r') are the maximum positions. The position of area A22 converges with respect to area A12. In addition, if any one area is the maximum when shifted by 1 dot or 1 degree, the calculation is performed again.
[0060] このとき、本実施例では、 Z—X面比較画像 157、 Z—Y面比較画像 158、 X—Y面 比較画像 159により、第 1の三次元画像と第 2の三次元画像との位置関係が直感的 に認識しやすくなつている。このため、 Z— X面比較画像 157、 Z— Y面比較画像 158 、 X—Y面比較画像 159を参照しながら、手動で第 1の三次元画像力も切り出された Z— X面画像 151、 Z— Y面画像 152、 X—Y面画像 153又は第 2の三次元画像の Z —X面画像 154、 Z— Y面画像 155、 X—Y面画像 156の位置を各々調整し、大まか な位置合わせを行なうことができる。これによつて、リポジショニングの処理が容易、か つ、正確に行なえる。  [0060] At this time, in this embodiment, the first three-dimensional image and the second three-dimensional image are obtained by the Z-X plane comparison image 157, the Z-Y plane comparison image 158, and the XY plane comparison image 159. The positional relationship between the two is intuitively easy to recognize. Therefore, while referring to the Z-X plane comparison image 157, the Z-Y plane comparison image 158, and the X-Y plane comparison image 159, the Z-X plane image 151, in which the first three-dimensional image force was manually cut out, Adjust the position of the Z—Y plane image 152, the X—Y plane image 153, or the Z—X plane image 154, the Z—Y plane image 155, and the X—Y plane image 156 of the second three-dimensional image. Alignment can be performed. This makes the repositioning process easy and accurate.
[0061] さらに、予め手動で、第 1の三次元画像力も切り出された X—Y面画像 153と第 2の 三次元画像力も切り出された X—Y面画像 156の位置を観察したい位置が中心とな るように調整しておくこともできる。これによつて、観察したい画像を認識がしゃすい画 像を得ることができる。  [0061] Furthermore, the position at which it is desired to manually observe the positions of the X-Y plane image 153 from which the first three-dimensional image force has been cut out and the X-Y plane image 156 from which the second three-dimensional image force has also been cut out is manually centered It can also be adjusted so that As a result, it is possible to obtain an image in which the image to be observed is recognized.
[0062] なお、 CPU142は、ステップ S1— 9で終了操作が行なわれると、処理を終了する。  [0062] CPU 142 ends the process when the end operation is performed in step S1-9.
[0063] 本実施例によれば、第 1の三次元画像カゝら切り出された Z—X面画像 151、 Z— Y面 画像 152、 X—Y面画像 153又は第 2の三次元画像の Z—X面画像 154、 Z— Y面画 像 155、 X— Y面画像 156の二次元画像力も Z—X面比較画像 157、 Z—Y面比較画 像 158、 X— Y面比較画像 159、並びに、 Z— X面比較画像 157のグレースケール画 像 160、 Z—Y面比較画像 158のグレースケール画像 161、 X—Y面比較画像 159 のグレースケール画像 162を生成し、表示するため、画像処理装置 112での処理を 簡略化できる。 [0063] According to the present embodiment, the Z-X plane image 151, Z-Y plane cut out from the first three-dimensional image The two-dimensional image power of image 152, X—Y plane image 153, or Z—X plane image 154 of the second three-dimensional image, Z—Y plane image 155, and X—Y plane image 156 is also the Z—X plane comparison image 157. Z-Y comparison image 158, X-Y comparison image 159, Z-X comparison image 157 grayscale image 160, Z-Y comparison image 158 grayscale image 161, X-Y Since the grayscale image 162 of the surface comparison image 159 is generated and displayed, the processing in the image processing device 112 can be simplified.
[0064] また、本実施例によれば、同一の撮像対象を傷つけることなく観察できるため、長 期間にわたって、同一個体の内部構造の観察を行なうことができる。これによつて、 個体差のない観察を行なえる。また、観察に必要な個体の数を削減できる。さらに、 これによつて、実験のスピード及び費用を削減できる。  [0064] Further, according to the present embodiment, since the same imaging target can be observed without damaging, the internal structure of the same individual can be observed over a long period of time. This allows observations without individual differences. In addition, the number of individuals required for observation can be reduced. In addition, this can reduce the speed and cost of the experiment.
[0065] なお、本発明は上記実施例に限定されるものではなぐ本発明の要旨を逸脱しない 範囲で種々の変形例が可能であることは言うまでもな!/、。  [0065] Needless to say, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention!
[0066] また、本国際出願は、 2005年 6月 16日に出願した日本国特許出願 2005— 1766 00号に基づく優先権を主張するものであり、 2005— 176600号の全内容を本国際 出願に援用する。  [0066] In addition, this international application claims priority based on Japanese Patent Application 2005-176600 filed on June 16, 2005. The entire contents of 2005-176600 are claimed in this international application. Incorporated into.

Claims

請求の範囲 The scope of the claims
[1] 第 1の三次元画像データから切り出された二次元画像、及び、第 2の三次元画像デ ータから切り出された二次元画像、並びに、前記第 1の三次元画像データから切り出 された二次元画像と前記第 2の三次元画像データから切り出された二次元画像とを 重ね合わせた比較画像とを表示し、  [1] A two-dimensional image cut out from the first three-dimensional image data, a two-dimensional image cut out from the second three-dimensional image data, and a cut-out from the first three-dimensional image data And a comparison image obtained by superimposing the two-dimensional image cut out from the second three-dimensional image data,
表示された前記第 1の三次元画像データから切り出された二次元画像、及び、前 記第 2の三次元画像データから切り出された二次元画像、並びに、前記比較画像に 基づいて前記第 1の三次元画像データと前記第 2の三次元画像データとが略一致す るように前記第 1の三次元画像データと前記第 2の三次元画像データとの関係位置 を設定することを特徴とする画像処理方法。  The two-dimensional image cut out from the displayed first three-dimensional image data, the two-dimensional image cut out from the second three-dimensional image data, and the first image based on the comparison image A relational position between the first 3D image data and the second 3D image data is set so that the 3D image data and the second 3D image data substantially match. Image processing method.
[2] 前記比較画像は、前記第 1の三次元画像から切り出された二次元画像と前記第 2の 三次元画像から切り出された二次元画像とで互 ヽに一致する部分及び互!ヽに相違 する部分が区別できるように表示されることを特徴とする請求項 1記載の画像処理方 法。  [2] The comparison image includes a portion in which the two-dimensional image cut out from the first three-dimensional image and the two-dimensional image cut out from the second three-dimensional image match each other and each other! 2. The image processing method according to claim 1, wherein different parts are displayed so as to be distinguishable.
[3] 前記比較画像は、前記第 1の三次元画像から切り出された二次元画像と前記第 2の 三次元画像から切り出された二次元画像とで互 ヽに一致する部分と互!ヽに相違する 部分とで色が異なるように表示されることを特徴とする請求項 2記載の画像処理方法  [3] The comparison image is the same as the two-dimensional image extracted from the first three-dimensional image and the two-dimensional image extracted from the second three-dimensional image. 3. The image processing method according to claim 2, wherein the image is displayed so that the color is different from that of the portion different from the eyelid.
[4] 前記第 2の三次元画像から切り出された二次元画像及び前記第 1の三次元画像から 切り出された二次元画像をニ値ィ匕した画像の値が一致する部分が多くなるように前 記第 1の三次元画像と前記第 2の三次元元画像との位置を収束させることを特徴とす る請求項 1記載の画像処理方法。 [4] The two-dimensional image cut out from the second three-dimensional image and the two-dimensional image cut out from the first three-dimensional image so that there are many portions where the values of the two values coincide with each other. The image processing method according to claim 1, wherein the positions of the first three-dimensional image and the second three-dimensional original image are converged.
[5] 第 1の三次元画像データから切り出された二次元画像、及び、第 2の三次元画像デ ータから切り出された二次元画像を表示する画像処理装置であって、  [5] An image processing apparatus for displaying a two-dimensional image cut out from the first three-dimensional image data and a two-dimensional image cut out from the second three-dimensional image data,
前記二次元画像のリポジショニングを指示する入力部と、  An input unit for instructing repositioning of the two-dimensional image;
前記第 1の三次元画像データから切り出された二次元画像、及び、前記第 2の三次 元画像データから切り出された二次元画像、並びに、前記第 1の三次元画像データ から切り出された二次元画像と前記第 2の三次元画像データから切り出された二次 元画像とを重ね合わせた比較画像とを表示し、前記入力部の指示に応じて前記比 較画像に基づいて前記第 1の三次元画像データと前記第 2の三次元画像データとが 略一致するように前記第 1の三次元画像データと前記第 2の三次元画像データとの 関係位置を設定する処理部を有することを特徴とする画像処理装置。 2D image cut out from the first 3D image data, 2D image cut out from the second 3D image data, and 2D cut out from the first 3D image data Secondary extracted from the image and the second 3D image data A comparison image obtained by superimposing the original image is displayed, and the first three-dimensional image data and the second three-dimensional image data substantially match based on the comparison image in accordance with an instruction from the input unit. An image processing apparatus comprising a processing unit that sets a relative position between the first three-dimensional image data and the second three-dimensional image data.
[6] 前記処理部は、前記比較画像を、前記第 1の三次元画像から切り出された二次元画 像と前記第 2の三次元画像から切り出された二次元画像とで互いに一致する部分及 び互 、に相違する部分が区別できるように表示することを特徴とする請求項 5記載の 画像処理装置。 [6] The processing unit may be configured to match the comparison image between a two-dimensional image cut out from the first three-dimensional image and a two-dimensional image cut out from the second three-dimensional image. 6. The image processing apparatus according to claim 5, wherein different parts are displayed so as to be distinguished from each other.
[7] 前記処理部は、前記比較画像を、前記第 1の三次元画像から切り出された二次元画 像と前記第 2の三次元画像から切り出された二次元画像とで互いに一致する部分と 互 ヽに相違する部分とで色が異なるように表示することを特徴とする請求項 6記載の 画像処理装置。  [7] The processing unit may be configured such that the comparison image includes a portion where a two-dimensional image cut out from the first three-dimensional image and a two-dimensional image cut out from the second three-dimensional image coincide with each other. 7. The image processing apparatus according to claim 6, wherein the display is performed so that the colors are different from each other in different parts.
[8] 前記処理部は、前記入力部のリポジショニング指示により、前記第 2の三次元画像か ら切り出された二次元画像及び前記第 1の三次元画像から切り出された二次元画像 をニ値ィ匕した画像の値が一致する部分が多くなるように前記第 1の三次元画像と前 記第 2の三次元元画像との位置を収束させることを特徴とする請求項 5の記載の画像 処理装置。  [8] The processing unit binarizes a two-dimensional image cut out from the second three-dimensional image and a two-dimensional image cut out from the first three-dimensional image according to a repositioning instruction from the input unit. 6. The image according to claim 5, wherein the positions of the first three-dimensional image and the second three-dimensional original image are converged so that there are more portions where the values of the matched images match. Processing equipment.
[9] コンピュータに、  [9] On the computer,
第 1の三次元画像データから切り出された二次元画像、及び、第 2の三次元画像デ ータから切り出された二次元画像、並びに、前記第 1の三次元画像データから切り出 された二次元画像と前記第 2の三次元画像データから切り出された二次元画像とを 重ね合わせた比較画像とを表示装置に表示させ、  A two-dimensional image cut out from the first three-dimensional image data, a two-dimensional image cut out from the second three-dimensional image data, and two pieces cut out from the first three-dimensional image data Display a comparison image obtained by superimposing a two-dimensional image and a two-dimensional image cut out from the second three-dimensional image data,
前記表示装置に表示させた前記第 1の三次元画像データから切り出された二次元 画像、及び、前記第 2の三次元画像データから切り出された二次元画像、並びに、前 記比較画像に基づいて前記第 1の三次元画像データと前記第 2の三次元画像デー タとが略一致するように前記第 1の三次元画像データと前記第 2の三次元画像デー タとの関係位置を設定させることを特徴とするコンピュータに読み取り可能な画像処 理プログラム。 Based on the two-dimensional image cut out from the first three-dimensional image data displayed on the display device, the two-dimensional image cut out from the second three-dimensional image data, and the comparison image A relational position between the first 3D image data and the second 3D image data is set so that the first 3D image data and the second 3D image data substantially coincide with each other. An image processing program readable by a computer.
[10] 前記比較画像を、前記第 1の三次元画像から切り出された二次元画像と前記第 2の 三次元画像から切り出された二次元画像とで互 ヽに一致する部分及び互!ヽに相違 する部分が区別できるように表示させることを特徴とする請求項 9記載のコンピュータ に読み取り可能な画像処理プログラム。 [10] The comparison image is a portion in which the two-dimensional image cut out from the first three-dimensional image and the two-dimensional image cut out from the second three-dimensional image match each other! 10. The computer-readable image processing program according to claim 9, wherein different parts are displayed so as to be distinguishable.
[11] 前記比較画像を、前記第 1の三次元画像から切り出された二次元画像と前記第 2の 三次元画像から切り出された二次元画像とで互 ヽに一致する部分と互!ヽに相違する 部分とで色が異なるように表示されることを特徴とする請求項 10記載のコンピュータ に読み取り可能な画像処理プログラム。  [11] The comparison image is the same as a portion where the two-dimensional image cut out from the first three-dimensional image and the two-dimensional image cut out from the second three-dimensional image match each other! 11. The computer readable image processing program according to claim 10, wherein the image processing program is displayed so that a color is different from that of a portion different from the eyelid.
[12] 前記第 2の三次元画像から切り出された二次元画像及び前記第 1の三次元画像から 切り出された二次元画像をニ値ィ匕した画像の値が一致する部分が多くなるように前 記第 1の三次元画像と前記第 2の三次元元画像との位置を収束させることを特徴とす る請求項 9記載のコンピュータに読み取り可能な画像処理プログラム。  [12] The two-dimensional image cut out from the second three-dimensional image and the two-dimensional image cut out from the first three-dimensional image have more portions where the values of the two values coincide with each other. 10. The computer-readable image processing program according to claim 9, wherein the positions of the first three-dimensional image and the second three-dimensional original image are converged.
PCT/JP2006/312066 2005-06-16 2006-06-15 Image processing method, image processing device, and image processing program WO2006135024A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-176600 2005-06-16
JP2005176600A JP4710030B2 (en) 2005-06-16 2005-06-16 Image processing method, image processing apparatus, and image processing program

Publications (1)

Publication Number Publication Date
WO2006135024A1 true WO2006135024A1 (en) 2006-12-21

Family

ID=37532378

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/312066 WO2006135024A1 (en) 2005-06-16 2006-06-15 Image processing method, image processing device, and image processing program

Country Status (2)

Country Link
JP (1) JP4710030B2 (en)
WO (1) WO2006135024A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854430B2 (en) 2008-05-23 2014-10-07 Fei Company Image data processing
CN111093505A (en) * 2017-10-10 2020-05-01 株式会社日立制作所 Radiographic apparatus, image processing method, and image processing program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5835680B2 (en) * 2007-11-05 2015-12-24 株式会社東芝 Image alignment device
TWI536186B (en) 2013-12-12 2016-06-01 三緯國際立體列印科技股份有限公司 Three-dimension image file serching method and three-dimension image file serching system
KR102185726B1 (en) 2014-01-28 2020-12-02 삼성메디슨 주식회사 Method and ultrasound apparatus for displaying a ultrasound image corresponding to a region of interest

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311834A (en) * 1994-05-19 1995-11-28 Toshiba Medical Eng Co Ltd Image processor and its aid
JPH10137231A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1057370A (en) * 1996-08-21 1998-03-03 Shimadzu Corp Three-dimensional image display apparatus for medical use
JP3095357B2 (en) * 1996-11-06 2000-10-03 アロカ株式会社 Ultrasound diagnostic equipment
JP4460180B2 (en) * 2001-02-28 2010-05-12 日本電信電話株式会社 Medical image interpretation support apparatus, medical image interpretation support processing program, and recording medium for the program
JP2003245289A (en) * 2002-02-22 2003-09-02 Univ Nihon Dental implant operation support apparatus
JP2004248960A (en) * 2003-02-21 2004-09-09 Hitachi Medical Corp Medical image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311834A (en) * 1994-05-19 1995-11-28 Toshiba Medical Eng Co Ltd Image processor and its aid
JPH10137231A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854430B2 (en) 2008-05-23 2014-10-07 Fei Company Image data processing
US10043274B2 (en) 2008-05-23 2018-08-07 Fei Company Image data processing
CN111093505A (en) * 2017-10-10 2020-05-01 株式会社日立制作所 Radiographic apparatus, image processing method, and image processing program
CN111093505B (en) * 2017-10-10 2023-06-27 富士胶片医疗健康株式会社 Radiographic apparatus and image processing method

Also Published As

Publication number Publication date
JP2006350724A (en) 2006-12-28
JP4710030B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
US11801035B2 (en) Systems and methods for remote graphical feedback of ultrasound scanning technique
US20220338049A1 (en) Indication of the couple pair of remote controls with remote devices functions
US20220241013A1 (en) Quantitative three-dimensional visualization of instruments in a field of view
JP5245938B2 (en) 3D recognition result display method and 3D visual sensor
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
KR101795720B1 (en) Control method of surgical robot system, recording medium thereof, and surgical robot system
JP2009056125A (en) Ultrasonic image diagnostic system and its control method
WO2006135024A1 (en) Image processing method, image processing device, and image processing program
CN110087555B (en) Ultrasonic equipment and display transformation method and system of three-dimensional ultrasonic image thereof
US20220104807A1 (en) Shared situational awareness of the device actuator activity to prioritize certain aspects of displayed information
EP4042437A1 (en) Monitoring of user visual gaze to control which display system displays the primary information
JP2010210585A (en) Model display method in three-dimensional visual sensor, and three-dimensional visual sensor
WO2010078018A2 (en) Efficient 3-d telestration for local and remote robotic proctoring
JP4834424B2 (en) Information processing apparatus, information processing method, and program
WO2022070076A1 (en) Reconfiguration of display sharing
JP2023546806A (en) Control of sterile field displays from sterile field devices
EP4042442A1 (en) Situational awareness of instruments location and individualization of users to control displays
CN109875685B (en) Bone surgery navigation system
CN106456112A (en) Imaging systems and methods for positioning a 3d ultrasound volume in a desired orientation
US9595095B2 (en) Robot system
US20220117662A1 (en) Systems and methods for facilitating insertion of a surgical instrument into a surgical space
JP2013017870A (en) Ultrasonic image diagnostic system and control method thereof
US20230410499A1 (en) Visibility metrics in multi-view medical activity recognition systems and methods
CN117795552A (en) Method and apparatus for vision-based tool positioning
WO2020247451A1 (en) Operation profile systems and methods for a computer-assisted surgical system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06766784

Country of ref document: EP

Kind code of ref document: A1