WO2002034138A1 - Dispositif et procede de traitement d'images - Google Patents

Dispositif et procede de traitement d'images Download PDF

Info

Publication number
WO2002034138A1
WO2002034138A1 PCT/JP2001/009341 JP0109341W WO0234138A1 WO 2002034138 A1 WO2002034138 A1 WO 2002034138A1 JP 0109341 W JP0109341 W JP 0109341W WO 0234138 A1 WO0234138 A1 WO 0234138A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
dimensional images
images
dimensional
Prior art date
Application number
PCT/JP2001/009341
Other languages
English (en)
French (fr)
Inventor
Satoru Ohishi
Original Assignee
Kabushiki Kaisha Toshiba
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Toshiba filed Critical Kabushiki Kaisha Toshiba
Priority to EP01978888A priority Critical patent/EP1336376B1/en
Priority to KR1020037005631A priority patent/KR100723737B1/ko
Priority to DE60135143T priority patent/DE60135143D1/de
Publication of WO2002034138A1 publication Critical patent/WO2002034138A1/ja
Priority to US10/421,926 priority patent/US6990229B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present invention performs image processing on medical images obtained by medical image diagnostic apparatuses such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, a magnetic resonance imaging (MRI) apparatus, and a nuclear medicine diagnostic apparatus in the medical field.
  • medical image diagnostic apparatuses such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, a magnetic resonance imaging (MRI) apparatus, and a nuclear medicine diagnostic apparatus in the medical field.
  • the present invention relates to an image processing device for displaying and an image processing method.
  • two different images may be simultaneously displayed and compared for observation.
  • the images can be easily compared by setting the same observation angle, magnification, and the like.
  • FIG. 6 is a diagram for explaining an operation in a case where two different three-dimensional images are simultaneously displayed in a conventional image processing apparatus and a comparative observation is performed.
  • Fig. 6 when observing a plurality (in this case, two) of three-dimensional images displayed on the image monitor 18, the observation angle between the images and the enlargement are required to facilitate comparative observation.
  • large-scale, display image processing, etc. are set to the same conditions. ( Many operations for setting these conditions to the same are performed by the user's manual operation in the conventional image processing device. It has been.
  • comparative reading is a useful diagnostic / diagnostic method in clinical medicine is widely recognized in comparative reading of two-dimensional images such as tomographic images such as X-rays and CT and MRI. From this fact, it is easy to imagine that comparative reading of 3D images is useful.
  • the advent of an image processing device capable of comparing and observing three-dimensional images with simple operations has been desired in the past.
  • the present invention provides a method for simultaneously displaying a plurality of three-dimensional images for comparative observation
  • a user friendly display that can automatically or automatically display the observation angles between images according to conditions, and can also display necessary diagnostic information at the same time. It is intended to provide a simple image processing apparatus and an image processing method.
  • the present invention employs the following means to achieve the above object.
  • a first viewpoint of the present invention is that an observation angle is unified with an image processing unit that performs image processing that matches observation angles of a plurality of three-dimensional images. And a display device for displaying the plurality of three-dimensional images simultaneously. .
  • an image processing unit for performing image processing for unifying magnifications of a plurality of three-dimensional images, and a display device for simultaneously displaying the plurality of three-dimensional images having a unified magnification. It is an image processing device provided.
  • a third viewpoint of the present invention is an image comprising: an image processing unit for performing image processing on a plurality of three-dimensional images under the same conditions; and a display device for simultaneously displaying the plurality of three-dimensional images. It is a processing device.
  • an image processing unit that performs at least one image processing of unifying observation angles, magnifications, and image processing of a plurality of three-dimensional images
  • An image processing apparatus comprising: an image synthesis unit that generates a synthesized image obtained by synthesizing the plurality of three-dimensional images to which the processing is applied; and a display device that displays the synthesized image.
  • a fifth viewpoint of the present invention is to generate a plurality of volume data by performing an image reconstruction process using a spatial filter under the same condition on each projection image group corresponding to each of a plurality of three-dimensional images.
  • An image processing unit comprising: an image reconstruction unit to generate, an image processing unit to generate a plurality of three-dimensional images from each of the plurality of pieces of data, and a display device that simultaneously displays the plurality of three-dimensional images.
  • image processing for unifying at least one of the observation angles, magnifications, and image processing of a plurality of three-dimensional images.
  • An image processing unit to be performed a database for storing diagnostic information on past diagnoses, and a diagnostic information management unit for reading diagnostic information related to at least one of the plurality of three-dimensional images from the database.
  • a display device for simultaneously displaying the plurality of three-dimensional images after image processing and the read diagnostic information.
  • a seventh aspect of the present invention is a display device that displays a three-dimensional image or diagnostic information, a database that stores diagnostic information or a three-dimensional image related to past diagnosis, the displayed three-dimensional image or the diagnostic information, A control device for determining whether there is a difference between the diagnostic information or the three-dimensional image related to the past diagnosis stored in the database, and when the control device determines that there is a difference,
  • the display device is an image processing device that reads the information or image indicating that there is a difference or information or an image that has a difference from the database and displays the read information or image.
  • An eighth viewpoint of the present invention displays a plurality of three-dimensional images, and displays the desired one image based on a viewing direction change instruction input for a desired one of the plurality of three-dimensional images. Performing image processing of changing the observation angle of the plurality of three-dimensional images and the observation angle of the remaining images of the plurality of three-dimensional images so as to match the conditions, and simultaneously displaying the plurality of three-dimensional images after the change of the observation angle. It is an image processing method to be provided.
  • a plurality of three-dimensional images are displayed, and the desired one of the plurality of three-dimensional images is changed based on a magnification change instruction input for a desired one of the plurality of three-dimensional images.
  • magnification of Performing image processing for changing the enlargement ratios of the remaining images of the plurality of three-dimensional images so as to match the conditions, and simultaneously displaying the plurality of three-dimensional images after the change of the enlargement ratios.
  • an image input device for displaying a plurality of three-dimensional images and inputting a desired one of the plurality of three-dimensional images.
  • Image processing of the one image and image processing of the remaining images of the plurality of three-dimensional images are executed under condition matching, and the plurality of three-dimensional images after the image processing are simultaneously displayed.
  • an image processing method including the following.
  • FIG. 1 is a schematic diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram for explaining the configuration of the image processing device according to the embodiment of the present invention.
  • FIG. 3 is a flowchart showing an example of a procedure of a condition matching process for conditionally matching an image A and an image B which are simultaneously displayed.
  • FIG. 4 shows a flowchart of an image processing apparatus according to an embodiment of the present invention. An example of such a screen display is shown below.
  • FIG. 5 is a flowchart showing another example of the procedure of the condition matching process for conditionally matching the image A and the image B displayed simultaneously.
  • FIG. 6 shows an example of a screen display by a conventional image processing apparatus.
  • FIG. 1 is a schematic diagram of a diagnostic system including an image processing device according to a first embodiment of the present invention.
  • the diagnostic system includes an image diagnostic device such as a first image processing device 2, a second image processing device 3, a CT device 4, an MRI device 5, an ultrasonic device 6, an X-ray device 7, or a nuclear medicine device, and an image database. 1 is provided.
  • Each device is connected by a network 8 so that data can be exchanged.
  • a three-dimensional image obtained by three-dimensionally imaging the internal structure of the patient is reconstructed, and the generated image is stored in the image database 1.
  • the image database 1 stores not only three-dimensional images but also patient / photographing information attached to the images, information indicating the orientation of the images, and the like.
  • a diagnostic system having two image processing apparatuses as shown in FIG. 1 is taken as an example.
  • the number of image processing devices provided in the system is not limited.
  • the first image processing apparatus 2 or the second image processing apparatus first Remind as in c Figure 2 is a schematic diagram for explaining the internal structure of the 3 or the second shown in Fig. 1
  • Image processing devices include a CPU 14, an input device 13, an image memory 9, a three-dimensional image processing unit 10, a three-dimensional image processing unit 11, and a LUT (Look Up Table) 1. 2, a display unit (monitor) 15, and a signal node 16.
  • the function of each component is, for example, as follows (
  • the CPU 14 controls the processing of the entire image processing apparatus.
  • the input device 13 sends the instruction information from the operator to the device. It is a device for inputting.
  • the input device 13 is provided with, for example, buttons, a keyboard, a dash ball, and a joystick for setting various display conditions. In an image condition matching process to be described later, a display angle changing operation or the like is instructed by the input device 13 for at least one of a plurality of images simultaneously displayed.
  • the image memory 9 stores three-dimensional image data, projection image data before reconstruction, and the like.
  • the three-dimensional affinity processing unit 10 is a conversion unit that performs parallel movement, enlargement, reduction, rotation, and the like (ie, affinity conversion) on the display image.
  • the three-dimensional image processing unit 11 performs a three-dimensional image processing such as a volume rendering processing ′ and a surface rendering processing to configure a three-dimensional display image.
  • LUT (LookUpTable) 12 converts the gradation of the three-dimensional display image based on a conversion correspondence table between input values and output values in advance.
  • the display unit 15 is a monitor that displays a three-dimensional display image.
  • the display unit 15 has a plurality of display areas, and can display a plurality of three-dimensional display images at a time.
  • the structure may be a multi-window display, or may be composed of a plurality of monitors.
  • the signal bus 16 performs signal transmission between components and data transmission / reception.
  • the diagnostic database 22 stores the diagnostic images obtained from the image database 1 or various diagnostic devices via the network 8. (2D or 3D images), patient data, examination data, etc. are linked and saved. The information stored in the diagnostic database 22 can be searched for by items such as “site”, “disease name”, and “comment (history leading to diagnosis)”.
  • the diagnostic database 22 has a dictionary function that automatically manages data for each “region” and “disease name”.
  • the image reconstruction unit 23 performs an image reconstruction process based on the projected image data stored in the memory 9.
  • the processes executed by the three-dimensional affect process 10 and the three-dimensional image process 11 may be configured to be executed by the CPU 14.
  • condition matching display processing executed by the first image processing device 2 or the second image processing device 3 will be described.
  • FIG. 3 is a flowchart showing a procedure of a condition matching process for condition-matching the image A and the image B simultaneously displayed. The following describes an example in which the display angles of the image A and the image B are matched.
  • the three-dimensional images A and B registered in the image database 1 are simultaneously displayed on the image processing device (step S1).
  • the three-dimensional images A and B may be images taken with the same modality or images taken with different modalities. Usually, at this stage, the displayed images are different from each other unless the displayed images are usually intentionally matched.
  • Step S2 the condition matching switch is turned on by the operator.
  • the rotation conversion affine conversion
  • Step S3 This rotation is not merely for matching the amount of change from the initial display angle, but is based on various information, taking into account the orientation of the image. It is performed so that it is observed from the same angle.
  • image orientation information the information for matching the anatomical observation angles of the image B and the image A is referred to as “image orientation information.”.
  • the image orientation information of the CT device 4 includes a patient insertion direction, an image observation direction, a patient orientation, and the like.
  • the patient entry direction is image orientation information that indicates whether the patient is to be inserted into the CT apparatus 4 from the head or from the feet.
  • This patient insertion direction determines the arrangement order of the reconstructed three-dimensional image, and Top First (TF: images are constructed in order from the parietal direction) ZFotFirst (FF: images are constructed in order from the foot and tail direction).
  • TF images are constructed in order from the parietal direction
  • ZFotFirst ZFotFirst
  • the image viewing direction indicates the direction in which the image is viewed, and is expressed as Viewfrom Top (VFT: head-top force, viewed image) ZV iewfrom Foot (VFF: image viewed from the foot and tail direction) Is done.
  • VFT head-top force, viewed image
  • VFF image viewed from the foot and tail direction
  • the patient position is, for example, image orientation information indicating whether the patient was facing up, down, left, or right at the time of imaging.
  • image A and image B Is Both are the initial display angles, and ⁇ ) image orientation information of image A is VFT, TF, upward, ⁇ ) image ⁇ image orientation information is VFF, FF, upward Assume a match.
  • step S3 by performing an Ain transform for inverting the image B up and down, the observation angles of the image A and the image B can be matched.
  • the principle is the same even in the case of the MRI apparatus.
  • the MR 1 apparatus can set the tomographic plane freely for the patient, it is preferable to use more detailed image orientation information.
  • step S3 The image A and the image B whose observation angles have been matched in step S3 are displayed on the display unit 15 under conditions that match each other (step S4).
  • the displacement correction has the following function.
  • the misalignment between images can be corrected by the following two functions as necessary.
  • One function is to identify at least two anatomically corresponding points, for example, three points, on both images A and B, and to correct them to correct the gap between the images. For example, the identified point on image A (a A, b A. CA) and (a B , b B , c B ) on the image B. A A and a B, b A and b B, and, respectively Re c A and c B pixel in that coincide anatomically to is found.
  • Ni straight line a A b A and a B b B when the call Let 's become the same direction skills, and Ri by the and the child that is a A c A and a B c B is calculated to jar'll become the same direction In addition, it is possible to correct a deviation between images.
  • the other is a function to correct the deviation between images by manual operation of the operator.
  • the rotation process is performed on only one image.
  • the specific processing operation is the same as the content of step S3.
  • step S5 If it is determined in step S5 that there is a shift correction instruction, the shift is corrected by at least one of the above two types of correction (step S6), and the conditions of the image A and the image B again match. It is displayed (step S7).
  • step S6 the shift is corrected by at least one of the above two types of correction
  • step S7 the condition match be displayed automatically when the SHIFT key is released.
  • step S6 When the deviation is corrected in step S6, the amount of change from the first condition matching state is stored as an error, and the subsequent condition matching display is executed after correcting the error.
  • step S5 if it is determined in step S5 that there is no instruction for deviation correction, the image A and the image B are displayed as they are under conditions that match (step S7). ⁇
  • FIG. 4 shows an example of a three-dimensional image processed by the image processing device according to the first embodiment and displayed on the display device 15.
  • the three-dimensional images A and B of the observation target site are conditionally displayed.
  • the other three-dimensional image display will be changed to match the conditions. In this way, multiple 3D images can always be compared under the same conditions.
  • condition match switch By setting the condition match switch to OFF at an arbitrary timing, the condition match display process ends, and the condition match state is released (step S8).
  • the present image processing apparatus and the image processing apparatuses according to the respective embodiments described later can also perform, for example, the following operations.
  • the present invention is not limited to the number of images, and for example, three or more images can be displayed.
  • the image processing device, the inspection device, and the image database 1 are all described as separate devices, but the present invention is not limited to the configuration, and the configuration of these devices is not limited. It is feasible even if two or all are configured in one device.
  • image condition matching centered on image orientation information was performed. But for example three
  • appropriate image orientation information cannot be adopted, such as when the two-dimensional images A and B are captured by different modalities, at least three corresponding points are selected in each image, and based on the corresponding points.
  • the condition may be matched.
  • a second embodiment of the present invention will be described with reference to FIG.
  • the enlargement ratio condition matching processing will be described in more detail.
  • the description of the same configuration as that of the first embodiment is omitted.
  • three-dimensional images A and B registered in the image database 1 are three-dimensionally displayed on the image processing device (step S1).
  • the images A and B may be images taken with the same modality or images taken with different modalities. Normally, each display image has a different display angle and enlargement ratio unless intentionally matched.
  • step S2 the condition matching switch is turned ON by the operator.
  • the affinity conversion is performed so that the three-dimensional images A and B have the same observation angle and the same magnification (step S3), and the automatic conversion is performed.
  • the condition is consistently displayed (step S4). Therefore, the operator can easily observe the condition-matching image without bothering them.
  • step S3 for matching the enlargement ratio conditions.
  • the conversion for matching the viewing angle condition is the same as in the first embodiment. Omit the explanation.
  • Enlarging the condition of the magnification refers to displaying the same length physically on the display device at the same length. For example, if the current image A is a controllable image, the display angle and magnification of image B are rotated to match the display angle of image A. This is simply the initial display angle and initial magnification. Instead of matching the amount of change from the original, the same physical length is displayed so that it can be observed anatomically from the same angle considering the orientation of the image-pixel pitch For example, in the case of a CT device, the pixel pitch on the tomographic plane is determined by various imaging conditions, that is, the imaging area and matrix size.
  • the pixel pitch in the body axis direction is determined by the moving width (the moving speed of the bed in the case of the helical scanning method) and the collimator width. Assume that the pixel pitch of the pixel A in the tomographic plane and the body axis direction are both 0.5 mm, and the pixel pitch of the image B in the tomographic plane and the body axis direction is 0.7 mm. In this case, even if the same part is photographed, image A is displayed at a magnification of 1.4 times that of image B in the initial state.
  • movement is only a relative change. In other words, if one image is moved 5 mm in the z-axis direction, the other image The image also moves 5 mm in the z-axis direction.
  • step S4 The image A and the image B, whose magnifications have been matched in step S3, are displayed on the display unit 15 under condition matching (step S4).
  • condition matching switch is ON
  • processing to be applied to one image for example, rotation, movement, enlargement / reduction, etc. is also applied to the other image. Is done.
  • step S5 it is determined whether or not an instruction to correct a deviation between the three-dimensional image A and the three-dimensional image B has been given (step S5).
  • an instruction to correct a deviation between the three-dimensional image A and the three-dimensional image B has been given (step S5).
  • the image processing apparatus has two types of functions for correcting such a deviation.
  • One is a function that identifies two anatomically identical points on both images A and B, and based on this, detects the gap between the images.
  • two of the points specified to identify the angle error, (a A , b A) on image A, (a B , b ⁇ ) on image B, or use an angle error such have as when it is determined in the above only two points images ⁇ of (a a, b a), on the image B (a B, b B) may be specified.
  • Straight line a A b A and a B b B is calculate the expansion rate in the jar by the same length of time of this.
  • the other is a method in which the function is manually operated.In the case of an operation while pressing a button to which a predetermined function is assigned, for example, an enlargement operation while pressing the SHIFT key on the keyboard, the processing is performed. This is done for only one image.
  • step S5 it is determined that there is a shift correction instruction, and in this case, the shift is corrected by at least one of the above two types of correction (step S6), and the image A and the image B are again set. And are matched with the condition (step S7).
  • step S6 it is determined that there is a shift correction instruction, and in this case, the shift is corrected by at least one of the above two types of correction (step S6), and the image A and the image B are again set. And are matched with the condition (step S7).
  • step S6 the misalignment is corrected by manual operation, it is desirable that the condition is automatically displayed when the SHIFT key is released.
  • step S6 When the deviation is corrected in step S6, the amount of change from the first condition matching state is stored as an error, and the subsequent condition matching display (step S7) corrects the error and corrects the error. Be executed.
  • step S5 determines whether there is no instruction for deviation correction. If it is determined in step S5 that there is no instruction for deviation correction, the image A and the image B are displayed as they are (step S7).
  • condition matching state is released by setting the condition matching switch to OFF (step S8).
  • condition matching processing operation of the image processing apparatus according to the second embodiment has been described above.
  • the amount of change is stored as an error from the first condition matching state, and thereafter, The condition match can be displayed after correcting the error. Also, without being limited to the number of images, it is possible to simultaneously process three or more images.
  • the present embodiment is an example in which image processing is performed under the same condition for each image to be displayed under condition matching.
  • the configuration of the image processing apparatus according to the third embodiment is substantially the same as the image processing apparatus described in the first embodiment.
  • the description of the parts overlapping with the first and second embodiments described above will be omitted.
  • step S1 similarly to the first embodiment, the A image and the B image are simultaneously displayed (step S1), and the condition matching switch is turned on (step S2).
  • step S2 In response to the ON operation in step S2, for example, assuming that the current image A is a controllable image, the display angle of image B and the image processing for display are performed based on the display angle and display image of image A. Rotation conversion etc. so as to match the image processing. This is not merely to match the initial display angle and the amount of change from the initial display image processing, but it is anatomically observed from the same angle considering the orientation of the image. It means to change to.
  • image processing is performed on at least one of the image A and the image B so that the display image processing of the image A and the image B is completely the same (step S3 ').
  • image processing is performed on at least one of the image A and the image B so that the display image processing of the image A and the image B is completely the same (step S3 ').
  • a threshold is set and the threshold is set.
  • the area that falls within the value range is set as the target area, and the target is displayed by performing a pseudo operation as if the target were illuminated from any direction and calculating the reflected light.
  • An image is calculated.
  • processing is performed so that the threshold, the position of the light source, the intensity, the target color, and the like at this time match.
  • a function for converting the number of pixels into an optical parameter such as a reflectance or a refractive index is defined.
  • the display image data is calculated by irradiating the light from above and calculating the reflected light.
  • the optical conversion function depending on the definition of the optical conversion function, the internal structure can be visualized, for example, so that the object appears to be blurred in the fog. Therefore, unlike the surface rendering method, the surface of the object can be clearly defined, and information hidden behind the surface can be imaged.
  • processing is performed so that the optical conversion function, the position and intensity of the light source, the color of the target, and the like match.
  • the A image and the B image are subjected to misalignment correction as needed (steps S5 and S6), and are displayed in a condition-matched manner (step S4, step S4).
  • Step S7 The condition match display is canceled by switch-off (step S8), and the condition match display process is completed.
  • an image processing apparatus according to a fourth embodiment will be described.
  • This embodiment is a modified example in which the same image processing is performed.
  • the image processing apparatus according to the fourth embodiment Is substantially the same as that of the image processing apparatus described in the first embodiment.
  • description of portions that are the same as in the above-described embodiments will be omitted.
  • the condition matching processing of each image processing apparatus according to the fourth embodiment will be described with reference to FIG.
  • step S1 the A image and the B image are simultaneously displayed (step S1), and the condition matching switch is turned on (step S2).
  • step S2 In response to the ON operation in step S2, for example, if the current image A is a controllable image, the display angle of image B and the image processing for display are changed to the display angle of image A and the display angle of image A. Rotation conversion etc. so as to match the image processing. This is not simply to match the initial display angle and the amount of change from the initial 'display image processing', but to observe the image at the same size from the same anatomical angle in consideration of the orientation of the image. Then, image processing is performed on at least one of the images A and B so that the display image processing of the images A and B is completely the same. (Step S3-1). For example, the image processing of image A and image B are made the same by correcting the optical conversion function of image B by pixel pitch as follows.
  • the pixel pitch of image B is m and the pixel pitch of image A is n, and the optical conversion function of image B is corrected by the following function.
  • x indicates the passing distance of the target.
  • step S3 When image processing is performed by the optical conversion function in step S3, the A image and the B image are subjected to misalignment correction as necessary (step S5), as in the first embodiment. , S 6), and the condition is displayed (step S 4, step S 7).
  • step S8 The condition match display is canceled by switch-off (step S8), and the condition match display process is completed.
  • the device according to the present embodiment can display the three-dimensional images A and B displayed simultaneously by synthesizing (fusion). This synthesis can be performed at any time.
  • the switches for instructing the combination are pressed to combine the three-dimensional images A and B.
  • a series of processings such as correcting the designated points in each image so as to coincide with each other, and then performing three-dimensional synthesis are performed.
  • the angle deviation, position deviation, and magnification ratio deviation information between images are saved in the first condition matching display, and when the composite switch is pressed, the display angle, position, and magnification ratio match.
  • the composition may be such that the composition is performed after such correction.
  • volume rendering method it is assumed that pixel values are converted into optical parameters such as reflectivity and refractive index, and light is applied to an object composed of these optical parameters and parameters. Then, the displayed image is calculated.
  • the synthesis described in the fifth embodiment is performed by matching alternate pixels every other pixel to one image.
  • the optical parameter menu chromatography data of the composite image may be calculated cormorants good follows.
  • f indicates an arbitrary function, and is used, for example, in the following two types.
  • the images may be processed as separate images and then synthesized on the display image.
  • the images are synthesized.
  • the distinction between the two can be clarified.
  • a range of pixel values is specified to determine a region included in the range, and the color of an overlapping portion of the regions and a color of a non-overlapping portion are changed. Good This makes it possible to clarify the distinction between the two at the region of interest.
  • the present image processing apparatus it is also possible to compositely display three or more images. For example, when combining three images A, B, and C, if the optical parameter of each image is ⁇ A'B. ⁇ C, then
  • the optical parameter ⁇ required by can be adopted.
  • an image processing apparatus capable of providing a three-dimensional image more useful for diagnosis by performing image reconstruction on a plurality of images to be displayed simultaneously under the same condition is described. .
  • a three-dimensional image is generated through acquisition processing of a plurality of projection images related to a plurality of cross sections, image reconstruction processing based on the plurality of projection images, image processing of the reconstructed image, and the like.
  • image reconstruction processing edge enhancement processing using a spatial filter is also performed.
  • This spatial filter is implemented by a convolution operation. Therefore, when simultaneously displaying and observing the three-dimensional images ⁇ and ⁇ separated by the timing of the reconstruction, a difference may appear between the two images based on the difference in the parameters of the spatial filter. is there.
  • the image processing apparatus can provide a three-dimensional image that can be easily compared by performing reconstruction processing under the same conditions.
  • the image reconstructing unit 23 performs image reconstruction on the projection image corresponding to the image B under the same conditions as the image A. After reconstructing this image, it is possible to display a plurality of three-dimensional images edge-enhanced under the same conditions by performing an affinity conversion again to match the display conditions. it can.
  • an image processing apparatus capable of providing effective medical information when performing a diagnosis using a three-dimensional image.
  • the first or second image processing apparatus 2 or 3 is a diagnostic image processing apparatus. (2D or 3D images), patient data, inspection data, etc. are linked and stored in the diagnostic database 22.
  • the following diagnosis can be performed with a three-dimensional image using the diagnostic database 22 constructed in this manner.
  • new diagnostic information such as a three-dimensional image and a test result is obtained in the diagnosis
  • past data in the diagnostic database 22 is searched based on the patient name, part, disease name, etc. relating to the diagnostic information. be able to.
  • the currently displayed image or diagnostic information is compared with information in the diagnostic database 22 by the CPU 14 as appropriate. If there is a difference in this comparison, the information in the database 22 is read out and displayed on the display unit 15. Specifically, it is used in the following situations.
  • diagnosis date”, “diagnosis person”, “case”, “site”, etc. are presented on the display unit 15 in a pop-up window. If you want to observe the details further, you can press the detail button in the window to check the details of the examination of the image, etc., and the results at that time (for example, how the diagnosis was made). Read from diagnostic database 22. Therefore, the operator can easily read out the past diagnostic information related to the three-dimensional image used during the diagnosis and can refer to it.
  • the operator when the operator inputs a comment different from the comment added to the past image of the same patient in the database 22 to the currently displayed 3D image.
  • the information is automatically displayed on the display unit 15 in a pop-up window II format or the like. If the operator wants to know more about the content of the difference, the operator can display the information in the database 22 by a predetermined operation.
  • CAD Computer Aided Diagnost
  • the CPU 14 discriminates the difference and suggests it to the operator on the display unit 15. The operator is assisted in the comparison work by this function, and can perform a high-quality diagnosis work more efficiently.
  • the image processing apparatus by turning on the condition matching switch, the observation angle, the enlargement ratio, and the image processing for display can be controlled by the imaging conditions unique to the imaging apparatus. Since the display can be performed in a condition-matching manner based on the display parameters, the comparison of the three-dimensional images is facilitated, and the change over time in the affected part and the effect of the treatment are confirmed.
  • condition matching switch By setting the condition matching switch to ON, it is possible to match the conditions of the observation angle based on the imaging angle information unique to the imaging device. '' In addition, the observation angle and the magnification can be matched based on the imaging information unique to the imaging device, and the observation angle, magnification, and display image processing can be adjusted based on the imaging conditions and display parameters unique to the imaging device They can be displayed consistently.
  • past diagnostic information related to the diagnostic image can be easily provided. As a result, workability can be improved and the quality of diagnosis can be improved.
  • the observation angles and the like between the images can be displayed automatically or by a simple operation in accordance with conditions, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

明 細 書
画像処理装置及び画像処理方法
技術分野
本発明は、 例えば、 医療分野における超音波診断装置、 X 線 C T装置、 磁気共鳴イ メ ージング ( M R I ) 装置、 核医学 診断装置等の医療用画像診断装置によって得られた医療画像 を画像処理し表示する画像処理装置、 及ぴ画像処理方法に関 する。
背景技術
従来において、 医用画像診断装置等にて撮影された患者の 医用画像を観察する場合、 種々 の形態にて画像処理 · 表示が 行える画像処理装置が利用 されている。 特に、 近年の画像処 理装置では、 二次元画像処理のみならず三次元画像処理によ り 、 あたかも人間が 目 で見る世界のよ う にある視点からの物 体の奥行きや光源によ る影等を計算 した疑似三次元空間を作 り 出 し、 画像表示する こ とができ る。
この様な画像処理装置を使用 した診断において、 例えば二 つの異なる画像を同時に表示し、 比較観察する場合がある。 この場合、 双方の観察角度及び拡大率等を同 じにする こ とで、 画像同士の比較を容易に行 う こ と ができ る。
図 6 は、 従来の画像処理装置において、 二つの異なる三次 元画像を同時に表示し、 比較観察する場合の操作について説 明するための図である。 図 6 に示すよ う に、 画像モニタ 1 8 に表示された複数 (今の場合、 二つ) の三次元画像を観察す る場合、 比較観察を容易にするため、 画像間の観察角度、 拡 大率、 表示用画像処理等を同一の条件に設定する こ とが多い ( こ の条件を同一に設定するための多く の操作は、 従来の画像 処理装置においては、 ユーザのマニュアル操作にて実行され ている。
しかしなが ら、 このマニュアルによる設定操作は時間と労 力、 さ らに熟練を要する ものであ り 、 一般ユーザにと って使 い勝手のよいものではない。 このこ と は、 三次元画像の比較 読影を広める こ と の一つの障害と なっている。
一方、 一般的に、 臨床医学において比較読影が有用な診察 /診断手法である こ と は、 X 線撮影や CT、 MRI 等の断層像 等の二次元画像の比較読影において広く 認め られている。 こ の事実からすれば、 三次元画像の比較読影が有用である こ と は想像に難く ない。 三次元画像を簡単な操作にて比較観察可 能な画像処理装置の登場は、 従来から望まれる と ころである , そこで、 本発明は、 三次元画像を同時に複数表示して比較 観察する場合に、 自動的に或いは簡単な操作にて画像間の観 察角度等を条件一致させて表示する こ とができ、 また必要な 診断情報も同時に表示する こ とができ る、 ユーザーフ レン ド リ 一な画像処理装置、 及び画像処理方法を提供する こ と を 目 的と している。
発明の開示
本発明は、 上記目的を達成するために、 以下の手段を講じ ている。
本発明の第 1 の視点は、 複数の三次元画像の観察角度を銃 一する画像処理を行う画像処理ュニッ ト と 、 観察角度が統一 された前記複数の三次元画像を同時に表示する表示装置と を 具備する画像処理装置である。 .
本発明の第 2 の視点は、 複数の三次元画像の拡大率を統一 する画像処理を行う画像処理ユニッ ト と、 拡大率が統一され た前記複数の三次元画像を同時に表示する表示装置と を具備 する画像処理装置である。
本発明の第 3 の視点は、 複数の三次元画像について、 同一 の条件にて画像処理を行う 画像処理ュ-ッ ト と、 前記複数の 三次元画像を同時に表示する表示装置と を具備する画像処理 装置である。
本発明の第 4 の視点は、 複数の三次元画像の観察角度、 拡 大率、 画像処理の う ち、 少なく と も一つを統一する画像処理 を行う 画像処理ュニッ ト と、' 前記画像処理が施された前記複 数の三次元画像を合成した合成画像を生成する画像合成ュニ ッ ト と、 前記合成画像を表示する表示装置と を具備する画像 処理装置である。
本発明の第 5 の視点は、 複数の三次元画像のそれぞれに対 応する各投影画像群に対して、 同一条件の空間フィルタを使 用 した画像再構成処理を施して複数のボリ ユームデータを生 成する画像再構成ュニッ ト と、 前記各ポリ ユームデータから 複数の三次元画像を生成する画像処理ュニッ ト と、 前記複数 の三次元画像を同時に表示する表示装置と を具備する画像処 理装置である。
本発明の第 6 の視点は、 複数の三次元画像の観察角度、 拡 大率、 画像処理の う ち少なく と も一つを統一する画像処理を 行う画像処理ユニッ ト と、 過去の診断に関する診断情報を格 納するデータベース と、 前記複数の三次元画像の少なく と も 一つに関連する診断情報を前記データベースから読み出す診 断情報管理ユニッ ト と、 画像処理後の前記複数の三次元画像 と前記読み出された診断情報と を同時に表示する表示装置と を具備する画像処理装置である。
本発明の第 7 の視点は、 三次元画像或いは診断情報を表示 する表示装置と、 過去の診断に関する診断情報或いは三次元 画像を格納するデータベース と、 前記表示された三次元画像 或いは診断情報と前記データベースに格納された過去の診断 に関する診断情報或いは三次元画像との間に差異があるか否 かを判別する制御装置と を具備し、 前記制御装置が差異があ る と判別 した場合には、 前記表示装置は、 当該差異がある 旨 , 或いは差異がある情報或いは画像を前記データベースから読 み出 して表示する画像処理装置である。
本発明の第 8 の視点は、 複数の三次元画像を表示し、 前記 複数の三次元画像の う ち所望の一画像について入力 された観 察方向の変更指示に基づいて、 前記所望の一画像の観察角度 と、 前記複数の三次元画像の残余の画像の観察角度と を条件 一致させて変更する画像処理を行い、 前記観察角度変更後の 前記複数の三次元画像を同時に表示する こ と を具備する画像 処理方法である。
本発明の第 9 の視点は、 複数の三次元画像を表示し、 前記 複数の三次元画像の う ち所望の一画像について入力 された拡 大率の変更指示に基づいて、 前記所望の一画像の拡大率と、 前記複数の三次元画像の残余の画像の拡大率と を条件一致さ せて変更する画像処理を行い、 前記拡大率変更後の前記複数 の三次元画像を同時に表示する こ と を具備する画像処理方法 である。
本発明の第 1 0 の視点は、 複数の三次元画像を表示し、 前 記複数の三次元画像の う ち所望の一画像について入力された 画.像処理の変更指示に基づいて、 前記所望の一画像の画像処 理と、 前記複数の三次元画像の残余の画像の画像処理と を条 件一致させて実行し、 前記画像処理後の前記複数の三次元画 像を同時に表示する こ と を具備する画像処理方法である。
図面の簡単な説明
図 1 は、 本発明の実施の形態による画像処理装置の構成を 説明するための概略図を示す。
図 2 は、 本発明の実施の形態によ る画像処理装置の構成を 説明するための概略図を示す。
図 3 は、 同時表示される画像 Aと画像 B と を条件一致させ る条件一致処理の手順の一例を示したフローチャー トである c 図 4 は、 本発明の実施の形態による画像処理装置によ る画 面表示の一つの例を示す。
図 5 は、 同時表示される画像 Aと画像 B と を条件一致させ る条件一致処理の手順の他の例を示したフ ローチャー トであ る。
図 6 は、 従来の画像処理装置によ る画面表示の一つの例を 示す。
発明を実施するための最良の形態 ぐ第 1 の実施の形態〉
図 1 は本発明の第 1 の実施の形態に係る画像処理装置を具 備する診断システ ム の概略図である。 当該診断システムは、 第 1 の画像処理装置 2 、 第 2 の画像処理装置 3 、 C T装置 4 、 M R I 装置 5 、 超音波装置 6 、 X線装置 7 または核医学装置 等の画像診断装置、 画像データベース 1 を具備している。 各 装置は、 ネッ ト ワーク 8 によって接続され、 データのやり 取 り が可能と なっている。 各診断装置では当該患者の内部構造 を三次元的に画像化した三次元画像が再構成され、 生成され た画像は画像データベース 1 に格納される。 なお、 こ の画像 データベース 1 には、 三次元画像だけでなく 、 画像に付帯す る患者 · 撮影情報、 画像のオ リ エ ンテーシ ョ ンを示す情報等 も保管されている。
本実施形態においては、 図 1 に示すよ う に画像処理装置を 二台具備.する診断システムを例とする。 しかし、 システムに 設けられる画像処理装置の数に制限はない。
図 2 は、 図 1 にて示した第一の画像処理装置 2或いは第二 の画像処理装置 3 の内部構成を説明するための概略図である c 図 2 に示すよ う に第 1 或いは第 2 の画像処理装置は、 C P U 1 4 、 入力装置 1 3 、 画像メ モ リ 9 、 三次元ァ フ ィ ン処理部 1 0 、 三次元画像処理部 1 1 、 L U T ( L o o k U p T a b l e ) 1 2 と、 表示部 (モニタ) 1 5 と、 信号ノ ス 1 6 を有している。 各構成要素の機能は、 例えば次のよ う である(
C P U 1 4 は、 画像処理装置全体の処理を制御する。
入力装置 1 3 は、 オペレ タからの指示情報を当該装置に 入力するための装置である。 当該入力装置 1 3 には、 例えぼ 様々 な表示条件設定を行う ためのボタ ン、 キーボー ド、 ドラ ッ クボール、 ジョ イ ステック な どが設けられている。 後述す る画像条件一致処理においては、 同時に複数表示された画像 の少なく と も一つに対し、 当該入力装置 1 3 によって表示角 度変更操作等が指示される。
画像メ モ リ 9 は、 三次元画像データ、 再構成前の投影画像 データ等を格納する。
三次元ァフ ィ ン処理部 1 0 は、 表示画像に対して平行移動 拡大、 縮小、 回転等 (すなわち、 ァ フ ィ ン変換) を施す変換 部である。
三次元画像処理部 1 1 は、 ボ リ ュームレンダ リ ング処理'や サーフヱイ ス レ ンダリ ング処理等の三次元画像処理を行い、 三次元表示画像を構成する。
L U T ( L o o k U p T a b l e ) 1 2 は、 予め入力 値と 出力値と の変換対応テーブルに基づいて、 三次元表示画 像の階調を変換する。
表示部 1 5 は、 三次元表示画像を表示するモニタである。 表示部 1 5 は、 複数の表示領域を有し、 複数の三次元表示画 像を一度に表示でき る。 その構造はマルチウイ ン ドウ表示で も良いし、 また複数のモニタで構成しても良い。
信号バス 1 6 は、 各構成要素間の信号やデータ送受におけ る信号伝送を行う。
診断データベース 2 2 は、 ネ ッ ト ワーク 8 を介して画像デ ータベース 1 、 或いは各種診断装置等から取得した診断画像 (二次元或いは三次元画像) 、 患者データ、 検査データ等を 関連付け保存する。 こ の診断データベース 2 2 に格納された 情報は、 例えば 「部位」 、 「病名」 、 「コ メ ン ト (診断に至 つた経緯) 」 等の項目別に検索可能と なっている。 また、 診 断データベース 2 2 は、 「部位」 や 「病名」 別にデータ を自 動的に管理する辞書機能を有している。
画像再構成部 2 3 は、 メ モ リ 9 に格納された投影画像画像 データに基づいて画像再構成処理を行 う。
なお、 三次元ァフ ィ ン処理 1 0及ぴ三次元画像処理 1 1 が 実行する処理は、 C P U 1 4 によって実行される構成であつ ても よい。
次に、 第 1 の画像処理装置 2又は第 2 の画像処理装置 3 に よって実行される条件一致表示処理について説明する。
図 3 は、 同時表示される画像 Aと画像 B と を条件一致させ る条件一致処理の手順を示したフ ローチヤ一 トである。 以下 画像 Aと画像 B と の表示角度を条件一致させる場合を例に説 明する。
図 3 において、 まず、 画像データベース 1 に登録されてい る三次元画像 A と B と を、 画像処理装置に同時に表示する (ステップ S 1 ) 。 この三次元画像 A, Bは、 同一モダリ テ ィで撮影された画像でも良い し、 異なるモダリ ティで撮影さ れた画像でも良い。 通常この段階では、 各々 の表示画像は通 常は意図的に合致させない限 り 、 それぞれの表示されている 角度が異なっている。
次に、 操作者によって条件一致スィ ツチが O Nにさ れる (ステ ップ S 2 ) 。 こ の O N操作を受けて、 例えば現状画像 Aがコン ト ローラブルな画像である場合には、 画像 Bの表示 角度が、 画像 Aの表示角度に一致する よ う に回転変換 (ァフ イ ン変換) される (ステ ップ S 3 ) 。 こ の回転は、 単に初期 表示角度からの変更量を一致させるためのも のではなく 、 '画 像のオリ エンテーショ ンを考慮して、 種々 の情報に基づき画 像 Bが画像 Aと解剖学的に同 じ角度から観察される よ う に実 行される。 (以下、 この画像 B と画像 A と の解剖学的な観察 角度を一致させるための情報を 「画像オリ エンテーショ ン情 報」 と称する。 )
C T装置 4 の画像オ リ エンテーショ ン情報と しては、 患者 挿入方向、 画像観察方向、 患者本位などが挙げられる。 例え ば、 患者揷入方向は、 患者を C T装置 4 に頭から入れるか、 も しく は足から入れるかを意味する画像オリ ェンテーショ ン 情報である。 こ の患者挿入方向は、 再構成される三次元画像 の並び順を決定する も のであ り 、 T o p F i r s t ( T F : 頭頂方向か ら順番に画像を構成 してレヽる) Z F o o t F i r s t ( F F : 足尾方向から順番に画像を構成して'い る) のよ う に表現される。 また、 画像観察方向は、 画像を観 察する方向を示し、 V i e w f r o m T o p ( V F T : 頭頂方向力、 ら見た画像) ZV i e w f r o m F o o t ( V F F : 足尾方向から見た画像) のよ う に表現される。 さ らに、 患者体位は、 例えば、 撮影時に患者が上下左右のど:ち らを向いていたかを示す画像オリ ェンテーショ ン情報である 例えば、 ステ ップ S 1 において、 i ) 画像 A と画像 B とは 共に初期表示角度であ り 、 ϋ ) 画像 Aの画像オリ エンテーシ ヨ ン情報は、 V F T、 T F、 上向きであ り 、 ΰΐ ) 画像 Β画像 オリ エンテーシ ョ ン情報は、 V F F、 F F、 上向きである場 合を想定する。 この場合、 ステ ップ S 3 において、 画像 B を 上下反転させるアブ イ ン変換を実行する こ と によ り 、 画像 A と画像 B と の観察角度を一致させる こ とができ る。
なお、 M R I 装置の場合であっても、 原理的には同 じであ る。 しか しなが ら、 M R 1 装置は、 断層面を患者に対して自 由に設定でき るため、 さ らに詳細な画像オリ エンテーショ ン 情報を利用する こ と が好ま しい。
ステ ップ S 3 において観察角度を一致させた画像 A と画像 B と は、 互いに条件一致して表示部 1 5 に表示される (ステ ップ S 4 ) 。
次に、 三次元画像 A と三次元画像 B との間のズレを補正す る指示があつたか否かの判別を行 う (ステ ップ S 5 ) 。 こ こ で、 ズレ補正と は次の様な機能である。 すなわち、 回転によ る画像条件一致においては、 上述の如 く 画像オリ エンテーシ ョ ン情報に基づいてほぼ解剖学的に同 じ角度から表示 した画 像を表示 している場合でも、 撮影前の患者の僅かな向きの変 化によ り 異なって しま う場合がある。 本画像処理装置では、 必要に応 じて、 以下に述べる 2種類の機能によって画像間の ズレを補正する こ と ができ る。
1 つは、 解剖学的に対応する少なく と も 2 点、 例えば 3 点 を画像 A, B双方上で特定し、 一致させる こ とで画像間のズ レ を補正する機能であ る。 例えば特定した点を画像 A上の ( a A , b A . C A ) 、 画像 B上の ( a B , b B , c B ) とする。 さ らに a A と a B 、 b A と b B 、 c A と c B がそ れぞれ解剖学的に一致する点である とする。 こ の時直線 a A b A と a B b B が同 じ向ぎと なる よ う に、 且つ a A c A と a B c B が同 じ向き と なる よ う に算出する こ と によ り 、 画 像間のズレを補正する こ とが可能である。
も う 一つは、 操作者のマニュアル操作によ り 画像間のズレ を補正する機能である。 すなわち、 所定の機能が割 り 当て ら れたボタ ンを押しつつの操作、 例えばキーボー ドの S H I F Tキーを押しなが らの回転操作の際は、 回転処理が片方の画 像のみに対して行われる。 具体的な処理動作は、 ステップ S 3 の内容と 同じである。
ステップ S 5 においてズレ補正の指示有 り と判別された場 合には、 上記二種類の補正の少なく と も一方によってズレを 補正し (ステップ S 6 ) 、 再び画像 Aと画像 B とが条件一致 表示.される (ステップ S 7 ) 。 なお、 マニュアル操作による ズレ捕正を実行した場合には、 S H I F Tキーを離した時点 で自動的に条件一致表示される こ とが望ま しい。
ステップ S 6 にてズレ補正を行った場合、 最初の条件一致 状態からの変化量は誤差と して記憶され、 以後の条件一致表 示は当該誤差を補正した上で実行される。
一方、 ステップ S 5 においてズレ補正の指示無しと判別さ れた場合には、 そのまま画像 Aと画像 B とが条件一致して表 示される. (ステップ S 7 ) 。·
以後条件一致スィ ツチが O Nになっている間は、 片方の画 像に加える処理、 例えば回転、 移動、 拡大ノ縮小等も同様に も う 一方の画像にも適用 される。 伹し移動、 拡大 縮小につ いては相対的な変化のみである。
図 4 は、 第 1 の実施の形態によ る画像処理装置にて画像処 理され、 表示装置 1 5 にて表示された三次元画像の一つの例 を示している。 図 4 に示すよ う に、 表示モニタ 1 7 の表示画 面 1 9 には観察対象部位の三次元画像 A と B とが条件一致表 示されている。 この 2つの画像の どち らか一方のスケールや 観察角度、 拡大率を操作する と、 も う 一方の三次元画像表示 も条件一致して変更される。 こ う して常に同一条件で複数の 三次元画像同士を比較する こ とができ る。
任意のタイ ミ ングにて条件一致スィ ツチを O F Fにする こ と によ り.条件一致表示処理は終了 し、 条件一致状態は解除さ れる (ステップ S 8 ) 。
本画像処理装置、 及び後述される各実施形態に係る画像処 理装置は、 例えば次のよ う な動作も可能である。
本実施の形態では 2つの三次元表示画像を表示した場合に ついて説明 しているが、 画像の数に制限される こ と なく 、 例 えば 3 つ以上の画像表示でも可能である。 また本実施の形態 では、 画像処理装置、 検查装置、 画像データベース 1 を全て 別々 の装置と して記述しているが、 本発明はその構成に制限 される こ と な く 、 これらの装置の 2つ若しく は全てが一つの 装置の中.に構成されていても実施可能である。
また、 上記実施形態においては、 画像オリ エンテーシ ョ ン 情報を中心と した画像条件一致を行った。 しかし、 例えば三 次元画像 Aと画像 B とが異なるモダリ ティ によって撮影され ている場合等適当な画像オリ ェンテーショ ン情報を採用でき ない場合には、 各画像において最低 3 つの対応点を選択し、 当該対応点に基づいて条件一致を行う構成であっても よい。
<第 2 の実施の形態 >
本発明の第 2 の実施の形態について、 図 3 を参照しなが ら 説明する。 本実施形態においては、 拡大率の条件一致処理に ついてさ らに詳細な説明を行 う。 なお、 第 1 の実施の形態と 同一の構成については説明を省略する。
まず、 図 3 において、 画像データベース 1 に登録されてい る三次元画像 Aと Bが画像処理装置に三次元表示される (ス テ ツプ S 1 ) 。 この画像 A , Bは同一モダリ ティで撮影され た画像でも良いし、 異なるモダリ ティで撮影された画像でも 良い。 通常、 各々 の表示画像は意図的に合致させない限り 、 それぞれの表示角度や拡大率が異なっている。
次に、 操作者によ っ て条件一致スィ ツチが O Nに される (ステ ップ S 2 ) 。
この条件一致スィ ツチの O N入力によ り 、 三次元画像 A,と B と を同 じ観察角度、 且つ同 じ拡大率にするためのァフィ ン 変換が実行され (ステ ップ S 3 ) 、 自動的に条件一致表示さ れる (ステップ S 4 ) 。 従って、 操作者は、 その手を煩わせ る こ となく 容易に条件一致画像を観察する こ とができ る。
こ こで、 ステ ップ S 3 において実行される拡大率条件一致 のための変換処理について説明する。 なお、 観察角度条件一 致のための変換については、 第 1 の実施の形態と 同様なので 説明を省く 。
拡大率の条件一致と は、 物理的に同じ長さ を表示装置上で 同 じ長さ に表示する こ と を指している。 例えば現状画像 Aが コ ン ト ローラブルな画像である とする と、 画像 B の表示角度 及び拡大率は画像 Aの表示角度に一致する よ う に回転される これは単に初期表示角度、 初期拡大率からの変更量を一致さ せるのではな く 、 画像のオリ ェンテーショ ンゃ画素ピッチを 考慮して、 解剖学的に同 じ角度から観察される よ う に、 物理 的に同 じ長さ を表示装置上で同 じ長さに変換する ものである 例えば、 C T装置の例では、 各種撮影条件、 すなわち撮影 領域やマ ト リ ッ ク スサイズによ り 断層面での画素ピッチが決 ま り 、 寝台移動幅 (ヘリ カルス キャ ン方式の場合は寝台移動 速度) 、 コ リ メ ータ幅等によ り 体軸方向の画素ピッチが決ま る。 今画素 Aにおいて断層面及び体軸方向での画素ピッチが 共に 0 . 5 m mであったと し、 画像 B については断層面及び 体軸方向での画素ピッチが共に 0 . 7 m mであったとする。 この場合、 全く 同 じ部位を撮影したと しても初期状態では画 像 Aの方が画像 B よ り 1 . 4倍に拡大されて表示される。
本実施形態における拡大率条件一致においてはこ の画素ピ ツチも考慮した捕正が実行される。 すなわち、 この例の場合 画像 Aがコ ン ト ローラプルで現状の初期表示状態から 1 . 2 倍拡大表示されている とする と 、 画像 Bは 1 . 6 8 ( = 1 . 2 1 . 4 ) 倍に拡大されて表示される。
伹し、 移動については相対的な変化のみである。 すなわち 片方の画像を z 軸方向に 5 m m移動した場合、 も う 一方の画 像も z 軸方向に 5 m m移動する。
ステップ S 3 において拡大率を一致させた画像 Aと画像 B と は、 条件一致 して表示部 1 5 に表示 される (ステ ッ プ S 4 ) 。 なお、 第 1 の実施形態と 同様、 条件一致スィ ッチが O Nになっている間は片方の画像に加える処理、 例えば回転、 移動、 拡大 · 縮小等も同様にも う一方の画像にも適用される。
次に、 三次元画像 Aと三次元画像 B と の間のズレを補正す る指示があつたか否かを判別する (ステ ップ S 5 ) 。 すなわ ち、 回転、 拡大に関しては、 ほぼ解剖学的に同 じ角度、 同 じ 拡大率で表示した画像を表示している場合でも、 撮影前の患 者の僅かな向きの変化や、 撮影画像の歪み等によ り観察角度 や拡大率が異なって しま う場合がある。 観察角度についての 捕正法については第 1 の実施の形態で説明 してあるので、 以 下、 本実施形態に係る画像処理装置が行 う 拡大率の補正に,つ いてのみ説明する。
本実施形態に係る画像処理装置には、 こ の よ う なズレを補 正する 2種類の機能がある。 一つは、 解剖学的に一致する 2 点を画像 A, B双方上で特定し、 これに基づいて画像間のズ レを捕正する機能である。 例えば角度の誤差特定のために指 定した点の内 2 点、 画像 A上の ( a A , b A ) 、 画像 B上 の ( a B , b Β ) を使用するか、 若 し く は角度の誤差がな い と判断した時は 2 点のみを画像 Α上の ( a A , b A ) 、 画像 B 上の ( a B , b B ) を指定しても 良い。 こ の時直線 a A b A と a B b B が同 じ長さ と なる よ う に拡大率を算.出 する こ と によ り 、 画像間のズレを補正する こ とができる。 も う 一つは、 機能がマニュアル操作によ る方法で、 所定の 機能が付与されたポタ ンを押しつつの操作、 例えばキーボー ドの S H I F Tキーを押しなが らの拡大操作の際は処理が片 方の画像のみに対して行われる。
ステ ップ S 5 においてズレ補正の指示有り と判別された.場 合には、 上記二種類の補正の少なく と も一方によってズレを 補正し (ステ ップ S 6 ) 、 再び画像 Aと画像 B と が条件一致 表示される (ステップ S 7 ) 。 なお、 マニュアル操作によ る ズレ補正を実行した場合には、 S H I F Tキーを離した時点 で自動的に条件一致表示される こ とが望ま しい。
ステ ップ S 6 にてズレ補正を行った場合、 最初の条件一致 状態からの変化量は誤差と して記憶され、 以後の条件一致表 示 (ステップ S 7 ) は当該誤差を補正した上で実行される。
一方、 ステ ップ S 5 においてズレ補正の指示無しと判另リ,さ れた場合には、 そのまま画像 A と画像 B と が条件一致しで表 示される (ステ ップ S 7 ) 。
条件一致をやめる場合は、 条件一致スィ ツチを O F F にす る こ と によ り 条件一致状態は解除される (ステ ップ S 8 ) 。
以上第 2 の実施形態に係る画像処理装置の条件一致処理動 作について説明 した。 本画像処理装置においても、 第 1 の実 施形態と同様、 ズレ補正を行った場合には、 その変化量を最 初の条件一致状態からの変化量を誤差と して記憶しておき、 その後の条件一致は誤差を補正した上で表示する こ とができ る。 また、 画像の数に制限される こ と なく 、 3 つ以上の画像 を同時に処理する こ と も可能である。 <第 3 の実施の形態 >
次に、 第 3 の実施の形態に係る画像処理装置について説明 する。 本実施形態は、 条件一致表示する各画像について同一 の条件にて画像処理を行う例である。 なお、 本第 3 の実施形 態に係る画像処理装置の構成については、 第 1 の実施形態で 述べた画像処理装置と略同様である。 また、 先に説明した第 1 および第 2 の実施の形態と重複する部分については説明'を 省略する。
本第 3 の実施形態に係る各画像処理装置の条件一致処理に ついて、 図 5 を参照しなが ら説明する。
図 5 において、 まず、 第 1 の実施形態と 同様に、 A画像及 ぴ B画像を同時に表示し (ステ ップ S 1 ) 、 条件一致スイ ツ チをオンにする (ステップ S 2 ) 。
ステ ッ プ S 2 での O N操作を受けて、 例えば現状の画像 A がコ ン ト ローラブルな画像である とする と、 画像 B の表示角 度及び表示用画像処理は画像 Aの表示角度や表示用画像処理 に一致する よ う に回転変換等される。 これは単に初期表示角 度、 初期表示用画像処理からの変更量を一致させるのではな く 、 画像のオ リ エンテーシ ョ ンを考慮して、 解剖学的に同 じ 角度から観察される よ う に変更する こ と を指すものである。
続いて、 画像 A及び画像 B の表示用画像処理が全く 同 じ処 理と なる よ う に、 画像 A又は画像 B の少なく と も一方に画像 処理を施す (ステップ S 3 ' ) 。 以下、 代表的な 2種類の画 像処理を例に詳しく 説明する。
サーフ ェイ ス レンダリ ング法では、 閾値を設定し、 その閾 . 値の範囲内に入る領域を対象領域と して、 その対象に対して 任意の方向から光が当った状態のよ う に擬似的に演算を行い その反射光を演算する こ と によ り 表示画像が算出される。 本 ステップ S 3 では、 こ の時の閾値、 光源の位置、 強度、 対 象の色等が合致する よ う に処理される。
また、 ボ リ ューム レンダ リ ング法の場合は、 画素数を例え ば反射率や屈折率等光学パラメータ に変換する関数 (光学変 換関数) が定義されてお り 、 その物体に対し任意の方向から 光を当てて、 その反射光を計算する こ と によ り 表示画像デー タが演算される。 このボリ ューム レンダリ ング法では、 光学 変換関数の定義によっては、 例えば霧の中に対象物がぼやけ て見える よ う に、 内部構造を可視化でき る。 従って、 サーフ ェイス レンダ リ ング法と異な り 、 物体の表面が明確に定義で き、 表面の後ろに隠れた情報を画像化する こ とができる。 : 本ステ ップ S 3 においては、 この光学変換関数、 光源の 位置、 強度、 対象の色等が合致する よ う に処理される。
以下、 第 1 の実施形態と 同様に、 A画像及び B画像は必要 に応じてズレ補正が施され (ステップ S 5 、 S 6 ) 、 条件一 致表示される (ステ ップ S 4 、 ステ ップ S 7 ) 。 当該条件一 致表示は、 スィ ッチオフによって解除され (ステ ップ S 8 ) 条件一致表示処理は完了する。
く第 4 の実施の形態 >
次に、 第 4 の実施の形態に係る画像処理装置について説明 する。 本実施形態は、 同一の画像処理を施す場合についての 変形例である。 なお、 本第 4 の実施形態に係る画像処理装置 の構成については、 第 1 の実施形態で述べた画像処理装置と 略同様である。 また、 先に説明 した各実施の形態と重複する 部分については説明を省略する。 , 本第 4 の実施形態に係る各画像処理装置の条件一致処理に ついて、 図 5 を参照 しながら説明する。
図 5 において、 まず、 第 1 の実施形態と 同様に、 A画像及 び B画像を同時に表示し (ステップ S 1 ) 、 条件一致スイ ツ チをオンにする (ステ ップ S 2 ) 。
ステ ップ S 2 での O N操作を受けて、 例えば現状の画像 A がコ ン ト ローラブルな画像である とする と 、 画像 Bの表示角 度及び表示用画像処理は画像 Aの表示角度や表示用画像処理 に一致する よ う に回転変換等される。 これは単に初期表示角 度、 初期'表示用画像処理からの変更量を一致させるのではな く 、 画像のオ リ エンテーシ ョ ンを考慮して、 解剖学的に同じ 角度から同 じサイズで観察される よ う に変更する ものである 続いて、 画像 A及び画像 B の表示用画像処理が全く 同 じ処 理と なる よ う に、 画像 A又は画像 B の少な く と も一方に画像 処理を施す (ステ ップ S 3 一) 。 例えば、 次の様に画素ピッ チによって画像 B の光学変換関数を補正する こ と で、 画像 A と画像 B との画像処理を同 じにする。
例えば画像 B の画素ピッチを m、 画像 Aの画素ピッチを n と し、 画像 Bの光学変換関数は以下の関数によって補正され る。
a = ( 1 — e X し 一 n lSi ] ) / 、 1 一 e x p し 一,πι Ν ] ) こ こで反射率 γ は以下のよ う な数式でモデル化してお り 、 Νは画素値を示している。
γ = 1 — e X p L x N J
なお、 x は対象の通過距離を示す。
ス テ ッ プ S 3 において上記光学変換関数にて画像処理が 施される と、 第 1 の実施形態と 同様に、 A画像及び B画像は 必要に応じてズ レ補正が施され (ステップ S 5 、 S 6 ) 、 条 件一致表示される (ステ ッ プ S 4 、 ステップ S 7 ) 。 当該条 件一致表示は、 スィ ッチオフによって解除され (ステップ S 8 ) 、 条件一致表示処理は完了する。
く第 5 の実施の形態〉
次に、 第 5 実施の形態に係る画像処理装置について説明す る。 本実施形態に係る装置は、 同時に表示した三次元画像 A と B と を合成 (フュージョ ン) して表示する こ とができ る。 こ の合成は、 任意のタイ ミ ングで実行可能である。
例えば、 図 3及ぴ図 5 に示したステップ S 4 の条件一致表 示の状態において、 合成を指示するスィ ツチを押すこ と で、 三次元画像 A及び Bは合成される。 或いは、 一のス ィ ッ チ操 作にて、 各画像において指定した点を一致させる よ う に補正 した後、 三次元的に合成する といった一連の処理が施される。 さ らに、 最初の条件一致表示にて画像同士の角度ズレ、 位置 ズレ、 拡大率ズレ情報を保存しておき、 合成スィ ッチが押さ れた場合、 表示角度、 位置、 拡大率が合致する よ う に補正し た後に合成を行う構成であっても よい。
<第 6 の実施の形態〉 次に、 第 6 の実施の形態に係る画像処理装置について説明 する。 本実施形態は、 画像合成処理を施す場合についての変 形例である。
一般に、 ボ リ ューム レンダ リ ング法では、 画素値が反射率 や屈折率等の光学パラ メ ータ に変換され、 こ の光学パラ メ,一 タ で構成される物体に光を当てた と仮定 して、 表示画像が計 算される。 また、 第 5 の実施形態で述べた合成は、 1 ピクセ ルおき の互い違いの ピクセルを 1 枚の画像に合致させる こ と によ り 行われる。
しかしこれに限らず、 例えば変換した画像 A、 画像 B の光 学パラ メ ータ ί Α , μ Β を用いて、 合成画像の光学パラ メ ータ を以下の よ う に算出 しても よい。
= I ( μ A , Β ノ
こ の時 f は任意の関数を示 し、 例えば以下の 2種類のよ う に使用 される。
— A + B
または
β = β A 一 ^ Β
前者を用いる こ と に よ り 、 解像度の良好な画像を得る こ と ができ る。 また後者を用いる こ と によ り 、 画像 Α と画像 Β の 違いを明瞭に観察する こ と ができ る。
また、 他の変形例と して、 光学パラメ ータ を合成する方法 に代えて、 別々 の画像と して処理した後、 表示画線上で合成 しても 良い。 本例では、 例えば画像毎に別々 の色、 強度、 光 源の位置等を設定する こ と によ り 、 合成 した画像であ り なが ら、 両者の区別を明瞭にする こ とができる。
また、 画像毎に異なる色を使用する場合、 例えば画素値の 範囲を指定してそれに含まれる領域を決定し、 その領域同士 の重なった部分と重な らない部分と の色を変化させても良い これによ り 注目部位での両者の区別を明瞭にする こ とができ る。
なお、 本画像処理装置によれば、 3以上の画像を合成表示 する こ と も可能である。 例えば、 画像 A、 B 、 C 3つの画像 を合成する場合には、 各画像の光学パラメ ータ をそれぞれ μ A ' B . ^ C とすれば、
β = 2 β c _ A + ^ Β
にて求め られる光学パラメータ μ を採用するこ と ができ る。
<第 7 の実施の形態 >
第 7 の実施の形態では、 同時に表示する複数の画像につい て、 同一の条件にて画像再構成を行う こ と で、 よ り診断に有 益な三次元画像を提供可能な画像処理装置を示す。
例えば X線 C Τ装置では、 複数の断面に関する複数の投影 画像の収集処理、 当該複数の投影画像に基づく 画像再構成処 理、 再構成画像の画像処理等を経て三次元画像が生成される 特に画像再構成処理においては、 空間フ ィ ルタ を使用 したェ ッジ強調処理も行われる。 こ の空間フィ ルタは、 コンボ リ ュ ーシヨ ン'演算等によって実施される。 従っ て、 再構成のタイ ミ ングに隔た り のある三次元画像 Αと Β と を同時に表示して 観察する場合、 双方の画像間に空間フィルタ のパラメータ の 違いに基づく 差異が現れる こ とがある。 本実施形態に係る画像処理装置は、 同一の条件にて再構成 処理を行 う こ とで、 比較等が容易な三次元画像を提供する こ と ができ る。 すなわち、 例えば図 5 中ステ ップ S 3 ' にいて . 画像再構成部 2 3 は、 画像 B に対応する投影画像に対して、 画像 A と条件を同一と した画像再構成を行 う。 こ の画像再構 成後、 再び表示条件一致のためのァ フ ィ ン変換を行う こ とで 同一の条件にてエッジ強調処理された複数の三次元画像を'条 件一致表示する こ とができ る。
<第 8 の実施の形態 >
第 8 の実施の形態では、 三次元画像を利用 した診断を行う 場合に有効な医療情報を提供可能な画像処理装置を開示する , 第 1 或いは第 2 の画像処理装置 2 、 3 は、 診断画像 (二次 元或いは三次元画像) 、 患者データ、 検查データ等を関連付 け、 診断データベース 2 2 に保存する。 既述の如く 、 こ の診 断データベース 2 2 に格納された情報は、 例えば 「部位」 、
「病名」 、 「 コ メ ン ト (診断に至った経緯) 」 等の項目別に 検索可能 と なっ ている。 ま た、 診断データベー ス 2 2 は'、
「部位」 や 「病名」 別にデータ を自動的に管理する辞書機能 を有している。
本実施形態に係る画像処理装置では、 こ の よ う に して構築 された診断データベース 2 2 を利用 して、 三次元画像によつ て例えば次のよ う な診断を行う こ 'とができ る。 すなわち、 診 断において三次元画像、 検査結果な どの新たな診断情報が得 られた場合、 当該診断情報に関する患者名、 部位、 病名等に 基づいて診断データベース 2 2 内の過去のデータ を検索する こ とができ る。 また、 現在表示されている画像或いは診断情 報と診断データベース 2 2 内の情報と が適宜 C P U 1 4 によ つて比較される。 この比較において差異がある場合には、 当 該データベー ス 2 2 内の情報が読み出 され、 表示部 1 5 に表 示される。 具体的には、 次の様な状況で利用 される。
例えば、 診断対象部位と同 じ部位、 若しく は関連する部位 での診断情報が診断データベース 2 2 内にあれば、 その内 :
(例えば 「診断日」 、 「診断者」 、 「症例」 、 「部位」 等) はポップア ップウ ィ ン ドウで表示部 1 5 に提示される。 さ ら にその詳細を観察したい場合には、 当該ウイ ン ドウにある詳 細ボタ ンを押すこ と によ り 、 その画像等の検査内容、 その時 の結果 (例えば診断に至った経緯) 等が診断データベース 2 2 から読み出 される。 従って、 操作者は、 診断中に使用する 三次元画像と 関連する過去の診断情報を容易に読み出すこ と だでき、 参照する こ とができる。
また、 例えば操作者が、 データベー ス 2 2 内の同一患者に 関する過去の画像に付されたコメ ン ト と異なる コメ ン.ト を、 現在表示されている三次元画像に対して入力 した場合には、 その差異を操作者に気づかせるため、 ポップア ップウイ ン ド ゥ形式等で自動的に表示部 1 5 に表示される。 操作者は、 そ の差異の内容についてさ らに知 り たい場合には、 所定の操作 にてデータベース 2 2 内の情報を表示する こ とができる。
さ ら に 、 例 え ば過去の画像に C A D ( Computer Aided Diagno st ) を施し、 現在表示中の画像にも同一パラメ ータ に て C A D処理を施した場合を想定する。 この場合、 治癒の状 況によって過去と現在と で画像レベルの 自動診断結果に差異 を生じる こ と がある。 このと き、 C P U 1 4 は、 当該差異を 判別し、 表示部 1 5 において操作者に示唆する。 操作者は、 当該機能によって比較作業を援助され、 よ り 効率的に質の'高 い診断作業を行う こ と ができ る。
以上説明 した各実施の形態に係る画像処理装置によれば、 条件一致スィ ッチを O Nにする こ と によ り 、 観察角度、 拡大 率、 表示用画像処理を、 撮影装置固有の撮影条件、 表示パラ メ ータを元に条件一致して表示する こ と ができ るため、 三次 元画像の比較を容易に し、 患部の経時変化や治療効果を確認 しゃすく なる。
また、 条件一致スィ ッチを O Nにする こ と によ り 、 観察角 度について撮影装置固有の撮影角度情報を元に条件一致させ る こ と ができ る。 ' また、 観察角度と拡大率を撮影装置固有の撮影情報を元に 条件一致させる こ と ができ、 観察角度や拡大率および表示用 画像処理を撮影装置固有の撮影条件や表示パラメータを元に 条件一致して表示する こ とができ る。
さ らに、 診断画像に関連する過去の診断情報を容易に提供 する こ とができ る。 その結果、 作業性の向上及び診断の質の 向上を図る こ とができ る。
なお、 以上説明 した実施の形態は、 本発明の理解を容易に するために記載されたものであって、 本発明を限定するため に記載されたものではない。 したがって、 上記の実施の形態 に開示された各要素は、 本発明の技術的範囲に属する全ての 設計変更や均等物をも含む趣旨である。
産業上の利用可能性
以上、 本発明によれば、 三次元画像を同時に複数表示して 比較観察する場合に、 自動的に或いは簡単な操作にて画像間 の観察角度等を条件一致させて表示する こ とができ、 また必 要な診断情報も同時に表示する こ とができ る、 ユーザーフ レ ン ド リ ーな画像処理装置、 及び画像処理方法を提供する こ と ができ る。

Claims

請 求 の 範 囲
1 . 複数の三次元画像の観察角度を統一する画像処理を行 う 画像処理ュエ ツ ト と、
観察角度が統一された前記複数の三次元画像を同時に表示 する表示装置と、
を具備する画像処理装置。
2 . 前記画像処理ュニッ トは、 前記各三次元画像が取得さ れた撮影装置において定義される位置情報に基づいて前記画 像処理を行 う請求項 1 記載の画像処理装置。
3 . 表示された前記複数の三次元画像の う ち所望の一画像 について、 観察方向の変更指示を入力するためのィ ンタ フエ 一スをさ らに具備し、
前記画像処理ュニ ッ トは、 前記変更指示が入力 された場合 には、 前記所望の一画像の観察角度と 、 前記複数の三次元画 像の残余の画像の観察角度と を条件一致させて変更する画像 処理を行い、
前記表示装置は、 観察角度変更後の前記複数の三次元画像 を同時に表示する請求項 1 記載の画像処理装置。
4 . 前記画像処理ュニッ ト は、 前記各三次元画像が取得さ れた撮影装置において定義される位置情報に基づいて前記画 像処理を行う請求項 3記載の画像処理装置。
5 . 前記画像処理ュエツ トは、 各三次元画像において指定 された少な く と も 2 点の座標の対応を と る こ とで前記画像処 理を行う請求項 1 又は 3記載の画像処理装置。
6 . 前記画像処理ユニッ トは、 前記イ ンタ フェースを介し てマニュアル入力された指示に基づいて前記画像処理を行 う 請求項 3記載の画像処理装置。
7 . 複数の三次元画像の拡大率を統一する画像処理を行 う 画像処理ユニッ ト と 、
拡大率が統一された前記複数の三次元画像を同時に表示す る表示装置と、 : を具備する画像処理装置。
8 . 前記画像処理ユニッ トは、 前記各三次元画像が取得さ れた撮影装置における撮影条件に基づいて前記画像処理を行 う請求項 7記載の画像処理装置。
9 . 表示された前記複数の三次元画像の う ち所望の一画像 について、 拡大率の変更指示を入力するためのイ ンタフエ一 スをさ らに具備し、
前記画像処理ユニッ トは、 前記変更指示が入力された場合 には、 前記所望の一画像の拡大率と、 前記複数の三次元画像 の残余の画像の拡大率と を条件一致させて変更する画像処理 を行い、
前記表示装置は、 拡大率変更後の前記複数の三次元画像を 同時に表示する請求項 7記載の画像処理装置。
1 0 . 前記画像処理ユニッ トは、 前記各三次元画像が取得 された撮影装置における撮影条件に基づいて前記画像処理を 行う請求項 9記載の画像処理装置。
1 1 . 前記画像処理ュニッ トは、 各三次元画像において指 定された少なく と も 2点の座標に基づく 情報の対応をと る こ とで前記画像処理を行う請求項 7又は 9記載の画像処理装置
1 2 . 前記画像処理ュニッ トは、 前記イ ンタ フ ェースを介 してマニ ュ アル入力された指示に基づいて前記画像処理を行 う請求項 9記載の画像処理装置。
1 3 . 複数の三次元画像について、 同一の条件にて画像処 理を行 う 画像処理ユニッ ト と、
前記複数の三次元画像を同時に表示する表示装置と、 を具備する画像処理装置。
1 4 . 前記画像処理はボリ ユ ーム レンダリ ング処理であ り 前記画像処理ユニッ トは、 画像表示法、 光源の位置、 光源 の強度、 光学変換関数、 表示色の う ちの少なく と も一つを同 一と して前記画像処理を行 う請求項 1 3記載の画像処理装置 1 5 . 複数の三次元画像の観察角度、 拡大率、 画像処理の う ち、 少な く と も一つを統一する画像処理を行う画像処理ュ ニッ ト と、
前記画像処理が施された前記複数の三次元画像を合成した 合成画像を生成する画像合成ュニッ ト と、
前記合成画像を表示する表示装置と、
を具備する画像処理装置。
1 6 . 前記画像合成ュ-ッ トは、 前記各複数の三次元画像 の光学パラメータによって算出された合成光学パラメータに 基づいて、 前記合成画像を生成する請求項 1 5記載の画像処
1 7 . 前記画像合成ュ-ッ トは、 三次元画像が重複する領 域と重複しない領域とで色分けされた合成画像を生成する請 求項 1 5記載の画像処理装置。
1 8 . 複数の三次元画像のそれぞれに対応する各投影画像 群に対して、 同一条件の空間フ ィ ルタ を使用 した画像再構成 処理を施して複数のボリ ユームデータ を生成する画像再構成 ユニッ ト と 、
前記各ボ リ ュームデータから複数の三次元画像を生成する 画像処理ユニッ ト と、 : 前記複数の三次元画像を同時に表示する表示装置と、 を具備する画像処理装置。
1 9 . 複数の三次元画像の観察角度、 拡大率、 画像処理の う ち少なく と も一つを統一する画像処理を行う画像処理ュニ ッ 卜 と 、
過去の診断に関する診断情報を格納するデータベース と 、 前記複数の三次元画像の少なく と も一つに関連する診断情 報を前記データベースから読み出す診断情報管理ュ -ッ ト と 画像処理後の前記複数の三次元画像と前記読み出された診 断情報と を同時に表示する表示装置と 、
を具備する画像処理装置。
2 0 . 三次元画像或いは診断情報を表示する表示装置と、 過去の診断に関する診断情報或いは三次元画像を格納する データベース と、 前記表示された三次元画像或いは診断情報と前記データべ ース に格納された過去の診断に関する診断情報或いは三次元 画像と の間に差異があるか否かを判別する制御装置と、 を具 備し、
前記制御装置が差異がある と判別した場合には、 前記表示 装置は、 当該差異がある 旨、 或いは差異がある情報或いは画 像を前記データベースから読み出 して表示する画像処理装置。
2 1 . 表示された前記複数の三次元画像の う ち所望の一画 像について、 観察角度、 拡大率、 画像処理の う ち、 少なく と も一つの変更指示を入力するためのィ ンタ フェースをさ らに 具備し、 '
前記画像処理ユニッ トは、 前記変更指示が入力された場合 には、 前記所望の一画像の観察角度、 拡大率、 画像処理の少 なく と もいずれかと、 前記複数の三次元画像の残余の画像の 観察角度、 拡大率、 画像処理の少なく と もいずれかと を条件 一致させて変更する画像処理を行い、
前記表示装置は、 前記変更後の前記複数の三次元画像を同 時に表示する請求項 1 8乃至 2 0 の う ちいずれか一項記載の 画像処理装置。
2 2 . 複数の三次元画像を表示し、
前記複数の三次元画像の う ち所望の一画像について入力さ れた観察方向の変更指示に基づいて、 前記所望の一画像の観 察角度と、 前記複数の三次元画像の残余の画像の観察角度と を条件一致させて変更する画像処理を行い、
前記観察角度変更後の前記複数の三次元画像を同時に表示 する こ と、
を具備する画像処理方法。
2 3 . 前記画像処理は、 前記各三次元画像が取得された撮 影装置において定義される位置情報に基づいて実行される請 求項 2 2記載の画像処理方法。
2 4 . 前記画像処理は、 各三次元画像において指定された 少なく と も 2点の座標の対応に基づいて実行される請求項 2 2記載の画像処理方法。 : 2 5 . 複数の三次元画像を表示し、
前記複数の三次元画像の う ち所望の一画像について入力さ れた拡大率の変更指示に基づいて、 前記所望の一画像の拡大 率と、 前記複数の三次元画像の残余の画像の拡大率と を条件 一致させて変更する画像処理を行い、
前記拡大率変更後の前記複数の三次元画像を同時に表示す るこ と 、
を具備する画像処理方法。
2 6 . 前記画像処理は、 前記各三次元画像が取得された撮 影装置において定義される位置情報に基づいて実行される請 求項 2 5記載の画像処理方法。 : 2 7 . 前記画像処理は、 各三次元画像において指定きれた 少なく と も 2 点の座標に基づく 情報の対応に基づいて実行さ れる請求項 2 5記載の画像処理方法。
2 8 . 複数の三次元画像を表示し、
前記複数の三次元画像の う ち所望の一画像について入力さ れた画像処理の変更指示に基づいて、 前記所望の一画像の画 像処理と、 前記複数の三次元画像の残余の画像の画像処理と を条件一致させて実行し、
前記画像処理後の前記複数の三次元画像を同時に表示する こ と 、
を具備する画像処理方法。
2 9 . 前記画像処理は、 ボリ ューム レンダリ ング処理であ り 、 前記変更指示は画像表示法、 光源の位置、 光源の強度'、 光学変換関数、 表示色の う ちの少なく と も一つを変更する指 示である請求項 2 8記載の画像処理方法。
PCT/JP2001/009341 2000-10-24 2001-10-24 Dispositif et procede de traitement d'images WO2002034138A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP01978888A EP1336376B1 (en) 2000-10-24 2001-10-24 Image processing device and image processing method
KR1020037005631A KR100723737B1 (ko) 2000-10-24 2001-10-24 화상처리장치 및 화상처리방법
DE60135143T DE60135143D1 (de) 2000-10-24 2001-10-24 Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
US10/421,926 US6990229B2 (en) 2000-10-24 2003-04-24 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000324411A JP5361103B2 (ja) 2000-10-24 2000-10-24 画像処理装置
JP2000-324411 2000-10-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/421,926 Continuation US6990229B2 (en) 2000-10-24 2003-04-24 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
WO2002034138A1 true WO2002034138A1 (fr) 2002-05-02

Family

ID=18801948

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/009341 WO2002034138A1 (fr) 2000-10-24 2001-10-24 Dispositif et procede de traitement d'images

Country Status (7)

Country Link
US (1) US6990229B2 (ja)
EP (1) EP1336376B1 (ja)
JP (1) JP5361103B2 (ja)
KR (1) KR100723737B1 (ja)
CN (2) CN100546546C (ja)
DE (1) DE60135143D1 (ja)
WO (1) WO2002034138A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1568322A1 (en) * 2002-12-03 2005-08-31 Kabushiki Kaisha Toshiba Computer-aided diagnostic apparatus

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130457B2 (en) * 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US7433507B2 (en) * 2003-07-03 2008-10-07 Ge Medical Systems Global Technology Co. Imaging chain for digital tomosynthesis on a flat panel detector
JP2005114713A (ja) * 2003-09-19 2005-04-28 Keyence Corp 拡大観察装置、拡大画像観察方法、拡大観察用操作プログラムおよびコンピュータで読み取り可能な記録媒体
JP4675633B2 (ja) * 2004-03-09 2011-04-27 株式会社東芝 放射線レポートシステム
US7664299B2 (en) * 2004-04-02 2010-02-16 Kabushiki Kaisha Toshiba Apparatus that prepares information relating to image data
US8160314B2 (en) * 2004-06-18 2012-04-17 Siemens Aktiengesellschaft System and method for linking VOIs across timepoints for analysis of disease progression or response to therapy
CN100367706C (zh) * 2004-10-28 2008-02-06 上海交通大学 基于网络服务资源框架的图像网格处理系统
EP1817744A2 (en) * 2004-11-22 2007-08-15 Koninklijke Philips Electronics N.V. Improved data representation for rtp
KR100702148B1 (ko) * 2004-12-30 2007-03-30 한국전기연구원 단층영상과 입체 표면영상을 동시에 얻을 수 있는 엑스선단층 촬영장치
JP4703193B2 (ja) * 2005-01-14 2011-06-15 株式会社東芝 画像処理装置
JP4649236B2 (ja) * 2005-03-04 2011-03-09 株式会社東芝 3次元画像処理装置、x線診断装置および3次元画像処理プログラム
JP4744926B2 (ja) * 2005-05-16 2011-08-10 株式会社東芝 医用画像表示装置及び医用画像表示方法
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
CN100411009C (zh) * 2005-08-26 2008-08-13 致伸科技股份有限公司 图像显示系统及方法
US7518619B2 (en) * 2005-11-07 2009-04-14 General Electric Company Method and apparatus for integrating three-dimensional and two-dimensional monitors with medical diagnostic imaging workstations
US20070127791A1 (en) * 2005-11-15 2007-06-07 Sectra Ab Automated synchronization of 3-D medical images, related methods and computer products
CN101057786B (zh) * 2006-04-19 2010-11-17 陈兆秋 Ct、mr图像融合体外控制点用的模块
US8179396B2 (en) * 2006-08-02 2012-05-15 General Electric Company System and methods for rule-based volume rendition and navigation
DE102006039389A1 (de) * 2006-08-22 2008-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Reduzierung von Übergangsartefakten in einem Gesamtbild, das sich aus Teilbildern zusammensetzt
US8090166B2 (en) * 2006-09-21 2012-01-03 Surgix Ltd. Medical image analysis
JP2008104798A (ja) * 2006-10-27 2008-05-08 Ziosoft Inc 画像処理方法
US8160395B2 (en) * 2006-11-22 2012-04-17 General Electric Company Method and apparatus for synchronizing corresponding landmarks among a plurality of images
IL179582A0 (en) 2006-11-26 2007-05-15 Algotec Systems Ltd Comparison workflow automation by registration
IL184151A0 (en) 2007-06-21 2007-10-31 Diagnostica Imaging Software Ltd X-ray measurement method
WO2009065079A2 (en) * 2007-11-14 2009-05-22 The Regents Of The University Of California Longitudinal registration of anatomy in magnetic resonance imaging
CN101178816B (zh) * 2007-12-07 2010-06-16 桂林电子科技大学 基于面采样的体绘制可视化方法
WO2009104583A1 (ja) * 2008-02-21 2009-08-27 コニカミノルタエムジー株式会社 画像表示システム及び画像処理プログラム
CN102124320A (zh) * 2008-06-18 2011-07-13 苏尔吉克斯有限公司 用于将多个图像拼接成全景图像的方法和系统
US20100055657A1 (en) * 2008-08-27 2010-03-04 Warren Goble Radiographic and ultrasound simulators
JP5242472B2 (ja) * 2009-03-23 2013-07-24 株式会社ニデック 眼科観察装置
EP2233065B8 (en) 2009-03-23 2015-11-25 Nidek Co., Ltd. Ophthalmic observation apparatus
JP5601609B2 (ja) * 2009-03-23 2014-10-08 株式会社ニデック 眼科観察プログラム及び眼科観察装置
KR100970899B1 (ko) * 2009-05-14 2010-07-16 (주)간연사 다목적 간판프레임
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
US8934686B2 (en) * 2009-11-26 2015-01-13 Algotec Systems Ltd. User interface for selecting paths in an image
JP5689662B2 (ja) * 2009-12-09 2015-03-25 株式会社東芝 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム、医用画像診断装置、医用画像処理装置及び医用画像処理プログラム
JP2011224086A (ja) * 2010-04-16 2011-11-10 Morita Mfg Co Ltd 画像処理装置、x線撮影装置、画像表示方法、画像比較方法、および画像表示プログラム
JP4920771B2 (ja) * 2010-06-15 2012-04-18 株式会社東芝 医用画像表示装置
EP2603834B1 (en) * 2010-09-20 2020-12-09 Nokia Technologies Oy Method for forming images
KR101783000B1 (ko) 2011-07-19 2017-09-28 삼성전자주식회사 복수의 3차원 볼륨 영상들을 이용하여 3차원 볼륨 파노라마 영상 생성 방법 및 장치
KR101842043B1 (ko) 2011-07-22 2018-03-26 삼성전자주식회사 초음파 영상 분석 장치 및 방법
JP4997341B2 (ja) * 2011-11-21 2012-08-08 株式会社東芝 医用画像表示装置
CN102508671B (zh) * 2011-11-22 2015-01-21 云南电力试验研究院(集团)有限公司电力研究院 一种x射线数字图片结合图谱数据的集成软件系统
CN102508921B (zh) * 2011-11-22 2013-08-14 云南电力试验研究院(集团)有限公司电力研究院 X射线数字图片结合局部放电图谱的图像数据库系统
JP5863435B2 (ja) * 2011-12-15 2016-02-16 Hoya株式会社 画像信号処理装置
EP2814398B1 (en) * 2012-02-13 2017-06-28 Koninklijke Philips N.V. Simultaneous ultrasonic viewing of 3d volume from multiple directions
JP2013169359A (ja) * 2012-02-21 2013-09-02 Toshiba Corp X線ct装置
CN103764038A (zh) 2012-02-21 2014-04-30 株式会社东芝 X射线ct装置、图像显示装置、图像显示方法
JP6025456B2 (ja) * 2012-08-28 2016-11-16 キヤノン株式会社 被検体情報取得装置、表示方法、及びプログラム
US10016181B2 (en) * 2012-09-26 2018-07-10 Hitachi, Ltd. Ultrasound diagnostic apparatus and ultrasound three-dimensional image creation method
JP5632446B2 (ja) * 2012-12-03 2014-11-26 株式会社東芝 X線診断装置
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9386936B2 (en) * 2013-03-13 2016-07-12 Ellumen, Inc. Distributed microwave image processing system and method
JP2013198822A (ja) * 2013-07-11 2013-10-03 Toshiba Corp 画像処理装置
KR102273831B1 (ko) * 2014-01-07 2021-07-07 삼성메디슨 주식회사 의료 영상을 디스플레이 하는 방법 및 그 의료 영상 장치
US10216762B2 (en) 2014-06-04 2019-02-26 Panasonic Corporation Control method and non-transitory computer-readable recording medium for comparing medical images
JP6514724B2 (ja) 2014-07-02 2019-05-15 コヴィディエン リミテッド パートナーシップ 患者の肺の複数のctスキャンのための統合された座標システム
JP6476041B2 (ja) * 2015-03-31 2019-02-27 株式会社Aze 医用画像診断装置、その制御方法、及びプログラム
EP3178380A1 (en) * 2015-12-09 2017-06-14 Canon Kabushiki Kaisha Photoacoustic apparatus, display control method, and program
JP6797557B2 (ja) * 2016-05-17 2020-12-09 キヤノンメディカルシステムズ株式会社 医用画像診断装置、医用画像処理装置および画像表示プログラム
JP7022584B2 (ja) * 2017-12-27 2022-02-18 キヤノン株式会社 放射線撮影装置、画像処理装置及び画像判定方法
JP6896145B2 (ja) * 2018-03-09 2021-06-30 富士フイルム株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP7128030B2 (ja) * 2018-05-21 2022-08-30 エスペック株式会社 環境形成装置
CN109700528B (zh) * 2019-02-27 2021-02-02 江苏霆升科技有限公司 一种实时构建心脏三维模型方法及装置
JP7408361B2 (ja) * 2019-11-29 2024-01-05 富士フイルムヘルスケア株式会社 医用画像診断支援システム及び医用画像処理装置、医用画像処理方法
JP7388244B2 (ja) * 2020-03-04 2023-11-29 株式会社ニデック 眼科観察装置、および眼科観察プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212325A (ja) * 1995-02-02 1996-08-20 Toshiba Corp 3次元医用画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4263916A (en) * 1978-03-27 1981-04-28 University Of Southern California Image averaging for angiography by registration and combination of serial images
JPH0197441A (ja) * 1987-10-09 1989-04-14 Hitachi Medical Corp 超音波診断装置
JP2620946B2 (ja) * 1987-11-13 1997-06-18 株式会社日立メディコ 超音波診断装置
FR2662813B1 (fr) * 1990-05-29 1992-08-14 Traitement Synthese Image Procede d'acquisition d'images d'echographie.
DE69332042T2 (de) * 1992-12-18 2003-01-02 Koninklijke Philips Electronics N.V., Eindhoven Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
US5456255A (en) * 1993-07-12 1995-10-10 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
JPH08131403A (ja) * 1994-11-09 1996-05-28 Toshiba Medical Eng Co Ltd 医用画像処理装置
US5579360A (en) * 1994-12-30 1996-11-26 Philips Electronics North America Corporation Mass detection by computer using digital mammograms of the same breast taken from different viewing directions
JP3639030B2 (ja) * 1995-02-28 2005-04-13 株式会社東芝 画像表示システム及びそのシステムを用いた画像表示方法
JPH08280684A (ja) * 1995-04-18 1996-10-29 Fujitsu Ltd 超音波診断装置
US5911691A (en) * 1996-05-21 1999-06-15 Aloka Co., Ltd. Ultrasound image processing apparatus and method of forming and displaying ultrasound images by the apparatus
JPH105213A (ja) * 1996-06-24 1998-01-13 Hitachi Medical Corp X線造影検査装置
JP3878259B2 (ja) * 1996-11-13 2007-02-07 東芝医用システムエンジニアリング株式会社 医用画像処理装置
JPH10286251A (ja) * 1997-04-14 1998-10-27 Eiichi Masai 透視下操作装置
JP3117665B2 (ja) * 1997-08-26 2000-12-18 ジーイー横河メディカルシステム株式会社 画像表示方法および画像表示装置
US6106464A (en) * 1999-02-22 2000-08-22 Vanderbilt University Apparatus and method for bone surface-based registration of physical space with tomographic images and for guiding an instrument relative to anatomical sites in the image
US6266453B1 (en) * 1999-07-26 2001-07-24 Computerized Medical Systems, Inc. Automated image fusion/alignment system and method
US6826297B2 (en) * 2001-05-18 2004-11-30 Terarecon, Inc. Displaying three-dimensional medical images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212325A (ja) * 1995-02-02 1996-08-20 Toshiba Corp 3次元医用画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1568322A1 (en) * 2002-12-03 2005-08-31 Kabushiki Kaisha Toshiba Computer-aided diagnostic apparatus
EP1568322A4 (en) * 2002-12-03 2009-04-29 Toshiba Kk COMPUTERGEST TZTES DIAGNOSED
US9168007B2 (en) 2002-12-03 2015-10-27 Kabushiki Kaisha Toshiba Computer-aided diagnostic apparatus

Also Published As

Publication number Publication date
KR100723737B1 (ko) 2007-05-30
JP5361103B2 (ja) 2013-12-04
CN1471375A (zh) 2004-01-28
DE60135143D1 (de) 2008-09-11
KR20030045839A (ko) 2003-06-11
EP1336376A1 (en) 2003-08-20
CN100546546C (zh) 2009-10-07
CN100346748C (zh) 2007-11-07
CN100998509A (zh) 2007-07-18
EP1336376A4 (en) 2006-02-22
JP2002125937A (ja) 2002-05-08
US20030185426A1 (en) 2003-10-02
EP1336376B1 (en) 2008-07-30
US6990229B2 (en) 2006-01-24

Similar Documents

Publication Publication Date Title
WO2002034138A1 (fr) Dispositif et procede de traitement d&#39;images
JP4937261B2 (ja) 2dのx線画像及び3d超音波画像を選択的に混合するためのシステム及び方法
JP4901531B2 (ja) X線診断装置
JP5551957B2 (ja) 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
CN106485691B (zh) 信息处理装置、信息处理系统和信息处理方法
CN107847274B (zh) 用于在机器人外科手术期间提供更新后的患者图像的方法和装置
JP5775244B2 (ja) 医学的イメージング・ボリュームの3dグラフィカル・プリスクリプションのためのシステム及び方法
JP2011125568A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2006320721A (ja) 対象領域のボリューム撮影の表示範囲の拡張方法
KR20130018168A (ko) 의료 이미지 데이터 세트의 정합 품질의 시각화 방법 및 장치
WO2006107801A2 (en) System and method for reducing artifacts in motion corrected dynamic image sequences
JP2017205217A (ja) 医用画像診断装置、医用画像処理装置および画像表示プログラム
JP5575620B2 (ja) 画像処理装置
JP3989896B2 (ja) 医用画像処理装置、関心領域抽出方法、ならびに、プログラム
JP2019126654A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017099531A (ja) 画像処理装置、画像処理方法およびx線診断装置
JP4794993B2 (ja) 画像診断支援装置及び画像表示方法
JP7127212B2 (ja) 画像の向き設定装置、方法およびプログラム
JP5883378B2 (ja) 画像処理装置
JP2007125102A (ja) 医用画像表示装置及び医用画像診断装置
JP2002301063A (ja) 医療用画像の作成方法およびそれに用いられる医療用画像表示装置
JP2012000477A (ja) 画像処理装置
JP2007275295A (ja) 乳房画像表示方法および乳房画像表示装置

Legal Events

Date Code Title Description
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020037005631

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10421926

Country of ref document: US

Ref document number: 018179223

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2001978888

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020037005631

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001978888

Country of ref document: EP

WWR Wipo information: refused in national office

Ref document number: 1020037005631

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2001978888

Country of ref document: EP