WO2014061462A1 - 医用画像表示装置 - Google Patents

医用画像表示装置 Download PDF

Info

Publication number
WO2014061462A1
WO2014061462A1 PCT/JP2013/077003 JP2013077003W WO2014061462A1 WO 2014061462 A1 WO2014061462 A1 WO 2014061462A1 JP 2013077003 W JP2013077003 W JP 2013077003W WO 2014061462 A1 WO2014061462 A1 WO 2014061462A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
medical image
image
interest
region
Prior art date
Application number
PCT/JP2013/077003
Other languages
English (en)
French (fr)
Inventor
由昌 小林
南部 恭二郎
加藤 久典
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN201380002036.7A priority Critical patent/CN103889330B/zh
Publication of WO2014061462A1 publication Critical patent/WO2014061462A1/ja
Priority to US14/457,144 priority patent/US20140347389A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography

Definitions

  • Embodiments of the present invention relate to a medical image display apparatus that displays image data for performing image diagnosis.
  • An imaging apparatus for imaging a subject to generate image data includes a mammography apparatus for irradiating X-rays to image a breast, an X-ray diagnostic apparatus for imaging various parts such as a chest, an X-ray CT apparatus, and an MRI.
  • the image capturing apparatus can perform image processing by digitizing an image.
  • the image capturing device can provide an image having a plurality of features by performing a plurality of image processing on the image data (original image data) before image processing.
  • the image data obtained by the image capturing device is displayed on the monitor for diagnosis, the image applied to the current image data is not determined only by the image data (current image data) currently displayed on the monitor.
  • interpretation is performed by comparing with image data (processed image data) after processing obtained by image processing different from the processing.
  • a lesion area (region of interest) in the current image data is selected, and interpretation is performed using a loupe function that displays enlarged image data obtained by enlarging only the selected region of interest on the current image data.
  • the present embodiment has been made to solve the above problem, and can easily grasp the region of interest of one image data and can easily compare it with the region of interest of the other image data.
  • An object is to provide an image display device.
  • the medical image display apparatus of the present embodiment includes an input unit capable of inputting an area of interest in the first medical image obtained by imaging a subject, and the interest An enlarged medical image obtained by enlarging an image in a region is displayed adjacent to the region of interest together with the first image, a position of the region of interest on the first medical image, and the first medical image An image data processing unit for determining a position for displaying the enlarged medical image based on the position of the image.
  • the region of interest of one image data can be easily grasped, and can be easily compared with the region of interest of the other image data.
  • FIG. 1 is a block diagram showing the configuration of the diagnostic imaging system according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of first and second image data stored in the image data storage unit according to the present embodiment.
  • FIG. 3 is a diagram illustrating an example of a screen on which first image data and a cursor are displayed on the display unit according to the present embodiment.
  • FIG. 4 is a diagram showing, on the second image data, a frame superimposed on the first image data according to the present embodiment and data in the same region as the region of the first image data surrounded by the frame. is there.
  • FIG. 5 is a diagram illustrating an example of a screen on which the first image data, a frame superimposed on the first image data, and another image data are displayed according to the present embodiment.
  • FIG. 1 is a block diagram showing the configuration of the diagnostic imaging system according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of first and second image data stored in the image data storage unit according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example of a screen on which the first image data, a frame superimposed on the first image data, and enlarged another image data are displayed according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of a screen on which first image data, a moved frame superimposed on the first image data, and another image data are displayed according to the present embodiment.
  • FIG. 8 is a diagram illustrating an example of a screen on which first image data, a frame positioned at the right end portion superimposed on the first image data, and another image data are displayed according to the present embodiment. is there.
  • FIG. 9 is a diagram illustrating an example of identifying a frame region that has passed over the first image data according to the present embodiment as a footprint.
  • FIG. 10 is a diagram illustrating another example in which a frame area that has passed over the first image data according to the present embodiment is identified as a footprint.
  • FIG. 11 relates to the present embodiment, and the first image data, a frame superimposed on the first image data, and another image data arranged on the right side of the first image data are displayed. It is a figure which shows an example of a screen.
  • FIG. 12 relates to the present embodiment, and is a screen on which first image data, a frame superimposed on the first image data, and other image data arranged below the first image data are displayed. It is a figure which shows an example.
  • FIG. 11 relates to the present embodiment, and the first image data, a frame superimposed on the first image data, and other image data arranged below the first image data are displayed. It is a figure which shows an example.
  • FIG. 12 relates to the present embodiment, and is a screen on which first image data, a frame superimposed on the first image data, and other image data arranged below the first image data
  • FIG. 13 shows, on the third image data, a frame superimposed on the first image data according to the present embodiment and data in the same region as the region of the first image data surrounded by the frame.
  • FIG. FIG. 14 relates to the present embodiment, the first image data, a frame superimposed on the first image data, and two different image data arranged on the right and lower sides of the first image data. It is a figure which shows an example of the screen as displayed.
  • FIG. 1 is a block diagram showing a configuration of an image diagnostic system according to an embodiment.
  • the image diagnosis system 600 includes an image capturing apparatus 200 such as a mammography apparatus or an X-ray diagnosis apparatus that captures an image of a subject and generates image data, enhancement processing of image data generated by the image capturing apparatus 200, and a plurality of frames.
  • An image processing device 300 that performs image processing such as subtraction processing between image data, and an image storage device 400 that stores image data generated by the image capturing device 200 and image data processed by the image processing device 300 are provided. ing.
  • the image diagnostic system 600 also displays an image display device (medical use) that displays image data generated by the image capturing device 200, image data processed by the image processing device 300, and image data stored in the image storage device 400.
  • Image display device 100.
  • the image capturing apparatus 200, the image processing apparatus 300, the image storage apparatus 400, and the image display apparatus 100 perform transmission / reception of image data via the network 500.
  • the image display device 100 includes a transmission / reception unit 10 that transmits / receives image data to / from each of the image capturing device 200, the image processing device 300, and the image storage device 400, and an image that stores image data received by the transmission / reception unit 10. And a data storage unit 20.
  • the image display apparatus 100 includes an image data processing unit 30 that performs processing for displaying image data received from the transmission / reception unit 10 and image data stored in the image data storage unit 20, and image data processing. And a display unit 40 that displays the image data processed by the unit 30.
  • the image display apparatus 100 is configured to input an area for specifying a region of interest of image data to be processed by the image data processing unit 30 or to display the image data processed by the image data processing unit 30 on the display unit 40.
  • an input unit 50 having an input device such as a mouse, a keyboard, and a joystick, and a control unit 60 that controls the transmission / reception unit 10, the image data storage unit 20, the image data processing unit 30, and the display unit 40.
  • the image capturing apparatus 200 generates image data by capturing the subject and transmits it to the image processing apparatus 300.
  • the image processing apparatus 300 uses the image data transmitted from the image capturing apparatus 200 or the image data obtained by processing the image data as diagnostic image data (first image data), as first image data (first medical data). For example, second image data (second medical image) and third image data (third medical image) are generated by two different image processes for the image. Then, the image processing device 300 transmits the first to third image data to the image storage device 400.
  • the image storage device 400 stores the first image data transmitted from the image processing device 300 in association with the second and third image data.
  • the first image data is, for example, an X-ray image.
  • the transmission / reception unit 10 of the image display device 100 transmits request information to the image storage device 400 by an input requesting image data from the input unit 50.
  • the image storage device 400 transmits the first image data and the second and third image data related to the first image data to the image display device 100 according to the request information from the image display device 100.
  • the transmission / reception unit 10 receives the first to third image data transmitted from the image storage device 400 in response to the transmission of the request information.
  • the image data storage unit 20 stores the first image data and the second and third image data in association with each other.
  • the second and third image data may be images taken from a plurality of angles with respect to the subject.
  • FIG. 2 is a diagram showing an example of first to third image data stored in the image data storage unit 20.
  • the first image data 21 is image data generated by, for example, imaging of a breast including a lesion of a subject by the image capturing apparatus 200, or image data generated by processing the image data.
  • the second and third image data 22 and 23 (third medical image) are stored in association with the first image data 21.
  • the second and third image data 22 and 23 are obtained by image processing for making it easy to find a lesion such as processing for enhancing the contrast between the mammary gland and the extra mammary gland and processing for enhancing a calcified portion.
  • Image data generated from the image data is image data generated by, for example, imaging of a breast including a lesion of a subject by the image capturing apparatus 200, or image data generated by processing the image data.
  • the second and third image data 22 and 23 (third medical image) are stored in association with the first image data 21.
  • the second and third image data 22 and 23 are obtained by image processing for making
  • an input for setting the display image to the first image data 21, an input for setting another image to the second image data 22, and an input for setting the display mode of the other image to the superimposed display mode are included. This is performed from the input unit 50.
  • the image data processing unit 30 reads the first image data 21 from the image data storage unit 20. Then, the image data processing unit 30 arranges a cursor for designating a region of interest on the first image data 21 so as to be movable. Then, the image data processing unit 30 arranges the first image data 21 and the cursor at predetermined positions and outputs them to the display unit 40.
  • the display unit 40 displays the first image data 21 and the cursor output from the image data processing unit 30.
  • FIG. 3 is a diagram showing an example of a screen on which the first image data 21 and the cursor are displayed on the display unit 40.
  • the screen 70 includes a display area 41 for displaying image data output from the image data processing unit 30.
  • the display area 41 has a first display area 411 having the largest area and a second display area that is arranged adjacent to the right side of the first display area 411 and has a smaller area than the first display area 411. 412 (outside of the first display area) and a third display area 413 (first display) which is arranged adjacent to the lower side of the first display area 411 and has an area smaller than that of the first display area 411. Outside area).
  • the first image data 21 as the display image output from the image data processing unit 30 is displayed in the first display area 411.
  • a cursor 74 is displayed so as to be movable on the first image data 21.
  • the cursor 74 is moved to the region of interest which is the region of the lesion data of the first image data 21, for example, by operating the mouse via the input unit 50, for example.
  • the image data processing unit 30 corresponds the first image data 21 to the first display area 411. Place in position.
  • the image data processing unit 30 superimposes, for example, a rectangular frame 75 surrounding the region of interest designated by the input from the input unit 50 on the first image data 21.
  • the image data processing unit 30 also arranges another image data related to the region of interest near the frame 75. For example, the image data processing unit 30 arranges another image data adjacent to the frame 75 in the first display area 411. Specifically, the image data processing unit 30 arranges another image data in the first display area 411 adjacent to and parallel to the frame 75.
  • the data 221 in the same region (same position) as the region of interest of the first image data 21 surrounded by the frame 75 is read from the second image data 22 stored in the image data storage unit 20.
  • the image data processing unit 30 converts another image data obtained as a region of interest of the read second image data 22 based on the superimposed display mode set as a display condition, for example, any one of the four sides of the frame 75. Adjacent to.
  • the image data processing unit 30 arranges the entire area of the separate image data at a position where it is superimposed on the first image data 21. Then, the image data processing unit 30 outputs the first image data 21, the frame 75, and the separate image data to the display unit 40.
  • the display unit 40 displays the first image data 21, the frame 75 superimposed on the first image data 21, and other image data.
  • the image data processing unit 30 generates a tomosynthesis image based on images taken from each of a plurality of angles with respect to the subject. Specifically, the image data processing unit 30 generates a tomosynthesis image by a predetermined process based on a plurality of images respectively corresponding to a plurality of angles with respect to the subject.
  • the predetermined processing is, for example, a shift addition method, a filtered back projection (Filtered Back Projection: FBP) method, or the like.
  • FBP Filtered Back Projection
  • the image data processing unit 30 generates a plurality of tomosynthesis images obtained by changing the cross section of the subject at a predetermined interval as the tomosynthesis image.
  • the image data processing unit 30 stores the generated tomosynthesis image in the image data storage unit 20.
  • the image data processing unit 30 may generate separate image data using the tomosynthesis image as the second or third image data.
  • FIG. 5 is a diagram showing an example in which the first image data 21, the frame 75 superimposed on the first image data 21, and another image data are displayed on the screen of the display unit 40.
  • the first image data 21 is displayed in the first display area 411 of the screen 70a. Further, a frame 75 surrounding the region of interest superimposed on the first image data 21 is displayed. Further, another image data 24 arranged at a position adjacent to, for example, the right side of the frame 75 and at a position where the entire area of the other image data is superimposed on the first image data 21 is displayed.
  • the entire area of the separate image data 24 may be arranged so as to be adjacent to the upper side, the left side, or the lower side of the frame 75. .
  • an enlarged medical image obtained by enlarging a region of interest in the first image data may be used as the separate image data.
  • the image data processing unit 30 generates an enlarged medical image according to the setting (designation) of the region of interest. For example, the image data processing unit 30 determines a position at which the enlarged medical image is displayed based on the position of the region of interest in the first image data (on the first medical image) and the position of the first image data.
  • the separate image data may be image data obtained by performing gradation processing, frequency processing, and the like on the first medical image.
  • the region of interest of the first image data 21 can be easily grasped. Further, the frame 75 and the separate image data 24 arranged in the vicinity of the frame 75 are superimposed on the first image data 21 and displayed on the display unit 40, so that the region of interest of the first image data 21 is not lost. The separate image data 24 can be observed. In addition, since the region of interest of the first image data 21 and the separate image data 24 can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24 are easily compared. be able to.
  • the display unit 40 displays the screen 70 of FIG.
  • the image data processing unit 30 displays the screen 70a in FIG. 5 as shown in FIG.
  • the separate image data 24a (or the separate image data obtained by enlarging the region of interest of the first image data 21 surrounded by the frame 75) is generated.
  • the image data processing unit 30 superimposes the entire area of the different image data on the first image data 21 and arranges it at a position adjacent to the frame 75.
  • the image data processing unit 30 outputs the first image data 21, the frame 75, and the separate image data 24a to the display unit 40.
  • the display unit 40 displays the first image data 21, the frame 75 superimposed on the first image data 21, and the separate image data 24a.
  • the frame 75 and the separate image data 24a arranged in the vicinity of the frame 75 are superimposed on the first image data 21 and displayed on the display unit 40, thereby losing sight of the region of interest of the first image data 21.
  • the other image data 24a can be observed without any problem.
  • the region of interest of the first image data 21 and the separate image data 24a can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24a are easily compared. be able to.
  • the image data processing unit 30 reads the data of the same area as the area of the first image data 21 surrounded by the frame moving in the right end direction from the second image data 22, thereby obtaining another image data. appear.
  • the image data processing unit 30 superimposes the entire area of the separate image data on the first image data 21 so that the obtained separate image data is adjacent to any one of the four sides of the moving frame. Place it at the position you want.
  • the image data processing unit 30 outputs the first image data 21, the moving frame, and the separate image data to the display unit 40.
  • the display unit 40 displays the first image data 21 and the moving frame and other image data that are superimposed on the first image data 21.
  • FIG. 7 is a diagram illustrating an example in which the first image data 21, the frame that is superimposed on the first image data 21 and moved, and the different image data are displayed on the screen of the display unit 40. is there.
  • the first image data 21 is displayed in the first display area 411 of the screen 70b.
  • a frame 75a moving in the right end direction on the first image data 21 is displayed.
  • data in the same area as the area of the first image data 21 surrounded by the frame 75 a is obtained by reading out from the second image data 22.
  • the entire area of the different image data is displayed so as to be superimposed on the first image data 21 and adjacent to, for example, the right side of the frame 75a.
  • the region of interest of the first image data 21 can be easily grasped by superimposing the frame 75a moving on the first image data 21 and displaying it on the display unit 40.
  • the region of interest of the first image data 21 is displayed by superimposing the moving frame 75a and the separate image data 24b arranged in the vicinity of the frame 75a on the first image data 21 and displaying them on the display unit 40.
  • the separate image data 24b can be observed without losing sight of the image.
  • the region of interest of the first image data 21 and the separate image data 24b can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24b are easily compared. be able to.
  • the display unit 40 displays the first image data 21 and the frame positioned on the right end portion superimposed on the first image data 21 and another frame. Display image data.
  • FIG. 8 is a diagram illustrating an example in which the first image data 21, a frame superimposed on the first image data 21 and positioned at the right end, and another image data are displayed on the screen of the display unit 40. It is. In the first display area 411 of the screen 70c, the first image data 21 and a frame 75b that is superimposed on the first image data 21 and positioned at the right end of the first image data 21 are displayed. Yes. Further, data in the same area as the area of the first image data 21 surrounded by the frame 75 b is obtained by reading out from the second image data 22. The entire area of the different image data is arranged so as to be superimposed on the first image data 21.
  • another image data 24c is displayed adjacent to, for example, the lower side of the frame 75b.
  • the display unit 40 may display the entire area of the separate image data 24 c so as to be adjacent to the upper side or the left side of the frame 75 b that can be arranged on the first image data 21.
  • the region of interest of the first image data 21 can be easily grasped by superimposing the frame 75b moved to the right end of the first image data 21 and displaying it on the display unit 40. Further, the frame 75b located at the right end and the other image data 24c arranged in the vicinity of the side other than the right side of the frame 75b are superimposed on the first image data 21 and displayed on the display unit 40, whereby the first The separate image data 24c can be observed without losing sight of the region of interest of the image data 21. In addition, since the region of interest of the first image data 21 and the separate image data 24c can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24c are easily compared. be able to.
  • the display area 41 has the maximum displayable area of the image data. It is also possible to display on a display portion having an area of the first display area 411 smaller than the portion 40.
  • the cursor 74 is moved to the region of interest of the first image data 21.
  • An input for moving up and displaying another image is performed, and the frame 75 displayed on the screen 70a in FIG. 5 is extended to the right end of the first image data 21 while the left button of the mouse is pressed.
  • the image data processing unit 30 moves the first image data while moving from the position of the frame 75 displayed on the screen 70a to the position of the frame 75b displayed on the screen 70c of FIG.
  • the area of the frame that passes over 21 is identified as a footprint.
  • the image data processing unit 30 may identify the frame region 211 that has passed over the first image data 21 by color. Further, as shown in FIG. 10, the image data processing unit 30 superimposes on the first image data 21 image data obtained by reading out data in the same area as the area 211 from the second image data 22. You may make it identify by. Then, the image data processing unit 30 outputs the first image data 21, the frame 75b, and the separate image data 24c that identify the region 211 to the display unit 40. The display unit 40 displays the first image data 21 in which the region 211 is identified, the frame 75b superimposed on the first image data 21, and the separate image data 24c.
  • the display unit 40 displays the region of interest (region of interest moving region) input before designating the region of interest so as to be distinguishable from the input region of interest.
  • the display unit 40 may display the partial region of the second image data 22 or the partial region of the third image data 23 superimposed on the moving region of the region of interest.
  • the region of interest of the first image data 21 for which the different image data has been displayed is identified and displayed on the display unit 40, thereby preventing the region of interest that is not displayed as the separate image data from being overlooked. be able to. In addition, it is possible to prevent wasteful designating the same region of interest.
  • an input for changing and setting the display mode of the separate image set as the display condition to the second display area mode is input from the input unit 50.
  • the image data processing unit 30 displays the first image data 21 for the first display. It is arranged at a position corresponding to the area 411. Further, the image data processing unit 30 superimposes a frame 75 surrounding the region of interest on the first image data 21. In addition, the image data processing unit 30 reads data 221 in the same area as the area of the first image data 21 surrounded by the frame 75 from the second image data 22.
  • the image data processing unit 30 places the different image data 24 obtained as the region of interest of the second image data 22 at a position corresponding to the second display area 412 of the display area 41 on the right side of the first image data 21. Deploy. Then, the image data processing unit 30 outputs the first image data 21, the frame 75, and the separate image data 24 to the display unit 40.
  • the display unit 40 displays the first image data 21, a frame 75 superimposed on the first image data 21, and another image data 24 arranged on the right side of the first image data.
  • the image data processing unit 30 determines whether the image data processing unit 30 has a size that protrudes from the second display area 412 when the different image data 24 is displayed. If the image data processing unit 30 has a size that protrudes from the second display area 412 when the different image data 24 is displayed, the image data processing unit 30 causes the second display area 412 to include the entire area of the different image data 24. Reduced to In the following, it is assumed that the separate image data 24 has a size that includes the entire area in the second display area 412.
  • FIG. 11 shows the first image data 21, the frame 75 superimposed on the first image data 21, and the separate image data 24 arranged on the right side of the first image data 21. It is the figure which showed an example of the screen displayed on this screen.
  • the first image data 21 is displayed in the first display area 411 of the screen 70d, and a frame 75 superimposed on the first image data 21 is displayed. Further, the separate image data 24 is displayed on the second display rear 412 on the right side of the frame 75.
  • the image data processing unit 30 Data of the same area as the area of the first image data 21 surrounded by the frame 75 moving to is read from the second image data 22.
  • the image data processing unit 30 generates different image data based on the read second image data.
  • the image data processing unit 30 is arranged at a position interlocked with the frame 75 moving to one side of the second display area 412.
  • the image data processing unit 30 outputs the first image data 21, the frame 75 moving to one side, and the separate image data to the display unit 40.
  • the display unit 40 displays the first image data 21 and the frame 75 moving to one side on the first image data 21 in the first display area 411.
  • the display unit 40 moves in the same direction as the frame 75 in conjunction with the frame 75, and displays different image data related to the region of interest that changes in conjunction with the frame 75 in the second display area 412. .
  • the display unit 40 includes the frame 75 surrounding the region of interest of the first image data 21 arranged in the first display area 411, and another image arranged in the second display area 412 near the frame 75.
  • Data 24 is displayed. Thereby, the different image data 24 can be observed without losing sight of the region of interest of the first image data 21.
  • the region of interest of the first image data 21 and the separate image data 24 can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24 are easily compared. be able to.
  • the frame 75 can be easily moved to another region of interest.
  • the image data processing unit 30 displays the first image data 21 for the first display. It is arranged at a position corresponding to the area 411. Further, the image data processing unit 30 superimposes a frame 75 on the first image data 21. Further, the image data processing unit 30 arranges the separate image data 24 at a position corresponding to the third display area 413 of the display area 41 below the first image data 21.
  • the image data processing unit 30 outputs the first image data 21, the frame 75, and the separate image data 24 to the display unit 40.
  • the display unit 40 displays the first image data 21, a frame 75 that is superimposed on the first image data 21, and another image data 24 that is arranged below the first image data 21.
  • the image data processing unit 30 causes the entire area of the different image data 24 to be the third display area 413.
  • the other image data is reduced so as to be included in.
  • the different image data 24 has a size that includes the entire area in the third display area 413.
  • the 12 shows the first image data 21, a frame 75 superimposed on the first image data 21, and another image data 24 arranged below the first image data 21 on the display unit 40. It is the figure which showed an example displayed on the screen.
  • the first image data 21 and a frame 75 superimposed on the first image data 21 are displayed in the first display area 411 of the screen 70e. Further, the separate image data 24 is displayed on the third display rear 413 below the frame 75.
  • the image data processing unit 30 When an input for moving the frame 75 to one of the left side and the right side on the first image data 21 is performed in a state where the left button of the mouse of the input unit 50 is pressed, the image data processing unit 30 The data of the same area as the area of the first image data 21 surrounded by the frame 75 moving to one side is read from the second image data 22. The image data processing unit 30 generates different image data based on the read second image data 22. The image data processing unit 30 arranges the separate image data at a position interlocked with the frame 75 moving to one side of the third display area 413. Then, the image data processing unit 30 outputs the first image data 21, the frame 75 moving to one side, and the separate image data to the display unit 40.
  • the display unit 40 displays the first image data 21 and the frame 75 moving to one side on the first image data 21 in the first display area 411. In addition, the display unit 40 moves in the same direction as the frame 75 in conjunction with the frame 75, and displays different image data related to the region of interest that changes in conjunction with the frame 75 in the third display area 413. .
  • the frame 75 surrounding the region of interest of the first image data 21 arranged in the first display area 411 and the different image data 24 arranged in the third display area 413 near the frame 75 are displayed.
  • the different image data 24 can be observed without losing sight of the region of interest of the first image data 21.
  • the region of interest of the first image data 21 and the separate image data 24 can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24 are easily compared. be able to.
  • the frame 75 can be easily moved to another region of interest.
  • the image data processing unit 30 arranges the first image data 21 at a position corresponding to the first display area 411. Further, the image data processing unit 30 superimposes a frame 75 on the first image data 21.
  • the image data processing unit 30 arranges the separate image data 24 at a position corresponding to the second display area 412 on the right side of the first image data 21. Further, the image data processing unit 30 reads data 231 in the same region as the region of interest of the first image data 21 enclosed by the frame 75 from the third image data 23 stored in the image data storage unit 20. The image data processing unit 30 generates different image data obtained as a region of interest of the third image data 23 from the read third image data 23. As shown in FIG. 13, the image data processing unit 30 arranges the different image data at a position corresponding to the third display area 413 below the first image data 21.
  • the image data processing unit 30 outputs the different image data obtained from the first image data 21, the frame 75, the different image data 24, and the third image data 23 to the display unit 40.
  • the display unit 40 includes the first image data 21, a frame 75 superimposed on the first image data 21, another image data 24 arranged on the right side of the first image data 21, and the first The other image data arranged below the image data 21 is displayed.
  • FIG. 14 shows the first image data 21, a frame 75 superimposed on the first image data 21, another image data 24 arranged on the right side of the first image data 21, and the first FIG. 6 is a diagram showing an example in which different image data arranged below the image data 21 is displayed on the screen of the display unit 40.
  • the first image data 21 and a frame 75 superimposed on the first image data 21 are displayed in the first display area 411 of the screen 70f.
  • another image data 24 is displayed on the second display rear 412 on the right side of the frame 75.
  • another image data 25 obtained from the third image data 23 is displayed on the third display rear 413 below the frame 75.
  • the display unit 40 displays the first image.
  • the data 21 and the frame 75 moving to one side on the first image data 21 are displayed in the first display area 411.
  • the display unit 40 moves in the same direction as the frame 75 in conjunction with the frame 75, and displays different image data obtained from the second image data 22 related to the region of interest that changes in conjunction with the frame 75. Displayed in the second display area 412. Further, the display unit 40 is stopped below the frame 75, and another image data obtained from the third image data 23 related to the region of interest that changes in conjunction with the frame 75 is displayed in the third display area 413. indicate.
  • the display unit 40 displays the first A frame 75 moving in one direction on the image data 21 and the first image data 21 is displayed in the first display area 411. Further, the display unit 40 is stopped on the right side of the frame 75, and another image data obtained from the second image data 22 related to the region of interest that changes in conjunction with the frame 75 is displayed in the second display area 412. To display. In addition, the display unit 40 moves in the same direction as the frame 75 in conjunction with the frame 75, and displays different image data obtained from the third image data 23 related to the region of interest that changes in conjunction with the frame 75. Displayed in the third display area 413.
  • Image data 24 and 25 are displayed on the display unit 40.
  • the two different image data 24 and 25 can be observed without losing sight of the region of interest of the first image data 21.
  • the region of interest of the first image data 21 and the separate image data 24, 25 can be observed without moving the line of sight, the region of interest of the first image data 21 and the separate image data 24, 25 are It can be easily compared.
  • the frame 75 can be easily moved to another region of interest.
  • the frames 75, 75 a, 75 b surrounding the region of interest are superimposed on the first image data 21 and displayed on the display unit 40, so that the interest of the first image data 21 is displayed.
  • the area can be easily grasped.
  • each frame 75, 75 a, 75 b and each separate image data 24, 24 a, 24 b, 24 c arranged in the vicinity of this frame are superimposed on the first image data 21 and displayed on the display unit 40, so that the first The individual image data 24, 24a, 24b, and 24c can be observed without losing sight of the region of interest of the image data 21.
  • the region of interest of the first image data 21 and the individual image data 24, 24a, 24b, and 24c can be observed without moving the line of sight, the region of interest of the first image data 21 and each individual image are displayed. Data 24, 24a, 24b, and 24c can be easily compared.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 本実施形態に係る医用画像表示装置は、被検体を撮影することにより得られた第1の医用画像において、関心領域を指定する入力が可能な入力部50と、関心領域内の画像を拡大した拡大医用画像を関心領域に隣接させて、第1の医用画像とともに表示する表示部40と、第1の医用画像上における関心領域の位置と第1の医用画像の位置とに基づいて、拡大医用画像を表示させる位置を決定する画像データ処理部30と、を具備する。

Description

医用画像表示装置
 本発明の実施形態は、画像診断を行うための画像データを表示する医用画像表示装置に関する。
 被検体を撮影して画像データを生成する画像撮影装置には、X線を照射して乳房を撮影するマンモグラフィ装置や胸部等の様々な部位を撮影するX線診断装置及びX線CT装置、MRI装置等がある。また、画像撮影装置は、画像のデジタル化により画像処理を行うことができる。画像撮影装置は、画像処理前の画像データ(原画像データ)に対して複数の画像処理を施すことで、複数の特徴を持った画像を提供することができる。そして、画像撮影装置により得られた画像データをモニタに表示させて診断を行う場合、現在モニタに表示されている画像データ(現画像データ)だけで判断せず、現画像データに施された画像処理と異なる画像処理により得られた処理後の画像データ(別処理画像データ)と見比べて読影することがある。また、現画像データの病変の領域(関心領域)を選択し、選択した関心領域のみを拡大した拡大画像データを現画像データ上にウィンドウ表示するルーペ機能を利用して読影を行うことがある。
特開2004-105746号公報
 しかしながら、現画像データで関心領域を見つけたとき、別処理画像データに切り替えて関心領域を比較する必要があるため、現画像データから目を離したことで関心領域を見失って診断に時間がかかる。また、ルーペ機能を用いると、関心領域に覆いかぶさるように拡大画像データが表示されるため、関心領域を把握するのが困難である。
 本実施形態は、上記問題点を解決するためになされたもので、一方の画像データの関心領域を容易に把握することができ、他方の画像データの関心領域と容易に比較することができる医用画像表示装置を提供することを目的とする。
 上記目的を達成するために、本実施形態の医用画像表示装置は、被検体を撮影することにより得られた第1の医用画像において、関心領域を指定する入力が可能な入力部と、前記関心領域内の画像を拡大した拡大医用画像を前記関心領域に隣接させて、前記第1の画像とともに表示する表示部と、前記第1の医用画像上における前記関心領域の位置と前記第1の医用画像の位置とに基づいて、前記拡大医用画像を表示させる位置を決定する画像データ処理部と、を具備する。
 本実施形態によれば、一方の画像データの関心領域を容易に把握することができ、他方の画像データの関心領域と容易に比較することができる。
図1は、本実施形態に係る画像診断システムの構成を示すブロック図である。 図2は、本実施形態に係る画像データ記憶部に保存された第1及び第2の画像データの一例を示す図である。 図3は、本実施形態に係る表示部に第1の画像データ及びカーソルが表示された画面の一例を示す図である。 図4は、本実施形態に係る第1の画像データ上に重畳された枠及びこの枠で包囲された第1の画像データの領域と同じ領域のデータを第2の画像データ上に示す図である。 図5は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される枠と、別画像データとが表示された画面の一例を示す図である。 図6は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される枠と、拡大された別画像データとが表示された画面の一例を示す図である。 図7は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される移動されている枠と、別画像データとが表示された画面の一例を示す図である。 図8は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される右端部に位置する枠と、別画像データとが表示された画面の一例を示す図である。 図9は、本実施形態に係る第1の画像データ上を通過した枠の領域を足跡として識別する一例を示す図である。 図10は、本実施形態に係る第1の画像データ上を通過した枠の領域を足跡として識別する他の例を示す図である。 図11は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される枠と、第1の画像データの右方に配置される別画像データとが表示された画面の一例を示す図である。 図12は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される枠と、第1の画像データの下方に配置される別画像データとが表示された画面の一例を示す図である。 図13は、本実施形態に係る第1の画像データ上に重畳された枠と、この枠で包囲された第1の画像データの領域と同じ領域のデータとを第3の画像データ上に示す図である。 図14は、本実施形態に係り、第1の画像データと、第1の画像データ上に重畳される枠と、第1の画像データの右方及び下方に配置される2つの別画像データとが表示された画面の一例を示す図である。
 以下、図面を参照して実施形態を説明する。
 図1は、実施形態に係る画像診断システムの構成を示したブロック図である。この画像診断システム600は、被検体を撮影して画像データを生成するマンモグラフィ装置やX線診断装置等の画像撮影装置200と、画像撮影装置200で生成された画像データの強調処理や複数フレームの画像データ間のサブトラクション処理等の画像処理を行う画像処理装置300と、画像撮影装置200で生成された画像データや画像処理装置300で画像処理された画像データを保管する画像記憶装置400とを備えている。
 また、画像診断システム600は、画像撮影装置200で生成された画像データ、画像処理装置300で画像処理された画像データ、及び画像記憶装置400に保管された画像データを表示する画像表示装置(医用画像表示装置)100を備えている。そして、画像撮影装置200、画像処理装置300、画像記憶装置400、及び画像表示装置100は、ネットワーク500を介して画像データの送受信を行う。
 画像表示装置100は、画像撮影装置200、画像処理装置300及び画像記憶装置400の各装置との間で画像データの送受信を行う送受信部10と、送受信部10で受信した画像データを保存する画像データ記憶部20とを備えている。また、画像表示装置100は、送受信部10で受信した各装置からの画像データや画像データ記憶部20に保存された画像データを表示するための処理を行う画像データ処理部30と、画像データ処理部30で処理された画像データを表示する表示部40とを備えている。
 また、画像表示装置100は、画像データ処理部30で処理を行う画像データの関心領域を指定する入力や、画像データ処理部30で処理された画像データを表示部40に表示させるための入力等を行うマウス、キーボード、ジョイスティック等の入力デバイスを有する入力部50と、送受信部10、画像データ記憶部20、画像データ処理部30及び表示部40を制御する制御部60とを備えている。
 以下、図1乃至図14を参照して、画像診断システム600の動作の一例を説明する。
 画像撮影装置200は、被検体の撮影により画像データを生成して画像処理装置300へ送信する。画像処理装置300は、画像撮影装置200から送信された画像データ又はこの画像データを処理した画像データを診断用の画像データ(第1の画像データ)として、第1の画像データ(第1の医用画像)に対して例えば異なる2つの画像処理により第2の画像データ(第2の医用画像)及び第3の画像データ(第3の医用画像)を生成する。そして、画像処理装置300は、第1乃至第3の画像データを画像記憶装置400へ送信する。画像記憶装置400は、画像処理装置300から送信された第1の画像データと第2及び第3の画像データを関連付けて保管する。第1の画像データは、例えば、X線撮影画像である。
 画像表示装置100の送受信部10は、入力部50からの画像データを要求する入力により要求情報を画像記憶装置400へ送信する。画像記憶装置400は、画像表示装置100からの要求情報に応じて第1の画像データ及びこの第1の画像データに関連する第2及び第3の画像データを画像表示装置100へ送信する。送受信部10は、要求情報の送信に応じて画像記憶装置400から送信された第1乃至第3の画像データを受信する。画像データ記憶部20は、第1の画像データと第2及び第3の画像データを関連付けて保存する。なお、第2、第3の画像データは、被検体に対して複数の角度各々から撮影された画像であってもよい。
 図2は、画像データ記憶部20に保存された第1乃至第3の画像データの一例を示した図である。この第1の画像データ21は、画像撮影装置200により例えば被検体の病変を含む乳房の撮影により生成された画像データ又はこの画像データに処理を施すことにより生成された画像データである。また、第2及び第3の画像データ22,23(第3の医用画像)は第1の画像データ21に関連付けて保存される。第2及び第3の画像データ22,23は、例えば乳腺内と乳腺外のコントラストを強める処理や石灰化部分を強調する処理等の病変を見つけやすくするための画像処理により第1の画像データ21から生成された画像データである。
 次に、表示条件として、表示画像を第1の画像データ21に設定する入力、別画像を第2の画像データ22に設定する入力、及び別画像の表示モードを重畳表示モードに設定する入力が入力部50から行われる。このとき、画像データ処理部30は、画像データ記憶部20から第1の画像データ21を読み出す。そして、画像データ処理部30は、第1の画像データ21上に関心領域を指定するためのカーソルを移動可能に配置する。そして、画像データ処理部30は、第1の画像データ21及びカーソルを所定の位置に配置して表示部40に出力する。表示部40は、画像データ処理部30から出力された第1の画像データ21及びカーソルを表示する。
 図3は、表示部40に第1の画像データ21及びカーソルが表示された画面の一例を示した図である。この画面70は、画像データ処理部30から出力された画像データを表示する表示エリア41を備えている。表示エリア41は、最大の面積を有する第1の表示エリア411と、第1の表示エリア411の右側に隣接して配置され、第1の表示エリア411よりも小さい面積を有する第2の表示エリア412(第1の表示エリア外)と、第1の表示エリア411の下側に隣接して配置され、第1の表示エリア411よりも小さい面積を有する第3の表示エリア413(第1の表示エリア外)とにより構成される。そして、画像データ処理部30から出力された表示画像としての第1の画像データ21は、第1の表示エリア411に表示される。また、第1の画像データ21上を移動可能にカーソル74が表示される。
 次に、入力部50を介した例えばマウスの操作によりカーソル74が、第1の画像データ21の例えば病変のデータの領域である関心領域に移動される。加えて、マウス左ボタンの押圧操作により関心領域を指定して別画像を表示させる入力が行われると、画像データ処理部30は、第1の画像データ21を第1の表示エリア411に対応する位置に配置する。また、図4に示すように、画像データ処理部30は、入力部50からの入力により指定された関心領域を包囲する例えば四角形の枠75を第1の画像データ21上に重畳する。画像データ処理部30は、また、枠75の近傍に、関心領域に関連する別画像データを配置する。例えば、画像データ処理部30は、第1の表示エリア411において、枠75に隣接して、別画像データを配置する。具体的には、画像データ処理部30は、枠75に隣接および並列させて、第1の表示エリア411において、別画像データを配置する。
 ここでは、枠75で包囲された第1の画像データ21の関心領域と同じ領域(同位置)のデータ221が、画像データ記憶部20に保存された第2の画像データ22から読み出される。画像データ処理部30は、表示条件として設定された重畳表示モードに基づいて、読み出された第2の画像データ22の関心領域として得られる別画像データを、枠75の例えば四辺のいずれか一辺に隣接させる。画像データ処理部30は、別画像データの全領域を、第1の画像データ21上に重畳する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、枠75及び別画像データを表示部40に出力する。表示部40は、第1の画像データ21並びに第1の画像データ21上に重畳される枠75及び別画像データを表示する。
 なお、画像データ処理部30は、被検体に対して複数の角度各々から撮影された画像に基づいて、トモシンセシス(tomosynthesis)画像を発生する。具体的には、画像データ処理部30は、被検体に対する複数の角度にそれぞれ対応する複数の画像に基づいて、所定の処理により、トモシンセシス画像を発生する。所定の処理とは、例えば、シフト加算法、フィルタ補正逆投影(Filtered BackProjection:FBP)法などである。例えば、画像データ処理部30は、トモシンセシス画像として、被検体に対する断面を所定の間隔で変更させた複数のトモシンセシス画像を発生する。画像データ処理部30は、発生したトモシンセシス画像を、画像データ記憶部20に記憶させる。画像データ処理部30は、トモシンセシス画像を、第2または第3の画像データとして用いて、別画像データを発生してもよい。
 図5は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、別画像データとを、表示部40の画面に表示した一例を示した図である。この画面70aの第1の表示エリア411に第1の画像データ21が表示されている。また、第1の画像データ21上に重畳された関心領域を包囲する枠75が表示されている。また、枠75の例えば右辺に隣接する位置であり、且つ、別画像データの全領域を第1の画像データ21上に重畳する位置に配置された別画像データ24が表示されている。ここでは、別画像データ24の全領域が第1の画像データ21上に重畳する位置であれば、枠75の上辺、左辺又は下辺のいずれかに隣接して配置するように実施してもよい。
 なお、上記別画像データとして、第1の画像データ(第1の医用画像)における関心領域を拡大した拡大医用画像が用いられてもよい。このとき、画像データ処理部30は、関心領域の設定(指定)に応じて、拡大医用画像を発生する。たとえば、画像データ処理部30は、第1の画像データ(第1の医用画像上)における関心領域の位置と第1の画像データの位置とに基づいて、拡大医用画像を表示させる位置を決定する。なお、別画像データは、第1の医用画像に対して階調処理、周波数処理等が実行された画像データであってもよい。
 このように、第1の画像データ21上に関心領域を包囲する枠75を重畳して表示部40に表示することにより、第1の画像データ21の関心領域を容易に把握することができる。また、枠75及びこの枠75近傍に配置した別画像データ24を第1の画像データ21上に重畳して表示部40に表示することにより、第1の画像データ21の関心領域を見失うことなく別画像データ24を観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24を観察することができるため、第1の画像データ21の関心領域と別画像データ24とを容易に比較することができる。
 ここで、入力部50のマウス左ボタンの押圧を解除する操作により別画像を消去する入力が行われると、表示部40は、図3の画面70を表示する。
 なお、表示部40に図3の画面70が表示された状態で表示条件として第2の画像データ22に設定された別画像を拡大画像(拡大医用画像)に変更設定する入力が入力部50から行われ、更にカーソル74を第1の画像データ21の関心領域に移動し、別画像を表示させる入力が行われると、画像データ処理部30は、図6に示すように、図5の画面70aに表示された別画像データ24を拡大することにより、別画像データ24a(又は枠75で包囲された第1の画像データ21の関心領域を拡大して得られる別画像データ)を発生する。次いで、画像データ処理部30は、別画像データの全領域を、第1の画像データ21上に重畳して枠75に隣接する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、枠75及び別画像データ24aを表示部40に出力する。表示部40は、第1の画像データ21並びに第1の画像データ21上に重畳される枠75及び別画像データ24aを表示する。
 このように、枠75及びこの枠75近傍に配置した別画像データ24aを第1の画像データ21上に重畳して表示部40に表示することにより、第1の画像データ21の関心領域を見失うことなく別画像データ24aを観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24aを観察することができるため、第1の画像データ21の関心領域と別画像データ24aとを容易に比較することができる。
 次に、入力部50のマウスの左のボタンを押圧した状態で、図5の画面70aに表示された枠75を、第1の画像データ21上の例えば右端部へ移動させる入力が行われると、画像データ処理部30は、右端部方向へ移動している枠で包囲された第1の画像データ21の領域と同じ領域のデータを第2の画像データ22から読み出すことにより、別画像データを発生する。次いで、画像データ処理部30は、得られた別画像データを、移動している枠の四辺のいずれか一辺に隣接して、別画像データの全領域を、第1の画像データ21上に重畳する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、移動している枠及び別画像データを表示部40に出力する。表示部40は、第1の画像データ21並びに第1の画像データ21上に重畳される、移動している枠及び別画像データを表示する。
 図7は、第1の画像データ21と、第1の画像データ21上に重畳され、移動されている枠と、別画像データとを、表示部40の画面に表示した一例を示した図である。この画面70bの第1の表示エリア411に、第1の画像データ21が表示されている。また、第1の画像データ21上を右端部方向へ移動している枠75aが表示されている。また、枠75aで包囲される第1の画像データ21の領域と同じ領域のデータは、第2の画像データ22から読み出すことにより得られる。別画像データの全領域は、第1の画像データ21上に重畳して枠75aの例えば右辺に隣接して配置されて、表示されている。
 このように、第1の画像データ21上で移動している枠75aを重畳して表示部40に表示することにより、第1の画像データ21の関心領域を容易に把握することができる。また、移動している枠75a及びこの枠75a近傍に配置した別画像データ24bを第1の画像データ21上に重畳して表示部40に表示することにより、第1の画像データ21の関心領域を見失うことなく別画像データ24bを観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24bを観察することができるため、第1の画像データ21の関心領域と別画像データ24bとを容易に比較することができる。
 そして、枠75aが第1の画像データ21の右端部に到達したとき、表示部40は、第1の画像データ21並びに第1の画像データ21上に重畳される右端部に位置する枠及び別画像データを表示する。
 図8は、第1の画像データ21と、第1の画像データ21上に重畳され、右端部に位置する枠と、別画像データとを、表示部40の画面に表示した一例を示した図である。この画面70cの第1の表示エリア411に、第1の画像データ21と、第1の画像データ21上に重畳され、第1の画像データ21の右端部に位置する枠75bとが表示されている。また、枠75bで包囲される第1の画像データ21の領域と同じ領域のデータは、第2の画像データ22から読み出すことにより得られる。別画像データの全領域は、第1の画像データ21上に重畳して配置される。これらのことにより枠75bの例えば下辺に隣接して別画像データ24cが表示される。なお、表示部40は、別画像データ24cの全領域を、第1の画像データ21上に重畳して配置可能な枠75bの上辺又は左辺に隣接させるように表示してもよい。
 このように、第1の画像データ21の右端部へ移動した枠75bを重畳して表示部40に表示することにより、第1の画像データ21の関心領域を容易に把握することができる。また、右端部に位置する枠75b及びこの枠75bの右辺以外の辺近傍に配置した別画像データ24cを第1の画像データ21上に重畳して表示部40に表示することにより、第1の画像データ21の関心領域を見失うことなく別画像データ24cを観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24cを観察することができるため、第1の画像データ21の関心領域と別画像データ24cとを容易に比較することができる。
 また、第1の画像データ21上に各枠75,75a,75b及び各別画像データ24,24a,24b,24cを重畳させることにより、画像データの表示可能な最大面積が表示エリア41を有する表示部40よりも小さい第1の表示エリア411の面積を有する表示部にも表示することができる。
 なお、表示部40に図3の画面70が表示された状態で、表示条件として足跡表示を追加設定する入力が入力部50から行われた後、カーソル74を第1の画像データ21の関心領域上に移動して別画像を表示させる入力が行われ、更にマウスの左のボタンを押圧した状態で、図5の画面70aに表示された枠75を第1の画像データ21上の右端部までへ移動させる入力が行われると、画像データ処理部30は、画面70aに表示された枠75の位置から図8の画面70cに表示された枠75bの位置まで移動する間に第1の画像データ21上を通過した枠の領域を足跡として識別する。
 ここでは、図9に示すように、画像データ処理部30は、第1の画像データ21上を通過した枠の領域211を色で識別するようにしてもよい。また、図10に示すように、画像データ処理部30は、領域211と同じ領域のデータを第2の画像データ22から読み出すことにより得られる画像データを第1の画像データ21上に重畳することにより識別するようにしてもよい。そして、画像データ処理部30は、領域211を識別した第1の画像データ21、枠75b及び別画像データ24cを表示部40に出力する。表示部40は、領域211が識別された第1の画像データ21並びに第1の画像データ21上に重畳される枠75b及び別画像データ24cを表示する。すなわち、表示部40は、関心領域の指定以前に入力された関心領域(関心領域の移動領域)を、入力された関心領域と識別可能に表示する。表示部40は、関心領域の移動領域に、移動領域と同位置における第2の画像データ22の部分領域または前記第3の画像データ23の部分領域を重畳させて表示してもよい。
 このように、別画像データを表示させたことのある第1の画像データ21の関心領域を識別して表示部40に表示することにより、別画像データとして表示されていない関心領域の見落としを防ぐことができる。また、同じ関心領域を不用意に指定してしまう無駄を防ぐことができる。
 次に、表示部40に図3の画面70が表示された状態で、表示条件として重畳表示モードに設定された別画像の表示モードを第2表示エリアモードに変更設定する入力が入力部50から行われ、更にカーソル74を第1の画像データ21の関心領域上まで移動して別画像を表示させる入力が行われると、画像データ処理部30は、第1の画像データ21を第1の表示エリア411に対応する位置に配置する。また、画像データ処理部30は、第1の画像データ21上に、関心領域を包囲する枠75を重畳する。また、画像データ処理部30は、枠75で包囲された第1の画像データ21の領域と同じ領域のデータ221を第2の画像データ22から読み出す。画像データ処理部30は、第2の画像データ22の関心領域として得られる別画像データ24を、第1の画像データ21の右方の表示エリア41の第2の表示エリア412に対応する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、枠75及び別画像データ24を表示部40に出力する。表示部40は、第1の画像データ21、第1の画像データ21上に重畳される枠75及び第1の画像データの右方に配置される別画像データ24を表示する。
 なお、別画像データ24を表示させた場合に第2の表示エリア412からはみ出すサイズである場合、画像データ処理部30は、別画像データ24の全領域が第2の表示エリア412に含まれるように縮小される。以下では、別画像データ24は、全領域が第2の表示エリア412に含まれるサイズとする。
 図11は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、第1の画像データ21の右方に配置される別画像データ24とを、表示部40の画面に表示した画面の一例を示した図である。この画面70dの第1の表示エリア411に第1の画像データ21が表示され、第1の画像データ21上に重畳された枠75が表示されている。また、枠75右方の第2の表示リア412に別画像データ24が表示されている。
 ここで、入力部50のマウスの左ボタンを押圧した状態で、枠75を第1の画像データ21上の上方又は下方の一方へ移動させる入力が行われると、画像データ処理部30は、一方へ移動している枠75で包囲された第1の画像データ21の領域と同じ領域のデータを、第2の画像データ22から読み出す。画像データ処理部30は、読み出した第2の画像データにより別画像データを、発生する。次いで、画像データ処理部30は、第2の表示エリア412の一方へ移動している枠75に連動する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、一方へ移動している枠75及び別画像データを表示部40に出力する。表示部40は、第1の画像データ21及び第1の画像データ21上を一方へ移動している枠75を第1の表示エリア411に表示する。加えて、表示部40は、枠75に連動して枠75と同じ方向へ移動し、枠75に連動して変化する関心領域に関連する別画像データを、第2の表示エリア412に表示する。
 このように、表示部40は、第1の表示エリア411に配置した第1の画像データ21の関心領域を包囲する枠75と、この枠75近傍の第2の表示エリア412に配置した別画像データ24とを表示する。これにより、第1の画像データ21の関心領域を見失うことなく別画像データ24を観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24を観察することができるため、第1の画像データ21の関心領域と別画像データ24とを容易に比較することができる。また、別画像データ24に覆われることなく第1の画像データ21の全領域を観察することができるため、枠75を容易に他の関心領域へ移動することができる。
 次に、表示部40に図3の画面70が表示された状態で、表示条件として重畳表示モードに設定された別画像の表示モードを第3表示エリアモードに変更設定する入力が入力部50から行われ、更にカーソル74を第1の画像データ21の関心領域上まで移動して別画像を表示させる入力が行われると、画像データ処理部30は、第1の画像データ21を第1の表示エリア411に対応する位置に配置する。また、画像データ処理部30は、第1の画像データ21上に枠75を重畳する。また、画像データ処理部30は、別画像データ24を、第1の画像データ21の下方の表示エリア41の第3の表示エリア413に対応する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、枠75及び別画像データ24を表示部40に出力する。表示部40は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、第1の画像データ21の下方に配置される別画像データ24とを表示する。
 なお、別画像データ24を表示させたときに別画像データが第3の表示エリア413からはみ出すサイズである場合、画像データ処理部30は、別画像データ24の全領域が第3の表示エリア413に含まれるように、別画像データを縮小する。以下では、別画像データ24は、全領域が第3の表示エリア413に含まれるサイズとする。
 図12は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、第1の画像データ21の下方に配置される別画像データ24とを、表示部40の画面に表示した一例を示した図である。この画面70eの第1の表示エリア411に、第1の画像データ21と、第1の画像データ21上に重畳された枠75とが表示されている。また、枠75下方の第3の表示リア413に別画像データ24が表示されている。
 ここで、入力部50のマウスの左ボタンを押圧した状態で、枠75を第1の画像データ21上の左方又は右方の一方へ移動させる入力が行われると、画像データ処理部30は、一方へ移動している枠75で包囲された第1の画像データ21の領域と同じ領域のデータを第2の画像データ22から読み出す。画像データ処理部30は、読み出した第2の画像データ22により、別画像データを、発生する。画像データ処理部30は、別画像データを、第3の表示エリア413の一方へ移動している枠75に連動する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、一方へ移動している枠75及び別画像データを表示部40に出力する。表示部40は、第1の画像データ21及び第1の画像データ21上を一方へ移動している枠75を第1の表示エリア411に表示する。加えて、表示部40は、枠75に連動して枠75と同じ方向へ移動し、枠75に連動して変化する関心領域に関連する別画像データを、第3の表示エリア413に表示する。
 このように、第1の表示エリア411に配置した第1の画像データ21の関心領域を包囲する枠75と、この枠75近傍の第3の表示エリア413に配置した別画像データ24とを表示部40に表示させることにより、第1の画像データ21の関心領域を見失うことなく別画像データ24を観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24を観察することができるため、第1の画像データ21の関心領域と別画像データ24とを容易に比較することができる。また、別画像データ24に覆われることなく第1の画像データ21の全領域を観察することができるため、枠75を容易に他の関心領域へ移動することができる。
 次に、表示部40に図3の画面70が表示された状態で、表示条件として重畳表示モードに設定された別画像の表示モードを第2及び第3表示エリアモードに変更設定する入力、並びに別画像を第2及び第3の画像データ22,23に変更設定する入力が入力部50から行われ、更にカーソル74を第1の画像データ21の関心領域上まで移動して別画像を表示させる入力が行われると、画像データ処理部30は、第1の画像データ21を第1の表示エリア411に対応する位置に配置する。また、画像データ処理部30は、第1の画像データ21上に枠75を重畳する。また、画像データ処理部30は、別画像データ24を、第1の画像データ21右方の第2の表示エリア412に対応する位置に配置する。また、画像データ処理部30は、枠75で包囲された第1の画像データ21の関心領域と同じ領域のデータ231を画像データ記憶部20に保存された第3の画像データ23から読み出す。画像データ処理部30は、読み出した第3の画像データ23により第3の画像データ23の関心領域として得られる別画像データを、発生する。画像データ処理部30は、図13に示すように、別画像データを、第1の画像データ21下方の第3の表示エリア413に対応する位置に配置する。そして、画像データ処理部30は、第1の画像データ21、枠75、別画像データ24及び第3の画像データ23から得られた別画像データを表示部40に出力する。表示部40は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、第1の画像データ21の右方に配置される別画像データ24と、及び第1の画像データ21の下方に配置される別画像データとを表示する。
 図14は、第1の画像データ21と、第1の画像データ21上に重畳される枠75と、第1の画像データ21の右方に配置される別画像データ24と、及び第1の画像データ21の下方に配置される別画像データとを、表示部40の画面に表示した一例を示した図である。この画面70fの第1の表示エリア411に、第1の画像データ21と、第1の画像データ21上に重畳された枠75とが表示されている。また、枠75の右方の第2の表示リア412に別画像データ24が表示されている。また、枠75の下方の第3の表示リア413に第3の画像データ23から得られた別画像データ25が表示されている。
 ここで、入力部50のマウスの左のボタンを押圧した状態で、枠75を第1の画像データ21上方又は下方の一方へ移動させる入力が行われると、表示部40は、第1の画像データ21と、第1の画像データ21上において一方へ移動している枠75とを、第1の表示エリア411に表示する。また、表示部40は、枠75に連動して枠75と同じ方向へ移動され、枠75に連動して変化する関心領域に関連する第2の画像データ22から得られた別画像データを、第2の表示エリア412に表示する。また、表示部40は、枠75の下方で停止され、枠75に連動して変化する関心領域に関連する第3の画像データ23から得られた別画像データを、第3の表示エリア413に表示する。
 また、入力部50のマウスの左のボタンを押圧した状態で、枠75を第1の画像データ21左方又は右方の一方へ移動させる入力が行われると、表示部40は、第1の画像データ21及び第1の画像データ21上を一方へ移動している枠75を第1の表示エリア411に表示する。また、表示部40は、枠75の右方で停止され、枠75に連動して変化する関心領域に関連する第2の画像データ22から得られた別画像データを、第2の表示エリア412に表示する。また、表示部40は、枠75に連動して枠75と同じ方向へ移動され、枠75に連動して変化する関心領域に関連する第3の画像データ23から得られた別画像データを、第3の表示エリア413に表示する。
 このように、第1の表示エリア411に配置した第1の画像データ21の関心領域を包囲する枠75及びこの枠75近傍の第2及び第3の表示エリア412,413に配置した2つの別画像データ24,25が表示部40に表示される。これにより、第1の画像データ21の関心領域を見失うことなく2つの別画像データ24,25を観察することができる。加えて、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24,25を観察することができるため、第1の画像データ21の関心領域と別画像データ24,25とを容易に比較することができる。また、別画像データ24,25に覆われることなく第1の画像データ21の全領域を観察することができるため、枠75を容易に他の関心領域へ移動することができる。
 以上述べた実施形態によれば、第1の画像データ21上に関心領域を包囲する各枠75,75a,75bを重畳して表示部40に表示することにより、第1の画像データ21の関心領域を容易に把握することができる。また、各枠75,75a,75b及びこの枠近傍に配置した各別画像データ24,24a,24b,24cを第1の画像データ21上に重畳して表示部40に表示することにより、第1の画像データ21の関心領域を見失うことなく各別画像データ24,24a,24b,24cを観察することができる。これにより、目線を動かすことなく第1の画像データ21の関心領域と各別画像データ24,24a,24b,24cを観察することができるため、第1の画像データ21の関心領域と各別画像データ24,24a,24b,24cとを容易に比較することができる。
 また、第1の表示エリア411に配置した第1の画像データ21の関心領域を包囲する枠75及びこの枠75近傍の第2或いは第3の表示エリア412,413に配置した別画像データ24、又は第2及び第3の表示エリア412,413に配置した別画像データ24,25を表示部40に表示することにより、第1の画像データ21の関心領域を容易に把握することができる。また、第1の画像データ21の関心領域を見失うことなく別画像データ24又は別画像データ24,25を観察することができる。これにより、目線を動かすことなく第1の画像データ21の関心領域と別画像データ24又は別画像データ24,25を観察することができるため、第1の画像データ21の関心領域と別画像データ24又は別画像データ24,25とを、容易に比較することができる。また、別画像データ24又は別画像データ24,25に覆われることなく第1の画像データ21の全領域を観察することができるため、枠75を容易に他の関心領域へ移動することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 21…第1の画像データ、22…第2の画像データ、23…第3の画像データ、24…別画像データ、30…画像データ処理部、40…表示部、50…入力部、60…制御部、75…枠、100…画像表示装置、200…画像撮影装置、300…画像処理装置、400…画像記憶装置、500…ネットワーク、600…画像診断システム。

Claims (11)

  1.  被検体を撮影することにより得られた第1の医用画像において、関心領域を指定する入力が可能な入力部と、
     前記関心領域内の画像を拡大した拡大医用画像を前記関心領域に隣接させて、前記第1の医用画像とともに表示する表示部と、
     前記第1の医用画像上における前記関心領域の位置と前記第1の医用画像の位置とに基づいて、前記拡大医用画像を表示させる位置を決定する画像データ処理部と、
     を具備する医用画像表示装置。
  2.  前記表示部は、
     前記第1の医用画像上に、前記関心領域の指定以前に入力された関心領域を識別可能に表示する請求項1に記載の医用画像表示装置。
  3.  前記第1の医用画像は、X線撮影画像であり、
     前記画像データ処理部は、
     前記拡大医用画像として、前記被検体に対して複数の角度から撮影された画像に基づいてトモシンセシス画像を用いる請求項1に記載の医用画像表示装置。
  4.  前記表示部は、
     前記被検体に対する断面を所定の間隔で変更させた前記トモシンセシス画像を、前記拡大医用画像として表示する請求項3に記載の医用画像表示装置。
  5.  前記表示部は、
     前記拡大医用画像を、前記第1の医用画像に重畳させ、且つ前記関心領域に並列させて表示する請求項1に記載の医用画像表示装置。
  6.  前記表示部は、
     前記第1の医用画像を表示する第1の表示エリアを有し、
     前記拡大医用画像を、前記第1の表示エリア外に表示する請求項1に記載の医用画像表示装置。
  7.  前記画像データ処理部は、
     前記第1の医用画像に基づいて、所定の画像処理により、前記第1の医用画像とは異なる第2の医用画像および第3の医用画像とを発生し、
     前記表示部は、
     前記第1の表示エリアと、前記第1の表示エリアに隣接する第2の表示エリア及び第3の表示エリアとを有し、
     前記第2の医用画像を前記第2の表示エリアに表示し、
     前記第3の医用画像を前記第3の表示エリアに表示する請求項6に記載の医用画像表示装置。
  8.  前記表示部は、
     前記入力部からの入力により、前記関心領域を前記第1の医用画像上で移動させて表示し、
     前記関心領域を移動させた移動領域を識別して表示する請求項1に記載の医用画像表示装置。
  9.  前記表示部は、
     前記移動領域に、前記移動領域と同位置における前記第2の医用画像の部分領域または前記第3の医用画像の部分領域を重畳させて表示する請求項8に記載の医用画像表示装置。
  10.  被検体を撮影することにより得られた第1の医用画像において、関心領域を指定する入力が可能な入力部と、
     前記関心領域の位置に対応し、前記第1の医用画像に関連する第2の医用画像を、前記関心領域に隣接させて、前記第1の医用画像とともに表示する表示部と、
     前記第1の医用画像上における前記関心領域の位置と前記第1の医用画像の位置とに基づいて、前記第2の医用画像を表示させる位置を決定する画像データ処理部と、
     を具備する医用画像表示装置。
  11.  被検体を撮影することにより得られた医用画像において、関心領域を指定する入力が可能な入力部と、
     前記被検体に対して複数の角度から撮影された画像に基づいてトモシンセシス画像を発生し、前記医用画像上における前記関心領域の位置と前記医用画像の位置とに基づいて、前記トモシンセシス画像を表示させる位置を決定する画像データ処理部と、
     前記関心領域内の画像に対応するトモシンセシス画像を前記関心領域に隣接させて、前記医用画像とともに表示する表示部と、
     を具備する医用画像表示装置。
PCT/JP2013/077003 2012-10-15 2013-10-03 医用画像表示装置 WO2014061462A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380002036.7A CN103889330B (zh) 2012-10-15 2013-10-03 医用图像显示装置
US14/457,144 US20140347389A1 (en) 2012-10-15 2014-08-12 Medical image display apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-228462 2012-10-15
JP2012228462 2012-10-15
JP2013-207749 2013-10-02
JP2013207749A JP2014097309A (ja) 2012-10-15 2013-10-02 医用画像表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/457,144 Continuation US20140347389A1 (en) 2012-10-15 2014-08-12 Medical image display apparatus

Publications (1)

Publication Number Publication Date
WO2014061462A1 true WO2014061462A1 (ja) 2014-04-24

Family

ID=50488033

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/077003 WO2014061462A1 (ja) 2012-10-15 2013-10-03 医用画像表示装置

Country Status (4)

Country Link
US (1) US20140347389A1 (ja)
JP (1) JP2014097309A (ja)
CN (1) CN103889330B (ja)
WO (1) WO2014061462A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2942776A1 (en) * 2014-05-06 2015-11-11 Goodrich Corporation System and Method for enhancing displayed images

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018126640A (ja) * 2012-10-15 2018-08-16 キヤノンメディカルシステムズ株式会社 医用画像表示装置
CN105659296A (zh) * 2013-10-22 2016-06-08 皇家飞利浦有限公司 图像可视化
JP6615495B2 (ja) * 2015-05-29 2019-12-04 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び磁気共鳴イメージング装置
JP6740699B2 (ja) * 2016-05-10 2020-08-19 コニカミノルタ株式会社 画像解析システム
US11099724B2 (en) * 2016-10-07 2021-08-24 Koninklijke Philips N.V. Context sensitive magnifying glass
KR101923183B1 (ko) * 2016-12-14 2018-11-28 삼성전자주식회사 의료 영상 표시 방법 및 의료 영상 표시 장치
US10565173B2 (en) * 2017-02-10 2020-02-18 Wipro Limited Method and system for assessing quality of incremental heterogeneous data
JP7113790B2 (ja) * 2019-07-29 2022-08-05 富士フイルム株式会社 画像処理装置、方法およびプログラム
CN113867602A (zh) * 2021-09-26 2021-12-31 北京德为智慧科技有限公司 一种改善图像显示效果的方法及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01270173A (ja) * 1988-04-21 1989-10-27 Toshiba Corp 画像処理装置
JPH0876741A (ja) * 1994-09-02 1996-03-22 Konica Corp 画像表示装置
JPH08251576A (ja) * 1995-03-10 1996-09-27 Fuji Photo Film Co Ltd 画像表示方法および装置
JP2006014928A (ja) * 2004-07-01 2006-01-19 Fuji Photo Film Co Ltd 画像表示方法および装置並びにプログラム
JP2009207545A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 画像表示方法および装置
JP2011120747A (ja) * 2009-12-11 2011-06-23 Fujifilm Corp 画像表示装置および方法並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
US6413217B1 (en) * 2000-03-30 2002-07-02 Ge Medical Systems Global Technology Company, Llc Ultrasound enlarged image display techniques
JP2004105643A (ja) * 2002-09-20 2004-04-08 Toshiba Corp X線診断装置
JP2004329742A (ja) * 2003-05-12 2004-11-25 Canon Inc 画像表示装置、画像表示方法、コンピュータプログラムおよびコンピュータ読み取り可能な記録媒体
JP4798712B2 (ja) * 2004-09-24 2011-10-19 株式会社日立メディコ 医用画像表示装置及び方法並びにプログラム
JP2007029248A (ja) * 2005-07-25 2007-02-08 Hitachi Medical Corp 比較読影支援装置及び画像処理プログラム
DE102005047539A1 (de) * 2005-09-30 2007-04-05 Siemens Ag Bildverarbeitungsverfahren zur Fensterung und/oder Dosisregelung für medizinische Diagnostikeinrichtungen
FR2919747B1 (fr) * 2007-08-02 2009-11-06 Gen Electric Procede et systeme d'affichage d'images de tomosynthese
JP5508829B2 (ja) * 2009-12-11 2014-06-04 株式会社東芝 医用画像表示装置
FR2963976B1 (fr) * 2010-08-23 2013-05-10 Gen Electric Procede de traitement d'images pour la determination de zones suspectes dans une matrice tissulaire, et son utilisation pour la navigation 3d a travers la matrice tissulaire

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01270173A (ja) * 1988-04-21 1989-10-27 Toshiba Corp 画像処理装置
JPH0876741A (ja) * 1994-09-02 1996-03-22 Konica Corp 画像表示装置
JPH08251576A (ja) * 1995-03-10 1996-09-27 Fuji Photo Film Co Ltd 画像表示方法および装置
JP2006014928A (ja) * 2004-07-01 2006-01-19 Fuji Photo Film Co Ltd 画像表示方法および装置並びにプログラム
JP2009207545A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 画像表示方法および装置
JP2011120747A (ja) * 2009-12-11 2011-06-23 Fujifilm Corp 画像表示装置および方法並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2942776A1 (en) * 2014-05-06 2015-11-11 Goodrich Corporation System and Method for enhancing displayed images
US9466130B2 (en) 2014-05-06 2016-10-11 Goodrich Corporation Systems and methods for enhancing displayed images

Also Published As

Publication number Publication date
US20140347389A1 (en) 2014-11-27
JP2014097309A (ja) 2014-05-29
CN103889330B (zh) 2016-10-26
CN103889330A (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
WO2014061462A1 (ja) 医用画像表示装置
JP6116945B2 (ja) 医用情報閲覧装置
JP5562683B2 (ja) 蛍光観察装置
JP2007330334A (ja) X線撮影装置及びその方法
US11047809B2 (en) Radiation imaging system, radiation imaging method, control apparatus, and computer-readable medium
CN105307569A (zh) 用于显示目标的第一图像和第二图像的方法和设备
JP2017189245A5 (ja)
JP2016158963A5 (ja)
JP4976805B2 (ja) 乳房断層撮影装置
JP5595207B2 (ja) 医用画像表示装置
JP6740699B2 (ja) 画像解析システム
JP6926252B2 (ja) 医用画像表示装置
JP2011072381A (ja) 画像表示装置及び画像表示方法
JP2018061844A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5697515B2 (ja) 医用画像表示装置
JP2017023834A (ja) 画像処理装置、撮影システム及び画像処理方法
JP2004329742A (ja) 画像表示装置、画像表示方法、コンピュータプログラムおよびコンピュータ読み取り可能な記録媒体
JP7066358B2 (ja) 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
JP2010172560A (ja) 放射線画像撮影装置及び画像処理装置
JP5789369B2 (ja) X線画像表示装置
JP2007125102A (ja) 医用画像表示装置及び医用画像診断装置
KR20150047935A (ko) 다중 의료 영상을 표시하는 방법 및 이를 수행하기 위한 의료 영상 기기
JP7451168B2 (ja) 医用画像処理装置、及び医用画像処理システム
JP5322570B2 (ja) 医用画像処理装置
JP2007143952A (ja) X線撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13847785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13847785

Country of ref document: EP

Kind code of ref document: A1