WO2014181383A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2014181383A1
WO2014181383A1 PCT/JP2013/003016 JP2013003016W WO2014181383A1 WO 2014181383 A1 WO2014181383 A1 WO 2014181383A1 JP 2013003016 W JP2013003016 W JP 2013003016W WO 2014181383 A1 WO2014181383 A1 WO 2014181383A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
metal piece
original
original image
tomographic
Prior art date
Application number
PCT/JP2013/003016
Other languages
English (en)
French (fr)
Inventor
翔大 渡邉
智則 ▲崎▼本
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to US14/785,645 priority Critical patent/US9741127B1/en
Priority to PCT/JP2013/003016 priority patent/WO2014181383A1/ja
Priority to JP2015515659A priority patent/JP5971411B2/ja
Priority to CN201380076485.6A priority patent/CN105208937B/zh
Priority to EP13884130.9A priority patent/EP2995255B1/en
Publication of WO2014181383A1 publication Critical patent/WO2014181383A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Definitions

  • the present invention relates to an image processing apparatus that improves the visibility of a radiographic image, and more particularly to an image processing apparatus that can provide an image with high visibility even if a metal piece is reflected in the radiographic image.
  • Such a radiation imaging apparatus includes an image processing apparatus that displays an image with high visibility on a display monitor by performing image processing on the original image.
  • Some of such image processing apparatuses can generate a tomographic image.
  • a tomographic image is output by superimposing the original images.
  • a tomographic image is an image that captures an image that appears when a subject is cut along a certain plane.
  • the image processing apparatus cannot generate a tomographic image with excellent visibility by simply superimposing the original image including such a metal piece. This is because a false image is generated around the metal piece reflected in the generated tomographic image. Therefore, in the conventional image processing apparatus, a tomographic image is generated by performing separate image processing on the metal piece portion and the other portion of the original image, and a device is devised so that a false image does not occur in the tomographic image. (For example, refer to Patent Document 1).
  • a map indicating the distribution of metal pieces in the original image is required.
  • a map is generated by binarizing the original image. If the binarization process is performed on the original image, an image in which a metal piece that appears extremely dark in the original image is extracted can be obtained.
  • the Otsu method can be used to determine the threshold value in the binarization process (specifically, refer to Non-Patent Document 1).
  • PCT / JP2012 / 003525 Otus N A Threshold selection method from gray level histograms. IEEE Trans. Systems Man, and Cybernetics 9: 62-66, 1979
  • the conventional configuration as described above has the following problems. That is, in the method using the binarization process in the conventional configuration, the designation of the metal piece becomes inaccurate.
  • the present invention has been made in view of such circumstances, and the purpose of the present invention is to accurately discriminate between a metal piece and other parts with respect to an image in which the metal piece is reflected.
  • An object of the present invention is to provide an image processing apparatus capable of reliably improving the visibility of a portion other than a metal piece reflected in the image.
  • an image processing apparatus is an image processing apparatus that performs image processing on an original image in which a metal piece obtained by radiographic imaging of a subject in which a metal piece is embedded, By repeating the operation of calculating the standard deviation of the pixel values of the pixel of interest on the image and the pixels around the pixel of interest while changing the pixel of interest, the original image difference image generating means and the original image and the standard deviation image are added or An image calculation means for generating a calculation image by subtraction, a calculation image binarization means for generating a binarization calculation image in the original image by binarizing the calculation image, and a binarization calculation image Based on the distribution of the metal piece on the original image based on the base image, obtain the representative value of the pixel value of the metal piece part of the original image and the representative value of the pixel value of the part other than the metal piece, and refer to each representative value While using the graph It is characterized in further comprising
  • the metal piece reflected in the original image can be reliably extracted. That is, the standard deviation device that generates the standard deviation image in which the standard deviations for the pixels constituting the image processing of the present invention are mapped is the standard deviation image in which the standard deviations for the pixels constituting the original image are mapped. After the generation, an arithmetic image is generated by adding or subtracting the original image and the standard deviation image, and the metal piece is extracted by binarizing the arithmetic image. In this calculated image, the image of the structure seen in a portion other than the metal piece of the original image is deleted.
  • a structure that is not a metal piece that appears whitish in the original image does not appear in the calculation image.
  • an accurate graph cut process can be performed, so that an image derived from a structure that is not a metal piece appears in the result image. There is nothing.
  • each of the original images continuously shot while changing the imaging direction with respect to the subject is referred to the map, and the metal piece reflected in the original image is erased from the original image.
  • Metal piece removal processing for generating a removal image metal piece removal tomographic image generation processing for generating a metal piece removal tomographic image by superimposing a plurality of metal piece removal images, and metal from each of the original images with reference to the map
  • Metal piece trimming processing for generating a trimming image obtained by extracting a portion corresponding to a piece metal piece tomographic image generation processing for generating a metal piece tomographic image by superimposing a plurality of trimming images, metal piece removal tomographic image, and metal piece
  • the image processing apparatus of the present invention can be used when generating a tomographic image so as not to generate a false image around a metal piece.
  • the image processing apparatus according to the present invention can be mounted on a tomographic imaging apparatus.
  • the image processing apparatus of the present invention generates an arithmetic image by adding or subtracting a standard deviation image in which standard deviations of pixels constituting the original image are mapped and the original image.
  • this calculated image the image of the structure seen in a portion other than the metal piece of the original image is deleted. Therefore, for example, a structure that is not a metal piece that appears whitish in the original image does not appear in the calculation image.
  • an accurate graph cut process can be performed, so that an image derived from a structure that is not a metal piece appears in the result image. There is nothing.
  • FIG. 1 is a functional block diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
  • 1 is a functional block diagram illustrating a configuration of an original image capturing device according to Embodiment 1.
  • FIG. 3 is a schematic diagram illustrating the principle of obtaining a tomographic image according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining the operation of the image processing apparatus according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the operation of the tomographic image generation unit according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the
  • the image processing apparatus is an image processing apparatus that performs image processing on an original image P0 in which a metal piece obtained by radiographing a subject with a metal piece embedded therein is captured.
  • modes for carrying out the present invention will be described.
  • the image processing apparatus 22 of the present invention is configured to output a map Ma indicating the distribution of metal pieces reflected in the original image P0 when the original image P0 is input.
  • Various images can be considered as the original image P0.
  • the original image P0 is an image obtained by X-ray imaging of a subject in which a metal piece is embedded.
  • the original image P0 includes an image of a metal piece in the subject. That is, the metal piece m0 which comprises an artificial joint is shown by the original image P0 of FIG.
  • the image processing apparatus 22 includes units 11, 12, 12, 13, 14, 15, and 16 for the purpose of generating a map Ma based on the original image P0.
  • the standard deviation image generation unit 11 applies a standard deviation filter to the original image P0 to generate a standard deviation image P1.
  • the image subtracting unit 12 subtracts the standard deviation image P1 from the original image P0 to generate a subtracted image P2.
  • the binarization unit 13 performs binarization processing on the subtraction image P2 to generate a binarization subtraction image P3.
  • the contour extraction unit 14 generates a contour extraction image P4 from which the contour of the binarized subtraction image P3 is extracted.
  • the snake processing unit 15 recognizes the contour extracted from the contour extraction image P4 as an initial state, performs segmentation processing by snake on the original image P0, and displays a map Ma indicating the distribution of the metal piece m0 in the original image P0. Generate.
  • the graph cut processing unit 16 generates a map Ma indicating the distribution of the metal piece m0 in the original image P0 based on the original image P0 and the binarized subtraction image P3.
  • the operation performed by the contour extraction unit 14 and the snake processing unit 15 in cooperation with the operation performed by the graph cut processing unit 16 has a parallel relationship.
  • the map Ma may be acquired by performing image processing related to the snake processing, or the map Ma may be acquired by adding image processing related to the graph cut processing. Also good.
  • the standard deviation image generation unit 11 described above corresponds to the standard deviation image generation unit of the present invention
  • the image subtraction unit 12 corresponds to the image calculation unit of the present invention
  • the binarization unit 13 described above corresponds to the arithmetic image binarization unit of the present invention
  • the contour extraction unit 14 corresponds to the contour extraction unit of the present invention.
  • the above-described snake processing unit 15 corresponds to the snake processing unit of the present invention
  • the graph cut processing unit 16 corresponds to the graph cut processing unit of the present invention.
  • the subtraction image P2 described above corresponds to the calculation image of the present invention.
  • the original image P0 input to the image processing device 22 include a series of X-ray images taken by a tomosynthesis device.
  • the invention is devised so that the tomographic image generated by the tomosynthesis apparatus is sharpened by the image processing apparatus 22 of the present invention.
  • the tomographic image here is an image in which an image obtained when the subject M is cut at a certain cutting plane is reflected, and is generated using a radiation imaging apparatus.
  • FIG. 2 specifically shows such an apparatus.
  • the image processing apparatus 22 according to FIG. 2 includes the units 11, 12, 13, 14, 15, and 16 in FIG.
  • Embodiments of a radiation tomography apparatus capable of generating a tomographic image according to Embodiment 1 will be described with reference to the drawings.
  • the X-ray in an Example is corresponded to the radiation of the structure of this invention.
  • FPD is an abbreviation for flat panel X-ray detector (flat panel detector).
  • the X-ray imaging apparatus 50 of the present invention is for follow-up after an artificial joint replacement operation.
  • FIG. 2 is a functional block diagram illustrating the configuration of the X-ray imaging apparatus 50 according to the first embodiment.
  • the X-ray imaging apparatus 50 according to the first embodiment includes a top plate 2 on which a subject M that is an object of X-ray tomography is placed, and an upper portion of the top plate 2 (1 of the top plate 2 An X-ray tube 3 that irradiates the subject M with a cone-shaped X-ray beam toward the subject M, and a lower portion of the top 2 (the other side of the top).
  • the X-ray tube 3 and the FPD 4 are respectively connected to the FPD 4 that detects X-rays transmitted through the subject M, and the center axis of the cone-shaped X-ray beam and the center point of the FPD 4 are always coincident with each other.
  • a synchronous movement mechanism 7 that moves synchronously in opposite directions across the region of interest
  • a synchronous movement control unit 8 that controls the synchronous movement mechanism 7, and scattered X-rays provided so as to cover the X-ray detection surface that detects the X-rays of the FPD 4
  • an X-ray grid 5 that absorbs.
  • the top plate 2 is disposed at a position sandwiched between the X-ray tube 3 and the FPD 4.
  • the synchronous movement mechanism 7 includes an X-ray tube movement mechanism 7a that moves the X-ray tube 3 in the body axis direction A with respect to the subject M, and an FPD movement mechanism that moves the FPD 4 in the body axis direction A with respect to the subject M. 7b.
  • the synchronous movement control unit 8 includes an X-ray tube movement control unit 8a that controls the X-ray tube movement mechanism 7a and an FPD movement control unit 8b that controls the FPD movement mechanism 7b.
  • the synchronous movement control unit 8 moves the X-ray tube 3 and the FPD 4 in opposite directions when the original image P0 is continuously shot.
  • the X-ray tube 3 is configured to repeatedly irradiate the subject M with a cone-shaped and pulsed X-ray beam in accordance with the control of the X-ray tube control unit 6.
  • the X-ray tube 3 is provided with a collimator that collimates the X-ray beam into a cone shape that is a pyramid.
  • the X-ray tube 3 and the FPD 4 generate imaging systems 3 and 4 that capture an X-ray projection image.
  • the X-ray tube control unit 6 controls the X-ray tube 3 according to set values indicating tube current, tube voltage, pulse width, etc. when the X-ray tube 3 is controlled.
  • the synchronous movement mechanism 7 is configured to move the X-ray tube 3 and the FPD 4 in synchronization with the subject M.
  • the synchronous movement mechanism 7 linearly moves the X-ray tube 3 along a linear trajectory (longitudinal direction of the top 2) parallel to the body axis direction A of the subject M according to the control of the synchronous movement control unit 8.
  • the moving direction of the X-ray tube 3 and the FPD 4 coincides with the longitudinal direction of the top 2.
  • the cone-shaped X-ray beam irradiated by the X-ray tube 3 is always irradiated toward the region of interest of the subject M.
  • the X-ray irradiation angle is determined by the X-ray tube 3.
  • the initial angle is changed from ⁇ 20 ° to the final angle of 20 °.
  • Such an X-ray irradiation angle change is performed by the X-ray tube tilting mechanism 9.
  • the X-ray tube tilt control unit 10 is provided for the purpose of controlling the X-ray tube tilt mechanism 9.
  • the X-ray imaging apparatus 50 further includes a main control unit 25 that controls the control units 6, 8, 10, 11, and 12 in an integrated manner, and a display unit 27 that displays a tomographic image. ing.
  • the main control unit 25 is constituted by a CPU, and realizes the control units 6, 8, 10 and the later-described units 21, 22, 23 by executing various programs.
  • the storage unit 28 stores all data related to control of the X-ray imaging apparatus 50 such as parameters related to control of the X-ray tube 3.
  • the console 26 allows the operator to input each operation on the X-ray imaging apparatus 50.
  • the synchronous movement mechanism 7 synchronizes with the linear movement of the X-ray tube 3 described above, and causes the FPD 4 provided at the lower part of the top 2 to move in the body axis direction A (the longitudinal direction of the top 2) of the subject M. Move straight ahead.
  • the moving direction is opposite to the moving direction of the X-ray tube 3.
  • a cone-shaped X-ray beam whose focal position and irradiation direction change as the X-ray tube 3 moves is always received by the entire surface of the X-ray detection surface of the FPD 4. Yes.
  • the FPD 4 acquires, for example, 74 projected images while moving in synchronization with the X-ray tube 3 in the opposite directions.
  • the imaging systems 3 and 4 are opposed to the position indicated by the one-dot chain line shown in FIG. 2 via the position indicated by the broken line, with the position of the solid line as the initial position. That is, a plurality of X-ray projection images are taken while changing the positions of the X-ray tube 3 and the FPD 4.
  • the central axis of the cone-shaped X-ray beam during imaging always coincides with the center point of the FPD 4.
  • the center of the FPD 4 moves straight, but this movement is in the direction opposite to the movement of the X-ray tube 3. That is, the X-ray tube 3 and the FPD 4 are moved in the body axis direction A synchronously and in directions opposite to each other.
  • FIG. 3 is a diagram for explaining a tomographic image acquisition method of the X-ray imaging apparatus according to the first embodiment.
  • a virtual plane reference cut surface MA
  • points P and Q positioned on the reference cut surface MA are always set.
  • the FPD 4 is synchronized with the opposite direction of the X-ray tube 3 in accordance with the irradiation direction of the cone-shaped X-ray beam B by the X-ray tube 3 so as to be projected onto the fixed points p and q of the X-ray detection surface of the FPD 4.
  • a series of original images P0 is generated by the image generation unit 21 while being moved.
  • the projected image of the subject M is reflected while changing the position.
  • images for example, fixed points p and q located on the reference cut plane MA are accumulated and imaged as an X-ray tomographic image. It will be.
  • the point I not located on the reference cut surface MA is reflected as a point i in a series of subject M images while changing the projection position on the FPD 4.
  • a point i is blurred without forming an image when the tomographic image generation unit 23 superimposes the X-ray projection images.
  • an X-ray tomographic image in which only an image positioned on the reference cut surface MA of the subject M is reflected is obtained.
  • a tomographic image at the reference cut surface MA is obtained.
  • the tomographic image generation unit 23 corresponds to the tomographic image generation means of the present invention.
  • the tomographic image generation unit 23 corresponds to the tomographic image generation means of the present invention.
  • the tomographic image generation unit 23 can obtain a similar tomographic image even at an arbitrary cut surface horizontal to the reference cut surface MA.
  • the projection position of the point i moves in the FPD 4, but this moving speed increases as the separation distance between the point I before projection and the reference cut surface MA increases.
  • reconstruction is performed while shifting the acquired series of subject M images in the body axis direction A at a predetermined pitch, and a tomographic image at a cutting plane parallel to the reference cutting plane MA is obtained. It is done.
  • Such a series of tomographic image reconstruction is performed by the tomographic image generation unit 23.
  • the standard deviation image generation unit 11 sets one of the pixels constituting the original image P0 as the target pixel a. Then, the standard deviation image generation unit 11 sets the attention area R as, for example, a square area of 11 ⁇ 11 in the center with the attention pixel a as the center. This attention area R includes the attention pixel a.
  • the standard deviation image generation unit 11 acquires the pixel values of the pixels included in the attention area R from the original image P0 and calculates these standard deviations.
  • the standard deviation value calculated at this time is a value for the target pixel a.
  • the region of interest R is drawn as a 5 ⁇ 5 square for convenience of drawing.
  • the standard deviation image generation unit 11 sequentially calculates all the pixels constituting the original image P0 as the target pixel a, and calculates a standard deviation value for each target pixel a.
  • the standard deviation value mapping is performed next time. That is, the standard deviation image generation unit 11 repeats the operation of arranging the standard deviation value at the position of the target pixel a at the time of calculation.
  • the calculated standard deviation value is a pixel value.
  • the series of operations performed by the standard deviation image generation unit 11 is performed by applying a standard deviation filter that defines a region of interest R and a standard deviation calculation method to each pixel constituting the original image P0. It can also be expressed as generating the image P1.
  • FIG. 5 illustrates a case where the standard deviation image generation unit 11 sets a target pixel a and a target region R on the original image P0. At this time, there are pixels having similar pixel values around the pixel of interest a. In this case, the standard deviation of the target pixel a tends to be a low value.
  • FIG. 6 also shows a case where the standard deviation image generation unit 11 sets a target pixel a and a target region R on the original image P0.
  • the target pixel a at this time is assumed to be a pixel located at the boundary between the metal piece m0 and the other part in the original image P0.
  • the pixel values of the target pixel a and the surrounding pixels vary.
  • the standard deviation of the target pixel a tends to be a high value.
  • the standard deviation image P1 is an image in which the portion corresponding to the boundary between the metal piece m0 and the other portion in the original image P0 is conspicuous as a high pixel value (see the right side of FIG. 4). .
  • the bright point s0 is reflected in the original image P0.
  • This point s0 clearly does not belong to the metal piece m0, but is bright and conspicuous in the original image P0 like the metal piece m0.
  • Such a point s0 is a result of a structure that is difficult to transmit X-rays reflected in the original image P0 in an area other than the metal piece in the subject M.
  • Such a point s0 is likely to be extracted together when attempting to extract the metal piece m0 from the original image P0. Such a situation should be avoided from the viewpoint of accurate extraction of metal pieces.
  • this point s0 is on the standard deviation image P1.
  • a portion corresponding to the point s0 on the standard deviation image P1 is conspicuous on the image as a high pixel value, like the metal piece m0. This is because the standard deviation value of the pixels constituting the point s0 is high.
  • the point s0 is a conspicuous pixel in the original image P0. Accordingly, the pixels constituting the point s0 are bright, and relatively dark pixels are distributed around the pixels. Therefore, when the standard deviation value is calculated for the point s0, the state just described in FIG. 6 is obtained, and a high standard deviation value is acquired.
  • ⁇ Operation of Image Processing Device 22 Operation of Image Subtracting Unit 12>
  • the generated standard deviation image P1 is input to the image subtraction unit 12.
  • the image subtraction unit 12 generates a subtraction image P2 by subtracting the standard deviation image P1 from the original image P0.
  • the subtracted image P ⁇ b> 2 includes an image that darkly surrounds the bright metal piece m ⁇ b> 0.
  • the reason why the subtraction image P2 becomes like this will be described.
  • the pixel of the original image P0 corresponding to the high pixel value portion in the standard deviation image P1 should greatly reduce the pixel value by the subtraction process, and the pixel of the original image P0 corresponding to the low pixel value portion of the standard deviation image P1.
  • the pixel value should not decrease so much by the subtraction process.
  • This subtraction image P2 is an image in which an ambiguous pixel is filled with a dark pixel whether or not it belongs to the metal piece located at the contour of the metal piece m0 on the original image P0.
  • FIG. 8 is a histogram in which the original image P0 is developed with pixel values. In the original image P0, two peaks appear, a peak derived from the metal piece m0 in the original image P0 and a peak derived from a portion other than the metal piece.
  • a metal piece m0 is to be extracted from the original image P0.
  • pixels having an intermediate pixel value indicated by the symbol A are distributed between these two peaks. Many such pixels exist on the boundary between the metal piece m0 and the exception portion on the original image P0. If threshold processing is performed on such an ambiguous portion as to whether it is a metal or not, misidentification occurs in the determination. That is, it is determined that the pixel does not belong to the metal piece m0 in the original image P0 but belongs to the metal piece m0, or it is determined that the pixel belongs to the metal piece m0 in the original image P0 but does not belong to the metal piece m0. End up. A bright point s0 that appears in a portion other than the metal piece of the original image P0 also belongs to an intermediate band indicated by the symbol A. When the original image P0 is to be binarized, if the point s0 is a pixel value brighter than the threshold value, a misconception that the point s0 belongs to a metal piece occurs.
  • FIG. 9 is a histogram of the subtraction image P2. As compared with FIG. 8, it is noticed that the number of pixels in the portion indicated by the symbol A is reduced. In FIG. 9, the pixel value of the pixel which is ambiguous whether it is a metal piece existing around the metal piece m0 on the original image P0 or the pixel constituting the point s0 on the original image P0 is greatly reduced. This is because it was incorporated into a group that does not belong to the metal piece indicated by.
  • the binarization unit 13 performs threshold processing on the subtraction image P ⁇ b> 2, so that the region that reliably belongs to the metal piece m ⁇ b> 0 in the original image P ⁇ b> 0 and whether it is not a metal piece or a metal piece.
  • a binarized subtraction image P3 indicating the distribution of two ambiguous areas is generated.
  • the threshold value used by the binarization unit 13 at this time may be determined based on this pixel value when the pixel value of the metal piece m0 reflected in the original image P0 is known in advance, or the threshold value may be determined by the Otsu method. It may be determined automatically.
  • the binarized subtraction image P3 corresponds to the binarization calculation image of the present invention.
  • FIG. 11 specifically explains the processing that the binarization unit 13 performs on the subtraction image P2 by extracting a part of the subtraction image P2.
  • a dark belt-like region C is mixed between a bright portion in which the metal piece m0 is reflected and a dark portion that is not the metal piece m0 indicated by the symbol n0.
  • This belt-like region C is a portion located on the contour of the metal piece m0 that appears in the original image P0, and is also a portion where the pixel value has been greatly reduced by the image subtraction process.
  • the band-like region C is not incorporated in the region showing metal. In this way, the binarizing unit 13 divides the original image P0 into a region that surely belongs to the metal piece m0 and a region that is not a metal piece or an ambiguous whether it is a metal piece.
  • the binarized subtraction image P3 generated in this way is an image obtained by accurately extracting the metal piece m0 from the original image P0 as compared to an image obtained by simply binarizing the original image P0.
  • the binarized subtraction image P3 is an image in which a region where it is ambiguous whether or not it is a metal piece is an image incorporated into a non-metal region for the time being. Therefore, the distribution of the metal piece on the original image P0 is Should be wider than the distribution shown. Therefore, in the image processing apparatus 22 according to the first embodiment, the distribution of the metal piece m0 reflected in the original image P0 is determined by using the binarized subtraction image P3 in the subsequent image processing. There are two methods for this image processing, and the metal piece m0 is reliably extracted from the original image P0 by using either method. The two methods are specifically a method using a snake method and a method using a graph cut method. These two methods will be described in order hereinafter.
  • the snake method will be described.
  • the binarized subtraction image P3 is first sent to the contour extraction unit 14.
  • the contour extraction unit 14 performs a contour extraction process on the binarized subtraction image P3 to generate a contour extraction image P4.
  • the contour extraction image P4 is an image obtained by tracing the silhouette of a metal region (a region that definitely belongs to the metal piece m0 in the original image P0) reflected in the binarized subtraction image P3.
  • the metal region of the binarized subtraction image P3 appears on the contour extraction image P4 as a circle drawn with a line having a constant thickness closed.
  • the contour extraction image P4 is sent to the snake processing unit 15.
  • the snake processing unit 15 analyzes the shape of the annular figure on the contour extraction image P4, and sets a node nd as an index when the figure is deformed as shown on the left side of FIG. Then, the snake processing unit 15 determines the correct contour of the metal piece m0 in the original image P0 while moving the node nd as shown in the right side of FIG.
  • the snake processing unit 15 also refers to the original image P0 during operation.
  • the snake processing unit 15 repeats the deformation while applying the figure to the original image P0, and the figure is smooth, and the difference between the pixel value of the pixel included in the figure on the original image P0 and the pixel value of the pixel not included is determined.
  • the snake processing unit 15 recognizes the shape of the figure finally determined, and binarizes the original image P0 so as to divide the inside and outside regions of the figure. Then, as shown in FIG. 1, a map Ma that is a binarized image in which the metal piece m0 is appropriately extracted from the original image P0 is generated.
  • the image processing device 22 can also generate the map Ma by a method different from the above-described snake method. That is, the image processing device 22 appropriately extracts the metal piece m0 from the original image P0 based on the graph cut method and generates the map Ma. Also in this graph cut method, the binarized subtraction image P3 is the starting point of processing.
  • the binarized subtraction image P3 is sent to the graph cut processing unit 16.
  • the graph cut processing unit 16 acquires a representative value obj of a pixel value of a portion corresponding to the metal piece m0 in the original image P0 based on the binarized subtraction image P3.
  • This representative value obj is the most common pixel value in the metal piece m0.
  • the graph cut processing unit 16 calculates the representative value obj, first, with reference to the binarized subtraction image P3, a portion that reliably belongs to the metal piece m0 is set in the original image P0.
  • the graph cut processing unit 16 performs a histogram analysis on this portion as shown in FIG. 15, and obtains a pixel value that appears most frequently in this portion.
  • the pixel value obtained from this histogram is the representative value obj of the metal piece.
  • the graph cut processing unit 16 obtains a representative value bg of a pixel value corresponding to a portion other than the metal piece m0 in the original image P0.
  • This representative value bg is the most common pixel value in the portion other than the metal piece m0.
  • the graph cut processing unit 16 first sets a portion other than the metal piece m0 in the original image P0 with reference to the binarized subtraction image P3, similarly to the representative value obj. And the graph cut process part 16 performs a histogram analysis about this part, and acquires the pixel value which appears most frequently in this part. The pixel value obtained from this histogram is the representative value bg of the metal piece.
  • the portion corresponding to other than the metal piece m0 includes a portion where it is unclear whether it belongs to the metal piece in the original image P0. Therefore, when the representative value bg is determined, there is a possibility that the obtained representative value bg is deviated from the pixel value that appears most frequently in the part other than the metal piece m0 due to the influence of the pixel value of the ambiguous part. It seems to be. Certainly, the histogram created when the graph cut processing unit 16 obtains the representative value bg includes an ambiguous pixel.
  • the pixel value of the ambiguous part is similar to the pixel value of the metal piece as well as the pixel value of the ambiguous part appearing in the histogram, and the number of pixels is smaller than the pixel of the part other than the metal piece m0. . Therefore, the peak formed by the ambiguous pixel in the histogram is far from the main peak formed by the pixels other than the metal piece m0 and lower than the main peak. Since the graph cut processing unit 16 obtains the representative value bg with reference to the vertex of the main peak, it does not take into account the pixel of the ambiguous part whether it is a metal piece or not in the determination of the representative value bg. become.
  • the graph cut processing unit 16 performs a graph cut process on the original image P0 based on the representative value obj and the representative value bg, and accurately extracts the distribution of the metal piece m0 reflected in the original image P0. Pixels that have been subjected to the graph cut processing are accurately assigned to belong to a metal piece or a non-metal region.
  • FIG. 16 illustrates the concept of node n used in the graph cut method.
  • these pixels a are interpreted as nodes n connected to each other.
  • Each of the nodes n corresponds to each of the pixels a. Therefore, the nodes n are two-dimensionally arranged.
  • Each of the two-dimensionally arranged nodes n is connected to a node n adjacent to each other.
  • Nodes n connected to each other are deeply related, and form one lump. From this, by releasing the connection between the nodes n one after another, the lump that is one in the entire image is decomposed into two lumps.
  • One of the blocks thus decomposed is composed of only a node n corresponding to a pixel belonging to a metal piece.
  • the other block is composed of only nodes n corresponding to pixels belonging to the non-metal region.
  • FIG. 17 shows the first stage of the graph cut method.
  • the column of the node n denoted by reference numeral R1 in FIG. 16 will be extracted and described.
  • two nodes na and nb are added in addition to the node n corresponding to the pixel a.
  • the node na is a virtual node that represents a pixel belonging to a metal piece. This node na is connected to all the nodes n.
  • the node nb is a virtual node representing a pixel belonging to the non-metal region. This node nb is also connected to all the nodes n.
  • the graph cut processing unit 16 associates the representative value obj with the node na and associates the representative value bg with the node nb. After that, the graph cut processing unit 16 distributes the node n. For example, as illustrated in FIG. 17, the graph cut processing unit 16 associates a node n1 of which the pixel value is the same as the representative value obj among the nodes n with the node na. Similarly, the node n5 having the same pixel value as the representative value bg among the nodes n is connected to the node nb.
  • the node n2 shown in FIG. 18 is an ambiguous pixel whether it belongs to a metal piece.
  • the graph cut processing unit 16 distributes the node n2, the graph cut processing unit 16 pays attention to a connection line connected to the node n2.
  • These connection lines are assigned evaluation values called costs.
  • the graph cut processing unit 16 cuts the connection line by comparing the costs. This cost is determined by the pixel value of the pixel corresponding to the node n. That is, when the pixel values of adjacent pixels are similar, the cost of the connection line between the nodes n corresponding to the adjacent pixels is set low.
  • the cost of the connection line between the node n and the node na corresponding to this pixel is set low.
  • the cost of the connection line between the node n and the node nb corresponding to this pixel is set low.
  • the low cost represents the depth of relevance between nodes.
  • the graph cut processing unit 16 repeats cutting the connection line while maintaining the connection line with low cost.
  • the node n2 has been determined that the connection between the node n and the node nb on the right is released, and the corresponding pixel a belongs to a metal piece.
  • the graph cut processing unit 16 executes such distribution of the nodes n for all the nodes n, and generates a map Ma in which the distribution result is represented by a binary image.
  • the map Ma accurately represents the distribution of metal pieces in the original image P0.
  • the tomographic image generation unit 23 that generates a tomographic image by superimposing the original image P0 will be described.
  • the tomographic image generation unit 23 refers to not only the original image P0 but also the above-described map Ma during operation.
  • the tomographic image is generated when the 74 original images P ⁇ b> 0 are overlapped by the tomographic image generating unit 23. Therefore, if only the tomographic image is generated, it is not necessary to generate the map Ma by the image processing device 22.
  • the X-ray tomography apparatus of Example 1 is devised so that such a false image does not occur in the tomographic image. That is, the X-ray tomography apparatus according to the first embodiment is configured so that a false image does not appear in the tomographic image by devising the superposition of metal pieces by the function of the image processing apparatus 22. That is, the tomographic image in the first embodiment is not generated by superimposing the original image P0 as it is. That is, as shown in FIG. 19, the tomographic image is generated by the tomographic image generation unit 23 while referring to a map Ma in which metal pieces are extracted from each of the original images P0. The map Ma is made when the image processing device 22 performs metal piece extraction processing on each of the 74 original images P0. Therefore, 74 maps Ma are generated.
  • the tomographic image generation unit 23 generates a tomographic image while referring to the map Ma generated by the image processing device 22. This situation will be specifically described. First, the tomographic image generation unit 23 performs image processing for erasing the image of the metal piece reflected in each of the original images P0. That is, as shown in FIG. 20, the tomographic image generation unit 23 refers to the map Ma and grasps the position, size, and range of the metal piece reflected in the original image P0. Then, the tomographic image generation unit 23 converts the pixel value of the pixel inside the metal piece into the pixel value of the pixel around the metal piece.
  • the pixel value related to the conversion at this time is, for example, an average value of pixel values of pixels around the metal piece.
  • a metal piece removal image P8 is generated in which the metal piece reflected in the original image P0 is assimilated around.
  • This metal piece removal image P8 is generated for each of the 74 original images P0.
  • the tomographic image generation unit 23 refers to the map Ma in which the image of the metal piece is extracted from each of the original images P0 continuously shot while changing the imaging direction with respect to the subject M, and the original image P0.
  • a metal piece removal process for generating a metal piece removal image P8 by erasing the metal piece reflected in the original image P0 is performed.
  • the tomographic image generation unit 23 generates a tomographic image by superimposing 74 pieces of metal piece removal images P8 as shown in FIG.
  • the image generated at this time is called a metal piece removal tomographic image D1 for distinction. Since the metal piece removal tomographic image D1 is generated by superimposing images in which the metal piece is assimilated with the periphery of the metal piece, no false image appears around the metal piece. However, the portion corresponding to the metal piece indicated by the hatched portion in the metal piece removal tomographic image D1 in FIG. 21 is filled with incorrect pixel values.
  • the tomographic image generator 23 operates to bring the pixel value of the metal piece portion in the metal piece removal tomographic image D1 closer to the correct one.
  • the tomographic image generation unit 23 performs the metal piece removal tomographic image generation processing for generating the metal piece removal tomographic image D1 by superimposing the plurality of metal piece removal images P8.
  • the map Ma is a binarized image and represents the shape of the metal piece on the original image P0, whereas the trimmed image P9 represents not only the shape of the metal piece but also the shading inside the metal piece. It has become an image. Incidentally, the metal piece in the trimmed image P9 appears to be thinner than the metal piece reflected in the original image P0. In the subtraction process between images, the pixel value of the metal piece of the metal piece removal image P8 (the pixel value of the pixels around the metal piece in the original image P0) is subtracted from the pixel value of the pixel on the metal piece of the original image P0. Because. As described above, the tomographic image generation unit 23 performs the metal piece trimming process for generating the trimming image P9 obtained by extracting the portion corresponding to the metal piece from each of the original images P0 with reference to the map Ma.
  • the tomographic image generation unit 23 generates a tomographic image by superimposing 74 trimmed images P9.
  • the image generated at this time is called a metal piece tomographic image D2 for distinction.
  • the metal piece tomographic image D2 is a tomographic image having a cut surface in common with the metal piece removal tomographic image D1. Further, since the metal piece tomographic image D2 is generated by superimposing images in which only the metal pieces are captured, the tomographic image of the metal pieces is captured. Therefore, the portion corresponding to the periphery of the metal piece indicated by the hatched portion in the metal piece tomographic image D2 in FIG. 23 is not imaged at all. As described above, the tomographic image generation unit 23 performs the metal piece tomographic image generation process for generating the metal piece tomographic image D2 by superimposing the plurality of trimming images P9.
  • the tomographic image generation unit 23 generates two different types of tomographic images. Finally, the tomographic image generation unit 23 performs a process of adding the tomographic images D1 and D2 as shown in FIG.
  • the tomographic image generated in this way is referred to as a synthetic tomographic image D3 for distinction.
  • This synthetic tomographic image D3 is excellent in visibility. That is, since the portion other than the metal piece in the composite tomographic image D3 is derived from the metal piece removal tomographic image D1, no false image appears.
  • the tomographic image generation unit 23 adds the metal piece removal tomographic image D1 and the metal piece tomographic image D2 to generate a composite tomographic image D3.
  • the composite tomographic image D3 is displayed on the display unit 27, and the operation of the apparatus according to the first embodiment is finished.
  • the metal piece reflected in the original image can be reliably extracted. That is, the image processing apparatus 22 of the present invention generates a standard deviation image P1 in which standard deviations of pixels constituting the original image are mapped, and then performs subtraction by adding or subtracting the original image and the standard deviation image P1. An image P2 is generated, and the metal piece is extracted by binarizing the subtraction image P2. In the subtracted image P2, the image of the structure seen in a portion other than the metal piece of the original image is deleted. Therefore, a structure that is not a metal piece that is reflected in, for example, whitish in the original image does not appear in the subtraction image P2.
  • an accurate graph cut process can be performed, so that an image derived from a structure that is not a metal piece is included in the result image. None appear.
  • the present invention is not limited to the configuration described above, and can be modified as follows.
  • the above-described image processing device 22 includes the image subtracting unit 12 and includes the subtracted image P2 by subtracting the standard deviation image P1 from the original image P0. This is because the metal piece m0 is bright and conspicuous in the original image P0. That is, the above example is effective when the pixel of the metal piece m0 in the original image P0 has a high pixel value.
  • the image adding unit is configured to add the original image P0 and the standard deviation image P1 to generate an added image.
  • an addition image is to be generated, pixel values are greatly added in the vicinity of the contour of the metal piece m0 in the original image P0 and in a portion where a dark structure other than the metal piece is reflected. Therefore, the added image is an image that can easily distinguish between a portion that is a metal piece and a portion that is not. If this added image is binarized, an image equivalent to the binarized subtracted image P3 described in the first embodiment can be obtained.
  • the image processing apparatus according to the present invention is suitable for the medical field.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 本発明の画像処理装置は、元画像を構成する画素についての標準偏差がマッピングされた標準偏差画像と元画像とを加算または減算することにより演算画像を生成する。この演算画像は、元画像の金属片以外の部分に見られる構造物の像が消去されている。したがって、元画像で例えば白っぽく写り込んでいた金属片でない構造物が演算画像には現れていない。このような演算画像に例えば白っぽく写り込んでいる金属片を抽出する二値化処理を加えれば、正確なグラフカット処理ができるようになるので結果画像に金属片でない構造物に由来する像が現れることがない。

Description

画像処理装置
 本発明は、放射線画像の視認性を向上させる画像処理装置に関し、特に、放射線画像に金属片が写り込んでいても視認性の高い画像を提供することができる画像処理装置に関する。
 医療機関には放射線で被検体の画像を取得する放射線撮影装置が備えられている。このような放射線撮影装置には、元画像に画像処理を加えることにより表示モニタに視認性の高い画像を表示させる画像処理装置が備えられている。
 この様な画像処理装置の中には断層画像を生成できるものがある。この様な画像処理装置に、撮影方向を変えながら連写された複数の元画像を入力すると、元画像が重ね合わせられることにより断層画像が出力される。断層画像とは、被検体をある平面で裁断したときに現れる像を写し込んだ画像である。
 ところで、過去に被検体が骨を金属片で補強するような手術を受けた経験がある場合、この金属片が撮影された元画像に写り込んでしまう。体内に金属片が埋め込まれている被検体について撮影を行うと、放射線が透過しにくい金属片が元画像上にはっきりと写り込んでしまうのである。この元画像上の金属片は、元画像上において極端に明るく写り込んでいる。
 画像処理装置は、このような金属片が写り込んだ元画像を単純に重ね合わせるだけでは視認性に優れた断層画像を生成することができない。生成された断層画像に写り込んだ金属片の周りに偽像が発生するからである。そこで従来の画像処理装置では、元画像の金属片の部分とそれ以外の部分とで別々の画像処理を行うことで断層画像を生成し、断層画像に偽像が発生しないように工夫がされている(例えば、特許文献1参照)。
 このような偽像の軽減が可能な画像処理を実行するには、元画像における金属片の分布を示すマップが必要となる。従来構成においてこのようなマップは、元画像に二値化処理を施すことにより生成される。元画像に二値化処理を行えば、元画像に極端に暗く写り込む金属片が抽出されたような画像が得られるのである。二値化処理における閾値の決定については大津法が利用できる(具体的には非特許文献1参照)。
PCT/JP2012/003525 Otus N: A Threshold selection method from grey level histograms.  IEEE Trans. Systems Man, and Cybernetics 9: 62-66, 1979
 しかしながら、上述のような従来構成によれば、次のような問題点がある。すなわち、従来構成における二値化処理を用いた方法では、金属片の指定が不正確となる。
 従来方法に係る二値化処理では、金属片を正確に抽出することができない。被検体の金属片の回りには、放射線を吸収しやすいセメントなどが位置している場合があり、二値化処理を行う際に元画像に写り込むセメントと金属片とを見分けるのは難しいからである。したがって、従来の二値化処理では元画像上の金属片を抽出する際に、元画像上の金属片でない部分が金属片を示す部分に含まれてしまう。これが、元画像上における金属片の認定の誤認を招き、元画像に施される断層画像生成処理に悪影響を与える。
 また、元画像には、金属片以外の部分に細かい構造物が白っぽく写し込んでいるものがある。このような状況で、同じく元画像に白っぽく写り込んでいる金属片を抽出しようとして二値化処理を行うと、細かい構造物も抽出してしまうことがある。この様な誤った抽出も断層画像生成処理に悪影響を与える。
 本発明は、この様な事情に鑑みてなされたものであって、その目的は、金属片が写り込んでいる画像に対して金属片とそれ以外の部分とを正確に判別することで、画像に写り込む金属片以外の部分について視認性を確実に向上することができる画像処理装置を提供することにある。
 本発明は上述の課題を解決するために次のような構成をとる。
 すなわち、本発明に係る画像処理装置は、内部に金属片が埋め込まれた被検体を放射線撮影することで得られる金属片を写し込んだ元画像に画像処理を施す画像処理装置であって、元画像上の注目画素および注目画素の周辺の画素の画素値の標準偏差を算出する動作を注目画素を変えながら繰り返すことにより、元画差画像生成手段と、元画像と標準偏差画像とを加算または減算することにより、演算画像を生成する画像演算手段と、演算画像を二値化することにより、元画像における二値化演算画像を生成する演算画像二値化手段と、二値化演算画像を基に元画像上の金属片の分布を把握して、元画像の金属片の部分の画素値の代表値および金属片以外の部分の画素値の代表値を取得し、各代表値を参照しながら元画像に対してグラフカット処理を施して元画像における金属片の分布を示すマップを生成するグラフカット処理手段とを備えることを特徴とするものである。
 [作用・効果]本発明の構成によれば、元画像に写り込んだ金属片を確実に抽出できるような構成となっている。すなわち、本発明の画像処像を構成する画素についての標準偏差がマッピングされた標準偏差画像を生成する標準偏理装置は、元画像を構成する画素についての標準偏差がマッピングされた標準偏差画像を生成したあと、元画像と標準偏差画像とを加算または減算することにより演算画像を生成し、この演算画像を二値化することで金属片の抽出を行うようにしている。この演算画像は、元画像の金属片以外の部分に見られる構造物の像が消去されている。したがって、元画像で例えば白っぽく写り込んでいた金属片でない構造物が演算画像には現れていない。このような演算画像に例えば白っぽく写り込んでいる金属片を抽出する二値化処理を加えれば、正確なグラフカット処理ができるようになるので結果画像に金属片でない構造物に由来する像が現れることがない。
 また、上述の画像処理装置において、被検体に対して撮影方向を変えながら連写された元画像の各々をマップを参照して、元画像に写り込む金属片を元画像から消去して金属片除去画像を生成する金属片除去処理と、複数の金属片除去画像を重ね合わせて金属片除去断層画像を生成する金属片除去断層画像生成処理と、マップを参照して、元画像の各々から金属片に相当する部分を取り出したトリミング画像を生成する金属片トリミング処理と、複数のトリミング画像を重ね合わせて金属片断層画像を生成する金属片断層画像生成処理と、金属片除去断層画像と金属片断層画像とを加算して合成断層画像を生成する断層画像加算処理とを実行する断層画像生成手段を備えればより望ましい。
 [作用・効果]本発明の画像処理装置は、金属片の周りに偽像が生じさせないように断層画像を生成する場合に用いることができる。
 また、本発明に係る画像処理装置は、断層画像撮影装置に搭載することもできる。
 本発明の画像処理装置は、元画像を構成する画素についての標準偏差がマッピングされた標準偏差画像と元画像とを加算または減算することにより演算画像を生成する。この演算画像は、元画像の金属片以外の部分に見られる構造物の像が消去されている。したがって、元画像で例えば白っぽく写り込んでいた金属片でない構造物が演算画像には現れていない。このような演算画像に例えば白っぽく写り込んでいる金属片を抽出する二値化処理を加えれば、正確なグラフカット処理ができるようになるので結果画像に金属片でない構造物に由来する像が現れることがない。
実施例1に係る画像処理装置の構成を説明する機能ブロック図である。 実施例1に係る元画像の撮影装置の構成を説明する機能ブロック図である。 実施例1に係る断層画像の取得原理を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る画像処理装置の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。 実施例1に係る断層画像生成部の動作を説明する模式図である。
 本発明に係る画像処理装置は、内部に金属片が埋め込まれた被検体を放射線撮影することで得られる金属片を写し込んだ元画像P0に画像処理を施す画像処理装置である。以下、本発明を実施するための形態について説明する。
 まず、本発明に係る画像処理装置22の実施例について説明する。本発明の画像処理装置22は、図1に示すように元画像P0を入力すると、元画像P0に写り込んでいる金属片の分布を示すマップMaが出力される構成となっている。元画像P0には、様々な画像が考えられるが、本発明の特徴を最も効果的に表す目的で、元画像P0は、金属片が埋め込まれた被検体をX線撮影して得られた画像であるものとする。そして、この元画像P0には、被検体内にある金属片の像が写り込んでいるものとする。すなわち、図1の元画像P0には、人工関節を構成する金属片m0が示されている。
 画像処理装置22は、元画像P0を元にマップMaを生成する目的で、各部11,12,12,13,14,15,16を備えている。このうち、標準偏差画像生成部11は、元画像P0に標準偏差フィルタを施して標準偏差画像P1を生成する。画像減算部12は、元画像P0から標準偏差画像P1を減算して減算画像P2を生成する。二値化部13は、減算画像P2に対して二値化処理を行い二値化減算画像P3を生成する。輪郭抽出部14は、二値化減算画像P3の輪郭が抽出された輪郭抽出画像P4を生成する。スネーク処理部15は、輪郭抽出画像P4で抽出されている輪郭を初期状態と認識して、元画像P0に対してスネークによるセグメンテーション処理を行い元画像P0における金属片m0の分布を示すマップMaを生成する。グラフカット処理部16は、元画像P0,および二値化減算画像P3に基づいて元画像P0における金属片m0の分布を示すマップMaを生成する。輪郭抽出部14およびスネーク処理部15が協働して行う動作と、グラフカット処理部16が行う動作は、並列的な関係にある。二値化減算画像P3に対しては、スネーク処理に係る画像処理を加えてマップMaを取得するようにしてもよいし、グラフカット処理に係る画像処理を加えてマップMaを取得するようにしてもよい。
 上述の標準偏差画像生成部11は、本発明の標準偏差画像生成手段に相当し、画像減算部12は、本発明の画像演算手段に相当する。また、上述の二値化部13は、本発明の演算画像二値化手段に相当し、輪郭抽出部14は、本発明の輪郭抽出手段に相当する。そして、上述のスネーク処理部15は、本発明のスネーク処理手段に相当し、グラフカット処理部16は、本発明のグラフカット処理手段に相当する。また、上述の減算画像P2は、本発明の演算画像に相当する。
 画像処理装置22に入力される元画像P0としては具体的には、トモシンセシス装置で撮影される一連のX線画像がある。本発明の画像処理装置22によりトモシンセシス装置で生成された断層画像を鮮明にするように工夫がされている。ここでいう断層画像は、被検体Mをある裁断面で裁断したときに得られる像が写り込んだ画像のことであり、放射線撮影装置を用いて生成される。図2は、この様な装置を具体的に示している。図2に係る画像処理装置22とは、図1における各部11,12,13,14,15,16から構成されている。
 実施例1に係る断層画像を生成することができる放射線断層撮影装置の実施例について図面を参照しながら説明する。なお、実施例におけるX線は、本発明の構成の放射線に相当する。なお、FPDは、フラットパネル型X線検出器(フラット・パネル・ディテクタ)の略である。本発明のX線撮影装置50は、人工関節置換手術後の経過観察用となっている。
 図2は、実施例1に係るX線撮影装置50の構成を説明する機能ブロック図である。図2に示すように、実施例1に係るX線撮影装置50は、X線断層撮影の対象である被検体Mを載置する天板2と、天板2の上部(天板2の1面側)に設けられた被検体Mに対してコーン状のX線ビームを被検体Mに向けて照射するX線管3と、天板2の下部(天板の他面側)に設けられ、被検体Mを透過したX線を検出するFPD4と、コーン状のX線ビームの中心軸とFPD4の中心点とが常に一致する状態でX線管3とFPD4との各々を被検体Mの関心部位を挟んで互いに反対方向に同期移動させる同期移動機構7と、これを制御する同期移動制御部8と、FPD4のX線を検出するX線検出面を覆うように設けられた散乱X線を吸収するX線グリッド5とを備えている。この様に、天板2は、X線管3とFPD4とに挟まれる位置に配置されている。
 同期移動機構7は、X線管3を被検体Mに対して体軸方向Aに移動させるX線管移動機構7aと、FPD4を被検体Mに対して体軸方向Aに移動させるFPD移動機構7bとを備えている。また、同期移動制御部8は、X線管移動機構7aを制御するX線管移動制御部8aとFPD移動機構7bを制御するFPD移動制御部8bとを備えている。同期移動制御部8は、元画像P0が連写される際に、X線管3およびFPD4を互いに反対方向に移動させる。
 X線管3は、X線管制御部6の制御にしたがってコーン状でパルス状のX線ビームを被検体Mに対して繰り返し照射する構成となっている。このX線管3には、X線ビームを角錐となっているコーン状にコリメートするコリメータが付属している。そして、このX線管3と、FPD4はX線投影画像を撮像する撮像系3,4を生成している。X線管制御部6は、X線管3を制御するときの管電流、管電圧、パルス幅などを示す設定値に従いX線管3を制御する。
 同期移動機構7は、被検体Mに対してX線管3とFPD4とを同期させて移動させる構成となっている。この同期移動機構7は、同期移動制御部8の制御にしたがって被検体Mの体軸方向Aに平行な直線軌道(天板2の長手方向)に沿ってX線管3を直進移動させる。このX線管3とFPD4との移動方向は、天板2の長手方向に一致している。しかも、検査中、X線管3の照射するコーン状のX線ビームは、常に被検体Mの関心部位に向かって照射されるようになっており、このX線照射角度は、X線管3の角度を変更することによって、たとえば初期角度-20°から最終角度20°まで変更される。この様なX線照射角度の変更は、X線管傾斜機構9が行う。X線管傾斜制御部10は、X線管傾斜機構9を制御する目的で設けられている。
 そして、さらに実施例1に係るX線撮影装置50は、各制御部6,8,10,11,12を統括的に制御する主制御部25と、断層画像を表示する表示部27とを備えている。この主制御部25は、CPUによって構成され、各種のプログラムを実行することにより各制御部6,8,10および後述の各部21,22,23を実現している。記憶部28は、X線管3の制御に関わるパラメータなどのX線撮影装置50の制御に関するデータの一切を記憶する。操作卓26は、術者のX線撮影装置50に対する各操作を入力させるものである。
 また、同期移動機構7は、上述のX線管3の直進移動に同期して、天板2の下部に設けられたFPD4を被検体Mの体軸方向A(天板2の長手方向)に直進移動させる。そして、その移動方向は、X線管3の移動方向と反対方向となっている。つまり、X線管3が移動することによってX線管3の焦点の位置と照射方向が変化するコーン状のX線ビームは、常にFPD4のX線検出面の全面で受光される構成となっている。このように、一度の検査において、FPD4は、X線管3と互いに反対方向に同期して移動しながら、たとえば74枚の投影画像を取得するようになっている。具体的には、撮像系3,4は、実線の位置を初期位置として、破線で示した位置を介して、図2に示した一点鎖線で示す位置まで対向移動する。すなわち、X線管3とFPD4の位置を変化させながら複数のX線投影画像が撮影されることになる。ところで、コーン状のX線ビームは常にFPD4のX線検出面の全面で受光されるので、撮影中コーン状のX線ビームの中心軸は、常にFPD4の中心点と一致している。また、撮影中、FPD4の中心は、直進移動するが、この移動はX線管3の移動の反対方向となっている。つまり、体軸方向AにX線管3とFPD4とを同期的、かつ互いに反対方向に移動させる構成となっている。
 <断層画像の取得原理>
 続いて、実施例1に係るX線撮影装置50の断層画像の取得原理について説明する。実施例1の構成では、被検体Mを平面上で裁断したときの画像である断層画像を複数生成することにより断層画像を生成する。図3は、実施例1に係るX線撮影装置の断層画像の取得方法を説明する図である。例えば、天板2に平行な(鉛直方向に対して水平な)仮想平面(基準裁断面MA)について説明すると、図3に示すように、基準裁断面MAに位置する点P,Qが、常にFPD4のX線検出面の不動点p,qのそれぞれに投影されるように、X線管3によるコーン状のX線ビームBの照射方向に合わせてFPD4をX線管3の反対方向に同期移動させながら一連の元画像P0が画像生成部21にて生成される。一連の元画像P0には、被検体Mの投影像が位置を変えながら写り込んでいる。そして、この一連の元画像P0を断層画像生成部23にて再構成すれば、基準裁断面MAに位置する像(たとえば、不動点p,q)が集積され、X線断層画像としてイメージングされることになる。一方、基準裁断面MAに位置しない点Iは、FPD4における投影位置を変化させながら一連の被検体M画像に点iとして写り込んでいる。この様な点iは、不動点p,qとは異なり、断層画像生成部23でX線投影画像を重ね合わせる段階で像を結ばずにボケる。このように、一連の投影画像の重ね合わせを行うことにより、被検体Mの基準裁断面MAに位置する像のみが写り込んだX線断層画像が得られる。このように、投影画像を単純に重ね合わせると、基準裁断面MAにおける断層画像が得られる。断層画像生成部23は、本発明の断層画像生成手段に相当する。断層画像生成部23は、本発明の断層画像生成手段に相当する。
 さらに、断層画像生成部23は、基準裁断面MAに水平な任意の裁断面においても、同様な断層画像を得ることができる。撮影中、FPD4において上記点iの投影位置は移動するが、投影前の点Iと基準裁断面MAとの離間距離が大きくなるにしたがって、この移動速度は増加する。これを利用して、取得された一連の被検体M画像を所定のピッチで体軸方向Aにずらしながら再構成を行うようにすれば、基準裁断面MAに平行な裁断面における断層画像が得られる。このような一連の断層画像の再構成は、断層画像生成部23が行う。
 <画像処理装置22の動作:標準偏差画像生成部11の動作>
 続いて画像処理装置22の動作について具体的に説明する。画像処理装置22に金属片m0が写り込んだ元画像P0を入力すると、元画像P0は、標準偏差画像生成部11に入力され、図4に示すような標準偏差画像P1が生成される。この標準偏差画像P1は、元画像P0を構成する画素についての標準偏差がマッピングされたものとなっている。標準偏差とは、統計で用いられるバラツキの指標であり、具体的には、元画像P0を構成するある画素およびその画素の周辺の画素の画素値のバラツキの指標である。
 標準偏差画像生成部11が標準偏差画像P1を生成するときの動作について説明する。標準偏差画像生成部11は、図5に示すように元画像P0を構成する画素のうちの一つを注目画素aとする。そして標準偏差画像生成部11は、この注目画素aを中心として例えば縦11×横11の正方形の領域を注目領域Rとする。この注目領域Rには、注目画素aも含まれていることになる。標準偏差画像生成部11は、注目領域Rに含まれる画素の画素値を元画像P0から取得してこれらの標準偏差を計算する。このとき計算された標準偏差値は、注目画素aについての値であることになる。なお、図5においては、作図の都合上、注目領域Rは縦5×横5の正方形として描かれている。
 標準偏差画像生成部11は、元画像P0を構成する画素の全てを順番に注目画素aしていき、注目画素aごとの標準偏差値を算出する。標準偏差画像生成部11は、元画像P0を構成する画素の全てについて標準偏差値を算出し終えると、今度は、標準偏差値のマッピングを行う。すなわち、標準偏差画像生成部11は、標準偏差値を算出の際の注目画素aの位置に配置する動作を繰り返す。こうして、算出された標準偏差値は、全て一つの画像に配置される。こうしてできあがった標準偏差画像P1は、算出された標準偏差値が画素値となっている。このような一連の標準偏差画像生成部11が行う動作は、元画像P0を構成する各画素に対し、注目領域Rと標準偏差の算出方法とを規定した標準偏差フィルタを作用させることにより標準偏差画像P1を生成するとも表現することができる。
 この様にして生成された標準偏差画像P1の意味について説明する。図5は、標準偏差画像生成部11が元画像P0上においてある注目画素aおよび注目領域Rを設定したときを表している。このときの注目画素aの周囲には似通った画素値を有する画素が存在している。この場合、注目画素aの標準偏差は低い値となる傾向がある。
 図6も標準偏差画像生成部11が元画像P0上においてある注目画素aおよび注目領域Rを設定したときを表している。このときの注目画素aは、元画像P0において、金属片m0とそれ以外の部分との境目に位置する画素であるものとする。このとき、注目画素aと周囲の画素の画素値はバラついたものとなる。この場合、注目画素aの標準偏差は高い値となる傾向がある。
 つまり、標準偏差画像P1において、画素値が高い部分は、元画像P0上で画素値がバラついている部分に相当し、画素値が低い部分は、元画像P0上で画素値が似通っている部分に相当するのである。この様な事情があるので、標準偏差画像P1は、元画像P0における金属片m0とそれ以外の部分との境界に当たる部分が高い画素値として目立っているような画像となる(図4右側参照)。
 ちなみに、元画像P0には、明るい点s0が写り込んでいる。この点s0は、明らかに金属片m0には属しないが、元画像P0には金属片m0と同様に明るく目立っている。この様な点s0は、被検体Mにおける金属片以外の領域において、X線を通しにくい構造物が元画像P0に写り込んだ結果である。この様な点s0は、元画像P0から金属片m0を抽出しようとするときに、いっしょに抽出されやすい。この様な事態は、金属片の正確な抽出の観点から避けるべきである。
 この点s0が標準偏差画像P1上でどのようになっているかを説明する。標準偏差画像P1上における点s0に相当する部分は、金属片m0と同様、高い画素値として画像上で目立っている。点s0を構成する画素の標準偏差値が高いからである。点s0は、元画像P0において目立っている画素である。したがって、点s0を構成する画素は明るく、その周りには、比較的暗い画素が分布する。したがって、点s0について標準偏差値の算出を行うと、ちょうど図6で説明したような状態となり、高い標準偏差値が取得されるのである。
 <画像処理装置22の動作:画像減算部12の動作>
 生成された標準偏差画像P1は、画像減算部12に入力される。画像減算部12は、図7に示すように、元画像P0から標準偏差画像P1を減算することで減算画像P2を生成する。
 この減算画像P2はいかなるものであるか説明する。減算画像P2は、図7右側に示すように、明るい金属片m0の周りを暗く囲んだような像を写し込んでいる。減算画像P2がこの様になる理由について説明する。元画像P0から標準偏差画像P1を減算する場合、減算のされ具合が元画像P0の部分によってどのように違うかを考えてみる。標準偏差画像P1には、画素値の高い部分と画素値の低い部分とが混在しているから、元画像P0が受ける減算の程度は、画像の部分によって変化する。標準偏差画像P1において画素値の高い部分に相当する元画像P0の画素は、減算処理により大きく画素値を減らすはずであり、標準偏差画像P1において画素値の低い部分に相当する元画像P0の画素は、減算処理によりそれほど画素値が減少しないはずである。
 標準偏差画像P1において、画素値が高いのは、上述のように、元画像P0において金属片m0とそれ以外の部分との境界であった。したがって、元画像P0に減算処理を行うと、この境界の部分に位置する画素の画素値が大きく減少し、図7左側のような画像になるというわけである。この減算画像P2は、元画像P0上の金属片m0の輪郭に位置する金属片に属するかどうか曖昧な画素が暗い画素により塗りつぶされたような画像となっている。
 続いて、元画像P0上の金属片以外の部分に位置している明るい点s0がこの減算処理でどのようになったか考える。標準偏差画像P1における点s0に相当する部分は、高い画素値が割り当てられている。したがって、元画像P0から標準偏差画像P1を減算すると、点s0を構成する画素の画素値は、大きく減少することになる。こうして、元画像P0の金属片以外の部分において明るい点s0となって現れていた構造物の像は、消去されれて、減算画像P2上で目立たなくなる。
 <画像処理装置22の動作:二値化部13の動作>
 減算画像P2は、二値化部13に送出され、減算画像P2に二値化処理が施される。この様にすると、元画像P0において金属片m0に間違いのない部分を抽出することができるのでこれについて説明する。図8は、元画像P0を画素値で展開したヒストグラムである。元画像P0には、元画像P0における金属片m0に由来するピークと、金属片以外の部分に由来するピークの二つのピークが現れている。元画像P0から金属片m0を抽出しようした場合を考える。この場合、この二つのピークの間に閾値を設け、元画像P0を構成する画素の画素値が閾値よりも高いかどうかでその画素が金属片m0に属するかどうかを判定すればいいように思える。
 ところが、この二つのピークの間には、符号Aで示す中間的な画素値を有する画素が分布している。この様な画素は、元画像P0上では、金属片m0とそ例外の部分との境界に多く存在している。このような金属かどうか曖昧な部分について閾値処理を行うと、判定に誤認が生じてしまう。すなわち、元画像P0において金属片m0に属しない画素なのに金属片m0に属するものと判定がなされたり、元画像P0において金属片m0に属する画素なのに金属片m0に属しないものと判定がなされたりしてしまう。また、元画像P0の金属片以外の部分に現れた明るい点s0もこの符号Aで示す中間的な帯域に属している。元画像P0を二値化しようとするときに、点s0が閾値よりも明るい画素値であると、点s0が金属片に属しているという誤認が生じてしまう。
 そこで、実施例1の構成では、金属片m0を抽出するときに元画像P0に直接閾値処理をしないようにしている。図9は、減算画像P2のヒストグラムである。図8と比較すると、符号Aで示された部分の画素の個数が減少していることに気が付く。元画像P0上の金属片m0を囲むようにして存在していた金属片かどうか曖昧な画素や元画像P0上の点s0を構成する画素は、画素値が全て大きく減少されて図9では、網掛けで示す金属片に属さない集団に組み入れられたからである。
 二値化部13は、減算画像P2に閾値処理を施すことにより、図10に示すように、元画像P0において確実に金属片m0に属する領域と、金属片ではないかあるいは金属片かどうかが曖昧な領域の二つの領域の分布を示す二値化減算画像P3を生成する。このときの二値化部13が用いる閾値は、元画像P0に写り込む金属片m0の画素値があらかじめ分かっている場合は、この画素値に基づいて決めてもよいし、大津法により閾値を自動で決めるようにしても良い。二値化減算画像P3は、本発明の二値化演算画像に相当する。
 図11は、減算画像P2一部を取り出すことにより二値化部13が減算画像P2に施す処理について具体的に説明している。減算画像P2には、金属片m0が写り込んでいる明るい部分と、符号n0で示す金属片m0ではない暗い部分との間に、暗い帯状の領域Cが混在した状態となっている。この帯状の領域Cは、元画像P0に写り込む金属片m0の輪郭に位置する部分であり、画像減算処理により激しく画素値が減少した部分でもある。このような減算画像P2に二値化処理を行うと、帯状の領域Cは、金属を示す領域には組み入れられない。こうして、二値化部13は、元画像P0を確実に金属片m0に属する領域と、金属片ではないかあるいは金属片かどうかが曖昧な領域とに分割するのである。
 <画像処理装置22の動作:元画像P0に写り込む金属片m0の分布の確定>
 この様にして生成された二値化減算画像P3は、単に元画像P0を二値化した画像と比べると、元画像P0から金属片m0を正確に取り出した画像となっている。しかし、二値化減算画像P3を基にして金属片の抽出を更に正確に行う方法がある。
 そもそも二値化減算画像P3は、金属片かどうかが曖昧な領域は、とりあえず金属でない領域に組み入れられた画像であるから、元画像P0上の金属片の分布は、二値化減算画像P3の示す分布よりも広いはずである。そこで、実施例1の画像処理装置22では、後続の画像処理により二値化減算画像P3を用いて元画像P0に写り込む金属片m0の分布の確定を行うようにしている。この画像処理には、二つの方法があり、どちらを用いても元画像P0から金属片m0が確実に抽出される。二つの方法とは、具体的にはスネーク法を利用した方法とグラフカット法を利用した方法である。この二つの方法について、以降、順に説明する。
 <画像処理装置22の動作:スネーク法に係る動作>
 まず、スネーク法について説明する。この方法を採用した場合、二値化減算画像P3は、まず輪郭抽出部14に送出される。輪郭抽出部14は、図12に示すように二値化減算画像P3に輪郭抽出処理を施し、輪郭抽出画像P4を生成する。輪郭抽出画像P4は、二値化減算画像P3に写り込む金属領域(元画像P0において確実に金属片m0に属する領域)のシルエットをペンでなぞったような画像である。輪郭抽出処理により、二値化減算画像P3の金属領域は、太さ一定の線が閉じられて描画される輪として輪郭抽出画像P4上に現れる。
 輪郭抽出画像P4は、スネーク処理部15に送出される。スネーク処理部15では、輪郭抽出画像P4上の環状の図形の形状を解析して、図13左側に示すように図形を変形するときの指標となるノードnd設定する。そして、スネーク処理部15は、図13右側に示すようにノードndをゆらす要領で動かしながら元画像P0における金属片m0の正しい輪郭を決定する。スネーク処理部15は動作の際、元画像P0も参照する。スネーク処理部15は、元画像P0に図形を当てはめながら変形を繰り返し、図形が滑らかでありつつ、元画像P0上の図形に含まれる画素の画素値と含まれない画素の画素値との違いからしても妥当な図形の形状を探索する。スネーク処理部15は、最終的に決定した図形の形状を認識し、この図形の内側と外側との領域を分けるように元画像P0を二値化する。すると、図1に示すように、元画像P0から金属片m0が適切に抽出された二値化画像であるマップMaが生成される。
 <画像処理装置22の動作:グラフカット法に係る動作>
 画像処理装置22は、上述のスネーク法とは別の方法でマップMaを生成することもできる。すなわち、画像処理装置22はグラフカット法に基づいて元画像P0から金属片m0を適切に抽出してマップMaを生成するのである。このグラフカット法においても二値化減算画像P3が処理の出発点となる。
 マップMaの作成にグラフカット法が採用された場合、二値化減算画像P3は、グラフカット処理部16に送出される。グラフカット処理部16は、図14に示すように、二値化減算画像P3に基づいて、元画像P0における金属片m0に相当する部分の画素値の代表値objを取得する。この代表値objは、金属片m0において最もありふれた画素値である。グラフカット処理部16が代表値objを算出するには、まず、二値化減算画像P3を参照して、元画像P0において確実に金属片m0に属する部分の設定がなされる。そして、グラフカット処理部16は、図15に示すようにこの部分についてヒストグラム解析を行い、この部分において最も多く出現する画素値を取得する。このヒストグラムにより得られた画素値が金属片の代表値objである。
 同様に、グラフカット処理部16は、元画像P0における金属片m0以外に相当する部分の画素値の代表値bgを取得する。この代表値bgは、金属片m0以外の部分において最もありふれた画素値である。グラフカット処理部16が代表値bgを算出するには、代表値objと同様に、まず二値化減算画像P3を参照して、元画像P0において金属片m0以外の部分の設定がなされる。そして、グラフカット処理部16は、この部分についてヒストグラム解析を行い、この部分において最も多く出現する画素値を取得する。このヒストグラムにより得られた画素値が金属片の代表値bgである。
 このとき、二値化減算画像P3は、金属片m0以外に相当する部分には、元画像P0において金属片に属するかどうかが曖昧な部分も含まれている。したがって、代表値bgを決定する際に、曖昧な部分の画素値の影響を受けて、取得された代表値bgが金属片m0以外の部分において最も多く出現する画素値からずれる可能性があるようにも思われる。確かに、グラフカット処理部16が代表値bgを取得する時に作成したヒストグラムには曖昧な部分の画素も含まれてはいる。
 しかし、曖昧な部分についての画素値はもとより金属片の画素値に似通っており、しかも、ヒストグラムに現れている曖昧な部分について画素は、金属片m0以外の部分についての画素と比べて少数である。したがって、ヒストグラムにおいて曖昧な画素が形作るピークは、金属片m0以外の部分の画素が形作る主ピークから離れているとともに、主ピークよりも低い。グラフカット処理部16は、主ピークの頂点を参照して代表値bgを取得することになるわけであるから、代表値bgの決定には金属片かどうか曖昧な部分の画素は加味されないということになる。
 グラフカット処理部16は、代表値objおよび代表値bgを基に元画像P0にグラフカット処理を行い、元画像P0に写り込む金属片m0の分布を正確に抽出する。グラフカット処理された画素は、金属片に属するのかそれとも非金属領域に属するのか正確に振り分けられることになる。
 図16は、グラフカット法で用いるノードnの概念を説明している。図16の左側にあるような二次元的に配列された画素aから構成された画像があったとする。グラフカット法では、これら画素aを互いに接続されたノードnと解釈する。ノードnの各々は、画素aの各々に相当する。従って、ノードnは二次元的に配列されていることになる。二次元的配列されたノードnの各々は互いに隣り合うノードnと接続されている。互いに接続されたノードn同士は関連性が深く、一つの塊を構成する。これより、ノードn同士の接続の解除を次々と行うことにより、画像全体で一つとなっている塊を二つの塊に分解する。こうして分解された塊のうちの一つは、金属片に属する画素に相当するノードnのみで構成される。もう一つの塊は、非金属領域に属する画素に相当するノードnのみで構成される。
 図17は、グラフカット法の第一段階を表している。説明を簡単とするため、図16における符号R1が付けられたノードnの列について抜き出して説明する。まず、画素aに相当するノードnに加えて2つのノードna,nbを追加する。ノードnaは、金属片に属する画素を代表する仮想的なノードである。このノードnaは、全てのノードnに接続される。同様に、ノードnbは、非金属領域に属する画素を代表する仮想的なノードである。このノードnbも全てのノードnに接続される。
 続いて、グラフカット処理部16は、代表値objをノードnaに関連づけるとともに、代表値bgをノードnbに関連づける。その上で、グラフカット処理部16は、ノードnの振り分けを行う。例えば、グラフカット処理部16は、図17に示すようにノードnのうち画素値が代表値objと同じとなっているノードn1をノードnaに結びつける。また同様に、ノードnのうち画素値が代表値bgと同じとなっているノードn5はノードnbに結びつける。
 図18に示すノードn2は、金属片に属するかどうか曖昧な画素である。グラフカット処理部16は、このノードn2を振り分ける際に、ノードn2に接続する接続線に注目する。これら接続線には、コストと呼ばれる評価値が割り当てられている。グラフカット処理部16は、このコスト同士を比較することで接続線の切断を行う。このコストは、ノードnに対応する画素の画素値で決定される。すなわち、隣り合う画素の画素値同士が似通っている場合、この隣り合う画素に対応するノードnの間にある接続線のコストは低く設定される。そして、ある画素の画素値がX線の少露光を表す値である場合、この画素に対応するノードnとノードnaとの間にある接続線のコストは低く設定される。同様に、ある画素の画素値がX線の多露光を表す値である場合、この画素に対応するノードnとノードnbとの間にある接続線のコストは低く設定される。このように、コストの低さは、ノード同士の関連性の深さを表している。
 グラフカット処理部16は、コストの低い接続線が維持されるようにしながら、接続線の切断を繰り返す。例えば、図18の例では、ノードn2は、右隣のノードnとノードnbとの接続が解除され、これに対応する画素aが金属片に属するものとの判定を受けている。グラフカット処理部16は、このようなノードnの振り分けを全てのノードnについて実行し、振り分けの結果を二値画像で表したマップMaを生成する。マップMaには、元画像P0における金属片の分布が正確に表されている。
 <断層画像生成部について>
 続いて、元画像P0を重ね合わせて断層画像を生成する断層画像生成部23について説明する。実施例1における断層画像生成部23は、動作の際、元画像P0のみならず上述のマップMaをも参照する。図3を用いた断層画像の生成の原理についての説明によれば、74枚の元画像P0を断層画像生成部23で重ね合わせれば、断層画像が生成されるとしている。従って、断層画像を生成するだけであれば画像処理装置22によるマップMaの生成は必要ないということになる。
 しかしながら、元画像P0を単純に重ね合わせるだけでは偽像が現れた断層画像しか得られない。元画像P0の各々には、金属片が写り込んでいるからである。この金属片は、画素値が極端であるが故に元画像P0の重ね合わせでは十分にぼかしきれない。したがって、断層画像における金属片の周りには、画像の重ね合わせでは相殺しきれなかった金属片の残像が現れてしまう。この残像が断層画像に現れる偽像の正体である。
 実施例1のX線断層撮影装置においては、断層画像にこの様な偽像が生じないように工夫がされている。すなわち、実施例1のX線断層撮影装置は、画像処理装置22の機能により金属片の重ね合わせに工夫を施すことで断層画像に偽像が現れないように構成されているのである。すなわち、実施例1における断層画像は、元画像P0をそのまま重ねあせて生成されるのではない。すなわち、断層画像は、図19に示すように、元画像P0の各々から金属片が抽出されたマップMa参照しながら断層画像生成部23が生成したものとなっている。マップMaは、画像処理装置22が74枚の元画像P0の各々について金属片の抽出処理を施すことによりなされる。したがって、マップMaは、74枚生成されることになる。
 <断層画像生成部23の動作:金属片除去処理>
 実施例1の断層画像生成部23は、画像処理装置22が生成したマップMaを参照しながら断層画像を生成する。この様子について具体的に説明する。断層画像生成部23は、まず、元画像P0の各々に写り込んでいる金属片の像を消去する画像処理を行う。すなわち、断層画像生成部23は、図20に示すように、マップMaを参照して元画像P0に写り込んでいる金属片の位置・大きさ・範囲を把握する。そして、断層画像生成部23は、金属片内部の画素の画素値を金属片の周りの画素の画素値に変換する。このときの変換に係る画素値は、例えば、金属片の周りの画素の画素値の平均値である。この様にして、元画像P0に写り込んでいる金属片が周囲に同化したような金属片除去画像P8が生成される。この金属片除去画像P8は、74枚ある元画像P0の各々について生成される。このように、断層画像生成部23は、被検体Mに対して撮影方向を変えながら連写された元画像P0の各々から金属片の像が抽出されたマップMaを参照して、元画像P0に写り込む金属片を元画像P0から消去して金属片除去画像P8を生成する金属片除去処理を行う。
 <断層画像生成部23の動作:金属片除去断層画像の生成>
 断層画像生成部23は、図21に示すように74枚ある金属片除去画像P8を重ね合わせて断層画像を生成する。このとき生成された画像を区別のため金属片除去断層画像D1と呼ぶことにする。この金属片除去断層画像D1は、金属片が金属片の周りと同化したような画像を重ね合わせて生成されたものであるので、金属片の周りには、偽像が現れない。しかしながら、図21の金属片除去断層画像D1における斜線部に示す金属片に相当する部分は、正しくない画素値で埋め尽くされている。金属片除去断層画像D1の基になった金属片除去画像P8における金属片内部の画素の画素値は、本来とは異なる画素値に変換されたからである。以降、断層画像生成部23は、この金属片除去断層画像D1における金属片の部分の画素値を正しいものに近づけるような動作をする。このように断層画像生成部23は、複数の金属片除去画像P8を重ね合わせて金属片除去断層画像D1を生成する金属片除去断層画像生成処理を行う。
 <断層画像生成部23の動作:金属片トリミング処理>
 すなわち、断層画像生成部23は、74枚の元画像P0に対して別の画像処理をする。断層画像生成部23は、図22に示すように元画像P0の各々から対応する金属片除去画像P8を減算する。元画像P0と金属片除去画像P8とは、金属片以外の部分は同じ画像であるから、減算処理によりこの同じ部分が相殺されて消去されることになる。つまり、断層画像生成部23の減算処理により、元画像P0の各々から金属片に相当する部分がトリミングされたようなトリミング画像P9が生成される。このトリミング画像P9は、上述のマップMaとは似て非なるものである。マップMaは、二値化画像であり、元画像P0上の金属片の形状を表しているのに対し、トリミング画像P9は、金属片の形状のみならず、金属片の内部の濃淡をも表した画像となっている。ちなみに、トリミング画像P9における金属片は、元画像P0に写り込む金属片を薄くしたように見える。画像同士の減算処理の際、元画像P0の金属片上の画素の画素値から金属片除去画像P8の金属片の画素値(元画像P0における金属片の周りの画素の画素値)が減算されるからである。このように、断層画像生成部23は、マップMaを参照して、元画像P0の各々から金属片に相当する部分を取り出したトリミング画像P9を生成する金属片トリミング処理を行う。
 <断層画像生成部23の動作:金属片断層画像の生成>
 断層画像生成部23は、図23に示すように74枚あるトリミング画像P9を重ね合わせて断層画像を生成する。このとき生成された画像を区別のため金属片断層画像D2と呼ぶことにする。この金属片断層画像D2は、裁断面が金属片除去断層画像D1と共通となっている断層画像である。また、この金属片断層画像D2は、金属片のみが写り込んだ画像を重ね合わせて生成されたものであるので、金属片の断層画像を写し込んだものとなっている。したがって、図23の金属片断層画像D2における斜線部に示す金属片の周りに相当する部分は、何ら画像化がされていない。このように、断層画像生成部23は、複数のトリミング画像P9を重ね合わせて金属片断層画像D2を生成する金属片断層画像生成処理を行う。
 <断層画像生成部23の動作:断層画像の加算>
 このように、断層画像生成部23は、異なる2系統の断層画像を生成する。断層画像生成部23は、最後に図24に示すように、これら断層画像D1,D2を加算する処理を行う。この様に生成された断層画像を区別のため合成断層画像D3と呼ぶことにする。この合成断層画像D3は、視認性に優れたものとなっている。すなわち、合成断層画像D3における金属片以外の部分は、金属片除去断層画像D1に由来するので、偽像が現れていない。そして、合成断層画像D3における金属片の部分は金属片断層画像D2に由来するので、画素値の信頼性が高い。このように、断層画像生成部23は、金属片除去断層画像D1と金属片断層画像D2とを加算して合成断層画像D3を生成する。合成断層画像D3が表示部27に表示されて実施例1に係る装置の動作は終了となる。
 本発明の構成によれば、元画像に写り込んだ金属片を確実に抽出できるような構成となっている。すなわち、本発明の画像処理装置22は、元画像を構成する画素についての標準偏差がマッピングされた標準偏差画像P1を生成したあと、元画像と標準偏差画像P1とを加算または減算することにより減算画像P2を生成し、この減算画像P2を二値化することで金属片の抽出を行うようにしている。この減算画像P2は、元画像の金属片以外の部分に見られる構造物の像が消去されている。したがって、元画像で例えば白っぽく写り込んでいた金属片でない構造物が減算画像P2には現れていない。このような減算画像P2に例えば白っぽく写り込んでいる金属片を抽出する二値化処理を加えれば、正確なグラフカット処理ができるようになるので結果画像に金属片でない構造物に由来する像が現れることがない。
 本発明は上述の構成に限られず、下記のように変形実施することができる。
(1)上述の画像処理装置22は、画像減算部12を備え、元画像P0から標準偏差画像P1を減算することで減算画像P2を備えるようにしていたが、これは、上述の例においては、元画像P0において金属片m0が明るく目立ってたからである。すなわち、上述の例は、元画像P0における金属片m0の画素が高い画素値を有している場合に有効なのである。
 上述の例とは違い、元画像P0における金属片m0が暗く目立っている場合には、画像減算部12の代わりに、画像加算部を備えた方がより有効である。画像加算部は、元画像P0と標準偏差画像P1とを足し合わせ、加算画像を生成する構成である。加算画像を生成しようとすると、元画像P0の金属片m0の輪郭付近と、金属片以外の部分の暗い構造物が写り込む部分とで画素値が大きく加算される。従って、加算画像は、確実に金属片である部分とそうでない部分との見分けがつきやすい画像となっている。この加算画像を二値化すれば、実施例1で説明した二値化減算画像P3と同等の画像を得ることができる。
 以上のように、本発明に係る画像処理装置は、医用分野に適している。
P1   標準偏差画像
P2   減算画像(演算画像)
P3   二値化減算画像(二値化演算画像)
P4   輪郭抽出画像
11   標準偏差画像生成部(標準偏差画像生成手段)
12   画像減算部(画像演算手段)
13   二値化部(演算画像二値化手段)
14   輪郭抽出部(輪郭抽出手段)
15   スネーク処理部(スネーク処理手段)
16   グラフカット処理部(グラフカット処理手段)
23   断層画像生成部(断層画像生成手段)

Claims (3)

  1.  内部に金属片が埋め込まれた被検体を放射線撮影することで得られる金属片を写し込んだ元画像に画像処理を施す画像処理装置であって、
     前記元画像上の注目画素および前記注目画素の周辺の画素の画素値の標準偏差を算出する動作を前記注目画素を変えながら繰り返すことにより、前記元画像を構成する画素についての標準偏差がマッピングされた標準偏差画像を生成する標準偏差画像生成手段と、
     前記元画像と前記標準偏差画像とを加算または減算することにより、演算画像を生成する画像演算手段と、
     前記演算画像を二値化して二値化演算画像を生成する演算画像二値化手段と、
     前記二値化演算画像を基に元画像上の金属片の分布を把握して、前記元画像の金属片の部分の画素値の代表値および金属片以外の部分の画素値の代表値を取得し、各代表値を参照しながら前記元画像に対してグラフカット処理を施して前記元画像における金属片の分布を示すマップを生成するグラフカット処理手段を備えることを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     被検体に対して撮影方向を変えながら連写された前記元画像の各々を前記マップを参照して、前記元画像に写り込む金属片を前記元画像から消去して金属片除去画像を生成する金属片除去処理と、
     複数の前記金属片除去画像を重ね合わせて金属片除去断層画像を生成する金属片除去断層画像生成処理と、
     前記マップを参照して、前記元画像の各々から金属片に相当する部分を取り出したトリミング画像を生成する金属片トリミング処理と、
     複数の前記トリミング画像を重ね合わせて金属片断層画像を生成する金属片断層画像生成処理と、
     前記金属片除去断層画像と金属片断層画像とを加算して合成断層画像を生成する断層画像加算処理とを実行する断層画像生成手段を備えることを特徴とする画像処理装置。
  3.  請求項1または請求項2に記載の画像処理装置を備えた放射線断層撮影装置であって、
     放射線を被検体に向けて照射する放射線源と、
     被検体を透過してきた放射線を検出する検出手段と、
     前記検出手段の検出信号を基に元画像を生成する画像生成手段とを備えることを特徴とする放射線断層撮影装置。
PCT/JP2013/003016 2013-05-10 2013-05-10 画像処理装置 WO2014181383A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/785,645 US9741127B1 (en) 2013-05-10 2013-05-10 Image processing device
PCT/JP2013/003016 WO2014181383A1 (ja) 2013-05-10 2013-05-10 画像処理装置
JP2015515659A JP5971411B2 (ja) 2013-05-10 2013-05-10 画像処理装置
CN201380076485.6A CN105208937B (zh) 2013-05-10 2013-05-10 图像处理装置
EP13884130.9A EP2995255B1 (en) 2013-05-10 2013-05-10 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/003016 WO2014181383A1 (ja) 2013-05-10 2013-05-10 画像処理装置

Publications (1)

Publication Number Publication Date
WO2014181383A1 true WO2014181383A1 (ja) 2014-11-13

Family

ID=51866891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003016 WO2014181383A1 (ja) 2013-05-10 2013-05-10 画像処理装置

Country Status (5)

Country Link
US (1) US9741127B1 (ja)
EP (1) EP2995255B1 (ja)
JP (1) JP5971411B2 (ja)
CN (1) CN105208937B (ja)
WO (1) WO2014181383A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727964B2 (en) 2013-08-08 2017-08-08 Shimadzu Corporation Image processing device
WO2019003506A1 (ja) * 2017-06-30 2019-01-03 株式会社島津製作所 断層像生成方法および放射線撮影装置
JP2022502177A (ja) * 2018-09-28 2022-01-11 ホロジック, インコーポレイテッドHologic, Inc. 高密度要素抑制による合成乳房組織画像発生のためのシステムおよび方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741127B1 (en) 2013-05-10 2017-08-22 Shimadzu Corporation Image processing device
KR102555465B1 (ko) 2018-06-11 2023-07-17 삼성전자주식회사 단층 영상의 생성 방법 및 그에 따른 엑스선 영상 장치
EP3797697B1 (de) * 2019-09-27 2024-03-27 Siemens Healthineers AG Tomosyntheseverfahren mit kombinierten schichtbilddatensätzen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022916A (ja) * 1999-07-08 2001-01-26 Hitachi Medical Corp 医用画像処理装置
JP2004153298A (ja) * 2002-09-05 2004-05-27 Ricoh Co Ltd 画像処理装置、画像処理プログラムおよび記憶媒体
JP2004320701A (ja) * 2002-09-05 2004-11-11 Ricoh Co Ltd 画像処理装置、画像処理プログラムおよび記憶媒体
JP2005323926A (ja) * 2004-05-17 2005-11-24 Ge Medical Systems Global Technology Co Llc 画像処理方法、画像処理装置およびx線ct装置
JP2011028322A (ja) * 2009-07-21 2011-02-10 Nikon Corp 画像処理装置、画像処理プログラムおよび撮像装置
JP2012003525A (ja) 2010-06-17 2012-01-05 Seiko Epson Corp 電子機器、電子機器の制御方法、及び、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3707347B2 (ja) * 2000-04-07 2005-10-19 株式会社島津製作所 X線ct装置の画像処理方法及びx線ct装置並びにx線ct撮影用記録媒体
EP2284794B1 (en) 2004-11-26 2017-01-18 Toshiba Medical Systems Corporation X-ray CT apparatus and image processing device
CN100589760C (zh) * 2004-11-26 2010-02-17 株式会社东芝 X射线ct装置和图像处理装置
CN101553171B (zh) * 2006-11-13 2011-11-16 国立大学法人京都工艺纤维大学 图像重构装置、图像重构方法、图像重构程序、ct装置
JP5324880B2 (ja) * 2008-10-21 2013-10-23 アズビル株式会社 Ct装置および金属形状抽出方法
US8665347B2 (en) * 2009-07-21 2014-03-04 Nikon Corporation Image processing device, image processing program, and imaging device computing brightness value and color phase value
JP5713748B2 (ja) * 2011-03-24 2015-05-07 株式会社東芝 プラーク領域抽出方法及びその装置
US8983029B2 (en) 2013-02-22 2015-03-17 Shimadzu Corporation Radiographic apparatus and method for the same
US9125619B2 (en) 2013-03-07 2015-09-08 Shimadzu Corporation Radiographic examination apparatus and method for the same
US8908832B2 (en) 2013-03-11 2014-12-09 Shimadzu Corporation Radiographic apparatus and method for the same
US9741127B1 (en) 2013-05-10 2017-08-22 Shimadzu Corporation Image processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022916A (ja) * 1999-07-08 2001-01-26 Hitachi Medical Corp 医用画像処理装置
JP2004153298A (ja) * 2002-09-05 2004-05-27 Ricoh Co Ltd 画像処理装置、画像処理プログラムおよび記憶媒体
JP2004320701A (ja) * 2002-09-05 2004-11-11 Ricoh Co Ltd 画像処理装置、画像処理プログラムおよび記憶媒体
JP2005323926A (ja) * 2004-05-17 2005-11-24 Ge Medical Systems Global Technology Co Llc 画像処理方法、画像処理装置およびx線ct装置
JP2011028322A (ja) * 2009-07-21 2011-02-10 Nikon Corp 画像処理装置、画像処理プログラムおよび撮像装置
JP2012003525A (ja) 2010-06-17 2012-01-05 Seiko Epson Corp 電子機器、電子機器の制御方法、及び、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
OTSU N: "A Threshold selection methods", IEEE FROM GRAY LEVEL HISTOGRAM TRANS. SYSTEMS MAN, AND CYBERNETICS, vol. 9, 1979, pages 62 - 66
See also references of EP2995255A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727964B2 (en) 2013-08-08 2017-08-08 Shimadzu Corporation Image processing device
WO2019003506A1 (ja) * 2017-06-30 2019-01-03 株式会社島津製作所 断層像生成方法および放射線撮影装置
JPWO2019003506A1 (ja) * 2017-06-30 2020-03-26 株式会社島津製作所 断層像生成方法および放射線撮影装置
JP2022502177A (ja) * 2018-09-28 2022-01-11 ホロジック, インコーポレイテッドHologic, Inc. 高密度要素抑制による合成乳房組織画像発生のためのシステムおよび方法
JP7482860B2 (ja) 2018-09-28 2024-05-14 ホロジック, インコーポレイテッド 高密度要素抑制による合成乳房組織画像発生のためのシステムおよび方法

Also Published As

Publication number Publication date
CN105208937B (zh) 2018-04-03
JPWO2014181383A1 (ja) 2017-02-23
JP5971411B2 (ja) 2016-08-17
EP2995255A1 (en) 2016-03-16
US9741127B1 (en) 2017-08-22
CN105208937A (zh) 2015-12-30
EP2995255A4 (en) 2016-07-13
EP2995255B1 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP5971411B2 (ja) 画像処理装置
JP6242631B2 (ja) 医用画像処理装置及びx線コンピュータ断層撮影装置
US9445776B2 (en) X-ray imaging apparatus and method of controlling the same
WO2016129682A1 (ja) 骨解析装置
JP5967298B2 (ja) 画像処理装置
JP5923889B2 (ja) 骨梁解析装置
JP5141832B2 (ja) 放射線断層撮影装置
US9867586B2 (en) Stereo X-ray tube based suppression of outside body high contrast objects
KR20130057282A (ko) 컴퓨터 기반 진단 방법 및 그에 따른 컴퓨터 기반 진단 장치
US20150036911A1 (en) System and method for molecular breast imaging
TW201637426A (zh) 影像處理裝置
US9750466B2 (en) Device and method for tomosynthesis imaging
JP6430238B2 (ja) 放射線撮影装置
JP6229275B2 (ja) 骨梁解析装置
JP6252750B2 (ja) 骨梁解析装置
JP2018068800A (ja) 画像処理装置および画像処理装置を用いた照射システム
JP2012105924A (ja) 放射線撮影装置
JP6107609B2 (ja) 骨梁解析装置
JP2021194450A (ja) X線画像の生成方法、学習モデルの学習方法、および、x線位相画像撮影装置
JP6107627B2 (ja) 骨梁解析装置
Akkoul et al. A 2D Matching Method for Reconstruction of 3D Proximal Femur using X-ray Images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13884130

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015515659

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14785645

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013884130

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013884130

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE