WO2018043878A1 - 자기 공명 영상 장치 - Google Patents

자기 공명 영상 장치 Download PDF

Info

Publication number
WO2018043878A1
WO2018043878A1 PCT/KR2017/006256 KR2017006256W WO2018043878A1 WO 2018043878 A1 WO2018043878 A1 WO 2018043878A1 KR 2017006256 W KR2017006256 W KR 2017006256W WO 2018043878 A1 WO2018043878 A1 WO 2018043878A1
Authority
WO
WIPO (PCT)
Prior art keywords
lesion
cross
image
display
sectional
Prior art date
Application number
PCT/KR2017/006256
Other languages
English (en)
French (fr)
Inventor
유세진
파라모노브블라디미르
오석훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/329,623 priority Critical patent/US20190223790A1/en
Publication of WO2018043878A1 publication Critical patent/WO2018043878A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0044Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/43Detecting, measuring or recording for evaluating the reproductive systems
    • A61B5/4306Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
    • A61B5/4312Breast evaluation or disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • a magnetic resonance imaging device A magnetic resonance imaging device.
  • a medical imaging apparatus is an apparatus that provides an image by acquiring patient information.
  • Medical imaging apparatuses include X-ray apparatus, ultrasound diagnostic apparatus, computed tomography apparatus, magnetic resonance imaging apparatus, and the like.
  • magnetic resonance imaging devices are relatively free in imaging conditions, and provide an excellent contrast in soft tissue and various diagnostic information images, thus occupying an important position in the diagnosis field using medical imaging.
  • Magnetic Resonance Imaging is an image of the density and physicochemical characteristics of nuclear nuclei by using nuclear magnetic field and non-electromagnetic radiation, RF, which is harmless to the human body, causing nuclear magnetic resonance.
  • the magnetic resonance imaging apparatus converts the energy emitted from the atomic nucleus into a signal by supplying a constant frequency and energy while applying a constant magnetic field to the inside of the gantry and imaging the inside of the object.
  • the output image may include an image of the lesion.
  • the user has visually determined the change in size or size of the lesion of the object by looking at the image.
  • One disclosed embodiment provides a magnetic resonance imaging apparatus for intuitively displaying a feature of a lesion included in an image.
  • an embodiment of the present disclosure is to provide a magnetic resonance imaging apparatus for visually displaying whether an image to be displayed is an image of a cross section in which the size of a lesion is greatest.
  • another disclosed embodiment provides a magnetic resonance imaging apparatus for presenting a statistical model for a lesion included in an image.
  • a magnetic resonance imaging apparatus including an image processor configured to generate a cross-sectional image of an object and to detect a lesion and a size of the cross-sectional image; And a display for displaying a cross-sectional image and a marker indicating the lesion, wherein the display displays a marker around the lesion, wherein if the cross-sectional image is a cross-sectional image in which the size of the lesion is greatest, a marker of a first color is placed around the lesion. If the cross-sectional image is not a cross-sectional image in which the size of the lesion is greatest, a marker of a second color is displayed around the lesion.
  • the MRI apparatus may further include an input unit configured to receive a cross-sectional change command from a user, and the image processor may generate a plurality of cross-sectional images, and the display may display another cross-sectional image of the object when the cross-sectional change command is input. have.
  • the display may display a marker of a first color or a marker of a second color around the lesion according to the size of the lesion included in another cross-sectional image.
  • the input unit may include a trackball or a scroll wheel, and may receive an operation of a user's trackball or scroll wheel as a section change command.
  • the magnetic resonance imaging apparatus may further include an input unit configured to receive a lesion designation command for at least one point of the cross-sectional image from the user, and the display may display a marker around the point designated by the lesion designation command.
  • the image processor may generate first and second cross-sectional images representing the same cross-section of the object in different image modes, and the display may display the first and second cross-sectional images in the first and second regions, respectively.
  • the display may display the first and second cursors that are synchronized with each other within each area.
  • the magnetic resonance imaging apparatus may further include an input unit configured to receive a cross-sectional change command from a user, and when the cross-sectional change command is input, the image processing unit may display another third and fourth cross-sectional images representing different cross sections of the object in different image modes.
  • the display may display the third and fourth cross-sectional images in the first and second regions, respectively.
  • the magnetic resonance imaging apparatus may further include an input unit configured to receive an input of a sensitivity change command for detecting a lesion from a user, and the image processor may change the sensitivity for detecting a lesion present in the cross-sectional image based on the sensitivity change command.
  • the magnetic resonance imaging apparatus further includes an input unit configured to select one of the lesions, wherein the image processor detects at least one of the diameter, volume, density, and position of the selected lesion, and the display is configured to measure diameter, volume, density, and position. At least one of them can be displayed.
  • Image modes include T1-highlight mode, MRA (magnetic resonance imaging) mode, SWI (magnetism highlighted image) mode, EPI (eco-plane image) mode, T2-highlight image mode, and mIP (maximum brightness projection) mode. can do.
  • an MRI apparatus may include an image processor configured to generate an image of an object, and detect one or more lesions included in the image and the size of each lesion; And a display for displaying a statistical model of the image and the lesion included in the image, wherein the image processing unit assigns an identification number to the at least one lesion, wherein the first axis represents the identification number of the lesion, and the second axis It may be a graph showing the size of this lesion.
  • the size of the lesion may be the diameter, volume, or density of the lesion.
  • the image processor may assign identification numbers in order of size of one or more lesions.
  • the MRI apparatus may further include an input unit configured to select at least one of the one or more lesions displayed on the image, and the display may highlight a graph item corresponding to the selected lesion.
  • the magnetic resonance imaging apparatus further includes an input unit configured to select one of the graph items for one or more lesions displayed in the statistical model, wherein the image processor includes a first lesion corresponding to the selected graph item and a diameter of the first lesion having the largest diameter.
  • the cross-sectional image shown may be determined, and the display may display the cross-sectional image in which the diameter of the first lesion is greatest.
  • the statistical model is a first statistical model, and the display further displays a second statistical model of the lesion that the image contains, wherein the second statistical model represents the size of the lesion and the second axis represents the size of each lesion. It may be a graph showing the number of lesions having.
  • the MRI further includes an input unit configured to select at least one of the one or more lesions displayed on the image, and the display highlights the graph item of the first statistical model and the graph item of the second statistical model, respectively, corresponding to the selected lesion. can do.
  • the user can intuitively determine the position and size of the lesion included in the image.
  • the user can select a cross-sectional image that best represents the desired lesion, it is possible to accurately identify the number of lesions by identifying the lesions included in one or more cross-sectional images of the object.
  • the user can easily check the change in the distribution of the lesion over time by using the statistical model of the displayed lesion.
  • FIG. 1 is a schematic diagram of an MRI system.
  • 2 and 3 are conceptual views for showing the object consisting of a plurality of cross-sections.
  • 4 to 7 are exemplary diagrams of a plurality of cross-sectional images respectively corresponding to a plurality of image modes.
  • FIG 8 and 9 are conceptual views of a plurality of cross-sectional images of an object including a lesion.
  • 10A and 10B are exemplary views of two cross-sectional images in which markers of a color corresponding to the diameter of a lesion are displayed.
  • 11A and 11B illustrate screens of an output unit displaying markers by user's lesion designation or cancellation.
  • FIGS. 12 and 13 are exemplary diagrams showing evaluation values of lesions in various forms.
  • FIG. 14 is an exemplary diagram of a screen output when the lesion detection sensitivity is adjusted.
  • 15A-16 are two exemplary views of a statistical model for the diameter of a lesion.
  • 17 and 18 are exemplary diagrams of a statistical model showing the temporal change of the diameter distribution for a plurality of lesions.
  • 'part, module, member, block' used in the specification may be implemented in software or hardware. According to embodiments, a plurality of 'part, module, member, block' may be embodied as one element or one. It is also possible for a 'part, module, member, block' to include a plurality of elements.
  • first, second, etc. are used to distinguish one component from another component, and the component is not limited by the terms described above.
  • image may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image).
  • the image may include a medical image of an object acquired by X-ray, CT, MRI, ultrasound, and other medical imaging systems.
  • an "object” herein may include a person or an animal, or part of a person or an animal.
  • the subject may include organs such as the liver, heart, uterus, brain, breast, abdomen, or blood vessels.
  • the "object” may include a phantom. Phantom means a material having a volume very close to the density and effective atomic number of an organism, and may include a sphere phantom having properties similar to the body.
  • a "user” may be a doctor, a nurse, a clinical pathologist, a medical imaging expert, or the like, and may be a technician who repairs a medical device, but is not limited thereto.
  • the MRI system refers to a magnetic resonance imaging apparatus that acquires a magnetic resonance (MR) signal and reconstructs the obtained magnetic resonance signal into an image.
  • the magnetic resonance signal refers to an RF signal emitted from the object.
  • the main magnet forms a static magnetic field, aligning the direction of the magnetic dipole moment of a specific atomic nucleus of an object located in the static field in the direction of the static field.
  • the gradient magnetic field coil may apply an inclination signal to the static magnetic field to form a gradient magnetic field to induce a resonance frequency for each part of the object.
  • the RF coil may irradiate an RF signal according to a resonance frequency of an area where an image acquisition is desired.
  • the RF coil may receive MR signals of different resonance frequencies radiated from various parts of the object.
  • the MRI system acquires an image from the MR signal using an image reconstruction technique.
  • the MRI system 1 may include an operating unit 10, a controller 30, and a scanner 50.
  • the controller 30 may be independently implemented as shown in FIG. 1.
  • the controller 30 may be divided into a plurality of components and included in each component of the MRI system 1.
  • each component will be described in detail.
  • the scanner 50 may be embodied in a shape (eg, a bore shape) in which an object may be inserted, so that the internal space is empty. Static and gradient magnetic fields are formed in the internal space of the scanner 50, and the RF signal is irradiated.
  • the scanner 50 may include a static magnetic field forming unit 51, a gradient magnetic field forming unit 52, an RF coil unit 53, a table unit 55, and a display unit 56.
  • the static field forming unit 51 forms a static field for aligning the directions of the magnetic dipole moments of the nuclei contained in the object in the direction of the static field.
  • the static field forming unit 51 may be implemented as a permanent magnet or a superconducting magnet using a cooling coil.
  • the gradient magnetic field forming unit 52 is connected to the control unit 30. Inclination is applied to the static magnetic field according to the control signal received from the controller 30 to form a gradient magnetic field.
  • the gradient magnetic field forming unit 52 includes X, Y, and Z coils that form gradient magnetic fields in the X-, Y-, and Z-axis directions that are orthogonal to each other, and photographed to induce resonance frequencies differently for each part of the object. Generates an inclination signal based on location.
  • the RF coil unit 53 may be connected to the controller 30 to irradiate the RF signal to the object according to the control signal received from the controller 30 and receive the MR signal emitted from the object.
  • the RF coil unit 53 may stop transmitting the RF signal after receiving the RF signal having the same frequency as the frequency of the precession toward the atomic nucleus that performs the precession to the subject, and receive the MR signal emitted from the subject.
  • the RF coil unit 53 is implemented as a transmitting RF coil for generating electromagnetic waves having a radio frequency corresponding to the type of atomic nucleus and a receiving RF coil for receiving electromagnetic waves radiated from the atomic nucleus, respectively, or having a transmission / reception function together. May be implemented as an RF transmit / receive coil.
  • a separate coil may be mounted on the object. For example, a head coil, a spine coil, a torso coil, a knee coil, or the like may be used as a separate coil according to a photographing part or a mounting part.
  • the display unit 56 may be provided outside and / or inside the scanner 50.
  • the display unit 56 may be controlled by the controller 30 to provide information related to medical image capturing to a user or an object.
  • the scanner 50 may be provided with an object monitoring information acquisition unit for obtaining and delivering monitoring information on the state of the object.
  • the object monitoring information acquisition unit may include a camera (not shown) for photographing the movement and position of the object, a respiratory meter (not shown) for measuring breathing of the object, and an electrocardiogram for measuring the object.
  • the monitoring information about the object may be obtained from the ECG measuring device (not shown) or the body temperature measuring device (not shown) for measuring the body temperature of the object and transferred to the controller 30.
  • the controller 30 may control the operation of the scanner 50 by using the monitoring information about the object.
  • the controller 30 will be described.
  • the controller 30 may control the overall operation of the scanner 50.
  • the controller 30 may control a sequence of signals formed in the scanner 50.
  • the controller 30 may control the gradient magnetic field forming unit 52 and the RF coil unit 53 according to a pulse sequence received from the operating unit 10 or a designed pulse sequence.
  • the pulse sequence includes all the information necessary for controlling the gradient magnetic field forming unit 52 and the RF coil unit 53, for example, the intensity of a pulse signal applied to the gradient magnetic field forming unit 52. , Application duration, application timing, and the like.
  • the controller 30 may include a waveform generator (not shown) for generating a gradient waveform, that is, a current pulse according to a pulse sequence, and a gradient amplifier (not shown) for amplifying the generated current pulse and transferring the gradient to the gradient magnetic field forming unit 52.
  • a waveform generator (not shown) for generating a gradient waveform, that is, a current pulse according to a pulse sequence
  • a gradient amplifier (not shown) for amplifying the generated current pulse and transferring the gradient to the gradient magnetic field forming unit 52.
  • the controller 30 may control the operation of the RF coil unit 53.
  • the controller 30 may supply an RF pulse of a resonance frequency to the RF coil unit 53 to irradiate an RF signal and receive an MR signal received by the RF coil unit 53.
  • the controller 30 may control an operation of a switch (for example, a T / R switch) that may adjust a transmission / reception direction through a control signal, and may adjust irradiation of an RF signal and reception of an MR signal according to an operation mode.
  • a switch for example, a T / R switch
  • the controller 30 may control the movement of the table unit 55 in which the object is located. Before the photographing is performed, the controller 30 may move the table 55 in advance in accordance with the photographed portion of the object.
  • the controller 30 may control the display 56.
  • the controller 30 may control on / off of the display 56 or a screen displayed through the display 56 through a control signal.
  • the controller 30 may include an algorithm for controlling the operation of components in the MRI system 1, a memory for storing data in a program form (not shown), and a processor for performing the above-described operations using data stored in the memory ( Not shown).
  • the memory and the processor may be implemented as separate chips.
  • the memory and the processor may be implemented in a single chip.
  • the operating unit 10 may control the overall operation of the MRI system 1.
  • the operating unit 10 may include an image processor 11, an input unit 12, and an output unit 13.
  • the image processor 11 may perform an operation using the algorithm for controlling the operation of the components in the operating unit 10, a memory for storing data in a program form, and a data stored in the memory. It may be implemented as (not shown). In this case, the memory and the processor may be implemented as separate chips. Alternatively, the memory and the processor may be implemented in a single chip.
  • the image processor 11 may generate an image of an object from the stored MR signal by storing an MR signal received from the controller 30 using a memory and applying an image reconstruction technique using a processor.
  • the image processor 11 may fill digital data in a k-space (eg, also referred to as a Fourier space or a frequency space) of a memory, and when k-space data is completed, various image restoration techniques may be performed by a processor. May be applied (eg, by inverse Fourier transform of the k-spatial data) to restore the k-spatial data to the image.
  • a k-space eg, also referred to as a Fourier space or a frequency space
  • various image restoration techniques may be performed by a processor. May be applied (eg, by inverse Fourier transform of the k-spatial data) to restore the k-spatial data to the image.
  • Image reconstruction techniques include T1-highlight mode, MRA (magnetic resonance imaging) mode, SWI (magnetism highlighted image) mode, EPI (eco-plane image) mode, T2-highlight image mode, and mIP (maximum brightness projection) mode. It may include a technique for restoring using the various MR image modes.
  • various signal processings applied to the MR signal by the image processor 11 may be performed in parallel.
  • a plurality of MR signals received by the multi-channel RF coil may be signal-processed in parallel to reconstruct the image.
  • the image processor 11 may store the reconstructed image in a memory or the controller 30 may store the restored image in an external server through the communicator 60.
  • the image processor 11 may generate an evaluation value for the lesion of the object from the stored image by storing the image generated using the memory and detecting the lesion included in the image using the processor. have.
  • the evaluation value of the lesion may be a variety of measurements associated with the lesion, such as the size of the lesion, the location of the lesion, or the identification number of the lesion, such as, for example, the diameter, volume, and density of the lesion that the image includes, and the lesion may be automatically
  • the detecting method may be, for example, detecting a point area having a dark brightness in the image.
  • the image processor 11 may store an evaluation value of the lesion by using a memory, and generate a statistical model of the diameter, volume, or density of the lesion by using a processor. Descriptions related to statistical models will be described later.
  • the image processor 11 may change the sensitivity of detecting a lesion present in an image based on the sensitivity change command when the input unit 12 receives a command to change a sensitivity from a user. have.
  • the image processor 11 may control the output unit 13 as a whole.
  • the image processor 11 may store an evaluation value of a lesion generated using a memory and control the output unit 13 to display a marker of a color corresponding to the diameter of the lesion using a processor. Can be.
  • the image processor 11 when the input unit 12 receives a cross-sectional change command while the output unit 13 outputs a single-sided image of the object, the image processor 11 outputs the cross section of the object. It is possible to control to output a section image for another section.
  • the image processor 11 may designate a lesion when the input unit 12 receives a lesion designation command while the output unit 13 outputs a single-sided image of an object. You can control the display of markers around points specified by commands.
  • the output unit 13 displays the first and second cross-sectional images. Control to display the first and second regions of respectively.
  • the image processor 11 may cause the output unit 13 to display the first and second cursors synchronized with each other in each area.
  • the image processor 11 When the input unit 12 receives a cross section change command from a user while the first and second cross-sectional images are output to the output unit 13, the image processor 11 according to an exemplary embodiment may display another cross section of the object. Generate different third and fourth cross-sectional images representing different image modes. The output unit 13 may control to display the third and fourth cross-sectional images in the first and second regions, respectively.
  • the image processor 11 may include at least one of a diameter, a volume, a density, and a position of the selected lesion. May be detected and the output unit 13 may be controlled to display at least one of the detected diameter, volume, density, and position.
  • the input unit 12 may receive a control command regarding the overall operation of the MRI system 1 from the user.
  • the input unit 12 may receive object information, parameter information, scan conditions, information about a pulse sequence, and the like from a user.
  • the input unit 12 may be implemented as a keyboard, a mouse, a trackball, a voice recognition unit, a gesture recognition unit, a touch screen, or the like. .
  • the output unit 13 may output an image generated by the image processor 11.
  • the output unit 13 may output a user interface (UI) configured to allow a user to receive a control command regarding the MRI system 1.
  • UI user interface
  • the output unit 13 may be implemented as a speaker, a printer, a display, or the like, and the display may include a display unit 56 provided at the outside and / or the inside of the scanner 50 described above.
  • the embodiment described below is described as the output unit 13 is implemented as a display, but the embodiment is not limited thereto.
  • Displays include cathode ray tubes (CRT), digital light processing (DLP) panels, plasma display penal, liquid crystal display (LCD) panels, electro luminescence (Electro Luminescence) EL) panels, electrophoretic display (EPD) panels, electrochromic display (ECD) panels, light emitting diode (LED) panels, or organic light emitting diode (OLED) panels, etc. It may be provided as, but is not limited thereto.
  • the operating unit 10 and the control unit 30 are illustrated as separate objects from each other, but as described above, may be included together in one device.
  • processes performed by each of the operating unit 10 and the control unit 30 may be performed in another object.
  • the image processor 11 may convert the MR signal received from the controller 30 into a digital signal, or the controller 30 may directly convert the MR signal.
  • At least one component may be added or deleted to correspond to the performance of the components of the MRI system 1 shown in FIG. 1.
  • the mutual position of the components may be changed corresponding to the performance or structure of the system.
  • each component illustrated in FIG. 1 refers to hardware components such as software and / or a field programmable gate array (FPGA) and an application specific integrated circuit (ASIC).
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • the MRI system 1 when the MRI system 1 according to an embodiment outputs an image, the MRI system 1 outputs a marker represented by a color corresponding to the size of the lesion together with the image, and outputs a plurality of images respectively corresponding to various image modes. The detailed process will be explained.
  • 2 and 3 are conceptual views for showing the object consisting of a plurality of cross-sections.
  • the subject ob may include a human or animal, or a part of a human or animal.
  • the subject may include organs such as liver, heart, uterus, brain, breast, abdomen, or blood vessels, or may include phantoms.
  • the object ob may be represented by a volume having a three-dimensional shape, and as shown in FIG. 2, may include one or more cross sections (ixy, iyz).
  • the cross sections ixy and iyz may be slices of the object ob seen when the object ob is sliced in a plane of various directions (for example, xy plane, yz plane, and xz plane).
  • the planes of various directions are not limited to the xy plane, yz plane, and xz plane shown in FIG. 2.
  • the subject ob When the subject ob is part of the human body, the subject ob may include not only normal tissue but also lesions such as microbleeding.
  • the object ob will be described as an example.
  • the output unit 13 of the MRI system 1 may output a plurality of cross-sectional images i1, i2, and i3.
  • the plurality of cross-sectional images i1, i2, and i3 are a plurality of two-dimensional images of a plurality of cross sections, which are seen when the object ob is sliced several times in one direction.
  • the plurality of cross-sectional images i1, i2, and i3 may be a plurality of two-dimensional images corresponding to each of the plurality of cross sections shown when the brain is sliced along the z-axis direction in the xy plane of FIG. 2. .
  • the plurality of cross-sectional images i1, i2, and i3 may constitute a stereoscopic image of one object ob.
  • the output unit 13 may output the plurality of cross-sectional images i1, i2, and i3 together on one screen, or output only one cross-sectional image on one screen, but According to an operation (that is, input of a cross section change command), a cross section image of another cross section of the object ob may be output.
  • the section change command may be, for example, a scroll manipulation or a wheel manipulation of the input unit 12.
  • the output unit 13 may output a plurality of cross-sectional images corresponding to a plurality of image modes of one cross section of the object on one screen based on the image data of the image processor 11.
  • 4 to 7 are exemplary diagrams of a plurality of cross-sectional images respectively corresponding to a plurality of image modes.
  • the screen output by the output unit 13 may include a plurality of regions F1 and F2, and the output unit 13 may include a plurality of cross-sectional images i1 corresponding to a plurality of image modes, respectively.
  • -SWI, i1-mIP can be displayed in a plurality of areas (F1, F2), respectively.
  • the plurality of cross-sectional images i1-SWI and i1-mIP may be first and second cross-sectional images of the same cross section of the object ob.
  • the output unit 13 displays the first cross-sectional image i1-SWI generated in the SWI mode in the left region F1 of the screen, and the second cross section generated in the mIP mode in the right region F2.
  • the image i1-mIP may be displayed.
  • the input unit 12 changes the cross section.
  • the output unit 13 may output a plurality of cross-sectional images i2-SWI and i2-mIP of another cross section of the object ob.
  • the output unit 13 may display the cross-section images i2-SWI and i2-mIP of the cursors C1 and C2 that are synchronized with each other in the regions F1 and F2 of the screen. ) Can also be displayed.
  • the cursor When the input unit 12 is implemented as a mouse, the cursor may be arbitrarily moved according to the movement of the mouse, and the image processor 11 may change the other when the user moves the cursor C1 in one area F1 of the screen.
  • the cursor C2 displayed in one region F2 may also be controlled to move in the same direction.
  • the user can easily determine which point of the cross-sectional image i2-SWI displayed in which area F1 corresponds to which point in the other area F2. I can figure it out.
  • the input unit 12 may select any point indicated by the cursor C1 as a lesion, and in this case, the output unit 13 may be a lesion of the input unit 12. It is also possible to display the marker M1 around the selected point according to the selection command. In addition, the output unit 13 may display a marker of a color corresponding to the diameter of the lesion calculated by the image processor 11. For example, when a cross-sectional image i2-SWI is displayed in which the diameter of one of the lesions is the largest (that is, passing through the center of the lesion), the output unit 13 according to the control signal of the image processor 11 is displayed.
  • the output unit 13 may display a yellow marker (not shown) according to the control signal of the image processor 11. . Changes in graphic attributes such as color or shape of the marker M1 are not limited thereto.
  • the lesion of the object ob may not only be manually selected by the user, but also automatically detected by the image processor 11.
  • the output unit 13 may display a marker of a color corresponding to the size of the detected lesion.
  • FIGS. 8 and 9 are conceptual views of a plurality of cross-sectional images of an object including a lesion
  • FIGS. 10A and 10B are exemplary views of two cross-sectional images in which markers of colors corresponding to the size of a lesion are displayed.
  • the lesion CMB of the subject ob may have a volume similar to that of the subject ob, and the lesion CMB may be detected in some cross-sectional images i2 to i5 of the subject ob. There may also be cross-sectional images i1 and i6 in which the lesion CMB is not detected.
  • the lesion CMB generally has the largest diameter at the central portion a1. Accordingly, the image processor 11 of the MRI system 1 may determine the cross-sectional image i3 having the largest diameter of the lesion CMB among the partial cross-sectional images i2 to i5 in which the lesion CMB is detected. The cross-sectional image i3 may be estimated as a cross-sectional image passing through the central portion a1 of the lesion CMB.
  • the output unit 13 may include markers M2 and M1 around the lesion CMB for the cross-sectional images i1 and i6 in which the lesion CMB is not detected. Without displaying, the markers M2 and M1 may be displayed around the lesion CMB with respect to the cross-sectional images i2 to i4 where the lesion is detected.
  • the periphery of the lesion CMB may include a point separated by a predetermined distance from the region where the lesion CMB exists or the region where the lesion CMB exists.
  • the marker M1 of the first color is displayed around the lesion CMB, and does not pass through the central portion a1 of the lesion CMB.
  • the marker M2 of the second color may be displayed around the lesion CMB.
  • the first color may be red and the second color may be yellow, but is not limited thereto.
  • a circular marker is displayed in FIG. 9, the shape of the marker is not limited thereto.
  • the output unit 13 may operate the input unit 12 while outputting a cross-sectional image (i3 of FIG. 10A) (that is, inputting a cross-sectional change command).
  • another cross-sectional image (i4 of FIG. 10B) of the object ob may be output.
  • each cross-sectional image i3 and i4 may include a plurality of detected lesions (CMB1-CMB2 of FIG. 10A and FIG. 10B).
  • the plurality of markers M2 and M1 may be displayed according to the size of the CMB1-CMB4.
  • the output unit 13 outputs the cross-sectional image i3 of FIG. 10A, the cross-sectional image i3 passes through the center of the first lesion CMB1, and does not pass through the center of the second lesion CMB2.
  • the marker M1 of the first color may be displayed around the first lesion CMB1
  • the marker M2 of the second color may be displayed around the second lesion CMB2.
  • the cross-sectional image i4 of FIG. 10B is output by the cross-sectional change command, and the cross-sectional image i4 does not pass through the centers of the first lesion CMB1 and the second lesion CMB2, and the third lesion CMB3. If the fourth lesion CMB4 does not pass through the center portion, the second color marker M2 may be displayed around the first to fourth lesions CMB1 to CMB4.
  • the MRI system 1 can receive the lesion (CMB) manually specified through the input unit 13, the detected lesion Regarding CMB, the detection or designation of the lesion (CMB) can be input manually.
  • 11A and 11B illustrate screens of an output unit displaying markers by user's lesion designation or cancellation.
  • the user can designate the lesion CMB1 by moving the cursor and selecting any one point through the manipulation of the input unit 12.
  • the cursor is illustrated as an arrow in FIG. 11A, the cursor may be in the form shown in FIGS. 6 and 7, but is not limited thereto.
  • the output unit 13 may display the marker M1 around the selected point.
  • the user may cancel the detection or designation of the lesion CMB1 that is detected or designated through the manipulation of the input unit 12.
  • the output unit 13 may delete the marker M1 displayed around the selected point.
  • the output unit 13 may display other evaluation values in addition to the diameter of the lesion CMB.
  • 12 and 13 are exemplary diagrams showing evaluation values of lesions in various forms.
  • a user may input an evaluation value generation command for at least one lesion CMB1 through manipulation of the input unit 12.
  • the output unit 13 indicates a position on the cross-sectional image i3 of the selected lesion CMB1, an identification number of the lesion, The diameter, volume, and the like can be output.
  • the identification number of the lesion may be randomly assigned by the image processor 11 according to the number of lesions detected by the object ob.
  • the output unit 13 may output a cross-sectional image i3 in various directions (eg, x-axis, y-axis, and z-axis directions) in which the selected lesion CMB is detected. have.
  • the user may adjust the lesion detection sensitivity through an operation of the input unit 12.
  • 14 is an exemplary diagram of a screen output when the lesion detection sensitivity is adjusted.
  • the image processor 11 may detect, as the lesions CMB1 and CMB2, the point where the brightness is less than the threshold value in the cross-sectional image i3, that is, the reference value. In the case of decreasing S1, the image processor 11 may no longer determine at least one lesion CMB2 whose brightness is less than the reference value before the change, but becomes greater than the reference value after the change.
  • the output unit 13 can display a marker around only the spot detected as the lesion.
  • the image processor 11 may store an evaluation value of a lesion generated by using a memory and generate statistical data about a diameter or volume of the lesion by using a processor.
  • 15A to 16 are two exemplary diagrams of the statistical model of the diameter of the lesion
  • FIGS. 17 and 18 are exemplary diagrams of the statistical model showing the temporal change of the diameter distribution for the plurality of lesions.
  • the image processor 11 detects one or more lesions included in the object ob by using a processor, assigns an identification number to each lesion, and identifies the identification number of each lesion and the maximum diameter of the lesion (ie,
  • statistical data may be generated by mapping the maximum diameter of the lesion in the cross-sectional image passing through the center of the lesion, and the mapped statistical data may be stored using a memory.
  • the identification number of the lesion may be assigned in order from the largest diameter lesion to the smallest diameter lesion, but is not limited thereto.
  • the output unit 13 may display a statistical model in the form of a graph based on the statistical data generated by the image processor 11, in which case the horizontal axis is an identification number of the lesion and the vertical axis is Can be the diameter of the lesion.
  • the output unit 13 may display, as a first statistical model, a bar graph indicating the maximum diameter for each identification number as the length. Accordingly, one or more bar graphs may be arranged in order from the bar graph of the lesion having the largest diameter to the bar graph of the lesion having the largest diameter.
  • a user may select a graph item (ie, a bar graph) of one lesion CMB1 in the first statistical model through the input unit 12, and the output unit 13 may include an image processor.
  • the section image i3 passing through the center of the selected lesion CMB1 can be output.
  • a marker of a first color may be displayed around the selected lesion CMB1.
  • the user may select one lesion CMB1 in the cross-sectional image i3 through the input unit 12, and the image processor 11 may select a graph item corresponding to the selected lesion CMB1.
  • the graph item corresponding to the lesion CMB1 selected through the output unit 13 may be highlighted on the first statistical model.
  • the output unit 13 may further display a second statistical model different from the first statistical model related to FIGS. 15A and 15B in the form of a graph, wherein the horizontal axis of the second statistical model is the maximum of the lesion. It may be a diameter (ie, the maximum diameter of the lesion in the cross-sectional image passing through the center of the lesion), and the vertical axis may be the number of lesions having the corresponding maximum diameter.
  • the output unit 13 may display, as a second statistical model, one or more bar graphs representing the number of lesions having a maximum diameter in length.
  • the user may select one lesion CMB1 in the cross-sectional image i3 through the input unit 12, and the image processor 11 may select a graph item corresponding to the selected lesion CMB1. (Ie, a bar graph), the graph item corresponding to the lesion CMB1 selected through the output unit 13 may be highlighted on the second statistical model.
  • the number distribution of the lesions according to the maximum diameter is listed, and the user may determine the temporal change of the lesion by viewing the change in the number distribution of the lesions over time.
  • the user may determine that the number of lesions is increased.
  • Embodiments of the first and second statistical models described above have been described as graphs of the maximum diameter of lesions in cross-sectional images, but in stereoscopic images (three-dimensional images) for other evaluation values of lesions, for example, for volume or density. It can also be realized as a graph.
  • the disclosed embodiments may be implemented in the form of a recording medium for storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may generate a program module to perform the operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • Computer-readable recording media include all kinds of recording media having stored thereon instructions which can be read by a computer.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape a magnetic tape
  • magnetic disk a magnetic disk
  • flash memory an optical data storage device, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Neurology (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

자기 공명 영상 장치는 대상체에 대한 단면 영상을 생성하고, 단면 영상이 포함하는 병변 및 병변의 크기를 검출하는 영상 처리 및 단면 영상과 병변을 나타내는 마커를 표시하는 디스플레이를 포함하되, 디스플레이는 병변 주위에 마커를 표시하되, 단면 영상이 병변의 크기가 가장 크게 나타난 단면 영상인 경우, 병변 주위에 제 1 색상의 마커를 표시하고, 단면 영상이 병변의 크기가 가장 크게 나타난 단면 영상이 아닌 경우, 병변 주위에 제 2 색상의 마커를 표시한다.

Description

자기 공명 영상 장치
자기 공명 영상 장치에 관한 것이다.
일반적으로 의료 영상 장치는 환자의 정보를 획득하여 영상을 제공하는 장치이다. 의료용 영상 장치는 X선 장치, 초음파 진단 장치, 컴퓨터 단층촬영 장치, 자기 공명 영상 장치 등이 있다.
이 중에서 자기 공명 영상 장치는 영상 촬영 조건이 상대적으로 자유롭고, 연부 조직에서의 우수한 대조도와 다양한 진단 정보 영상을 제공해주기 때문에 의료용 영상을 이용한 진단 분야에서 중요한 위치를 차지하고 있다.
자기 공명 영상(Magnetic Resonance Imaging, MRI)은 인체에 해가 없는 자장과 비전리 방사선인 RF를 이용하여 체내의 수소 원자핵에 핵자기공명 현상을 일으켜 원자핵의 밀도 및 물리화학적 특성을 영상화한 것이다.
구체적으로, 자기 공명 영상 장치는 갠트리 내부에 일정한 자기장을 가한 상태에서 일정한 주파수와 에너지를 공급하여 원자핵으로부터 방출된 에너지를 신호로 변환하고 대상체 내부를 영상화한다.
이러한 자기 공명 영상 장치가 대상체를 영상화하는 경우, 출력되는 영상에는 병변에 대한 영상이 포함되어 있을 수 있는데, 사용자는 육안으로 영상을 보고 대상체의 병변의 크기 또는 크기의 시간에 따른 변화를 판단해왔다.
개시된 일 실시예는 영상에 포함된 병변의 특징을 직관적으로 표시하는 자기 공명 영상 장치를 제공하고자 한다.
더 나아가, 개시된 일 실시예는 표시되는 영상이 병변의 크기가 가장 크게 나타난 단면에 대한 영상인지 시각적으로 표시하는 자기 공명 영상 장치를 제공하고자 한다.
또한 개시된 다른 실시예는 영상에 포함된 병변에 대한 통계적 모형을 제시하는 자기 공명 영상 장치를 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면에 따른 자기 공명 영상 장치는 대상체에 대한 단면 영상을 생성하고, 단면 영상이 포함하는 병변 및 병변의 크기를 검출하는 영상 처리부; 및 단면 영상과 병변을 나타내는 마커를 표시하는 디스플레이를 포함하되, 디스플레이는 병변 주위에 마커를 표시하되, 단면 영상이 병변의 크기가 가장 크게 나타난 단면 영상인 경우, 병변 주위에 제 1 색상의 마커를 표시하고, 단면 영상이 병변의 크기가 가장 크게 나타난 단면 영상이 아닌 경우, 병변 주위에 제 2 색상의 마커를 표시한다.
자기 공명 영상 장치는 사용자로부터 단면 변경 명령을 입력 받는 입력부를 더 포함하되, 영상 처리부는 복수의 단면 영상을 생성하고, 디스플레이는 단면 변경 명령이 입력된 경우, 대상체에 대한 다른 단면 영상을 표시할 수 있다.
디스플레이는 다른 단면 영상이 포함하는 병변의 크기에 따라 병변 주위에 제 1 색상의 마커 또는 제 2 색상의 마커를 표시할 수 있다.
입력부는 트랙볼 또는 스크롤 휠을 포함하고, 사용자의 트랙볼 또는 스크롤 휠의 조작을 단면 변경 명령으로서 입력 받을 수 있다.
자기 공명 영상 장치는 사용자로부터 단면 영상의 적어도 어느 한 지점에 대한 병변 지정 명령을 입력 받는 입력부를 더 포함하되, 디스플레이는 병변 지정 명령에 의해 지정된 지점 주위에 마커를 표시할 수 있다.
영상 처리부는, 대상체의 동일한 단면을 나타내는 제 1 및 제 2 단면 영상을 각각 서로 다른 영상 모드에서 생성하고, 디스플레이는 제 1 및 제 2 단면 영상을 제 1 및 제 2 영역에 각각 표시할 수 있다.
디스플레이는 각 영역 내에서 상호 동기화된 제 1 및 제 2 커서를 표시할 수 있다.
자기 공명 영상 장치는 사용자로부터 단면 변경 명령을 입력 받는 입력부를 더 포함하되, 영상 처리부는 단면 변경 명령이 입력된 경우, 대상체의 다른 단면을 나타내는 다른 제 3 및 제 4 단면 영상을 서로 다른 영상 모드에서 생성하고, 디스플레이는 제 3 및 제 4 단면 영상을 제 1 및 제 2 영역에 각각 표시할 수 있다.
자기 공명 영상 장치는 사용자로부터 병변을 검출하는 감도의 변경 명령을 입력 받는 입력부를 더 포함하되, 영상 처리부는 감도의 변경 명령에 기초하여 단면 영상에 존재하는 병변을 검출하는 감도를 변경할 수 있다.
자기 공명 영상 장치는 병변 중 어느 하나를 선택 받는 입력부를 더 포함하되, 영상 처리부는 선택된 병변의 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 검출하고, 디스플레이는 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 표시할 수 있다.
영상 모드는 T1-강조영상 모드, MRA(자기공명 혈관 영상) 모드, SWI(자화 강조 영상) 모드, EPI(에코 평면 영상) 모드, T2-강조 영상 모드, 및 mIP(최대 밝기 투영) 모드를 포함할 수 있다.
다른 측면에 따른 자기 공명 영상 장치는 대상체에 대한 영상을 생성하고, 영상이 포함하는 하나 이상의 병변 및 각 병변의 크기를 검출하는 영상 처리부; 및 영상 및 영상이 포함하는 병변에 대한 통계적 모형을 표시하는 디스플레이를 포함하되, 영상 처리부는 하나 이상의 병변에 식별번호를 부여하고, 통계적 모형은 제 1 축이 병변의 식별번호를 나타내고, 제 2 축이 병변의 크기를 나타내는 그래프일 수 있다.
병변의 크기는 병변의 직경, 부피, 또는 밀도일 수 있다.
영상 처리부는 하나 이상의 병변의 크기 순으로 식별번호를 부여할 수 있다.
자기 공명 영상 장치는 영상에서 표시된 하나 이상의 병변 중 적어도 어느 하나를 선택 받는 입력부를 더 포함하되, 디스플레이는 선택된 병변에 대응하는 그래프 항목을 강조 표시할 수 있다.
자기 공명 영상 장치는 통계적 모형에서 표시된 하나 이상의 병변에 대한 그래프 항목 중 어느 하나를 선택 받는 입력부를 더 포함하되, 영상 처리부는 선택된 그래프 항목에 대응하는 제 1 병변과, 제 1 병변의 직경이 가장 크게 나타난 단면 영상을 판단하고, 디스플레이는 제 1 병변의 직경이 가장 크게 나타난 단면 영상을 표시할 수 있다.
통계적 모형은 제 1 통계적 모형이고, 디스플레이는 영상이 포함하는 병변에 대한 제 2 통계적 모형을 더 표시하되, 제 2 통계적 모형은 제 1 축이 병변의 크기를 나타내고, 제 2 축이 각각의 크기를 갖는 병변의 개수를 나타내는 그래프일 수 있다.
자기 공명 영상 장치는 영상에서 표시된 하나 이상의 병변 중 적어도 어느 하나를 선택 받는 입력부를 더 포함하되, 디스플레이는 선택된 병변에 대응하는 제 1 통계적 모형의 그래프 항목 및 제 2 통계적 모형의 그래프 항목을 각각 강조 표시할 수 있다.
전술한 과제 해결 수단에 의하면, 사용자는 영상에 포함된 병변의 위치와 크기를 직관적으로 판단할 수 있게 된다.
또한, 전술한 과제 해결 수단에 의하면, 사용자는 원하는 병변이 가장 잘 표현된 단면 영상을 선택할 수 있게 되고, 대상체의 하나 이상의 단면 영상에 포함된 병변들을 파악하여 정확하게 병변의 개수를 파악할 수 있게 된다.
또한, 전술한 과제 해결 수단에 의하면, 사용자는 표시되는 병변의 통계적 모형을 이용하여 시간에 따른 병변의 분포 변화를 용이하게 확인할 수 있게 된다.
도 1은 MRI시스템의 개략도이다.
도 2와 도 3은 복수의 단면으로 이루어진 대상체를 나타내기 위한 개념도이다.
도 4 내지 도 7은 복수의 영상 모드에 각각 대응하는 복수의 단면 영상의 예시도이다.
도 8 및 도 9는 병변을 포함하는 대상체의 복수의 단면 영상에 대한 개념도이다.
도 10a 및 도 10b는 병변의 직경에 대응하는 색상의 마커가 표시된 두 단면 영상의 예시도이다.
도 11a 및 도 11b는 사용자의 병변 지정 또는 취소에 의해 마커를 표시하는 출력부의 화면을 나타낸다.
도 12 및 도 13은 병변의 평가값을 다양한 형태로 표시하는 예시도이다.
도 14는 병변 검출 감도를 조절하는 경우 출력되는 화면의 일 예시도이다.
도 15a 내지 도 16은 병변의 직경에 대한 통계적 모형의 두 예시도이다.
도 17 및 도 18은 복수의 병변에 대한 직경 분포의 시간적 변화를 나타낸 통계적 모형의 예시도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서, "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 X-ray, CT, MRI, 초음파 및 다른 의료 영상 시스템에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.
명세서 전체에서, 본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)을 포함할 수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.
또한, 명세서 전체에서, "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
MRI시스템은 자기 공명(magnetic resonance, MR) 신호를 획득하고, 획득된 자기 공명 신호를 영상으로 재구성하는 자기 공명 영상 장치를 의미한다. 자기 공명 신호는 대상체로부터 방사되는 RF 신호를 의미한다.
MRI시스템은 주자석이 정자장(static magnetic field)을 형성하여, 정자장 속에 위치한 대상체의 특정 원자핵의 자기 쌍극자 모멘트 방향을 정자장 방향으로 정렬시킨다. 경사자장 코일은 정자장에 경사 신호를 인가하여, 경사자장을 형성시켜, 대상체의 부위 별로 공명 주파수를 다르게 유도할 수 있다.
RF 코일은 영상 획득을 원하는 부위의 공명 주파수에 맞추어 RF 신호를 조사할 수 있다. 또한, RF 코일은 경사자장이 형성됨에 따라, 대상체의 여러 부위로부터 방사되는 서로 다른 공명 주파수의 MR 신호들을 수신할 수 있다. 이러한 단계를 통해 MRI시스템은 영상 복원 기법을 이용하여 MR 신호로부터 영상을 획득한다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 MRI시스템의 개략도이다. 도 1을 참조하면, MRI시스템(1)은 오퍼레이팅부(10), 제어부(30) 및 스캐너(50)를 포함할 수 있다. 여기서, 제어부(30)는 도 1에 도시된 바와 같이 독립적으로 구현될 수 있다. 또는, 제어부(30)는 복수 개의 구성 요소로 분리되어, MRI시스템(1)의 각 구성 요소에 포함될 수도 있다. 이하에서는 각 구성 요소에 대해 구체적으로 살펴보도록 한다.
스캐너(50)는 내부 공간이 비어 있어, 대상체가 삽입될 수 있는 형상(예컨대, 보어(bore) 형상)으로 구현될 수 있다. 스캐너(50)의 내부 공간에는 정자장 및 경사자장이 형성되며, RF 신호가 조사된다.
스캐너(50)는 정자장 형성부(51), 경사자장 형성부(52), RF 코일부(53), 테이블부(55) 및 디스플레이부(56)를 포함할 수 있다. 정자장 형성부(51)는 대상체에 포함된 원자핵들의 자기 쌍극자 모멘트의 방향을 정자장 방향으로 정렬하기 위한 정자장을 형성한다. 정자장 형성부(51)는 영구 자석으로 구현되거나 또는 냉각 코일을 이용한 초전도 자석으로 구현될 수도 있다.
경사자장 형성부(52)는 제어부(30)와 연결된다. 제어부(30)로부터 전송 받은 제어신호에 따라 정자장에 경사를 인가하여, 경사자장을 형성한다. 경사자장 형성부(52)는 서로 직교하는 X축, Y축 및 Z축 방향의 경사자장을 형성하는 X, Y, Z 코일을 포함하며, 대상체의 부위 별로 공명 주파수를 서로 다르게 유도할 수 있도록 촬영 위치에 맞게 경사 신호를 발생 시킨다.
RF 코일부(53)는 제어부(30)와 연결되어, 제어부(30)로부터 전송 받은 제어신호에 따라 대상체에 RF 신호를 조사하고, 대상체로부터 방출되는 MR 신호를 수신할 수 있다. RF 코일부(53)는 세차 운동을 하는 원자핵을 향하여 세차운동의 주파수와 동일한 주파수의 RF 신호를 대상체에게 전송한 후 RF 신호의 전송을 중단하고, 대상체로부터 방출되는 MR 신호를 수신할 수 있다.
RF 코일부(53)는 원자핵의 종류에 대응하는 무선 주파수를 갖는 전자파를 생성하는 송신 RF 코일과, 원자핵으로부터 방사된 전자파를 수신하는 수신 RF 코일로서 각각 구현되거나 또는 송/수신 기능을 함께 갖는 하나의 RF 송수신 코일로서 구현될 수도 있다. 또한, RF 코일부(53)외에, 별도의 코일이 대상체에 장착될 수도 있다. 예를 들어, 촬영 부위 또는 장착 부위에 따라, 헤드 코일(Head coil), 척추 코일(spine coil), 몸통 코일(torso coil), 무릎 코일(knee coil) 등이 별도의 코일로 이용될 수 있다.
스캐너(50)의 외측 및/또는 내측에는 디스플레이부(56)가 마련될 수 있다. 디스플레이부(56)는 제어부(30)에 의해 제어되어, 사용자 또는 대상체에게 의료 영상 촬영과 관련된 정보를 제공할 수 있다.
또한, 스캐너(50)에는 대상체의 상태에 관한 모니터링정보를 획득하여 전달하는 대상체 모니터링정보 획득부가 마련될 수 있다. 예를 들어, 대상체 모니터링정보 획득부(미도시)는 대상체의 움직임, 위치 등을 촬영하는 카메라(미도시), 대상체의 호흡을 측정하기 위한 호흡 측정기(미도시), 대상체의 심전도를 측정하기 위한 ECG 측정기(미도시), 또는 대상체의 체온을 측정하기 위한 체온 측정기(미도시)로부터 대상체에 관한 모니터링정보를 획득하여 제어부(30)로 전달할 수 있다. 이에 따라, 제어부(30)는 대상체에 관한 모니터링정보를 이용하여 스캐너(50)의 동작을 제어할 수 있다. 이하에서는 제어부(30)에 대해 살펴보도록 한다.
제어부(30)는 스캐너(50)의 전반적인 동작을 제어할 수 있다.
제어부(30)는 스캐너(50) 내부에서 형성되는 신호들의 시퀀스를 제어할 수 있다. 제어부(30)는 오퍼레이팅부(10)로부터 수신 받은 펄스 시퀀스(pulse sequence) 또는 설계한 펄스 시퀀스에 따라 경사자장 형성부(52) 및 RF 코일부(53)를 제어할 수 있다.
펄스 시퀀스란, 경사자장 형성부(52), 및 RF 코일부(53)를 제어하기 위해 필요한 모든 정보를 포함하며, 예를 들어 경사자장 형성부(52)에 인가하는 펄스(pulse) 신호의 강도, 인가 지속시간, 인가 타이밍 등에 관한 정보 등을 포함할 수 있다.
제어부(30)는 펄스 시퀀스에 따라 경사 파형, 즉 전류 펄스를 발생시키는 파형 발생기(미도시), 및 발생된 전류 펄스를 증폭시켜 경사자장 형성부(52)로 전달하는 경사 증폭기(미도시)를 제어하여, 경사자장 형성부(52)의 경사자장 형성을 제어할 수 있다.
제어부(30)는 RF 코일부(53)의 동작을 제어할 수 있다. 예를 들어, 제어부(30)는 공명 주파수의 RF 펄스를 RF 코일부(53)에 공급하여 RF 신호를 조사할 수 있고, RF 코일부(53)가 수신한 MR 신호를 수신할 수 있다. 이때, 제어부(30)는 제어신호를 통해 송수신 방향을 조절할 수 있는 스위치(예컨대, T/R 스위치)의 동작을 제어하여, 동작 모드에 따라 RF 신호의 조사 및 MR 신호의 수신을 조절할 수 있다.
제어부(30)는 대상체가 위치하는 테이블부(55)의 이동을 제어할 수 있다. 촬영이 수행되기 전에, 제어부(30)는 대상체의 촬영 부위에 맞추어, 테이블부(55)를 미리 이동시킬 수 있다.
제어부(30)는 디스플레이부(56)를 제어할 수 있다. 예를 들어, 제어부(30)는 제어신호를 통해 디스플레이부(56)의 온/오프 또는 디스플레이부(56)를 통해 표시되는 화면 등을 제어할 수 있다.
제어부(30)는 MRI시스템(1) 내 구성요소들의 동작을 제어하기 위한 알고리즘, 프로그램 형태의 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
오퍼레이팅부(10)는 MRI시스템(1)의 전반적인 동작을 제어할 수 있다. 오퍼레이팅부(10)는 영상 처리부(11), 입력부(12) 및 출력부(13)를 포함할 수 있다.
영상 처리부(11)는 오퍼레이팅부(10) 내 구성요소들의 동작을 제어하기 위한 알고리즘, 프로그램 형태의 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 이하의 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
영상 처리부(11)는 메모리를 이용하여 제어부(30)로부터 수신 받은 MR 신호를 저장하고, 프로세서를 이용하여 영상 복원 기법을 적용함으로써, 저장한 MR 신호로부터 대상체에 대한 영상을 생성할 수 있다.
예를 들어, 영상 처리부(11)는 메모리의 k-공간(예컨대, 푸리에(Fourier) 공간 또는 주파수 공간이라고도 지칭됨)에 디지털 데이터를 채워 k-공간 데이터가 완성되면, 프로세서를 통해 다양한 영상 복원기법을 적용하여(예컨대, k-공간 데이터를 역 푸리에 변환하여) k-공간 데이터를 영상으로 복원할 수 있다.
영상 복원 기법은 T1-강조영상 모드, MRA(자기공명 혈관 영상) 모드, SWI(자화 강조 영상) 모드, EPI(에코 평면 영상) 모드, T2-강조 영상 모드, mIP(최대 밝기 투영) 모드 등 공지된 다양한 MR 영상 모드를 이용하여 복원하는 기법을 포함할 수 있다.
또한, 영상 처리부(11)가 MR 신호에 대해 적용하는 각종 신호 처리는 병렬적으로 수행될 수 있다. 예를 들어, 다채널 RF 코일에 의해 수신되는 복수의 MR 신호를 병렬적으로 신호 처리하여 영상으로 복원할 수도 있다. 한편, 영상 처리부(11)는 복원한 영상을 메모리에 저장하거나 또는 후술할 바와 같이 제어부(30)가 통신부(60)를 통해 외부의 서버에 저장할 수 있다.
일 실시예에 따른 영상 처리부(11)는 메모리를 이용하여 생성된 영상을 저장하고, 프로세서를 이용하여 영상에 포함된 병변을 검출함으로써, 저장한 영상으로부터 대상체의 병변에 대한 평가값을 생성할 수 있다.
병변의 평가값은 예를 들어, 영상이 포함하는 병변의 직경, 부피, 및 밀도와 같은 병변의 크기, 병변의 위치, 또는 병변의 식별번호 등 병변과 관련된 다양한 측정값일 수 있고, 병변을 자동으로 검출하는 방법은 예를 들어, 영상에서 밝기가 어두운 점 영역을 검출하는 것일 수 있다.
일 실시예에 따른 영상 처리부(11)는 메모리를 이용하여 병변에 대한 평가값을 저장하고, 프로세서를 이용하여 병변의 직경, 부피, 또는 밀도에 대한 통계적 모형을 생성할 수 있다. 통계적 모형과 관련된 설명은 후술한다.
일 실시예에 따른 영상 처리부(11)는 입력부(12)가 사용자로부터 병변을 검출하는 감도의 변경 명령을 입력 받은 경우, 감도의 변경 명령에 기초하여 영상에 존재하는 병변을 검출하는 감도를 변경할 수 있다.
또한, 일 실시예에 따른 영상 처리부(11)는 출력부(13)를 전반적으로 제어할 수 있다.
일 실시예에 따른 영상 처리부(11)는 메모리를 이용하여 생성된 병변에 대한 평가값을 저장하고, 프로세서를 이용하여 병변의 직경에 대응하는 색상의 마커가 표시되도록 출력부(13)를 제어할 수 있다.
일 실시예에 따른 영상 처리부(11)는 출력부(13)가 대상체의 어느 한 단면 영상을 출력하고 있는 상태에서 입력부(12)가 단면 변경 명령을 입력 받은 경우, 출력부(13)가 대상체의 다른 단면에 대한 단면 영상을 출력하도록 제어할 수 있다.
일 실시예에 따른 영상 처리부(11)는 출력부(13)가 대상체의 어느 한 단면 영상을 출력하고 있는 상태에서 입력부(12)가 병변 지정 명령을 입력 받은 경우, 출력부(13)가 병변 지정 명령에 의해 지정된 지점 주위에 마커를 표시하도록 제어할 수 있다.
일 실시예에 따른 영상 처리부(11)는 대상체의 동일한 단면을 나타내는 제 1 및 제 2 단면 영상을 각각 서로 다른 영상 모드에서 생성하는 경우, 출력부(13)가 제 1 및 제 2 단면 영상을 화면의 제 1 및 제 2 영역에 각각 표시하도록 제어할 수 있다. 이 경우, 영상 처리부(11)는 출력부(13)가 각 영역 내에서 상호 동기화된 제 1 및 제 2 커서를 표시하도록 할 수 있다.
일 실시예에 따른 영상 처리부(11)는 제 1 및 제 2 단면 영상이 출력부(13)에 출력되는 상태에서, 입력부(12)가 사용자로부터 단면 변경 명령을 입력 받는 경우, 대상체의 다른 단면을 나타내는 다른 제 3 및 제 4 단면 영상을 서로 다른 영상 모드에서 생성하고. 출력부(13)가 제 3 및 제 4 단면 영상을 제 1 및 제 2 영역에 각각 표시하도록 제어할 수 있다.
일 실시예에 따른 영상 처리부(11)는 입력부(12)가 출력부(13)에 의해 표시된 복수의 병변 중 어느 하나를 선택 받은 경우, 선택된 병변의 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 검출하고, 출력부(13)가 검출된 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 표시하도록 제어할 수 있다.
영상 처리부(11)의 자세한 동작과정에 대해서는 후술한다.
입력부(12)는 사용자로부터 MRI시스템(1)의 전반적인 동작에 관한 제어 명령을 입력 받을 수 있다. 예를 들어, 입력부(12)는 사용자로부터 대상체 정보, 파라미터 정보, 스캔 조건, 펄스 시퀀스에 관한 정보 등을 입력 받을 수 있다. 입력부(12)는 키보드, 마우스, 트랙볼, 음성 인식부, 제스처 인식부, 터치 스크린 등으로 구현될 수 있다. .
출력부(13)는 영상 처리부(11)에 의해 생성된 영상을 출력할 수 있다. 또한, 출력부(13)는 사용자가 MRI시스템(1)에 관한 제어 명령을 입력 받을 수 있도록 구성된 유저 인터페이스(User Interface, UI)를 출력할 수 있다. 출력부(13)는 스피커, 프린터, 디스플레이 등으로 구현될 수 있고, 디스플레이는 전술한 스캐너(50)의 외측 및/또는 내측에 마련된 디스플레이부(56)를 포함할 수 있다. 이하 기술되는 실시예는 출력부(13)가 디스플레이로서 구현되는 것으로서 기술하나, 실시예가 이에 한정되지는 아니한다.
디스플레이는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.
한편, 도 1에서는 오퍼레이팅부(10), 제어부(30)를 서로 분리된 객체로 도시하였으나, 전술한 바와 같이, 하나의 기기에 함께 포함될 수도 있다. 또한, 오퍼레이팅부(10), 및 제어부(30) 각각에 의해 수행되는 프로세스들이 다른 객체에서 수행될 수도 있다. 예를 들어, 영상 처리부(11)는, 제어부(30)에서 수신한 MR 신호를 디지털 신호로 변환하거나 또는, 제어부(30)가 직접 변환할 수도 있다.
도 1에 도시된 MRI시스템(1)의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도 1에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
이하, 일 실시예에 따른 MRI시스템(1)이 영상을 출력함에 있어서, 병변의 크기에 대응하는 색상으로 표현된 마커를 영상과 함께 출력하고, 다양한 영상 모드에 각각 대응하는 복수의 영상을 출력하는 세부 과정에 대해서 설명한다.
도 2와 도 3은 복수의 단면으로 이루어진 대상체를 나타내기 위한 개념도이다.
전술한 바와 같이, 대상체(ob)는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있고, 팬텀(phantom)을 포함할 수도 있다. 이러한 대상체(ob)는 부피를 갖는 3차원 형상으로 표현될 수 있고, 도 2에 도시된 바와 같이, 하나 이상의 단면(ixy, iyz)을 포함할 수 있다. 단면(ixy, iyz)은 대상체(ob)를 다양한 방향의 평면(예를 들어, xy평면, yz평면, xz평면)으로 슬라이싱했을 때 보여지는 대상체(ob)의 슬라이스가 될 수 있다. 다양한 방향의 평면은 도 2에 도시된 xy평면, yz평면, xz평면에 한정되지 아니한다.
대상체(ob)가 사람 신체의 일부인 경우, 대상체(ob)에는 정상적인 세포조직뿐만 아니라, 미세출혈과 같은 병변도 포함되어 있을 수 있다. 이하, 대상체(ob)가 뇌인 것을 예로 들어 설명한다.
도 3을 참조하면, 일 실시예에 따른 MRI시스템(1)의 출력부(13)는 복수의 단면 영상(i1, i2, i3)을 출력할 수 있다.
복수의 단면 영상(i1, i2, i3)은 대상체(ob)를 어느 한 방향으로 여러 번 슬라이싱 했을 때 보여지는 복수의 단면에 대한 복수의 2차원 영상이다. 예를 들어, 복수의 단면 영상(i1, i2, i3)은 뇌를 도 2의 xy평면으로 z축 방향을 따라 슬라이싱했을 때, 보여지는 복수의 단면 각각에 대응하는 복수의 2차원 영상일 수 있다.
복수의 단면 영상(i1, i2, i3)은 어느 한 대상체(ob)의 입체 영상을 구성할 수 있다.
일 실시예에 따른 출력부(13)는 이러한 복수의 단면 영상(i1, i2, i3)을 하나의 화면에 함께 출력할 수도 있고, 하나의 화면에 하나의 단면 영상만을 출력하되 입력부(12)의 조작(즉, 단면 변경 명령의 입력)에 따라 대상체(ob)의 다른 단면에 대한 단면 영상을 출력할 수도 있다.
단면 변경 명령은 예를 들어, 입력부(12)의 스크롤 조작 또는 휠 조작일 수 있다.
또한, 출력부(13)는 영상 처리부(11)의 영상 데이터에 기초하여 대상체의 어느 한 단면에 대한, 복수의 영상 모드에 각각 대응하는 복수의 단면 영상을 하나의 화면에 출력할 수 있다.
도 4 내지 도 7은 복수의 영상 모드에 각각 대응하는 복수의 단면 영상의 예시도이다.
도 4를 참조하면, 출력부(13)가 출력하는 화면은 복수의 영역(F1, F2)을 포함할 수 있고, 출력부(13)는 복수의 영상 모드에 각각 대응하는 복수의 단면 영상(i1-SWI, i1-mIP)을 복수의 영역에(F1, F2)에 각각 표시할 수 있다. 여기서, 복수의 단면 영상(i1-SWI, i1-mIP)은 대상체(ob)의 동일한 단면에 대한 제 1 및 제 2 단면 영상일 수 있다.
예를 들어, 출력부(13)는 화면의 좌측 영역(F1)에 SWI 모드에서 생성된 제 1 단면 영상(i1-SWI)을 표시하고, 우측 영역(F2)에 mIP 모드에서 생성된 제 2 단면 영상(i1-mIP)을 표시할 수 있다.
또한, 도 4와 같이 도시된 바와 같이, 하나의 화면에 대상체(ob)의 어느 한 단면에 대한 복수의 영상 모드에 각각 대응하는 복수의 단면 영상을 출력하는 상태에서, 입력부(12)가 단면 변경 명령을 입력 받는 경우, 도 5에 도시된 바와 같이, 출력부(13)는 대상체(ob)의 다른 한 단면에 대한 복수의 단면 영상(i2-SWI, i2-mIP)을 출력할 수 있다.
이 경우, 다른 한 단면에 대한 복수의 단면 영상(i2-SWI, i2-mIP) 또한, 단면 변경 명령을 입력 이전의 어느 한 단면에 대한 복수의 단면 영상(i1-SWI, i1-mIP)과 각각 동일한 영상 모드에서 생성된 것일 수 있다.
더 나아가, 도 6을 참조하면, 일 실시예에 따른 출력부(13)는 화면의 각 영역(F1, F2)에서 상호 동기화된 커서(C1, C2)를 단면 영상(i2-SWI, i2-mIP)과 함께 표시할 수도 있다.
입력부(12)가 마우스로 구현된 경우, 마우스의 움직임에 따라 커서가 임의로 이동일 수 있고, 영상 처리부(11)는 사용자가 화면의 어느 한 영역(F1)에서 커서(C1)를 이동시키는 경우, 다른 한 영역(F2)에서 표시되는 커서(C2) 또한 동일한 방향으로 이동하도록 제어할 수 있다.
동기화된 커서(C1, C2)가 표시되는 경우, 사용자는 어느 한 영역(F1)에서 표시되는 단면 영상(i2-SWI)의 어느 한 지점이 다른 영역(F2)에서 어느 지점에 해당하는 것인지 용이하게 파악할 수 있게 된다.
더 나아가, 도 7을 참조하면, 일 실시예에 따른 입력부(12)는 커서(C1)가 가리키는 어느 한 지점을 병변으로서 선택할 수 있고, 이 경우, 출력부(13)는 입력부(12)의 병변 선택 명령에 따라 선택된 지점 주위에 마커(M1)를 표시하는 것도 가능하다. 그리고, 출력부(13)는 영상 처리부(11)가 산출한 병변의 직경에 대응하는 색상의 마커를 표시할 수도 있다. 예를 들어, 어느 한 병변의 직경이 가장 크게 나타나는(즉, 병변의 중심부를 지나는) 단면 영상(i2-SWI)이 표시되는 경우, 출력부(13)는 영상 처리부(11)의 제어 신호에 따라 빨간색 마커(M1)를 표시하고, 병변 중심부 외 다른 지점을 지나는 단면 영상이 표시되는 경우, 출력부(13)는 영상 처리부(11)의 제어 신호에 따라 노란색 마커(미도시)를 표시할 수 있다. 마커(M1)의 색상 또는 모양과 같은 그래픽 속성의 변경은 이에 한정되지 아니한다.
한편, 전술한 바와 같이, 대상체(ob)의 병변은 사용자에 의해 수동으로 선택되는 것뿐만 아니라, 영상 처리부(11)에 의해 자동으로 검출될 수 있다. 이 경우, 일 실시예에 따른 출력부(13)는 검출된 병변의 크기에 대응하는 색상의 마커를 표시할 수도 있다.
도 8 및 도 9는 병변을 포함하는 대상체의 복수의 단면 영상에 대한 개념도이고, 도 10a 및 도 10b는 병변의 크기에 대응하는 색상의 마커가 표시된 두 단면 영상의 예시도이다.
도 8을 참조하면, 대상체(ob)의 병변(CMB)은 대상체(ob)와 마찬가지로 부피를 가지고 있을 수 있고, 대상체(ob)의 일부 단면 영상(i2 내지 i5)에서는 병변(CMB)이 검출되지만, 병변(CMB)이 검출되지 않는 단면 영상(i1, i6)도 있을 수 있다.
또한, 병변(CMB)은 대체적으로 중심부(a1)에서 직경이 가장 큰 특성을 가지고 있다. 이에 따라, MRI시스템(1)의 영상 처리부(11)는 병변(CMB)이 검출되는 일부 단면 영상들(i2 내지 i5) 중 병변(CMB)의 직경이 가장 큰 단면 영상(i3)을 판단할 수 있고, 해당 단면 영상(i3)을 병변(CMB)의 중심부(a1)를 지나는 단면 영상으로 추정할 수 있다.
그리고, 도 9를 참조하면, 일 실시예에 따른 출력부(13)는 병변(CMB)이 검출되지 않는 단면 영상(i1, i6)에 대해서는 병변(CMB) 주위에 마커(M2, M1))를 표시하지 아니하고, 병변이 검출되는 단면 영상(i2 내지 i4)에 대해서는 병변(CMB) 주위에 마커(M2, M1)를 표시할 수 있다. 여기서, 병변(CMB) 주위는 병변(CMB)이 존재하는 영역 또는 병변(CMB)이 존재하는 영역으로부터 미리 설정된 거리만큼 떨어진 지점을 포함할 수 있다.
그리고, 병변(CMB)의 중심부(a1)를 지나는 단면 영상(i3)에 대해서는 제 1 색상의 마커(M1)를 병변(CMB) 주위에 표시하고, 병변(CMB)의 중심부(a1)를 지나지 않는 단면 영상(i2, i4, i5)에 대해서는 제 2 색상의 마커(M2)를 병변(CMB) 주위에 표시할 수 있다. 예를 들어, 제 1 색상은 빨간색, 제 2 색상은 노란색일 수 있으나 반드시 이에 한정되지 아니한다. 또한, 도 9에서는 원형 마커가 표시되었으나, 마커의 형태는 이에 한정되지 아니한다.
또한, 도 10a 및 도 10b를 참조하면, 일 실시예에 따른 출력부(13)는 단면 영상(도 10a의 i3)을 출력하는 상태에서 입력부(12)의 조작(즉, 단면 변경 명령의 입력)에 따라 대상체(ob)의 다른 단면 영상(도 10b의 i4)을 출력할 수 있는데, 이 경우, 각 단면 영상(i3, i4)은 검출된 복수의 병변(도 10a의 CMB1-CMB2, 도 10b의 CMB1-CMB4)의 크기에 따라 복수의 마커(M2, M1)를 표시할 수 있다.
구체적으로, 출력부(13)는 도 10a의 단면 영상(i3)이 출력되고, 단면 영상(i3)이 제 1 병변(CMB1)의 중심부를 지나고, 제 2 병변(CMB2)에 대해서는 중심부를 지나지 않는 경우, 제 1 병변(CMB1) 주위에 제 1 색상의 마커(M1)를 표시하고, 제2 병변(CMB2) 주위에 제 2 색상의 마커(M2)를 표시할 수 있다.
그러나, 단면 변경 명령에 의해 도 10b의 단면 영상(i4)이 출력되고, 단면 영상(i4)이 제 1 병변(CMB1) 및 제 2 병변(CMB2)의 중심부를 지나지 아니하고, 제 3 병변(CMB3) 및 제 4 병변(CMB4)에 대해서도 중심부를 지나지 않는 경우, 제 1 내지 제 4 병변(CMB1-CMB4) 주위에 제 2 색상의 마커(M2)를 표시할 수 있다.
한편, 영상 처리부(11)에 의해 검출되지 아니한 병변(CMB)에 대해서도 일 실시예에 따른 MRI시스템(1)은 입력부(13)를 통해 수동으로 병변(CMB)을 지정 받을 수 있고, 검출된 병변(CMB)에 대해서도 수동으로 병변(CMB)의 검출 또는 지정의 취소를 입력 받을 수 있다. 도 11a 및 도 11b는 사용자의 병변 지정 또는 취소에 의해 마커를 표시하는 출력부의 화면을 나타낸다.
도 11a를 참조하면, 사용자는 입력부(12)의 조작을 통해 커서를 이동시키고, 어느 한 지점을 선택함으로써 병변(CMB1)을 지정하는 것이 가능하다. 도 11a에서는 커서를 화살표로서 도시하였으나, 커서는 도 6 및 도 7에 도시된 형태일 수도 있고, 이에 한정되지는 아니한다. 입력부(12)에 의해 어느 한 지점이 선택되는 경우, 출력부(13)는 선택된 지점 주위에 마커(M1)를 표시할 수 있다.
또한, 도 11b를 참조하면, 사용자는 입력부(12)의 조작을 통해 검출되거나 지정된 병변(CMB1)의 검출 또는 지정을 취소할 수 있다. 입력부(12)에 의해 어느 한 병변(CMB1)의 검출 또는 지정이 취소되는 경우, 출력부(13)는 선택된 지점 주위 표시된 마커(M1)를 삭제할 수 있다.
더 나아가, 출력부(13)는 병변(CMB)의 직경 외에 다른 평가값들을 표시하는 것도 가능하다. 도 12 및 도 13은 병변의 평가값을 다양한 형태로 표시하는 예시도이다.
도 12를 참조하면, 사용자는 입력부(12)의 조작을 통해 적어도 하나의 병변(CMB1)에 대한 평가값 생성 명령을 입력할 수 있다. 입력부(12)에 의해 적어도 하나의 병변(CMB1)에 대한 평가값 생성 명령이 입력된 경우, 출력부(13)는 선택된 병변(CMB1)의 단면 영상(i3) 상에서의 위치, 병변의 식별번호, 직경, 부피 등을 출력할 수 있다. 여기서, 병변의 식별번호는 대상체(ob)에서 검출된 병변의 개수에 따라 영상 처리부(11)에 의해 임의로 매겨진 것일 수 있다.
또한, 도 13을 참조하면, 출력부(13)는 선택된 병변(CMB)이 검출된 다양한 방향(예를 들어, x축, y축, z축 방향)에서의 단면 영상(i3)을 출력할 수도 있다.
더 나아가, 영상 처리부(11)가 자동으로 병변을 검출하는 경우, 사용자는 입력부(12)의 조작을 통해 병변 검출 감도를 조절할 수도 있다. 도 14는 병변 검출 감도를 조절하는 경우 출력되는 화면의 일 예시도이다.
예를 들어, 영상 처리부(11)는 단면 영상(i3)에서 밝기가 기준값(Threshold) 미만인 지점을 병변(CMB1, CMB2)으로 검출할 수 있는데, 사용자가 병변 검출 감도를 감소시키는 경우, 즉, 기준값(S1)을 감소시키는 경우, 영상 처리부(11)는 밝기가 변경 이전 기준값 미만이었으나, 변경 이후 기준값 이상이 된 적어도 어느 한 병변(CMB2)에 대해서는 더 이상 병변으로서 판단하지 않을 수 있다.
이에 따라, 출력부(13)는 병변으로서 검출된 지점에 대해서만 주위에 마커를 표시할 수 있다.
한편, 일 실시예에 따른 영상 처리부(11)는 메모리를 이용하여 생성된 병변에 대한 평가값을 저장하고, 프로세서를 이용하여 병변의 직경 또는 부피에 대한 통계적 데이터를 생성할 수 있다. 도 15a 내지 도 16은 병변의 직경에 대한 통계적 모형의 두 예시도이고, 도 17 및 도 18은 복수의 병변에 대한 직경 분포의 시간적 변화를 나타낸 통계적 모형의 예시도이다.
일 실시예에 따른 영상 처리부(11)는 프로세서를 이용하여 대상체(ob)가 포함하는 하나 이상의 병변을 검출하고, 각 병변에 식별번호를 부여하며, 각 병변의 식별번호와 병변의 최대 직경(즉, 병변의 중심부를 지나는 단면 영상에서의 병변의 최대 직경)을 매핑함으로써 통계적 데이터를 생성하고, 메모리를 이용하여 매핑된 통계적 데이터를 저장할 수 있다. 예를 들어, 병변의 식별번호는 최대 직경이 큰 병변부터 최대 직경이 작은 병변 순으로 부여될 수 있으나 이에 한정되지는 아니한다.
이 경우, 일 실시예에 따른 출력부(13)는 영상 처리부(11)가 생성한 통계적 데이터에 기초하여 그래프 형태로 통계적 모형을 표시할 수 있는데, 이 경우 가로축은 병변의 식별번호이고, 세로축은 병변의 직경이 될 수 있다.
도 15a 및 도 15b를 참조하면, 출력부(13)는 식별번호 별 최대 직경을 길이로서 나타낸 막대 그래프를 제 1 통계적 모형으로서 표시할 수 있다. 이에 따라 최대 직경이 큰 병변의 막대 그래프부터 최대 직경이 작은 병변의 막대 그래프 순으로 하나 이상의 막대 그래프가 나열될 수 있다.
이 경우, 도 15a를 참조하면, 사용자는 입력부(12)를 통해 제 1 통계적 모형에서 어느 한 병변(CMB1)의 그래프 항목(즉, 막대 그래프)을 선택할 수 있고, 출력부(13)는 영상 처리부(11)의 제어에 따라 선택된 병변(CMB1)의 중심부를 지나는 단면 영상(i3)을 출력할 수 있다. 선택된 병변(CMB1)의 중심부를 지나는 단면 영상에는 제 1 색상의 마커가 선택된 병변(CMB1) 주위에 표시될 수 있다.
또한, 도 15b를 참조하면, 사용자는 입력부(12)를 통해 단면 영상(i3)에서 어느 한 병변(CMB1)을 선택할 수도 있고, 영상 처리부(11)는 선택된 병변(CMB1)에 대응하는 그래프 항목을 판단하여, 출력부(13)를 통해 선택된 병변(CMB1)에 대응하는 그래프 항목을 제 1 통계적 모형 상에서 강조 표시할 수 있다.
이와 같은 제 1 통계적 모형이 표시되는 경우, 사용자는 복수의 병변에 대한 직경의 크기 분포를 용이하게 인지할 수 있게 된다.
또한, 일 실시예에 따른 출력부(13)는 도 15a 및 도 15b와 관련된 제 1 통계적 모형과 상이한 제 2 통계적 모형을 그래프 형태로 더 표시할 수 있는데, 제 2 통계적 모형의 가로축은 병변의 최대 직경(즉, 병변의 중심부를 지나는 단면 영상에서의 병변의 최대 직경)이고, 세로축은 해당 최대 직경을 갖는 병변의 개수일 수 있다.
도 16을 참조하면, 출력부(13)는 각 최대 직경을 갖는 병변의 개수를 길이로 나타낸 하나 이상의 막대 그래프를 제 2 통계적 모형으로서 표시할 수 있다.
또한, 제 1 통계적 모형과 마찬가지로, 사용자는 입력부(12)를 통해 단면 영상(i3)에서 어느 한 병변(CMB1)을 선택할 수도 있고, 영상 처리부(11)는 선택된 병변(CMB1)에 대응하는 그래프 항목(즉, 막대 그래프)을 판단하여, 출력부(13)를 통해 선택된 병변(CMB1)에 대응하는 그래프 항목을 제 2 통계적 모형 상에서 강조 표시할 수 있다.
제 2 통계적 모형이 표시됨에 따라, 최대 직경에 따른 병변의 개수 분포도가 나열되고, 사용자는 병변의 개수 분포도의 시간에 따른 변화를 보고 병변의 시간적 변화를 판단할 수 있다.
예를 들어, 도 17에 도시된 바와 같이, 최대 직경에 따른 병변의 개수 분포도가 가로축 방향으로 증가한 경우(G1->G2) 사용자는 대상체(ob)가 갖는 하나 이상의 병변의 크기가 전반적으로 증가한 것으로 판단할 수 있다.
또한, 도 18에 도시된 바와 같이, 최대 직경에 따른 병변의 개수 분포도가 세로축 방향으로 증가한 경우(G3->G4) 사용자는 병변의 개수가 증가한 것으로서 판단할 수 있다.
전술한 제 1 및 제 2 통계적 모형의 실시예는 단면 영상에서 병변의 최대 직경에 대한 그래프로서 기술되었으나, 입체 영상(3차원 영상)에서 병변의 다른 평가값, 예를 들어, 부피 또는 밀도에 대한 그래프로서 실현되는 것도 가능하다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (15)

  1. 대상체에 대한 단면 영상을 생성하고, 단면 영상이 포함하는 병변 및 상기 병변의 크기를 검출하는 영상 처리부; 및
    상기 단면 영상과 상기 병변을 나타내는 마커를 표시하는 디스플레이를 포함하되,
    상기 상기 디스플레이는 상기 병변 주위에 상기 마커를 표시하되, 상기 단면 영상이 상기 병변의 크기가 가장 크게 나타난 단면 영상인 경우, 상기 병변 주위에 제 1 색상의 마커를 표시하고, 상기 단면 영상이 상기 병변의 크기가 가장 크게 나타난 단면 영상이 아닌 경우, 상기 병변 주위에 제 2 색상의 마커를 표시하는 자기 공명 영상 장치.
  2. 제 1 항에 있어서,
    사용자로부터 단면 변경 명령을 입력 받는 입력부를 더 포함하되,
    상기 영상 처리부는 복수의 단면 영상을 생성하고,
    상기 디스플레이는 상기 단면 변경 명령이 입력된 경우, 대상체에 대한 다른 단면 영상을 표시하는 자기 공명 영상 장치.
  3. 제 2 항에 있어서,
    상기 디스플레이는 상기 다른 단면 영상이 포함하는 병변의 크기에 따라 상기 병변 주위에 상기 제 1 색상의 마커 또는 상기 제 2 색상의 마커를 표시하는 자기 공명 영상 장치.
  4. 제 2 항에 있어서,
    상기 입력부는 트랙볼 또는 스크롤 휠을 포함하고, 상기 사용자의 상기 트랙볼 또는 상기 스크롤 휠의 조작을 상기 단면 변경 명령으로서 입력 받는 자기 공명 영상 장치.
  5. 제 1 항에 있어서,
    사용자로부터 상기 단면 영상의 적어도 어느 한 지점에 대한 병변 지정 명령을 입력 받는 입력부를 더 포함하되,
    상기 디스플레이는 상기 병변 지정 명령에 의해 지정된 지점 주위에 마커를 표시하는 자기 공명 영상 장치.
  6. 제 1 항에 있어서,
    상기 영상 처리부는, 상기 대상체의 동일한 단면을 나타내는 제 1 및 제 2 단면 영상을 각각 서로 다른 영상 모드에서 생성하고,
    상기 디스플레이는 상기 제 1 및 제 2 단면 영상을 제 1 및 제 2 영역에 각각 표시하는 자기 공명 영상 장치.
  7. 제 1 항에 있어서,
    사용자로부터 상기 병변을 검출하는 감도의 변경 명령을 입력 받는 입력부를 더 포함하되,
    상기 영상 처리부는 상기 감도의 변경 명령에 기초하여 상기 단면 영상에 존재하는 병변을 검출하는 감도를 변경하는 자기 공명 영상 장치.
  8. 제 1 항에 있어서,
    상기 병변 중 어느 하나를 선택 받는 입력부를 더 포함하되,
    상기 영상 처리부는 선택된 병변의 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 검출하고,
    상기 디스플레이는 상기 직경, 부피, 밀도, 및 위치 중 적어도 어느 하나를 표시하는 자기 공명 영상 장치.
  9. 대상체에 대한 영상을 생성하고, 영상이 포함하는 하나 이상의 병변 및 각 병변의 크기를 검출하는 영상 처리부; 및
    상기 영상 및 상기 영상이 포함하는 병변에 대한 통계적 모형을 표시하는 디스플레이를 포함하되,
    상기 영상 처리부는 상기 하나 이상의 병변에 식별번호를 부여하고,
    상기 통계적 모형은 제 1 축이 상기 병변의 식별번호를 나타내고, 제 2 축이 상기 병변의 크기를 나타내는 그래프인 자기 공명 영상 장치.
  10. 제 9 항에 있어서,
    상기 병변의 크기는 상기 병변의 직경, 부피, 또는 밀도인 자기 공명 영상 장치.
  11. 제 9 항에 있어서,
    상기 영상 처리부는 상기 하나 이상의 병변의 크기 순으로 상기 식별번호를 부여하는 자기 공명 영상 장치.
  12. 제 9 항에 있어서,
    상기 영상에서 표시된 하나 이상의 병변 중 적어도 어느 하나를 선택 받는 입력부를 더 포함하되,
    상기 디스플레이는 선택된 병변에 대응하는 그래프 항목을 강조 표시하는 자기 공명 영상 장치.
  13. 제 9 항에 있어서,
    상기 통계적 모형에서 표시된 하나 이상의 병변에 대한 그래프 항목 중 어느 하나를 선택 받는 입력부를 더 포함하되,
    상기 영상 처리부는 상기 선택된 그래프 항목에 대응하는 제 1 병변과, 상기 제 1 병변의 직경이 가장 크게 나타난 단면 영상을 판단하고,
    상기 디스플레이는 상기 제 1 병변의 직경이 가장 크게 나타난 단면 영상을 표시하는 자기 공명 영상 장치.
  14. 제 9 항에 있어서,
    상기 통계적 모형은 제 1 통계적 모형이고,
    상기 디스플레이는 상기 영상이 포함하는 병변에 대한 제 2 통계적 모형을 더 표시하되,
    상기 제 2 통계적 모형은 제 1 축이 병변의 크기를 나타내고, 제 2 축이 각각의 크기를 갖는 병변의 개수를 나타내는 그래프인 자기 공명 영상 장치.
  15. 제 14 항에 있어서,
    상기 영상에서 표시된 하나 이상의 병변 중 적어도 어느 하나를 선택 받는 입력부를 더 포함하되,
    상기 디스플레이는 선택된 병변에 대응하는 제 1 통계적 모형의 그래프 항목 및 제 2 통계적 모형의 그래프 항목을 각각 강조 표시하는 자기 공명 영상 장치.
PCT/KR2017/006256 2016-08-30 2017-06-15 자기 공명 영상 장치 WO2018043878A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/329,623 US20190223790A1 (en) 2016-08-30 2017-06-15 Magnetic resonance imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0111113 2016-08-30
KR1020160111113A KR101821353B1 (ko) 2016-08-30 2016-08-30 자기 공명 영상 장치

Publications (1)

Publication Number Publication Date
WO2018043878A1 true WO2018043878A1 (ko) 2018-03-08

Family

ID=61071004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006256 WO2018043878A1 (ko) 2016-08-30 2017-06-15 자기 공명 영상 장치

Country Status (3)

Country Link
US (1) US20190223790A1 (ko)
KR (1) KR101821353B1 (ko)
WO (1) WO2018043878A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005822B1 (ko) * 2018-01-26 2019-07-31 성신여자대학교 연구 산학협력단 이미지 처리에 의한 뇌 내 콜로이드 낭종 검출 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212259A (ja) * 2005-02-04 2006-08-17 Gifu Univ 医用画像処理装置及びプログラム
JP2007050045A (ja) * 2005-08-16 2007-03-01 Fujifilm Corp 読影支援装置、読影支援方法、およびそのプログラム
WO2007026598A1 (ja) * 2005-08-31 2007-03-08 Gifu University 医用画像処理装置及び画像処理方法
KR20150085462A (ko) * 2014-01-15 2015-07-23 삼성전자주식회사 의료 영상 처리 장치 및 그에 따른 의료 영상 처리 방법
KR20160046625A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 자기 공명 영상 장치 및 자기 공명 영상을 처리하는 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812841B2 (ja) 2011-12-14 2015-11-17 株式会社日立製作所 画像診断支援装置、画像診断支援方法、画像診断支援プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212259A (ja) * 2005-02-04 2006-08-17 Gifu Univ 医用画像処理装置及びプログラム
JP2007050045A (ja) * 2005-08-16 2007-03-01 Fujifilm Corp 読影支援装置、読影支援方法、およびそのプログラム
WO2007026598A1 (ja) * 2005-08-31 2007-03-08 Gifu University 医用画像処理装置及び画像処理方法
KR20150085462A (ko) * 2014-01-15 2015-07-23 삼성전자주식회사 의료 영상 처리 장치 및 그에 따른 의료 영상 처리 방법
KR20160046625A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 자기 공명 영상 장치 및 자기 공명 영상을 처리하는 방법

Also Published As

Publication number Publication date
US20190223790A1 (en) 2019-07-25
KR101821353B1 (ko) 2018-01-23

Similar Documents

Publication Publication Date Title
JP7418358B2 (ja) 医用撮像のための位置フィードバックインジケータ
WO2016072586A1 (en) Medical image processing apparatus and method
WO2016036006A1 (en) Magnetic resonance imaging apparatus and method of operating the same
WO2016018073A1 (en) Apparatus and method for generating magnetic resonance image
WO2016125978A1 (en) Method and apparatus for displaying medical image
WO2014061965A1 (en) Method and apparatus for capturing medical images
WO2019209052A1 (en) Medical imaging apparatus and method of controlling the same
US20200046300A1 (en) Cardiac motion signal derived from optical images
EP3215008A1 (en) Magnetic resonance imaging apparatus and method
KR101899009B1 (ko) 자기공명영상장치 및 그 제어방법
EP3495831A1 (en) Coil apparatus, magnetic resonance imaging apparatus, and method of controlling the coil apparatus
WO2016076522A1 (en) Magnetic resonance imaging apparatus and magnetic resonance image processing method
WO2016195281A1 (ko) 경사자장을 발생시키기 위해 복수의 코일을 이용하는 경사자장 발생 모듈
WO2018043878A1 (ko) 자기 공명 영상 장치
US11250590B2 (en) Automated detection of abnormal subject configuration for medical imaging
WO2016003070A1 (en) Method of measuring blood flow velocity performed by medical imaging apparatus, and the medical imaging apparatus
WO2018062757A1 (ko) 국부 코일 장치
WO2018143568A1 (ko) 자기 공명 영상 디스플레이 장치 및 자기 공명 영상 디스플레이 방법
WO2019103492A1 (ko) 자기공명영상장치 및 그 제어방법
WO2018135812A1 (ko) 의료 영상 장치 및 의료 영상 처리 방법
EP3785227B1 (en) Automated subject monitoring for medical imaging
US20220270283A1 (en) Magnetic resonance imaging device, attachment position output method, and storage medium
WO2019103387A1 (ko) 자기 공명 영상 장치 및 그 제어방법
WO2017131310A1 (ko) 자기 공명 영상 장치 및 그에 따른 자기 공명 영상 획득 방법
WO2016133336A1 (en) Magnetic resonance imaging (mri) apparatus and method of controlling mri apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17846803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17846803

Country of ref document: EP

Kind code of ref document: A1