WO2012153904A1 - 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체 - Google Patents

초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체 Download PDF

Info

Publication number
WO2012153904A1
WO2012153904A1 PCT/KR2011/009865 KR2011009865W WO2012153904A1 WO 2012153904 A1 WO2012153904 A1 WO 2012153904A1 KR 2011009865 W KR2011009865 W KR 2011009865W WO 2012153904 A1 WO2012153904 A1 WO 2012153904A1
Authority
WO
WIPO (PCT)
Prior art keywords
organ
image
reference image
ultrasound
lesion
Prior art date
Application number
PCT/KR2011/009865
Other languages
English (en)
French (fr)
Inventor
나종범
이덕운
남우현
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of WO2012153904A1 publication Critical patent/WO2012153904A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image

Definitions

  • the present invention relates to a system for locating organs and lesions in a state of motion using an ultrasound image used in the field of image guided interventional procedures, a method for estimating position, and a computer readable recording medium including instructions for performing the method.
  • Ultrasonic imaging systems are capable of real-time image acquisition and are important in the field of image guided interventional procedures. Recently, in order to compensate for the low image quality of an ultrasound image, a study of matching a previously obtained high-resolution CT or MR image with an ultrasound image has been performed.
  • this method can not be matched with CT or MR images unless the ultrasound image including the target organs and lesions has poor image quality, and thus has a fatal disadvantage that the organs and lesions of interest can no longer be tracked (JM Blackall et al., “Alignment of sparse freehand 3-D ultrasound with preoperative images of the liver using models of respiratory motion and deformation,” IEEE Trans.Medical Imaging, vol. 24, no. 11, pp. 1405-1416, 2005.) .
  • an optical marker equipped with an LED is attached to the chest of the target patient, and the respiratory state is estimated by the position of the LED light, and the CT image of the estimated respiratory state is x-rayed and Match and track the lesion.
  • the optical marker and the camera system must be additionally provided, and the optical maker is limited to properly reflect the respiratory state because it is attached to the exterior of the body.
  • X-ray imaging used to locate organs and lesions increases the exposure of radiation to patients (A.
  • a computer readable recording medium comprising a system and method for estimating the position of organs and lesions in an exercise state and instructions for performing the method without the need for additional devices.
  • a four-dimensional reference image forming unit for forming a four-dimensional reference image by obtaining a plurality of three-dimensional reference images of the organs and lesions of the position estimation target and the organs that are the position estimation criteria in different motion state ;
  • a first ultrasound image forming unit configured to form a plurality of 3D ultrasound images of the organ according to the location estimation reference according to the motion state of the organ as the location estimation reference; Rigid registration is performed between the 4D reference image formed by the 4D reference image forming unit and the 3D ultrasound image formed by the first ultrasound image forming unit to obtain a rigid transformation parameter.
  • Obtaining a first image registration unit According to the movement state of the organ that is the position estimation criteria, a plurality of 2D ultrasound images or 3D ultrasound images of the organ that are the position estimation criteria are formed, and when the 2D ultrasound image is formed, A second ultrasound image forming unit for obtaining location information of a two-dimensional plane; When the second ultrasound image forming unit forms a 2D ultrasound image, using the rigid transformation parameters formed in the first image matching unit and the position information of the 2D plane formed in the second ultrasound image forming unit, or the 2 When the ultrasound image forming unit forms the 3D ultrasound image, the corresponding dimension reference image sequence is generated from the 4D reference image formed by the 4D reference image forming unit by using the rigid transformation parameter formed by the first image matching unit.
  • a second image matching unit for finding the corresponding dimension reference image most similar to the corresponding dimension ultrasound image among the generated corresponding dimension reference image sequences; And a transformation parameter between the corresponding 3D ultrasound image formed by the second ultrasound image forming unit and the 4D reference image formed by the 4D reference image forming unit, and the motion state of the corresponding dimension reference image found by the second image matching unit.
  • a location estimator for estimating the location of the organs and the lesions by extracting the organs.
  • the organ serving as the position estimation criteria provides an organ and lesion position estimation system in an exercise state using an ultrasound image, in which the repetition pattern of the exercise state and the organ of the position estimation target are the same. .
  • the organ which is the location estimation criteria provides the same organ and lesion location estimation system in the exercise state using the ultrasound image as the organ of the location estimation target.
  • the four-dimensional reference image forming unit provides an organ and lesion location estimation system in an exercise state using an ultrasound image, further forming a three-dimensional reference image using an image interpolation technique.
  • the two-dimensional ultrasound image provides a system for locating the organs and lesions in the exercise state using the ultrasound image, which forms a plurality at the same time.
  • the position estimator may include a transformation parameter between a corresponding dimensional ultrasound image formed by the second ultrasound image forming unit and a 4D reference image formed by the 4D reference image forming unit, and A transformation parameter and a motion state extraction unit for extracting a motion state of the corresponding dimensional reference image found by the second image matching unit;
  • a 4D reference image area calculator configured to calculate an area of a 4D reference image corresponding to the corresponding 3D ultrasound image from the transformation parameter and the motion state extracted by the transformation parameter and the motion state extractor; And calculating a relative position difference between the area of the 4D reference image calculated by the 4D reference image area calculator and a target organ and a lesion, and compensating the information about the relative position difference to estimate the position of the target organ and the lesion. It provides a location estimation system comprising a; and, the position estimation system for organs and lesions in the exercise state using the ultrasound image.
  • the organ further includes a organ and a lesion position visualization unit configured to visualize the estimated positions of the target organ and the lesion compensated by the position estimation compensator in three dimensions. And a lesion location system.
  • the organ and lesion position visualization unit using the ultrasound image to visualize the location of the target organ and the lesion corresponding to the movement state of the organ to be the position estimation criteria in three dimensions Provide an organ and lesion location system of condition.
  • a second 2D ultrasound image of a plurality of organs according to the position estimation criteria is formed according to the motion state of the organ as the position estimation criteria, and the position information of the 2D planes for the 2D ultrasound images is obtained;
  • the corresponding dimension reference image sequence is generated from the 4D reference image by using the rigid transformation parameter and the position information of the 2D plane, and among the generated corresponding dimension reference image sequences, the corresponding dimension is most
  • a second image registration step of finding an image And a position estimating step of extracting a transformation parameter between the 2D ultrasound image and the 4D reference image and the motion state of the corresponding 3D reference image to estimate an organ and a lesion location. It provides a method for estimating the location of organs and lesions.
  • the position estimating may include a transformation parameter between the 2D ultrasound image and the 4D reference image, a transformation parameter for extracting a motion state of the corresponding dimension reference image, and a motion.
  • State extraction step A four-dimensional reference image area calculation step of calculating a region of a four-dimensional reference image corresponding to a two-dimensional ultrasound image from the transformation parameter and the motion state;
  • a position estimation compensation step of calculating a relative position difference between the region of the four-dimensional reference image and the target organ and the lesion, and compensating the information on the relative position difference to the position estimation of the target organ and the lesion. It provides a method for estimating the location of organs and lesions using the image.
  • forming a four-dimensional reference image to form a four-dimensional reference image by obtaining a plurality of three-dimensional reference images of the organs and lesions of the position estimation object and the organs as the position estimation criteria in different motion state step;
  • a first ultrasound image forming step of forming a plurality of 3D ultrasound images of the organ according to the location estimation reference according to the motion state of the organ as the location estimation reference;
  • a first image registration step of obtaining a rigid transformation parameter by performing rigid registration between the four-dimensional reference image and the three-dimensional ultrasound image;
  • a second image registration step of generating a 3D reference image sequence from the 4D reference image using the rigid transformation parameter and finding a 3D reference image most similar to a 3D ultrasound image among the generated 3D reference image sequences ;
  • the position estimating step may include a transformation parameter between the 3D ultrasound image and the 4D reference image, a transformation parameter for extracting a motion state of the corresponding dimension reference image, and a motion State extraction step; A four-dimensional reference image area calculation step of calculating a region of a four-dimensional reference image corresponding to a three-dimensional ultrasound image from the transformation parameter and the motion state; And a position estimation compensation step of calculating a relative position difference between the region of the four-dimensional reference image and the target organ and the lesion, and compensating the information on the relative position difference to the position estimation of the target organ and the lesion. It provides a method for estimating the location of organs and lesions using the image.
  • organ and lesion location visualization step of visualizing the estimated position of the target organ and lesion in three dimensions, the organ and lesion location estimation method using the ultrasound image To provide.
  • the organ and lesion location visualization step using the ultrasound image to visualize the location of the target organ and the lesion corresponding to the movement state of the organ that is the position estimation criteria in three dimensions It provides a method for estimating the location of organs and lesions during exercise.
  • a computer-readable recording medium comprising the instructions for performing the method of any one of the above.
  • the present invention by monitoring the state of movement of organs and lesions using an ultrasound image, it is possible to estimate the position of organs and lesions in the state of exercise without the need for additional devices.
  • FIG. 1 is a block diagram showing an embodiment of an organ and lesion location estimation system in an exercise state using an ultrasound image according to the present invention.
  • FIG. 2 is a block diagram of the first ultrasound image forming unit of FIG. 1.
  • Figure 3 is a perspective view showing a fixed state of the ultrasonic probe of the present invention.
  • FIG. 4 is a block diagram of a position estimator of FIG. 1.
  • FIG. 5 is a flowchart illustrating a first embodiment of a method for estimating organs and lesions in an exercise state using an ultrasound image according to the present invention.
  • FIG. 6 is a detailed flowchart of step S160 of FIG. 5.
  • FIG. 7 is a flowchart illustrating a second embodiment of a method for estimating the location of an organ and a lesion in an exercise state using an ultrasound image according to the present invention.
  • step S260 of FIG. 7 is a detailed flowchart of step S260 of FIG. 7.
  • the organ and lesion location estimation system in an exercise state using an ultrasound image includes a 4D reference image forming unit 100, a first ultrasound image forming unit 200, a first image matching unit 300, The second ultrasound image forming unit 400, the second image matching unit 500, and the position estimating unit 600 are included.
  • the four-dimensional reference image forming unit 100 obtains a plurality of three-dimensional reference images of the organs and lesions of the position estimation object and the organs as the position estimation criteria in different motion states to form a four-dimensional reference image.
  • a plurality of 3D reference images are obtained to have different motion states.
  • the organ that is the position estimation criterion may be selected as an organ that has the same repetition pattern as the organ of the position estimation object, and the organ that is the position estimation criteria may be the same as the organ of the position estimation object.
  • the reference image is an image having anatomical or lesion information of an ultrasound image or more, such as a CT image or an MR image.
  • the 4D reference image forming unit 100 may further form a 3D reference image using an image interpolation technique, and may form a 4D reference image when a plurality of 3D reference images are acquired over time. .
  • the 4D reference image forming unit 100 interpolates two 3D reference images to form at least one 3D reference image therebetween.
  • the 4D reference image forming unit 100 forms a plurality of 3D reference images by interpolating between two 3D reference images.
  • the first ultrasound image forming unit 200 forms a plurality of three-dimensional ultrasound images of the organs as the location estimation criteria according to the movement state of the organs as the location estimation criteria.
  • the 3D ultrasound image is formed while the ultrasound probe is fixed after setting the organ as the reference for the location estimation within the region of interest of the 3D ultrasound image.
  • the first image matching unit 300 may perform rigid registration between the 4D reference image formed by the 4D reference image forming unit 100 and the 3D ultrasound image formed by the first ultrasound image forming unit 200. To obtain a rigid transformation parameter.
  • the second ultrasound image forming unit 400 forms a plurality of two-dimensional ultrasound images or three-dimensional ultrasound images of the organs as the location estimation criteria according to the state of movement of the organs as the location estimation criteria, and the two-dimensional ultrasound images are formed. Obtain the location information of the 2D plane for the 2D ultrasound image. Two-dimensional ultrasound images may be formed simultaneously. When the ultrasound image is formed, an organ that is a location estimation criterion is included in the ROI of the ultrasound image, and a corresponding dimension ultrasound image is formed while the ultrasound probe is fixed.
  • the second image matching unit 500 may include a rigid transformation parameter and the second ultrasound image forming unit 400 formed by the first image matching unit 300.
  • the second ultrasound image forming unit 400 forms a three-dimensional ultrasound image
  • a rigid transformation parameter formed in the first image matching unit 300 By using the position information of the two-dimensional plane formed in the) or when the second ultrasound image forming unit 400 forms a three-dimensional ultrasound image, using a rigid transformation parameter formed in the first image matching unit 300, The dimensional reference image sequence is generated from the 4D reference image formed by the 4D reference image forming unit 100, and the dimensional reference image most similar to the dimensional ultrasound image is found from the generated dimensional reference image sequence.
  • the second image matching unit 500 detects the similarity between the dimension ultrasound image and the dimension reference image and uses a method of finding the dimension reference image having the largest similarity.
  • the similarity may be detected using a cross correlation method, a mutual information method, a sum of squared intensity difference (SSID) method, or the like.
  • the position estimator 600 matches a second parameter with a transformation parameter between the corresponding 4D reference image formed by the 4D reference image forming unit 100 and the corresponding 4D ultrasound image formed by the second ultrasound image forming unit 400.
  • the state of the lesion and the location of the lesion are extracted by extracting the motion state of the corresponding dimension reference image found in the block 500.
  • FIG. 2 is a block diagram of the first ultrasonic image forming unit of FIG. 1, and FIG. 3 is a perspective view illustrating a fixing state of the ultrasonic probe of the present invention.
  • the first ultrasonic image forming unit 200 may include a transmission signal forming unit 210, an ultrasonic probe 220, a beam former 230, an ultrasonic data forming unit 240, and an image forming unit. 250.
  • the first ultrasound image forming unit 200 may further include an ultrasound probe holder 260 for fixing the ultrasound probe 220 to a specific position of the object P.
  • FIG. 1 is a block diagram of the first ultrasonic image forming unit of FIG. 1
  • FIG. 3 is a perspective view illustrating a fixing state of the ultrasonic probe of the present invention.
  • the first ultrasonic image forming unit 200 may include a transmission signal forming unit 210, an ultrasonic probe 220, a beam former 230, an ultrasonic data forming unit 240, and an image forming unit. 250.
  • the transmission signal forming unit 210 forms a first transmission signal for obtaining each of the plurality of frames.
  • the first transmission signal includes at least one of a transmission signal for obtaining each of the plurality of frames at maximum inspiration and a transmission signal for obtaining each of the plurality of frames at maximum exhalation.
  • the transmission signal forming unit 210 forms a second transmission signal for obtaining a frame.
  • the frame may include a B mode image.
  • the ultrasonic probe 220 includes a plurality of transducer elements (not shown).
  • the ultrasound probe 220 may include a 3D probe and a 2D array probe.
  • the ultrasound probe 220 converts the first transmission signal provided from the transmission signal forming unit 210 into an ultrasound signal, transmits the ultrasound signal to the object, and receives the ultrasound echo signal reflected from the object to form a first reception signal.
  • the ultrasound probe 220 moves the conversion element to a position set by the user, converts the second transmission signal provided from the transmission signal forming unit 210 into an ultrasound signal, and transmits the ultrasound signal to the object P.
  • a second echo signal is formed by receiving the ultrasonic echo signal reflected from the second echo signal.
  • the beam former 230 converts the first received signal into analog and digital to form a first digital signal.
  • the beam former 230 receives and focuses the first digital signal in consideration of the position and the focusing point of the conversion element to form the first reception focusing signal.
  • the beam former 230 converts the second received signal into analog and digital to form a second digital signal.
  • the beam former 230 receives and focuses the second digital signal in consideration of the position and the focusing point of the conversion element to form a second receiving focused signal.
  • the ultrasound data forming unit 240 forms first ultrasound data using the first reception focusing signal.
  • the ultrasound data forming unit 240 forms second ultrasound data by using the second reception focusing signal.
  • the ultrasound data forming unit 240 may perform signal processing (for example, gain control and filtering processing) necessary for forming the ultrasound data on the first to third reception focused signals.
  • the image forming unit 250 forms a 3D ultrasound image by using the first ultrasound data.
  • the 3D ultrasound image includes at least one of a 3D ultrasound image at maximum inspiration and a 3D ultrasound image at maximum exhalation.
  • the image forming unit 250 forms a 2D ultrasound image by using the second ultrasound data.
  • the position estimator 600 includes a transformation parameter and a motion state extractor 610, a four-dimensional reference image area calculator 620, and a position estimation compensator 630.
  • the transformation parameter and the motion state extractor 610 may include a transformation parameter between the corresponding 4D reference image formed by the 4D reference image forming unit 100 and the corresponding 4D ultrasound image formed by the second ultrasound image forming unit 400.
  • the motion state of the corresponding dimension reference image found by the second image matching unit 500 is extracted.
  • the 4D reference image area calculator 620 calculates an area of the 4D reference image corresponding to the corresponding 3D ultrasound image from the transformation parameter and the motion state extracted by the transformation parameter and the exercise state extractor 610.
  • the position estimation compensator 630 calculates a relative position difference between the region of the 4D reference image calculated by the 4D reference image region calculator 620 and the target organ and the lesion, and calculates information on the relative position difference. And compensation of the location of the lesion.
  • the organ and lesion position visualization unit 640 visualizes the estimated positions of the target organs and lesions in three dimensions by compensating by the position estimation compensator 630. At this time, the position of the target organ and the lesion corresponding to the exercise state of the organ which is the position estimation criteria are visualized in three dimensions.
  • FIGS. 1 to 5 is a flowchart illustrating a first embodiment of a method for estimating organs and lesions in an exercise state using an ultrasound image according to the present invention. Reference is made to FIGS. 1 to 5.
  • the 4D reference image forming unit 100 acquires a plurality of 3D reference images of organs, lesions, and organs that are position estimation criteria in different motion states to form a 4D reference image (4 Dimensional reference image forming step, S110)
  • the first ultrasound image forming unit 200 forms a plurality of three-dimensional ultrasound images of the organs as the location estimation criteria according to the motion state of the organs as the location estimation criteria (first ultrasound image forming step, S120). )
  • the first image matching unit 300 performs a rigid registration between the 4D reference image formed by the 4D reference image forming unit 100 and the 3D ultrasound image formed by the first ultrasound image forming unit 200. Then, a rigid transformation parameter is obtained (first image registration step S130).
  • the second ultrasound image forming unit 400 forms a plurality of two-dimensional ultrasound images of the organs, which are the location estimation criteria, according to the state of movement of the organs, which are the location estimation criteria, and the two-dimensional images of the two-dimensional ultrasound images. Obtaining the position information of the plane (second ultrasound image forming step, S140).
  • the second image matching unit 500 uses the rigid transformation parameters formed in the first image matching unit 300 and the position information of the two-dimensional plane formed in the second ultrasound image forming unit 400.
  • the 2D reference image sequence is generated from the 4D reference image formed by the 3D reference image forming unit 100, and the 2D reference image most similar to the 2D ultrasound image is found from the generated 2D reference image sequence (second image registration). Step, S150).
  • the position estimator 600 is a transformation parameter between the two-dimensional ultrasound image formed by the second ultrasound image forming unit 400 and the four-dimensional reference image formed by the four-dimensional reference image forming unit 100,
  • the motion state of the 2D reference image found by the second image matching unit 500 is extracted to estimate an organ and a lesion position (position estimation step S160).
  • FIG. 6 is a detailed flowchart of step S160 of FIG. 5. Reference will be made to FIGS. 1 to 4 and 6.
  • the transformation parameter and the exercise state extractor 610 may include a transformation parameter between the two-dimensional ultrasound image formed by the second ultrasound image forming unit 400 and the four-dimensional reference image formed by the four-dimensional C-major image forming unit. , Extracts the motion state of the 2D reference image found by the second image matcher 500 (transformation parameter and motion state extraction step, S161).
  • the 4D reference image area calculator 620 detects a region of the 4D reference image corresponding to the 2D ultrasound image from the transformation parameter and the exercise state extracted by the transformation parameter and the exercise state extractor 610. (4D reference image area calculation step, S162).
  • the position estimation compensator 630 calculates a relative position difference between the region of the calculated 4D reference image and the target organ and the lesion in the 4D reference image region calculator 620, and relates to the relative position difference.
  • the information is compensated for the estimation of the location of the target organ and the lesion (position estimation step S163).
  • the organ and lesion position visualization unit 640 compensates by the position estimation compensator 630 to visualize the estimated positions of the target organ and the lesion in three dimensions (long-term and lesion position visualization step, S164). At this time, the position of the target organ and the lesion corresponding to the exercise state of the organ which is the position estimation criteria are visualized in three dimensions.
  • the 4D reference image forming unit 100 acquires a plurality of 3D reference images of organs, lesions, and organs that are position estimation criteria in different motion states to form a 4D reference image (4 Dimensional reference image forming step, S210).
  • the first ultrasound image forming unit 200 forms a plurality of three-dimensional ultrasound images of the organs as the location estimation criteria according to the motion state of the organs as the location estimation criteria (first ultrasound image forming step, S220). ).
  • the first image matching unit 300 After operation S220, the first image matching unit 300 performs a rigid registration between the 4D reference image formed by the 4D reference image forming unit 100 and the 3D ultrasound image formed by the first ultrasound image forming unit 200. Then, a rigid transformation parameter is obtained (first image registration step S230).
  • the second ultrasound image forming unit 400 forms a plurality of three-dimensional ultrasound images of the organs as the location estimation criteria according to the motion state of the organs as the location estimation criteria (second ultrasound image forming step, S240). ).
  • the second image matching unit 500 uses the rigid transformation parameter formed by the first image matching unit 300 to refer to the 3D reference image from the 4D reference image formed by the 4D reference image forming unit 100.
  • An image sequence is generated and a 3D reference image most similar to a 3D ultrasound image is found among the generated 3D reference image sequences (second image registration step S250).
  • the position estimator 600 includes a transformation parameter between the 3D ultrasound image formed by the second ultrasound image forming unit 400 and the 4D reference image formed by the 4D reference image forming unit 100, The motion state of the 3D reference image found by the second image matching unit 500 is extracted to estimate an organ and a lesion position (position estimating step S260).
  • step S260 of FIG. 7 Reference will be made to FIGS. 1 to 4 and 8.
  • the transformation parameter and the motion state extractor 610 transform the transformation between the 3D ultrasound image formed by the second ultrasound image forming unit 400 and the 4D reference image formed by the 4D reference image forming unit 100.
  • the parameter and the motion state of the 3D reference image found by the second image matching unit 500 are extracted (transformation parameter and motion state extraction step, S261).
  • the 4D reference image area calculator 620 may extract a region of the 4D reference image corresponding to the 3D ultrasound image from the transformation parameter and the motion state extracted by the transformation parameter and the motion state extractor 610. (4D reference image area calculation step, S262).
  • the position estimation compensator 630 calculates a relative position difference between the region of the 4D reference image calculated by the 4D reference region calculator 620, the target organ and the lesion, and the information about the relative position difference. To compensate for the estimation of the location of the target organs and lesions (position estimation step, S263).
  • the organ and lesion position visualization unit 640 compensates the position estimation compensator 630 to visualize the estimated positions of the target organ and the lesion in three dimensions (long-term and lesion position visualization step S264). At this time, the position of the target organ and the lesion corresponding to the exercise state of the organ which is the position estimation criteria are visualized in three dimensions.
  • the method of estimating the organ and the lesion position in the exercise state using the ultrasound image as described above may be recorded on a computer readable recording medium including instructions for performing such a method and read by a user.
  • the present invention is applied to an apparatus for monitoring the state of movement of organs and lesions using ultrasound images and estimating the position of organs and lesions in exercise state.

Abstract

본 발명은 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템으로서, 4차원 참조 영상 형성부; 제1 초음파 영상 형성부; 제1 영상 정합부; 제2 초음파 영상 형성부; 제2 영상 정합부; 및 위치추정부를 포함하여 구성되어, 초음파 영상을 이용하여 장기 및 병변의 운동상태를 모니터링함으로써, 추가적인 장치의 필요 없이도 운동 상태의 장기 및 병변의 위치를 추정할 수 있다.

Description

초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체
본 발명은 영상 유도 중재적 시술분야에서 사용되는 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체에 관한 것이다.
초음파 영상 시스템은 실시간 영상 획득이 가능하여 영상 유도 중재적 시술 분야에서 중요하게 사용되고 있다. 최근에는, 초음파 영상의 낮은 화질을 보완하기 위해, 미리 획득한 고해상도의 CT 또는 MR 영상을 초음파 영상에 정합하는 연구가 수행되어 왔다.
종래에는 대상 장기 및 병변을 포함하고 있는 초음파 영상과 CT 또는 MR 영상을 정합한 후, 센서를 이용하여 초음파 영상의 위치변화에 대응하는 CT 또는 MR 영상을 제공하는 방법이 있었다. 이 방법은 초음파 영상과 CT 또는 MR 영상 초기 정합에 필요한 레스피레토리 게이팅(respiratory gating)을 위해 센서를 이용하는 시스템이 반드시 필요하다는 단점이 있다.
또한, 이 방법은 대상 장기 및 병변을 포함하는 초음파 영상의 화질이 좋지 않으면 CT 또는 MR 영상과 정합을 수행할 수 없으므로, 관심 장기 및 병변을 더 이상 추적할 수 없는 치명적인 단점을 갖는다(J. M. Blackall et al.,“Alignment of sparse freehand 3-D ultrasound with preoperative images of the liver using models of respiratory motion and deformation,”IEEE Trans. Medical Imaging, vol. 24, no. 11, pp. 1405-1416, 2005.).
또한, 종래에는 운동상태의 장기 및 병변을 추적하기 위해, x-ray 영상을 이용하는 방법이 있다. 이 방법에서는 대상 환자의 흉부에 LED가 장착된 옵티컬 마커(optical marker)를 부착한 후 LED 빛의 위치로 호흡상태를 추정한 후, 추정된 호흡상태의 CT 영상을 엑스레이(x-ray) 영상과 정합하여 병변을 추적한다. 그러나, 호흡상태를 추정하기 위해서는 옵티컬 마커와 카메라 시스템이 추가적으로 갖추어져야 하는 단점이 있을 뿐만 아니라, 옵티컬 메이커는 신체 외각에 부착되기 때문에 호흡상태를 제대로 반영하기에는 한계가 있다. 또한, 장기 및 병변의 위치추정을 위해 사용하는 엑스레이 영상은 환자에게 노출되는 방사선의 피폭량을 증가시킨다(A. Mahadevan et al., “Stereotactic body radiotherapy and gemcitabine for locally advanced pancreatic cancer,” Int. J. Radiation Oncology Biol. Phys., vol. 78, no. 3, pp. 735-742, 2010.).
본 발명에 따르면, 추가적인 장치의 필요 없이도 운동 상태의 장기 및 병변의 위치를 추정하는 시스템 및 방법과 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체를 제공한다.
본 발명의 일 측면에 따르면, 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성부; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성부; 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상과, 상기 제1 초음파 영상 형성부에서 형성된 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합부; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 2차원 초음파 영상 또는 3차원 초음파 영상을 다수 개 형성하고, 상기 2차원 초음파 영상이 형성된 경우 상기 2차원 초음파 영상에 대한 2차원 플레인(plane)의 위치정보를 구하는 제2 초음파 영상 형성부; 상기 제2 초음파 영상 형성부가 2차원 초음파 영상을 형성한 경우 상기 제1 영상 정합부에서 형성된 리지드 트랜스포메이션 파라미터와 상기 제2 초음파 영상 형성부에서 형성된 2차원 플레인의 위치정보를 이용하여, 또는 상기 제2 초음파 영상 형성부가 3차원 초음파 영상을 형성한 경우 상기 제1 영상 정합부에서 형성된 리지드 트랜스포메이션 파라미터를 이용하여, 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상으로부터 해당 차원 참조 영상 시퀀스를 생성하고, 생성된 해당 차원 참조 영상 시퀀스 중에서 해당 차원 초음파 영상과 가장 유사한 해당 차원 참조 영상을 찾는 제2 영상 정합부; 및 상기 제2 초음파 영상 형성부가 형성한 해당 차원 초음파 영상과 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 제2 영상 정합부에서 찾은 해당 차원 참조 영상의 운동상태를 추출하여 장기 및 병변 위치를 추정하는 위치 추정부;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 일 실시예에 따르면, 상기 위치추정기준이 되는 장기는 상기 위치추정대상의 장기와 운동상태의 반복패턴이 동일한 장기인, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 다른 실시예에 따르면, 상기 위치추정기준이 되는 장기는 상기 위치추정대상의 장기와 동일한, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 4차원 참조 영상 형성부는 영상보간기법을 이용하여 3차원 참조영상을 더 형성하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 2차원 초음파 영상은 다수 개를 동시에 형성하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 위치 추정부는, 상기 제2 초음파 영상 형성부가 형성한 해당 차원 초음파 영상과 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 제2 영상 정합부에서 찾은 해당 차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출부; 상기 트랜스포메이션 파라미터 및 운동상태 추출부에서 추출된 트랜스포메이션 파라미터 및 운동상태로부터 해당 차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산부; 및 상기 4차원 참조 영상 영역 계산부에서 계산된 상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상부;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 위치추정 보상부에서 보상하여 추정된 대상 장기 및 병변의 위치를 3차원으로 가시화하는 장기 및 병변 위치 가시화부를 더 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 장기 및 병변 위치 가시화부는, 상기 위치추정기준이 되는 장기의 운동상태에 해당하는 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템을 제공한다.
본 발명의 다른 측면에 따르면, 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성단계; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성단계; 상기 4차원 참조 영상과 상기 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합단계; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 2차원 초음파 영상을 다수 개 형성하고, 상기 2차원 초음파 영상에 대한 2차원 플레인(plane)의 위치정보를 구하는 제2 초음파 영상 형성단계; 상기 리지드 트랜스포메이션 파라미터와 상기 2차원 플레인의 위치정보를 이용하여, 상기 4차원 참조 영상으로부터 해당 차원 참조 영상 시퀀스를 생성하고, 생성된 해당 차원 참조 영상 시퀀스 중에서 해당 차원 초음파 영상과 가장 유사한 해당 차원 참조 영상을 찾는 제2 영상 정합단계; 및 상기 2차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 해당 차원 참조 영상의 운동상태를 추출하여 장기 및 병변 위치를 추정하는 위치 추정단계;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 일 실시예에 따르면, 상기 위치 추정단계는, 상기 2차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 해당 차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출단계; 상기 트랜스포메이션 파라미터 및 운동상태로부터 2차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산단계; 및 상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상단계;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 또 다른 측면에 따르면, 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성단계; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성단계; 상기 4차원 참조 영상과 상기 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합단계; 상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제2 초음파 영상 형성단계; 상기 리지드 트랜스포메이션 파라미터를 이용하여, 상기 4차원 참조 영상으로부터 3차원 참조 영상 시퀀스를 생성하고, 생성된 3차원 참조 영상 시퀀스 중에서 3차원 초음파 영상과 가장 유사한 3차원 참조 영상을 찾는 제2 영상 정합단계; 및 상기 3차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 해당 차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정하는 위치 추정단계;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 일 실시예에 따르면, 상기 위치 추정단계는, 상기 3차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 해당 차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출단계; 상기 트랜스포메이션 파라미터 및 운동상태로부터 3차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산단계; 및 상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상단계;를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 다른 실시예에 따르면, 보상하여 추정된 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는 장기 및 병변 위치 가시화단계를 더 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 또 다른 실시예에 따르면, 상기 장기 및 병변 위치 가시화단계는, 상기 위치추정기준이 되는 장기의 운동상태에 해당하는 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법을 제공한다.
본 발명의 또 다른 측면에 따르면, 상기 어느 하나의 항의 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체을 제공한다.
본 발명에 따르면, 초음파 영상을 이용하여 장기 및 병변의 운동상태를 모니터링함으로써, 추가적인 장치의 필요없이도 운동상태의 장기 및 병변의 위치를 추정할 수 있다.
도 1은 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템의 일 실시예를 나타낸 블록도이다.
도 2는 도 1의 제1 초음파 영상 형성부의 블록도이다.
도 3은 본 발명의 초음파 프로브 고정상태를 나타낸 사시도이다.
도 4는 도 1의 위치 추정부의 블록도이다.
도 5는 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법의 제1 실시예를 나타낸 흐름도이다.
도 6은 도 5의 S160 단계의 상세 흐름도이다.
도 7은 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법의 제2 실시예를 나타낸 흐름도이다.
도 8은 도 7의 S260 단계의 상세 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면 상의 동일한 부호로 표시되는 요소는 동일한 요소이다.
도 1은 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템의 일 실시예를 나타낸 블록도이다. 도 1을 참조하면, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템은, 4차원 참조 영상 형성부(100), 제1 초음파 영상 형성부(200), 제1 영상 정합부(300), 제2 초음파 영상 형성부(400), 제2 영상 정합부(500), 위치 추정부(600)를 포함한다.
4차원 참조 영상 형성부(100)는 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성한다. 이때, 장기는 특정 반복패턴으로 운동하므로, 서로 다른 운동상태를 갖도록 다수 개의 3차원 참조 영상을 획득한다. 위치추정기준이 되는 장기는 위치추정대상의 장기와 운동상태의 반복패턴이 동일한 장기로 선택될 수 있고, 위치추정기준이 되는 장기는 위치추정대상의 장기와 동일할 수 있다. 참조 영상은 CT 영상 또는 MR 영상과 같이 초음파 영상 이상의 해부학적 또는 병변 정보를 갖는 영상이다. 4차원 참조 영상 형성부(100)는 영상보간기법을 이용하여 3차원 참조 영상을 추가적으로 더 형성할 수 있고, 시간경과에 따라 다수의 3차원 참조 영상을 획득하면 4차원 참조 영상을 형성할 수 있다. 영상보간기법을 이용하는 경우, 4차원 참조 영상 형성부(100)는 2개의 3차원 참조 영상을 보간(interpolation)하여 그 사이에 적어도 하나의 3차원 참조 영상을 형성한다. 일 예로, 4차원 참조 영상 형성부(100)는 2개의 3차원 참조 영상 간에 보간을 수행하여 다수의 3차원 참조 영상을 형성한다.
제1 초음파 영상 형성부(200)는 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성한다. 이때, 3차원 초음파 영상의 관심영역(Region of Interest) 내에 위치추정기준이 되는 장기가 포함되도록 설정한 후 초음파 프로브를 고정시킨상태에서 3차원 초음파 영상을 형성한다.
제1 영상 정합부(300)는 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상과, 제1 초음파 영상 형성부(200)에서 형성된 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구한다.
제2 초음파 영상 형성부(400)는 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 2차원 초음파 영상 또는 3차원 초음파 영상을 다수 개 형성하고, 2차원 초음파 영상이 형성된 경우 2차원 초음파 영상에 대한 2차원 플레인(plane)의 위치정보를 구한다. 2차원 초음파 영상은 다수 개를 동시에 형성할 수 있다. 초음파 영상을 형성할 때, 해당 초음파 영상의 관심영역 내에 위치추정기준이 되는 장기가 포함되도록 설정한 후 초음파 프로브를 고정시킨상태에서 해당 차원 초음파 영상을 형성한다.
제2 영상 정합부(500)는 제2 초음파 영상 형성부(400)가 2차원 초음파 영상을 형성한 경우 제1 영상 정합부(300)에서 형성된 리지드 트랜스포메이션 파라미터와 제2 초음파 영상 형성부(400)에서 형성된 2차원 플레인의 위치정보를 이용하여, 또는 제2 초음파 영상 형성부(400)가 3차원 초음파 영상을 형성한 경우 제1 영상 정합부(300)에서 형성된 리지드 트랜스포메이션 파라미터를 이용하여, 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상으로부터 해당 차원 참조 영상 시퀀스를 생성하고, 생성된 해당 차원 참조 영상 시퀀스 중에서 해당 차원 초음파 영상과 가장 유사한 해당 차원 참조 영상을 찾는다. 가장 유사한 해당 차원 참조 영상을 찾는 경우, 제2 영상 정합부(500)는 해당 차원 초음파 영상과 해당 차원 참조 영상 간의 유사도를 검출하여 유사도가 가장 큰 해당 차원 참조 영상을 찾는 방식을 이용한다. 유사도는 상호 상관(cross correlation)법, 상호 정보(mutual information)법, SSID(Sum of Squared Intensity Difference)법 등을 이용하여 검출될 수 있다.
위치 추정부(600)는 제2 초음파 영상 형성부(400)가 형성한 해당 차원 초음파 영상과 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 해당 차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정한다.
도 2는 도 1의 제1 초음파 영상 형성부의 블록도이고, 도 3은 본 발명의 초음파 프로브 고정상태를 나타낸 사시도이다. 도 2 및 도 3을 참조하면, 제1 초음파 영상 형성부(200)는 송신신호 형성부(210), 초음파 프로브(220), 빔 포머 (230), 초음파 데이터 형성부(240) 및 영상 형성부(250)를 포함한다. 제1 초음파 영상 형성부(200)는 도 3에 도시된 바와 같이 초음파 프로브(220)를 대상체(P)의 특정 위치에 고정시키기 위한 초음파 프로브 홀더(260)를 더 포함할 수 있다.
송신신호 형성부(210)는 복수의 프레임 각각을 얻기 위한 제1 송신신호를 형성한다. 제1 송신신호는 최대 들숨에서 복수의 프레임 각각을 얻기 위한 송신신호 및 최대 날숨에서 복수의 프레임 각각을 얻기 위한 송신신호 중 적어도 하나를 포함한다. 아울러, 송신신호 형성부(210)는 프레임을 얻기 위한 제2 송신신호를 형성한다. 프레임은 B 모드(Brightness mode) 영상을 포함할 수 있다.
초음파 프로브(220)는 복수의 변환소자(transducer element)(도시되지 않음)를 포함한다. 초음파 프로브(220)는 3차원 프로브 및 2차원 어레이(array) 프로브를 포함할 수 있다. 초음파 프로브(220)는 송신신호 형성부(210)로부터 제공되는 제1 송신신호를 초음파 신호로 변환하여 대상체에 송신하고 대상체로부터 반사되는 초음파 에코신호를 수신하여 제1 수신신호를 형성한다. 아울러, 초음파 프로브 (220)는 사용자에 의해 설정된 위치로 변환소자를 이동시켜 송신신호 형성부(210)로부터 제공되는 제2 송신신호를 초음파 신호로 변환하여 대상체(P)에 송신하고 대상체(P)로부터 반사되는 초음파 에코신호를 수신하여 제2 수신신호를 형성한다.
빔 포머(230)는 초음파 프로브(220)로부터 제1 수신신호가 제공되면, 제1 수신신호를 아날로그 디지털 변환하여 제1 디지털 신호를 형성한다. 빔 포머(230)는 변환소자의 위치 및 집속점을 고려하여 제1 디지털 신호를 수신 집속시켜 제1 수신집속신호를 형성한다. 빔 포머(230)는 초음파 프로브(220)로부터 제2 수신신호가 제공되면, 제2 수신신호를 아날로그 디지털 변환하여 제2 디지털 신호를 형성한다. 빔 포머(230)는 변환소자의 위치 및 집속점을 고려하여 제2 디지털 신호를 수신 집속시켜 제2 수신집속신호를 형성한다.
초음파 데이터 형성부(240)는 빔 포머(230)로부터 제1 수신집속신호가 제공되면, 제1 수신집속신호를 이용하여 제1 초음파 데이터를 형성한다. 초음파 데이터 형성부(240)는 빔 포머(230)로부터 제2 수신집속신호가 제공되면, 제2 수신집속신호를 이용하여 제2 초음파 데이터를 형성한다. 아울러, 초음파 데이터 형성부(240)는 초음파 데이터를 형성하는데 필요한 신호 처리(예를 들어, 게인(gain) 조절, 필터링 처리) 등을 제1 내지 제3 수신집속신호에 수행할 수도 있다.
영상 형성부(250)는 초음파 데이터 형성부(240)로부터 제1 초음파 데이터가 제공되면, 제1 초음파 데이터를 이용하여 3차원 초음파 영상을 형성한다. 3차원 초음파 영상은 최대 들숨에서의 3차원 초음파 영상 및 최대 날숨에서의 3차원 초음파 영상 중 적어도 하나를 포함한다. 영상 형성부(250)는 초음파 데이터 형성부(240)로부터 제2 초음파 데이터가 제공되면, 제2 초음파 데이터를 이용하여 2차원 초음파 영상을 형성한다.
도 4는 도 1의 위치 추정부(600)의 블록도이다. 도 4를 참조하면, 위치 추정부(600)는 트랜스포메이션 파라미터 및 운동상태 추출부(610), 4차원 참조 영상 영역 계산부(620), 위치추정 보상부(630)를 포함한다.
트랜스포메이션 파라미터 및 운동상태 추출부(610)는 제2 초음파 영상 형성부(400)가 형성한 해당 차원 초음파 영상과 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 해당 차원 참조 영상의 운동상태,를 추출한다.
4차원 참조 영상 영역 계산부(620)는 트랜스포메이션 파라미터 및 운동상태 추출부(610)에서 추출된 트랜스포메이션 파라미터 및 운동상태로부터 해당 차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산한다.
위치추정 보상부(630)는 4차원 참조 영상 영역 계산부(620)에서 계산된 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상한다.
장기 및 병변 위치 가시화부(640)는 위치추정 보상부(630)에서 보상하여 추정된 대상 장기 및 병변의 위치를 3차원으로 가시화한다. 이때, 위치추정기준이 되는 장기의 운동상태에 해당하는 대상 장기 및 병변의 위치를 3차원으로 가시화한다.
도 5는 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법의 제1 실시예를 나타낸 흐름도이다. 도 1 내지 도 5를 참조하기로 한다.
먼저, 4차원 참조 영상 형성부(100)가 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성한다(4차원 참조 영상 형성단계, S110)
S110 단계 이후, 제1 초음파 영상 형성부(200)가 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성한다(제1 초음파 영상 형성단계, S120)
S120 단계 이후, 제1 영상 정합부(300)가 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상과 제1 초음파 영상 형성부(200)에서 형성된 3차원 초음파 영상 사이에, 리지드 레지스트레이션을 수행하여 리지드 트랜스포메이션 파라미터를 구한다(제1 영상 정합단계, S130).
S130 단계 이후, 제2 초음파 영상 형성부(400)가 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 2차원 초음파 영상을 다수 개 형성하고, 2차원 초음파 영상에 대한 2차원 플레인의 위치정보를 구한다(제2 초음파 영상 형성단계, S140).
S140 단계 이후, 제2 영상 정합부(500)가 제1 영상 정합부(300)에서 형성된 리지드 트랜스포메이션 파라미터와 제2 초음파 영상 형성부(400)에서 형성된 2차원 플레인의 위치정보를 이용하여, 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상으로부터 2차원 참조 영상 시퀀스를 생성하고, 생성된 2차원 참조 영상 시퀀스 중에서 2차원 초음파 영상과 가장 유사한 2차원 참조 영상을 찾는다(제2 영상 정합단계, S150).
S150 단계 이후, 위치 추정부(600)가 제2 초음파 영상 형성부(400)가 형성한 2차원 초음파 영상과 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 2차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정한다(위치 추정단계, S160).
도 6은 도 5의 S160 단계의 상세 흐름도이다. 도 1 내지 도 4, 도 6을 참조하기로 한다.
먼저, 트랜스포메이션 파라미터 및 운동상태 추출부(610)는 제2 초음파 영상 형성부(400)가 형성한 2차원 초음파 영상과 4차원 C마조 영상 형성부에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 2차원 참조 영상의 운동상태,를 추출한다(트랜스포메이션 파라미터 및 운동상태 추출단계, S161).
S161 단계 이후, 4차원 참조 영상 영역 계산부(620)가 트랜스포메이션 파라미터 및 운동상태 추출부(610)에서 추출된 트랜스포메이션 파라미터 및 운동상태로부터 2차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산한다(4차원 참조 영상 영역 계산단계, S162)
S162 단계 이후, 위치추정 보상부(630)가 4차원 참조 영상 영역 계산부(620)에서 계산돈 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상한다(위치추정 보상단계, S163).
S163 단계 이후, 장기 및 병변 위치 가시화부(640)가 위치추정 보상부(630)에서 보상하여 추정된 대상 장기 및 병변의 위치를 3차원으로 가시화한다(장기 및 병변 위치 가시화 단계, S164). 이때, 위치추정기준이 되는 장기의 운동상태에 해당하는 대상 장기 및 병변의 위치를 3차원으로 가시화한다.
도 7은 본 발명에 따른 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법의 제2 실시예를 나타낸 흐름도이다. 도 1 내지 도 4, 도 7을 참조하기로 한다.
먼저, 4차원 참조 영상 형성부(100)가 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성한다(4차원 참조 영상 형성단계, S210).
S210 단계 이후, 제1 초음파 영상 형성부(200)가 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성한다(제1 초음파 영상 형성단계, S220).
S220 단계 이후, 제1 영상 정합부(300)가 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상과 제1 초음파 영상 형성부(200)에서 형성된 3차원 초음파 영상 사이에, 리지드 레지스트레이션을 수행하여 리지드 트랜스포메이션 파라미터를 구한다(제1 영상 정합단계, S230).
S230 단계 이후, 제2 초음파 영상 형성부(400)가 위치추정기준이 되는 장기의 운동상태에 따라 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성한다(제2 초음파 영상 형성단계, S240).
S240 단계 이후, 제2 영상 정합부(500)가 제1 영상 정합부(300)에서 형성된 리지드 트랜스포메이션 파라미터를 이용하여, 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상으로부터 3차원 참조 영상 시퀀스를 생성하고, 생성된 3차원 참조 영상 시퀀스 중에서 3차원 초음파 영상과 가장 유사한 3차원 참조 영상을 찾는다(제2 영상 정합단계, S250).
S250 단계 이후, 위치 추정부(600)가 제2 초음파 영상 형성부(400)가 형성한 3차원 초음파 영상과 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 3차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정한다(위치 추정단계, S260).
도 8은 도 7의 S260 단계의 상세 흐름도이다. 도 1 내지 도 4, 도 8을 참조하기로 한다.
먼저, 트랜스포메이션 파라미터 및 운동상태 추출부(610)가 제2 초음파 영상 형성부(400)가 형성한 3차원 초음파 영상과 4차원 참조 영상 형성부(100)에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 제2 영상 정합부(500)에서 찾은 3차원 참조 영상의 운동상태,를 추출한다(트랜스포메이션 파라미터 및 운동상태 추출단계, S261).
S261 단계 이후, 4차원 참조 영상 영역 계산부(620)가 트랜스포메이션 파라미터 및 운동상태 추출부(610)에서 추출된 트랜스포메이션 파라미터 및 운동상태로부터 3차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산한다(4차원 참조 영상 영역 계산단계, S262).
S262 단계 이후, 위치추정 보상부(630)가 4차원 참조 영역 계산부(620)에서 계산된 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상한다(위치추정 보상단계, S263).
S263 단계 이후, 장기 및 병변 위치 가시화부(640)가 위치추정 보상부(630)에서 보상하여 추정된 대상 장기 및 병변의 위치를 3차원으로 가시화한다(장기 및 병변 위치 가시화단계, S264). 이때, 위치추정기준이 되는 장기의 운동상태에 해당하는 대상 장기 및 병변의 위치를 3차원으로 가시화한다.
한편, 상기한 바와 같은 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법은, 이와 같은 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체에도 기록되어 사용자에 의해 컴퓨터에서 판독될 수 있다.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경이 가능하다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.
본 발명은 초음파 영상을 이용하여 장기 및 병변의 운동상태를 모니터링하고 운동상태의 장기 및 병변의 위치를 추정하는 장치에 적용된다.

Claims (15)

  1. 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성부;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성부;
    상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상과, 상기 제1 초음파 영상 형성부에서 형성된 3차원 초음파 영상 사이에, 리지드 레지스트레이션 (rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합부;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 2차원 초음파 영상 또는 3차원 초음파 영상을 다수 개 형성하고, 상기 2차원 초음파 영상이 형성된 경우 상기 2차원 초음파 영상에 대한 2차원 플레인(plane)의 위치정보를 구하는 제2 초음파 영상 형성부;
    상기 제2 초음파 영상 형성부가 2차원 초음파 영상을 형성한 경우 상기 제1 영상 정합부에서 형성된 리지드 트랜스포메이션 파라미터와 상기 제2 초음파 영상 형성부에서 형성된 2차원 플레인의 위치정보를 이용하여, 또는 상기 제2 초음파 영상 형성부가 3차원 초음파 영상을 형성한 경우 상기 제1 영상 정합부에서 형성된 리지드 트랜스포메이션 파라미터를 이용하여, 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상으로부터 해당 차원 참조 영상 시퀀스를 생성하고, 생성된 해당 차원 참조 영상 시퀀스 중에서 해당 차원 초음파 영상과 가장 유사한 해당 차원 참조 영상을 찾는 제2 영상 정합부; 및
    상기 제2 초음파 영상 형성부가 형성한 해당 차원 초음파 영상과 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 제2 영상 정합부에서 찾은 해당 차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정하는 위치 추정부;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  2. 청구항 1에 있어서,
    상기 위치추정기준이 되는 장기는 상기 위치추정대상의 장기와 운동상태의 반복패턴이 동일한 장기인, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  3. 청구항 1에 있어서,
    상기 위치추정기준이 되는 장기는 상기 위치추정대상의 장기와 동일한, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  4. 청구항 1에 있어서,
    상기 4차원 참조 영상 형성부는 영상보간기법을 이용하여 3차원 참조영상을 더 형성하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  5. 청구항 1에 있어서,
    상기 2차원 초음파 영상은 다수 개를 동시에 형성하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  6. 청구항 1에 있어서,
    상기 위치 추정부는,
    상기 제2 초음파 영상 형성부가 형성한 해당 차원 초음파 영상과 상기 4차원 참조 영상 형성부에서 형성된 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 제2 영상 정합부에서 찾은 해당 차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출부;
    상기 트랜스포메이션 파라미터 및 운동상태 추출부에서 추출된 트랜스포메이션 파라미터 및 운동상태로부터 해당 차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산부; 및
    상기 4차원 참조 영상 영역 계산부에서 계산된 상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상부;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  7. 청구항 6에 있어서,
    상기 위치추정 보상부에서 보상하여 추정된 대상 장기 및 병변의 위치를 3차원으로 가시화하는 장기 및 병변 위치 가시화부를 더 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  8. 청구항 7에 있어서,
    상기 장기 및 병변 위치 가시화부는, 상기 위치추정기준이 되는 장기의 운동상태에 해당하는 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템.
  9. 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성단계;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성단계;
    상기 4차원 참조 영상과 상기 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합단계;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 2차원 초음파 영상을 다수 개 형성하고, 상기 2차원 초음파 영상에 대한 2차원 플레인(plane)의 위치정보를 구하는 제2 초음파 영상 형성단계;
    상기 리지드 트랜스포메이션 파라미터와 상기 2차원 플레인의 위치정보를 이용하여, 상기 4차원 참조 영상으로부터 2차원 참조 영상 시퀀스를 생성하고, 생성된 2차원 참조 영상 시퀀스 중에서 2차원 초음파 영상과 가장 유사한 2차원 참조 영상을 찾는 제2 영상 정합단계; 및
    상기 2차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 2차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정하는 위치 추정단계;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  10. 청구항 9에 있어서,
    상기 위치 추정단계는,
    상기 2차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 2차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출단계;
    상기 트랜스포메이션 파라미터 및 운동상태로부터 2차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산단계; 및
    상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상단계;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  11. 서로 다른 운동상태에서 위치추정대상의 장기 및 병변과 위치추정기준이 되는 장기의 3차원 참조 영상을 다수 개 획득하여 4차원 참조 영상을 형성하는 4차원 참조 영상 형성단계;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제1 초음파 영상 형성단계;
    상기 4차원 참조 영상과 상기 3차원 초음파 영상 사이에, 리지드 레지스트레이션(rigid registration)을 수행하여 리지드 트랜스포메이션 파라미터(rigid transformation parameter)를 구하는 제1 영상 정합단계;
    상기 위치추정기준이 되는 장기의 운동상태에 따라 상기 위치추정기준이 되는 장기의 3차원 초음파 영상을 다수 개 형성하는 제2 초음파 영상 형성단계;
    상기 리지드 트랜스포메이션 파라미터를 이용하여, 상기 4차원 참조 영상으로부터 3차원 참조 영상 시퀀스를 생성하고, 생성된 3차원 참조 영상 시퀀스 중에서 3차원 초음파 영상과 가장 유사한 3차원 참조 영상을 찾는 제2 영상 정합단계; 및
    상기 3차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 3차원 참조 영상의 운동상태,를 추출하여 장기 및 병변 위치를 추정하는 위치 추정단계;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  12. 청구항 11에 있어서,
    상기 위치 추정단계는,
    상기 3차원 초음파 영상과 상기 4차원 참조 영상 사이의 트랜스포메이션 파라미터와, 상기 3차원 참조 영상의 운동상태,를 추출하는 트랜스포메이션 파라미터 및 운동상태 추출단계;
    상기 트랜스포메이션 파라미터 및 운동상태로부터 3차원 초음파 영상에 해당하는 4차원 참조 영상의 영역을 계산하는 4차원 참조 영상 영역 계산단계; 및
    상기 4차원 참조 영상의 영역과 대상 장기 및 병변 사이의 상대적인 위치차이를 계산하고, 상기 상대적인 위치차이에 관한 정보를 대상 장기 및 병변의 위치추정에 보상하는 위치추정 보상단계;
    를 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  13. 청구항 10 또는 청구항 12에 있어서,
    보상하여 추정된 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는 장기 및 병변 위치 가시화단계를 더 포함하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  14. 청구항 13에 있어서,
    상기 장기 및 병변 위치 가시화단계는, 상기 위치추정기준이 되는 장기의 운동상태에 해당하는 상기 대상 장기 및 병변의 위치를 3차원으로 가시화하는, 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정방법.
  15. 청구항 9 내지 청구항 14 중의 어느 하나의 항의 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체.
PCT/KR2011/009865 2011-05-09 2011-12-20 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체 WO2012153904A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0043303 2011-05-09
KR1020110043303A KR101282008B1 (ko) 2011-05-09 2011-05-09 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체

Publications (1)

Publication Number Publication Date
WO2012153904A1 true WO2012153904A1 (ko) 2012-11-15

Family

ID=47139365

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/009865 WO2012153904A1 (ko) 2011-05-09 2011-12-20 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체

Country Status (2)

Country Link
KR (1) KR101282008B1 (ko)
WO (1) WO2012153904A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015099249A1 (ko) * 2013-12-27 2015-07-02 삼성전자 주식회사 의료 영상의 병변 유사도 판단 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150010860A (ko) 2013-07-19 2015-01-29 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US20090156933A1 (en) * 2005-09-07 2009-06-18 Koninklijke Philips Electronics, N.V. Ultrasound system for reliable 3d assessment of right ventricle of the heart and method of doing the same
KR20100049232A (ko) * 2008-11-03 2010-05-12 주식회사 메디슨 볼륨 데이터를 처리하는 초음파 시스템 및 방법
KR20110039506A (ko) * 2009-10-09 2011-04-19 삼성메디슨 주식회사 볼륨 데이터를 보정하는 초음파 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5311392B2 (ja) 2009-03-11 2013-10-09 国立大学法人 東京大学 生体内結石検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US20090156933A1 (en) * 2005-09-07 2009-06-18 Koninklijke Philips Electronics, N.V. Ultrasound system for reliable 3d assessment of right ventricle of the heart and method of doing the same
KR20100049232A (ko) * 2008-11-03 2010-05-12 주식회사 메디슨 볼륨 데이터를 처리하는 초음파 시스템 및 방법
KR20110039506A (ko) * 2009-10-09 2011-04-19 삼성메디슨 주식회사 볼륨 데이터를 보정하는 초음파 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015099249A1 (ko) * 2013-12-27 2015-07-02 삼성전자 주식회사 의료 영상의 병변 유사도 판단 장치 및 방법
US10296810B2 (en) 2013-12-27 2019-05-21 Samsung Electronics Co., Ltd. Apparatus and method for determining lesion similarity of medical image

Also Published As

Publication number Publication date
KR20120125704A (ko) 2012-11-19
KR101282008B1 (ko) 2013-07-04

Similar Documents

Publication Publication Date Title
EP2996557B1 (en) Anatomical site relocalisation using dual data synchronisation
CN102428496B (zh) 用于em跟踪内窥镜系统的无标记物跟踪的配准和校准
JP4054104B2 (ja) 内視鏡画像処理装置
EP1744676B1 (en) Ultrasound calibration and real-time quality assurance based on closed form formulation
WO2015030455A1 (ko) 수술 내비게이션 시스템 운용 방법 및 수술 내비게이션 시스템
WO2010093153A2 (ko) 수술용 항법 장치 및 그 방법
WO2010064348A1 (ja) 医用画像の位置あわせのための情報処理装置、情報処理方法、プログラム
US20140253684A1 (en) Visualization of registered subsurface anatomy
WO2019143123A1 (en) Ultrasound imaging apparatus and method of controlling the same
CN107920722A (zh) 针对自胶囊相机所撷取的图像通过对象检测进行重建
CN110547872B (zh) 手术导航注册系统
WO2013095032A1 (ko) 초음파 영상을 이용하여 정중 시상면을 자동으로 검출하는 방법 및 그 장치
Housden et al. Evaluation of a real-time hybrid three-dimensional echo and X-ray imaging system for guidance of cardiac catheterisation procedures
WO2020027377A1 (ko) 3d 영상 정합 제공 장치 및 그 방법
WO2015178745A1 (ko) 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
CN109171808A (zh) 基于三维轮廓测量的三维超声成像系统
Wang et al. Gradient-based differential approach for 3-D motion compensation in interventional 2-D/3-D image fusion
KR20170000789A (ko) 의료 이미지 프로세싱 방법 및 이미지 프로세싱 시스템
CN111789621A (zh) 用于患者定位监视的光学相机
CN109730771A (zh) 一种基于ar技术的手术导航系统
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
WO2012153904A1 (ko) 초음파 영상을 이용한 운동상태의 장기 및 병변 위치추정시스템 및 위치추정방법과, 그 방법을 수행하는 명령어를 포함하는 컴퓨터 판독가능 기록매체
Ma et al. Knee arthroscopic navigation using virtual-vision rendering and self-positioning technology
WO2013085139A1 (ko) 초음파 프로브의 위치 및 방향 추정 시스템 및 방법
Lee et al. Automated conformal ultrasound scanning for breast screening

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11865152

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11865152

Country of ref document: EP

Kind code of ref document: A1